【快讯分析】微软、英伟达、英特尔、谷歌等科技巨头携手创立CoSAI联盟,共同推进人工智能框架的标准化与安全性建设
OASIS Open,CoSAI 安全联盟,AI 软件供应链安全,网络领域安全性,AI 安全治理 2024-07-21
新闻主要报道了OASIS Open这一由多家科技巨头组成的非营利组织在7月18日宣布成立CoSAI安全联盟(Coalition for Secure AI),旨在推动AI的安全性。该联盟将与学术界和其他AI安全组织合作,重点关注AI软件供应链安全性、网络领域安全性及AI安全治理性三大领域,推动“负责任的AI”发展。CoSAI计划建立一个协作生态体系,分享AI安全设计的方法、标准化框架及工具,并通过认证的“安全”AI系统来构建和部署运营环境,以降低模型操纵、模型盗窃等风险,为B端市场提供安全的AI解决方案。OASIS组织强调,安全需要“集体行动”,并呼吁在AI领域采用通用的安全标准。
组织背景与成员:OASIS Open 是一个由多家科技巨头如微软、英伟达、英特尔、谷歌、OpenAI、IBM、亚马逊、思科等组建的非营利组织,专注于推动全球结构化信息标准。这种由行业领导者组成的联盟通常具有强大的资源和影响力,能够有效地推动行业标准的制定和实施。
合作与联盟:CoSAI 安全联盟计划与学术界以及其他AI安全组织如Frontier Model Forum、Partnership on AI、Open Source Security Foundation、ML Commons等合作。这种跨领域的合作有助于整合不同领域的专业知识和资源,共同解决AI安全问题。
重点领域:CoSAI 关注的三大重点领域是AI软件供应链安全性、网络领域安全性及AI安全治理性。这些领域是当前AI技术应用中最为关键和敏感的部分,涉及到从数据采集、模型训练到部署运营的全过程。
安全措施:CoSAI 计划建立一个协作生态体系,分享与AI安全设计有关的方法、标准化框架及工具。通过认证为“安全”的AI系统,可以有效降低模型操纵、模型盗窃、恶意训练数据、提示词“越狱”等风险,为B端市场提供安全的解决方案。
安全与伦理:OASIS组织强调安全需要“集体行动”,并提倡采用通用的安全标准。这不仅是对技术安全的追求,也是对AI伦理和责任的重视。通过建立统一的安全标准,可以确保AI技术的负责任使用,避免技术滥用带来的社会风险。
负责任的AI:CoSAI 的目标是推动“负责任的AI”,这意味着在追求技术创新的同时,也要考虑到AI技术对社会、伦理和法律的影响。通过与学术界和其他组织的合作,CoSAI 可以更好地平衡技术发展与社会责任,确保AI技术的健康发展。
总体来看,CoSAI 安全联盟的建立是AI领域安全标准化的重要一步,通过跨领域的合作和集体行动,有望推动AI技术的安全、负责任发展。
评论记录: