-
【AI快讯分析】离职旧将揭秘:OpenAI AGI 安全部门人员流失近半
【原文大意】来源:网上搜集文章主要报道了OpenAI在人工智能安全研究方面面临的问题。据报道,近一半专注于超级智能AI长期风险的研究人员已经离开OpenAI,这引发了外界对公司是否忽视AI安全性的担忧。前治理研究员Daniel Kokotajlo指出,OpenAI的AGI安全团队成员在过去几个月内几乎减少了一半,从约30人减少到16人左右。这一...
-
【AI快讯分析】研究揭示,超半数《财富》全球 500 强公司将人工智能视为“潜在风险”
【原文大意】来源:网上搜集文章主要报道了最新调查数据,显示《财富》世界500强公司中有56%将人工智能列为“风险因素”,这一比例较2022年的9%大幅上升。在108家讨论了生成式AI的公司中,仅33家视其为机遇,认为其潜在好处包括成本效率、运营效益和加速创新。自OpenAI推出ChatGPT后,预测性机器学习技术迅速发展,大型科技...
-
【AI快讯分析】OpenAI 推出 GPT-4o 模型卡:详述人工智能安全及风险防范策略
【原文大意】来源:网上搜集OpenAI 公司在 8 月 8 日发布了一份关于 GPT-4o 模型的系统卡报告,详细介绍了该模型的安全性和风险管理措施。GPT-4o 模型的核心是准备框架(Preparedness Framework),这是一种旨在评估和降低人工智能系统相关风险的系统方法。该框架主要用于识别和应对网络安全、生物威胁、说服和模型自主性等...
-
【AI快讯分析】OpenAI:若新模型风险水平超越“中度”,其发布计划将搁置
【原文】来源:网上搜集OpenAI在社交平台X上更新安全信息称,为确保做好准备以评估和防范日益强大的人工智能模型带来的风险,如果新模型的风险阈值超过“中等”,那么除非实施足够的安全干预措施,公司将不会发布它。OpenAI正在制定级别,以帮助该公司和利益相关者对AI进展实施分类和跟踪。这项工作正在进行中,很快就会分享...