-
【AI快讯分析】离职旧将揭秘:OpenAI AGI 安全部门人员流失近半
【原文大意】来源:网上搜集文章主要报道了OpenAI在人工智能安全研究方面面临的问题。据报道,近一半专注于超级智能AI长期风险的研究人员已经离开OpenAI,这引发了外界对公司是否忽视AI安全性的担忧。前治理研究员Daniel Kokotajlo指出,OpenAI的AGI安全团队成员在过去几个月内几乎减少了一半,从约30人减少到16人左右。这一...
-
【AI快讯分析】应急管理部推出“永安”巨系统:智能识别视频监控中的潜在危险,并协助制定应急响应计划
【原文大意】来源:网上搜集文章报道了应急管理部推出的AI大模型“久安”,该模型通过整合危险化学品、煤矿、森林火灾和安全生产执法等领域的专业知识,并利用国产大模型和应急云基础算力进行增强训练,具备了高效的风险识别和应急管理能力。具体来说,“久安”能够自动从视频监控中筛选出多种安全风险,如人员聚集、粉尘积...
-
【AI快讯分析】阿尔特曼:OpenAI 承诺将 AI 安全研发中至少五分之一计算能力投入使用
【原文大意】来源:网上搜集文章主要报道了OpenAI首席执行官山姆・阿尔特曼在X平台发布的一项重要声明。阿尔特曼宣布,为了加强AI安全相关的研究和开发工作,OpenAI将保障提供至少20%的计算资源。这一举措显示了OpenAI对AI安全性的高度重视,并致力于通过增加资源投入来推动相关技术的安全发展。此举也反映了AI行业对于安全...
-
【AI快讯分析】空格键漏洞:Meta AI防护机制遭破解,攻击成功率飙升至近100%
【原文大意】来源:网上搜集文章主要报道了Meta公司发布的Prompt-Guard-86M模型,该模型旨在帮助开发人员检测和响应AI提示词注入和越狱输入。然而,科技媒体theregister指出,该模型存在安全漏洞,用户可以通过在字母之间添加空格并省略标点符号的方式绕过Meta的AI安全系统,从而要求模型“忽略之前的指令”。这一漏洞是由R...
-
【AI快讯分析】OpenAI:若新模型风险水平超越“中度”,其发布计划将搁置
【原文】来源:网上搜集OpenAI在社交平台X上更新安全信息称,为确保做好准备以评估和防范日益强大的人工智能模型带来的风险,如果新模型的风险阈值超过“中等”,那么除非实施足够的安全干预措施,公司将不会发布它。OpenAI正在制定级别,以帮助该公司和利益相关者对AI进展实施分类和跟踪。这项工作正在进行中,很快就会分享...