未来生命研究院发布的《AI Safety Index 2025》对全球8家处于能力前沿的人工智能企业进行了系统评估,涵盖风险评估、现实危害、安全框架、存在风险、治理与问责、信息披露六个维度,共计30余项指标。评估结果显示,行业整体安全治理水平明显滞后于模型能力跃升速度,且结构性差距正在扩大。
从整体排名来看,Anthropic、OpenAI和Google DeepMind继续位列前三,形成了明显的第一梯队。其中,Anthropic在所有六个维度上均取得了最高的综合得分。其优势主要来自于风险评估的高度透明度、相对成熟的安全框架以及对技术安全研究的持续投入。但报道同时指出,其在最新一轮风险评估中并未进行“人类能力放大实验”,并默认使用用户交互数据来训练模型,相关安全边界已被弱化。
第二梯队由xAI、Z.ai、Meta、DeepSeek和阿里云组成,与前三名差距明显。大多数企业在风险评估披露、安全框架完整性和治理机制方面仍然存在根本性缺陷,特别是在举报人保护制度、外部独立评估和量化风险阈值方面。尽管如此,xAI 和Z.ai 在本轮披露了更多内部风险评估流程,显示出一些改进的迹象。
在风险评估维度,越来越多的企业开展了内部和外部测试,但审查认为测试覆盖的风险类型仍然较窄,外部评估的独立性和可验证性不足。人类能力放大实验、第三方部署前安全测试和Bug赏金机制仍主要集中在少数龙头企业,整体行业渗透率较低。
在存在风险和长期安全方面,没有一家公司在连续两次评估中获得高于D的分数。尽管一些企业高管开始更频繁地公开讨论灾难性风险,但这些表述尚未转化为可量化的安全目标、明确的触发阈值或有效的内部监控机制。能力雄心与风险治理之间的差距仍然很大。
在信息披露和公众沟通方面,参与国际自愿承诺的企业数量有所增加,但在系统提示、行为规范、重大事故报告机制等方面公开信息仍有限。报告特别指出,安全框架“已发布但实施情况不明”成为许多公司的共同特点,治理文件与实际运营脱节。
值得注意的一个结构性差异是监管环境。评审人员认为,中国企业虽然未能跻身前三,但在内容标注、事故报告等方面受到国内强制性法规的影响,部分指标的基线表现优于依赖自愿披露的西方同行。这在一定程度上缩小了治理透明度的差距。
综合来看,《AI Safety Index 2025》描绘了一个安全投入逐渐加大,但仍明显跟不上产能扩张的前沿AI行业。从趋势层面看,随着欧盟人工智能行为准则、G7广岛进程等国际规范逐渐具体化,安全治理的最低标准正在上移。未来差异化的关键不再是公司是否“强调安全”,而是公司能否建立可验证、可审计、真正具有约束力的风险管理体系。否则,能力和安全之间的差距将继续扩大。
文档链接将分享到圆圆知识星球,扫描下面二维码即可查阅!
阴阳师4月22日更新内容:帝释天上线技能调整,红莲华冕活动来袭[多图],阴阳师4月22日更新的内容有哪些?版本更新
四川电视台经济频道如何培养孩子的学习习惯与方法直播在哪看?直播视频回放地址[多图],2021四川电视台经济频
湖北电视台生活频道如何培养孩子的学习兴趣直播回放在哪看?直播视频回放地址入口[多图],湖北电视台生活频道
小森生活金币不够用怎么办?金币没了不够用解决方法[多图],小森生活金币突然就不够用的情况很多人都有,金币没