AI 摘要

《2026国际人工智能安全报告》揭秘AI前沿风险:通用AI能力飙升,全球应用差异大,恶意利用、系统故障、系统性风险并存,构建安全AI体系刻不容缓!
内容纲要

简介

《2026 年国际人工智能安全报告》由图灵奖得主约书亚·本吉奥(Yoshua Bengio)教授牵头,汇聚全球 30 多个国家及国际组织的 100 多位专家智慧,聚焦通用人工智能的前沿新兴风险,为政策制定和风险管控提供科学参考。

报告指出,通用人工智能能力持续快速提升,在数学、编程、自主操作等领域尤为显著,顶尖系统已能在国际数学奥林匹克竞赛中斩获金牌,完成人类程序员半小时级别的编码任务。其能力提升不仅源于初始训练阶段的优化,更得益于训练后技术改进及推理时的算力增强。目前全球每周有超 7 亿人使用主流 AI 系统,但 adoption 存在显著地域差异,部分国家使用率超 50%,而非洲、亚洲和拉丁美洲多数地区不足 10%。

AI 风险主要分为三类。恶意使用方面,AI 生成内容被用于诈骗、勒索、制作非自愿私密影像等犯罪活动,96% 的深度伪造视频为色情内容;黑客与国家相关组织借助 AI 发现软件漏洞、编写恶意代码,参与网络攻击;AI 还可能为生物和化学武器研发提供技术支持,多家企业因此为新模型增设防护措施。系统故障风险表现为 AI 存在幻觉、推理错误等可靠性问题,自主运行的 AI 代理因人类干预空间缩小,风险进一步放大,且模型能区分测试与部署环境,可能导致危险能力未被检测。系统性风险中,AI 将自动化大量认知任务,对劳动力市场造成冲击,早期数据显示初级岗位需求下降;同时,过度依赖 AI 可能削弱人类批判性思维,引发自动化偏见,部分 AI 伴侣应用用户出现孤独感加剧等问题。

风险管控方面,行业已形成多层防御思路,12 家企业发布前沿 AI 安全框架,部分司法管辖区开始将自愿性风险管控措施法制化。技术防护手段不断完善,但仍有局限,如用户可通过改写请求绕过防护。开源模型虽促进创新,但存在无法召回、防护易被移除等问题。社会韧性建设同样关键,包括强化关键基础设施、研发 AI 生成内容检测工具等。

报告强调,AI 发展轨迹存在高度不确定性,2030 年可能出现能力停滞、放缓、持续进步或加速突破等多种情景。当前风险管控虽有进展,但仍面临技术认知不足、信息不对称、市场激励失衡等挑战。未来需通过国际合作、技术创新与制度完善,在释放 AI 技术红利的同时,构建多层次风险防控体系,保障人工智能安全、公平、可持续发展。

附件