全球AI治理报告发布,强调着力应对四大关键问题

2025-11-15

人工智能在推动发展和创新的同时,也带来了跨领域、多层次的治理挑战,全球如何监管AI及防范相关风险成为焦点。


11月8日,《为人类共同福祉构建全球人工智能安全与治理体系》报告(以下简称《报告》)在2025年世界互联网大会乌镇峰会的人工智能技术创新与治理论坛上正式发布。《报告》指出,随着人工智能技术快速发展,其安全与治理体系呈现碎片化趋势,国际社会亟需建立广泛认可的治理框架与标准。


该联合研究由世界互联网大会人工智能专委会主任委员、中国科学院自动化研究所人工智能伦理与治理中心主任、北京前瞻人工智能安全与治理研究院院长曾毅,以及剑桥大学教授、智能未来中心人工智能未来与责任项目主任肖恩·欧·海格缇(Seán Ó hÉigeartaigh)共同主持,系统梳理了全球人工智能安全与治理现状。


《报告》显示,2019至2024年间,全球记录的人工智能风险事件从约400起增至7900余起,增长近20倍。其中涉及鲁棒性与数字安全、人权与隐私、透明度与问责等问题的事件占比超过60%,凸显技术安全性与伦理性已成为全球性挑战。


报告回顾了联合国、各国政府、区域组织及产业界在AI治理方面的努力:联合国通过设立咨询机构、通过大会决议推动全球议程;欧盟颁布《人工智能法案》,建立首个全面监管框架;中国发布《全球人工智能治理倡议》,倡导发展与安全并重。产业界和学术界也在探索自律机制,例如Anthropic的“负责任扩展政策”及OpenAI的“应对准备框架”,以确保AI系统安全部署。


尽管如此,《报告》指出,目前AI治理仍存在结构性局限,包括治理规则更新滞后、技术支撑不足、跨境协作薄弱以及责任归属不明确等问题。


针对未来治理,《报告》提出四大关键方向:一是建立技术跟踪与风险预警协同机制,应对快速迭代和不确定性风险,推动治理规则动态更新;二是构建包容性多边平台,保障各国平等发展与利用AI的权利;三是明确多方责任边界,建立履约审查、风险监测和争端调解机制,实现协同治理;四是克服地缘政治障碍,以联合国为核心推动多边合作,建设人类命运共同体。同时,报告借鉴了核安全和气候变化等全球治理经验,提出了具体实施方案。


《报告》还建议,建立全球前沿AI模型检测与能力评估机制,形成应对AI技术失控风险的共识,并在联合国框架下推动资源整合和分级分类对话,确保价值共识、技术规范和风险治理的多维协同。




分享
写评论...