11月9日,北京大学人工智能治理国际圆桌对话会在北京大学举办。此次圆桌会聚焦人工智能治理这一核心议题,中外学者、智库、企业代表围绕“中外人工智能治理模式的异同与交汇”以及“人工智能的安全底线与创新活力的平衡”两大主题进行交流讨论。

11月9日下午,北京大学人工智能治理国际圆桌对话会在北京大学斯坦福中心举办。澎湃新闻记者 杨文钦 图
在地缘政治与大国竞争的背景下,人工智能已经成为各方必争的核心领域之一。中国人民大学国际关系学院国家安全学系讲师刘丽娜在发言中表示,在这样的叙事中,“人工智能更像是一种武器,大国不愿在这场竞赛中失利,都希望成为人工智能治理的领导者。因此,合作变得异常困难”。
基于此,她提出另一种思考角度。“我们对人工智能的隐喻是否需要改变?如果将人工智能视为大国竞争中的武器,合作确实无从谈起;但如果将其视为一种特殊的共有资源,各国的治理合作是可能实现的。”
北京大学武汉人工智能研究院执行院长吴志强指出,中美之间的技术竞争和贸易战愈演愈烈,许多人受到影响,人工智能产业也不例外。他举例分析道,“美国对中国实施英伟达芯片禁令,实际上对双方都造成了伤害。首先,对于中国许多构建大型语言模型的研究者而言,由于缺乏足够的芯片运行模型,他们不得不想其他办法,因此无法投入足够精力关注安全问题。而美国的同行们也会有同样的想法:‘我们也必须这样做,否则就会在竞争中失利’。这就像一把双刃剑,同时伤害着中国和美国。”
而就在圆桌对话会的前一日,11月8日,世界互联网大会人工智能专业委员会安全与治理推进计划研究成果——《为人类共同福祉构建全球人工智能安全与治理体系》报告,在2025年世界互联网大会乌镇峰会期间发布。
《报告》指出,全球人工智能治理碎片化加剧,构建完善的人工智能安全与治理体系已刻不容缓。当前应着力解决四个关键问题:一是防范应对全球性的安全风险;二是平衡各国的发展能力水平与治理诉求差异;三是协调多利益攸关方来实现有力行动;四是克服在此过程中地缘政治与意识形态带来的障碍和干扰。
《报告》揭示的关键问题正与专家所剖析的治理困境与合作难题相呼应。无论是高校学术层面的研讨,还是国际平台的成果发布,都共同指向了人工智能治理的紧迫性与复杂性。
安远AI高级研究经理周杰森在9日的圆桌对话会上指出,全球已形成共识,人工智能会带来风险,尤其是国家安全风险,这不仅需要企业,也要求政府具备更多专业知识,以更好了解这些风险可能造成的影响。因此,他呼吁,未来各国应该在风险评估的测试方法论上加强分享与合作,共享数据以更好应对风险。“这对所有相关方都将有益。”
加州大学洛杉矶分校研究员Jad Soucar则提出了更具体的人工智能治理的“推广逻辑”。Jad Soucar观察到,产业界更关心收入和发展速度,政府可能担心在全球人工智能竞赛中失利,因此,“为了吸引有关各方达成共识,或许应该重新构建全球治理的叙事”。
他认为,安全问题或者人工智能全球治理并不等同于牺牲效率和创新进步,而是“提升效能的助力”。“一旦认可‘安全的全球治理框架实际上对利益相关者更高效’时,我们就能提出温和有效的全球治理方案,一些各国都能认同的方案。”Jad Soucar说。
本次对话会由北京大学社会科学部、北京大学人工智能研究院、北京大学中外人文交流研究基地共同主办。
还木有评论哦,快来抢沙发吧~