文|薛澜
当前,如何在推动人工智能技术创新的同时建立科学有效的治理机制,已成为技术政策研究与实践的重要议题。
然而,在现实语境中,人工智能治理存在一定程度的认知误区。一种较为典型的观点认为,人工智能的发展和应用仍在初始阶段,此时提出治理问题可能会过早地对技术创新形成不必要的束缚。本质上说,这种看法一方面低估了人工智能技术给社会可能带来的风险,另一方面也低估了治理机制在引导和塑造技术发展过程中可以起到的关键作用。事实上,治理并非创新的对立面,而是实现人工智能健康、有序、可持续发展过程中不可或缺的制度性支撑。
值得关注的是,人工智能在人类认知领域的进展速度令人惊叹。在数学奥林匹克竞赛题目测试中,人工智能模型已逐步具备解决复杂题目的能力,部分模型在解题准确率上甚至超越了人类参与者的平均水平。这种技术的跃升,不仅增强了人们对通用人工智能(AGI)可行性的预期,也加强了社会各界在应对人工智能发展时加强治理的紧迫感。
三个常见的人工智能治理维度
人工智能治理(AI Governance)是多维度、多工具、多主体参与的动态系统性过程。其目的不仅在于防范潜在风险,更在于塑造人工智能的发展方向与应用边界,使技术的进步与社会价值相协调。
治理既包括伦理与原则的制定,也包括政策激励与市场规制,还涉及标准建设与国际协调。可以说,人工智能治理是规范、引导、协调人工智能发展的制度总和。目前较为通行的人工智能治理框架,通常可以分为三个层次:
伦理与价值维度——该维度关注的是人工智能系统在开发与应用中应当遵循的基本伦理原则,包括但不限于安全性与可控性、透明性与可解释性(保障用户了解人工智能系统的运作机制与决策过程)、公平性与非歧视性(防止人工智能在算法训练或部署过程中加剧社会不公)、责任可追溯性。
这方面,中国人工智能治理专家委员会于2019年提出了“负责任人工智能”的八项治理准则。欧盟、OECD、IEEE等国际组织也相继发布了多套人工智能伦理框架。
政策支持与市场激励维度——治理不仅是限制,更是塑造和激励。政府可以通过财政投入、研发资助、基础设施建设、人才政策与公共采购等方式,为人工智能创新提供制度土壤。同时,也需要通过反垄断政策、数据共享机制、中小企业扶持等手段,维护技术创新生态的多样性与可持续性。例如,2017年发布的中国《新一代人工智能发展规划》提出以“三步走”战略推动人工智能产业发展,强调国家主导与企业协同的创新路径。这是一种典型的政策驱动型治理结构,具有较强的系统组织能力与资源整合能力。
规制与标准维度——规制是治理的重要组成部分,但不应被狭义地等同于“限制”。其内涵包括法律法规、技术标准、责任机制、合规评估、建设风险识别、分级管理等。
当前,欧盟《人工智能法案》已进入最终立法阶段,其将人工智能系统分为“禁止类”“高风险类”“有限风险类”与“最低风险类”,并据此提出差异化监管要求,成为人工智能规制分级管理的重要案例。
人工智能治理既具有多元的目标导向,也依赖多样化的治理工具,涵盖传统的行政法规,以及大量的政策措施、自律机制和技术手段。多元工具的协同应用,有助于在技术发展快速变化的环境中实现敏捷治理。
全球人工智能治理的四个挑战
人工智能治理是全球性重大挑战。人工智能的跨境传播特性、影响范围以及所蕴含的系统性风险,决定了人工智能的治理不能局限于国家层面。正如气候变化、传染病防控一样,人工智能也正在成为全球治理体系中的“新型全球公共事务”。
然而,现实中人工智能的全球治理推进面临诸多挑战。
一是技术路径不同引发的治理差异化。
各国在人工智能技术发展路径上的差异,不仅表现在技术选择和应用重点上,也体现在对“何种风险应被治理”的认识上存在本质分歧。例如,2024年初,国产大模型DeepSeek在国内引起业界广泛关注,其在搜索增强、中文语义建构与推理能力方面突破显著。这一新路径的发展,也带来治理工具如何适配的现实问题:是否要对具备高能力的国产大模型施加与国外头部模型相当的评估要求?是否要对中文训练语料设定特殊保护机制?这些问题的回答,在不同国家政策中并无统一方案。这说明,全球治理机制之间需要互相学习、互相借鉴,也需要在“原则一致”与“路径多元”之间找到合理平衡,避免以一种技术范式凌驾于他国实践之上。
二是治理节奏与技术发展的错配。
人工智能技术发展呈现指数型演进,而治理体系的演进则普遍存在滞后与碎片化现象,导致出现典型的技术发展与技术治理之间的步调不一致。监管政策的制定、立法程序、标准建设等过程均具有特定的周期性与协商性等特征,很难与技术迭代的速度实现同步对接。
例如,Open AI发布GPT-4不到半年,国内外即有多款对标模型上线,但多数国家对大模型的法律分类、数据使用边界、能力管控机制仍未落地。在此背景下,“边创新边治理”“沙盒实验”与“敏捷治理”成为现实可行的治理方式。经合组织(OECD)提出的“灵活监管”理念就强调,应以适应性制度嵌入快速演进的技术环境,建立“监测—评估—调试—再立法”的周期型治理流程。
三是全球人工智能治理机制复合体面临治理困境。
当前,全球范围内已形成多个围绕人工智能治理的倡议与机制,但这些机制之间缺乏层级关系与协调机制,形成所谓的“机制复合体”(regime complex),如联合国系统中的教科文组织(UNESCO)发布了《人工智能伦理建议书》;经合组织(OECD)制定了人工智能推荐原则,并推动成员国采纳;欧洲联盟制定了《人工智能法案》,试图构建最系统的人工智能监管立法;世界经济论坛(WEF)则设有人工智能治理的多利益攸关方平台等。
然而,这些机制在目标设定、治理工具、成员构成与规则设计等方面存在不同程度的重叠乃至冲突。例如,OECD的“自愿性软法”机制与欧盟“强制立法”机制之间的协调性就一直是外界质疑的焦点。
虽然“机制复合体”的现实在一定程度上反映了全球治理的多元协商逻辑,但也带来了一系列现实难题:如治理效能低——重复设立规则、标准不统一;话语权失衡——部分机制被大国主导,发展中国家缺乏影响力;合规困境——企业面临不同国家制度之间的合规冲突,增加成本。
因此,全球治理需要建立跨机制协调平台或规则对接机制,推动在基本原则层面一致性的前提下,允许在细则上保持多样性。
四是地缘政治因素影响。
当前较为严峻的全球治理障碍,是地缘政治冲突对人工智能合作形成的壁垒。原本可以在技术、伦理、标准等层面展开广泛合作的人工智能治理议题,越来越多地被纳入战略博弈的框架之中。例如,AGI 的研发逐渐演变为少数国家主导、大型科技企业牵头的“竞赛型项目”,而全球协同开发与风险共担的路径,在当前地缘紧张格局下,已很难实现。
面向未来,我们可以清楚地看到,人工智能治理如果缺少合作性,将很难应对跨境风险;如果缺少包容性,将加剧“智能鸿沟”;如果缺少合法性,将削弱公众信任。因此,人工智能治理须回归到全球合作的正确轨道上。
人工智能的治理并非人工智能技术发展的附属议题,而是与人工智能技术共同进化伴生的“制度生态构建工程”。治理的任务既要面向“安全风险管控”,也要着眼“社会结构塑形”,更要推进“市场机制构造”,只有三者同步协调发展,才能真正保障人工智能以安全、可信、公平的方式造福世界。
(作者系清华大学苏世民书院院长、人工智能国际治理研究院院长、中国科技政策研究中心主任)