2024年10月,美国企业公共政策研究所[1](AEI)研究员布朗温·豪厄尔(Bronwyn Howell)发布了题为《在充满不确定性的世界中监管人工智能》(Regulating Artificial Intelligence in a World of Uncertainty)的报告。美国企业研究所是美国著名的保守派政策研究机构,以倡导自由市场理念和影响政府政策制定而闻名。作者认为在高度不确定性下,传统风险管理方法难以有效监管生成式人工智能(GAI),并提出应通过保险机制、谦卑监管和多方协同治理等新思路,以平衡人工智能创新发展与社会风险防控。
一、引言
2022年11月,OpenAI发布ChatGPT引发了公众对人工智能的广泛关注。人工智能技术既带来效率提升和创新潜力,也引发了对失业、偏见、错误输出和潜在社会危害的担忧。欧盟和美国都在探索如何通过风险管理来监管人工智能,以确保其安全性和可靠性。
欧盟于2024年3月通过了《人工智能法案》,并于8月生效,计划到2026年全面实施。该法案基于风险分级,对高风险人工智能系统设定了严格要求。美国则通过美国国家标准与技术研究院(NIST)的风险管理框架和行政命令,推动自愿遵守行业标准而非强制立法(但个别州,如科罗拉多州和加利福尼亚州通过相关法案要求对高风险人工智能应用进行风险评估和披露)。
这些监管措施的核心是风险管理,要求开发者识别和管理潜在风险,以保护消费者和社会免受伤害。然而,对于生成式人工智能,这种基于风险的管理方法可能并不适用。生成式人工智能的设计目标是生成无限多样化的输出,而不是像传统人工智能那样追求精确性和可解释性。因此,开发者可能无法预见所有可能的有害输出,从而导致传统风险管理策略的局限性。
风险与不确定性之间存在根本区别。风险是可以量化和管理的,而不确定性则是不可预见的。对于生成式人工智能,由于其复杂性和动态性,传统的风险管理框架可能无法有效应对。因此,需要探索新的监管方法,例如通过保险机制来分担意外伤害的成本,而不是仅仅依赖于开发者的风险管理。
二、风险与不确定性
对于人工智能的监管首先需要厘清“风险”与“不确定性”这两个核心概念。1921年,经济学家弗兰克·奈特(Frank Knight)首次系统地区分了这两者。他指出,风险是指那些虽然结果未知,但其发生的概率和后果可以被测量或估算的情境;而不确定性(Uncertainty)则是指那些不仅结果未知,而且其发生的概率和后果也无法被事先识别或量化的情境,即“未知的未知”(Unknown Unknowns)。
奈特认为,风险是可以通过概率模型进行理性分析和管理的,而不确定性则超出了人类认知的范围,难以通过传统的科学方法进行预测和控制。在人工智能领域,尤其是生成式人工智能的开发和应用中,这种不确定性表现得尤为突出。
人工智能系统通常部署在复杂的社会技术系统中,这些系统具有高度的动态性、非线性和涌现性。复杂系统的特征在于其组成要素之间的相互作用不断变化,导致系统的整体行为难以预测。人工智能系统本身也具有学习能力,能够根据输入数据不断调整自身行为,这进一步增加了系统的不确定性。为了更清晰地理解不同情境下的不确定性,我们可以借助Cynefin框架,该框架将问题情境划分为四类:
1.清晰(Clear):因果关系明确,结果可预测,适用于标准化流程和规则。
2.主观性复杂(Complicated):因果关系需要专业知识才能理解,结果可预测,但需要分析。
3.系统性复杂(Complex):因果关系不明确,系统行为具有涌现性,结果难以预测。
4.混乱(Chaotic):无明确的因果关系,系统处于无序状态,需要快速响应以恢复秩序。
传统的风险管理方法适用于“清晰”和“主观性复杂”情境,但在“系统性复杂”和“混乱”情境中则显得力不从心。生成式人工智能的运行环境往往属于“系统性复杂”甚至“混乱”的范畴,因此,传统的风险管理方法难以有效应对其带来的不确定性。
在面对不确定性时,人类的决策行为往往受到认知偏差的影响。诺贝尔经济学奖得主丹尼尔·卡尼曼(Daniel Kahneman)及其合作者阿莫斯·特沃斯基(Amos Tversky)的研究表明,人类在决策时存在系统性偏差,例如:
1.损失厌恶(Loss Aversion):人们对损失的厌恶程度高于对同等收益的喜爱。
2.可得性启发(Availability Heuristic):人们倾向于根据容易回忆的信息来评估事件的概率。
3.代表性启发(Representativeness Heuristic):人们倾向于根据事件的相似性来判断其概率,而忽视基础概率。
4.过度自信(Overconfidence):人们往往高估自己对未来的预测能力。
这些偏差在监管决策中同样存在。例如,在人工智能监管中,政策制定者可能会过度关注那些高影响、低概率的风险事件,而忽视那些更常见但影响较小的风险。这种偏差可能导致监管资源的错配,甚至抑制技术创新。
这些不确定性对监管提出了严峻挑战。传统的监管方法通常基于“预防原则”(Precautionary Principle),即在科学证据不充分的情况下,采取预防措施以避免潜在的重大伤害。然而,这一原则在人工智能领域可能并不适用,因为人工智能系统的潜在风险和收益往往难以事先评估。此外,人工智能系统的快速迭代和广泛应用使得监管机构难以及时更新监管框架。监管滞后可能导致监管空白,而过度的预防性监管则可能抑制技术创新。因此,监管机构需要在保护公众利益与促进技术创新之间找到平衡。
为此,面对不确定性,监管机构可以采取以下策略:
增强透明度和信息披露:要求人工智能开发者公开其系统的训练数据、算法逻辑和潜在风险,以便公众和监管机构进行监督。
建立适应性监管框架:监管框架应具备灵活性,能够根据技术发展和新出现的风险进行调整。
促进多方参与:鼓励政府、企业、学术界和公众共同参与人工智能治理,形成多元化的监管体系。
探索保险机制:通过建立保险基金,分散人工智能系统可能带来的意外伤害风险,减轻开发者负担。
三、欧盟和美国的人工智能治理方法
在人工智能治理方面,欧盟和美国采取了不同的路径。欧盟倾向于通过立法建立统一的监管框架,而美国则更多依赖于行业自律和自愿性指导原则。本部分将分析欧盟和美国的治理方法,探讨两者在应对人工智能风险方面的异同及其有效性。
(一)欧盟的人工智能治理方法
欧盟法案采用基于风险的分级管理方法,将人工智能系统分为四个风险等级:
1.不可接受风险(Unacceptable Risk):禁止使用的人工智能系统,如利用潜意识技术操控人类行为、实时生物识别监控等。
2.高风险(High Risk):需严格监管的系统,如用于关键基础设施、教育、就业、执法等领域的人工智能系统。开发者需进行风险评估、数据治理、透明披露等。
3.有限风险(Limited Risk):需履行透明度义务的系统,如聊天机器人、深度伪造(Deepfake)内容生成器等。
4.最小风险(Minimal Risk):基本无监管要求的系统,如人工智能驱动的视频游戏、垃圾邮件过滤器等。
对于生成式人工智能,欧盟法案设定了特殊条款。若模型训练计算量超过10²⁵ FLOPs,或欧盟委员会评估认为其具有“系统性风险”,则需承担额外义务,包括模型评估、测试、文档记录、报告等。开源模型在非商业用途下可豁免部分义务。
此外,欧盟还设立人工智能办公室(AI Office)负责监督实施,各成员国需设立监管机构,建立监管沙盒(Regulatory Sandboxes)供企业测试人工智能系统。高风险人工智能系统需通过第三方评估并获得CE认证标志后方可上市。同时,欧盟还配套出台了《人工智能责任指令》(AI Liability Directive),明确了人工智能系统造成损害时的责任归属,采用严格责任原则,即开发者需证明其无过错方可免责。
(二)美国的人工智能治理方法
与欧盟不同,美国联邦层面尚未出台专门的人工智能法律(截至2024年10月),而是通过行政命令、行业指南和自愿性标准进行治理。2023年10月,拜登政府发布《关于安全、可靠和可信人工智能开发和使用的行政命令》,要求联邦机构在使用人工智能时遵循NIST的风险管理框架。
NIST于2023年1月发布《人工智能风险管理框架》(AI RMF 1.0),强调自愿性、灵活性和适应性。该框架包括四个核心功能:
1.治理(Govern):建立风险管理文化和治理结构。
2.映射(Map):识别人工智能系统的背景、功能和风险。
3.测量(Measure):评估人工智能系统的风险水平和性能。
4.管理(Manage):根据风险评估结果,采取风险缓解措施。
此外,NIST还发布了针对生成式人工智能的专门指南,识别了214项具体风险,并提出了相应的管理建议。
美国政府鼓励行业自律,支持企业、学术界和民间组织制定人工智能治理标准。例如,人工智能联盟(AI Alliance)和人工智能治理联盟(AI Governance Alliance)等组织积极参与标准制定。政府还强调人工智能系统的透明度和可审计性,要求企业披露训练数据来源、模型性能等信息。尽管联邦层面未出台强制性法律,但一些州已开始行动。例如,科罗拉多州通过了SB24-205法案,要求高风险人工智能系统进行风险评估和披露。加利福尼亚州也提出了多项人工智能监管法案,涵盖透明度、算法歧视、数据隐私等方面,但部分法案被州长否决。
欧盟和美国在人工智能治理上采取了不同的策略,反映了各自的政策目标、法律文化和产业利益。欧盟的强制性立法有助于建立统一的监管标准,但可能对创新产生一定抑制;美国的自愿性指南则鼓励创新,但需加强监管协调和用户保护。
四、结论
面对生成式人工智能带来的高度不确定性,传统的风险管理方法和现有监管框架已难以有效应对。监管机构首先应保持谦卑,认识到自身能力的局限,避免给公众造成“绝对安全”的错觉,同时加强对公众的教育,提高社会对人工智能技术的理性认知。此外,应建立合理的风险分担机制,借鉴汽车保险、地震保险等领域的经验,设立人工智能保险基金,由开发者、用户和政府共同出资,用于赔偿开发者已尽合理注意义务但仍无法预见的意外伤害,从而激励技术创新并保障受害者权益。同时,应引入大学、研究机构等第三方独立评估机构,对人工智能系统进行客观评估,并推动开发者提高系统透明度,主动披露训练数据、算法逻辑和风险管理措施。国际社会还应共同制定统一的人工智能评估标准,明确责任归属,合理设置责任标准,避免责任过度集中于开发者。最后,人工智能治理需要政府、企业、学术界和公众的共同参与,建立国际合作机制,形成多元共治格局,在保障社会安全的同时,促进人工智能技术的健康发展,实现技术进步与社会福祉的良性互动。
免责声明:本文转自启元洞见。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!
转自丨启元洞见
研究所简介
国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。
地址:北京市海淀区小南庄20号楼A座
电话:010-82635522
微信:iite_er
发表评论