吕归亚:AI欧盟法案如何平衡监管与发展

近日,欧洲议会、欧盟成员国和欧盟委员会三方,就《人工智能法案》达成协议。这一法案将成为全球首部人工智能领域的全面监管法规,但立法其实并不顺畅,过程中受到诸多质疑并历经反复。

《人工智能法案》进一步完善了欧盟的新兴数字规则手册,该手册包含《通用数据保护条例》、《数字服务法》和《数字市场法》等法案,对数字经济的不同方面进行了规范。《人工智能法案》立法始于2021年。去年6月,空中客车和西门子等多家欧洲大型企业表示,法案过于严苛,不利于培育创新和帮助本土产业。此前,法、德、意也曾表示反对草案的一些规定,认为这些法案会影响本国人工智能初创公司的发展。

此次关于《人工智能法案》主要有两个重要争议点,一是包括面部识别在内的实时生物识别技术在公共场所的使用;二是基础模型及通用人工智能(AGI)的监管。有关生物识别技术,最棘手的谈判难点是对实时生物识别工具的限制程度。除了维护国家安全和执法等个别情况外,此次法案原则上禁止实施生物识别,所以在公共场所使用该技术有很多限制护栏,这里不再赘述。下面主要谈对大模型及通用人工智能的监管。

欧盟《人工智能法案》的核心是风险分类系统,即根据人工智能系统对人的健康、安全和基本权利构成的风险程度对其进行监管。风险分为四类:不可接受、高、有限和最低/无。通用人工智能的提供者将承担与高风险人工智能系统类似的义务。开发者必须满足各种要求,证明其技术及其使用不会对健康、安全和基本权利构成重大威胁。开发者需提供风险管理和数据治理方案、监控和记录保存实践、详细的文档记录,并保障人工智能的透明度和人工监督义务,以确保人工智能的准确性及稳健性达到网络安全标准。高风险人工智能系统还必须在欧盟范围内的公共数据库中注册。

大语言模型开发人员存在基本的透明度要求。那些构成系统性风险的生成式人工智能应用的开发者将需要签署自愿行为准则,相关的标准涉及算力、商业用户数量和模型参数。将计算能力在10—25(GPU的数量)以上训练的AI模型定性为基础模型,超过这些阈值的模型将面临额外的义务,包括严格的评估、系统性风险评估、网络安全措施和能源消耗披露等。

作为全球首部人工智能领域的全面监管法规,欧盟方案可以给我们带来一些启示。首先,该法案体现了欧盟希望在人工智能领域实现弯道超车。美国已经在互联网行业形成“自然垄断”,但相较之下,新兴的人工智能行业目前还处于百家争鸣的阶段。虽然美国的微软等科技巨头有一定的先发优势,但新创企业依然可以在新赛道中胜出。如果《人工智能法案》限制了创新,就可能会重蹈DeepMind被迫卖给Google的覆辙。德国初创企业Aleph Alpha GmbH上月刚融资超过5亿美元,法国的Mistral AI也在新赛道领先。如果欧盟此时浇灭创业之火,那无异于自毁长城。

其次,像人工智能这样的新兴技术,政府部门很难进行全面监管,因为目前还无法准确预测人工智能技术带来的影响。正如人类无法在第一辆汽车还在设计测试阶段就制定详尽的交规。开发期间的繁杂监管可能也会导致技术发展的延后。为兼顾发展和监管,不妨将技术和应用分开监管,放松对技术开发的初期限制。

此前,美国政府同包括微软和OpenAI在内的7家头部人工智能企业签署自发性的信息透明协议,而欧盟在此次立法中进一步强制人工智能企业在开发通用人工智能时签署自我透明协议,两者本质上都是把社会的监管变成企业内部的自我监管。因此人工智能头部企业的内部治理特别重要。这些公司董事会需要由不同价值观的专家平衡参与,以达到内部制衡的效果。

他山之石,可以攻玉。欧盟《人工智能法案》关于发展和监管的平衡,头部企业的内部监督、头部企业董事会的专家参与机制等也许可以为不同国家人工智能的监管提供借鉴意义。(作者是奇安信集团职员)

热门相关:都市极品小医圣   娶一送一:爹地,放开我妈咪!   在遗忘的时光里重逢   我有一张沾沾卡   隐身侍卫