当地时间14日,欧洲议会以499票赞成、28票反对和93票弃权,高票通过了欧盟的《人工智能法案》谈判授权草案。
第一财经记者看到的草案文本显示,欧洲议会对此前版本作出修改,譬如在如何定义人工智能方面,进一步明确了高风险人工智能的场景,同时该版本也保留了此前的法案的重要内容,包括禁止在生物识别监控中使用人工智能技术,以及ChatGPT等生成式人工智能的披露透明度等问题。
据悉,接下来各方将正式进入与欧盟委员会进行协商的程序,以确定最终版本,最快也要在今年年底才能达成共识。
“监管中必须有不可跨越的红线。欧盟的《人工智能法案》中就规定了不可发展的部分,比如不可用于社会评分。”欧洲工商管理学院(INSAED)的决策科学和技术管理教授埃夫根尼奥(Theos Evgeniou)对第一财经记者表示:“不过从某种意义上来说,欧洲更复杂,在解决某些重大问题时,所有成员国需要达成一致,需要考虑到不同成员国之间不同的立法流程、文化背景以及治理体系。所以欧洲的行动相比起来较为缓慢。因此,欧洲希望从一开始就不要在监管上犯错误。”
人工智能分级管理
欧盟于2021年首次提出《人工智能法案》,旨在制定管理使用人工智能系统的任何产品和服务的规则。
目前的该法案谈判授权草案采取了分级管理的思路,即基于人工智能的四个等级(从风险最小到不可接受),进行区别管理,风险较高的应用程序将面临更严格的规则,需要更高的透明度和准确性。
欧洲议会认为,对人类安全造成不可接受风险的人工智能系统将被严格禁止,包括部署潜意识或有目的操纵技术、利用人们弱点或用于社会评分的系统。
譬如,用于预先确定犯罪发生地点和犯罪者的警务工具可能将被禁止,除打击和预防特定恐怖威胁外,远程面部识别技术也将被禁止。
此次,欧洲议会就批准了全面禁止警察在公共场所使用实时面部识别技术的立法草案文本。具体而言,此次欧洲议会议员扩大了禁止清单,进一步禁止了侵入性和歧视性使用人工智能,其中包括在公共场所的实时远程生物特征识别监控系统,使用敏感特征(例如性别、种族等)的生物识别分类系统,预测性警务系统(基于分析、位置或既往犯罪行为),执法、边境管理、工作场所和教育机构中的情绪识别系统以及从互联网或闭路电视录像中无针对性地抓取面部图像以创建面部识别数据库的行为。
将立法推进到投票阶段的欧洲议会人工智能委员会的联合报告员本尼菲(Brando Benifei)表示,在面部识别方面,法律将提供“明确的保障措施,以避免任何大规模监控的风险”。
彻底记录训练人工智能版权
欧洲议会提出,像ChatGPT这样的生成基础模型必须遵守额外的透明度要求,比如披露内容是由人工智能生成的,设计模型以防止其生成非法内容,以及发布用于训练的受版权保护数据的摘要。
此外,欧洲议会的议员们还希望提高欧洲公民对人工智能系统提出投诉的权利,并获得对基于严重影响其权利的高风险人工智能系统决策的解释权利。
在欧盟的定义里,由于生成式人工智能没有特定用途,因而将其划分为通用人工智能领域(General Purpose AI),并强制披露受版权保护的人工智能训练数据。
根据草案文本,开发商在欧盟市场上发布之前在欧盟人工智能管理数据库中进行登记。如ChatGPT等工具,必须披露哪些内容是人工智能生成的,以便帮助区分所谓的深度造假图像和真实图像,并确保防止生成非法内容。
同时,此次在草案中,欧洲议会要求彻底记录任何用于训练人工智能系统如何生成类似于人类作品的文本、图像、视频和音乐的版权材料,且开发商还必须证明他们为训练机器所做的一切都符合法律。
欧洲议会议员图朵拉赫表示,如果人工智能的开发者不这样做,他们可能会被迫立即删除应用程序或被罚款,罚款最高可达其收入的 7%,这对科技巨头来说可能高达数亿欧元。
埃夫根尼奥对第一财经记者表示,像ChatGPT这样的生成性AI技术是所谓“根基模型”(foundation models)。
“人们可以在这种模型的基础上开发大量产品,并能够进行微调。换言之,它们不是单纯的产品,而是核心技术,是人们可以开发的产品之核心所在。”他解释道,“这种核心技术本身已经非常强大,我们甚至无法预测人们将依靠它们开发出什么。我们也从未仔细考虑过如何管控和规范根基模型。这是一种新概念。”
“很明显,我们需要对其中一些部分进行监管。要注意的是,我们要规范和监管的是内容审核的过程,而非内容本身。”他表示:“一些国家和地区已着手制定有关内容审核的法规。例如,欧洲提出《数字服务法》(DSA),涉及规范在线平台的内容。在我看来,这是一个很好的法规,因为它带来了一个公平和透明的内容审核程序。”
他并补充道,总之,我们需要法规来规范如何公平和透明地审核内容,至于内容来自人还是来自人工智能,这在某种意义上并不重要。
据悉,接下来,欧洲议会、欧盟理事会和欧盟委员会的代表将在“三方”会谈中商定最终条款。在条款最终确定且该法案成为法律后,将有大约两年的宽限期。
(记者高雅对本文亦有贡献)