欧盟理事会最终通过基于风险的AI规则手册

欧盟议员已最终批准设立该集团的旗舰基于风险的人工智能法规。

欧盟理事会在一份新闻发布中确认通过了欧盟AI法案,称这项法律是“开创性的”,“作为全球第一,它可以为AI监管设立全球标准。”

欧洲议会已于3月批准该立法。

理事会的批准意味着该立法将在未来几天内发布在该集团的《欧盟官方公报》上,并且法律将在此后的20天内在欧盟范围内生效。新规将分阶段实施,虽然一些规定将在两年后或更长时间后才生效。

该法律采取基于风险的方法来监管AI的使用,明令禁止了一些“不可接受风险”使用情形,如认知行为操纵或社会评分。它也定义了一些“高风险”使用情形,如生物识别和面部识别,或AI在教育和就业等领域的使用。应用程序开发人员需要注册他们的系统并满足风险和质量管理义务,才能进入欧盟市场。

另一类AI应用程序,如聊天机器人,被视为“有限风险”,对透明度义务要求较轻。

该法律针对生成式AI工具的崛起,制定了适用于“通用人工智能”(GPAIs)的一套规则,比如支持OpenAI的ChatGPT的模型。然而,大多数GPAIs将仅面临有限的透明度要求,只有通过一定计算阈值并被认为存在“系统风险”的GPAIs才会受到更严格的监管。(更多关于欧盟AI法案如何应对GPAIs的信息,请参阅我们先前的报道。)

比利时数字化国务秘书马修·米歇尔在一份声明中表示,“AI法案的通过是欧盟的重要里程碑。这项具有开创性的法律是全球首创,解决了一个全球性技术挑战,也为我们的社会和经济创造了机遇。通过AI法案,欧洲强调了在处理新技术时信任、透明度和问责制的重要性,同时确保这种快速变化的技术能够蓬勃发展和推动欧洲创新。”

此外,该法律建立了一个新的AI治理架构,包括欧洲委员会内设的一个执法机构,名为AI办公室。

还将成立一个由欧盟成员国代表组成的AI委员会,以就AI法案的一致有效应用提供建议和协助欧洲委员会,类似于欧洲数据保护委员会协助指导GDPR的应用。欧洲委员会还将建立一个科学小组,支持监督工作,以及一个提供技术专业知识的咨询论坛。

标准机构将在确定对AI应用程序开发人员要求的方面发挥关键作用,因为该法律试图复制欧盟长期以来对产品监管的做法。我们应该期待该行业将他们专注于反对立法的精力转向努力塑造将应用于AI开发人员的标准。

该法律还鼓励建立监管沙盒,支持新型AI应用的开发和在现实世界中的测试。

欧盟议员就“全球首创”的AI规则达成协议