AI公司承诺在AI峰会上安全开发技术,各国同意建立安全研究机构

韩国首尔(AP)—在周二的小型峰会上,领先的人工智能公司承诺安全开发人工智能,而世界领导人则同意建立一系列公共支持的安全研究机构,推动该技术的研究和测试。

谷歌、Facebook(Meta)和OpenAI等公司在AI首尔峰会上做出了自愿的安全承诺,包括在无法控制最极端风险时关闭他们的尖端系统。

这两天的会议是去年11月在英国布莱切利公园举行的AI安全峰会的后续活动,也是在各国政府和国际组织纷纷努力制定技术的风险规则的背景下召开的。

英国政府在一份声明中表示,来自10个国家和欧盟的领导人将“形成关于AI安全的共同理解,并协调他们的AI研究工作”。自布莱切利会议以来,联合国专门设立的安全研究机构将包括英国、美国、日本和新加坡已建立的机构。

联合国秘书长安东尼奥·古特雷斯在开幕式上表示,在布莱切利公园会议举行七个月后,“我们看到了改变生活的技术进步和造成新风险的技术——从虚假信息到大规模监视再到致命的自主武器的前景。”

联合国秘书长在视频讲话中表示,AI需要普遍的规则和定期对话。“我们不能在一个AI的力量被少数人控制——或者更糟糕地说,被人类理解之外的算法控制的反乌托邦未来中走神。”

签署安全承诺的16家人工智能公司还包括亚马逊、微软、三星、IBM、xAI、法国的Mistral AI公司、中国的致普人工智能以及阿联酋的G42。他们承诺通过建立负责任的治理和公开透明度,确保其最先进的AI模型的安全性。

AI公司不是第一次做出高调的自愿安全承诺。亚马逊、谷歌、Facebook和微软等公司是去年签署经白宫斡旋的自愿保障协议的一部分,以确保在发布产品之前安全。

首尔会议是一些公司推出最新版本的AI模型。安全承诺包括发布框架,阐明公司如何衡量其模型的风险。在风险严重且“难以忍受”的极端情况下,如果无法减轻风险,AI公司将不得不启动关闭开关,停止开发或部署他们的模型和系统。

自去年英国会议以来,AI行业“越来越关注最紧迫的问题,包括错误和虚假信息、数据安全、偏见以及保持人类参与”,签署了协议的人工智能公司之一Cohere的首席执行官Aiden Gomez说。“我们必须继续考虑所有可能的风险,同时优先考虑那些如果不得到妥善处理可能会造成问题的风险。”

尽管技术迅速发展,预计将改变生活中的许多方面,从教育和工作场所到版权和隐私,世界各国政府一直在努力制定AI的规则。有人担心人工智能的进步可能会淘汰工作,传播虚假信息,或者被用来创造新的生物武器。

本周的会议只是一系列关于AI治理的努力之一。联合国大会已批准了有关安全使用AI系统的第一项决议,而美国和中国最近举行了首次高级别关于人工智能的会谈,欧盟即将生效的世界首个《AI法》等。

__

此报道来自伦敦的Chan。美联社记者埃迪思·M·莱德尔从联合国贡献了报道。