首尔峰会上AI公司承诺打造新的安全保障,各国同意共同努力应对风险

韩国首尔(美联社)——主要人工智能公司周二在一次小型峰会上作出了发展人工智能安全的新承诺,而世界领导人则同意建立一个由公共支持的安全研究机构网络,推进该技术的研究和测试。

Google、Meta和OpenAI等公司在AI首尔峰会上做出了自愿的安全承诺,包括如果无法控制最极端风险,他们将中止其尖端系统的运行。

这两天的会议是去年11月英国布莱切利公园举行的AI安全峰会的后续举办,目前各国政府和国际组织为设计技术保障措施而奋起拼搏,担忧人工智能可能对日常生活和人类造成潜在风险。

协办此次活动的英国政府在一份声明中表示,来自10个国家和欧盟的领导人将“建立对人工智能安全的共同理解,并在AI研究上保持协调一致”。自布莱切利会议以来,已经建立的安全研究所网络中将包括英国、美国、日本和新加坡的机构。

联合国秘书长安东尼奥·古特雷斯在会议开幕式上表示,距离布莱切利会议七个月后,“我们正在见证改变人生的技术进步和新的生命威胁性风险——从虚假信息到大规模监视再到致命自主武器的前景。”

联合国秘书长在视频讲话中表示,关于人工智能,需要有普适的技术安全准则和定期对话。“我们不能走上一个由少数人或更糟糕地由人类无法理解的算法控制的反乌托邦未来的道路,”他说道。

签署了安全承诺的16家人工智能公司还包括亚马逊、微软、三星、IBM、xAI、法国的Mistral AI、中国的Zhipu.ai以及阿联酋的G42。他们承诺确保其最先进的人工智能模型具有可追究责任的治理和公开透明度。

人工智能公司此前曾多次发表高调但无约束力的安全承诺。亚马逊、谷歌、Meta和微软曾在去年与白宫协商的自愿保障措施中签署了这些承诺,以确保他们的产品在发布前是安全的。

首尔会议举行之际,一些公司正在推出其最新版本的人工智能模型。

安全承诺包括发布框架,阐明这些公司如何衡量其模型的风险。在极端情况下,如果风险严重且“无法容忍”,人工智能公司将不得不启动紧急关闭按钮,并停止开发或部署其模型和系统,如果他们无法减轻风险。

自去年英国会议以来,人工智能行业“越来越关注最紧迫的问题,包括错误和虚假信息、数据安全、偏见以及保持让人类参与其中,”签署了该协定的人工智能公司之一Cohere的首席执行官艾登·戈麦斯表示,“非常必要我们继续考虑所有可能的风险,同时还要优先考虑那些如若不得到妥善解决将可能造成问题的风险。”

尽管该技术快速进步且即将改变日常生活的许多方面,从教育和工作场所到版权和隐私,但全球各国政府仍在争分夺秒地制定人工智能的法规。人们担忧人工智能的进步可能会消除就业机会、传播虚假信息或被用来制造新的生物武器。

本周的会议只是催生人工智能治理大潮中的一次努力。联合国大会已批准了关于安全使用人工智能系统的第一项决议,而美国和中国最近举行了首次高层人工智能对话,欧盟世界首个AI法案定于今年晚些时候生效。

__

本报道来自伦敦的陈。美联社记者伊迪丝·M·莱德勒从联合国贡献了一部分内容。