MIT研究人员发布AI风险知识库

当一个人、公司或政府使用AI系统或制定规则管理其使用时,他们应该考虑哪些具体的风险呢?这并不是一个容易回答的问题。如果是一个控制关键基础设施的AI,那么显而易见的风险就是对人类安全的威胁。但如果是一个专门用于评分考试、筛选简历或在移民控制时验证旅行文件的AI呢?尽管每个领域都有自己不同的风险,但这些风险同样严重。

在制定类似欧盟AI法案或加州SB 1047等监管AI的法律时,决策者们一直在努力就这些法律应该涵盖哪些风险达成共识。为了为他们提供指引,以及为AI行业和学术界的利益相关者提供支持,麻省理工学院的研究人员开发了他们称之为AI“风险知识库”的工具-一种AI风险数据库。

MIT未来技术组的研究人员、AI风险知识库项目负责人Peter Slattery告诉TechCrunch说:“这是一个严格筛选和分析AI风险的公开、全面、可扩展和分类风险数据库,任何人都可以复制和使用,并且会随着时间更新。”“我们现在创建它是因为我们在项目中需要它,同时也意识到许多其他人也需要它。”

Slattery表示,AI风险知识库包括700多个按照因果因素(例如故意性)、领域(例如歧视)和子领域(例如虚假信息和网络攻击)分组的AI风险,旨在了解AI安全研究中的重叠和背离。Slattery说,其他风险框架存在,但仅覆盖了知识库中识别出的风险的一小部分,这些遗漏可能对AI开发、使用和政策制定产生重大影响。

“人们可能会认为关于AI风险存在共识,但我们的研究结果表明不然,”Slattery补充道,“我们发现平均框架仅提到了我们识别出的23种风险子领域的34%,近四分之一的框架覆盖率不到20%。没有一个文件或概述提到所有23个风险子领域,覆盖得最全面的也仅达到了70%。当文献如此分散时,我们不应该认为我们对这些风险达成了一致意见。”

为了建立这个数据库,MIT的研究人员与昆士兰大学、非营利性“终身生命研究所”、鲁汶大学和AI初创公司Harmony Intelligence的同事合作,搜查学术数据库,检索与AI风险评估相关的数千篇文献。

研究人员发现,他们调查的第三方框架通常更多地提及某些风险。例如,超过70%的框架包括AI所带来的隐私和安全风险,而仅有44%涵盖了谣言传播。而超过50%的框架讨论了AI可能造成的歧视和误导形式,仅有12%谈论“信息生态系统的污染”-即由AI生成的垃圾信息的数量不断增加。

“对于研究人员和决策者以及任何进行风险工作的人来说,这个数据库可以为做更具体的工作提供基础,”Slattery说。“在这之前,像我们这样的人只有两种选择。他们可以投入大量时间查阅零散的文献以开发全面的概览,或者使用数量有限的现有框架,这可能会忽视相关风险。现在他们有了一个更全面的数据库,所以我们的知识库有望节省时间并加强监管。”

但是会有人使用它吗?今天世界各地的AI监管在最好也只能算是大杂烩:一系列不一致目标的不同方法。如果类似MIT的AI风险知识库在此之前存在,它会改变什么吗?它能改变吗?这很难说。

另一个公平的问题是,只要对AI所带来的风险达成一致意见就足以推动向能够胜任监管AI的行动了吗?许多AI系统的安全评估具有显著的局限性,一个风险数据库不一定能解决这个问题。

不过MIT的研究人员计划尝试。未来技术实验室的负责人Neil Thompson告诉TechCrunch说,该团队计划在下一阶段的研究中使用这个知识库来评估不同的AI风险得到了多大的关注。

“我们的知识库将在我们的研究的下一步中帮助我们,届时我们将评估不同风险得到了多大关注,”Thompson说。“我们计划利用这一点来发现组织对风险的反应存在的不足。例如,如果每个人都关注一种风险而忽视了其他同样重要的风险,那么我们应该注意到并加以解决。”