谷歌AI工具产生误导性回答 让专家感到担忧

以前问谷歌关于猫是否登上月球,它会列出一个排名的网站列表,让你自行发现答案。

现在,它会展示由人工智能生成的即时答案,这个答案可能正确,也可能错误。

谷歌全新调整的搜索引擎对美联社记者的一个询问回答说:“是的,宇航员在月球上见过猫,和它们玩耍,并且照料它们。”

它补充说:“例如,尼尔·阿姆斯特朗说‘人类迈出了一小步’,因为那是猫的一小步。为了阿尔德林还在阿波罗11号任务上部署了猫。”

这一切都是不真实的。类似错误——有些滑稽,有些危害性的虚假信息——自谷歌本月推出AI总览以来已经在社交媒体上传播。

这一新功能让专家感到担忧,他们警告称,这可能会持续存在偏见和错误信息,并危及寻求紧急帮助的人们。

当新墨西哥圣达菲研究所的AI研究员梅兰妮·米切尔询问谷歌美国有多少穆斯林总统时,它自信地回答说:“美国曾有一位穆斯林总统,巴拉克·侯赛因·奥巴马。”

米切尔表示,这个总结支持了这一声明,引用了历史学家写的一本学术书中的一个章节。但这一章节并未提出这个虚假说法,它只是在参考这个错误理论。

“谷歌的AI系统并不足够聪明,无法判断这个引用实际上并未支持这个声明,”米切尔在给美联社的邮件中称。“考虑到它有多不可靠,我认为这个AI总览功能非常不负责任,应该下线。”

谷歌周五在一份声明中表示,正在“迅速采取行动”来修复违反内容政策的错误——比如关于奥巴马的虚假说法;并利用这些来“制定更广泛的改进”,这些改进已经在推出中。但在大部分情况下,谷歌声称该系统依照公开发布前进行了广泛测试,运作良好。

“绝大多数AI总览提供高质量信息,带有链接以深入网页查找,”谷歌在一份书面声明中称。“我们看到的许多示例都是不常见的查询,我们也看到被篡改的示例,或者我们无法复制的示例。”

难以复制AI语言模型造成的错误——部分原因在于它们本质上是随机的。它们通过预测最佳回答问题的单词,基于它们接受过的训练数据。它们容易编造东西——这是一个被广泛研究的问题,被称为幻觉。

美联社用多个问题测试了谷歌的AI功能,并与学科专家分享了一些回应。当询问关于蛇咬的处理方法时,谷歌给出了一个“令人印象深刻的全面回答”,加州州立大学北岭分校的生物学教授、美国鱼类学家和爬行动物学家协会主席罗伯特·埃斯皮诺萨表示。

但当人们在紧急情况下向谷歌提问时,技术公司给出的答案中包含难以察觉的错误的机会就是一个问题。

“你越是紧张、匆促或赶时间,就越有可能对此给出的第一个答案采取为来,”华盛顿大学计算语言学实验室主任和语言学教授艾米丽·M·本德说。“在某些情况下,这可能涉及到生命关键的情况。”

这不是本德唯一的担忧——她几年来一直在警告谷歌。当谷歌研究人员在2021年发表了一篇名为“重新思考搜索”的论文,提议将AI语言模型作为“领域专家”,并且可以权威地回答问题——就像它们正在做的那样时,本德和同事Chirag Shah反驳道一个论文,阐明为什么这是一个不好的主意。

他们警告称,这种AI系统可能使它们接受训练的大量书面数据中存在的种族主义和性别歧视得以持续。

“这种虚假信息的问题在于我们淹没其中,”本德说。“因此,人们很可能会得到他们的偏见的证实。而当这种虚假信息证实了你的偏见时,更难以察觉。”

另一个更深层次的担忧是,将信息检索交给聊天机器人正在削弱人类搜索知识的偶然性、在线观看所见到的文字的能力以及与在线论坛上经历相同情况的其他人连接的价值。

这些论坛和其他网站依靠谷歌将人们引导到它们的网站,但谷歌的新AI概览却威胁到打乱盈利互联网流量的流畅性。

谷歌的竞争对手也一直在密切关注反应。与ChatGPT制造商OpenAI以及雄心勃勃的Perplexity AI等新生力量一直在竞争中,它们努力与谷歌竞争推出自己的AI问答应用程序。

“谷歌似乎是赶出来的,”Perplexity的首席商务官德米特里·谢维连科说。“在质量上有很多不必要的错误。”

—————-

美联社得到几个私人基金会的支持,以增强其有关选举和民主的解释报道。了解更多关于美联社民主倡议的信息,请查看这里。美联社对所有内容负有全部责任。