今天你ChatGPT了吗?AI大佬提醒你警惕“AI幻觉”

关注
in
浙江社区社交
女性时尚图片分享社交应用,主打”我的生活in记“
最近融资:|2010-09-13
我要联系

你了解“AI幻觉”吗?

在人工智能领域,”AI幻觉”指聊天机器人能够输出合理且连贯的信息,但这些信息可能与现实或已知数据完全不符合。通俗的讲,也就是AI在“编造信息”

面对这一问题,AI领域的大佬们纷纷发表看法。有人认为这种现象不可避免,也有人认为“幻觉问题”需要被马上改善。

根据麦肯锡全球研究院发表的数据,生成式AI将为全球经济贡献2.6万亿到4.4万亿美元的价值,这也表明提高AI输出数据的准确性必须要提上日程了。


随着人们在ChatGPT和其他AI聊天机器人上花费的时间越来越多,它们编造虚假信息的情况也屡见不鲜。

这种现象被技术专家称为“幻觉”,AI“捏造事实”或“胡编乱造”的问题对每一个试图让生成式AI系统撰写文档的企业、组织或者学生来说都无法避免。一些人甚至将其应用于可能产生高风险后果的任务,比如心理治疗、法律文书的研究和撰写。

当被问及如何看待“AI幻觉”时,Anthropic(聊天机器人Claude 2的技术公司)联合创始人兼总裁Daniela Amodei曾表示:“我认为现在还没有任何模型能完全避免某种程度的幻觉。这些模型实际上只是设计用来预测下一个词,所以在这方面模型不准确的概率是存在的。”

除了Anthropic以外,OpenAI和其他主要的大语言模型技术公司都一致表示,正在努力改善“幻觉”问题,使大模型能够变得更准确。

但这需要多长时间才能实现?以及它们是否能够安全地提供例如医疗建议等服务,仍有待观察。

华盛顿大学语言学教授、计算语言学实验室主任Emily Bender也对此发表了意见,Bender教授认为,AI的幻觉问题是无法修复的,这是技术与拟议用例之间存在不匹配的固有通病。

ChatGPT等聊天机器人在今年掀起了生成式AI技术的热潮,但这只是其中的一小部分,其他还包括可以生成新图像、视频、音乐和计算机代码的技术,几乎所有这些AI工具都包含了大语言模型的组成部分,所以生成式AI技术的可靠性至关重要。

特别是麦肯锡全球研究院发表数据预测,生成式AI将为全球经济贡献2.6万亿美元到4.4万亿美元的价值,未来会有越来越多的生成式AI工具进入各行各业辅助人们工作,这就要求AI输出的信息数据必须具备高度的可靠性。

谷歌也正在向新闻机构推销一款AI新闻写作的人工智能产品,对新闻机构来说,新闻中所展现的信息准确性极其重要。另外,美联社也正在考虑与OpenAI合作,以部分数据使用美联社的文本档案来改进其人工智能系统。

计算机科学家Ganesh Bagler多年来一直与印度的酒店管理机构合作,致力于让人工智能系统(包括ChatGPT)发明南亚美食的食谱,例如以大米为主的新式印度比尔亚尼菜。但由于“幻觉”问题得到的食物成分可能决定了这道菜是否美味或者是否可被食用。

OpenAI的CEO Sam Altman在今年的6月出访印度,这位来自印度德里信息技术学院(Indraprastha Institute of Information Technology Delhi)的Ganesh Bagler教授就自己的“菜谱”向Altman提出了一些尖锐的问题。

“ChatGPT的幻觉仍被认为是可以接受的,但是当一个菜谱出现‘幻觉’时,这就成了一个严重的问题。您对此有什么看法?”当Altman来到新德里时,Bagler从拥挤的校园礼堂中站起来向Altman抛出了这样的问题。

Altman对此问题没有做出明确的承诺,但却表达了其乐观的态度。他表示,“我相信,用一年半到两年的时间,我们团队能大大改善这种幻觉问题。到那时,我们就不再需要讨论这个问题了,创造力和完美准确性之间需要平衡,模型需要学习的是在特定时间里给你需要的那种类型的答案。”

但是,对于一些研究过这项技术的专家来说,这些改进还不够,比如华盛顿大学语言学家Emily Bender。

Bender将大型语言模型描述为根据训练语料,“对不同词形字符串的可能性进行建模”的系统。

“这就是拼写检查器能够检测到输入的单词有误的原理”,Bender认为这种模型有助于驱动自动翻译和转录服务,使输出结果看起来更像目标语言中的典型文本。每当人们在编写短信或电子邮件时使用“自动完成“功能时,都会依赖这种技术的某种版本。

像ChatGPT、Claude 2或谷歌的Bard等最新一代聊天机器人,都在试图通过生成整段新的文本将这一技术提升到一个新的水平,但Bender则认为它们仍然只是反复选择一个词串中最合理的下一个单词。

当用于生成文本时,语言模型的全部作用被设计成编造文字内容,尤其是擅长模仿各种写作形式,例如法律合同、电视剧本或十四行诗。

“但由于它们只会编造内容,当它们输出的文本恰好可以理解为我们认为正确的东西时,其实那纯属巧合”,Bender表示。“即使通过微调,使其在大多数情况下都是正确的,它们仍然会出现失误——而且很可能出现的情况是,阅读文本的人很难注意到这类错误,因为这类错误通常更隐蔽。”

Jasper AI的总裁Shane Orlick则认为,对于那些向Jasper AI寻求撰写宣传文案帮助的营销公司来说,这些错误似乎并不是什么大问题,因为他们认为这类“幻觉”其实也是一种额外的好处。“我们的客户经常会告诉我们Jasper如何创造出了他们自己永远也想不到的故事或角度。”

Jasper AI是家位于德克萨斯州的创业公司,主要与OpenAI、Anthropic、谷歌以及Facebook母公司Meta等合作,根据客户的需求为他们提供不同的AI语言模型。例如为关注准确性的客户提供Anthropic的模型,而对于更加关注数据安全和隐私的客户则提供其他不同类型的模型。

Orlick还表示,他知道“AI幻觉“问题不会轻易得到解决,但他寄希望于谷歌这样的公司在将来能够将这一问题修复,因其对搜索引擎有“非常高的事实内容标准”,会投入大量精力和资源来寻找解决方案。

包括微软联合创始人比尔·盖茨在内的科技乐观主义者也一直在预测其乐观的前景。

盖茨在7月份的一篇博客文章中详细介绍了他对人工智能社会风险的看法,他表示:“我乐观地认为,随着时间的推移,人工智能模型可以学会区分事实和虚构”。并在博客中引用了OpenAI在2022年发表的一篇论文,用以论证“在这方面的大有可为”。

但即使是正在为各种用途推销这类人工智能产品的Altman,也不完全认为大模型在为自己寻找信息时所提供的答案是完全可信的。

“我可能是地球上最不相信ChatGPT给出的答案的人了。”Altman在Bagler所在的大学里向听众如此说道,引发了一阵笑声。


反馈
联系我们
推荐订阅