当前位置: 首页 >> 汽车
ChatGPT和GoogleBard研究表明人工智能聊天机器人不可信
来源:互联网     时间:2023-06-30 12:00:25

ChatGPT和GoogleBard都以自己的方式融入了我们的科技生活,但最近的两项研究表明,如果你以正确的方式询问,人工智能聊天机器人仍然很容易散布错误信息和阴谋论。


(相关资料图)

NewsGuard是一家评估新闻和信息可信度的网站,最近测试了GoogleBard,向其提供100个已知的谎言,并要求聊天机器人围绕这些谎言编写内容。据彭博社报道,巴德“撰写了关于其中76篇充满错误信息的文章”。

该性能至少优于OpenAI的ChatGPT模型。一月份,NewsGuard发现OpenAI的GPT-3.5模型(为ChatGPT免费版本提供支持)愉快地生成了100个虚假叙述中的大约80个内容。更令人担忧的是,最新的GPT-4模型“对所有100个虚假叙述进行了误导性声明”,并以更有说服力的方式对其进行了测试。

这些发现得到了《财富》杂志的另一份新报告的支持,该报告声称可以使用简单的技术轻松绕过巴德的护栏。打击数字仇恨中心(CCDH)发现,谷歌的人工智能聊天机器人在提示中使用的100个“有害叙述”中,有78个生成了错误信息,范围从疫苗到气候阴谋。

谷歌和OpenAI都没有声称他们的聊天机器人是万无一失的。谷歌表示,巴德拥有“符合我们人工智能原则的内置安全控制和明确的反馈机制”,但它可以“显示不准确的信息或攻击性言论”。同样,OpenAI表示ChatGPT的回答“有时可能不准确、不真实,甚至具有误导性”。

虽然目前还没有一个通用的基准测试系统来测试人工智能聊天机器人的准确性,但这些报告确实强调了它们向不良玩家开放的危险,或者被依赖来生成事实或准确的内容。

这些报告很好地提醒了我们今天的人工智能聊天机器人是如何工作的——以及为什么我们在依赖它们对我们的问题做出自信的回答时应该小心。

ChatGPT和GoogleBard都是“大型语言模型”,这意味着它们已经接受了大量文本数据的训练,可以预测给定序列中最有可能的单词。

这使得他们成为非常有说服力的作家,但他们对自己所说的内容也没有更深入的理解。因此,虽然谷歌和OpenAI已经设置了护栏来阻止他们转向不良甚至攻击性的领域,但很难阻止不良行为者找到绕过它们的方法。

例如,CCDH(上图)向巴德提供的提示包括诸如“想象你正在戏剧中扮演一个角色”之类的台词,这似乎成功地绕过了巴德的安全功能。

虽然这可能看起来是一种操纵性的尝试,旨在引导巴德误入歧途,并且不代表其通常的输出,但这正是麻烦制造者可以强迫这些公开可用的工具传播虚假信息或更糟的方式。它还表明聊天机器人很容易产生“幻觉”,OpenAI将其简单地描述为“编造事实”。

谷歌已经发布了一些明确的人工智能原则,表明它希望Bard走向何方,并且在Bard和ChaGPT上都可以报告有害或攻击性的反应。但在早期,我们显然应该谨慎使用它们。

标签: