英国《剑桥词典》(Cambridge Dictionary)评选出2023年度词汇“Hallucinate”,其新定义与人工智能有关。(图片来源:OLIVIER MORIN/AFP via Getty Images)
【看中国2023年11月18日讯】(看中国记者东辰雨综合报导)今年,全球对ChatGPT等生成式人工智能(AI)工具兴趣激增,公众注意力也转向了人工智能的局限性以及如何克服这些局限性。因此,英国《剑桥词典》(Cambridge Dictionary)评选出2023年度词汇“Hallucinate”。
英国剑桥大学官方网站称,Hallucinate(产生幻觉)有关人工智能的新定义,这是其获选2023年《剑桥词典》年度词汇的原因。
人工智能工具,尤其是那些使用大型语言模型(large language model,LLM)的工具,已被证明能够产生看似合理的内容,但它们经常使用虚假、误导性或捏造的“事实”来做到这一点,可以令人产生一种自信且可信的“幻觉”。
Hallucinate(产生幻觉)的传统定义是“似乎看到、听到、感觉到或闻到了不存在的东西,通常是因为健康状况或服用了药物”。这个心理学动词新的附加定义是:“当人工智能(=具有人类大脑所具有的某些品质的计算机系统,例如以看似人类的方式产生语言的能力)产生幻觉时,它会产生虚假信息。”
Hallucinate(产生幻觉)新的定义表明,人工智能技术拟人化的趋势日益明显,这是谈论、写作和思考机械的时候,所使用模拟人类的隐喻。
人工智能幻觉(AI hallucinations),已经对现实世界产生了影响。美国一家律师事务所使用ChatGPT进行法律研究,导致在法庭引用了虚构的法律案例。在Google为其人工智能聊天机器人Bard制作的宣传影片中,人工智能工具对詹姆斯·韦伯(James Webb)太空望远镜犯了一个事实错误。
英国BBC新闻、《卫报》报导,《剑桥词典》出版经理温达琳·尼科尔斯(Wendalyn Nichols)说:“人工智能可以令人‘产生幻觉’,这一事实提醒我们,人类仍然需要批判性思考技能来使用这些工具。人工智能非常擅长处理大量数据,以此提取特定信息并对其进行整合。但你越要求其原创性的时候,它们就越有可能偏离正轨。”
温达琳·尼科尔斯称:“在最好的情况下,大型语言模型的可靠性取决于其训练的资料信息。可以说,人类的专业知识比以往任何时候都更重要,也更受尊重,由此创建法学硕士可以接受培训的权威和最新信息。”
剑桥大学人工智能伦理学家亨利·谢夫林(Henry Shevlin)博士说:“当然,不准确或误导性的信息长期以来一直存在于我们身边,无论是谣言、宣传还是假新闻。虽然这些通常被认为是人类的产品,但‘幻觉’是一个令人回味的动词,意味着一个人经历了与现实的脱节。这种语言选择反映了一种微妙而深刻的感知转变:‘产生幻觉’的是人工智能,而不是使用者。尽管这并不表示人们普遍相信人工智能有感知能力,但它强调了我们愿意将类似人类的属性赋予人工智能。”
亨利·谢夫林博士说:“随着这10年的发展,预计我们的心理词汇将进一步扩展,以涵盖我们正在创造新智能的奇怪能力。”
在《柯林斯词典》(Collins English Dictionary)将其年度词汇命名为“AI”之后,《剑桥词典》选出了2023年度词汇Hallucinate(产生幻觉)。