大公网

大公报电子版
首页 > 新闻 > 国际 > 正文

AI利与弊上/AI有“幻觉” 时常会“说谎”

2023-12-29 04:03:28大公报
字号
放大
标准
分享

  图:香港浸会大学高级讲师、AI和数字媒体课程副主任保罗.门戈尼博士。

  人工智能(AI)在今年爆红,这股由聊天机器人ChatGPT引发的风潮,在为人们带来工作学习方便的同时,也让外界认识到其潜在的不足和破坏力。不少用户在使用ChatGPT等工具时,都会发现人工智能其实会“说谎”和捏造事实,绝非万无一失。这种现象被称为“AI幻觉”(AI Hallucination),其生成的答案真假难辨,甚至可以骗过专业人士的慧眼。专家指出,人类仍需在应用中干预AI的行为,包括在面对AI生成的信息时应格外注重事实查核,防止“AI幻觉”混淆视听。《大公报》今起推出系列专题,多角度探讨人工智能的利与弊。\大公报记者 杨金宇

  近日,英媒曝出美国得州的特斯拉工厂曾于2021年发生流血事故,工厂内的机器人发生故障,“袭击”了一名工程师致其受伤,成为“AI可伤人”的最新例证。同为AI的大型语言模型(LLM),即ChatGPT背后所使用的技术,亦有发生故障的可能,即系统产生“AI幻觉”。该情况发生时,AI会根据使用者的提示产生虚假的捏造信息,可能会对原文增删、窜改,甚至杜撰内容,并将这些存在谬误的信息“一本正经”地作为答案传回给使用者。

  就原理而言,大型语言模型接受了大量资料的训练,它们利用这些知识来“理解”使用者的提示,并产生新内容。AI聊天机器人本质上是在预测句子中最有可能出现的词语,因此它们有时会产生听起来正确但实际上十分荒谬的答案。

  AI为答问题“不择手段”

  香港浸会大学高级讲师、AI和数字媒体课程副主任保罗.门戈尼博士接受采访时指出,尽管AI用于构建答案的信息可能均为真实,但多个真实条件联系起来构建出的答案未必会符合逻辑。

  对于AI幻觉的可能成因,门戈尼通俗地解释称,由于AI的设定限制了其对于用户提出的问题“不能不知道”,因此会造成其想尽办法回答用户的问题,即使提供的答案存在谬误,产生如AI幻觉的行为。

   目前对于AI幻觉产生的错误信息,仍无准确有效的辨别方法,而这些错误信息甚至能够蒙蔽住专业人士的双眼。11月,一名巴西法官被发现使用ChatGPT撰写的裁决出现多处法律案例上的错误。美国纽约一名执业30年的律师在5月份被发现在法庭文件中引用的多宗案例及文章内容均为虚假,他承认曾依赖ChatGPT搜寻资料,并已反复向AI确认这些资料的真实性。

  OpenAI和谷歌都警告用户,AI聊天机器人可能会犯错误,并建议用户在使用时仔细检查其生成的答案。

  勿依赖AI生成内容

  门戈尼表示,AI如同人一般会犯错,且其犯错是很正常且相对常见的。但其亦同人一般会从错误中学习,从而进步。他指出,通过以更多数据对AI进行更多的训练,将有助于减少AI出现幻觉或出错的几率。这也是训练AI模型的核心,让其在不断犯错中通过其神经网络不断学习改进,从而减少未来犯错的几率。

  门戈尼称,目前阶段,AI对于人类最大的帮助仍是协助进行“头脑风暴”,为人类提供思路与基础。他指出,AI背后大量的数据能够使其生成更多更好的想法,但是由于目前AI的逻辑能力仍然相对有限,其生成的一些想法可能脱离现实或无法实现,故而仍需人类承担最终决策者的角色。

  至于为何人类仍需在应用中干预AI的行为,门戈尼认为,在技术层面上,由于训练AI的算法及原理限制,AI的行为极可能存在偏见;而在道德层面上,AI则无法为其行为付出代价,故而AI不可能完全取代人类。不过他也指出,不能因AI存在犯错的可能性就忽视其巨大的创意潜力,因噎废食,拒绝科技进步。

  由于当下使用AI生成内容愈发普遍,门戈尼建议人们在使用AI的过程中,切勿对AI生成的内容产生“依赖感”。他还提醒普通民众,应时刻秉持怀疑精神。在接触AI或疑似AI生成的信息时,不应尽信自己所见所听,主动进行事实查证,以人类的身份成为AI生成信息的最后一道门槛,“这也是为何人类在AI行为中不可或缺的原因之一。”

点击排行