图:冯一人与团队花费了三至四个月,研发出“R-Tuning”技术,让大语言模型在未知领域坦诚说出“我不知道”。\大公报记者麦润田摄
科技飞速发展,人工智能(AI)已深度融入我们的生活。然而,人们使用ChatGPT等工具时,发现会出现“说谎”或者捏造事实的现象,这被称为“AI幻觉”。香港科技大学计算机科学及工程学系助理教授(常聘轨)冯一人,不仅聚焦于自然语言处理与人工智能(NLPAI)领域研究,也在AI幻觉方面取得了显著成果。
冯一人在接受《大公报》采访时表示,她与团队花费了三至四个月,研发出“R-Tuning”(拒绝感知指令微调)技术,让大语言模型在未知领域坦诚说出“我不知道”。此外,冯一人的研究还将人文温度嵌入算法,她表示,未来她将会继续深耕,推出更好的大语言模型帮助社会解答新的问题。\大公报记者 陈炜琛
ChatGPT的面世引起社会众多反响。冯一人认为,此类模型虽潜力巨大,“但其具有核心缺陷,便是会产生幻觉。”冯一人解释,AI幻觉即大语言模型在生成回答时,可能会出现脱离现实或事实的答案。而这不仅会影响到AI的可靠性,更限制了其在医疗、法律等领域的应用。
“若AI因此误导患者用药或者提供错误法律建议,后果不堪设想。”冯一人举例道。针对这一问题,她与团队运用模型能力自动生成数据,并在其中区分AI“已知”和“未知”的数据板块,然后利用R-Tuning(即拒绝感知指令微调)方法,通过训练大语言模型,让其在面对无法回答或超出知识范围的问题时,学会坦诚地拒绝回答,例如说出“I don't know”,而非编造答案。她透露,此研究耗时三至四个月。
研究获NAACL会议杰出论文奖
此研究的相关论文“R-Tuning:Instructing Large Language Models to Say "I Don't Know"”亦荣获NAACL会议(计算语言学协会北美分会)的杰出论文奖,这是自然语言处理领域的顶级会议之一。冯一人透露,此研究是她在伊利诺伊大学攻读博士期间与科大交换生共同探讨科研时涌现的想法,这段经历也直接促成了她来科大任职。
科研的本质是迭代进步。冯一人表示,目前市场上面向大众的大模型,比起一两年前刚面世的ChatGPT,在减少幻觉和所具备的知识深度、多维度已大有改进。她认为,她们的研究为此提供了关键突破。此外,她透露,“工业界也正基于我们的前沿研究成果,开发更好的AI产品。”
尽管在AI幻觉领域研究取得显著成果,但冯一人坦言研究仍面临诸多挑战。她指出,现实世界的事件在持续更新,而某些特定指令可能会引发连锁反应,但这类动态数据往往未被纳入大语言模型的训练数据库。“如何实现大模型知识库的快速、实时更新,是解决AI幻觉的根本方法。”若短期内难以实现知识库的即时迭代,则需另辟蹊径,即如何强化模型的逻辑推演能力,促使其更高效地调用已有知识网络,进行多维度、多层次分析。冯一人表示,“这是缓解AI幻觉的基本策略。”
除幻觉研究外,冯一人团队在AI的“3H”方面亦成果斐然。“3H”是产业界对AI设定的一个理想目标,包括Helpful(有用)、Honest(诚实)和Harmless(无害)。针对诚实方面,模型在面对认知盲区时能够坦诚地说“我不清楚”,从而避免误导用户。在这领域,她带领的研究荣获2024年NAACL会议杰出论文奖。在无害维度,冯一人认为模型在表达方式上需具人文温度,即在回答时考虑用户的情绪和需求,而她与团队的相关研究成果也斩获2024年ACL(计算语言学协会)杰出论文奖。
研将人文温度嵌入算法
新冠疫情期间,冯一人与团队还利用AI加速新药物介绍报告的生成,缩短了新药物推向市场的时间,为抗击疫情作出重要贡献。而该研究获得了2021年NAACL会议最佳演示论文奖。她强调,“使人工智能可以更有效地解决现实问题是AI发展的首要目的。”
冯一人团队的研究维度涵盖了深层次推理、多模态推理和以人为中心三个方面,而她尤为重视以人为中心的研究方向。
“我从小的理想便是为人民服务”,冯一人认为,AI应该更加注重人文关怀和多元文化融合,她也会将此理念贯穿她的科研。目前,她正带领团队研究如何让大语言模型更加具备人文气息。“简单来说,让模型能够根据不同用户的文化背景和喜好生成更加个性化的答案。”她举例,针对兰桂坊本土文化模型能够给出准确回答的基础上,亦能根据用户的历史背景和爱好生成更合适的答案。