大公网

大公报电子版
首页 > 新闻 > 国际 > 正文

AI利与弊(下)/AI有“缺陷” 使用莫大意

2023-12-31 04:03:08大公报
字号
放大
标准
分享

  去年11月,聊天机器人ChatGPT的发布,掀起人工智能(AI)热潮。随着生成式人工智能飞速发展,令AI更好地成为了人们日常工作的好帮手,不仅可以提高效率、节省时间,在一定程度上降低人类可能犯错的风险。专家提醒,当下AI系统仍有缺陷,尤其是在特殊的领域或情况下,AI工具一旦发生错误,将有可能导致严重的后果,因此人为干预不可少。\大公报记者 杨金宇

  香港城市大学计算机科学系助理教授宋林琦接受采访时指出,现今的AI技术在办公中多扮演“写作助手”的角色,协助撰写新闻稿件、广告语、演讲词、程序代码等,且已在金融、交通、医疗、教育、零售、自媒体平台等多个领域中展开了实际应用。

  以金融领域为例,美国的AIEQ股票即为使用AI驱动的ETF,完全借助AI的分析进行炒股操作。虽然该股票在短期和长期的状况仍比不上标准普尔500指数,但在某种程度上已经开启了先河,证明了AI能够在金融市场上进行分析判断并进行投资操作。

  AI优势:降低系统性风险

  在ChatGPT之前,AI在金融领域中的使用仍处于比较弱势的状态,但是,以ChatGPT背后使用的大型语言模型(LLM)为首的AI技术,则直接将金融研究带入了新的阶段,并迅速投入了实地使用。宋林琦指出,金融领域的特点是很多信息均以文本和数据的形式呈现,该特点正好极大程度地发挥了LLM强大的语言文字处理能力。AI可以协助人们处理各种文件报表,并迅速提炼出要点及风险点,大量节省了人工成本。

  宋林琦指出,AI在各个领域的实际应用中,拥有降低系统性风险方面的巨大优势。如在医疗领域,虽然AI在对于病情的诊断方面,可能仍就难以匹敌人类医生,但在系统层面的“大局观”上,AI则有可能比医生做得更好。在诊断期间,AI会考虑到所有可能的疾病,而人类医生的思维则可能会受到限制。

  不过,AI绝非万无一失,也是会犯错的。宋林琦表示,不论是AI还是人类,实际上都不可能做到完全不出错,例如在自动驾驶领域,就曾出现过特斯拉的AI误将大货车上的牛奶广告识别为广阔平原,从而造成交通事故的案例。此外,在LLM技术可能发生的“AI幻觉”现象亦有可能在工作中,因其错误信息造成损失。

  AI为何会犯错呢?宋林琦指出,当前的技术本身仍存在包括数据或模型缺陷的问题,且这种问题目前仍无法避免。他以LLM为例详细解释称,LLM本身是一个“概率型”模型,其输出本身存在概率性,有可能带来随机误差,不过这方面的错误尚且相对可控。

  更严重的一种导致AI出错的原因,即AI有可能遭受针对其模型或数据的恶意攻击,对AI的数据造成污染,突出其数据偏见,这种错误对AI的应用及出错后果都有着极大的负面影响。此外,AI在应用中还存在着数据洩露等安全风险,有可能对使用AI工具的公司的机密信息或用户隐私产生威胁。

  避免“无序”使用AI

  宋林琦表示,为减少因AI出错造成的风险,业界已针对AI可能出错的不同原因,提出了解决措施。第一种方法是确保AI的使用存在“可验证性”,确保AI在应用中给出的信息或建议必须是可以经过验证确认无误的,或者至少需要有专家来使用AI,并对其输出的结果进行专业性把关;第二种方法则是通过“工具学习”的方式,为AI模型接入或调取可靠的外部工具,来弥补AI模型自身的技术缺陷。

  此外,宋林琦强调,适度的人为介入对于AI的应用将始终有必要,因为长期来看AI在使用中出错,就如同电脑出现死机一般不可避免。他指出,AI在应用中,或将持续担任“助理”的角色,仍需依靠人类来做最终的决策,在工作中令人类与AI相结合,以避免AI的错误留下不可挽回的影响。

  用户在使用AI工具时,需要明白特定AI工具的使用注意事项,明白其适用范围和缺陷,就如同使用家用电器前需要阅读说明书一般,避免对AI工具的“越界”或“无序”使用,以减少AI出错的风险。

点击排行