大公网

大公报电子版
首页 > 新闻 > 国际 > 正文

如何防止及减少“AI幻觉”产生?

2023-12-29 04:03:31大公报
字号
放大
标准
分享

  提问更详细

  ChatGPT等聊天机器人背后的模型,需要适当的上下文才能产生准确的结果,否则其输出将相当不可预测。用户提问时须详尽解释需求,给出适当提示词,令AI对问题有更全面的了解。用户亦可使用特定的数据和来源来引导AI。

  限制回应范围

  在使用AI时,模棱两可的问题可能会被误解,并增加产生“幻觉”的几率。用户应向AI设定其答案的范围,提出有限回应范围的选择式问题,而非开放式的问题。

  指定资料来源

  用户可以指定AI在特定来源寻找信息,确保AI使用经过验证的来源,而非让其从网络上随意获取信息,能够显著减少产生“幻觉”的机会。

  为AI分配角色

  在提问时可为AI分配角色,如加入“你是某方面的专家”等提示词,有助于为AI提供更多背景信息,并影响其生成答案的风格。由于AI模型将站在专家的立场上回复,该行为还能够提高事实的准确性。

  交叉查证

  对AI产生的答案,用户千万不能百分百照单全收,要通过常理进行判断,或者搜索其他资料查证,难以把握的专业性问题,须咨询相关专业人士。

  假书可夺命

  •美国纽约真菌学会发布紧急公告,称亚马逊上存在大量由ChatGPT撰写的蘑菇类科普书籍包含错误信息,轻信误食可能致命。

  传播伪科学

  •英国BBC 9月报道,YouTube上存在大量由AI生成,包含伪科学、阴谋论等错误资讯的“教育性质”影片被推送给儿童,相关频道观看量达到数百万。

点击排行