提问更详细
ChatGPT等聊天机器人背后的模型,需要适当的上下文才能产生准确的结果,否则其输出将相当不可预测。用户提问时须详尽解释需求,给出适当提示词,令AI对问题有更全面的了解。用户亦可使用特定的数据和来源来引导AI。
限制回应范围
在使用AI时,模棱两可的问题可能会被误解,并增加产生“幻觉”的几率。用户应向AI设定其答案的范围,提出有限回应范围的选择式问题,而非开放式的问题。
指定资料来源
用户可以指定AI在特定来源寻找信息,确保AI使用经过验证的来源,而非让其从网络上随意获取信息,能够显著减少产生“幻觉”的机会。
为AI分配角色
在提问时可为AI分配角色,如加入“你是某方面的专家”等提示词,有助于为AI提供更多背景信息,并影响其生成答案的风格。由于AI模型将站在专家的立场上回复,该行为还能够提高事实的准确性。
交叉查证
对AI产生的答案,用户千万不能百分百照单全收,要通过常理进行判断,或者搜索其他资料查证,难以把握的专业性问题,须咨询相关专业人士。
假书可夺命
•美国纽约真菌学会发布紧急公告,称亚马逊上存在大量由ChatGPT撰写的蘑菇类科普书籍包含错误信息,轻信误食可能致命。
传播伪科学
•英国BBC 9月报道,YouTube上存在大量由AI生成,包含伪科学、阴谋论等错误资讯的“教育性质”影片被推送给儿童,相关频道观看量达到数百万。