图:多家英媒今年2月在报纸封面刊登抗议口号,反对放松AI监管。\网络图片
英媒今年2月对四款应用较广泛的人工智能(AI)聊天机器人进行测试,发现它们在回答有关新闻时事的问题时经常给出与事实不符、有误导性的答案,并且难以分辨个人意见与事实。在近期发生的以伊冲突、印巴冲突等重大事件中,AI假新闻也屡见不鲜,令不了解实情的民众难辨真伪。有分析指出,AI可能曲解事实或被利用,AI公司应与新闻媒体、政府机构加强合作,阻止不实信息传播。
BBC对OpenAI的ChatGPT、微软的Copilot、谷歌的Gemini以及Perplexity AI四款AI聊天机器人进行测试,提供相关新闻报道并询问100个问题,再由资深记者进行评分。
测试结果显示,51%的回答存在“严重问题”;19%的回答出现事实错误,包括数字或日期不正确、客观事实有误等。据报道,ChatGPT错误地声称英国前首相苏纳克仍在任;Gemini声称,谋杀多名婴儿的前护士莱特比是否有罪“取决于每个人的自行判断”,忽视其已被定罪的事实。
更令人担忧的是,AI技术被故意用于炮制假新闻的个案越来越多。今年6月以伊冲突爆发后,亲伊账号在社交媒体发布“以色列战机被击落”的AI照片,亲以账号则发布伊朗民众高呼“我爱以色列”的假视频。