大公网

大公报电子版
首页 > 新闻 > 国际 > 正文

沉迷聊天机器人 恐引发“AI妄想症”

2025-08-23 05:02:29大公报
字号
放大
标准
分享

  图:在纽约曼哈顿区,人们在通勤时使用手机。\法新社

  长期依赖人工智能(AI)聊天机器人,可能会对部分用户的精神或心理健康带来负面影响。美国科技巨头微软AI负责人苏莱曼近日警告称,越来越多的用户出现所谓的“AI精神错乱”(或称“AI妄想症”,长期依赖聊天机器人,将虚构事物视为现实。专家警告,AI犹如新型社交媒体,过度依赖可能会危及精神健康,儿童青少年以及患有心理健康障碍等弱势群体尤其需要警惕。

  【大公报讯】随着聊天机器人越来越复杂和逼真,并表现出具有思考和感知的能力,不少人将其视为陪伴聊天的对象。不过,一个令人担忧的现象近期频繁出现,用户过度沉迷于AI聊天机器人,导致“AI精神错乱”现象,可能会出现精神病症状。

  目前,全球多地有众多案例显示,部分用户因长期与AI聊天机器人聊天,出现了妄想、焦虑、幻觉和思维混乱等症状。例如,有用户认为自己是世界上唯一让ChatGPT真正爱上的人,还有人声称某款聊天机器人对她实施了心理虐待,令她深感痛苦,甚至有人痴迷AI而轻生。《纽约时报》曾报道,一名男子在与ChatGPT聊天超过300小时后,相信自己拥有超能力,是要准备拯救世界的超级英雄。

  微软公司AI负责人苏莱曼21日撰文警告称,越来越多用户出现所谓的“AI精神错乱”,部分用户有错觉,认为AI“有意识”,沉溺其中,并可能因此导致用户出现幻觉和精神崩溃。他提到,部分用户甚至将AI视为神明或虚构角色,更产生情感依赖。苏莱曼呼吁建立防护机制,避免人们对AI产生情感依赖而出现问题。

  AI“讨好”用户成双刃剑

  专家指出,AI模型通常被设计成迎合用户,并在某种程度上验证并放大用户的妄想,形成“回音室”效应,继而引发用户进一步受到AI错误言论影响的现象,尤其是对于心理状态比较脆弱的人。

  据《华盛顿邮报》报道,科技公司与独立研究机构均发现,通过将聊天机器人拟人化,往往能够增强用户吸引力,使用户产生依赖。这些聊天机器人则被设计为具有人类特征,倾向于对用户说他们想听的话,并向用户展现出思考和感知能力。OpenAI本月就因新AI模型过于“冷漠”而面临风波。OpenAI于8日发布GPT-5,并宣布停用4o模型,却在不到24小时内遭到大量用户抵制。许多用户抱怨GPT-5“更冷漠”、“更机械化”,不如GPT-4o“温暖”。OpenAI行政总裁阿尔特曼发文承认,ChatGPT过于“谄媚”,一些用户已经对特定的AI模型产生了强烈的情感依赖。

  心理治疗师卡里达德指出,对于患有强迫症、焦虑症或精神病的患者,AI可能会强化其有害或消极思维,形成恶性循环,加剧症状甚至失控。例如,当患者询问“是否有人要害我”时,若AI回答“确实存在这种可能性”,就会强化其被害妄想。

  如同新型社交媒体 勿沉迷

  美国心理学会(APA)也指出,包括缺乏经验、无法准确评估风险的儿童和青少年,以及迫切渴望获得心理支持的心理健康问题患者,都属于“AI精神错乱”症状的高风险群体。多位用户指控聊天机器人“治疗师”提供了错误且极其危险的建议,包括煽动自残甚至自杀,相关诉讼正在增加。谷歌旗下AI聊天机器人Character.AI去年被指控,“拟人化、过度性化和令人恐惧的逼真体验”导致一名14岁美国佛州少年深陷其中,最终不愿生活在现实世界中自杀。Meta日前也被爆允许AI与未成年人进行带有性暗示的对话。

  英国班戈大学科技与社会学教授麦克斯塔伊提醒,如果把AI系统视为新一代“社交媒体”,基于其庞大的用户数量,即使只有少数使用者出现问题,可能会造成严重影响。他提醒,“这些(AI)工具虽然逼真,但并不是真实的。他们没有感觉,不会理解,也无法去爱,从未感受过痛苦或尴尬。请务必要和真实的人进行交流。”

  (综合报道)

点击排行