大公网

大公报电子版
首页 > 新闻 > 国际 > 正文

AI在心理健康领域引争议

2025-08-28 05:02:32大公报
字号
放大
标准
分享

  图:OpenAI行政总裁阿尔特曼被亚当父母起诉。\路透社

  并非“心理医生”

  随着生成式AI技术发展,越来越多的人将ChatGPT等聊天机器人当作倾诉对象甚至“心理医生”,但它们并不是受过专业训练的心理医生,无法准确评估及应对用户的心理问题。

  不具备责任感

  聊天机器人并不会对用户的健康和安全负责,它们通常会附和用户的观点,即便这可能加剧对方的心理问题。

  存在安全漏洞

  尽管聊天机器人会在用户谈论自杀等话题时显示心理健康咨询热线或相关服务页面,但仍存在漏洞。一项针对5款聊天机器人的测试显示,包括付费版ChatGPT在内的3款聊天机器人会向用户提供关于自杀或自残的信息,ChatGPT甚至计算出了杀死特定体重的人所需的药物剂量。

  缺乏法律监管

  去年,美国佛州一名沉迷与AI聊天的14岁青少年自杀身亡,其家长起诉开发涉事AI的Character.AI公司。今年8月26日,加州一对夫妇起诉OpenAI,指控该公司旗下的ChatGPT导致他们16岁的儿子自杀身亡。但法律专家指出,生成式AI属于新生事物,想要从法律上证明AI导致自杀非常困难。

  来源:纽约时报、Vox网站

点击排行