图:AI陪伴功能争议多
难区分现实与虚拟过度情感依赖
•AI的陪伴功能可能导致用户对AI本身形成不健康的情感依赖,模糊了虚拟与真实的界限,用户可能甚至把AI当作真实存在的人,影响现实中的人际交往。
数据安全和隐私忧患
•AI聊天机器人会收集用户的大量个人数据,也引发数据安全和隐私问题。意大利数据保护机构在今年5月宣布,AI陪伴初创公司Replika因违反用户个人数据保护规则,处以500万欧元罚款。
软色情等伦理问题
•路透社此前调查揭露了美国科企Meta内部指导原则允许其AI聊天机器人与儿童进行“浪漫”和“感性”对话,引发争议。此外,不少AI陪伴机器人的营利模式,需要用户不断支付更多的费用,才能解锁部分功能(比如色情内容),而AI聊天机器人也存在“软色情”和“内容擦边”等问题。
传播错误信息
•许多用户,尤其是未成年用户,倾向于将ChatGPT等聊天机器人当作倾诉对象甚至“心理医生”,但AI并不是受过专业训练的心理医生,无法准确评估及应对用户的心理问题,很可能出现向未成年人传播不良信息,甚至作出错误诱导的情况,影响未成年人身心健康。
监管法规落后
•全球针对AI的相关立法,仍处于落后状态。今年5月,加州参议院通过了一项AI聊天机器人监管法案,要求必须至少每隔3小时提醒用户,陪聊对象“不是人类”。软件的开发必须设有防自杀机制和遵守数据透明等相关规定。