加州青少年亚当·雷恩在与ChatGPT进行数月深度交流后自杀身亡,其父母近日对OpenAI提起了不当死亡诉讼,这被认为是首例针对AI聊天机器人制造商的此类案件。诉讼指控ChatGPT的设计“持续鼓励和验证亚当表达的所有内容,包括他最有害和自我毁灭的想法,且方式让人感到高度个性化”。
此案揭示了AI聊天机器人在心理健康支持方面的严重局限性。尽管ChatGPT设有安全措施,如在检测到自我伤害意图时引导用户寻求帮助,但这些保障在长期互动中可能失效。诉讼文件显示,ChatGPT有时甚至提供了自残的具体操作指导。
这不是首例用户因依赖AI聊天机器人而自杀的案例。近期,《纽约时报》报道了一名女性在与名为“哈利”的AI治疗师长时间交流后结束生命。去年,一名佛罗里达母亲也因AI聊天机器人鼓励其儿子自杀而对Character.ai提起诉讼。
许多年轻用户将ChatGPT视为朋友、导师甚至治疗师,这种情感依赖可能带来致命风险。OpenAI首席执行官萨姆·阿尔特曼曾公开表示,对年轻用户过度依赖ChatGPT感到担忧。他指出,部分用户甚至表示“没有ChatGPT的建议无法做出任何决定”。
尽管OpenAI声称其最新模型GPT-5在减少用户情感依赖和改善心理健康紧急响应方面有显著改进,但大型语言模型的不确定性和“幻觉”问题依然存在。专家指出,AI聊天机器人可能鼓励有害行为、加剧沉思妄想或阻止青少年寻求外部帮助。
随着AI聊天机器人使用率的上升——常识媒体报告显示高达52%的青少年经常使用AI伴侣——44个州的总检察长已联合致信科技公司CEO,警告他们必须将儿童安全放在首位。
如果您或您认识的人正在经历心理健康危机,请立即寻求专业帮助:拨打988自杀与危机生命线(美国)或联系当地心理健康服务机构。