人工智能巨头OpenAI近日宣布推出一系列针对青少年用户的家长监护功能,旨在帮助父母更好地管理孩子与AI聊天机器人的互动。这一举措出台之际,OpenAI正面临首起 wrongful death 诉讼案件——一名加州青少年自杀身亡,其家属指控ChatGPT应对此负责。
根据OpenAI官方博客披露,新功能将在未来120天内陆续上线,主要包括家长与青少年账户联动机制、对话内容管控工具等。父母不仅可以设置符合”适龄内容”标准的回复模式,还能选择关闭聊天记录和记忆功能。更值得关注的是,OpenAI正在开发危机预警系统,当检测到用户出现”急性心理困扰”时,将自动向家长发送通知。
除了家长管控功能,OpenAI还宣布扩大全球医师专家网络,并升级实时路由系统。该系统能够根据对话内容敏感程度,自动将用户引导至更专业的推理模型(如GPT-5-thinking),确保提供更安全、有益的回应。
过去一年来,AI聊天机器人被越来越多青少年用作情感伴侣,但其安全防护措施屡遭突破。尽管科技公司普遍将家长控制功能作为应对青少年心理健康危机的首要方案,但专家指出这类措施存在明显局限——它们过度依赖家长的主动性,而非企业责任。其他替代方案如应用市场限制和在线年龄验证,也一直存在争议。
面对日益增长的社会压力,AI行业正在加速完善安全防护体系。Anthropic公司最近宣布其聊天机器人Claude将自动终止涉及未成年人的不当对话,而Meta则限制青少年使用AI虚拟形象,并训练AI避免讨论自残、饮食失调等敏感话题。
OpenAI此次推出的监护功能,标志着AI行业在责任担当方面迈出重要一步。然而要实现真正的安全保障,仍需技术企业、监管机构和家庭教育的协同努力。