Meta于9月25日宣布将其青少年安全功能“青少年账户”推广至全球范围内的Facebook、Messenger和Instagram用户。这一举措将使数亿青少年自动纳入该公司的默认安全限制体系。该功能包含通信限制、内容过滤和直播权限管控等设置,Meta宣称其为“保障青少年安全的重要一步”。
然而,纽约大学和东北大学联合网络安全研究团队发布的报告《青少年账户,破碎的承诺》指出,在测试的47项安全功能中,64%被评定为完全无效或已停用。仅有8项功能被确认能有效防范风险。研究发现,成人用户仍可向青少年发送消息,包含欺凌内容的私信也能绕过限制,平台甚至继续向青少年推荐涉及自残、暴力和性暗示的内容。
报告合著者、Meta前举报人阿图罗·贝哈尔尖锐指出:“如果青少年需要先遭受勒索才能触发举报机制,伤害早已造成。”他将Meta的安全措施比作存在安全隐患的汽车,尽管配备了安全装置,但基本功能存在缺陷。
面对质疑,Meta回应称该报告“严重曲解了安全工具的实际运行情况”,并强调青少年账户体系已有效减少敏感内容接触和不良互动。但儿童权益组织Fairplay执行董事乔什·戈林反驳道:“Meta对外宣传的内容与其内部研究结果往往大相径庭。”
值得注意的是,两位签署报告的父母代表莫琳·莫拉克和伊恩·罗素的孩子均因网络欺凌导致自杀。随着AI聊天机器人等新技术对青少年心理健康影响加剧,全球家长对科技平台的监管诉求日益迫切。
目前,倡导者正推动《儿童在线安全法案》立法进程,并建议监管机构依据《儿童在线隐私保护法》对Meta施压。专家强调,社交平台安全工具亟需实质性改进,而非停留在表面承诺。