

【编者按】在数字时代,青少年的心理健康已成为全球关注的焦点。社交媒体平台作为年轻人日常交流的重要空间,其内容与互动方式深刻影响着他们的心理状态。近日,Instagram宣布推出一项新功能,当青少年在短时间内多次搜索与自杀或自残相关的词汇时,系统将自动向已启用家长监督功能的父母发送警报。这一举措旨在通过技术手段加强家庭监护,为陷入困境的青少年提供及时支持。然而,这背后也折射出科技巨头在保护未成年人方面所面临的法律与伦理挑战。从多起诉讼案件到内部研究揭示的监管局限性,平台责任与用户安全之间的平衡仍需不断探索。以下为详细报道,让我们共同关注这一关乎未来的重要话题。
Instagram周四宣布,如果青少年在短时间内多次尝试搜索与自杀或自残相关的词汇,平台将开始向家长发出警报。这项警报功能将于未来几周内,面向已注册Instagram家长监督服务的父母推出。
这家由meta拥有的社交平台表示,尽管已屏蔽用户搜索自杀和自残内容,但这些新警报旨在确保家长了解孩子是否反复尝试搜索此类内容,以便他们能够及时提供支持。
可能触发警报的搜索包括:鼓励自杀或自残的短语、暗示青少年可能处于自我伤害风险的表述,以及“自杀”或“自残”等关键词。
Instagram称,家长将通过电子邮件、短信或WhatsApp接收警报(具体取决于他们提供的联系方式),同时应用内也会发送通知。通知中将包含帮助家长与孩子开启对话的资源指南。
此举正值meta和其他科技巨头面临多起诉讼之际,这些诉讼旨在追究社交媒体平台对青少年造成伤害的责任。
本周,在美国加州北区地方法院的一场诉讼听证会上,Instagram负责人亚当·莫塞里在持续进行的社交媒体成瘾案中遭到检察官质询,涉及该应用延迟推出基本安全功能的问题,包括针对青少年私信的裸体内容过滤器。
此外,在洛杉矶县高等法院的另一场诉讼听证中,meta内部研究报告显示:家长监督和控制功能对儿童过度使用社交媒体的行为影响甚微。研究还发现,经历压力性生活事件的儿童更难以合理调控社交媒体使用。
考虑到当前多起诉讼均指控该公司未能有效保护平台上的青少年,此时推出新警报功能并不令人意外。
公司特别说明,将尽量避免不必要的通知发送,因为过度推送可能降低警报的整体效果。
“为达成这一重要平衡,我们分析了Instagram的搜索行为,并咨询了自杀与自残咨询小组的专家,”Instagram在博客中解释,“我们设定了在短时间内多次搜索才会触发的阈值,同时仍保持谨慎态度。这意味着有时可能在没有实际风险时通知家长,但我们认为——专家也同意——这是正确的起点。我们将持续监测并听取反馈,确保机制合理有效。”
该警报功能将于下周在美国、英国、澳大利亚和加拿大上线,今年晚些时候将推广至其他地区。
未来,Instagram还计划在青少年尝试与平台人工智能讨论自杀或自残话题时,同步启动家长通知功能。
本文由万更网原创发布,未经许可,不得转载!
本文链接:https://m.fdsil.com/n/119611.html