诉讼:苹果未能阻止iCloud上儿童色情内容的传播

红酒作者 / 花爷 / 2025-04-27 09:59
"
    一名27岁的儿童性虐待受害者起诉苹果公司,索赔超过12亿美元,声称该公司未能实施自己的系统,从其iCloud服务中检测和删

  

  一名27岁的儿童性虐待受害者起诉苹果公司,索赔超过12亿美元,声称该公司未能实施自己的系统,从其iCloud服务中检测和删除儿童色情内容。

  据《纽约时报》报道,苹果公司正面临一场重大诉讼,可能使这家科技巨头损失超过12亿美元的赔偿金。这起诉讼于上周末在北加州的美国地方法院提起,指控苹果没有实施自己的系统来识别、删除和报告儿童色情内容,也就是存储在该公司流行的云存储服务iCloud上的儿童性虐待材料(CSAM),未能保护儿童性虐待的受害者。

  原告是一名27岁的女性,来自东北,由于案件的敏感性,她使用了化名,她是一名儿童性虐待的受害者。虐待是由一名亲戚实施的,他拍下了这些行为的照片,并在网上分享给其他人。这名妇女继续收到执法部门的通知,有时每天收到几十份通知,通知她非法图像已在被控犯有与儿童色情有关的罪行的个人手中被发现。

  2021年,苹果推出了一款名为NeuralHash的工具,通过将已知的儿童性虐待图片的不同数字签名或哈希值与存储在用户iCloud账户中的照片进行比较,苹果可以扫描这些图片。然而,在面临网络安全专家的批评后,该公司很快放弃了这一系统,他们警告说,这可能会为iphone创造一个后门,使政府能够进行监控。

  该诉讼辩称,苹果公司先是引入了NeuralHash系统,然后又放弃了该系统,违反了保护儿童性虐待受害者的承诺,并允许非法材料在其平台上扩散。该诉讼旨在改变苹果的做法,并赔偿2680名有资格参与此案的潜在受害者。根据法律规定,儿童性虐待的受害者有权获得至少15万美元的赔偿金,如果陪审团认定苹果负有责任,那么赔偿总额可能超过12亿美元。

  这是针对苹果公司的第二起此类案件。今年8月,北卡罗来纳州一名9岁女孩提起诉讼,苹果公司通过iCloud链接向她发送了儿童性虐待视频,并鼓励她拍摄并上传自己的裸体视频。苹果公司已经提出动议,以《通信规范法》第230条为依据,驳回北卡罗来纳州的案件。该法案为科技公司提供法律保护,保护第三方在其平台上发布的内容。

  这些诉讼的结果可能对科技行业产生重大影响,因为美国第九巡回上诉法院最近的裁决已经确定,第230条盾牌可能仅适用于内容审核,而不提供全面的责任保护。这让原告的律师燃起了希望,即科技公司在处理其平台上的非法内容方面可能会在法庭上受到挑战。

  苹果公司为自己的做法进行了辩护,称它致力于打击掠夺者将儿童置于危险之中的方式,同时维护用户的安全和隐私。该公司已经引入了安全工具,以遏制新创建的非法图像的传播,例如其Messages应用程序中的功能,可以警告儿童注意成人内容,并允许人们向苹果报告有害内容。

  然而,批评人士认为,苹果公司将隐私和利润置于儿童性虐待受害者的安全之上。多年来,该公司报告的滥用内容比同行少得多,只捕获和报告b谷歌和Facebook捕获的一小部分内容。

  这起诉讼的原告决定起诉苹果,因为她认为苹果公司引入了神经哈希系统,然后又放弃了该系统,给了儿童性虐待受害者虚假的希望。作为一名iPhone用户,她认为苹果公司选择了隐私和利润,而不是像她这样的人的福祉,他们因非法图像的传播而遭受了巨大的痛苦。

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读