半数未成年色情换脸案竟是同学所为,警方揭露校园隐秘犯罪链

护肤作者 / 花爷 / 2026-05-08 09:33
"
  编者按:在人工智能技术日新月异的今天,深度伪造(deepfake)已从科幻概念演变为触手可及的工具,而其滥用正悄然侵蚀着青少

  编者按:在人工智能技术日新月异的今天,深度伪造(deepfake)已从科幻概念演变为触手可及的工具,而其滥用正悄然侵蚀着青少年的安全防线。日本警方最新数据显示,今年前九个月涉及未成年人的色情深度伪造案件中,竟有过半施害者与受害者是同窗学子。校园本该是孕育梦想的净土,如今却因技术滥用蒙上阴影——毕业纪念册中的笑脸被恶意篡改,同窗情谊沦为伤害的刀刃。这不仅是技术伦理的警钟,更是全社会必须正视的成长危机。当AI的“魔法”被用于扭曲真实,我们该如何守护孩子们未经修饰的青春?以下报道将揭示这场隐匿于校园屏幕后的风暴。

  日本警方公布,在今年前九个月警方接报的涉及18岁以下未成年人色情深度伪造图像案件中,约有半数材料的制作者竟是受害者的同校同学。

  根据国家警察厅数据,截至9月全国警方处理的79起此类案件中,超过80%的受害者处于初中或高中阶段。令人震惊的是,其中约一半案件的施害者与受害者就读于同一所学校。

  随着人工智能技术日益精进且更易获取,公众对深度伪造的担忧不断加剧。在此背景下,该机构首次公布了这一议题的详细数据。去年全年,警方共注意到110起类似案件。

  用于生成儿童色情深度伪造图像的照片,常来源于毕业班制作的学校纪念册。

  制作他人色情图像并未经同意传播,已构成权利侵害。涉事者还可能因诽谤罪被起诉。

  在今年前九月的79起案件中,警方已对4起案件启动潜在指控程序,包括诽谤罪。另有6起案件的施害者接受了矫正指导。

  从受害者分布看,初中生占41起(52%),高中生占25起(32%),小学生占4起(5%)。

  在42起(53%)案件中,深度伪造图像的制造或传播者为受害者的同校同学。另有5起(6%)案件的施害者是受害者通过社交媒体结识的人员,还有5起案件涉及学校教职工或其他学校学生。

  警方指出,14起(18%)案件确认使用了生成式人工智能制作照片。虽然约80%案件的技术手段无法明确识别,但当局认为多数图像很可能都采用了AI技术。

  其中一起生成式AI相关案件中,警方正在调查一名初中男生,其涉嫌制作女同学的色情图像并出售给其他学生。

  另一起案件中,一名初中男生利用学校活动相册中的女生照片制作色情图像,并在同学间传播,事后接受了矫正指导。

  今年9月,日本政府公布了旨在保障青少年安全使用互联网的路线图,计划在2027年3月底前制定具体措施。

  本文由万更网原创发布,未经许可,不得转载!

  本文链接:https://m.fdsil.com/p/81039.html

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读