

恋童癖者正在使用人工智能(AI)来让名人“变老”,并将他们塑造成儿童的形象。
互联网观察基金会(IWF)的一份报告没有透露这些名人的名字,但称女歌手和电影明星大多是被攻击的目标。
该慈善机构还在一个暗网论坛上发现了用户操纵儿童演员图片使其具有性意味的证据。
分析还发现,儿童性虐待的图片被输入到人工智能图像生成器中,在不同的环境中重建它们,而其他人则用它们来“裸体”儿童——为合法目的拍摄穿着衣服的儿童的照片上传到互联网上。
使用人工智能制作儿童性虐待图片被IWF描述为“我们最可怕的噩梦”。
IWF首席执行官苏茜·哈格里夫斯在接受BBC采访时表示:“今年早些时候,我们警告说,人工智能图像可能很快就会与遭受性虐待的儿童的真实照片难以区分,我们可能会看到这类图像的数量激增。”“我们现在已经越过了那个点。
“我们最糟糕的噩梦成真了。”
报告指出,今年早些时候,当人工智能生成的儿童性虐待材料图片首次出现在网上时,很明显这些图片是假的,身体部位缺失或笨拙,背景也很奇怪。
然而现在,哈格雷夫斯女士说:“这些图像太逼真了,即使是我们训练有素的分析师也很难区分。”
IWF的报告发现,在一个月内,在一个暗网虐待儿童网站上,有近3000张人为生成的非法图片,其中564张被列为最严重的图片。在这些作品中,超过一半描绘的是小学生,143幅描绘的是3至6岁的儿童,两幅描绘的是两岁以下的婴儿。
分析人士还发现了一个人工智能模型文件,允许论坛用户操纵现实世界受害者的照片,以及数百张她遭受性虐待时的照片。
哈格雷夫斯女士说:“犯罪者在暗网论坛上的证词也告诉你,你想知道。”“幻想可以被定制,这让人欢欣鼓舞。”
关于人工智能儿童性虐待图像的诸多危险,哈格里夫斯女士强调了保护儿童慈善机构最近的一项调查,该调查显示,超过一半的受访者担心观看此类内容可能导致对儿童的性行为,44%的受访者表示,观看图像会让他们考虑寻求与儿童接触。
超过三分之一的人在网上看到儿童性虐待图像后,已经寻求与儿童联系。
哈格里夫斯女士补充说:“我更担心的是,这种类型的儿童性虐待内容在某种程度上是道德的。”事实并非如此。”
该报告强调了这给执法机构带来的困难,指出大多数人工智能生成的儿童性虐待图像足以令人信服,可以被视为“真实的”。
IWF今天发布了这份报告,以强调这一问题的严重性。英国首相理希?苏纳克(Rishi Sunak)准备于下周在布莱切利公园(Bletchley Park)主持英国政府的人工智能峰会(AI Summit),旨在为安全可靠的机器学习制定议程。
上个月,西班牙一个小镇的十几岁女孩成为了勒索者的目标,这些勒索者利用人工智能从她们的社交媒体账户上拍摄的照片生成了她们的裸照。
专家警告称,人工智能有“灭绝的危险”
更多:人工智能现在可以自己驾驶战术战斗机了
更多:英国官员正在使用人工智能来做出福利决策