

【编者按】在这个信息爆炸的时代,AI生成的“数字快餐”正以惊人的速度占领我们的屏幕。三胞胎超市扫地、蚂蚁啃噬小猫、橙头宝宝跳海获救……这些光怪陆离的画面背后,是算法与人性弱点的精准博弈。当创作门槛降至零,当猎奇取代深度,当千万流量为荒诞内容买单,我们正在经历一场数字世界的认知危机。本文带你揭开AI垃圾内容的暴利产业链,看清那些让你欲罢不能的短视频背后,正在如何重塑下一代的思维方式与互联网生态。
三胞胎宝宝正拿着扫帚清理他们在超市制造的混乱。一只小猫正被蚁群从内到外啃噬。一个长着橘子头的幼儿从游轮跳下后,被虎鲸和Labubu玩偶救起。
如果这一切听起来像毫无逻辑的视觉大杂烩——那就对了。
欢迎来到最新类型的内容:人工智能(AI)垃圾。它们正在社交媒体平台、流媒体网站、电子游戏乃至整个互联网世界疯狂增殖。
这个术语指代AI生成的视频、文本、图片和音频,通常质量低下,被快速批量生产,只为了使用户无意识地紧盯屏幕,并为创作者创造收入。
任何人愿意花超过一秒观看——比如说,一条穿着运动鞋、手持机枪的AI生成鲨鱼,与一架以军用飞机为身体的鳄鱼搏斗(是的,这种视频确实存在,而且和听起来一样令人迷惑)——可能显得很荒谬。
但事实上,AI垃圾在互联网上的快速蔓延,恰恰证明了它成功捕获了全球用户的高度关注。
英国《卫报》发现,在2025年7月YouTube增长最快的100个频道中,有9个专门发布纯AI生成的内容。
根据分析公司Playboard的数据,2025年8月新加坡第四大YouTube频道Pouty Frenchie,只发布一只卡通法国斗牛犬的AI生成视频。
该频道最受欢迎的视频是一条16秒的短片,内容是一只法斗购买美人鱼服装,发布三个月内获得超过2.31亿次观看。
而一旦用户观看了一个此类视频,旨在让他们停留在同一平台的算法就会持续推荐更多类似内容。
《今日CNA》发现这种情况发生得很快。在YouTube Shorts搜索和观看AI生成视频的两天内,本记者的社交媒体账号就被大量AI垃圾视频淹没,从 merely baffling(仅仅令人困惑)到 outright disconcerting(完全令人不安)。
这类内容的爆炸式增长,是因为人们发现创建和发布此类内容是快速轻松的赚钱方式。
在线上,很容易找到内容创作者谈论他们如何通过制作此类内容月入数千美元,并教导他人效仿。
根据新加坡数码发展暨信息部(MDDI)的调查,约五分之四(81%)的新加坡家长担心孩子接触不适当的网络内容。
而在拥有或使用数码设备的儿童中,94%将设备用于休闲活动。MDDI表示,媒体流媒体和游戏是他们的主要活动。
这些来自今年二月进行、9月12日发布的数码育儿调查的结果,基于1986名拥有2至17岁孩子的新加坡居民家长。
这些家长的担忧并非杞人忧天。
乍看之下,AI垃圾可能似乎只是无脑的消遣,但全球专家警告,长期可能对狂热消费者产生负面影响,尤其是大脑仍在发育的儿童和青少年。
AI垃圾也在恶化互联网的可信度,它导致从假新闻到假食谱的网站激增,因为AI内容创作者试图从在线广告中赚钱。
9岁的Felix Kua平日的屏幕时间为30分钟,周六稍多。
时间不多,但他的父亲已经注意到Felix的YouTube推送中出现“奇怪”视频。
“(这些视频)通常是短小的动画片段,带有奇怪的故事情节或扭曲的角色。它们通常看起来制作匆忙,几乎是随机拼凑的,”经营补习机构Mr Khemistry的Eric Kua先生说。
虽然Kua先生表示他能轻易分辨这些视频是AI生成的,但他担心儿子不能,这可能长期影响他的媒体素养和批判性思维能力。
“对(儿童)来说,视频就是视频。他们不区分是AI还是人制作的,风险就在这里,因为他们可能接受任何内容为正常或可信。”
与其他接受《今日CNA》采访的家长一样,他对于孩子观看教育性和事实性的AI生成内容感到放心。但AI垃圾是另一回事。
“孩子可能浪费数小时消费垃圾,(就像)每天吃快餐,”他说。
确实,AI垃圾的一个子类型被称为“脑腐”,因为它被认为对狂热观看者产生的影响。
牛津大学出版社甚至将“脑腐”评为2024年度词汇,将其定义为人因过度消费琐碎或无挑战性的网络内容而导致的心理或智力状态恶化。
术语“脑腐”既指这种假设的影响,也指内容本身。
问任何儿童或青少年Ballerina Cappuccina是什么或谁,他们可能会详细解释一个AI生成的芭蕾舞者,头是咖啡杯,以及“意大利脑腐”宇宙中的其他角色(以AI垃圾令人困惑和荒诞的风格,与意大利几乎无关)。
这个宇宙中的其他角色包括穿着蓝色运动鞋的行走鲨鱼Tralalero Tralala,和鳄鱼头军用飞机Bombardiro Crocodilo。
这些角色最早的视频包括AI生成的意大利语画外音,发表偏执言论。然而如今,视频更常伴随意大利语声音的AI生成音频,实际翻译为无意义的胡言乱语。
14岁的中学生Sabrina Ng曾经观看大量意大利脑腐视频,但她现在觉得它们“过时”了。不过,其他AI垃圾视频仍出现在她的社交媒体推送中,她继续享受它们。
她的母亲不太高兴。
“她总是唠叨我看网上‘boliao’(无用)的东西,会让我变傻,”她使用福建话单词“无用”说。
“但我不认为看一堆视频真的会让我的大脑腐烂。这只是放学后观看和放松的有趣视频。”
对于这些视频的创作者来说,重点是利润。
新加坡社会科学大学(SUSS)传播项目主任Brian Lee副教授表示,AI垃圾通常由内容农场创建,以在流媒体和社交媒体平台的广告收入中获利。
内容农场是生成大量内容的公司或网站,通常质量低下。内容农场产生的点击和互动越多,它们能获得的广告收入就越多。
“经济激励是AI垃圾在社交媒体上如此普遍的主要原因。社交媒体平台根据观看量与内容创作者分享广告资金。害群之马使用生成式AI工具以近乎零的成本生成大量内容,”他解释。
这就是为什么一些AI垃圾内容具有令人不安和挑衅的视觉,旨在震惊观众,如蚂蚁从内到外吃猫,或AI生成的 Holocaust 受害者图片。
“毕竟,怪异和黑暗的转折会更有效地吸引注意力,”Lee副教授说。
“反常的激励可能被AI算法进一步加速,这些算法已被证明优先考虑互动,而震撼价值可以是一个强大的互动驱动因素。”
根据其创作者的说法,制作YouTube频道Cat and Hat的超现实猫咪肥皂剧短片之一需要约10小时,他是一位驻英国的YouTuber,拒绝透露姓名或年龄。
“想法通常始于我一直在思考的东西——一种感觉、一个时刻或社会观察,”他在电子邮件采访中告诉《今日CNA》。“我使用混合AI工具生成图像和声音,但方向和语气来自我。”
当被问及从制作此类视频中赚取多少时,这位YouTuber表示他从广告收入和许可中赚钱,但拒绝分享数字。
“对我来说,真正的好处是(创造力)。它为我、观众和算法之间的对话开辟了空间。”
随着AI改进和日益普及,它使人们更容易快速制作AI垃圾并上传到社交媒体和流媒体平台。
一些发布此类AI内容的视频频道甚至发布了指南和教程,以帮助他人创建自己的AI垃圾。
这些指南通常推荐工具,如OpenAI的ChatGPT和Microsoft的Copilot,以生成脚本和故事想法。
然后使用图像或视频生成AI平台创建视觉,创作者随后使用AI编辑器或基本的剪切粘贴编辑软件组装短视频。
“加入内容农场的个人越来越多,因为其进入门槛极低。他们不需要任何编辑和视频制作技能。只需一个提示即可完成工作,”Lee副教授说。
AI垃圾也开始渗入音乐流媒体平台,如Spotify。《卫报》今年7月报道,一个名为The Velvet Sundown的“乐队”发布了两张专辑,并在几周内获得超过100万次流媒体播放,但后来发现从歌曲到乐队的图像和背景故事,一切都是AI生成的。
当您看到一个咖啡杯和芭蕾舞者混搭的卡通人物时,很容易识别AI垃圾。但有时,AI垃圾可能更难发现。
DoubleVerify亚太董事总经理Conrad Tallariti先生表示,生成式AI(Gen AI)模型可以在几分钟内轻松生成数百条书面内容,从假新闻到虚构食谱。
“AI垃圾与合法生成式AI输出的区别在于缺乏人工监督、内容真实性差以及套利策略,几乎不考虑用户信任或质量,”他说。
通过赞助帖子、联盟链接和大量广告投放,只要有足够的点击和互动,AI垃圾网站可以轻松获利。
“以食谱网站为例。可以制作和发布数百篇AI编写的文章和极其逼真的食物照片,甚至对于从未制备过的食谱,”他说。
“为了获得真实性和流量,AI垃圾网站通常将自己呈现为个人烹饪博客,由人撰写,(但)实际上是由Gen AI发明的头像,使用虚构的生物和图像。”
验证媒体质量和广告表现的软件平台DoubleVerify还发现了200多个AI生成和广告支持的网站,这些网站旨在模仿知名主流出版商,如体育网站ESPN和新闻频道CBS,但托管虚假点击诱饵AI生成内容。
“由于这些网站缺乏人工监督和欺骗,广告商可能无意中将广告投放在假冒内容农场上,”Tallariti先生警告。
更令人担忧的是,AI垃圾在全球实际危机期间加剧了错误信息,这对相关人群产生了现实影响。
例如,在去年美国北卡罗来纳州洪水期间,显示所谓洪水受害者的AI生成图像开始在网上广泛传播,因为内容农场将危机视为在线获取互动的机会。
这使急救人员的工作更加困难,因为他们依赖社交媒体定位实际受害者,同时也使现场人员更难筛选垃圾内容并找到可靠信息。
专家表示,即使是最愚蠢和看似无害的AI垃圾形式也可能对消费者产生影响。
心理健康公司ThoughtFull的咨询主管John Pinto博士表示,AI垃圾视频的过度刺激和迷失方向的性质可能对消费者的心理健康和认知产生影响。
“它侵蚀用户的专注能力,损害保留能力,并增加焦虑,尤其是在青年中,模仿赌博成瘾中看到的行为模式,”他说。
“内容本身吸引注意力,可以说观看有趣……你觉得你想留下来,因为你想知道接下来会发生什么。这也鼓励你继续滚动到下一个。”
因此,AI垃圾可以减少注意力持续时间并导致数字疲劳。
“结合质量侵蚀和试图过滤‘垃圾’内容的认知负担,AI垃圾通过培养焦虑、分心和脱离接触,进一步加重观众的心理健康负担,”Pinto博士说。
南洋理工大学国立教育学院(NIE) pedagogy and practice 研究中心的高级教育研究科学家Wong Lung Hsiang博士表示,观看AI垃圾的青少年也可能受到影响。
除了错误信息,Wong博士补充说,观看过多AI垃圾可能导致认知发育迟缓。
“持续接触浅薄、衍生的材料使 incoherence 正常化,并减少练习批判性思维或创造性想象的机会,”他说。
“超现实或‘诡异’的AI图像可能混淆或使年轻观众不安。随着时间的推移,它可以使他们对荒谬不敏感,并减少对真实人类表达的欣赏。”
Wong博士补充说,一些青少年和儿童可能数字防御较弱,使他们容易被设计用于收割点击和数据以及推送诈骗的AI垃圾操纵。
“当青少年未能验证低质量、AI生成的内容时,这些内容优先考虑速度而非准确性,这可能导致对工具的过度依赖,这些工具可能经常自信地错误,并且被设计为取悦,”NIE学习科学与评估系的助理教授Tanmay Sinha说,他的研究包括关于学生为未来学习做准备的研究。
“不断消费AI垃圾可能损害青少年的智力发展,非常类似于快餐和含糖零食的饮食可能导致营养缺乏和其他健康问题。”
进一步放大,批评者指出,AI垃圾的增殖正在使互联网成为寻求真实信息和连接的用户的更差资源。
这个过程——在线平台由于追求利润而导致服务质量下降,逐渐恶化——甚至被命名:“enshittification”,由加拿大-英国记者和科幻作家Cory Doctorow创造的术语。
SUSS的Lee副教授表示,社交媒体上每日泛滥的AI垃圾将削弱用户的信任,但他也相信科技公司将在适当时候纠正。
“我开始看到‘enshittification’的风险,一些平台选择数量而非质量,”他说。
“但我对互联网的未来仍然乐观……我会将当前AI垃圾的爆炸不是视为好互联网的终结,而是作为一个痛苦、必要的压力测试。”
回应《今日CNA》的查询,meta发言人表示,其社交媒体平台Facebook和Instagram上的用户可以分享AI生成的图像,只要它们符合其社区准则。
“保持我们的平台安全对我们至关重要,”发言人说。
“当我们检测到行业标准AI图像指标或人们披露他们正在上传AI生成内容时,我们将更广泛的视频、音频和图像内容标记为‘AI信息’。”
公司要求用户标记数字生成或更改的内容,包括使用AI。它还使用技术、用户报告和内容审核团队审查的组合来识别和审查内容是否符合其标准。
在YouTube上,AI生成内容不违反其政策。相反,平台上的内容,无论是否使用AI创建,都必须遵守社区准则。
这些准则包括禁止技术操纵误导观众或可能造成伤害风险的内容。
它还在7月15日更新了其 monetisation 计划关于重复内容的政策。
“这类内容一直不符合我们的现有政策下的 monetisation 条件,创作者因原创和真实内容获得奖励,”平台在其网站上表示。
TikTok拒绝对此文章发表评论。
虽然社交媒体平台反对大规模生产内容,但尚不清楚它们是否对上传AI垃圾的用户采取了行动。
一些批评者表示,这样做可能不符合平台的利益,因为AI垃圾积累了数百万次观看并吸引了广告商。
科技新闻网站404Media的联合创始人Jason Koebler先生8月28日告诉美国媒体NPR,大多数社交媒体公司也没有采取强硬立场,因为它们投资于AI。
Lee副教授补充说,政府当局、平台、用户和其他关键利益相关者需要共同努力,以避免在AI垃圾 advancement 面前互联网退化。
“例如,平台将承担明确标记AI内容的责任,并可能相应调整其算法,”他说,并补充说社交媒体平台应远离纯粹关注互动,转而关注质量内容。
已经有一些努力鼓励安全负责的AI使用。2023年12月,科技巨头IBM和meta与其他全球科技公司、政府和学术界发起了AI联盟,以推动负责任的AI采用和合作。
IBM ASEAN首席技术官Kitman Cheung先生表示,AI模型的创作者应该从一开始就透明地说明他们的模型是如何开发的。
在这方面,Cheung先生表示IBM开发了AI Fact Sheet 360s,允许发布技术(如AI模型)的人解释其构建方式。
这使用户知道可能用该模型创建什么类型的内容,并更容易规范新技术生成的内容类型。
虽然对AI平台的监管和创建开放标准可以增加透明度,但Cheung先生承认这不会防止不良行为者创建有害的AI垃圾。
“这就是为什么我们需要防护栏……检测内容并将其下线,”他说。
一种这样的方式可能是进一步发展对抗性AI——可以检测其他AI模型及其生成内容的AI模型。
在保护儿童方面,NIE学习科学与评估系名誉教授Looi Chee Kit教授表示,需要涉及社交媒体平台、政府、教育工作者和家长的“分层响应”。
例如,他说,现有的儿童安全和消费者保护法应扩展到覆盖AI内容。
“当AI输出伪装成人类时,执行广告真实性标准,并资助全国性的AI媒体素养计划,”他说。
“超越传统媒体素养,儿童必须学习AI素养,例如(质疑)谁制作了内容,为什么制作,以及是否可以验证。”
虽然家长在监控孩子数字使用方面确实有作用,但9月12日发布的MDDI调查结果显示,只有37%的新加坡家长对自己这样做的能力有信心。
“对于表示很少或没有信心的家长,主要挑战是由于工作或其他承诺时间有限,孩子不愿遵守规则,孩子绕过家长控制的能力,以及家长对家长控制或监控工具的知识有限,”MDDI在其新闻稿中表示。
政府已有努力保护儿童免受在线危害,例如行为准则要求社交媒体服务保护新加坡用户免受有害内容的影响。
但除此之外,MDDI宣布将为家长配备资源,以帮助他们在孩子中培养良好的数字习惯等。
ThoughtFull的Pinto博士表示,AI垃圾旨在锁定用户注意力,更多用户应该意识到这一点。
“内容诡异, often 荒谬,我们的大脑 wired 停止并查看感觉‘不对劲’的东西。社交媒体算法放大了这种反应,因此即使低质量的AI输出也传播很快,”他说。
“人们观看不是因为内容好。相反,他们观看是因为很难移开视线。”