内塔尼亚胡真的死了吗?揭秘假消息背后的真相与应对策略

国际热点作者 / 花爷 / 2026-04-15 06:12
"
    【编者按】在信息爆炸的时代,一则关于以色列总理内塔尼亚胡的“六指视频”竟能迅速引爆网络,甚至衍生出“总理已死”的

  

  【编者按】在信息爆炸的时代,一则关于以色列总理内塔尼亚胡的“六指视频”竟能迅速引爆网络,甚至衍生出“总理已死”的离奇谣言。当AI技术让伪造内容以假乱真,当情绪传播碾压事实核查,我们正陷入一场前所未有的信息信任危机。本文深度剖析虚假信息如何利用人性弱点、技术漏洞与社会焦虑疯狂扩散,更揭示出:比谎言更可怕的,是人们潜意识里“愿意相信”的倾向。在战争、政治等高压语境下,真相的追索如同逆水行舟,而谣言的翅膀却总能乘风而起。面对这场没有硝烟的认知战争,我们该如何守住理性与真实的防线?以下内容或许能给你关键启示——

  新加坡讯:以色列总理本雅明·内塔尼亚胡于3月13日录制了一段面向国民的讲话视频并发布到网上后,众多网友声称在他一只手上发现了“第六根手指”。

  关于该视频由人工智能生成的指控迅速升级,演变成“内塔尼亚胡已去世”的谣言。

  两天后,这位以色列总理发布了另一段自己在咖啡馆访问的视频,以平息网络上的死亡传闻。尽管他做出了努力,流言却愈演愈烈。

  专家告诉亚洲新闻台,虚假信息往往比真相传播得更快,其中政治类虚假信息是传播最快的类别之一。

  CNA 游戏 猜词游戏 逐行破解单词 热词拼拼 用给定字母组词 迷你数独 小巧谜盘,烧脑挑战 迷你填字 小格子,大挑战 单词搜索 找出尽可能多的单词 显示更多 显示更少

  最成功的虚假信息传播活动往往能引发恐惧、愤怒或震惊等强烈情绪,促使用户不假思索地快速分享内容。

  专家表示,这反过来使得这些信息更加难以应对。

  新加坡管理大学计算学院副教授高伟指出,这些虚假信息活动通常出现在可信信息真空、而公众对最新信息有强烈需求的时候。

  他补充说:“在危机中,人们寻求即时解释,第一个戏剧性的故事往往比第一个经过核实的消息传播得更快。”

  他表示,揭示真相的过程则较为缓慢。“核实需要时间、证据、可信来源和多方协调。而一个虚假声称只需要足够有趣,就能让人分享。”

  本周二,以色列总理在社交平台X上发布了一张自己下令清除伊朗高级官员的照片——该平台上的回复中充斥着用户声称这是一张旧照片或是AI生成的照片。

  一条回复写道“请仔细看”,并附上了一张照片,其中多个区域被圈出,声称发现了照片造假的线索。

  错误信息指的是无意造成危害而生产的虚假信息,而虚假信息则是指有意制造以造成损害的虚假信息。

  南洋理工大学信息完整性与互联网中心主任Edson Tandoc教授表示,从不同来源多次接触同一虚假声称,会使该虚假信息显得非常可信。

  他补充说,迎合人们已有的先入之见或偏见也同样有效。

  他说:“利用人们的确认偏误是欺骗的配方。利用人们的情绪则是另一种伎俩。”

  Tandoc教授表示,必须在虚假信息病毒式传播之前立即进行纠正。假新闻传播与纠正之间的时间差越长,就有越多的人暴露于错误信息的风险就越高。

  新加坡国立大学可信互联网与社区中心主任李蒙利教授表示,一旦虚假声称被重复多次,并且人们公开表示认同,要改变人们的想法就会变得困难得多。

  新加坡国立大学数据科学研究所所长Wynne Hsu教授补充说,在这个阶段,个人通常会拒绝纠正,以避免认知失调,这就是为什么改变他们的想法更加困难。

  接受亚洲新闻台采访的专家对内塔尼亚胡去世的谣言并不感到意外,并警告说生成式人工智能已使虚假信息活动变得容易得多,也更具说服力。

  南洋理工大学黄金辉传播与信息学院的Saifuddin Ahmed副教授指出,在此案例中,谣言还利用了战争时期的不确定性、内塔尼亚胡有限的公开露面,以及关于AI操纵视频片段的热门说法。

  他补充说,对于普通用户来说,区分由生成式AI创建的AI操纵视频片段或深度伪造正变得越来越困难。

  Saifuddin副教授表示,目前,个人应该核实信息来源,留意面部瑕疵、奇怪的光线或不自然的音频,并查看是否有可信的新闻机构或账号确认该信息。

  他补充说:“如果一个戏剧性的视频只出现在随机的社交媒体账号上,那就是一个危险信号。”

  南洋理工大学的Tandoc教授说:“我们早就预料到,实体的传统战斗会辅以虚假信息战——我们在以前的冲突中也看到过这种情况。”

  “这只是时间问题。”

  他补充说,虽然仍然可以验证视频或检查它们是否由生成式AI制作,但另一个问题是人们是否愿意检查其真实性,或者是否有技能和时间这样做。

  Tandoc教授说,鉴于网上关于冲突的信息和图像数量庞大,人们可能没有时间验证他们看到的每一个视频。

  他补充说,在这种情况下,他们只是依赖自己的偏见。“如果这个视频支持我所相信的,那么我希望它是真的,那么它就必须是真的。”

  新加坡管理大学计算学院的柯平帆助理教授表示,生成式人工智能通过降低生产成本,使得传播虚假信息变得更加容易。

  他说,任何人都可以毫不费力地用多种语言生成文本、图像、视频或音频,并补充说深度伪造几乎可以与现实难以区分。

  他说:“即使深度伪造的质量不够好,它们也可以通过引发辩论来助长谣言。”

  柯助理教授指出,人们通常通过寻找技术上的不一致之处(如不自然的唇语同步)或元数据(如水印)来检查AI生成的视频,并指出在更精心制作和复杂的视频中,这些迹象可能不那么明显或被移除。

  他补充说:“更好的方法是核实来源和保管链——询问视频源自何处,以及是否有信誉良好的新闻机构已验证它。”

  一些国家拥有授权政府采取行动打击虚假信息的法律。

  新加坡国立大学传播与新媒体系副主任Carol Soon博士指出,新加坡和澳大利亚就有这样的法律。

  Soon博士说,虽然强制删除内容可能会减缓虚假声称的传播,但现实是,一些人已经看到了虚假信息并在分享它。

  她补充说,打击虚假信息需要上游和下游共同努力。这可能包括社区外展活动,以增进不同社区之间的理解和同理心,或者及时揭穿并公开谴责虚假信息及其传播者。

  曾担任新加坡国立大学法学院院长的国大学院院长Simon Chesterman表示,困难在于错误信息通常可以及早纠正,但很少能完全消除。

  他补充说,像新加坡《防止网络假信息和网络操纵法案》这样的法律工具可以通过附加更正来提供帮助,在更严重的情况下,可以限制访问。

  同时担任新加坡人工智能治理人工智能新加坡高级总监的Chesterman教授表示,但没有任何法律制度能完全消除错误信息。

  他补充说:“归根结底,最持久的防御是公众的韧性:公民既不能轻信到相信一切,也不能愤世嫉俗到什么都不信。”

  本文由简意网原创发布,未经许可,不得转载!

  本文链接:http://o.wetsq.com/zh/6115/

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读