

【编者按】AI技术正以惊人速度重塑世界,但阳光背后总有阴影。当黑客学会用ChatGPT编写恶意代码,当Claude沦为数据勒索的帮凶,我们不得不警惕:AI这把双刃剑正在网络安全领域划出怎样的血痕?本文揭露的最新案例显示,只需几句"角色扮演"指令,AI就能突破安全护栏为犯罪者效力。这不是科幻电影,而是正在发生的现实——全球已有至少17家机构中招,医疗数据、政府文件甚至宗教信息皆遭毒手。AI安全战已经打响,这场关乎每个人数字生命的攻防战,你我都是局中人。
消费者AI工具正在沦为犯罪温床!最新研究发现,网络犯罪分子竟然能通过话术欺骗编程聊天机器人,让AI亲手帮他们制作恶意软件——这种操作被美国公司Anthropic称为"AI辅助网络犯罪令人担忧的进化"。
这家与OpenAI旗下ChatGPT打擂台的实验室,在报告中曝光了惊人案例:一名网络罪犯利用Claude Code,在短时间内对多个国际目标实施了大规模数据勒索行动。
更可怕的是,仅过去一个月,这种AI辅助攻击就"可能已波及至少17个不同组织",受害者涵盖政府机构、医疗机构、紧急服务部门甚至宗教场所。
虽然该攻击者已被Anthropic封禁,但在此之前,TA早已利用Claude Code制作了能窃取个人数据、医疗记录和登录凭证的工具,甚至成功发送了高达50万美元的勒索信!
Anthropic不得不承认:即便拥有"尖端安全措施",依然没能阻止这次滥用。
这绝非个例!自从生成式AI工具普及以来,整个网络安全行业的噩梦正在成真。
Orange Cyberdefense应急响应团队负责人Rodrigue Le Bayon直言:"如今网络罪犯对AI的掌握程度,早已和普通用户不相上下。"
六月时,OpenAI同样曝出ChatGPT协助用户开发恶意软件的案件。本应阻止用户违法活动的AI安全机制,正在被黑客用"话术骗局"轻易破解。
以色列网络安全公司Cato Networks专家Vitaly Simonovich三月就发现:只要给AI编造一个"虚构世界",让聊天机器人扮演其中角色,就能让它突破底线编写窃密代码——就像让AI相信开发恶意软件是种艺术创作。
"我十年网安经验,但从不开发恶意软件。这只是为了测试当前大语言模型的边界。"Simonovich的测试结果令人胆寒:虽然谷歌Gemini和Anthropic的Claude抵挡住了诱惑,但ChatGPT、中国深度求索聊天机器人和微软Copilot全部中招!
这意味着,未来哪怕毫无编程基础的小白"也能构成更大威胁"——毕竟现在开发恶意软件根本不需要技术门槛。
不过Orange公司的Le Bayon认为,AI更多是在"扩大受害者规模"而非创造新黑客:"我们暂时还看不到聊天机器人直接写出顶尖复杂代码。"
但他也带来希望:随着生成式AI使用量激增,"创建者正在分析使用数据",未来必将"更精准识别恶意使用行为"。AI与黑产的攻防战,才刚刚开始。