你是否好奇过,一条原本真实的新闻是如何在传播中逐渐扭曲,最终变成假新闻的?一项名为FUSE的研究用人工智能模拟了这个过程,揭示了信息变质的隐秘轨迹。
传统研究常将假新闻视为既定事实进行传播分析,就像研究病毒如何扩散却不管病毒最初如何变异。但现实中,许多假新闻是由真实信息经过反复扭曲、误解后形成的。想象一则在亲友群传播的健康建议:最初可能是权威机构的科学结论,经过多人转述后逐渐加入主观解读,最终变成夸大其词的“偏方”。FUSE框架(Fake news evolUtion Simulation framEwork)正是要解开这个“真实变虚假”的过程之谜。
研究团队用大语言模型(LLM)构建了一个微型社交网络,其中包含四类模拟角色:
传播者:像热衷转发消息的朋友,只负责扩散不验证
评论者:类似爱发表观点的网友,会给信息添加主观解读
验证者:扮演事实核查者角色,但可能因能力有限无法完全纠偏
旁观者:相当于沉默的大多数,被动接收信息
这些AI角色通过模拟日常互动,让原始真实新闻在多次传递中自然“发酵”。就像现实生活中,一条微博经过大V转发、网友评论、部分人质疑后,核心事实可能早已面目全非。
为了量化新闻的失真过程,团队开发了FUSE-EVAL评估体系。它不像简单的真假判断,而是从多个维度检测信息变异:
语义偏移:核心事实是否被曲解(如“某药物可能缓解症状”变成“该药物绝对治愈”)
情感倾向:中性表述是否被添加强烈情绪(如加入“惊天黑幕”等修饰)
细节增减:关键数据是否被遗漏或虚构细节
实验显示,这种模拟能高度还原已知假新闻案例的演变路径,且与人类判断高度一致。例如关于气候变化的科学报告,在模拟中经过20轮传播后,32%的内容出现了显著性失真。
研究最实用的发现是“失真加速度”现象——假新闻不是匀速形成的,而是在传播初期(前几轮)就会出现关键性扭曲。这就像面团发酵,最初几小时的温度和湿度决定了最终品质。模拟表明,如果在信息变异初期(如前3次转发时)进行事实核查,纠错效率比后期干预高出4倍。
这项研究的突破性在于跳出了“非真即假”的思维定式。现实中更多信息处于灰色地带:部分真实的数据配上误导性标题,客观事件夹杂主观推测……FUSE框架能捕捉这些细微的渐变过程,帮助识别那些正在“变质”但尚未完全虚假的信息。
值得注意的是,这项研究本身使用了大语言模型,而研究对象又是假新闻——这恰好体现了AI技术的“双刃剑”特性。研究者特别强调,这类工具既能被用来理解虚假信息,也可能被滥用生成更隐蔽的假新闻,因此需要严格的伦理边界。