临汾网评:莫让AI沦为谣言帮凶

2025-07-16 09:15:58 来源:临汾新闻网  

  日前,一则“DeepSeek就AI模型违规关联向王一博道歉”的消息引发广泛关注,揭露出人工智能(AI)技术的深层风险,引起人们的反思。

  时下,AI技术正以“赋能者”的姿态重塑千行百业——从制造、交通、能源等行业,到医疗、城市、零售、家居等领域,我们见证着技术革命带来的生产力飞跃,也享受着智能时代的种种红利。然而,“科学技术是一把双刃剑”,AI技术潜藏的伦理风险同样不容小觑。年初,达沃斯世界经济论坛(WEF)发布的《2025年全球风险报告》,将“虚假信息和错误信息”列为全球风险之一。根据WEF的说法,假新闻的兴起、社交媒体事实核查的减少以及人工智能(AI)生成的深度伪造技术的发展,正在威胁着信任基础并加深国家之间的分歧。今年6月11日,在安徽合肥举行的2025年中国网络文明大会网络辟谣分论坛上,中央网信办举报中心与中国科协科普部联合发布《利用AI生成类谣言辟谣典型案例》,其中的案例令人触目惊心。AI生成的便捷性,降低了谣言生成的门槛,而低成本、批量化、智能化的生产模式,进一步加剧了谣言的泛滥。当“眼见为实”的传统认知被颠覆,社会信任体系便会遭遇强烈冲击,从而对社会凝聚力和治理持续构成严重威胁。

  剖析AI何以沦为谣言帮凶,无论是“无中生有”,还是“移花接木”,归结起来无外乎流量经济的驱动与技术伦理的缺失。2024年4月,清华大学新闻与传播学院新媒体研究中心发布的一份研究报告显示,经济领域已成AI谣言重灾区。与此同时,AI的原生性技术缺陷更值得警惕。人工智能模型生成看似合理但实际上不符合事实的信息被称为“AI幻觉”,这种现象通常发生在AI缺乏足够信息时,它会基于训练数据进行推测和填补,从而编造出不存在的内容,例如虚构事件、错误数据或不准确的引用。正因这种技术性缺陷,叠加灰色产业链的推波助澜,使得AI生成谣言的传播呈现病毒式裂变、持续性再生的恶性循环。

  莫让AI沦为谣言帮凶,需要构建“技术防御+法律震慑+公众教育”的立体防线。在技术层面,“用AI打败AI”已成为应对深度伪造与虚假信息的关键策略。例如腾讯发布的“朱雀”AI大模型检测系统,尝试高效且精准地识别AI生成的文本与图像内容。在法律层面,国家相关部门已经出台了一系列政策和法规,如《互联网信息服务深度合成管理规定》,在一定程度上遏制了谣言泛滥的势头。自今年9月1日起将施行的《人工智能生成合成内容标识办法》,进一步明确了人工智能生成合成内容全生命周期履行标识义务的具体要求与主体责任,完善了我国生成式人工智能的治理框架。在谣言的“产销”链条中,人始终是主角。在严厉打击借助AI技术混淆视听行为的同时,需要提升广大受众的辨识能力。比如,遇到网络热点多问几个“为什么”,在追问中发现造谣的蛛丝马迹和细节瑕疵,最大限度地让谣言无处遁形。一言以蔽之,只有让技术防御跑赢谣言生成,让法律利剑斩断利益链条,让公众擦亮辨伪识谣的双眼,才会真正还网络空间风清气朗。

  AI本质上是一种技术,也是一种工具。在谣言的生成中,真正的罪魁祸首是滥用技术和工具的人,他们任何突破法律与道德底线的行为都应受到严惩。唯有守好信息真实性的防线,我们才能在享受智能时代便利的同时,让AI真正成为推动社会进步的正能量。(孙宗林)


     

责任编辑:畅任杰

版权声明:凡临汾日报、临汾新闻网刊载及发布的各类稿件,未经书面授权,任何媒体、网站或自媒不得转载发布。若有违者将依法追究侵权责任。