订阅本报 收藏报纸 报纸头版

内容导航 版面导航

获得 Adobe Flash Player

莫让AI变成造谣帮凶

        利用AI合成技术编造谣言,严重危害网络生态。相关部门还应加强技术监管,帮助公众和平台识别不实信息。网络平台也应肩负起责任,建立严格的审核机制,防止不实信息的传播。同时要教育公众如何识别AI生成的内容和真实信息,避免盲目跟风传播谣言。只有多方形成合力,从“源头”卡住AI造谣的流量,才能有效遏制谣言蔓延,从而净化网络生态。
  
  “西安突发爆炸”“重庆巫溪一民房发生爆炸事故”……这些耸人听闻的消息,竟都是利用AI软件炮制的谣言。近日,一些不法分子为赚取平台流量补贴,实现流量变现,利用AI合成技术编造谣言,严重扰乱社会秩序,引发了舆论关注。
  
  据央视新闻报道,某MCN机构实际控制人王某某,运营了800多个自媒体账号。其通过具有语音交互功能的AI软件,只要说出关键词,就能自动在网络上抓取相关信息,生成几百到上千字的文本,并配上貌似和事件具有相关性的虚假图片,从而形成一段看起来信息量很大,实际上子虚乌有的内容。这些虚假文章被上传到多个网络平台,最高峰一天能生成4000至7000篇。
  
  现如今,AI技术不断发展升级,特别是自然语言处理和深度学习技术,使得AI能够生成高度逼真的文本、图片和视频内容。而利用AI技术,可以模仿人类的写作风格和语言习惯,甚至能够模仿特定人物的声音和形象,从而制作出难以辨别的虚假信息。不法分子正是以此手段,炮制网络谣言,以获取流量、点击量和广告收入。
  
  其实针对造谣信息严重危害网络生态,国家一直持续“重拳出击”。2023年1月,我国正式实施《互联网信息服务深度合成管理规定》,明确要求深度合成服务提供者在提供智能对话、智能写作等模拟自然人进行文本生成等深度合成服务时,可能导致公众混淆或误认的,应当在生成或编辑信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。
  
  同年8月施行的《生成式人工智能服务管理暂行办法》也规定提供者应当按照上述规定,对图片、视频等生成内容进行标识,并指出提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。此外,公安部还将2024年作为“打击整治网络谣言”专项行动年,针对使用AI“洗稿”、杜撰新闻事实的网络谣言进行严厉打击。

  在如此严厉的打击下,利用AI编造网络谣言的乱象却仍有发生。有分析就指出,屡禁不止的根本原因,是网络造谣的成本太低。相关专家曾建议,对于这些造谣者,要提高其违法成本,法律应提升违法人员的违法成本和他承担责任之间的比例,否则违法成本过低,遏制作用有限。
  
  除了加大惩治力度外,相关部门还应加强技术监管,开发能够检测AI生成内容的工具和技术,帮助公众和平台识别不实信息。同时,完善法律法规,明确禁止利用AI 进行造谣和发布不实信息的行为,并设立相应的处罚措施。网络平台也应肩负起责任,建立严格的审核机制,防止不实信息的传播,并对违规用户进行处罚。
  
  此外,相关部门可通过普法宣传和教育活动,提高公众对AI造谣的认识和警惕性,教育公众如何识别AI生成的内容和真实信息,避免盲目跟风传播谣言。只有多方形成合力,从“源头”卡住AI造谣的流量,才能有效遏制谣言蔓延,从而净化网络生态。

  ◎邹通