首页 抖音快讯文章正文

《贵州法治报·时评》丨“AI谣言”怎么破?

抖音快讯 2025年08月21日 10:22 1 admin
《贵州法治报·时评》丨“AI谣言”怎么破?

当前,AI(人工智能)迅速发展,给人们的生产生活带来诸多便利。但AI也被用于制作发布谣言、不实信息,可能对部分群众造成困扰。今年4月,中央网信办部署开展“清朗·整治AI技术滥用”专项行动,聚焦利用AI制作发布谣言、不实信息等乱象开展重点整治。从“暴雨引发山体滑坡”的伪造视频到“核电站泄漏”的AI生成新闻稿,“AI谣言”表现形式多样,让不少群众一度信以为真。“AI谣言”从何而来、为何泛滥、如何整治?记者进行了采访。(8月18日《人民日报》)

AI技术的迅猛发展,让卓有成效的网络谣言治理面临新的挑战。但我们相信,网络不是法外之地,AI也不是“造谣工具”,只要相关企业和职能部门,都像重视算法算力一样重视数据治理,全链条的“AI治理”定能跑赢“AI谣言”,推动人工智能向上向善、行稳致远。

《贵州法治报·时评》丨“AI谣言”怎么破?

漫画/朱慧卿

AI不应成为谣言的“背锅侠”

童方萍

在科技日新月异的今天,人工智能(AI)以其强大的功能和广泛的应用,为我们的生活带来了前所未有的便利。从智能家居到医疗诊断,从自动驾驶到语言翻译,AI正以前所未有的速度改变着我们的世界。然而,正如一枚硬币有两面,AI技术在带来便利的同时,也被一些不法分子利用,成为制作发布谣言、不实信息的工具,引发社会的广泛关注和担忧。

“AI谣言”从何而来?为何会泛滥成灾?一方面,AI技术的便捷性和低成本,使得造谣者能够轻松地生成大量虚假信息。只需输入相关关键词,AI软件便能自动抓取素材生成文本,并配上虚假的图片,实现谣言的大规模生产。另一方面,部分人为获取平台流量补贴等利益,不惜滥用AI合成技术编造谣言,道德的缺失成为“AI谣言”泛滥的重要推手。

面对“AI谣言”的泛滥,我们不能简单地让AI成为“背锅侠”。AI本身只是一种技术工具,它的价值取决于使用者的目的和方式。就像一把刀,在厨师手中是制作美食的工具,在罪犯手中则可能成为凶器。我们不能因为刀可能被用于犯罪就禁止使用刀,同样也不能因为AI被用于制造谣言就否定其全部价值。

整治“AI谣言”,需要多管齐下。相关部门应加强网络平台的监管力度,严厉打击发布虚假信息的账号,对涉案人员实施相应处罚,并封禁其网络账号。平台自身也应承担起内容审核和过滤的责任,防止虚假信息的传播。同时,完善法律法规,明确利用AI制作发布谣言、不实信息的法律责任,提高违法成本。此外,加强公众的媒介素养教育,提高公众对虚假信息的辨别能力,也是至关重要的。公众在面对各种信息时,应保持理性思考,不要盲目相信和传播未经证实的信息。

“AI谣言”泛滥是一个亟待解决的问题,但不能让AI成为替罪羊。我们要客观看待AI技术的作用,充分发挥其积极作用,同时采取有效措施遏制其负面影响。只有这样,我们才能让AI技术更好地服务于人类社会,推动社会的进步和发展。在未来,我们应共同努力,让人工智能成为我们的得力助手,而不是困扰我们的难题。

织密“AI谣言”拦截“防护网”

潘铎印

形形色色的“AI谣言”,严重误导公众,造成社会恐慌。今年2月,四川筠连县“2·8”山体滑坡发生后,部分自媒体账号用AI软件翻炒拼凑旧闻,传播如“4名遇险学生被路过的司机救出”等帖文,诸多错误信息给抢险救灾带来严重困扰。今年暑期,全国多地进入汛期,持续强降雨天气导致内涝、洪水等自然灾害频发,有网民借机散布不实信息,如编造“乌鲁木齐南山板房沟突发山洪”“海啸来袭上海紧急转移30万居民”等虚假视频图文,夸大汛情影响,严重误导公众。

不让“AI工具”成为造谣者传播谣言的温床。加快完善相关立法,对AI模型开发者、服务运营商、内容发布者等各方主体,设定明确的审核与合规义务,落实“谁开发、谁负责”“谁发布、谁担责”的原则,健全法律责任体系,不让AI技术成为“谣言工厂”。相关部门要加大执法力度,严厉打击制造虚假新闻的个人和机构,严惩网络谣言制造者、传播者,依法亮剑,猛药去疴,建立全链路监测、信息溯源与联动处理机制,保持高压态势,不让“AI工具”成为造谣者传播谣言的温床。

健全法律制度,引领技术向善。2022年11月,国家相关部门发布的《互联网信息服务深度合成管理规定》明确要求,深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息。2023年8月施行的《生成式人工智能服务管理暂行办法》规定,提供和使用生成式人工智能服务,不得生成虚假有害信息等法律、行政法规禁止的内容。将于9月1日起施行的《人工智能生成合成内容标识办法》,也给AI技术使用划定了红线和底线,明确了责任边界,为守护清朗的信息环境筑起坚实制度屏障。

制度的生命力在于执行。AI技术开发者要做“算法向善”的守门人,开发对事实更加敏感的语言模型,对用户输入的内容采取干预措施,减少AI生成误导性内容。网络平台要严格落实责任,健全AI生成合成内容审核机制,提升技术检测能力,建立完善AI谣言识别机制,对利用AI造谣的用户采取“封号”等禁止性措施,遏制谣言、虚假信息在传播链路上的蔓延,筑牢“内容防线”。

AI技术要坚持“智能向善”,为增进人类福祉服务。政府引导、多方联动和公众参与,形成“技术+法律+社会”的协同治理模式,织密谣言拦截的“防护网”,提升公众媒介素养,推动AI技术在法治轨道上高质量发展,让网络空间更加天朗气清。

破“AI谣言”关键要除“AI幻觉”

张西流

在科技日新月异的今天,人工智能(AI)宛如一颗璀璨的新星,迅速照亮了我们生活的各个角落。与此同时,“AI谣言”这一“副产品”也悄然滋生,如同迷雾般笼罩着信息的天空,令人真假难辨。防治“AI谣言”,关键便在于消除“AI幻觉”。

“AI幻觉”,就像是AI在认知世界里产生的“错觉”。它因算法的局限性、训练数据的偏差与不完整性等因素而生。AI并非拥有真正智慧的生命体,只是依据既有数据和处理模式,进行推算与生成。例如,当训练数据中存在某些片面或错误信息时,AI可能会将其放大,生成看似合理却荒诞不经的内容。这些“幻觉”一旦被传播出去,就如同星星之火,在信息传播的草原上形成燎原之势,演变成危害极大的“AI谣言”。这些谣言可能涉及健康、安全、社会舆论等各个领域,误导大众,扰乱社会秩序,破坏人们对AI技术的信任。

从技术层面来看,消除“AI幻觉”,是防治“AI谣言”的根本途径。开发者们肩负着重大责任,他们需要持续优化算法,让AI的推理和判断能力更加精准、可靠,如同打磨一把宝剑,使其更加锋利且不会轻易偏离方向。同时,对训练数据进行严格的筛选、扩充和校正也极为关键,要确保数据的全面性、真实性和客观性,就像为AI提供营养丰富且纯净的“精神食粮”,从源头上减少“幻觉”产生的可能性。

然而,仅靠技术手段还远远不够。公众对AI的过度信任和盲目崇拜,就像为“AI谣言”的传播插上了翅膀。因此,提升公众的媒介素养和科学素养迫在眉睫。我们要让大众明白,AI只是人类创造的工具,并非无所不能的“智者”。在面对AI生成的信息时,公众应保持理性和警惕,学会质疑和分析,如同在信息的海洋中航行的水手,凭借自己的智慧和经验辨别方向,不被虚假信息所迷惑。

社会各界也应齐心协力,共同应对“AI谣言”这一挑战。政府部门应加强监管,制定严格的法律法规,明确AI信息传播的责任边界,对恶意传播“AI谣言”的行为予以严厉打击。媒体要发挥正确的舆论导向作用,及时辟谣,普及AI知识,引导公众形成正确的认知。学校和科研机构则应加大对AI教育的投入,培养更多专业人才,提高公众对AI技术的理解和辨识能力。

在AI技术飞速发展的浪潮中,我们既要积极拥抱它带来的便利和创新,也要清醒地认识到“AI谣言”的危害。只有将消除“AI幻觉”作为关键突破口,多管齐下,才能有效防治“AI谣言”,让AI技术在健康、有序的环境中为人类社会的发展贡献更大力量。

编辑 曹吟秋

二审 张谌

三审 黄峰

发表评论

泰日号Copyright Your WebSite.Some Rights Reserved. 网站地图 备案号:川ICP备66666666号 Z-BlogPHP强力驱动