AI制造的海量谣言,正在“劣化”舆论场
AI造谣产业链亟待整治,我们该如何应对?
近日,多地公安机关通报了多起利用AI工具实施造谣的案件,引发了公众对AI技术滥用的担忧。据悉,某些营销人员和MCN机构利用AI软件技术,批量制造并发布虚假信息,以此获取高额收益。例如,有不法分子使用AI技术编造了“地铁行凶”的虚假视频,还有人利用AI软件炮制了“西安突发爆炸”“重庆巫溪一民房发生爆炸事故”等谣言。某家MCN机构在高峰期一天能生成4000至7000篇AI假消息,最高收入达700元,每天的收入在1万元以上。
AI技术的快速发展,使得信息生产的门槛大幅降低,但也给谣言的制造和传播提供了便利。AI造谣具有门槛低、批量化、识别难等特点,严重威胁了网络舆论环境和公众信任。在去年的上海一女童走失事件中,犯罪团伙利用AI工具生成谣言内容,通过账号矩阵在6天内发布268篇文章,多篇文章点击量超过100万次,恶意编造炒作“女孩父亲系继父”“女孩被带往温州”等系列谣言,严重影响了社会秩序和社会信任。
面对AI造谣的严峻挑战,相关部门和平台必须采取坚决行动,保卫舆论场。首先,要斩断AI造谣的产业链,严厉打击利用AI技术制造谣言的行为,让灰产从业者无利可图,乃至受到法律的惩罚。其次,平台要履行内容生态监管的责任,不能放纵乃至推荐AI批量制造的不良内容、虚假内容。最后,职能部门和司法机关要依法严惩AI造谣的产业,保持高压的打击态势,竖起禁止AI造假的高压线。
AI技术能力惊人,但如果被滥用,将对社会造成严重危害。我们必须保卫我们的舆论场,保卫新闻的真实性,确保公众能够获得准确可靠的信息。只有这样,才能避免信息的混乱和误导,维护社会的稳定和信任。