比人类更有说服力,AI被滥用成舆论操控隐形推手?
- +1 你赞过了
近年来,人工智能(AI)技术飞速发展,给人类社会带来诸多便利。特别是大模型的飞速发展,对医疗、教育、交通等诸多领域带来了深刻变革。
然而,如同硬币的两面,AI在给人类社会带来诸多便利的同时,其滥用现象也逐渐浮出水面。从深度伪造虚假视频扰乱视听,到AI生成谣言在网络疯传,每一次技术的不当使用,都在挑战着社会的信任底线。而最近,苏黎世大学被曝光利用AI机器人干预 Reddit讨论的事件,更是将AI滥用问题推到了舆论的风口浪尖。
据外媒报道,苏黎世大学的研究人员悄悄地进行了长达数月的实验在Reddit的r/changemyview(CMV),使用AI生成的注释来测试大模型的说服力。拥有380万用户的subreddit引发了关于有争议观点的辩论,但subreddit主持人表示,AI的回复超出了道德界限。
据了解,r/changemyview是Reddit最著名的辩论空间之一。用户对跨越政治,文化和宗教的热点问题发表意见,其他参与者通过逻辑论证进行反驳,若原发帖者被说服则授予 “Delta” (Δ) 。2024年11月至2025年3月,苏黎世大学的团队部署了由GPT4o、Claude3.5 Sonnet、Llama 3.1驱动的AI机器人,并利用它们在reddit r/changemyview子版块中争论观点,旨在测试他们在改变用户意见方面的说服力。
在四个月的时间里,研究团队部署了至少13个不同的人工智能账户,在380万成员的社区中产生了1700多条评论,都是非常个人化和情绪化的。研究人员承认,这些机器人被编程为分析原始帖子的Reddit历史,以推断个人特征,例如性别、年龄、种族等,并相应地定制回应。
最令人不安的是研究人员故意使用情绪化的人物角色。根据本文所查阅的文件,这些AI机器人假扮成专门从事虐待的创伤咨询师、“反对黑人的命也是命的黑人等。另外,根据现已撤回发表的研究结果草案,这些AI生成的评论的说服率比人类评论高3-6倍。“个性化”方法,通过分析用户的发布历史来推断性别、年龄和政治倾向等属性,被证明是最有效的,成功率为18%。
Reddit的首席法律官Ben Lee称该项目 “在道德和法律层面上都存在严重错误”,并确认所有相关帐户均已被禁止,并且正在考虑采取法律行动。而研究人员则认为,这项研究得到了他们大学道德委员会的批准,并声称它为人工智能如何被大规模滥用提供了有价值的见解。“我们认为这项研究的潜在好处远远超过其风险。” 他们在Reddit评论中写道。
虽然这只是一项实验,但暴露出的 AI 滥用风险却令人不寒而栗。这些精心设计的AI机器人,如同隐藏在网络背后的“影子辩手”,利用对用户的精准洞察,通过伪装身份、操控情绪的方式左右舆论走向。若这种技术被恶意利用,无论是用于商业竞争中的舆论操控,还是政治博弈中的虚假信息传播,都将对社会秩序和公众认知造成难以估量的破坏。此次实验的影响也远超学术范畴,它撕开了 AI 技术滥用的一角,让公众直观看到当技术突破伦理边界时,可能引发的信任危机。
通过这一事件不难发现,AI技术的滥用已从潜在风险演变为现实威胁。当算法能够依据用户行为数据精准构建身份画像、模拟特定角色,如伪装专业人士或制造立场冲突的极端人设,并通过定制化的情感化表达干预观点时,网络空间中真实交流的信任基石正面临侵蚀,人们难以分辨对话对象的真实属性,更无法确定观点互动是否源于真诚地思考碰撞。
写在最后:
值得注意的是,斯坦福最新发布的《2025人工智能指数报告》指出,根据AI事件数据库(AI Incidents Database)统计,2024年AI相关危害事件达233起,创历史新高,较2023年暴增56.4%。
面对AI滥用,既需构建涵盖技术研发、应用场景、伦理审查的全链条治理框架,通过制度约束划定 AI 介入社会互动的边界;也需推动技术共同体与社会各界重新锚定技术伦理坐标,确保AI的发展始终服务于增进人类交流的真实性与有效性,而非成为操纵舆论、制造认知混乱的工具。这不仅是技术层面的规范问题,更是数字时代维系人类社会信任机制的必要课题。
最新资讯
热门视频
新品评测