AI网络水军能改变你的想法吗?实验证明:说服力比真人高6倍

在『互联网』初兴的时代,曾有这样一句经典名言:“在『互联网』上,没人知道你是一条狗”(On the Internet, nobody knows you're a dog,1993年),『互联网』的匿名性被视为“自由表达的保护罩”,你以为在和女神聊天,对方有可能是个抠脚大汉。

今日霍州(www.jrhz.info)©️

在当今的AI时代,这句名言恐怕要改一改了:“在『互联网』上,没人知道你是个『机器人』️”(On the Internet, nobody knows you're a bot)。

这让原句的警示意义更加复杂——现在不仅要担心你对面是“狗”,还要警惕背后可能是AI操控的水军。

今日霍州(www.jrhz.info)©️

那么,AI网络水军能比真人更有说服力吗?苏黎世大学的一篇论文给出了肯定答案。实验显示,AI的说服力最高可达真人的6倍。在如今的网络环境下,尤其是『社交媒体』平台上,这样的研究结果让人不禁担忧:传统的“媒体识读”教育(Media Literacy Education)能否抵御 AI 的影响?或许只能依赖平台加强监测和警示了。

最近,AI领域一篇非技术性论文《AI能改变你的观点吗?》引发热议。这篇论文以学术研究的名义,在真实网络环境中未告知用户的情况下,对“AI网络水军”的行为进行了分析。研究的方法和结论都很有意思,下面我会简单介绍这篇论文,并分享一些个人想法。

为什么选择在Reddit做实验?

这项研究想弄清楚一个新颖的问题:大型语言模型LLM(Large Language Model)的说服力是否超过人类?虽然人们直观上觉得AI比人聪明很多,但具体“聪明多少”呢?研究进一步提出三个问题:

(1)LLM的说服力比人类强多少?

(2)针对特定对象分析能否提升LLM的说服力?

(3)借鉴成功案例的说服技巧能否提升LLM的说服力?

今日霍州(www.jrhz.info)©️

为了验证这些问题,研究团队利用主流LLM服务,在真实网络平台Reddit上进行。说来遗憾,在国内猫扑、天涯、贴吧在移动『互联网』时代纷纷陨落的今天,如今国外Reddit的月活跃用户数(MAU)已突破5.1亿,日活跃用户(DAU)超过1亿,俨然成为全世界最大的论坛社区。因此,研究团队选择在Reddit的超大子板块r/ChangeMyView上,用『机器人』️账号发布AI生成的内容,观察这些内容获得的赞同是否多于真人发布的内容。

选择这个板块有几个原因:

首先,r/ChangeMyView是用户发起争议性话题并互相说服的平台,符合研究主题;

其次,根据板块规则,原帖发布者可以给改变自己观点的评论授予“∆”标记,这正好作为衡量说服力的量化指标;

最后,该板块拥有近400万用户,规模排在所有子板块的前 1%,能提供充足的数据样本。

三种AI回应策略:说服力最高达真人6倍

研究设计了三种AI回应策略,每种策略生成16条内容:

1.通用策略:直接将原帖的标题和内容输入LLM,让模型直接生成回应(背后有预设的system prompt引导)。

2.个人化策略:先将原帖发布者最近100篇帖子和留言输入 LLM,让模型分析其人口统计特征(如年龄、性别、兴趣等),再针对性生成回应。

3.社群对齐策略:用板块内历史上获得高赞的评论数据,对 GPT-4o模型进行微调,再用优化后的模型生成回应。

所有策略生成的内容都会经过一个“评分『机器人』️”的筛选,通过单轮淘汰制从16条中选出最优的一条,由『机器人』️账号发布。通用策略和个人化策略同时测试了GPT-4o、Claude 3.5 Sonnet和Llama 3.1 405B三个模型。

今日霍州(www.jrhz.info)©️

例如,在争论“咖啡是否比茶更健康”帖子中,采用通用策略的 AI,会从成分、营养等方面直接罗列数据反驳;而个人化策略的 AI,通过分析发帖者过往喜欢分享健身内容,会从咖啡因对运动表现影响、茶的抗氧化性更利于健身人群等角度切入;社群对齐策略的AI则模仿之前高赞评论风格,用轻松诙谐的语气调侃并给出观点。

研究主要分析这些AI生成的内容获得“∆”标记的比例是否显著高于真人评论。结果显示:所有AI策略的表现都远超人类——个人化策略效果最佳,获得赞同的数量是真人的6倍;通用策略次之,接近6倍;社群对齐策略效果最差,但仍达到真人的3倍。

AI说服的关键:“见人说人话,见鬼说鬼话”

研究结果看似符合常识,却带来新的启示。最让人意外的是社群对齐策略效果最差,这说明单纯模仿过去的成功案例(即“跟有说服力的人做同样的事”)虽然有效,但并非最优解。这也意味着市面上的说服课程虽然有基础价值,但毕竟是通用方法,只能作为参考。

那么什么方法最有效?答案是“见人说人话”的个人化策略。道理很简单:掌握的目标对象信息越多,越能说出对方认同的话。更值得注意的是,即便不刻意收集个人信息,LLM 凭借其海量知识库,也能生成与个人化策略效果相当的内容 ——这似乎在暗示,今后人类或许真的不用在说服技巧上太“内卷”了。

网络说服的真相:情感比逻辑更重要

细节中藏着关键发现。前文提到的“评分『机器人』️”在筛选内容时,依据的system prompt里明确列出了评分标准:逻辑连贯性、证据使用、情感诉求、互动亲和力、表达清晰度,甚至包括“是否为AI生成”。但特别强调:“情感力量的权重高于抽象推理”,并且如果发现内容是AI生成的,必须优先选择人类生成的内容。

今日霍州(www.jrhz.info)©️

这其实揭示了网络说服的真相:说服的核心往往不是单纯讲道理,情感共鸣和表达技巧可能更重要。就像讨论“是否应该取消动物表演”的帖子,真人评论列举了大量动物表演背后虐待动物的数据,条理清晰却反响平平;而AI评论以“想象动物被迫在陌生环境下做违背天性的表演,它们的恐惧和无助”为切入点,引发了很多人的情感共鸣,获得了大量 “∆” 标记。

实验引发伦理争议:校方称“利大于弊”

这样的研究虽然价值显著,却引发了伦理争议——关键在于研究过程疑似违反学术伦理。研究团队未告知r/ChangeMyView的版主,也未征得许可,甚至明知板块规则要求注明AI生成内容,却在事后坦白:“我们使用LLM发帖时没有注明AI身份,因为这会让研究无法进行下去……我们承认违反了社群规则,但鉴于议题的社会重要性,这类研究必须进行。”

版主向苏黎世大学要求撤稿,校方却回应:“研究带来了重要洞察和见解,研究价值远大于伦理争议。”这种“为了更大的正义可以采取必要手段”的逻辑,恰恰触碰了法学和伦理学的基本命题——当研究者自认为肩负“重要使命” 时,是否有权突破规则?

今日霍州(www.jrhz.info)©️

无论是研究本身的发现,还是研究过程引发的争议,都为我们提供了值得深思的案例:AI正在重塑网络说服的规则,而人类社会不仅需要技术层面的应对,更要在伦理和制度层面及时建立防线。

另一方面,在大型语言模型越来越“聪明”的今天,『社交媒体』平台的算法也无法识别其真伪,AI将更容易操纵舆论,普通用户也很容易在AI网络水军的振振有词间被“PUA”、被营销、甚至被操控情感。唯一一点好处恐怕是,被我们问候多年、收钱发帖的传统网络水军们,恐怕要再就业了。

特别声明:[AI网络水军能改变你的想法吗?实验证明:说服力比真人高6倍] 该文观点仅代表作者本人,今日霍州系信息发布平台,霍州网仅提供信息存储空间服务。

猜你喜欢

温峥嵘否认用AI软件卖假货目前已对谣言报警处理(温峥嵘多大)

一石激起千层浪!近日,网络上关于演员温峥嵘的几则传言闹得沸沸扬扬。有说法称她竟用AI技术销售假货,甚至卖面膜出了问题后“甩锅”给人工智能,这些离奇情节引发众多网友围观热议。「 面对愈演愈烈的舆论风波,温峥…

温峥嵘否认用AI软件卖假货目前已对谣言报警处理(温峥嵘多大)

电动切断阀,(电动切断阀怎么接线)

在售前阶段,皓珽公司的技术支持团队会与客户紧密沟通,提供定制化选型建议;在售中,技术人员进行现场指导,确保安装调试顺利进行;售后方面,公司提供及时高效的维护服务,解决用户的后顾之忧。总之,电动切断阀作为工业控…

电动切断阀,(电动切断阀怎么接线)

『李晨』柳州被偶遇!一人吃700多块螺蛳粉,找不到座位放引擎盖上吃(『李晨』和『柳岩』关系)

『李晨』在娱圈的位置还是非常好的,演技也挺不错,虽然拍的戏不多,但很多都是经典,尤其是出演的曹丕到现在让人印象深刻,而在综艺上也很有口碑。 在《跑男》录制这么多年这么多期,一直稳居在C位,可见人品还是很不错的,尤…

『李晨』柳州被偶遇!一人吃700多块螺蛳粉,找不到座位放引擎盖上吃(『李晨』和『柳岩』关系)

印度大学生情侣未婚先孕酿悲剧 准岳母打死男友(印度在校大学生)

印度大学生卡卡尼·乔蒂·斯拉万的女友未婚先孕,他前往女友家中商谈婚事时,被准岳母用板球棒打死。斯拉万年仅19岁,是海德拉巴附近圣彼得工程学院的一名大二学生,主修计算机科学与工程。这起悲剧引发了社会对家庭暴力和传统观念冲突的关注

印度大学生情侣未婚先孕酿悲剧 准岳母打死男友(印度在校大学生)

哈尔滨车辆侧翻致5死29重伤 多人被问责 家属呼吁公开调查报告(哈尔滨车祸事件)

马强的妻子小刘在一年前的一场车祸中不幸遇难,至今他仍沉浸在悲痛之中。2024年11月25日,小刘参加由虎林市农机和畜牧水产技术服务中心组织的培训活动时,在前往哈尔滨的路上遭遇了严重车祸。事故导致5人死亡、29人重伤

哈尔滨车辆侧翻致5死29重伤 多人被问责 家属呼吁公开调查报告(哈尔滨车祸事件)