说服的艺术:顶尖AI 聊天机器人如何改变你的想法
世界顶尖人工智能聊天机器人擅长的一项技能令许多政客和商业领袖都很羡慕:说服的艺术。一项新的研究显示,与OpenA1、Meta、xAl 和阿里巴巴(Alibaba)的人工智能模型对话不到10分钟,就可能使人们改变其政治观点;这也是越来越多研究中的最新成果,表明大型语言模型(LLM)已成为强有力的影响工具。

这些人工智能模型之所以有说服力,是因为它们能生成大量相关证据,并以有效、易懂的方式传达出来。"康奈尔大学(Cornell University)信息科学与市场营销及管理传播学教授戴维·兰德(David Rand)公司表示。他参与了英国人工智能安全研究院(AISI)最近的这项研究。
在此之前,另一项独立研究也发现,在某些情况下,AI 模型已经能比人类更有效地影响人们的想法--这引发了人们对聊天机器人可能被滥用于散布虚假信息和操纵公众舆论的担忧。
这种能力再加上大型语言模型往往谄媚或过度恭维的倾向,可能会在更多用户把聊天机器人融入日常生活、并将其当作朋友甚至治疗师时,产生巨大的连锁效应。上周OpenAl 发布GPT-5模型时就出现了这种对聊天机器人的依恋,一些用户表示,相比前代产品,该系统“性格”的转变令他们失望。
AISI 与多所高校(包括牛津大学(Oxford)和麻省理工学院(MIT))合作的研究于上月发布。研究发现,让现成的Al 模型--例如Meta 的Llama3、OpenAl 的GPT-4、GPT-4.5、GPT-40、xAl 的Grok3 以及阿里巴巴的通义千问(Qwen)--变成强大的说服机器相对容易。
研究人员通过采用流行的AI 训练技术(例如对期望输出给予奖励)对模型进行微调来实现这一点。他们还利用包含5 万多段关于具有分歧性的政治话题(如英国国家医疗服务体系(NHS)的资金投入或庇护制度改革)的对话数据集,对聊天机器人进行了定制化。
研究发现,人们很快就会改变想法,且这种影响持续时间较长。在平均约9 分钟的政治对话后,与仅呈现静态信息相比,GPT-4o 的说服力提高了41%,GPT-4.5提高了52%。一个月后,36%到42%的人保留了改变后的观点。
当用户参与对话、而AI 聊天机器人能够提供大量事实与证据支撑其论点时,它们更能成功影响人们。与未个性化的信息相比,当他们根据例如用户的年龄、性别、政治立场或在测试前对相关政治议题的态度来个性化信息时,说服力也被认为提高了约5%。
研究人员指出,这"可能会让一些不择手段的行为者从中受益,例如,他们可能借此宣传激进的政治或宗教意识形态,或在地缘政治对手中煽动政治动荡。
该研究印证了伦敦政治经济学院及其他高校在5月的早期发现:AI 模型在改变人们想法方面比人类更为有效。作为研究的一部分,研究人员向参与者提供了一份测验,题目从常识问答到对未来事件的预测(例如纽约的气温)不等,并让人类与聊天机器人分别尝试说服他们选择特定答案。
他们发现,除了在说服方面更有效之外,大型语言模型在被要求宣传错误答案时也比人类更擅长误导参与者。
顶尖人工智能团队正努力应对这一问题。谷歌(Google)DeepMind 负责“负责任开发与创新”的高级总监道恩·布洛克威奇(Dawn Bloxwich)表示,说服是该公司一项重要且活跃的研究领域。我们认为,了解AI如何说服的过程至关重要,这样我们才能建立更完善的保障措施,确保AI模型真正有益而非有害,"布洛克威奇表示。
谷歌DeepMind 采用多种技术来检测不当影响行为,例如构建可识别操控性语言的分类器,以及运用先进的训练方法以奖励理性沟通。
OpenAl 表示,他们严肃对待劝服性风险,此类行为违背公司的使用政策。该公司也不允许政治拉票活动,并在训练后的模型微调阶段排除政治内容。
研究人员指出,AI 模型影响人们观点的能力不仅适用于政治领域,还可用于其他用途。在麻省理工学院与康奈尔大学去年发表的一项研究中,人们发现大型语言模型也能够改变阴谋
论信奉者的看法。其他研究还发现,它们可以降低对气候变化与HPV 疫苗的怀疑态度。
在参与者向OpenAl 的GPT-4 讲述他们所信奉的阴谋论后,GPT-4 以证据和个性化信息予以辟谣。这些对话使参与者对阴谋论的根深信念下降了20%,且这一效果在两个月后仍然保持。
康奈尔大学的兰德表示,聊天机器人也可以被用作高效的销售人员。他补充说它们能够显著影响人们对品牌的态度和购买意愿,并激励相关行为。
这一能力也可能有利于OpenAl 和谷歌等公司;它们正尝试通过在聊天机器人中整合广告和购物功能来实现其AI 模型的商业化。
大型语言模型的说服能力也可能以非常微妙的方式影响人们。AI 聊天机器人会从其数据及训练方式中继承偏见。
斯坦福大学(Stanford University)的研究人员在5 月发现,人们认为大多数主流语言模型带有左倾的政治偏向。与此同时,特朗普(Trump)政府誓言阻止“觉醒”的AI 公司与政府开展业务。
研究人员表示,缓解措施很重要,因为许多人认为,随着下一代更强大的语言模型问世,AI 模型可能会变得更具说服力。
但正如AISI 的研究所示,将AI 聊天机器人变成操纵工具最有效的方法,似乎是在型训练完成后专门为此对其进行修改。
AISI 的研究人员警告说:“即便是计算资源有限的参与者,也可能利用这些技术来训练并部署说服力强的AI 系统。