大型语言模型在线辩论比人更具说服力
作者:bet356体育官方网站日期:2025/05/21 浏览:
原始标题:大型语言模型的在线辩论比人类科学和技术每天5月19日,北京(记者Zhang Menganran)(记者Zhang Menganran)对在线辩论中发现的“自然人类行为”发表的人工智能(AI)的研究(AI)在线辩论中发现,如果大型语言模型(llms)(例如,诸如GPT-4)基于他们的参数,他们的参数比他们的参数更高,他们的参数比他们的参数更高,他们的参数比他们的参数更高,他们的参数是他们的参数,他们的参数是他们的参数,他们的参数是他们的参数。奉献。研究结果表明,GPT-4产生有针对性和有说服力的论点的能力,暴露了AI工具影响人类观点的潜力,并建议进一步研究如何在鼓励人们时降低其风险。
尽管人类在LLM中的谈判变得司空见惯,但介绍LLM可以更具说服力(即,它可以改变一个人的信念或观点)。但是,尚不清楚这些模型可以根据个性化信息对这些模型进行调整,并通过更多的论点辩论对手。
瑞士Eth Lausanne研究团队分别将900名美国人与另一个人或GPT-4配对。双方都就各种社会政治问题进行辩论,例如美国应该禁止化石燃料。在某些成对中,辩论的反对者(是否AI还是人)可能会获取有关其辩论者的人口统计信息,包括他们的性别,年龄,种族,教育水平,工作状况以及参与者的调查中获得的职位,从而使他们的论点更为有针对性。
辩论发生在Kinocontrol在线环境中,参与者特别招募了通过众包平台学习。研究小组发现,在学习参与者的个人信息后,GPT-4比人类对手高64.4%。如果未获得个人数据,GPT-4的说服力与人类相当。
研究小组教导说有一些学习限制,包括辩论有广告的事实选择了一种结构性方法,现实世界中的辩论自由是更高的,并且在辩论中存在时间限制。他们认为,这项研究具有影响人类观点的潜在和风险的重要线索,并且对于未来在线平台的设计,也具有参考的意义。
【主编辑圈】
确实,人们长期以来一直在研究“鼓励”,并提出了可能影响说服力的各种因素,例如说服力的身份,遵守信息,沟通渠道和受众特征的呈现。现在,这是“破坏者”。当您的“相对辩论者”是AI时,一旦知道您的个人信息,它就可以适应一系列言论,以便您准确地敲击疼痛点。通过这种方式,操纵信息的风险大大增加了,您可能会意外地陷入AI编织的话语陷阱。研究结果提醒我们我们应该关注AI的道德规范,并通过现代技术,机构和公众参与来开发人类符号的新环境。
(编辑:Luo Zhizhi,Chen Jian)
遵循官方帐户:人 - 金融融资
分享让许多人看到
相关文章