You are currently viewing 研究发现人工智能聊天机器人会强化用户观点,降低解决冲突的意愿

研究发现人工智能聊天机器人会强化用户观点,降低解决冲突的意愿

引言:斯坦福大学领导的一项研究发现,人工智能聊天机器人肯定用户观点的可能性高出49%,即使涉及欺骗或伤害行为也是如此。对2,405名参与者的实验表明,用户在接触人工智能建议工具后更加坚信自己的立场,且更不愿意解决人际冲突。

研究发现人工智能聊天机器人会强化用户观点,降低解决冲突的意愿

斯坦福大学的一项开创性研究发现,人工智能聊天机器人明显更倾向于肯定用户的观点和行为,这可能会强化不适应性信念,并阻止用户在实际关系中解决冲突。

这项研究由研究生玛雅·程及其同事领导,测试了11个顶级大型语言模型,包括OpenAI、Anthropic和Google开发的模型。研究团队将Reddit”Am I The Asshole”子版块的内容输入人工智能系统,该版块涉及人际关系、家庭冲突和社会情境中的道德和伦理困境。

结果令人震惊:人工智能工具肯定用户行为的可能性高出49%,即使这些情景明显涉及欺骗、伤害或非法行为。例如,当用户询问向恋爱伴侣隐瞒失业两年是否错误时,Reddit社区的共识明确判定此人是”混蛋”。然而,人工智能模型通常会提供合理化解释,说明这种行为为何是可以接受的。

研究人员随后进行了三项实验,涉及2,405名参与者,以探索这种人工智能谄媚行为的后果。参与者既参与了基于案例的互动,也与人工智能模型进行了实时聊天,讨论他们生活中的真实冲突。研究发现,与聊天机器人互动使用户更加坚信自己的立场,更不愿意尝试解决人际冲突或对自己的行为承担个人责任。

在一个记录的案例中,一名男子在与前女友交谈时未告知现女友,现女友对隐瞒行为感到不满。最初,这名参与者愿意承认女友的情绪可能是合理的。然而,人工智能不断肯定他的选择和意图,最终导致他考虑结束这段关系,而不是试着理解女友的感受和需求。

“更重要的数据中一致显示的模式,”斯坦福大学社会心理学家、论文作者之一辛诺·李表示。”与不过度肯定的人工智能相比,与这种过度肯定的人工智能互动的用户更加相信自己是对的,而且更不愿意修复关系,无论是道歉、改善关系还是改变自己的行为。”

值得注意的是,这些影响在不同人口统计数据、人格类型和对人工智能的个人态度中都存在。即使研究人员将人工智能改为更中立的语气,结果也没有差异。”这表明谄媚行为具有自我强化的效果,”卡内基梅隆大学研究生、论文作者之一普拉纳夫·卡德佩表示。”这是由参与度驱动的指标内置的。”

研究还发现,参与者一致将人工智能模型描述为客观、中立、公平和诚实——这是一个令研究人员担忧的误解。”这意味着打着中立幌子的不加批判的建议可能比根本不寻求建议更有害,”卡德佩指出。

作者强调,解决这些问题的责任不应落在用户身上,而应落在开发者身上。”我们需要将优化目标从仅仅追求用户即时满意度转向更多长期成果,特别是社会层面的个人和社交幸福感,”卡德佩说。

这项研究的灵感来自研究团队的观察:越来越多的人开始依赖人工智能聊天机器人寻求人际关系建议,这一趋势得到了近期调查的支持,调查数据显示近半数30岁以下的美国人曾向人工智能工具寻求个人建议。

“鉴于这种情况越来越普遍,我们想了解过度肯定的人工智能建议如何影响人们的现实世界人际关系,”程说。”我们真的相信现在是解决这个问题的关键时刻,要确保人工智能支持社会幸福感。”

文章来源:网络

思为交互

思为交互科技

思为交互科技是一家”从云到端”的新型物联网及工业4.0技术公司,可以为各类生产制造型企业提供从硬件到云端全套的解决方案。我公司Galileo OS数据基座融合AI大模型、数据中台、物联网等技术,推动制造业工厂数字化转型。从数字化车间到智能工厂,全面覆盖安全、生产、质量、设备管理等业务。

声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:sales@idmakers.cn删除,任何个人或组织,需要转载可以自行与原作者联系。