尽管关于人工智能聊天机器人倾向于奉承用户并确认他们现有信念(也称为人工智能阿谀奉承)的争论很多,但斯坦福大学计算机科学家的一项新研究试图衡量这种趋势可能造成的危害有多大。
这项名为“人工智能阿谀奉承会降低亲社会意图并促进依赖性”的研究最近发表在《科学》杂志上,该研究认为,“人工智能阿谀奉承不仅仅是一种风格问题或利基风险,而是一种具有广泛下游后果的普遍行为。
”根据皮尤研究中心最近的一份报告,12% 的美国青少年表示他们向聊天机器人寻求情感支持或建议。
该研究的主要作者、计算机科学博士。
候选人迈拉·郑(Myra Cheng)告诉《斯坦福报告》,在听说本科生向聊天机器人询问恋爱关系建议,甚至起草分手短信后,她对这个问题产生了兴趣。
首先,研究人员测试了 11 种大型语言模型,包括 OpenAI 的 ChatGPT、Anthropic 的 Claude、Google Gemini 和 DeepSeek,根据现有的人际建议数据库、潜在有害或非法行为以及流行的 Reddit 社区 r/AmITheAsshole 输入查询——在后一种情况下,重点关注 Reddit 用户得出结论认为原始发帖者实际上是故事中的反派的帖子。
来源:TechCrunch
