简而言之 li]:su-m-0′ > 研究人员发现,聊天机器人在提供人际建议、肯定用户行为(即使是有害或非法的情况下)时过于友善。
用户变得更加相信自己是对的,不再那么善解人意,但仍然更喜欢令人愉快的人工智能。
研究人员警告说,阿谀奉承是一个紧迫的安全问题,需要开发商和政策制定者的关注。
当涉及到个人事务时,人工智能系统可能会告诉你你想听的话,但也许不是你需要听的。
在《科学》杂志上发表的一项新研究中,斯坦福大学计算机科学家表明,当用户就人际困境征求建议时,人工智能大型语言模型会过于友善或阿谀奉承。
“我担心人们会失去应对困难社交场合的技能。
来源:HackerNews Best











