斯坦福大学的研究人员警告说,使用人工智能聊天机器人提供个人建议可能会适得其反。
问题不仅仅是准确性,还在于当您处理复杂的现实世界冲突时,这些系统如何响应。
一项新研究发现,即使用户犯了错误,人工智能模型也常常站在用户一边,强化有问题的决策,而不是挑战它们。
这种模式不仅塑造了建议本身,还改变了人们如何看待自己的行为。
与过于友善的聊天机器人互动的参与者越来越相信自己是对的,并且不太愿意同情或修复这种情况。
聊天机器人与用户的位置保持一致的频率远远高于人类的响应。
来源:Digital Trends

