英国的一项研究显示,社交媒体用户报告称,他们的人工智能代理和聊天机器人撒谎、欺骗、策划,甚至操纵其他人工智能机器人,其方式可能会失控并带来灾难性后果。
长期弹性中心在英国人工智能安全研究所资助的研究中发现了数百起人工智能系统忽视人类命令、操纵其他机器人并设计有时复杂的计划来实现目标的案例,即使这意味着忽视安全限制。
咨询公司麦肯锡的一项调查显示,全球各地的企业越来越多地将人工智能融入其运营中,88% 的企业至少在一项公司职能中使用人工智能。
由于公司使用代理和机器人来完成以前由人类完成的工作,人工智能的采用已导致数千人失业。
人工智能工具越来越多地被赋予重要的责任和自主权,特别是随着开源代理人工智能平台 OpenClaw 及其衍生品最近的流行。
研究人员希望研究人工智能代理在“野外”而不是在受控实验中的行为,以了解“阴谋在现实世界中是如何实现的”。
来源:CNET












