这周人工智能安全不再停留在理论层面。
三个事件都在几天之内发生,描绘了每个使用人工智能工具构建的开发人员都需要理解的画面。
OpenAI Codex:通过分支名称进行命令注入。
BeyondTrust 的 Phantom Labs 团队 (Tyler Jespersen) 在 OpenAI Codex 中发现了一个影响所有 Codex 用户的严重漏洞。
攻击:通过任务创建请求中的 GitHub 分支名称进行命令注入。
但模式才是重要的:AI 编码工具从用户上下文(GitHub 令牌、环境变量、API 密钥)继承信任,但不将该上下文视为安全边界。
来源:Dev.to
