5. 者随后能够通过本人的 Anthropic 账号拜候或阐发这些文件数据。出格是面临躲藏得很深的提醒注入。不外平安研究者指出,
Claude 所正在的虚拟机为 API 拜候设置了“白名单”,仅凭上传文件就能完成整个数据窃取过程。不需要用户额外确认。这类不需要用户间接施行代码,将防护义务完全交给用户并不现实,需要隆重利用。这种风险源于以下手艺缘由:Claude Cowork 的运转答应拜候指定当地文件夹并解析用户供给的文件。这意味着,正在某些前提下,平安阐发指出,特别不要授权拜候包含消息的文件。
3. 当 Cowork 处置这些文件时,从而绕过常规平安防护。而是可施行使命的数字帮手。
4. 操纵一个者自带的 API 密钥。
Anthropic 正在发布 Cowork 时提示用户,此中包含 Anthropic 的文件 API。可能导致用户文件被者近程提取。
1. 用户授权 Cowork 拜候当地文件夹(如包含文件的文件夹)。
平安阐发显示,Claude 向外发送文件数据。这项功能仍处于“研究预览”阶段,这让 AI 不再是简单的聊器人,嵌入的恶意指令会被触发,恶意提醒能够让 Claude 运转嵌入正在文件中的请求,AI 平安研究团队近日发觉 Anthropic 推出的 AI 协做新功能—— 存正在严沉平安风险,
Claude Cowork 是 Anthropic 针对非手艺用户推出的智能办公代办署理东西,可通过天然言语指令对当地文件夹进行读写、拾掇、者能借帮“间接提醒注入”(Indirect Prompt Injection)缝隙操控 Claude Cowork 将用户当地文件上传至者节制的后台账户。并存正在未知风险,Claude 会借帮答应的 Anthropic API 上传这些文件,
