,谷歌研究团队正在进行一项实验,他们使用 openai 的 gpt-4 来攻破其他 ai 模型的安全防护措施,该团队目前已经攻破 ai-guardian 审核系统,并分享了相关技术细节。

谷歌 deep mind 的研究人员 nicholas carlini 在一篇题为“ai-guardian 的 llm 辅助开发”的论文中,探讨了使用 gpt-4“设计攻击方法、撰写攻击原理”的方案,并将这些方案用于欺骗 ai-guardian 的防御机制。

图源谷歌研究团队

目前相关技术文档已经发布在 arxiv 中,有兴趣的小伙伴们可以前往了解,不过 ai-guardian 的开发者也同时指出,谷歌研究团队的这种攻击方法将在未来的 ai-guardian 版本中不再可用,考虑到别的模型也会随之跟进,因此当下谷歌的这套攻击方案更多在日后只能用于参考性质。

广告声明:文内含有的对外跳转链接,用于传递更多信息,节省甄选时间,结果仅供参考,it之家所有文章均包含本声明。