
NVIDIA Garak
免费NVIDIA Garak 是一款专为大语言模型设计的开源漏洞扫描与安全评估工具,帮助开发者识别潜在风险与弱点。
关于此工具
工具截图
核心功能(5)
全面的漏洞扫描
支持检测提示注入、数据泄露、错误信息生成、恶意代码输出等多种 LLM 弱点,覆盖面广。
插件化架构
提供灵活的探测与检测插件,可扩展自定义测试方法,满足不同研究与企业需求。
多模型兼容
兼容 Hugging Face、OpenAI、Replicate、Cohere、NIM 等主流模型及 REST 接口,应用场景多样。
命令行工具
通过 pip 快速安装,支持 Linux 与 macOS 环境,便于开发与安全团队集成到工作流。
详细日志与报告
生成 JSONL 格式报告与日志,支持后续分析与合规审查。
应用场景(5)
企业 AI 安全审计
帮助企业在部署 LLM 前进行安全扫描,降低提示注入与敏感信息泄露风险。
研究人员红队测试
为安全研究人员提供系统化测试框架,便于探索大模型的潜在攻击面。
开发者模型验证
在新模型上线前运行 Garak,确认其在编码生成、对话安全性等方面的表现。
合规与风控支持
为企业合规团队提供漏洞报告,辅助通过内部或外部安全审查。
教育与培训
可作为教学工具,用于展示 LLM 常见安全问题与防御策略。

