工具与漏洞利用严重
GitHub Security Lab 利用 AI 自动化漏洞分流提升安全效率
1分钟阅读来源: GitHub Blog - Security
GitHub Security Lab 推出 AI 驱动的漏洞分流框架,通过 CodeQL 警报分析显著减少误报,并已识别约 30 个真实漏洞。
GitHub Security Lab 推出 AI 驱动的漏洞分流技术
GitHub Security Lab 开发了一种基于人工智能(AI)的框架,用于自动化安全警报的分流处理,显著减少误报并提高工作效率。通过 GitHub Security Lab Taskflow Agent,团队自 8 月以来已成功识别约 30 个真实世界的漏洞,利用大型语言模型(LLMs)分析 CodeQL 生成的警报。
AI 如何增强漏洞分流
传统的漏洞分流过程通常重复且繁琐,误报往往源于人工审计员易于识别但难以通过静态分析工具编码的模式。LLMs 擅长识别这些“模糊”模式,使其成为自动化分流工作流的理想选择。
Taskflow Agent 框架使用基于 YAML 的任务流(taskflows)将复杂的分流过程分解为更小的、可管理的任务。每个任务旨在:
- 获取并分析代码扫描结果
- 审计警报中的常见误报模式
- 生成包含精确代码引用的详细漏洞报告
- 在创建 GitHub Issues 前验证发现结果
通过这种结构化的处理方式,系统能够最大限度地减少“幻觉”(即错误结论)并确保结果的一致性。
技术实现
任务流架构
任务流分为以下阶段:
- 信息收集 – 收集相关数据(如工作流触发器、权限、净化器)并将其存储在结构化笔记中。
- 审计阶段 – 应用 LLM 驱动的检查以过滤误报(如禁用的工作流、权限限制)。
- 报告生成 – 将发现结果编译为包含代码片段和行引用的标准化漏洞报告。
- 验证与问题创建 – 确保报告完整后再创建 GitHub Issues 以供进一步审查。
关键特性
- 模块化设计 – 任务独立,减少上下文窗口限制并提高可调试性。
- 异步处理 – 支持批量操作,适用于大规模警报分流。
- 与 MCP 服务器集成 – 将确定性任务(如 API 调用)卸载到传统编程,提高准确性。
- 可重用组件 – 提示(prompts)和任务可在不同分流工作流中共享。
成果与影响
自部署以来,GitHub Security Lab 已使用这些任务流对以下内容的警报进行分流:
- GitHub Actions(如不受信任的代码检出、代码注入)
- JavaScript/TypeScript(如通过
js/xss的客户端跨站脚本攻击)
该系统已被证明在以下方面卓有成效:
- 减少误报 – 通过识别常见的忽略模式(如禁用的工作流、权限检查)。
- 提高效率 – 通过自动化重复性检查(如触发事件、净化)。
- 增强准确性 – 通过结构化提示和验证步骤。
安全团队建议
- 采用模块化 AI 工作流 – 将分流过程分解为离散的、可重用的任务,以提高可扩展性。
- 结合 LLMs 与传统工具 – 使用 LLMs 进行模式识别,同时将确定性任务卸载到静态分析或 API。
- 利用开源框架 – seclab-taskflow-agent 和 seclab-taskflows 代码库已公开供定制使用。
- 验证 AI 输出 – 在处理漏洞前始终审查 LLM 生成的报告。
- 监控资源使用 – 运行任务流可能消耗大量 LLM 配额,需提前规划。
未来方向
GitHub Security Lab 继续优化 AI 辅助分流技术,并正在进行代码审计和漏洞挖掘的实验。鼓励安全团队探索开源框架并将其适配到自身工作流中。
更多详情,请访问 GitHub Security Lab Taskflow Agent 代码库。