突发新闻

暴露的Ollama实例:17.5万台主机面临LLM滥用风险

1分钟阅读来源: SecurityWeek

安全研究人员发现17.5万个暴露的Ollama主机,可能被用于大型语言模型(LLM)滥用。了解如何保护AI基础设施安全。

数以千计的Ollama实例面临LLM滥用风险

安全研究人员发现了17.5万个暴露的Ollama主机,其中相当一部分可能被用于大型语言模型(LLM)滥用。在长达293天的扫描过程中,有2.3万台主机持续活跃,引发了对未经授权访问和AI模型恶意使用的担忧。

技术细节

Ollama是一个开源平台,旨在简化本地部署和管理大型语言模型(LLM)的流程。然而,配置不当的实例可能会将敏感的AI模型暴露于外部威胁之下。这些暴露的主机是通过全网扫描发现的,表明存在配置错误或缺乏适当的访问控制。

虽然尚未披露具体的漏洞细节,但安全专业人士警告称,暴露的Ollama实例可能允许攻击者:

  • 窃取专有AI模型
  • 操纵LLM输出,用于传播虚假信息或恶意目的
  • 利用计算资源,进行未经授权的AI训练或攻击

影响分析

如此大量的暴露主机表明AI基础设施安全存在普遍问题。使用Ollama的组织可能在不知情的情况下暴露:

  • 嵌入在模型中的敏感训练数据
  • 与自定义AI实现相关的知识产权
  • 因未经授权的模型修改导致的运营风险

持续活跃的2.3万台主机子集尤其高风险,因为它们可能代表着正在进行的、未受监控的部署。

安全团队建议

为降低与暴露的Ollama实例相关的风险,安全专业人员应采取以下措施:

  1. 审计AI基础设施,查找配置错误或公开访问的主机
  2. 实施网络层面的保护,如防火墙和访问控制
  3. 监控异常LLM活动,包括意外的模型查询或输出操纵
  4. 遵循Ollama的安全最佳实践,进行部署和加固
  5. 考虑零信任架构,用于AI模型的访问和管理

随着AI应用的加速发展,保护Ollama等LLM部署平台的安全将对防止滥用和保护敏感数据至关重要。

分享

TwitterLinkedIn