Ollama漏洞引发的“血案”—自建LLM的安全思考

简介: 「云安全技术观察」聚焦云计算时代安全技术前沿与实践,涵盖AI大模型风险、云原生安全体系建设及攻防对抗等内容,提供落地技术参考与前瞻性洞察。

安全技术观察


「云安全技术观察」栏目聚焦云计算时代的安全技术前沿与实践探索。从AI大模型时代的新风险观察,到大模型加持的安全产品力升级,从云原生架构的安全体系建设到安全攻防的激烈对抗...这里既有对前沿技术的探索,也有安全建设的实战经验复盘,为您提供落地的技术参考和前瞻性洞察。

无论安全如何演进,技术领先性永远是我们不变的追求。

一.前言

大型语言模型(LLM)正逐渐成为推动创新的核心动力,它们正在改变我们处理从客户服务到内容创作、再到复杂数据分析等各类任务的方式。随着这些模型变得越来越强大和普及,企业和个人对于在其工作流程中集成LLM的需求也日益增长。

正是在这种背景下,Ollama等开源大模型部署工具应运而生。它们旨在简化这一过程,使得即使不具备深厚技术背景的用户也能轻松地运行先进的AI模型。但值得注意的是,尽管这类工具极大地降低了部署门槛,它们也可能带来新的安全挑战。接下来,本文将围绕Ollama漏洞进行深入研发,从而有效地管理和减轻相关风险,打造一个既高效又安全的AI环境。

二.Ollama漏洞详解


1.全球现状

通过网络空间安全测绘平台可以看到,截止2025年7月,全球仍然有25万个独立IP跟Ollama有关联,其中美国和中国分别占据前二的规模。由此可以看出自建LLM的情况仍然不少,并且扫描的端口中11434(未授权访问漏洞关联的端口)比例依然很高。


2.漏洞概述

Ollama作为一款开源跨平台大语言模型(LLM)运行框架,因其轻量级设计、简化部署和跨平台支持(Windows、Linux、macOS)的特性,已成为DeepSeek等大模型部署的首选工具之一。该工具支持超过1700种模型的部署与管理,在AI研究和应用领域获得了广泛采用。然而,2025年3月,国家网络安全通报中心发布了关于开源大模型工具Ollama的安全风险通报,其中最新的高危风险漏洞,漏洞编号:CNVD-2025-04094,其默认配置存在未授权访问隐患,导致未经授权的攻击者可在远程条件下调用Ollama服务接口,执行包括但不限于敏感模型资产窃取、虚假信息投喂、模型计算资源滥用和拒绝服务、系统配置篡改和扩大利用等恶意操作。


3.漏洞分析

通过阿里云安全团队的AVD漏洞情报库,可以看到除了Ollama以外,AI组件相关的漏洞都不在少数。

640.png

Ollama 相关漏洞


640 (1).png

LocalAI 相关漏洞


640 (2).png

DIFY 相关漏洞


640 (4).png

VLLM 相关漏洞


通过对相关的漏洞情况分析,可以梳理发现相关的漏洞大致可以归为以下三种类型:


①.未授权访问漏洞

默认开放端口与零鉴权机制:Ollama安装后自动在本地启动Web服务,默认监听11434端口且未实施任何身份验证措施。当管理员未主动修改配置或通过防火墙限制访问时,该端口会直接暴露于公网,允许任何匿名用户通过http://[服务器IP]:11434地址访问API服务。这种零鉴权设计违反了基本的安全最小化原则,使攻击者能够无需凭证即获得完整API控制权。


高危接口面临未授权调用风险:Ollama提供的多个关键API接口在未授权情况下可被任意调用,造成严重后果:

  • /api/generate:攻击者可恶意消耗GPU资源,发起拒绝服务攻击或滥用算力进行加密货币挖矿,导致服务瘫痪及云费用激增。
  • /api/show:可获取模型license及参数信息,暴露知识产权和训练数据细节。
  • /api/push:允许攻击者将私有模型完整导出至远程服务器,造成核心AI资产直接窃取。
  • /api/delete:可恶意删除模型文件,导致业务中断和数据永久丢失。


②.历史漏洞叠加利用风险

除设计缺陷外,Ollama先前版本存在多个高危漏洞,可与未授权访问漏洞形成链式攻击,极大提升风险等级:


640 (5).png

640.jpg

Ollama历史高危漏洞说明

这些历史漏洞在未升级的环境中仍广泛存在,攻击者可组合利用未授权访问与上述漏洞,从简单的信息泄露升级为系统完全控制。例如,利用CVE-2024-37032路径遍历漏洞,攻击者可在未授权状态下上传恶意文件覆盖系统关键组件,进而获取服务器根权限,并以此为跳板入侵内网其他系统。


③.数据泄漏风险

模型资产窃取:通过/api/show和/api/pull等接口,攻击者能够完整获取模型结构、参数及训练元数据。对于企业而言,这意味着投入大量资源训练的私有模型可被轻易窃取,造成知识产权重大损失。一个中等规模的7B参数模型可在30分钟内通过100Mbps网络被完整导出,如果模型是部署在ECS上,可能还会产生大额的流量账单。

数据投毒与参数污染:攻击者可向/api/train接口 注入恶意训练数据,或通过多次恶意请求篡改模型行为,破坏模型服务的功能完整性与输出可靠性。这种隐蔽攻击可能导致长期安全威胁,如模型在处理特定输入时输出错误或有毒内容。

三.Ollama系统加固全攻略


1.Ollama原生加固方案

①. 网络层防护策略

强制访问范围最小化:

对仅需本地访问的服务,设置环境变量强制绑定本地回环地址:


640 (6).png


此配置确保服务**不暴露于外部网络**,彻底消除远程攻击面。配置后需验证端口状态:

640 (7).png


防火墙策略强化:

对必须开放公网访问的场景,实施严格的双向端口过滤:

  • 配置入站规则:仅允许可信IP段访问11434端口(例如 192.168.1.0/24)
  • 配置出站规则:阻止Ollama服务发起非必要外连,防止数据外泄

640 (8).png

非标准端口迁移:

将默认11434端口改为**高端动态端口**(如49723以上),减少自动化扫描风险:

640 (9).png


②.应用层防护策略

身份认证与访问控制:

基础认证:通过Nginx反向代理部署Basic Auth认证,生成密码文件并限制IP:

640 (10).png


配置Nginx:

640 (11).png

此配置实现账号密码+IP白名单双重防护。

传输层加密(TLS):

使用Let's Encrypt或者阿里云提供的免费SSL证书,强制HTTPS访问:

640 (12).png


配置HTTP自动跳转HTTPS,确保数据全程加密。

危险接口禁用:

修改Ollama配置文件(`config.yaml`),禁用高风险接口:

640 (13).png


对必须保留的/api/generate接口,实施请求速率限制(如每分钟10次/IP),防范DDoS攻击。


③.数据运行层策略

模型来源审核:

仅从官方仓库拉取模型,避免使用未经验证的第三方模型:

640 (14).png


配置模型哈希校验,确保完整性。

安全更新与补丁管理:

立即升级至0.1.34及以上版本,修复已知漏洞:


容器化隔离部署:

使用Docker运行Ollama,限制资源访问权限:

640 (15).png


此配置启用最小权限原则,防止权限逃逸。


④.持续监测与响应策略

日志审计与分析:

启用Ollama详细日志(log-level=debug),使用日志工具(如 SLS、ES 等)集中收集分析。

重点关注:

  • 异常IP的频繁认证失败
  • 高频率的/api/generate调用
  • 非常规时段的模型下载请求

配置实时告警规则,如单IP每分钟超过20次请求即触发警报。

最小权限模型访问控制:

  • 开发环境:仅开放/api/generate接口
  • 训练环境:限制/api/train仅授权数据工程师
  • 生产环境:禁用所有修改接口(push/delete/pull)

2.阿里云安全加固方案

上述的原生加固方案涉及到大量的配置和运维工作,同时负责安全的部门可能很难深入到模型部署的整个环节进行如此之多的精细化配置,因此“外挂、旁路”方式的安全可能是更符合现状且相对可落地的方案,阿里云安全团队对应的提供了三款对应的产品。

①. 云安全中心:AI-BOM、AI-SPM

AI-BOM

云安全中心可以自动并持续发现阿里云以下服务中部署的AI应用:

  • 云服务器ECS:实例、镜像、快照。
  • 人工智能平台PAI:通过PAI平台创建的容器镜像及实例,例如交互式建模的DSW实例、模型在线服务实例等。
  • 智能计算灵骏。


640 (16).png


实现 AI 相关组件的资产扫描、漏洞发现,在模型运行部署完但发布前进行相关的加固。

AI-SPM

云安全中心提供针对AI资产的安全配置风险自动化检测能力,依托阿里云AI安全实践,覆盖人工智能平台PAI的AI应用组件的关键安全配置项检测,包括以下方面:

  • 权限管理:执行最小权限原则审计。
  • 访问控制:检测公网暴露风险及白名单配置。
  • 服务配置:验证敏感操作保护机制。


640 (17).png


通过云安全中心实现了针对 AI 组件在事前的安全加固。


②.WAF+云防火墙:AI流量防护

WAF提示词攻击

对于自建AI后计划将服务对外开放的场景来说,外部输入的内容中可能存在各式各样的入向风险,WAF支持一键开启AI应用防护功能,针对所有经过WAF访问AI对外服务接口的流量进行过滤,精准识别越狱指令、角色扮演诱导、系统指令篡改等对抗性攻击行为。


640 (18).png

云防火墙CFW-AI流量识别

对于MCP服务场景,或云上Dify组件调用外部第三方AI接口的情况,云防火墙提供可视化、外联服务和资产等多角度分析主动外联AI服务的流量监控和分析管控能力,帮助用户及时发现企业访问三方AI服务异常流量和防范安全风险。同时云防火墙完全由安全团队掌控的访问控制策略,能够实现对端口、IP、域名等维度的精准管控,哪怕不在Ollama配置中配置网络层防护策略,也能达到隔离的效果。


640 (19).png


通过WAF和云墙两个组件,对云上自建AI环境的出向、入向流量做到了事中的精准管控。

从网络到应用,从数据到审计,从检测到响应已经都有完整的方案和措施了,将防护措施总结如下:

640 (1).jpg

随着大模型在关键领域的深入应用,安全必须成为部署的先决条件而非事后补救。本报告提供的加固方案不仅适用于Ollama,其核心逻辑和原理也可扩展至同类AI场景的防护,希望本篇文章能够让大家对自建AI场景下的安全风险和加固措施如有一定的了解。


目前阿里云针对自建AI的整套安全方案已经在多家公司完成了落地。

四.阿里云安全


国际领先的云安全解决方案提供方,零信任SASE、数据安全、流量安全等8大安全域百余项核心能力,助力百行百业在云上构建生于云架构,具备高度一体化、智能化、自我进化特征的原生安全保护体系。

2023年,在Forrester《基础设施即服务平台原生安全Wave》报告中,国内第一;2022年,国际知名咨询机构对全球云厂商解决方案能力评估中,阿里云的安全能力第一;2020 年,国内唯一云厂商整体安全能力获国际三大机构(Gartner/Forrester/IDC)认可。

云原生安全技术的引领探索和实践者,通过安全能力与云紧耦合,实现双向技术的变革式突破,安全能效数倍提升,高弹高可用、稳定与协同;云服务内置天然免疫基因,与用户一起共同守护云上数字原生世界安全。

相关文章
|
2月前
|
监控 安全 算法
137_安全强化:输入过滤与水印 - 实现输出水印的检测算法与LLM安全防护最佳实践
随着大语言模型(LLM)在各行业的广泛应用,安全问题日益凸显。从提示注入攻击到恶意输出生成,从知识产权保护到内容溯源,LLM安全已成为部署和应用过程中不可忽视的关键环节。在2025年的LLM技术生态中,输入过滤和输出水印已成为两大核心安全技术,它们共同构建了LLM服务的安全防护体系。
|
2月前
|
数据采集 自然语言处理 供应链
LLM安全新威胁:为什么几百个毒样本就能破坏整个模型
数据投毒通过在训练数据中植入恶意样本,将后门永久嵌入大模型,仅需数百份毒样本即可触发数据泄露、越狱等行为,防御需结合溯源、聚类分析与自动化检测。
300 2
LLM安全新威胁:为什么几百个毒样本就能破坏整个模型
|
2月前
|
存储 监控 安全
132_API部署:FastAPI与现代安全架构深度解析与LLM服务化最佳实践
在大语言模型(LLM)部署的最后一公里,API接口的设计与安全性直接决定了模型服务的可用性、稳定性与用户信任度。随着2025年LLM应用的爆炸式增长,如何构建高性能、高安全性的REST API成为开发者面临的核心挑战。FastAPI作为Python生态中最受青睐的Web框架之一,凭借其卓越的性能、强大的类型安全支持和完善的文档生成能力,已成为LLM服务化部署的首选方案。
|
2月前
|
人工智能 监控 安全
06_LLM安全与伦理:部署大模型的防护指南
随着大型语言模型(LLM)在各行业的广泛应用,其安全风险和伦理问题日益凸显。2025年,全球LLM市场规模已超过6400亿美元,年复合增长率达30.4%,但与之相伴的是安全威胁的复杂化和伦理挑战的多元化
|
5月前
|
人工智能 缓存 监控
GitHub 8k star!Portkey AI Gateway 如何帮你3行代码接入1600+ LLM,实现成本、可靠性与安全三赢?
Portkey AI Gateway 是一个轻量级、高速、安全的中间层,帮助应用对接多模态 AI 模型,统一管理,快速落地。支持超1600款语言、视觉、音频、图像模型,通过 1 个 API 接口实现快速、可靠、安全的模型路由。具备智能路由、自动重试、缓存机制、合规控制等功能,助力企业高效构建 AI 应用。
379 0
|
机器学习/深度学习 人工智能 自然语言处理
LLM系列 | 11: 基于ChatGPT构建智能客服系统(query分类&安全检查&防注入)
本文主要介绍如何使用ChatGPT对智能客服领域中的客户咨询进行分类。此外还补充构建真实应用中如何对用户咨询内容和模型生成内容进行安全检查及其如何预防用户注入。
|
机器学习/深度学习 存储 SQL
Web LLM 实验:利用 LLM 中不安全的输出处理
Web LLM 实验:利用 LLM 中不安全的输出处理
|
存储 人工智能 安全
ResponsibleTA提升LLM可靠性,任务完成更安全、更高效
ResponsibleTA提升LLM可靠性,任务完成更安全、更高效
340 0
ResponsibleTA提升LLM可靠性,任务完成更安全、更高效
|
8月前
|
机器学习/深度学习 存储 缓存
加速LLM大模型推理,KV缓存技术详解与PyTorch实现
大型语言模型(LLM)的推理效率是AI领域的重要挑战。本文聚焦KV缓存技术,通过存储复用注意力机制中的Key和Value张量,减少冗余计算,显著提升推理效率。文章从理论到实践,详细解析KV缓存原理、实现与性能优势,并提供PyTorch代码示例。实验表明,该技术在长序列生成中可将推理时间降低近60%,为大模型优化提供了有效方案。
1682 16
加速LLM大模型推理,KV缓存技术详解与PyTorch实现

热门文章

最新文章