AI智能体研发之路-工程篇(三):大模型推理服务框架Ollama一键部署

简介: AI智能体研发之路-工程篇(三):大模型推理服务框架Ollama一键部署

一.引言

身处2024年,大模型技术从底层模型到AI应用都卷的要命,我们可以说是幸运的,也可以是幸福的,当然,学习的路上,不停的追赶,必定是疲惫的。分享一些丝滑的大模型技术栈内的项目,让大家疲惫并快乐着。

今天要讲的是一个大模型推理服务框架-Ollama,对比的还有Xinference、OpenLLM、LocalAI,从丝滑角度而言(这里特别强调一下,我所讲的丝滑,指的是众所周知的网络环境下,学习、部署、应用等环节,坑最少,最易上手),Ollama>=Xinference>LocalAI>OpenLLM。今天重点将Ollama,其他框架另起篇幅。

二.一行代码完成Ollama本地部署

这里由衷推荐docker部署,一行代码搞定

docker run -d --gpus=all -v /yourworkspaces/Ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

docker参数:

-d:后台运行

--gpus=all:使用所有的gpu

-v /xxx/ollama:/root/.ollama:-v是目录挂载参数,“:”前后指将container目录/root/.ollama挂载至本地目录/xxx/ollama上

-p 11434:11434:-p是端口映射参数,“:”前指宿主机对外端口,“:”后指container服务端口

--name:container启动后的名称,启动后docker stop,docker restart均要接这个名称,如果未制定随机生成一个

ollama/ollama:docker hub库中发行商及项目,实际地址为https://hub.docker.com/r/ollama/ollama

执行docker命令后,会从docker hub库中pull镜像,大约30秒左右完成container部署

docker ps查看container状态:

CONTAINER ID:随机生成的容器ID

IMAGE:container启动依赖的镜像,这里是ollama/ollama

COMMAND:container启动后自动执行的命令,这里是/bin/ollama serve

CREATED:启动时间

STATUS:服务了多长时间

PORTS:端口映射,0:0:0:0:11434指container内端口,11434/tcp指宿主机端口

浏览器输入宿主机ip比如123.123.123.123:11434,页面出现如下提示即为启动成功。

三.一行代码使用Ollama部署大语言模型推理服务

还是一行代码,比如部署mistral

docker exec -it ollama ollama run mistral

仅需要大概1分钟,ollama会从自己的库中将模型pull至本地,万兆网卡下达100MB/s,跟modelscope速度相当。

四.推理服务测试

1.终端命令行运行

如图,直接对话即可

2.curl运行

generate补全:

curl http://123.123.123.123:11434/api/generate -d '{  "model": "mistral",  "prompt":"who are you?","stream":false}'

返回结果:

chat对话:

curl http://123.123.123.123:11434/api/chat -d '{  "model": "mistral",  "messages": [    { "role": "user", "content": "why is the sky blue?" }  ],"stream":false}'

返回结果:

3.dify平台:模型供应商添加Ollama

支持的模型:GitHub - ollama/ollama: Get up and running with Llama 3, Mistral, Gemma, and other large language models.

五.总结

由于现实工作较忙,只能抽下班时间将工作中实操过的内容进行简要记录,首先是作为个人笔记怕过一段时间忘记,其次是以输出强化输入的学习方法将知识分享给大家的同时强化自己的理解,本文有3个地方由于时间关系放到后面的文章详细说明。

1、通过Ollama部署自定义模型;

2、关于docker:我认为这是学习大模型技术必备的工具,开源项目层出不穷,对于自己愿意深入了解的可以用conda+pip的方式逐步安装,对于工具型的框架,如果只是为了拓宽知识广度,最高效的方式还是通过docker或者docker compose先跑起来。后面会用更多的篇幅介绍docker;

3、 dify平台:一个开源的AI原生应用开发平台,大幅提升AI智能体开发效率,与FastGPT类似,但感觉要比FastGPT好用得多

目录
相关文章
|
2月前
|
人工智能 测试技术 API
构建AI智能体:二、DeepSeek的Ollama部署FastAPI封装调用
本文介绍如何通过Ollama本地部署DeepSeek大模型,结合FastAPI实现API接口调用。涵盖Ollama安装、路径迁移、模型下载运行及REST API封装全过程,助力快速构建可扩展的AI应用服务。
839 6
|
2月前
|
机器学习/深度学习 人工智能 人机交互
当AI学会“看”和“听”:多模态大模型如何重塑人机交互
当AI学会“看”和“听”:多模态大模型如何重塑人机交互
400 121
|
2月前
|
人工智能 人机交互 知识图谱
当AI学会“融会贯通”:多模态大模型如何重塑未来
当AI学会“融会贯通”:多模态大模型如何重塑未来
309 114
|
2月前
|
人工智能 搜索推荐 程序员
当AI学会“跨界思考”:多模态模型如何重塑人工智能
当AI学会“跨界思考”:多模态模型如何重塑人工智能
320 120
|
2月前
|
人工智能 安全 搜索推荐
当AI学会“看”和“听”:多模态大模型如何重塑人机交互
当AI学会“看”和“听”:多模态大模型如何重塑人机交互
288 117
|
2月前
|
人工智能 机器人 人机交互
当AI学会“看、听、懂”:多模态技术的现在与未来
当AI学会“看、听、懂”:多模态技术的现在与未来
313 117
|
2月前
|
人工智能 API 开发工具
构建AI智能体:一、初识AI大模型与API调用
本文介绍大模型基础知识及API调用方法,涵盖阿里云百炼平台密钥申请、DashScope SDK使用、Python调用示例(如文本情感分析、图像文字识别),助力开发者快速上手大模型应用开发。
1374 16
构建AI智能体:一、初识AI大模型与API调用
|
2月前
|
人工智能 算法 数据安全/隐私保护
拔俗AI多模态心理风险预警系统:用科技守护心理健康的第一道防线
AI多模态心理风险预警系统通过语音、文本、表情与行为数据,智能识别抑郁、焦虑等心理风险,实现早期干预。融合多源信息,提升准确率,广泛应用于校园、企业,助力心理健康服务从“被动响应”转向“主动预防”,为心灵筑起智能防线。(238字)
|
2月前
|
存储 人工智能 搜索推荐
拔俗AI助教系统:基于大模型与智能体架构的新一代教育技术引擎
AI助教融合大语言模型、教育知识图谱、多模态感知与智能体技术,重构“教、学、评、辅”全链路。通过微调LLM、精准诊断错因、多模态交互与自主任务规划,实现个性化教学。轻量化部署与隐私保护设计保障落地安全,未来将向情感感知与教育深度协同演进。(238字)

热门文章

最新文章