MCP+Ollama集成实践
简介
本项目测试环境为Ubuntu 20.04(阿里云CPU环境),基于MCP+Ollama集成的,请参考MCP+Ollama集成实践,主要目的是为了熟悉主控程序的相关流程,为后续部署与实现deepresearch做准备。
安装依赖
uv add fastmcp ollama
这会同时安装MCP服务器和Ollama聊天库,以便你在它们的基础上构建客户端和服务器逻辑。
文件结构
在项目根目录下,有名为.venv的虚拟环境,里面存放了所有依赖项。
另外,我们的your folder目录下,有server.py和client.py两个文件,server.py文件包含MCP服务器和想要暴露的工具。client.py文件在后台进程中启动服务器,获取可用工具,并与Ollama连接。
your folder
├── server.py
└── client.py
激活虚拟环境
这一步在每一个终端开始运行的时候都必须执行
source .venv/bin/activate
启动ollama服务(在一个终端)
ollama serve
启动成功后,会返回一个端口号,该端口号用于后续的调用
在ollama中部署一个大模型(以gemma3为例)
ollama run gemma3
模型启动成功后,会返回一个模型ID,该ID为模型唯一标识符,后续调用模型时需要使用此ID,可以在当前的界面与模型对话体验
运行 MCP 服务器(新建终端)
uv run python server.py
运行客户端(新建终端)
python client.py
一些其他问题
client.py文件有如下代码:
client = Client(
host='http://127.0.0.1:11434',
headers={'x-some-header': 'some-value'}
)
在这里配置了http请求头,事实上,这里的host需要您自己设置,下面代码中是我的ip
本地访问页面 http://127.0.0.1:11434/#tools (例),我们可以看构造的函数,并且可以调试