MCP Hub
Back to servers

Ollama

An MCP server that integrates with Ollama to provide local LLM inference capabilities, supporting model management and private, offline processing within the Model Context Protocol framework.

Stars
1
Updated
Sep 10, 2025

MCP+Ollama集成实践

简介

本项目测试环境为Ubuntu 20.04(阿里云CPU环境),基于MCP+Ollama集成的,请参考MCP+Ollama集成实践,主要目的是为了熟悉主控程序的相关流程,为后续部署与实现deepresearch做准备。

安装依赖

 uv add fastmcp ollama

这会同时安装MCP服务器和Ollama聊天库,以便你在它们的基础上构建客户端和服务器逻辑。

文件结构

在项目根目录下,有名为.venv的虚拟环境,里面存放了所有依赖项。

另外,我们的your folder目录下,有server.py和client.py两个文件,server.py文件包含MCP服务器和想要暴露的工具。client.py文件在后台进程中启动服务器,获取可用工具,并与Ollama连接。

   your folder
   ├── server.py
   └── client.py

激活虚拟环境

这一步在每一个终端开始运行的时候都必须执行

   source .venv/bin/activate 

启动ollama服务(在一个终端)

    ollama serve

启动成功后,会返回一个端口号,该端口号用于后续的调用

在ollama中部署一个大模型(以gemma3为例)

    ollama run gemma3

模型启动成功后,会返回一个模型ID,该ID为模型唯一标识符,后续调用模型时需要使用此ID,可以在当前的界面与模型对话体验

运行 MCP 服务器(新建终端)

uv run python server.py

运行客户端(新建终端)

python client.py

一些其他问题

client.py文件有如下代码:

    client = Client(
      host='http://127.0.0.1:11434',
      headers={'x-some-header': 'some-value'}
    )

在这里配置了http请求头,事实上,这里的host需要您自己设置,下面代码中是我的ip

本地访问页面 http://127.0.0.1:11434/#tools (例),我们可以看构造的函数,并且可以调试

Reviews

No reviews yet

Sign in to write a review