OpenClaw如何添加Ollama本地模型供应商?图文教程

本文是一篇详细的图文教程,面向初学者,分步讲解如何在 OpenClaw 中添加和配置 Ollama 作为本地大语言模型供应商。内容涵盖快速向导、手动配置、模型切换及常见问题排查,助你轻松实现本地模型的调用。

用 Apifox,节省研发团队的每一分钟

OpenClaw如何添加Ollama本地模型供应商?图文教程

免费使用 Apifox

相关推荐

最新文章

API

一体化协作平台

API 设计

API 文档

API 调试

自动化测试

API Mock

API Hub

立即体验 Apifox
目录

OpenClaw 允许接入多种模型供应商。对于希望在本地运行开源大语言模型的开发者来说,Ollama 是一个理想的选择。Ollama 可以轻松地在个人计算机上部署和管理各类开源模型,而 OpenClaw 则能与它无缝集成。

     

本文将详细介绍如何为 OpenClaw 添加 Ollama 作为本地模型供应商,内容从基础安装开始,逐步深入到不同的配置方式和常见问题解决,帮助你顺利地在 OpenClaw 中使用本地模型。

AI Coding 交流群

如果你也在用 AI 写代码,或者正在研究 Cursor、Claude Code 这些工具,欢迎加入以下交流群。群里平时会聊一些 AI 编程的实际用法、开发工作流,还有各种新工具和新玩法。

   

准备工作:安装与运行 Ollama

在将 Ollama 集成到 OpenClaw 之前,需要先确保 Ollama 环境已经准备就绪。这包括安装 Ollama 本身,并下载一个或多个你希望使用的本地模型。

 

可以从 Ollama 官方网站下载并安装适合你操作系统的版本:https://ollama.com/download

   

安装完成后,打开终端,使用 ollama pull 或  ollama run命令来下载模型。Ollama 社区提供了丰富的模型选择。例如,可以下载社区流行的 Llama 3.3 或专为代码优化的模型。

ollama pull llama3.3

   

也可以选择其他模型,比如 GLM-4.7-Flash,它在性能和效率上表现出色。

# 下载 GLM-4.7-Flash 模型
ollama pull glm-4.7-flash

 

或者其它的轻量模型,比如 qwen3、qwen3.5 系列模型:

ollama run qwen3.5:0.8b

地址:https://ollama.com/library/qwen3.5/tags

下载完成后,可以通过 ollama list 命令查看本地已经拥有的模型列表,确认模型已成功安装。

     

快速上手:使用 Onboarding 向导

对于初次配置的用户,OpenClaw 提供了交互式的设置向导 openclaw onboard,这是最快捷、最推荐的配置方式。它会引导你完成所有必要的设置。

   

在终端中运行以下命令启动向导:

openclaw onboard

   

在向导的供应商选择列表中,找到并选择 Ollama

接下来,向导会执行一系列自动化步骤:

  1. 它会询问你的 Ollama 服务地址,默认是 http://127.0.0.1:11434,如果 Ollama 运行在本地,直接按回车确认即可。
  2. 接着,你需要选择运行模式。

为了更好地理解这两种模式的差异,可以参考下表:

模式 (Mode) 描述 适用模型
Local 仅使用在本地计算机上通过 Ollama 运行的模型。 仅限本地已通过 ollama pull 下载的模型。
Cloud + Local 同时使用本地模型和 Ollama 提供的云端模型,此模式需要登录 Ollama 账户。 本地模型与云端托管模型(如 kimi-k2.5:cloud)均可使用。

选择模式后,向导会自动发现本地可用的 Ollama 模型,并推荐一个默认模型。如果本地没有该模型,它还会提示并自动下载。

 

最好选 Cloud + Local 模式,不然可能会检索不到本地模型。

   

选好之后按回车键,接着设置后面的 OpenClaw 配置项就行了,不需要的话就跳过。最后我们打开 OpenClaw 的 Web UI,问一下它用的什么模型。

 

通过 onboard 向导,大部分配置工作都能自动完成,非常适合刚接触 OpenClaw 的用户。

     

手动配置:深入理解集成原理

尽管 onboard 向导非常方便,但了解手动配置的方法可以让你更灵活地控制集成细节,特别是在一些非标准化的部署场景中。

 

手动配置主要有两种方式:自动发现和显式配置

   

方式一:自动发现模型(推荐)

这是最简单的手动配置方式。OpenClaw 能够自动检测并加载本地 Ollama 实例中的所有模型,无需在配置文件中逐一列出。

 

要启用自动发现,只需设置一个环境变量 OLLAMA_API_KEY。值得注意的是,Ollama 的本地服务并不需要真实的 API 密钥,所以这里可以填入任意字符串。

export OLLAMA_API_KEY="ollama-local"

   

除了设置环境变量,也可以通过 OpenClaw 的 config 命令来完成配置。

openclaw config set models.providers.ollama.apiKey "ollama-local"

 

设置完成后,OpenClaw 会在启动时自动连接默认的 Ollama 地址(http://127.0.0.1:11434),查询 /api/tags 接口来获取模型列表,并将其注册到模型目录中。所有本地模型的调用成本都会被设为 0。

   

这种方式的好处在于,每当使用 ollama pull 下载一个新模型,它都会被 OpenClaw 自动识别,无需修改任何配置。

   

方式二:显式配置模型

当 Ollama 服务运行在另一台主机上,或者需要为特定模型强制指定上下文窗口大小等参数时,就需要采用显式配置。

   

显式配置意味着你需要在 OpenClaw 的配置文件(默认为 ~/.openclaw/openclaw.json)中手动定义 Ollama 供应商和模型列表。一旦进行了显式配置,自动发现功能就会被禁用。

   

一个基础的显式配置示例如下,适用于 Ollama 运行在 ollama-host11434 端口:

{
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://ollama-host:11434",
        "apiKey": "ollama-local",
        "api": "ollama"
      }
    }
  }
}

这里有一个非常重要的提醒:baseUrl 的值应该是 Ollama 的原生 API 地址,例如 http://host:11434绝对不要在末尾添加 /v1/v1 路径是 OpenAI 兼容模式,它会破坏 OpenClaw 对工具调用(Tool Calling)功能的支持。

     

如果想更精细地控制每个模型,可以在 models 数组中手动定义它们。

{
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://ollama-host:11434",
        "apiKey": "ollama-local",
        "api": "ollama",
        "models": [
          {
            "id": "gpt-oss:20b",
            "name": "GPT-OSS 20B",
            "contextWindow": 8192,
            "maxTokens": 81920,
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }
          }
        ]
      }
    }
  }
}

通过这种方式,可以完全掌控 OpenClaw 能使用的 Ollama 模型列表及其相关参数。

 

模型的使用与切换

无论通过哪种方式配置完成,Ollama 的模型现在都已经成为 OpenClaw 的一部分。可以通过 openclaw models list 命令查看所有可用的模型,其中 Ollama 模型的 ID 会以 ollama/ 作为前缀。

openclaw models list

如果希望将某个 Ollama 模型设置为默认的主要模型,可以使用 openclaw models set 命令。

openclaw models set ollama/qwen3.5:0.8b

 

更持久化的配置方式是在配置文件中指定。可以设置一个主模型(primary),并提供几个备用模型(fallbacks),当主模型调用失败时,OpenClaw 会自动尝试使用备用模型。

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/gpt-oss:20b",
        "fallbacks": ["ollama/llama3.3", "ollama/qwen2.5-coder:32b"]
      }
    }
  }
}

这样的配置为智能体的稳定运行提供了保障。

 

常见问题排查

在配置过程中可能会遇到一些问题,这里列举了几个常见情况及其解决方法。

Ollama 未被检测到

如果 OpenClaw 提示找不到 Ollama,首先要确认 Ollama 服务是否正在运行。

ollama serve

如果你使用的是自动发现模式,请检查 OLLAMA_API_KEY 环境变量是否已正确设置,并确保配置文件中没有显式的 models.providers.ollama 条目,因为它会覆盖自动发现。

 

可以通过 curl 命令测试 Ollama API 是否可以访问。

curl http://localhost:11434/api/tags

 

如果此命令能返回 JSON 数据,说明 Ollama 服务是正常的。

 

看不到可用的模型

如果在 openclaw models list 的输出中没有看到预期的模型,请先用 ollama list 确认该模型是否已在本地安装。如果没有,使用 ollama pullollama run 下载即可。

ollama pull llama3.3

对于自动发现模式,新模型在下载后应该会自动出现在 OpenClaw 中。对于显式配置,需要手动将其添加到配置文件的 models 数组里。

 

连接被拒绝 (Connection refused)

这个错误通常意味着 Ollama 服务没有启动,或者 OpenClaw 配置的地址或端口不正确。请检查 Ollama 服务的运行状态,并核对配置文件中的 baseUrl 是否与 Ollama 的实际监听地址匹配。

 

开发必备:API 全流程管理神器 Apifox

介绍完上文的内容,我想额外介绍一个对开发者同样重要的效率工具 —— Apifox。作为一个集 API 文档API 调试API 设计API 测试API Mock自动化测试等功能于一体的 API 管理工具,Apifox 可以说是开发者提升效率的必备工具之一。

 
如果你正在开发项目需要进行接口调试,不妨试试 Apifox。注册过程非常简单,你可以直接在这里注册使用

Apifox



注册成功后可以先看看官方提供的示例项目,这些案例都是经过精心设计的,能帮助你快速了解 Apifox 的主要功能。

 
使用 Apifox 的一大优势是它完全兼容 PostmanSwagger 数据格式,如果你之前使用过这些工具,数据导入会非常方便。而且它的界面设计非常友好,即使是第一次接触的新手也能很快上手,快去试试吧!

Apifox