有没有一种方式,既能让 OpenClaw 7×24 小时持续工作,又不用承担高昂的模型调用费用?

使用 OpenClaw 的人越来越多,但随之而来的 Token 消耗,也让不少人望而却步。只要调用云端 API,每一次对话、每一次任务执行都会产生费用。一旦让智能体长时间运行,成本很快就会激增。


有没有一种方式,既能让 OpenClaw 7×24 小时持续工作,又不用承担高昂的模型调用费用?

技术博主 Mervin Praison 分享了一种结合 Ollama 本地模型的部署方案。思路很简单,就是让 OpenClaw 负责任务调度,并连接 Telegram 这类聊天工具。由 Ollama 在本地运行模型,例如 Ministral-3:3b。这样一来,OpenClaw 可以全天候运行,而无需担心不断上涨的 Token 成本。

部署流程也很简单。首先,在一台长期在线的电脑上安装 OpenClaw,然后安装 Ollama,并下载一个轻量级开源模型,例如 Ministral-3:3b,或 DeepSeek、Qwen 。接着,在 OpenClaw 的配置中将服务提供方切换为 Ollama,并设置好默认模型。完成这些步骤后,通过 Telegram 机器人接入,你就可以直接在聊天窗口中指挥它执行各类任务。

关键在于,将默认模型从 OpenAI API 切换为 Ollama。本地模型接管推理后,就不再消耗外部 LLM 的 Token。当然,本地模型也有其局限。模型规模越大,对硬件性能的要求越高。好在 OpenClaw 支持多模型切换,日常自动化任务、文本处理和简单决策,可以交由小体量的本地模型。而编程、深度研究等复杂任务,再按需切换到更强大的云端模型。这样既能控制成本,又能兼顾性能。

## http://t.cn/AXcVDJBE
分类