找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 4|回复: 0

有没有一种方式,既能让 OpenClaw 7×24 小时持续工作,又不用承担高昂的模型调用费用?

[复制链接]

3

主题

1

回帖

11

积分

新手上路

积分
11
发表于 昨天 22:07 | 显示全部楼层 |阅读模式
使用 OpenClaw 的人越来越多,但随之而来的 Token 消耗,也让不少人望而却步。只要调用云端 API,每一次对话、每一次任务执行都会产生费用。一旦让智能体长时间运行,成本很快就会激增。


有没有一种方式,既能让 OpenClaw 7×24 小时持续工作,又不用承担高昂的模型调用费用?

技术博主 Mervin Praison 分享了一种结合 Ollama 本地模型的部署方案。思路很简单,就是让 OpenClaw 负责任务调度,并连接 Telegram 这类聊天工具。由 Ollama 在本地运行模型,例如 Ministral-3:3b。这样一来,OpenClaw 可以全天候运行,而无需担心不断上涨的 Token 成本。

部署流程也很简单。首先,在一台长期在线的电脑上安装 OpenClaw,然后安装 Ollama,并下载一个轻量级开源模型,例如 Ministral-3:3b,或 DeepSeek、Qwen 。接着,在 OpenClaw 的配置中将服务提供方切换为 Ollama,并设置好默认模型。完成这些步骤后,通过 Telegram 机器人接入,你就可以直接在聊天窗口中指挥它执行各类任务。

关键在于,将默认模型从 OpenAI API 切换为 Ollama。本地模型接管推理后,就不再消耗外部 LLM 的 Token。当然,本地模型也有其局限。模型规模越大,对硬件性能的要求越高。好在 OpenClaw 支持多模型切换,日常自动化任务、文本处理和简单决策,可以交由小体量的本地模型。而编程、深度研究等复杂任务,再按需切换到更强大的云端模型。这样既能控制成本,又能兼顾性能。

## http://t.cn/AXcVDJBE
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|一起港湾 ( 青ICP备2025004122号-1 )

GMT+8, 2026-2-26 02:59 , Processed in 0.308878 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表