Ollama 提供了一个新的命令行: ollama launch,不用设置环境变量,就能让 Claude Code、Codex、OpenCode 支持 ollama 的本地模
Ollama 提供了一个新的命令行: ollama launch,不用设置环境变量,就能让 Claude Code、Codex、OpenCode 支持 ollama 的本地模型.操作十分简单,只需两步
1.打开本地终端(例如 PowerShell),输入:ollama pull [模型名称] 下载你想要使用的本地模型。
推荐:
glm-4.7-flash
qwen3-coder
gpt-oss:20b
2. 为 Claude Code 设置默认模型,输入: ollama launch cluadecode --config
两个小提示:
1. Claude Code 调用本地模型不支持 /init 指令,可以手动在项目文件夹中创建一个CLAUDE.md 文件。
2. 即便使用本地模型,Claude Code 仍旧会调用 Anthropic marketplace,并报错,可以在 CLAUDE.md 中进行以下设置将其关闭。
# Claude Code config
disable_marketplace: true
#HOW I AI##AI技术[超话]##AI编程##ClaudeCode##AI创造营# http://t.cn/AXqLHbn1
页:
[1]