Claude Code 与 Ollama:本地 AI 编程助手设置指南
Claude Code 与 Ollama:本地 AI 编程助手设置指南
掌握 Claude Code 与 Ollama 集成,为注重隐私的本地 AI 编程辅助开发。学习如何使用 Anthropic 的代理编码工具配合 GLM-4.7、Qwen3-Coder 和 GPT-OSS 等开源模型。

什么是 Claude Code 与 Ollama?
Claude Code 是 Anthropic 强大的代理编码工具,能够在您的终端中直接启用 AI 辅助开发。通过与 Ollama 的 Anthropic 兼容 API 集成,您可以使用本地托管的开源模型运行 Claude Code,提供隐私保护、成本效益和离线功能,同时保持熟悉的 Claude Code 界面和功能。
主要优势
- 隐私优先开发:将代码和对话保持在本地
- 成本效益:本地模型推理无 API 费用
- 离线能力:无需互联网连接即可工作
- 大上下文窗口:支持大规模代码库
- 熟悉界面:使用本地模型保持相同的 Claude Code 体验
安装
先决条件
在安装 Claude Code 之前,请确保您有:
- Node.js(版本 18 或更高)
- Ollama 已安装并在本地运行
- 至少下载了一个兼容模型
安装 Claude Code
npm install -g @anthropic-ai/claude-code有关详细安装说明,请访问官方 Claude Code 文档。
为 Claude Code 设置 Ollama
快速开始设置
开始使用的最快方式是使用 Ollama 内置的 Claude Code 启动器:
ollama launch claude此命令将:
- 检查 Claude Code 是否已安装
- 配置必要的环境变量
- 使用您的默认 Ollama 模型启动 Claude Code
要仅配置而不启动:
ollama launch claude --config手动配置
为了更好地控制您的设置,请手动配置 Claude Code 以连接到 Ollama 的 Anthropic 兼容 API。
1. 环境变量设置
在您的 shell 配置文件(.bashrc、.zshrc 等)中设置以下环境变量:
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_API_KEY=""
export ANTHROPIC_BASE_URL=http://localhost:11434或者为单个会话临时设置:
ANTHROPIC_AUTH_TOKEN=ollama ANTHROPIC_API_KEY="" ANTHROPIC_BASE_URL=http://localhost:114342. 启动 Claude Code
使用您偏好的 Ollama 模型启动 Claude Code:
claude --model qwen3-coder或者使用内联环境变量运行:
ANTHROPIC_AUTH_TOKEN=ollama ANTHROPIC_BASE_URL=http://localhost:11434 ANTHROPIC_API_KEY="" claude --model glm-4.7推荐模型
从这些针对 Claude Code 优化的高质量编程模型中选择:
通用编程最佳选择
qwen3-coder- 阿里巴巴的专用编程模型,代码生成优秀glm-4.7- 清华大学 GLM-4 模型,在代码理解方面表现出色
大型代码库最佳选择
gpt-oss:20b- 200 亿参数模型,具有大上下文窗口gpt-oss:120b- 最大上下文和推理能力
云端模型(替代方案)
云端托管模型也可通过 Ollama 获取,访问 ollama.com/search?c=cloud。
上下文窗口配置
Claude Code 在理解复杂代码库时,大上下文窗口表现最佳。在 Ollama 中配置模型的上下文长度:
# 检查当前上下文长度
ollama show <model-name>
# 调整上下文长度(128k 令牌示例)
ollama run <model-name> --context-length 131072建议:为获得最佳 Claude Code 性能,至少使用 64k 令牌。请参考 Ollama 上下文长度文档 获取详细配置选项。
使用示例
基本代码分析
claude "分析这个 Python 文件并建议改进"代码生成
claude "创建一个用于用户认证的 React 组件"调试帮助
claude "帮我调试这个 TypeScript 错误"重构任务
claude "重构这个函数以使用 async/await"故障排除
常见问题
连接被拒绝错误
Error: connect ECONNREFUSED 127.0.0.1:11434解决方案:确保 Ollama 正在运行,使用 ollama serve
模型未找到错误
Error: model not found解决方案:首先使用 ollama pull <model-name> 拉取模型
上下文窗口过小
Error: context window exceeded解决方案:使用具有更大上下文的模型或调整上下文设置
性能优化
- 使用 SSD 存储:本地模型在快速存储上性能更好
- GPU 加速:在 Ollama 中启用 GPU 支持以加快推理
- 模型选择:为您的硬件选择适当大小的模型
- 上下文管理:可能时将上下文限制为相关文件
高级配置
自定义基础 URL
如果 Ollama 在不同的端口或主机上运行:
export ANTHROPIC_BASE_URL=http://localhost:8080多模型支持
在同一会话中切换不同的模型:
claude --model qwen3-coder
# 在同一会话的稍后时间
/model glm-4.7与开发工作流集成
将 Claude Code 与您现有的工具结合使用:
# 与 git 一起使用
claude "在提交前审查这些更改"
# 代码格式化
claude "根据我们的风格指南格式化这段代码"
# 测试帮助
claude "为这个函数编写单元测试"安全注意事项
- 本地执行:所有代码分析都在本地进行 - 无数据发送到外部服务器
- API 密钥管理:对本地 Ollama 认证使用空 API 密钥
- 网络隔离:非常适合空气隔离环境
- 代码隐私:您的专有代码永远不会离开您的机器
获取帮助
今天就开始使用 AI 辅助编程 - 将 Claude Code 界面的强大功能与本地 Ollama 模型的隐私保护相结合!