为什么要用 CC-Switch?
Claude Code 默认连接 Anthropic 官方 API,在国内访问可能遇到:
- 网络不稳定
- 响应速度慢
- 偶尔无法连接
CC-Switch 是解决这个问题的神器——它让 Claude Code 可以无缝切换到国内大模型(Kimi、GLM、通义千问等),速度快、稳定性高。
前置准备
- Claude Code 已安装(见入门指南)
- 有火山引擎/智谱AI/阿里云的 API Key
安装 CC-Switch
# 全局安装
npm install -g cc-switch
# 验证安装
cc-switch --version
配置 Kimi 模型(推荐)
1. 获取 API Key
登录 火山引擎 → 创建接入点 → 复制 API Key
2. 配置环境变量
# 添加到 ~/.zshrc 或 ~/.bashrc
export ANTHROPIC_BASE_URL="https://ark.cn-beijing.volces.com/api/coding"
export ANTHROPIC_AUTH_TOKEN="你的API-Key"
export ANTHROPIC_MODEL="Kimi-K2.5"
3. 应用配置
source ~/.zshrc
# 验证
claude
如果看到 Claude Code 正常启动,并且回复内容来自 Kimi,说明配置成功!
配置 GLM 模型(备选)
# 智谱 AI
export ANTHROPIC_BASE_URL="https://open.bigmodel.cn/api/paas/v4"
export ANTHROPIC_AUTH_TOKEN="你的GLM-API-Key"
export ANTHROPIC_MODEL="GLM-4"
切换模型
# 查看可用模型
cc-switch list
# 切换到 Kimi
cc-switch use kimi
# 切换到 GLM
cc-switch use glm
# 切换回官方
cc-switch use anthropic
常见问题
Q1: 提示 “API Key 无效”
- 检查 Key 是否复制完整(不要有多余空格)
- 确认 Key 有对应模型的调用权限
Q2: 提示 “模型不支持”
- 检查
ANTHROPIC_MODEL是否设置正确 - 某些模型不支持图片输入,纯文本任务可忽略
Q3: 响应很慢
- 检查网络连接
- 尝试切换其他模型或地区节点
进阶配置
自动切换(根据任务类型)
// ~/.claude/settings.json
{
"env": {
"ANTHROPIC_MODEL": "Kimi-K2.5",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "Kimi-K2.5",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "Kimi-K2.5"
}
}
多模型备份
配置多个 API Key,当一个失效时自动切换:
export ANTHROPIC_AUTH_TOKEN="主Key,备用Key1,备用Key2"
总结
CC-Switch 让 Claude Code 在国内也能流畅使用,是提升效率的关键一步。
配置好后,你就可以享受:
- ⚡ 极速响应
- 🌐 稳定连接
- 💰 更低成本(国内模型通常更便宜)
下一篇:《OpenClaw 配置指南:搭建微信 AI 机器人》