一个轻量级 API 网关,让你在使用 Claude Code 时可以切换到第三方 AI 模型。
支持 Windows、macOS、Linux 跨平台使用。
# 1. 初始化配置文件
npx claude-code-model-router init
# 2. 编辑 .env 文件,填入 API Keys
# 3. 启动网关
npx claude-code-model-router start
# 4. 新开终端,启动 Claude Code
# 第三方模型(网关模式):
npx claude-code-model-router claude
# 官方订阅(默认模式):
claudenpm install -g claude-code-model-router
# 然后使用 ccmr 命令
ccmr init
ccmr start
# 启动 Claude Code
ccmr claude # 第三方模型(网关模式)
claude # 官方订阅(默认模式)# 初始化配置文件
npx claude-code-model-router init
# 启动网关
npx claude-code-model-router start
npx claude-code-model-router start --port 9000 # 指定端口
# 查看可用模型
npx claude-code-model-router models
# 启动 Claude Code(网关模式,使用第三方模型)
npx claude-code-model-router claude
npx claude-code-model-router claude --gateway-port 9000 # 自定义网关端口
# 启动 Claude Code(官方订阅)
claudeccmr claude 命令完整支持 Claude Code 的原生启动参数:
# YOLO 模式(跳过所有权限确认)
ccmr claude --dangerously-skip-permissions
# 继续上一次会话
ccmr claude --continue
ccmr claude -c
# YOLO 模式 + 继续上一次会话
ccmr claude --dangerously-skip-permissions --continue
# 恢复指定会话(交互式选择)
ccmr claude --resume
ccmr claude -r
# 恢复指定会话 ID
ccmr claude --resume <session-id>
# 调试模式
ccmr claude --debug
ccmr claude --verbose
# 连接 IDE
ccmr claude --ide
# 指定权限模式
ccmr claude --permission-mode bypassPermissions
# 打印模式(非交互式)
ccmr claude -p "你的问题"
ccmr claude --print --output-format json "你的问题"支持的完整参数列表:
| 参数 | 说明 |
|---|---|
-c, --continue |
继续最近的会话 |
-r, --resume [id] |
恢复指定会话或打开会话选择器 |
--fork-session |
恢复时创建新会话 ID |
--dangerously-skip-permissions |
跳过所有权限检查(YOLO 模式) |
--permission-mode <mode> |
权限模式:acceptEdits, bypassPermissions, default, dontAsk, plan |
-p, --print |
打印模式(非交互式) |
--output-format <format> |
输出格式:text, json, stream-json |
--model <model> |
指定模型(覆盖网关路由) |
--system-prompt <prompt> |
自定义系统提示 |
--add-dir <dirs...> |
添加额外目录权限 |
-d, --debug |
调试模式 |
--verbose |
详细输出 |
--ide |
自动连接 IDE |
--gateway-port <port> |
指定网关端口(默认 8080) |
提示: 任何 Claude Code 原生支持的参数都可以直接传递给
ccmr claude
| 短名称 | 版本别名 | 模型 | 提供商 |
|---|---|---|---|
deepseek |
deepseek-v3.2, ds |
DeepSeek V3.2 | DeepSeek |
kimi |
kimi-k2, kimi-k2-thinking |
Kimi K2 Thinking | Moonshot |
minimax |
minimax-m2.1, mm |
MiniMax M2.1 | MiniMax |
qwen |
qwen3-max, qwen3 |
Qwen3 Max | 阿里云 |
glm |
glm-4.7, zhipu |
GLM 4.7 | 智谱 AI |
| 模型 | Context Window | Max Output Tokens |
|---|---|---|
| DeepSeek V3.2 | 128K | 128K |
| Kimi K2 Thinking | 256K | 32K |
| MiniMax M2.1 | 200K | 128K |
| Qwen3 Max | 256K | 32K |
| GLM 4.7 | 200K | 128K |
DEEPSEEK_API_KEY=sk-xxx # https://platform.deepseek.com/
KIMI_API_KEY=sk-xxx # https://www.kimi.com/
MINIMAX_API_KEY=xxx # https://platform.minimax.io/
QWEN_API_KEY=sk-xxx # https://dashscope.console.aliyun.com/
GLM_API_KEY=xxx # https://open.bigmodel.cn/可以自定义模型配置、添加别名等。运行 init 命令会生成模板。
本工具通过独立的配置目录实现完全隔离,让你可以同时使用官方订阅和第三方模型:
┌─────────────────────────────────────────────────────────────────┐
│ 模式1: 官方订阅(默认) │
│ 命令: claude │
│ 配置: ~/.claude/settings.json │
│ 用途: 使用 Claude 官方模型(订阅额度) │
└─────────────────────────────────────────────────────────────────┘
┌─────────────────────────────────────────────────────────────────┐
│ 模式2: 第三方模型(网关) │
│ 命令: npx claude-code-model-router claude │
│ 配置: ~/.claude-gateway/settings.json │
│ 用途: 使用第三方 AI 模型(DeepSeek, GLM, Qwen 等) │
└─────────────────────────────────────────────────────────────────┘
- 官方模式使用
~/.claude/配置目录(Claude Code 默认) - 网关模式使用
~/.claude-gateway/配置目录(独立隔离) - 两个配置目录完全独立,互不干扰
- 在网关模式切换模型不会影响官方模式
第一步:启动网关
npx claude-code-model-router start第二步:选择使用模式
使用官方订阅(终端 A):
claude- 使用官方 Claude 模型(Sonnet, Opus, Haiku)
- 消耗订阅额度
- 配置存储在
~/.claude/
使用第三方模型(终端 B):
npx claude-code-model-router claude- 使用第三方 AI 模型(DeepSeek, GLM, Qwen 等)
- 按 API 使用量付费
- 配置存储在
~/.claude-gateway/
所有命令在 Windows、macOS、Linux 上完全相同,无需修改。
/model sonnet # Claude Sonnet 4.5
/model opus # Claude Opus 4.5
/model haiku # Claude Haiku 3.5
使用短名称或版本别名切换模型:
# 使用短名称(向后兼容)
/model deepseek # 切换到 DeepSeek V3.2
/model qwen # 切换到 Qwen3 Max
/model glm # 切换到 GLM 4.7
/model kimi # 切换到 Kimi K2 Thinking
/model minimax # 切换到 MiniMax M2.1
# 使用版本别名(明确指定版本)
/model deepseek-v3.2 # DeepSeek V3.2
/model glm-4.7 # GLM 4.7
/model minimax-m2.1 # MiniMax M2.1
/model kimi-k2 # Kimi K2 Thinking
/model qwen3-max # Qwen3 Max重要: 两个模式的配置完全独立,在网关模式切换模型不会影响官方模式!
| 端点 | 方法 | 说明 |
|---|---|---|
/v1/messages |
POST | Anthropic Messages API |
/v1/models |
GET | 列出可用模型 |
/health |
GET | 健康检查 |
# 克隆项目
git clone https://github.com/luwill/Claude-Code-Model-Router.git
cd Claude-Code-Model-Router
# 安装依赖
npm install
# 开发模式
npm run dev
# 构建
npm run build
# 本地测试
npm link
ccmr start# 使用其他端口
npx claude-code-model-router start --port 9000- 检查 .env 文件中的 Key 是否正确
- 确认账户有余额
- 运行
npx claude-code-model-router models查看状态
- 更新 MiniMax 模型至 M2.1 版本
- 更新 GLM 模型至 4.7 版本
- 更新 GLM API 端点至
https://open.bigmodel.cn/api/anthropic - 新增版本别名支持(如
glm-4.7、minimax-m2.1) - 优化日志显示,显示具体模型版本
- 更新各模型的 context window 和 max tokens 参数
- 添加 Claude Code 原生参数支持
- 初始版本发布
MIT