9Router – 开源 AI 编程路由代理工具,智能调度模型

Al项目 2026-05-13 15:00:25 AI导航网

9Router是什么

9Router 是开源的 AI 编程路由代理工具,可将 Claude Code、Codex、Cursor、Cline 等主流 AI 编程工具统一接入本地代理层,智能调度 40+ 供应商与 100+ 模型。工具内置三层降级路由与 RTK Token 压缩引擎,在订阅额度耗尽时自动无缝切换,平均节省 20%-40% 的输入 Token,配备可视化仪表盘实时追踪消耗与成本,确保开发任务零中断。

9Router的主要功能

  • 智能三层路由:自动按”订阅配额→廉价 API→免费渠道”顺序降级切换,配额耗尽时无缝接力。
  • RTK Token 压缩:内置 Rust 编写的 Token 压缩引擎,自动精简 git diff、grep、ls 等工具输出,节省 20%-40% 输入 Token。
  • 精简模式(Caveman Mode):注入精简风格提示词,让 AI 回复更精炼,最高可节省 65% 输出 Token。
  • 多供应商统一管理:支持 OAuth 或 API Key 接入 60+ AI 供应商,涵盖 Claude、OpenAI、GLM、MiniMax、Kiro 等。
  • 实时配额追踪:可视化仪表盘监控各供应商 Token 消耗、剩余额度、重置倒计时与预估成本。
  • 格式自动转换:在 OpenAI、Claude、Gemini、Cursor、Kiro 等格式间自动翻译,兼容任意 CLI 工具。
  • 多账户轮询:同一供应商可添加多个账户,支持自动轮询与故障转移。
  • 请求日志与云同步:支持调试日志记录,并可跨设备同步配置。

9Router的技术原理

  • 本地代理层架构:9Router 作为本地代理服务器(默认 localhost:20128),所有 AI 编程工具请求先经此层再分发至后端供应商。

  • 三层回退路由算法:基于配额状态与错误码自动决策,第一层优先消耗订阅额度,第二层切换至高性价比 API,第三层兜底至免费服务。

  • RTK 前置过滤:在请求进入格式转换前,RTK 引擎扫描 tool_result 前 1KB 内容,自动匹配 git-diff、grep、tree 等过滤器进行无损压缩。

  • 格式翻译中间件:将 OpenAI 标准格式实时转换为 Claude、Gemini、Kiro 等原生协议,实现工具与供应商解耦。

  • OAuth 自动续期:自动刷新订阅服务的访问令牌,避免手动重新登录。

如何使用9Router

  • 安装启动:执行 npm install -g 9router 全局安装,再运行 9router 启动本地代理服务,仪表盘将自动在浏览器打开(http://localhost:20128)。

  • 连接供应商:进入仪表盘”提供商”页面,通过 OAuth 登录或填入 API Key 接入 Claude、OpenAI、GLM 等 60+ 供应商,零成本起步可直接连接 Kiro AI 或 OpenCode Free。

  • 创建组合:在”组合”页面按优先级添加模型,例如先订阅层 cc/claude-opus-4-7,再廉价层 glm/glm-5.1,最后免费层 kr/claude-sonnet-4.5,实现自动回退。

  • 配置 CLI:将 Claude Code、Codex、Cursor 等工具的 API Base URL 改为 http://localhost:20128/v1,并填入仪表盘生成的 API Key。

  • 开始编码:完成配置后,所有 AI 请求自动经 9Router 智能路由,订阅额度耗尽时无缝切换至下层模型,全程透明无感。

9Router的核心优势

  • 零停机编码:三层自动回退确保额度耗尽时开发不中断,无需手动切换工具或等待重置。

  • 显著降本:RTK 压缩 + 精简模式 + 免费/廉价层组合,可将月度 AI 编程成本压至接近零。

  • 一站式管理:在一个仪表盘内统一管理所有订阅、API Key 与免费账户,告别多平台手动切换。

  • 透明可控:实时成本估算与配额追踪,帮助用户最大化利用每一份订阅价值。

  • 广泛兼容:支持 Claude Code、Codex、Cursor、Cline、OpenClaw、GitHub Copilot 等 10+ 主流 CLI/IDE 工具。

9Router的项目地址

  • 项目官网:https://9router.com/
  • GitHub仓库:https://github.com/decolua/9router

9Router的同类竞品对比

对比维度9RouterOpenRouterLiteLLM
定位面向 AI 编程工具的本地路由代理云端统一 API 网关企业级 LLM 代理与负载均衡
部署方式本地/ Docker / VPS / Cloudflare Workers纯云端 SaaS本地/云端,偏企业部署
供应商数量60+(含 OAuth 订阅 + API Key + 免费层)200+ 模型100+ 模型/供应商
编程工具集成深度适配 Claude Code、Codex、Cursor 等 CLI通用 API,需手动配置通用 SDK/Proxy,企业级集成
Token 压缩内置 RTK 引擎,自动节省 20%-40%无内置压缩无内置压缩
三层回退订阅→廉价→免费,自动无缝切换支持 Fallback,但无分层策略支持 Fallback 与重试策略
配额追踪实时仪表盘,含重置倒计时基础用量统计企业级监控与告警
成本优化专为个人开发者降本设计按量计费,无免费层聚合企业预算控制与速率限制
开源协议开源免费部分开源开源(MIT)

9Router的应用场景

  • 多订阅用户:同时拥有 Claude Pro、Codex Plus、Cursor 等订阅,通过智能调度避免额度浪费与限额中断。

  • 零成本开发者:仅使用 Kiro AI、OpenCode Free、Vertex AI 等免费层,实现完全免费的 AI 辅助编程。

  • 高频编码冲刺:在项目 deadline 期间需要 24/7 不间断编码,依赖多层回退保障连续性。

  • Token 敏感型项目:处理大型代码库时,通过 RTK 压缩大幅减少 git diff 与日志类请求的 Token 开销。

  • 团队/多设备协作:通过云同步与 VPS/Docker 部署,在团队内共享统一的 AI 供应商配置与路由策略。

© 版权声明

相关文章