文章

告别代理、限流和天价账单:用 OpenClaw 接入 OfoxAI 统一 LLM Gateway

告别代理、限流和天价账单:用 OpenClaw 接入 OfoxAI 统一 LLM Gateway

“我只想调个 API,不想当网络工程师。” —— 每个被代理折磨过的 AI 开发者

一、先吐槽:现在用官方 API 有多痛

作为一个天天跟 LLM 打交道的工程师,我来数数这一年踩过的坑:

1. 代理地狱

想用 OpenAI?先配代理。Claude?代理。Gemini?代理。

1
2
3
4
5
# 我的 .zshrc 已经被这些东西污染了
export HTTP_PROXY=http://127.0.0.1:7890
export HTTPS_PROXY=http://127.0.0.1:7890
export ALL_PROXY=socks5://127.0.0.1:7890
# 然后还要设置 no_proxy 避免本地请求走代理...

每次换环境、换机器、换网络,都要折腾一遍。服务器上更惨——要么自己搭代理,要么买香港/新加坡的机器专门中转。

时间成本 ≈ ∞

2. 限流噩梦

终于能调通了?恭喜你,开始享受限流的快乐:

厂商限制实际体验
OpenAITPM + RPM + 每日额度跑个批量任务动不动 429
ClaudeRPM 限制,Opus 更严高峰期排队像春运
Gemini免费版直接不让用Pro 版也限得厉害

我在跑一个代码审查任务时,被 OpenAI 限流 12 次。12 次!每次等 60 秒冷却,光等待就浪费了 12 分钟。

3. 账单爆炸

模型输入 (1M tokens)输出 (1M tokens)
GPT-4 Turbo$10$30
Claude Opus$15$75
Gemini Ultra$7$21

一个不小心,月底账单四位数。我见过有人调试代码时忘关循环,一晚上烧了 $800。

4. 多账号管理

想同时用 OpenAI + Claude + Gemini?准备好:

  • 3 个 API Key
  • 3 套 SDK
  • 3 个计费账户
  • 3 套限流策略
  • 3 个 Dashboard 来回切换查用量
1
2
3
4
5
6
7
8
# 我之前的代码长这样
if model.startswith("gpt"):
    client = OpenAI(api_key=os.getenv("OPENAI_API_KEY"))
elif model.startswith("claude"):
    client = Anthropic(api_key=os.getenv("ANTHROPIC_API_KEY"))
elif model.startswith("gemini"):
    client = genai.Client(api_key=os.getenv("GOOGLE_API_KEY"))
# ... 写到怀疑人生

二、找了一圈,发现了 OfoxAI

在被折磨了无数次之后,我开始找有没有统一的解决方案。

试过几个:

  • OpenRouter:能用,但还是要自己处理代理问题,而且部分模型延迟较高
  • AWS Bedrock:国内访问还是需要代理,而且配置复杂得让人想哭
  • Azure OpenAI:备案、审核、合规……光流程就走了两周

最后发现了 OfoxAI

为什么选 OfoxAI?

1. 一个 API,50+ 模型

OfoxAI 同时支持 Anthropic 原生协议 和 OpenAI 兼容协议。推荐使用 Anthropic 协议,能完整支持 Claude 的所有特性(extended thinking、tool use 等):

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
from anthropic import Anthropic

client = Anthropic(
    base_url="https://api.ofox.ai/anthropic",
    api_key="<YOUR_OFOXAI_KEY>"
)

# 用 Claude Opus
response = client.messages.create(
    model="anthropic/claude-opus-4.5",
    max_tokens=4096,
    messages=[{"role": "user", "content": "Hello!"}]
)

# 切换到 Sonnet,只改一个参数
response = client.messages.create(
    model="anthropic/claude-sonnet-4.5",
    max_tokens=4096,
    messages=[{"role": "user", "content": "Hello!"}]
)

一个 endpoint,一个 API key,所有模型。

2. 原生云厂渠道

这是我最看重的——OfoxAI 不是野路子代理,用的是官方云厂的原生 API 渠道。意味着:

  • 稳定性有保障
  • 不会被官方封杀
  • 响应延迟跟直连差不多

3. 国内直连

不!需!要!代!理!

1
2
3
4
5
6
7
8
9
10
# 再也不用设这些了
# export HTTP_PROXY=...
# export HTTPS_PROXY=...

# 直接调(Anthropic 协议)
curl https://api.ofox.ai/anthropic/v1/messages \
  -H "x-api-key: $OFOXAI_API_KEY" \
  -H "anthropic-version: 2023-06-01" \
  -H "Content-Type: application/json" \
  -d '{"model": "anthropic/claude-sonnet-4.5", "max_tokens": 1024, "messages": [{"role": "user", "content": "Hi"}]}'

4. 统一计费,更便宜

一个账户管理所有模型的用量和费用。而且因为批量采购,价格比官方直接买还便宜。

三、OpenClaw 接入 OfoxAI 实战

好了,吐槽完了,讲正事。作为 OpenClaw 的重度用户,我来演示怎么接入 OfoxAI。

Step 1: 获取 OfoxAI API Key

https://ofox.ai 注册,在控制台创建一个 API Key。

Step 2: 配置 OpenClaw

编辑 OpenClaw 配置文件(通常在 ~/.openclaw/config.json5):

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
{
  // 设置 OfoxAI 的环境变量
  env: {
    OFOXAI_API_KEY: "your-ofoxai-api-key-here"
  },

  // 配置 OfoxAI 作为 provider(使用 Anthropic 协议)
  providers: {
    ofoxai: {
      type: "anthropic",  // 推荐使用 Anthropic 原生协议
      baseURL: "https://api.ofox.ai/anthropic",
      apiKeyEnv: "OFOXAI_API_KEY"
    }
  },

  // 设置默认模型
  agents: {
    defaults: {
      model: {
        primary: "ofoxai/anthropic/claude-opus-4.5"
      }
    }
  }
}

为什么用 Anthropic 协议? OpenClaw 底层就是基于 Claude 构建的,使用 Anthropic 原生协议能完整支持 extended thinking、tool use、vision 等高级特性,体验最佳。

Step 3: 验证配置

1
openclaw status

看到模型正确加载就 OK 了。

Step 4: 模型切换

OfoxAI 支持的模型命名格式是 <provider>/<model>

模型OfoxAI 标识
GPT-4 Turboopenai/gpt-4-turbo
GPT-4oopenai/gpt-4o
Claude Opus 4.5anthropic/claude-opus-4.5
Claude Sonnet 4.5anthropic/claude-sonnet-4.5
Gemini 2.0 Flashgoogle/gemini-2.0-flash
DeepSeek V3deepseek/deepseek-chat

在 OpenClaw 中使用时,加上 ofoxai/ 前缀:

1
2
3
4
5
6
7
8
9
10
{
  agents: {
    defaults: {
      model: {
        primary: "ofoxai/anthropic/claude-opus-4.5",
        fast: "ofoxai/anthropic/claude-sonnet-4.5"
      }
    }
  }
}

四、实际使用体验

用了两周,说几个真实感受:

1. 再也没折腾过代理

这是最爽的。不管在公司、家里、还是咖啡馆,打开电脑就能用。服务器上更是直接跑,零配置。

2. 模型切换丝滑

测试不同模型效果时,以前要改环境变量、换 SDK、重启服务。现在改一个字符串就行:

1
2
3
4
5
6
7
8
# 测试 GPT-4o
openclaw chat --model ofoxai/openai/gpt-4o

# 不行,换 Claude
openclaw chat --model ofoxai/anthropic/claude-opus-4.5

# 想省钱,用 DeepSeek
openclaw chat --model ofoxai/deepseek/deepseek-chat

3. 账单清晰

一个 Dashboard 看所有模型的用量,再也不用三个网站来回切换算总账了。

4. 限流?几乎没遇到

OfoxAI 做了请求池和智能路由,峰值时段的限流问题几乎感受不到。

五、适用场景

什么时候用 OfoxAI + OpenClaw?

适合:

  • 需要同时使用多个厂商的模型
  • 在国内,不想折腾代理
  • 想要统一管理 API 调用和费用
  • 跑批量任务,对限流敏感
  • 想快速对比不同模型的效果

不太适合:

  • 只用单一厂商的模型(直接用官方 SDK 可能更简单)
  • 有严格的数据合规要求,必须直连官方
  • 已经有成熟的自建网关方案

六、总结

作为一个被 LLM API 折磨过的老兵,我现在的 setup 是:

  1. OfoxAI 作为统一 Gateway,解决网络、限流、多账号问题
  2. OpenClaw 作为 AI Agent 工作流平台,跑日常任务
  3. 两者结合,零代理、零限流、一个账单

如果你也受够了配代理、被限流、管理一堆 API Key 的日子,试试 OfoxAI。

注册地址:https://ofox.ai

本文由作者按照 CC BY 4.0 进行授权