告别代理、限流和天价账单:用 OpenClaw 接入 OfoxAI 统一 LLM Gateway
“我只想调个 API,不想当网络工程师。” —— 每个被代理折磨过的 AI 开发者
一、先吐槽:现在用官方 API 有多痛
作为一个天天跟 LLM 打交道的工程师,我来数数这一年踩过的坑:
1. 代理地狱
想用 OpenAI?先配代理。Claude?代理。Gemini?代理。
1
2
3
4
5
# 我的 .zshrc 已经被这些东西污染了
export HTTP_PROXY=http://127.0.0.1:7890
export HTTPS_PROXY=http://127.0.0.1:7890
export ALL_PROXY=socks5://127.0.0.1:7890
# 然后还要设置 no_proxy 避免本地请求走代理...
每次换环境、换机器、换网络,都要折腾一遍。服务器上更惨——要么自己搭代理,要么买香港/新加坡的机器专门中转。
时间成本 ≈ ∞
2. 限流噩梦
终于能调通了?恭喜你,开始享受限流的快乐:
| 厂商 | 限制 | 实际体验 |
|---|---|---|
| OpenAI | TPM + RPM + 每日额度 | 跑个批量任务动不动 429 |
| Claude | RPM 限制,Opus 更严 | 高峰期排队像春运 |
| Gemini | 免费版直接不让用 | Pro 版也限得厉害 |
我在跑一个代码审查任务时,被 OpenAI 限流 12 次。12 次!每次等 60 秒冷却,光等待就浪费了 12 分钟。
3. 账单爆炸
| 模型 | 输入 (1M tokens) | 输出 (1M tokens) |
|---|---|---|
| GPT-4 Turbo | $10 | $30 |
| Claude Opus | $15 | $75 |
| Gemini Ultra | $7 | $21 |
一个不小心,月底账单四位数。我见过有人调试代码时忘关循环,一晚上烧了 $800。
4. 多账号管理
想同时用 OpenAI + Claude + Gemini?准备好:
- 3 个 API Key
- 3 套 SDK
- 3 个计费账户
- 3 套限流策略
- 3 个 Dashboard 来回切换查用量
1
2
3
4
5
6
7
8
# 我之前的代码长这样
if model.startswith("gpt"):
client = OpenAI(api_key=os.getenv("OPENAI_API_KEY"))
elif model.startswith("claude"):
client = Anthropic(api_key=os.getenv("ANTHROPIC_API_KEY"))
elif model.startswith("gemini"):
client = genai.Client(api_key=os.getenv("GOOGLE_API_KEY"))
# ... 写到怀疑人生
二、找了一圈,发现了 OfoxAI
在被折磨了无数次之后,我开始找有没有统一的解决方案。
试过几个:
- OpenRouter:能用,但还是要自己处理代理问题,而且部分模型延迟较高
- AWS Bedrock:国内访问还是需要代理,而且配置复杂得让人想哭
- Azure OpenAI:备案、审核、合规……光流程就走了两周
最后发现了 OfoxAI。
为什么选 OfoxAI?
1. 一个 API,50+ 模型
OfoxAI 同时支持 Anthropic 原生协议 和 OpenAI 兼容协议。推荐使用 Anthropic 协议,能完整支持 Claude 的所有特性(extended thinking、tool use 等):
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
from anthropic import Anthropic
client = Anthropic(
base_url="https://api.ofox.ai/anthropic",
api_key="<YOUR_OFOXAI_KEY>"
)
# 用 Claude Opus
response = client.messages.create(
model="anthropic/claude-opus-4.5",
max_tokens=4096,
messages=[{"role": "user", "content": "Hello!"}]
)
# 切换到 Sonnet,只改一个参数
response = client.messages.create(
model="anthropic/claude-sonnet-4.5",
max_tokens=4096,
messages=[{"role": "user", "content": "Hello!"}]
)
一个 endpoint,一个 API key,所有模型。
2. 原生云厂渠道
这是我最看重的——OfoxAI 不是野路子代理,用的是官方云厂的原生 API 渠道。意味着:
- 稳定性有保障
- 不会被官方封杀
- 响应延迟跟直连差不多
3. 国内直连
不!需!要!代!理!
1
2
3
4
5
6
7
8
9
10
# 再也不用设这些了
# export HTTP_PROXY=...
# export HTTPS_PROXY=...
# 直接调(Anthropic 协议)
curl https://api.ofox.ai/anthropic/v1/messages \
-H "x-api-key: $OFOXAI_API_KEY" \
-H "anthropic-version: 2023-06-01" \
-H "Content-Type: application/json" \
-d '{"model": "anthropic/claude-sonnet-4.5", "max_tokens": 1024, "messages": [{"role": "user", "content": "Hi"}]}'
4. 统一计费,更便宜
一个账户管理所有模型的用量和费用。而且因为批量采购,价格比官方直接买还便宜。
三、OpenClaw 接入 OfoxAI 实战
好了,吐槽完了,讲正事。作为 OpenClaw 的重度用户,我来演示怎么接入 OfoxAI。
Step 1: 获取 OfoxAI API Key
去 https://ofox.ai 注册,在控制台创建一个 API Key。
Step 2: 配置 OpenClaw
编辑 OpenClaw 配置文件(通常在 ~/.openclaw/config.json5):
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
{
// 设置 OfoxAI 的环境变量
env: {
OFOXAI_API_KEY: "your-ofoxai-api-key-here"
},
// 配置 OfoxAI 作为 provider(使用 Anthropic 协议)
providers: {
ofoxai: {
type: "anthropic", // 推荐使用 Anthropic 原生协议
baseURL: "https://api.ofox.ai/anthropic",
apiKeyEnv: "OFOXAI_API_KEY"
}
},
// 设置默认模型
agents: {
defaults: {
model: {
primary: "ofoxai/anthropic/claude-opus-4.5"
}
}
}
}
为什么用 Anthropic 协议? OpenClaw 底层就是基于 Claude 构建的,使用 Anthropic 原生协议能完整支持 extended thinking、tool use、vision 等高级特性,体验最佳。
Step 3: 验证配置
1
openclaw status
看到模型正确加载就 OK 了。
Step 4: 模型切换
OfoxAI 支持的模型命名格式是 <provider>/<model>:
| 模型 | OfoxAI 标识 |
|---|---|
| GPT-4 Turbo | openai/gpt-4-turbo |
| GPT-4o | openai/gpt-4o |
| Claude Opus 4.5 | anthropic/claude-opus-4.5 |
| Claude Sonnet 4.5 | anthropic/claude-sonnet-4.5 |
| Gemini 2.0 Flash | google/gemini-2.0-flash |
| DeepSeek V3 | deepseek/deepseek-chat |
在 OpenClaw 中使用时,加上 ofoxai/ 前缀:
1
2
3
4
5
6
7
8
9
10
{
agents: {
defaults: {
model: {
primary: "ofoxai/anthropic/claude-opus-4.5",
fast: "ofoxai/anthropic/claude-sonnet-4.5"
}
}
}
}
四、实际使用体验
用了两周,说几个真实感受:
1. 再也没折腾过代理
这是最爽的。不管在公司、家里、还是咖啡馆,打开电脑就能用。服务器上更是直接跑,零配置。
2. 模型切换丝滑
测试不同模型效果时,以前要改环境变量、换 SDK、重启服务。现在改一个字符串就行:
1
2
3
4
5
6
7
8
# 测试 GPT-4o
openclaw chat --model ofoxai/openai/gpt-4o
# 不行,换 Claude
openclaw chat --model ofoxai/anthropic/claude-opus-4.5
# 想省钱,用 DeepSeek
openclaw chat --model ofoxai/deepseek/deepseek-chat
3. 账单清晰
一个 Dashboard 看所有模型的用量,再也不用三个网站来回切换算总账了。
4. 限流?几乎没遇到
OfoxAI 做了请求池和智能路由,峰值时段的限流问题几乎感受不到。
五、适用场景
什么时候用 OfoxAI + OpenClaw?
适合:
- 需要同时使用多个厂商的模型
- 在国内,不想折腾代理
- 想要统一管理 API 调用和费用
- 跑批量任务,对限流敏感
- 想快速对比不同模型的效果
不太适合:
- 只用单一厂商的模型(直接用官方 SDK 可能更简单)
- 有严格的数据合规要求,必须直连官方
- 已经有成熟的自建网关方案
六、总结
作为一个被 LLM API 折磨过的老兵,我现在的 setup 是:
- OfoxAI 作为统一 Gateway,解决网络、限流、多账号问题
- OpenClaw 作为 AI Agent 工作流平台,跑日常任务
- 两者结合,零代理、零限流、一个账单
如果你也受够了配代理、被限流、管理一堆 API Key 的日子,试试 OfoxAI。
注册地址:https://ofox.ai