跳到主要内容
文档

Codex 配置

让 Codex 通过 0-0.pro 使用 OpenAI 作为模型提供商(wire_api = responses)。

适用范围

兼容
本配置适用于所有读取标准 ~/.codex 目录的 Codex 客户端,包括所有 VS Code Codex 插件/扩展、Codex CLI 与 Codex App。

1)安装或打开 Codex

安装或打开你正在使用的 Codex 客户端。Codex 会从 ~/.codex 读取共享配置。

2)修改 ~/.codex/config.toml

打开 ~/.codex/config.toml。下面给一个可以直接复制的完整(最小可用)示例:

toml
1model = "gpt-5.5"2model_reasoning_effort = "xhigh"3 4# 新增:通过 0-0.pro 接入 OpenAI 提供商(仅 6 行)5model_provider = "OpenAI"6 7[model_providers.OpenAI]8name = "OpenAI"9base_url = "https://api.0-0.pro/v1"10wire_api = "responses"11requires_openai_auth = true12# 新增结束

如果你已经有自己的配置,只需要在文件顶部附近新增下面 6 行(可以包含 1 行空行)即可:

toml
1model_provider = "OpenAI"2 3[model_providers.OpenAI]4name = "OpenAI"5base_url = "https://api.0-0.pro/v1"6wire_api = "responses"7requires_openai_auth = true
提示
原来的 model model_reasoning_effort 保持不变即可。

3)修改 ~/.codex/auth.json

将你的 Uni API 密钥写入 OPENAI_API_KEY

json
1{2  "OPENAI_API_KEY": "your-api-key"3}

4)重启或重新加载 Codex

重启或重新加载你正在使用的 Codex 客户端:VS Code 插件/扩展请 Reload Window 或重启 VS Code,Codex CLI 请重新启动会话,Codex App 请重新打开应用。

排错

网络
如果 Codex 报 stream disconnected before completion: error sending request for url (https://api.0-0.pro/v1/responses),优先检查本地 VPN 或代理。此类报错通常是本地 VPN 的 60s 空闲超时机制掐断了流式连接;Codex 会重试约 5 次,所以表现出来就是卡住约 5 分钟。

为什么过去的对话丢失了?

Codex 的对话会跟随 model_provider。 数据都在本地,但切换提供商会导致旧会话暂时“不显示”。

如果希望旧会话在新提供商下显示:在 ~/.codex/sessions 目录下找到对应的 .jsonl 文件,把第一行里的 model_provider openai 改为 OpenAI

json
1{ "model_provider": "openai", "...": "..." }{ "model_provider": "OpenAI", "...": "..." }

修改后重启或重新加载当前 Codex 客户端,原来的对话就会重新出现。