文档
Codex 配置
让 Codex 通过 0-0.pro 使用 OpenAI 作为模型提供商(wire_api = responses)。
适用范围
兼容
本配置适用于所有读取标准 ~/.codex 目录的 Codex 客户端,包括所有 VS Code Codex 插件/扩展、Codex CLI 与 Codex App。1)安装或打开 Codex
安装或打开你正在使用的 Codex 客户端。Codex 会从 ~/.codex 读取共享配置。
2)修改 ~/.codex/config.toml
打开 ~/.codex/config.toml。下面给一个可以直接复制的完整(最小可用)示例:
toml
1model = "gpt-5.5"2model_reasoning_effort = "xhigh"3 4# 新增:通过 0-0.pro 接入 OpenAI 提供商(仅 6 行)5model_provider = "OpenAI"6 7[model_providers.OpenAI]8name = "OpenAI"9base_url = "https://api.0-0.pro/v1"10wire_api = "responses"11requires_openai_auth = true12# 新增结束如果你已经有自己的配置,只需要在文件顶部附近新增下面 6 行(可以包含 1 行空行)即可:
toml
1model_provider = "OpenAI"2 3[model_providers.OpenAI]4name = "OpenAI"5base_url = "https://api.0-0.pro/v1"6wire_api = "responses"7requires_openai_auth = true提示
原来的 model 与 model_reasoning_effort 保持不变即可。3)修改 ~/.codex/auth.json
将你的 Uni API 密钥写入 OPENAI_API_KEY:
json
1{2 "OPENAI_API_KEY": "your-api-key"3}4)重启或重新加载 Codex
重启或重新加载你正在使用的 Codex 客户端:VS Code 插件/扩展请 Reload Window 或重启 VS Code,Codex CLI 请重新启动会话,Codex App 请重新打开应用。
排错
网络
如果 Codex 报 stream disconnected before completion: error sending request for url (https://api.0-0.pro/v1/responses),优先检查本地 VPN 或代理。此类报错通常是本地 VPN 的 60s 空闲超时机制掐断了流式连接;Codex 会重试约 5 次,所以表现出来就是卡住约 5 分钟。为什么过去的对话丢失了?
Codex 的对话会跟随 model_provider。 数据都在本地,但切换提供商会导致旧会话暂时“不显示”。
如果希望旧会话在新提供商下显示:在 ~/.codex/sessions 目录下找到对应的 .jsonl 文件,把第一行里的 model_provider 从 openai 改为 OpenAI:
json
1{ "model_provider": "openai", "...": "..." } → { "model_provider": "OpenAI", "...": "..." }修改后重启或重新加载当前 Codex 客户端,原来的对话就会重新出现。