GET
/v1/models列出可用模型
返回当前 API Key 可用的 OpenAI 兼容模型列表。
bash
1curl "$UNI_API_BASE_URL/models" \2 -H "Authorization: Bearer $UNI_API_KEY"本站 OpenAI 兼容 API 的全部公开 cURL 请求示例。
下面的示例默认 Base URL 已包含 /v1。先在控制台创建 API Key,再导出环境变量运行请求。
1export UNI_API_BASE_URL="https://api.0-0.pro/v1"2export UNI_API_KEY="<YOUR_API_KEY>"/v1/models返回当前 API Key 可用的 OpenAI 兼容模型列表。
1curl "$UNI_API_BASE_URL/models" \2 -H "Authorization: Bearer $UNI_API_KEY"/v1/models/{model}检查某个模型是否对当前工作区与分组可用。
1curl "$UNI_API_BASE_URL/models/gpt-5.5" \2 -H "Authorization: Bearer $UNI_API_KEY"/v1/chat/completionsOpenAI 兼容的对话生成接口,支持普通与流式响应。
1curl "$UNI_API_BASE_URL/chat/completions" \2 -H "Authorization: Bearer $UNI_API_KEY" \3 -H "Content-Type: application/json" \4 -d '{5 "model": "gpt-5.5",6 "messages": [{"role":"user","content":"你好"}]7 }'/v1/responses透传 Responses API 请求到上游,同时由 Uni API 记录 usage 与延迟。
1curl "$UNI_API_BASE_URL/responses" \2 -H "Authorization: Bearer $UNI_API_KEY" \3 -H "Content-Type: application/json" \4 -d '{5 "model": "gpt-5.5",6 "input": "用一句话总结请求可观测性。"7 }'/v1/responses/compact面向上游上下文压缩流程的透传端点。
1curl "$UNI_API_BASE_URL/responses/compact" \2 -H "Authorization: Bearer $UNI_API_KEY" \3 -H "Content-Type: application/json" \4 -d '{5 "model": "gpt-5.5",6 "input": "把上一轮对话压缩成可持久保存的上下文。"7 }'/v1/images/generations把图片生成请求转发到指定上游模型。
1curl "$UNI_API_BASE_URL/images/generations" \2 -H "Authorization: Bearer $UNI_API_KEY" \3 -H "Content-Type: application/json" \4 -d '{5 "model": "gpt-image-2",6 "prompt": "一个半透明 API 网关立方体的精细产品渲染图",7 "size": "1024x1024",8 "n": 19 }'/v1/images/editsMultipart 图片编辑请求;JSON 与 multipart body 都会转发到上游。
1curl -X POST "$UNI_API_BASE_URL/images/edits" \2 -H "Authorization: Bearer $UNI_API_KEY" \3 -F model=gpt-image-2 \4 -F prompt="把产品渲染图调亮" \5 -F [email protected]