选择 Codex 模型
Codex 支持多种模型。选模型时,不要只看“哪个最强”,还要看你当前用的是 ChatGPT 登录还是 API key、任务是在本地还是云端、你更在意质量还是速
Codex 支持多种模型。选模型时,不要只看“哪个最强”,还要看你当前用的是 ChatGPT 登录还是 API key、任务是在本地还是云端、你更在意质量还是速度。
推荐模型
下面是 Codex 官方当前推荐的模型。
| 模型 | 适合场景 | 能力 | 速度 | CLI / SDK | App / IDE extension | Codex Cloud | ChatGPT Credits | API Access |
|---|---|---|---|---|---|---|---|---|
gpt-5.5 | OpenAI 最新 frontier model(前沿模型),适合复杂 coding(编程)、computer use(电脑操作)、knowledge work(知识工作)和 research workflows(研究工作流) | 5/5 | 3/5 | 支持 | 支持 | 不支持 | 支持 | 不支持 |
gpt-5.4 | 面向专业工作的 flagship frontier model(旗舰前沿模型),把 gpt-5.3-codex 的编码能力与更强的 reasoning(推理)、tool use(工具使用)和 agentic workflows(Agent 工作流)结合起来 | 5/5 | 3/5 | 支持 | 支持 | 不支持 | 支持 | 支持 |
gpt-5.4-mini | 快速、成本更低的 mini model,适合响应要求高的轻量 coding tasks(编程任务)和 subagents(子 Agent) | 3/5 | 4/5 | 支持 | 支持 | 不支持 | 支持 | 支持 |
gpt-5.3-codex | 面向复杂 software engineering(软件工程)的高能力 coding model。它的 coding 能力也支撑了 gpt-5.4 | 5/5 | 3/5 | 支持 | 支持 | 支持 | 支持 | 支持 |
gpt-5.3-codex-spark | text-only research preview model(仅文本研究预览模型),针对近乎即时的 real-time coding iteration(实时编程迭代)优化,面向 ChatGPT Pro 用户 | 3/5 | 5/5 | 支持 | 支持 | 不支持 | 不支持 | 不支持 |
如果你第一次在 Codex 里选模型,优先从 gpt-5.5 开始,前提是它已经出现在你的 model picker(模型选择器)里。它最适合复杂编码、电脑操作、知识工作和研究型工作流。
gpt-5.5 目前在 Codex 中通过 ChatGPT 登录可用;如果你使用 API key authentication(API key 认证),它不可用。官方在 rollout(逐步放量)期间建议:如果你的账号暂时看不到 gpt-5.5,继续使用 gpt-5.4。
如果你更在意速度、成本,或者要跑较轻的任务和 subagents,可以选择 gpt-5.4-mini。如果你是 ChatGPT Pro 用户,并且需要近乎即时的 coding iteration,可以试用 research preview 阶段的 gpt-5.3-codex-spark。
备选模型
| 模型 | 适合场景 | 能力 | 速度 | CLI / SDK | App / IDE extension | Codex Cloud | ChatGPT Credits | API Access |
|---|---|---|---|---|---|---|---|---|
gpt-5.2 | previous general-purpose model(上一代通用模型),可用于 coding 和 agentic tasks,也适合需要更深 deliberation(仔细推演)的困难 debugging(调试)任务 | 4/5 | 3/5 | 支持 | 支持 | 不支持 | 支持 | 支持 |
gpt-5.2 不是当前首选,但在某些账号、环境或迁移过程中仍可能作为可用选项出现。
其他模型
如果你用 ChatGPT 登录,Codex 在官方推荐模型上效果最好。
如果你的用例比较特殊,也可以把 Codex 指向任何支持以下 API 的模型或 provider(模型供应商):
- Chat Completions API:https://platform.openai.com/docs/api-reference/chat
- Responses API:https://platform.openai.com/docs/api-reference/responses
需要注意:Chat Completions API support(Chat Completions API 支持)已经 deprecated(弃用),并会在未来的 Codex releases(版本)中移除。新接入时优先考虑 Responses API。
配置模型
配置默认本地模型
Codex CLI 和 IDE extension 使用同一个 config.toml 配置文件:
https://developers.openai.com/codex/config-basic
如果要指定模型,在 config.toml 里加入 model:
model = "gpt-5.5"如果你的账号还没有 gpt-5.5,把它改成:
model = "gpt-5.4"如果不显式指定模型,Codex app、CLI 或 IDE extension 会默认使用官方推荐模型。
临时切换本地模型
在 Codex CLI 的 active thread(当前线程)里,可以用 /model 命令切换模型。
在 IDE extension 里,可以用输入框下方的 model selector(模型选择器)切换模型。
如果要用指定模型启动新的 Codex CLI thread,或者要给 codex exec 指定模型,可以用 --model 或 -m:
codex -m gpt-5.5云端任务的模型
Codex cloud tasks(云端任务)目前不能修改默认模型。