官方教程中文版模型、价格与效率
提升 Codex 响应速度
Codex 的 speed(速度)不是只有“换更快模型”一种方式。官方文档里有两个概念需要分清:
Codex 的 speed(速度)不是只有“换更快模型”一种方式。官方文档里有两个概念需要分清:
- Fast mode(快速模式):让支持的模型更快响应,但按更高倍率消耗 credits。
- Codex-Spark:一个独立模型选择,速度更快、能力更轻,且有自己的 usage limits。
Fast mode 快速模式
Codex 支持用更多 credits 换取更快模型速度。
Fast mode 会把支持模型的速度提升到 1.5x,同时比 Standard mode(标准模式)消耗更多 credits。
当前 Fast mode 支持:
| Model | Speed | Credit consumption |
|---|---|---|
| GPT-5.5 | 1.5x | 2.5x Standard rate |
| GPT-5.4 | 1.5x | 2x Standard rate |
在 CLI 中可以用下面三个命令切换或查看状态:
/fast on
/fast off
/fast status如果你希望默认启用 Fast mode,可以在 config.toml 中持久化配置:
service_tier = "fast"
[features]
fast_mode = trueFast mode 可用于:
- Codex IDE extension
- Codex CLI
- Codex app
前提是你使用 ChatGPT 登录。
如果你使用 API key,Codex 会走 standard API pricing(标准 API 价格),不能使用 Fast mode credits。
官方示例视频:
https://developers.openai.com/videos/codex/fast-mode-demo.mp4
Codex-Spark
GPT-5.3-Codex-Spark 是一个独立的 Codex 模型。它速度更快、能力更轻,目标是 near-instant, real-time coding iteration(近乎即时的实时编程迭代)。
它和 Fast mode 的区别是:
| 项 | Fast mode | GPT-5.3-Codex-Spark |
|---|---|---|
| 本质 | 给支持的模型加速 | 一个独立模型 |
| 代价 | 按更高倍率消耗 credits | 使用自己的 usage limits |
| 适合 | 你仍想用 GPT-5.5 或 GPT-5.4,但希望更快 | 日常快速 coding iteration |
| 可用范围 | ChatGPT 登录下的 IDE extension、CLI、app | research preview 阶段仅 ChatGPT Pro |
官方说明:在 research preview 阶段,Codex-Spark 只面向 ChatGPT Pro subscribers(ChatGPT Pro 订阅用户)开放。