【OPENAI】GPT-5.4 mini 与 nano 发布

OpenAI 发布了两款更小更快的 GPT‑5.4 变体:GPT‑5.4 mini 和 GPT‑5.4 nano,面向高并发、低延迟的编码、工具调用和多模态推理场景;mini 在多个基准接近 GPT‑5.4 表现并比 GPT‑5 mini 快超过两倍,nano 提供最低成本与最高吞吐的选择。两款模型已在 API(mini 同时在 Codex 与 ChatGPT 中可用)上线,并提供不同的定价与上下文窗口以适配子代理与实时多模态应用。

概览
– 发布:GPT‑5.4 mini、GPT‑5.4 nano
– 目标场景:编码助手、子代理、高并发 API、电脑使用截图理解与实时多模态应用
– 可用性:GPT‑5.4 mini 在 API、Codex、ChatGPT 可用;GPT‑5.4 nano 仅在 API

主要能力与定位
– GPT‑5.4 mini
– 在代码、推理、多模态与工具调用上显著优于 GPT‑5 mini,且延迟降低 >2x
– 在若干基准(如 SWE‑Bench Pro、OSWorld‑Verified)上接近 GPT‑5.4 的表现
– 支持文本/图片输入、工具调用、函数调用、网页/文件搜索、电脑使用、skills,400k 上下文窗口
– API 定价:$0.75/1M 输入 tokens,$4.50/1M 输出 tokens;在 Codex 中可作为低成本子代理(仅占 GPT‑5.4 配额 30%)
– GPT‑5.4 nano
– 面向对速度与成本敏感的任务(分类、信息抽取、排序、简单编码子任务)
– 相比 GPT‑5 nano 有明显提升
– 仅 API 可用,定价:$0.20/1M 输入 tokens,$1.25/1M 输出 tokens

基准摘要(xhigh 配置,节选)
– 编码:GPT‑5.4 (57.7) > GPT‑5.4 mini (54.4) > GPT‑5.4 nano (52.4) > GPT‑5 mini (45.7)
– 工具调用与多模态:mini 在 Toolathlon、MCP Atlas、OSWorld‑Verified 等任务上明显优于旧的 mini 版本
– 长上下文能力:full GPT‑5.4 领先,mini/nano 在某些长上下文基准上表现下降但仍优于 GPT‑5 mini

系统集成建议
– 子代理架构:采用大模型负责规划/判断、mini/nano 并行处理低推理成本子任务,可提升吞吐与成本效益
– 实时交互:对延迟敏感的编码补全、UI 截图理解、前端生成与调试循环优先使用 mini 或 nano

注意事项
– 延迟与成本为估算,实际表现依赖部署、工具调用时间和输入分布等因素
– 不要将 mini/nano 误认为在所有任务上能替代更大模型;复杂长上下文或最高准确性场景仍倾向使用 GPT‑5.4

这是朝着用小型、高速模型在实际产品中实现高效组合部署的重要一步。

原文链接

Leave a Comment