2026 年 3 月 18 日消息,OpenAI 于 3 月 17 日正式推出旗下迄今最强大的小型 AI 模型 GPT-5.4 mini 与 GPT-5.4 nano,两款模型均专为高频且对延迟敏感的任务设计。官方表示,在代码助手、系统截图解析、实时图像推理等低延迟要求场景中,响应迅速且能可靠调用工具的小型模型,实际使用价值优于大型模型。
两款新模型均继承了 GPT-5.4 的核心优势,同时针对高频工作负载完成专项优化,旨在通过更快的响应速度和更高的运行效率,提升各类产品的 AI 使用体验。
一、GPT-5.4 mini:性能逼近满血版,多场景高效适配
GPT-5.4 mini 在编写代码、逻辑推理、多模态理解及工具调用等核心能力上,表现远超上一代 GPT-5 mini,运行速度提升 2 倍以上,且在 SWE-Bench Pro、OSWorld-Verified 等多项权威基准测试中,成绩已无限接近体积更大的 GPT-5.4 满血版。在编码领域,其 SWE-Bench Pro(Public)准确率达 54.4%、Terminal-Bench 2.0 达 60.0%,大幅领先 GPT-5 mini;工具调用方面,t2-bench(telecom)准确率 93.4%,接近 GPT-5.4 的 98.9%;多模态 / 视觉领域,OSWorld-Verified 达 72.1%,与 GPT-5.4 的 75.0% 差距仅 2.9 个百分点。
凭借极低的延迟特性,GPT-5.4 mini 特别适配需要快速迭代的代码工作流,可高效处理精准代码编辑、代码库导航、前端生成等任务;在多模态领域,能快速解析密集的电脑界面截图,出色完成各类计算机操作相关任务,是构建实时计算机使用 AI Agent 的理想选择。
二、GPT-5.4 nano:轻量亲民,主打低成本高速率
GPT-5.4 nano 是目前 OpenAI 轻量级模型中体积最小、价格最亲民的版本,作为 GPT-5 nano 的重大升级版,专为将速度和成本列为首要考量的任务设计。其在 SWE-Bench Pro(Public)中取得 52.4% 的成绩,即便定位轻量,代码能力仍优于上一代 GPT-5 mini。
该模型可被开发者广泛应用于文本分类、数据提取、内容排序等简单高频任务,也可作为处理简单辅助工作的代码子代理(Subagents),在大批量、低复杂度的任务中具备极高的性价比。
三、两款模型的短板:长上下文处理能力有限
两款轻量模型在长上下文处理场景中,与 GPT-5.4 满血版存在明显差距。以 OpenAI MRCR v2 8-needle 测试为例,64K-128K 窗口下 GPT-5.4 mini 准确率 47.7%,而 GPT-5.4 达 86.0%;128K-256K 窗口下差距进一步拉大,二者分别为 33.6% 和 79.3%。这意味着在大规模文档分析、长对话记忆保持等需要超长文本检索和逻辑追踪的场景,GPT-5.4 满血版仍无法替代。
四、开放使用方式与定价
目前两款模型已正式开放使用,接入渠道和定价差异化设计,适配不同用户需求:
- GPT-5.4 mini:全面接入 API、Codex 及 ChatGPT 平台。其 API 版本支持 400k 超大上下文窗口,输入成本为每百万 Token 0.75 美元,输出成本为每百万 Token 4.50 美元;在 Codex 中调用仅消耗 GPT-5.4 额度的 30%;ChatGPT 的 Free 和 Go 用户,可通过平台 “思考(Thinking)” 功能体验该模型。
- GPT-5.4 nano:目前仅通过 API 向开发者提供,定价极具优势,输入成本为每百万 Token 0.20 美元,输出成本为每百万 Token 1.25 美元,是高频简单任务的高性价比选择。