咨询服务热线:400-099-8848
OpenAI发布GPT-5.3-Codex-Spark |
| 发布时间:2026-02-14 文章来源:本站 浏览次数:6 |
OpenAI正式发布新一代代码模型GPT-5.3-Codex-Spark,并宣布该模型由Cerebras供给算力支撑,现已以研究预览方式上线。这是OpenAI与Cerebras合作的首个揭露效果,标志着晶圆级算力架构在干流AI编程场景中的首次规模化落地。 Codex-Spark定坐落“实时协作式软件开发”。在当时Agent化编程趋势下,AI可以接连数小时甚至数天自主执行使命,但长等待时刻与反应推迟,也或许削弱开发者的参与感与控制力。Codex-Spark强调“呼应速度与智能平等重要”,支撑开发者在实时交互中持续注入规划判断与方向决议计划。 在性能层面,Codex-Spark运转于Cerebras Wafer-Scale Engine架构之上,推理速度超过每秒1000 tokens,实现近乎即时的代码反应。在SWE-Bench Pro与Terminal-Bench 2.0等Agent工程基准测试中,该模型在完成时刻明显缩短的同时,才能表现优于GPT-5.1-Codex-mini。 模型才能侧重于精准代码编辑、计划修订与上下文理解,适用于代码库问答、界面布局调整、样式优化与交互测试等高频开发使命。比较长时刻自主运转的Agent形式,Codex-Spark更强调“人在回路中”的协同开发体会。 OpenAI工业计算负责人Sachin Katti表示,引进晶圆级算力为低推迟场景供给了新的渠道才能,使Codex在对推迟敏感的工作流中保持高度呼应性。团队将基于开发者反应持续优化多算力体系的协同调度才能。 从硬件层面看,Cerebras的Wafer-Scale Engine具有业界大的片上内存容量,可在单用户场景下实现数千tokens每秒的高速推理。该架构可横向扩展至数千套系统,构成多TB级高速内存池,为万亿参数级模型的训练与推理供给支撑。OpenAI预计将在2026年将该超高速推理才能扩展至更大规模的前沿模型。 现在,Codex-Spark已向ChatGPT Pro用户敞开,可通过Codex使用、CLI及VS Code扩展使用;API接口将逐渐向部分规划合作伙伴敞开。随着高性能推理基础设施的持续升级,实时AI编程正迈入更低推迟、更强可控的新阶段。 |