欧美成人A片免费|日韩无码一级av|一级黄色大片在线播放|黄片视频在线观看无码|亚洲精品成人无码影视|婷婷五月天视频网站|日韩三级AV在线播放|姓爱av在线婷婷春色五月天|真人全黃色录像免费特黄片|日本无码黄在线观看下载

  • +1

OpenAI推出專為速度優(yōu)化的Codex Spark模型

2026-03-17 12:35
來源:澎湃新聞·澎湃號·湃客
字號

OpenAI最新發(fā)布的GPT-5.3-Codex-Spark模型標(biāo)志著該公司Codex軟件開發(fā)模型系列的一次重要轉(zhuǎn)變,其核心優(yōu)勢聚焦于大幅降低響應(yīng)延遲。

這款模型基于Cerebras公司125千萬億次浮點運算的晶圓級引擎3芯片,專門針對延遲性能與智能程度同等重要甚至更為關(guān)鍵的應(yīng)用場景設(shè)計。在速度表現(xiàn)上,Codex Spark能夠?qū)崿F(xiàn)每秒超過1000個Token的處理能力。

幾天前OpenAI發(fā)布GPT-5.3-Codex時,重點強調(diào)了團(tuán)隊成功將延遲降低25%的成就。然而,雖然標(biāo)準(zhǔn)版模型在長時間編程和智能體任務(wù)方面表現(xiàn)出色(這些場景對延遲要求相對較低),但Codex Spark則專門為快速原型開發(fā)和即時答案獲取而優(yōu)化設(shè)計。

核心設(shè)計理念在于提供兩個互補的模型:一個高速版本用于實時協(xié)作,一個相對較慢的版本處理需要深度推理的長時間運行任務(wù)。

OpenAI指出,新模型最適合對代碼進(jìn)行小規(guī)模、高度精準(zhǔn)的編輯操作。速度優(yōu)勢還帶來另一個顯著好處:模型可以輕松被中斷和重新定向,從而幫助開發(fā)者快速迭代。

然而,由于針對特定使用場景進(jìn)行優(yōu)化,該模型在發(fā)布時僅提供128,000個Token的上下文窗口,并且只支持文本輸入。隨著時間推移,團(tuán)隊計劃為這個高速模型系列增加更多功能,包括更大規(guī)模的模型、更長的上下文長度以及多模態(tài)輸入支持。

公司坦承新模型的性能將不如GPT-5.3-Codex,"但能夠在極短時間內(nèi)完成任務(wù)"。

在標(biāo)準(zhǔn)SWE-Bench Pro基準(zhǔn)測試中,Codex Spark的得分確實顯著低于GPT-5.3-Codex,但它能夠更快速地達(dá)到可用結(jié)果,這對許多應(yīng)用場景來說可能已經(jīng)足夠。

在Terminal-Bench 2.0測試中(該測試評估模型在終端智能體工作流程中的表現(xiàn)),它的得分也明顯低于更大規(guī)模的GPT-5.3-Codex(58.4%對比77.3%)。

GPT-5.3-Codex-Spark層級目前作為研究預(yù)覽版向ChatGPT Pro用戶開放,可通過命令行界面、VS Code和Codex應(yīng)用程序使用(該應(yīng)用下載量已超過100萬次)。部分OpenAI合作伙伴也將通過API獲得Codex Spark的早期訪問權(quán)限。

OpenAI提醒,新Codex Spark模型的容量可能受到限制,可能出現(xiàn)訪問速度較慢和臨時排隊的情況。該模型將有自己的速率限制,使用它不會計入公司的常規(guī)速率限制。

由于尚未通過API提供,OpenAI暫未公布任何定價信息。

使用不同模型層級的概念并非全新想法。Anthropic憑借其三層級模型(Haiku、Sonnet和Opus),以及其他公司長期采用類似方法,主要通過智能程度、速度和定價來區(qū)分模型。OpenAI本身也長期提供其模型的精簡版本。

主要區(qū)別在于,OpenAI還為這個新模型采用了完全不同的硬件平臺。

OpenAI選擇在Cerebras硬件上運行這個模型絕非偶然。2026年初,兩家公司宣布了一項據(jù)報道價值高達(dá)100億美元的多年合作協(xié)議。根據(jù)該協(xié)議,Cerebras將建設(shè)和托管數(shù)據(jù)中心,為OpenAI提供750兆瓦的容量來運行其晶圓級芯片。

與大多數(shù)標(biāo)準(zhǔn)GPU和AI加速器相比,Cerebras的芯片規(guī)模龐大。英偉達(dá)旗艦Blackwell B200加速器擁有2080億個晶體管,而Cerebras芯片擁有4萬億個晶體管,分布在近90萬個核心中。

但這不僅僅是純粹的計算能力。目前,推理的真正瓶頸不是計算而是內(nèi)存帶寬。Cerebras承諾通過使用片上內(nèi)存和高達(dá)每秒27PB的內(nèi)部帶寬來消除這一瓶頸。

在公告中,OpenAI強調(diào)GPU仍然是其訓(xùn)練和推理管道的基礎(chǔ)。但公司也指出,"Cerebras通過在要求極低延遲的工作流程中表現(xiàn)出色來補充這一基礎(chǔ),收緊端到端循環(huán),使Codex在迭代時感覺更加響應(yīng)迅速"。

正如Cerebras首席技術(shù)官兼聯(lián)合創(chuàng)始人Sean Lie所說:"GPT-5.3-Codex Spark最讓我們興奮的是與OpenAI和開發(fā)者社區(qū)合作,探索快速推理的可能性——新的交互模式、新的用例以及根本不同的模型體驗。這個預(yù)覽版只是開始。"

Q&A

Q1:Codex Spark與標(biāo)準(zhǔn)GPT-5.3-Codex有什么區(qū)別?

A:Codex Spark專門針對速度優(yōu)化,能夠?qū)崿F(xiàn)每秒超過1000個Token的處理能力,主要用于快速原型開發(fā)和即時答案獲取。雖然性能不如GPT-5.3-Codex,但能在極短時間內(nèi)完成任務(wù),特別適合需要快速響應(yīng)的場景。

Q2:為什么OpenAI選擇使用Cerebras硬件運行Codex Spark?

A:Cerebras芯片擁有4萬億個晶體管和近90萬個核心,相比英偉達(dá)Blackwell B200的2080億晶體管規(guī)模龐大。更重要的是,它通過片上內(nèi)存和高達(dá)每秒27PB的內(nèi)部帶寬解決了推理過程中的內(nèi)存帶寬瓶頸問題。

Q3:普通用戶如何使用Codex Spark模型?

A:目前GPT-5.3-Codex-Spark作為研究預(yù)覽版向ChatGPT Pro用戶開放,可通過命令行界面、VS Code和Codex應(yīng)用程序使用。由于容量限制,可能出現(xiàn)訪問速度較慢和排隊情況,且尚未通過API提供,暫無定價信息。

    本文為澎湃號作者或機構(gòu)在澎湃新聞上傳并發(fā)布,僅代表該作者或機構(gòu)觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發(fā)布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。

    +1
    收藏
    我要舉報
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網(wǎng)安備31010602000299號

            互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006

            增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116

            ? 2014-2026 上海東方報業(yè)有限公司