欧美成人A片免费|日韩无码一级av|一级黄色大片在线播放|黄片视频在线观看无码|亚洲精品成人无码影视|婷婷五月天视频网站|日韩三级AV在线播放|姓爱av在线婷婷春色五月天|真人全黃色录像免费特黄片|日本无码黄在线观看下载

  • +1

終結(jié)英偉達的統(tǒng)治?全球科技巨頭紛紛布局自研AI芯片

澎湃新聞記者 邵文
2023-05-21 12:22
來源:澎湃新聞
? 未來2% >
字號

·在這場AI芯片競賽中,亞馬遜似乎占據(jù)了先機,已擁有兩款A(yù)I專用芯片——訓(xùn)練芯片Trainium和推理芯片Inferentia,谷歌則擁有第四代張量處理單元 (TPU)。相比之下,微軟等還在很大程度上依賴于英偉達、AMD和英特爾等芯片制造商的現(xiàn)成或定制硬件。

本周,挑戰(zhàn)英偉達AI芯片王者地位的競爭又加速了。

北京時間5月19日,Meta公司披露其正在構(gòu)建首款專門用于運行AI模型的定制芯片——MTIA(Meta Training and Inference Accelerator)芯片,使用名為RISC-V的開源芯片架構(gòu),預(yù)計于2025年問世。

同樣在這周,微軟發(fā)布了一系列芯片相關(guān)招聘信息,其中一則寫道,“我們正在尋找一名首席設(shè)計工程師在充滿活力的微軟AISoC(人工智能芯片及解決方案)團隊中工作?!睋?jù)稱,該團隊正在研究“能夠以極其高效的方式執(zhí)行復(fù)雜和高性能功能的尖端人工智能設(shè)計”。換句話說,微軟某種程度上已把自己的未來寄托在人工智能開發(fā)機構(gòu)OpenAI的一系列技術(shù)上,想要制造出比現(xiàn)成的GPU(圖形處理器)和相關(guān)加速器更高效的芯片來運行這些模型。

當(dāng)下,英偉達還是當(dāng)之無愧的“AI算力王者”,A100、H100系列芯片占據(jù)金字塔頂尖位置,是ChatGPT這樣的大型語言模型背后的動力來源。然而,不管是為了降低成本,還是減少對英偉達的依賴、提高議價能力,科技巨頭們也都紛紛下場自研AI芯片。

粗略統(tǒng)計,微軟、谷歌、亞馬遜這3家公司已經(jīng)推出或計劃發(fā)布8款服務(wù)器和AI芯片。

粗略統(tǒng)計,微軟、谷歌、亞馬遜這3家公司已經(jīng)推出或計劃發(fā)布8款服務(wù)器和AI芯片。弗雷斯特研究公司(Forrester)主管格倫·奧唐奈(Glenn O'Donnell)認為,“如果你能制造出針對人工智能進行優(yōu)化的芯片,那么你就會取得巨大的勝利。”

根據(jù)目前幾家海外科技巨頭在AI芯片方面的最新動作和進展,總體看來,在這場競賽中,亞馬遜似乎占據(jù)了先機,已擁有兩款A(yù)I專用芯片——訓(xùn)練芯片Trainium和推理芯片Inferentia,谷歌則擁有第四代TPU(張量處理單元)。相比之下,微軟等還在很大程度上依賴于英偉達、AMD和英特爾等芯片制造商的現(xiàn)成或定制硬件。

谷歌:最早自研TPU芯片

早在2013年,谷歌就已秘密研發(fā)一款專注于AI機器學(xué)習(xí)算法的芯片,并將其用在內(nèi)部的云計算數(shù)據(jù)中心中,以取代英偉達的GPU。2016年5月,這款自研芯片公諸于世,即TPU。TPU可以為深度學(xué)習(xí)模型執(zhí)行大規(guī)模矩陣運算,例如用于自然語言處理、計算機視覺和推薦系統(tǒng)的模型,其最初專為谷歌的超級業(yè)務(wù)云計算數(shù)據(jù)中心而生。

2020年,谷歌實際上已在其數(shù)據(jù)中心部署了人工智能芯片TPU v4。不過直到今年4月4日,谷歌才首次公開了技術(shù)細節(jié):相比TPU v3,TPU v4性能提升2.1倍。

基于TPU v4的超級計算機擁有4096塊芯片,整體速度提高了約10倍。谷歌稱,對于類似大小的系統(tǒng),谷歌能做到比Graphcore IPU Bow(Intelligence Processing Unit,智能處理單元)快4.3-4.5倍,比英偉達A100快1.2-1.7倍,功耗低1.3-1.9倍。

在谷歌發(fā)布TPU v4的技術(shù)細節(jié)后,英偉達也非常巧合地發(fā)布了一篇博客文章。在文章中,創(chuàng)始人兼CEO黃仁勛指出A100芯片是3年前發(fā)布的,最近發(fā)布的H100芯片提供的性能比A100高出四倍。

目前,谷歌已將負責(zé)AI芯片的工程團隊轉(zhuǎn)移到了谷歌云,旨在提高谷歌云出售AI芯片給租用其服務(wù)器的公司的能力,從而與更大的競爭對手微軟和亞馬遜云科技(AWS)相抗衡。今年3月,生成式人工智能明星企業(yè)Midjourney選擇了谷歌云,稱其正在使用基于云的TPU來訓(xùn)練機器學(xué)習(xí)模型。

亞馬遜:訓(xùn)練和推理芯片占據(jù)先機

從2013年推出首顆Nitro1芯片至今,AWS是最先涉足自研芯片的云廠商,已擁有網(wǎng)絡(luò)芯片、服務(wù)器芯片、人工智能機器學(xué)習(xí)自研芯片3條產(chǎn)品線。

2018年初,科技媒體Information爆料亞馬遜已經(jīng)開始設(shè)計定制AI芯片。

AWS自研AI芯片版圖包括推理芯片Inferentia和訓(xùn)練芯片Trainium。2018年底,AWS推出自研AI推理芯片Inferentia,可以以低成本在云端運行圖像識別、語音識別、自然語言處理、個性化和欺詐檢測等大規(guī)模機器學(xué)習(xí)推理應(yīng)用程序。

“運行機器學(xué)習(xí)的速度和成本——最理想的是深度學(xué)習(xí)——是企業(yè)的競爭優(yōu)勢。速度優(yōu)勢將決定企業(yè)的成敗,這種速度只能通過定制硬件來實現(xiàn),Inferentia是AWS進入這個游戲的第一步?!毖芯繖C構(gòu)Constellation Research的分析師霍爾格·穆勒(Holger Mueller)在當(dāng)時表示,谷歌在TPU基礎(chǔ)設(shè)施方面有2-3年的領(lǐng)先優(yōu)勢。

2020年底,AWS推出專用于訓(xùn)練機器學(xué)習(xí)模型的Trainium?!拔覀冎牢覀兿肜^續(xù)提高機器學(xué)習(xí)訓(xùn)練的性價比,所以我們將不得不投資自己的芯片?!盇WS首席執(zhí)行官安迪·賈西(Andy Jassy)在發(fā)布會當(dāng)天稱。

2023年初,專為人工智能打造的Inferentia 2發(fā)布,將計算性能提高了三倍,加速器總內(nèi)存提高了四分之一,吞吐量提高了四分之一,延遲提高了十分之一。Inf2實例(可通過芯片之間的直接超高速連接支持分布式推理)最多可支持1750億個參數(shù),這使其成為大規(guī)模模型推理的有力競爭者。

在亞馬遜、微軟和谷歌這三家中,亞馬遜是唯一一家在服務(wù)器中提供兩種類型芯片(標(biāo)準計算芯片和用于訓(xùn)練與運行機器學(xué)習(xí)模型的專用芯片)的云提供商,其在2015年收購以色列芯片設(shè)計公司Annapurna Labs為這些努力奠定了基礎(chǔ)。

今年5月初,亞馬遜CFO布萊恩·奧爾薩夫斯基(Brian Olsavsky)在財報電話會議上告訴投資者,該公司計劃將支出從零售業(yè)務(wù)轉(zhuǎn)移到AWS,部分原因是為了投資支持ChatGPT等應(yīng)用所需的基礎(chǔ)設(shè)施。亞馬遜的一位發(fā)言人拒絕詳細說明這筆錢將花在什么地方,但根據(jù)公司年報,其基礎(chǔ)設(shè)施成本包括芯片。

微軟:用Athena替代昂貴的A100/H100

4月18日,科技媒體The Information報道稱,微軟正在秘密研發(fā)自己的AI芯片,代號雅典娜(Athena)。該芯片由臺積電代工,采用5nm先進制程,計劃最早于明年推出。

這篇報道稱,微軟自2019年以來就一直在開發(fā)一款定制的專用芯片,用于為大型語言模型提供動力,目前已在測試階段。Athena的首個目標(biāo)是為OpenAI提供算力引擎,以替代昂貴的英偉達A100/H100。如果明年大規(guī)模推出,Athena將允許微軟內(nèi)部和OpenAI的團隊同時訓(xùn)練和推理模型。

SemiAnalysis的分析師迪倫·帕特爾(Dylan Patel)表示,開發(fā)類似于雅典娜的芯片可能每年需要花費1億美元左右,ChatGPT每天的運營成本約70萬美元,大部分成本來源于昂貴的服務(wù)器,如果雅典娜芯片與英偉達的產(chǎn)品擁有同等競爭力,每個芯片的成本將可以降低三分之一。

微軟官網(wǎng)的招聘信息。

從微軟本周公布的一系列招聘信息看,該公司對定制芯片的興趣超越了AI加速器。據(jù)其尋找設(shè)計驗證工程師的招聘帖,該職位所屬的硅計算開發(fā)團隊將研究針對云工作負載的SoC(系統(tǒng)級芯片,也稱片上系統(tǒng))設(shè)計,這表明微軟正在考慮采用類似于亞馬遜Graviton系列的定制處理器。

微軟還在微軟云的硬件系統(tǒng)和基礎(chǔ)設(shè)施部門招聘了一名DPU(數(shù)據(jù)處理單元)的硅工程師和一名封裝設(shè)計工程師。這并不令人驚訝,因為微軟在1月收購了DPU供應(yīng)商Fungible。與此同時,后一個職位將負責(zé)“為各種數(shù)據(jù)中心產(chǎn)品領(lǐng)域”的“高性能計算芯片設(shè)計提供先進的封裝解決方案”,這也表明微軟的目標(biāo)是跟隨亞馬遜的腳步,為各種計算應(yīng)用構(gòu)建定制芯片。

Meta:控制堆棧的每一層

Meta在采用AI友好的硬件系統(tǒng)方面歷來進展緩慢,這阻礙了其與谷歌和微軟等競爭對手保持同步的能力。直到2022年,Meta還主要使用CPU(中央處理器)和專為加速AI算法而設(shè)計的定制芯片組合來運行其AI工作負載。對于這類任務(wù)來說,CPU的效率往往不如GPU。后來,Meta取消了于2022年大規(guī)模推出定制芯片的計劃,轉(zhuǎn)而訂購了價值數(shù)十億美元的英偉達GPU。

為了扭轉(zhuǎn)局面,Meta已經(jīng)在開發(fā)內(nèi)部芯片,并于5月19日公布了AI訓(xùn)練與推理芯片項目,稱其為“針對推理工作負載的內(nèi)部定制加速器芯片系列”?!盀榱嗽谖覀兊闹匾ぷ髫撦d中獲得更高水平的效率和性能,我們需要一個為模型、軟件堆棧和系統(tǒng)硬件共同設(shè)計的定制解決方案。”Meta基礎(chǔ)設(shè)施副總裁亞歷克西斯·比約林(Alexis Bjorlin)在接受采訪時稱。

據(jù)介紹,MTIA芯片的功耗僅為25瓦,占英偉達等市場領(lǐng)先供應(yīng)商芯片功耗的一小部分,并使用了RISC-V(第五代精簡指令處理器)開源架構(gòu)。

Meta稱,它在2020年創(chuàng)建了第一代MTIA——MTIA v1,基于7納米工藝。在其設(shè)計的基準測試中,MITA芯片在處理 “低復(fù)雜性”和“中等復(fù)雜度”的AI模型時比GPU更高效。

值得注意的是,Meta于5月初收購了英國AI芯片獨角獸Graphcore的AI網(wǎng)絡(luò)技術(shù)團隊。Graphcore創(chuàng)始人奈杰爾·圖恩(Nigel Toon)曾公開表示,Graphcore不屬于CPU、GPU和ASIC(專用計算芯片)中的任何一類,而是一款全新的,專為AI加速而生的處理器:既有極高的運算能力以處理高性能計算業(yè)務(wù)(HPC),又和GPU一樣可編程,以滿足不同的場景需求。

“構(gòu)建我們自己的硬件功能使我們能夠控制堆棧的每一層,從數(shù)據(jù)中心設(shè)計到訓(xùn)練框架?!北燃s林說,“需要這種水平的垂直整合才能大規(guī)模突破人工智能研究的界限?!?/p>

    責(zé)任編輯:鄭潔
    校對:劉威
    澎湃新聞報料:021-962866
    澎湃新聞,未經(jīng)授權(quán)不得轉(zhuǎn)載
    +1
    收藏
    我要舉報
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網(wǎng)安備31010602000299號

            互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006

            增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116

            ? 2014-2025 上海東方報業(yè)有限公司