- +1
騰訊開源混元MT翻譯模型系列
騰訊控股有限公司今天開源了一個新的語言模型系列——混元MT系列,該系列專門針對翻譯任務(wù)進行了優(yōu)化。
這家中國科技公司表示,該算法在一個流行的人工智能翻譯基準(zhǔn)測試中顯著超越了谷歌翻譯的表現(xiàn)。
混元MT系列包含四個模型。兩個旗艦?zāi)P突煸狹T-7B和混元MT-Chimera-7B都擁有70億個參數(shù)。此外還有兩個量化或壓縮版本的算法,這些版本通過犧牲一些輸出質(zhì)量來降低內(nèi)存使用量。
騰訊使用四個不同的數(shù)據(jù)集對模型進行初始訓(xùn)練。前兩個數(shù)據(jù)集包含33種語言編寫的文本片段,但不包含任何關(guān)于如何執(zhí)行翻譯的信息。另外兩個數(shù)據(jù)集包含數(shù)百萬個所謂的配對數(shù)據(jù),這些記錄各自包含一個文本片段和對應(yīng)的翻譯。
根據(jù)騰訊的介紹,訓(xùn)練流程不僅為其混元MT模型配備了翻譯能力,還提供了大量的通用知識。該公司使用名為MMLU-Pro的通用知識基準(zhǔn)測試對算法進行了測試。混元MT顯著超越了擁有80億參數(shù)的Llama-3-8B-Base模型。
騰訊在初始訓(xùn)練后進行了強化學(xué)習(xí)階段。在項目的這一部分,公司為混元MT模型提供了一系列訓(xùn)練任務(wù),并對其響應(yīng)質(zhì)量提供反饋。模型利用這些反饋來提高輸出質(zhì)量。
這種試錯學(xué)習(xí)過程由一個定制的AI模型監(jiān)督。該模型根據(jù)混元MT生成的翻譯與原文的語義相似性來評分,同時還考慮其他因素,包括算法處理特定領(lǐng)域術(shù)語的能力。
混元MT系列中的第一個AI——混元MT-7B,基于標(biāo)準(zhǔn)的語言模型架構(gòu)?;煸狹T-Chimera-7B使用了一種更復(fù)雜的處理方法,稱為集成學(xué)習(xí)。
與專家混合模型類似,集成學(xué)習(xí)算法包含多個神經(jīng)網(wǎng)絡(luò)。但專家混合模型只使用其中一個神經(jīng)網(wǎng)絡(luò)來處理用戶提示,而集成學(xué)習(xí)使用所有神經(jīng)網(wǎng)絡(luò)。它為提示生成多個答案,然后將它們組合成一個更高質(zhì)量的單一響應(yīng)。
騰訊使用名為WMT25的AI翻譯基準(zhǔn)將混元MT與谷歌翻譯進行了比較。根據(jù)該公司的說法,其模型系列在測試評估的31個語言對中的30個表現(xiàn)更好。在某些情況下,混元MT的得分高出65%。
該模型系列還超越了其他幾家AI提供商的算法。騰訊表示,混元MT在WMT25基準(zhǔn)測試的大多數(shù)語言對中得分高于GPT-4.1和Anthropic公司的Claude 4 Sonnet。
Q&A
Q1:混元MT系列包含哪些模型?
A:混元MT系列包含四個模型。兩個旗艦?zāi)P突煸狹T-7B和混元MT-Chimera-7B都擁有70億個參數(shù),此外還有兩個量化或壓縮版本的算法,這些版本通過犧牲一些輸出質(zhì)量來降低內(nèi)存使用量。
Q2:混元MT在翻譯基準(zhǔn)測試中表現(xiàn)如何?
A:騰訊使用WMT25基準(zhǔn)將混元MT與谷歌翻譯進行比較,其模型系列在測試評估的31個語言對中的30個表現(xiàn)更好,在某些情況下得分高出65%。同時在大多數(shù)語言對中得分也高于GPT-4.1和Claude 4 Sonnet。
Q3:混元MT-Chimera-7B與混元MT-7B有什么區(qū)別?
A:混元MT-7B基于標(biāo)準(zhǔn)的語言模型架構(gòu),而混元MT-Chimera-7B使用了更復(fù)雜的集成學(xué)習(xí)處理方法。集成學(xué)習(xí)使用所有神經(jīng)網(wǎng)絡(luò)為提示生成多個答案,然后將它們組合成一個更高質(zhì)量的單一響應(yīng)。
本文為澎湃號作者或機構(gòu)在澎湃新聞上傳并發(fā)布,僅代表該作者或機構(gòu)觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發(fā)布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2026 上海東方報業(yè)有限公司




