文 | 智能相對論
作者 | 陳泊丞
今年以來,MoE模型成了AI行業(yè)的新寵兒。
一方面,越來越多的廠商在自家的閉源模型上采用了MoE架構(gòu)。在海外,OpenAI的GPT-4、谷歌的Gemini、Mistral AI的Mistral、xAI的Grok-1等主流大模型都采用了MoE架構(gòu)。
而在國內(nèi),昆侖萬維推出的天工3.0、浪潮信息發(fā)布的源2.0-M32、通義千問團隊發(fā)布的Qwen1.5-MoE-A2.7B、MiniMax全量發(fā)布的abab6、幻方量化旗下的DeepSeek發(fā)布的DeepSeek-MoE 16B等等也都屬于MoE模型。
另一方面,在MoE模型被廣泛應(yīng)用的同時,也有部分廠商爭先開源了自家的MoE模型。前不久,昆侖萬維宣布開源2千億參數(shù)的Skywork-MoE。而在此之前,浪潮信息的源2.0-M32、DeepSeek的DeepSeek-MoE 16B等,也都紛紛開源。
為什么MoE模型如此火爆,備受各大廠商的青睞?在開源的背后,MoE模型又是以什么樣的優(yōu)勢使各大主流廠商成為其擁躉,試圖作為改變AI行業(yè)的利器?
MoE模型火爆的背后: 全新的AI解題思路
客觀來說,MoE模型的具體工作原理更接近中國的一句古語“術(shù)業(yè)有專攻”,通過把任務(wù)分門別類,然后分給多個特定的“專家”進行解決。
它的工作流程大致如此,首先數(shù)據(jù)會被分割為多個區(qū)塊(token),然后通過門控網(wǎng)絡(luò)技術(shù)(Gating Network)再把每組數(shù)據(jù)分配到特定的專家模型(Experts)進行處理,也就是讓專業(yè)的人處理專業(yè)的事,最終匯總所有專家的處理結(jié)果,根據(jù)關(guān)聯(lián)性加權(quán)輸出答案。
當然,這只是一個大致的思路,關(guān)于門控網(wǎng)絡(luò)的位置、模型、專家數(shù)量、以及MoE與Transformer架構(gòu)的具體結(jié)合方案,各家方案都不盡相同,也逐漸成為各家競爭的方向——誰的算法更優(yōu),便能在這個流程上拉開MoE模型之間的差距。
像浪潮信息就提出了基于注意力機制的門控網(wǎng)絡(luò)(Attention Router),這種算法結(jié)構(gòu)的亮點在于可以通過局部過濾增強的注意力機制(LFA, Localized Filtering-based Attention),率先學習相鄰詞之間的關(guān)聯(lián)性,然后再計算全局關(guān)聯(lián)性的方法,能夠更好地學習到自然語言的局部和全局的語言特征,對于自然語言的關(guān)聯(lián)語義理解更準確,從而更好地匹配專家模型,保證了專家之間協(xié)同處理數(shù)據(jù)的水平,促使模型精度得以提升。
基于注意力機制的門控網(wǎng)絡(luò)(Attention Router)
拋開目前各家廠商在算法結(jié)構(gòu)上的創(chuàng)新與優(yōu)化不談,MoE模型這種工作思路本身所帶來的性能提升就非常顯著——通過細粒度的數(shù)據(jù)分割和專家匹配,從而實現(xiàn)了更高的專家專業(yè)化和知識覆蓋。
這使得MoE模型在處理處理復雜任務(wù)時能夠更準確地捕捉和利用相關(guān)知識,提高了模型的性能和適用范圍。因此,「智能相對論」嘗試了去體驗天工3.0加持的AI搜索,就發(fā)現(xiàn)對于用戶較為籠統(tǒng)的問題,AI居然可以快速的完成拆解,并給出多個項目參數(shù)的詳細對比,屬實是強大。
天工AI搜索提問“對比一下小米su7和特斯拉model3”所得出的結(jié)果
由此我們可以看到,AI在對比兩款車型的過程中,巧妙地將這一問題拆解成了續(xù)航里程、動力性能、外觀設(shè)計、內(nèi)飾設(shè)計、智能化與自動駕駛、市場表現(xiàn)與用戶口碑、價格等多個項目,分別處理得出較為完整且專業(yè)的答案。
這便是“術(shù)業(yè)有專攻”的優(yōu)勢——MoE模型之所以受到越來越多廠商的關(guān)注,首要的關(guān)鍵就在于其所帶來的全新解決問題的思路促使模型的性能得到了較為顯著的提高。特別是伴隨著行業(yè)復雜問題的涌現(xiàn),這一優(yōu)勢將使得MoE模型得到更廣泛的應(yīng)用。
各大廠商爭先開源MoE模型: 解決AI算力荒的另一條路徑
開源的意義在于讓MoE模型更好的普及。那么,對于市場而言,為什么要選擇MoE模型?
拋開性能來說,MoE模型更突出的一點優(yōu)勢則在于算力效率的提升。
DeepSeek-MoE 16B在保持與7B參數(shù)規(guī)模模型相當?shù)男阅艿耐瑫r,只需要大約40%的計算量。而37億參數(shù)的源2.0-M32在取得與700億參數(shù)LLaMA3相當性能水平的同時,所消耗的算力也僅為LLaMA3的1/19。
也就意味著,同樣的智能水平,MoE模型可以用更少的計算量和內(nèi)存需求來實現(xiàn)。這得益于MoE模型在應(yīng)用中并非要完全激活所有專家網(wǎng)絡(luò),而只需要激活部分專家網(wǎng)絡(luò)就可以解決相關(guān)問題,很好避免了過去“殺雞用牛刀”的尷尬局面。
舉個例子,盡管DeepSeek-MoE 16B的總參數(shù)量為16.4B,但每次推理只激活約2.8B的參數(shù)。與此同時,它的部署成本較低,可以在單卡40G GPU上進行部署,這使得它在實際應(yīng)用中更加輕量化、靈活且經(jīng)濟。
在當前算力資源越來越緊張的“算力荒”局面下,MoE模型的出現(xiàn)和應(yīng)用可以說為行業(yè)提供了一個較為現(xiàn)實且理想的解決方案。
更值得一提的是,MoE模型還可以輕松擴展到成百上千個專家,使得模型容量極大增加,同時也允許在大型分布式系統(tǒng)上進行并行計算。由于各個專家只負責一部分數(shù)據(jù)處理,因此在保持模型性能的同時,又能顯著降低了單個節(jié)點的內(nèi)存和計算需求。
如此一來,AI能力的普惠便有了非??尚械穆窂?。這樣的特性再加上廠商開源,將促使更多中小企業(yè)不需要重復投入大模型研發(fā)以及花費過多算力資源的情況下便能接入AI大模型,獲取相關(guān)的AI能力,促進技術(shù)普及和行業(yè)創(chuàng)新。
當然,在這個過程中,MoE模型廠商們在為市場提供開源技術(shù)的同時,也有機會吸引更多企業(yè)轉(zhuǎn)化成為付費用戶,進而走通商業(yè)化路徑。畢竟,MoE模型的優(yōu)勢擺在眼前,接下來或許將有更多的企業(yè)斗都會嘗試新的架構(gòu)來拓展AI能力,越早開源越能吸引更多市場主體接觸并參與其中。
但是,開源最關(guān)鍵的優(yōu)勢還是在于MoE模型對當前算力問題的解決。或許,隨著MoE模型被越來越多的企業(yè)所接受并應(yīng)用,行業(yè)在獲得相應(yīng)AI能力的同時也不必困頓于算力資源緊張的問題了。
寫在最后
MoE大模型作為當前人工智能領(lǐng)域的技術(shù)熱點,其獨特的架構(gòu)和卓越的性能為人工智能的發(fā)展帶來了新的機遇。不管是應(yīng)用還是開源,隨著技術(shù)的不斷進步和應(yīng)用場景的不斷拓展,MoE大模型有望在更多領(lǐng)域發(fā)揮巨大的潛力。
MoE模型的本質(zhì)在于為AI行業(yè)的發(fā)展提供了兩條思路,一是解決應(yīng)用上的性能問題,讓AI有了更強大的解題思路。二是解決算力上的欠缺問題,讓AI有了更全面的發(fā)展空間。由此來看MoE模型能成為行業(yè)各大廠商的寵兒,也是水到渠成的事情。
*本文圖片均來源于網(wǎng)絡(luò)
此內(nèi)容為【智能相對論】原創(chuàng),
僅代表個人觀點,未經(jīng)授權(quán),任何人不得以任何方式使用,包括轉(zhuǎn)載、摘編、復制或建立鏡像。
部分圖片來自網(wǎng)絡(luò),且未核實版權(quán)歸屬,不作為商業(yè)用途,如有侵犯,請作者與我們聯(lián)系。
•AI產(chǎn)業(yè)新媒體;
•澎湃新聞科技榜單月度top5;
•文章長期“霸占”鈦媒體熱門文章排行榜TOP10;
•著有《人工智能 十萬個為什么》
•【重點關(guān)注領(lǐng)域】智能家電(含白電、黑電、智能手機、無人機等AIoT設(shè)備)、智能駕駛、AI+醫(yī)療、機器人、物聯(lián)網(wǎng)、AI+金融、AI+教育、AR/VR、云計算、開發(fā)者以及背后的芯片、算法等。
申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!
“創(chuàng)新的速度比創(chuàng)新本身更重要?!卑B ゑR斯克曾這樣說到。近日,由馬斯克所掌舵的特斯拉,在2024年世界人工智能大會上正式推出了第二代Optimus(擎天柱)人形機器人,距離第一代面世,僅過去9個月。加速升級的人形機器人不負所望,成了今年WAIC大會(世界人工智能大會)的一大看點。除此以外,今年的WA
北京時間6月25日凌晨,多個地區(qū)的OpenAI用戶收到了一封來自官方的郵件。郵件顯示:“您所使用的APl流量來自O(shè)penAl目前不支持的地區(qū)。我們將從7月9日開始采取額外措施,阻止來自不在我們支持的國家和地區(qū)列表中的地區(qū)的APl接口?!彼^的API,就是應(yīng)用程序編程接口。開發(fā)者通過使用OpenAI的
每一次新舊代際轉(zhuǎn)換時,都會上演這樣的一幕:“暢想很多,落地很少”,AI原生應(yīng)用似乎也不例外。關(guān)于AI原生應(yīng)用的呼聲已經(jīng)持續(xù)一段時間,但普通用戶對“AI原生”依然陌生。除了新業(yè)態(tài)普及的周期性,AI原生應(yīng)用的爆發(fā)與否還涉及另一個議題,即怎么降低AI原生應(yīng)用開發(fā)的難度和門檻。剛剛結(jié)束的華為開發(fā)者大會202
近期,蘋果發(fā)布M4芯片,號稱“比當今任何AIPC的任何神經(jīng)引擎都強!”緊隨其后微軟攜“Copilot+PCs”的概念加入AIPC激戰(zhàn)。截至目前,包括聯(lián)想、惠普、華為等多家主流PC廠商在內(nèi),已經(jīng)至少推出了超50款AIPC產(chǎn)品。AI重塑行業(yè)的機遇,誰都不想錯過。對于企業(yè)來說,能否積極擁抱AIPC十分關(guān)鍵
高考一結(jié)束,忙壞了海內(nèi)外一眾大模型。豆包、DeepSeek、ChatGPT、元寶、文心一言、通義千問……掀起了一波“AI趕考”大戰(zhàn)。據(jù)悉,去年高考期間,大模型的成績才勉強過一本線,今年集體晉升985。據(jù)悉,豆包甚至過了清北的錄取線。頭部大模型在高考“考場”上玩得不亦樂乎,中小AI創(chuàng)企的處境卻日益尷尬
文/二風來源/節(jié)點財經(jīng)每年高考成績放榜后,數(shù)千萬考生和家長將迎來另一場硬仗——填報志愿。今年,這一領(lǐng)域迎來了AI的全面介入,多家互聯(lián)網(wǎng)大廠和教育公司紛紛推出智能志愿填報產(chǎn)品,為考生提供院校和專業(yè)選擇建議。據(jù)艾媒咨詢數(shù)據(jù),2023年中國高考志愿填報市場付費規(guī)模約9.5億元,近九成考生愿意借助志愿填報服
蘋果還沒從WWDC25的“群嘲”中走出,又迎來了一次新的痛擊。據(jù)路透社報道,21日,蘋果公司遭到股東集體起訴,被指在信息披露中低估了將先進生成式AI整合進語音助手Siri所需的時間,導致iPhone銷量受影響、股價下滑,構(gòu)成證券欺詐。在這份訴訟中,庫克、首席財務(wù)官凱文·帕雷克及前首席財務(wù)官盧卡·馬埃
華為的盤古大模型終于推出新版本了。6月20日華為云計算CEO張平安宣布基于CloudMatrix384超節(jié)點的新一代昇騰AI云服務(wù)全面上線,盤古大模型5.5同步發(fā)布。不過,當前國內(nèi)的AI大模型競爭可謂是相當激烈,華為的盤古大模型在眾多大模型中并不是十分出眾。華為云此次重磅推出的盤古大模型5.5能否從
一場沒有羅永浩的“羅永浩直播”,正在改寫帶貨規(guī)則當數(shù)字人羅永浩在百度直播間舉起青島啤酒,以標志性幽默回應(yīng)粉絲提問時,彈幕瘋狂刷出“這是真的還是假的?”的疑問。這場持續(xù)近7小時的直播,創(chuàng)下1300萬人次觀看、GMV突破5500萬元的驚人戰(zhàn)績,甚至超過了他本人一個月前真人直播5000萬元的成績。數(shù)字人主
高頻互動、個性化教學、突破成本壁壘,AI老師讓英語學習更普惠。6月24日,新東方正式推出面向消費者的首款原創(chuàng)AI教育產(chǎn)品——“新東方AI1對1”。這款產(chǎn)品標志著新東方在教育+AI戰(zhàn)略布局中邁出關(guān)鍵一步,旨在以科技力量推動優(yōu)質(zhì)教育資源的普惠發(fā)展。在發(fā)布會現(xiàn)場,新東方教育科技集團CEO周成剛表示:“AI
大家好,我是白楊SEO,專注SEO十年以上,全網(wǎng)SEO流量實戰(zhàn)派,AI搜索優(yōu)化研究者。為什么想分享這個AI工作流及coze扣子這個?因為我們搞流量的如果學會了用AI給我們生產(chǎn)提效將更有助于我們?nèi)カ@客。目前白楊SEO用得并不是很好,分享僅供參考,希望給你一些啟發(fā)。老規(guī)矩,先說下文章大綱如下:1、AI工
近期,“AI新云”(NeoCloud)概念在科技圈和投資圈引發(fā)熱潮。今年3月,被業(yè)內(nèi)稱作“英偉達親兒子”的AI基礎(chǔ)設(shè)施企業(yè)CoreWeave上市。這家依托英偉達GPU資源沖擊新云市場的初創(chuàng)公司,上市不到3個月市值飆升359%,達881億美元。CoreWeave的“身價暴漲”吸引了無數(shù)視線。對此,不少