導(dǎo)讀:隨著我國高性能計算、AI計算及邊緣計算需求提升,超算中心、智算中心及邊緣數(shù)據(jù)中心將進一步發(fā)展,特別是智算中心,正在從早期實驗探索逐步走向商業(yè)試點。
隨著我國高性能計算、AI計算及邊緣計算需求提升,超算中心、智算中心及邊緣數(shù)據(jù)中心將進一步發(fā)展,特別是智算中心,正在從早期實驗探索逐步走向商業(yè)試點。
從傳統(tǒng)芯片一統(tǒng)產(chǎn)業(yè)的時代走來,AI芯片的發(fā)展并非一帆風(fēng)順,泡沫充斥、資本遇冷、人才稀缺……不過,在半導(dǎo)體產(chǎn)業(yè)整體步入下行周期的2022年,AI芯片反倒扛住了爭議和質(zhì)疑,在服務(wù)器、汽車等領(lǐng)域顯現(xiàn)出了日益放大的價值效應(yīng)。
2022年的這三大技術(shù)和應(yīng)用趨勢,有望成為AI芯片未來幾年的關(guān)鍵動力:
智能算力反超通用算力規(guī)模
當(dāng)前,我國通用算力的數(shù)據(jù)中心仍是市場主力,按機架規(guī)模統(tǒng)計,占比超過90%。隨著我國高性能計算、AI計算及邊緣計算需求提升,超算中心、智算中心及邊緣數(shù)據(jù)中心將進一步發(fā)展,特別是智算中心,正在從早期實驗探索逐步走向商業(yè)試點。
IDC數(shù)據(jù)顯示,2022年我國智能算力規(guī)模達(dá)到268 EFLOPS,超過通用算力規(guī)模。預(yù)計未來五年,我國智能算力規(guī)模的年復(fù)合增長率將達(dá)52.3%,超出同期通用算力規(guī)模18.5%的年復(fù)合增長率,到2026年,我國智能算力規(guī)模將達(dá)到1271.4EFLOPS。
同時,邊緣計算需要處理的數(shù)據(jù)量會越來越多,算力要求也將逐步提高。邊緣側(cè)的設(shè)備也不再拘泥于簡單的數(shù)據(jù)采集,還會有大量的邊緣網(wǎng)關(guān)、邊緣AI、邊緣可擴展型服務(wù)器等設(shè)備,協(xié)助前端數(shù)據(jù)處理,將處理后的數(shù)據(jù)傳輸給云端,有效減輕云端的數(shù)據(jù)壓力,用戶也可根據(jù)自己的實際業(yè)務(wù),靈活就近選擇邊緣計算節(jié)點或中心云計算節(jié)點。
邊緣計算場景大致有兩條路線:一是高性能通用處理器做專用設(shè)備,為場景提供專用算力;二是高度集成化、低功耗化的SoC芯片,通過自主設(shè)計降低功耗的同時,可實現(xiàn)中低端邊緣計算設(shè)備的戶外現(xiàn)場應(yīng)用,可大量部署在工業(yè)等現(xiàn)場。這些方案也可以疊加AI芯片、FPGA等,針對某類場景提供定制化算法,提升邊緣計算的能力。
從AI芯片角度來看,隨著AI產(chǎn)業(yè)技術(shù)不斷提升,產(chǎn)業(yè)AI化加速落地,全球AI芯片市場將高速增長。IDC預(yù)計,到2025年AI芯片市場規(guī)模將達(dá)726億美元。異構(gòu)計算成為主流趨勢,未來18個月,全球AI服務(wù)器GPU、ASIC和FPGA的搭載率均會上升,算力多元化發(fā)展趨勢明顯。
從計算架構(gòu)發(fā)展來看,基于 DSA( Domain-Specific Architectures)思想設(shè)計的AI芯片正在成為主導(dǎo),推動了AI芯片的多元化發(fā)展。此外,多元算力從“能用”到“好用”并且為企業(yè)創(chuàng)造業(yè)務(wù)價值,離不開通用性強、綠色高效、安全可靠的計算系統(tǒng)的支持。業(yè)內(nèi)正在推動多元算力系統(tǒng)架構(gòu)創(chuàng)新,基于計算節(jié)點內(nèi)和節(jié)點間的互聯(lián)技術(shù)破局現(xiàn)有計算架構(gòu)的瓶頸,通過充分調(diào)動起多芯片、多板卡、多節(jié)點的系統(tǒng)級能力,實現(xiàn)各種加速單元以及跨節(jié)點系統(tǒng)的高效協(xié)同,提升計算性能。
從場景應(yīng)用維度來看,智能化場景將隨著時間的推移,呈現(xiàn)出更加深入、更加廣泛的趨勢。
大算力自動駕駛芯片
走向巔峰對決
自動駕駛領(lǐng)域是芯片與AI技術(shù)交融和迭代的關(guān)鍵領(lǐng)域。
從神經(jīng)網(wǎng)絡(luò)計算推動自動駕駛大行其道開始,到走向高階的輔助駕駛感知方案,隨著自動駕駛級別的提升,所需要的算力幾乎是指數(shù)級爆炸式的增長,從L2、L3、L4走向L5,每向上走一級至少有10倍以上算力需求的提升,大規(guī)模并行化的AI計算,使得大算力的計算平臺成為了產(chǎn)業(yè)必須,在提升有效算力的道路上似乎永無止境。
Gartner數(shù)據(jù)顯示,預(yù)計到2025年,全球汽車AI芯片市場將以31%的年復(fù)合增速飆升至236億美元。其中,中國汽車AI芯片的市場將達(dá)到68億美元,2030年為124億美元,年復(fù)合增長率預(yù)計可達(dá)28.14%。
暴增的算力需求下,主機廠紛紛推動“硬件預(yù)埋”概念。走向L4級別自動駕駛甚至L5級無人駕駛究竟需要多大算力才夠?目前業(yè)界并沒有定論,但幾千TOPS的有效算力支撐被認(rèn)為是需要的。
國內(nèi)市場方面,地平線征程5已經(jīng)成為國內(nèi)首款實現(xiàn)前裝量產(chǎn)的百TOPS大算力AI芯片,這款芯片對于地平線自身、以及我國大算力芯片的發(fā)展都具有重要意義。如果把自動駕駛大算力芯片的競逐比喻為世界杯,地平線征程5與英偉達(dá)算是率先進入百TOPS芯片前裝量產(chǎn)的階段,相當(dāng)于“提前鎖定了決賽席位”。
不過今年10月,英偉達(dá)推出的芯片NVIDIA Drive Thor,直接把標(biāo)桿又拉高了一個級別,這款超級芯片可實現(xiàn)最高 2000TOPS AI 算力以及 2000 TFLOPS 浮點算力。據(jù)官方介紹,NVIDIA Drive Thor是第一個使用集成推理Transformer引擎的自動駕駛汽車平臺,借助Transformer引擎,它可將 Transformer 深度神經(jīng)網(wǎng)絡(luò)的推理性能提升9倍,這對于支持與自動駕駛相關(guān)的、龐大且復(fù)雜的AI工作負(fù)載至關(guān)重要。
在通往自動駕駛的路上,Drive Thor肯定不會是AI芯片終結(jié)者,不過它在2022年出現(xiàn)的意義在于:第一,將智能汽車帶到中央計算模式。此前業(yè)界對于智能汽車芯片的設(shè)計思路基本上是自動駕駛芯片負(fù)責(zé)自動駕駛,座艙芯片負(fù)責(zé)車載娛樂,而未來融合是趨勢,Drive Thor單芯片艙駕一體的設(shè)計,或?qū)⒓铀僦醒胗嬎銜r代的到來。第二,它將汽車芯片算力直接推向了2000TOPS標(biāo)準(zhǔn)。提升計算效率是汽車智能化發(fā)展的關(guān)鍵一環(huán),因為實現(xiàn)更高級別的自動駕駛、實現(xiàn)更智能的人機交互座艙體驗都需要更強的算力。按照iHS Markit預(yù)計,2024年座艙NPU算力需求將是2021年的十倍,CPU算力需求是2021年的3.5倍,這都要求汽車芯片的算力必須進一步拉高。
在汽車AI芯片方面,存算一體的大算力AI芯片也在發(fā)力。這方面的從業(yè)者認(rèn)為,相比于傳統(tǒng)的馮·諾依曼架構(gòu),用存算一體技術(shù)做大算力AI芯片,對先進制程依賴度不是很強,可以用較低的制程實現(xiàn)較大算力,并且由于數(shù)據(jù)計算和數(shù)據(jù)存儲深度融合,避免了大部分?jǐn)?shù)據(jù)的無效搬運,可以兼顧成本和能效,因此非常適合智能駕駛和自動駕駛應(yīng)用場景。
AI大模型
推動算力集群效能優(yōu)化
“超級鸚鵡”ChatGPT和AIGC成為年度最大黑馬。
最近爆火的OpenAI旗下的對話模型ChatGPT,能夠理解用戶需求創(chuàng)造內(nèi)容、協(xié)助代碼編寫、能夠針對用戶的追問在后續(xù)對話中進行修正或補充。相較于蘋果 Siri、微軟小冰等,ChatGPT除了邏輯嚴(yán)密的創(chuàng)造能力之外,還具有記憶能力,在連續(xù)的對話中無需用戶提供重復(fù)信息,語言組織和表達(dá)能力也更接近人類水平,使對話更自然流暢。
同樣火熱的還有AIGC(Generative AI,生成式AI),一系列初創(chuàng)公司融資不斷,并且在實際應(yīng)用中也體現(xiàn)出了較高的水準(zhǔn)。百度AI十分鐘內(nèi)復(fù)原了《富春山居圖》殘卷,浪潮“源”支持的“金陵詩會”,使用者可一鍵創(chuàng)作韻味悠長的詩句……而除了自主生成文本、圖像,AI自主生成音頻、視頻、虛擬場景等也在成為熱潮。這些都推動了生成式AI的蓬勃發(fā)展,打造了新的數(shù)字內(nèi)容生成與交互形態(tài)。
Gartner將“生成式AI”列為2022年五大影響力技術(shù)之一,預(yù)測到2025年,生成式AI所創(chuàng)造的數(shù)據(jù)可占到所有已生產(chǎn)數(shù)據(jù)的10%。
業(yè)內(nèi)認(rèn)為,ChatGPT和AIGC爆火,代表著AI大模型進入一個新的技術(shù)范式,同時也是第三波AI浪潮經(jīng)過十幾年發(fā)展之后,到達(dá)了一個非常重要的拐點。
它們代表著從以前的“大煉模型”(各自研發(fā)專用小模型),到“煉大模型”(研發(fā)超大規(guī)模通用智能模型)的一個范式轉(zhuǎn)變,其意義在于:通過這種比較先進的算法架構(gòu),盡可能多的數(shù)據(jù)匯集大量算力,通過集約化的訓(xùn)練模式,從而供大量用戶使用。
AI發(fā)展至今,大模型的出現(xiàn)可以說是生逢其時,它將碎片化的AI應(yīng)用開發(fā)轉(zhuǎn)向集中式開發(fā)。一方面,AI大模型具備很好的泛化能力,一個模型可以支撐各類不同應(yīng)用,有效緩解碎片化開發(fā)反復(fù)建模的困境;另一方面,圍繞AI大模型構(gòu)建的算法基礎(chǔ)設(shè)施,比如開放的API、開源的應(yīng)用代碼等,使開發(fā)者無需關(guān)心底層技術(shù),設(shè)置無需配置編程環(huán)境,就可以直接將應(yīng)用構(gòu)建于AI大模型的能力之上,在降低開發(fā)門檻的同時,讓開發(fā)人員將更多精力聚焦在核心業(yè)務(wù)邏輯上。
從算力的角度來看,挑戰(zhàn)不可謂不大。因為訓(xùn)練大模型所需要的算力是海量的,成本是高昂的,這就需要發(fā)揮AI算力集群的整體效能,讓AI算力能夠“算”盡其用,從而降低大模型訓(xùn)練的成本。當(dāng)前,基于液冷等技術(shù)的算力產(chǎn)品,將軟件層面(模型和框架)與硬件基礎(chǔ)設(shè)施(計算、存儲、網(wǎng)絡(luò))進行協(xié)同優(yōu)化的方案,都是業(yè)界較為推崇的方式。一方面能在高算力集群上能實現(xiàn)更好的算力利用率,另一方面也能降低電力消耗,降低整體成本。
可以說,AI大模型的投入是AI技術(shù)邁向新臺階的必經(jīng)之路,是解決產(chǎn)業(yè)碎片化的一種方式。AI大模型的發(fā)展與商業(yè)落地,有望重塑AI算力與AI應(yīng)用的市場格局。隨著大模型的數(shù)量走向集約,有利于AI芯片進行更有針對性的設(shè)計開發(fā)與優(yōu)化,這是AI算力企業(yè)生態(tài)重建的新機會,也是國產(chǎn)AI芯片在國際巨頭林立的市場中突圍的機會。
寫在最后
不破不立,破而后立。大破大立,曉喻新生。
寫在AI芯片踏實走過的2022年。