北京2023年9月21日 /美通社/ -- 去年年底,ChatGPT誕生,憑借強(qiáng)大、精準(zhǔn)的自然語(yǔ)言理解和生成能力,令全球用戶為之一震。
自此,各行各業(yè)紛紛投身大模型研發(fā)競(jìng)賽,掀起新一輪技術(shù)創(chuàng)新熱潮。金融行業(yè)更是如此。如何構(gòu)筑面向大模型時(shí)代的新型算力和存力基礎(chǔ)設(shè)施,實(shí)現(xiàn)大模型能力向金融領(lǐng)域的遷移,成為金融機(jī)構(gòu)熱議的話題。
金融大模型 在哪些場(chǎng)景有用武之地?
作為AI新基建,大模型在金融行業(yè)有著廣泛的應(yīng)用場(chǎng)景。
在前臺(tái),智能客服,是AI在金融領(lǐng)域最常見的應(yīng)用方向之一。還記得鋼鐵俠電影里的AI管家賈維斯(Jarvis)么?金融大模型將大幅提升客戶經(jīng)理的專業(yè)水平和服務(wù)能力,大幅降低客戶經(jīng)理的運(yùn)營(yíng)成本,讓每個(gè)人都擁有類似Jarvis的24小時(shí)在線的專業(yè)客戶經(jīng)理。
在中臺(tái),AI大模型有機(jī)會(huì)改變金融機(jī)構(gòu)內(nèi)知識(shí)獲取、內(nèi)容創(chuàng)作、會(huì)議與溝通、代碼開發(fā)與測(cè)試的方式,提升內(nèi)部辦公效率,甚至引發(fā)研發(fā)測(cè)試模式變革,全方位提升金融機(jī)構(gòu)內(nèi)部運(yùn)營(yíng)效率。
在后臺(tái),大模型將成為智能科技底座的標(biāo)配,大幅降低智能技術(shù)應(yīng)用的門檻,只需少量標(biāo)注數(shù)據(jù)就可以讓智能技術(shù)覆蓋廣泛的場(chǎng)景。
總之,AI大模型在內(nèi)容生成與創(chuàng)作、信息摘要與總結(jié)、知識(shí)理解與問(wèn)答、自然交互與對(duì)話等方面具備非常出色的能力,在金融行業(yè)有廣泛的應(yīng)用前景。
萬(wàn)卡規(guī)模、萬(wàn)億參數(shù),大模型有"高門檻"
大模型的快速迭代,需要高效算力和存儲(chǔ)基礎(chǔ)設(shè)施的加持。
一方面,算力是大模型的引擎。語(yǔ)言類、視覺類模型容量和相應(yīng)的算力需求都在快速擴(kuò)大,金融大模型發(fā)展的背后是龐大的算力支撐。如果用"算力當(dāng)量"(PetaFlops/s-day,PD),即每秒千萬(wàn)億次的計(jì)算機(jī)完整運(yùn)行一天消耗的算力總量,來(lái)對(duì)人工智能任務(wù)所需算力總量進(jìn)行度量,大模型訓(xùn)練需要幾百甚至幾千PD的算力支持,也意味著需要巨大的算力成本。
例如,OpenAI在2020年推出的GPT-3,對(duì)算力的需求至少要上萬(wàn)顆A100 GPU,一次模型訓(xùn)練總算力消耗約3,640PD的算力。又如,浪潮信息推出的"源"中文語(yǔ)言大模型有近2500億個(gè)模型參數(shù),算力消耗達(dá)4000PD。再如,當(dāng)前GPT-4和PaLM-2的算力當(dāng)量已經(jīng)達(dá)到GPT-3的數(shù)十倍。這還不算,谷歌正在開發(fā)的下一代多模態(tài)大模型Gemini,其訓(xùn)練量碾壓GPT-4,達(dá)到后者5倍。
快速攀升的AI算力消耗,有限的IT預(yù)算,讓大多數(shù)金融機(jī)構(gòu)陷入兩難境地:想做大模型,但資源匱乏、成本壓力大、人才稀缺;不做大模型,又只能坐看機(jī)會(huì)錯(cuò)失。
對(duì)此,分而治之或許是一種可行的辦法。所謂分,就是把大模型分為通用大模型和行業(yè)大模型。金融機(jī)構(gòu)不用自己打造通用大模型,而是基于第三方的通用大模型,在此基礎(chǔ)上專注打造行業(yè)大模型。根據(jù)信通院發(fā)布的《行業(yè)大模型標(biāo)準(zhǔn)體系及能力架構(gòu)研究報(bào)告》,通用大模型缺乏專業(yè)知識(shí)和行業(yè)數(shù)據(jù),而且構(gòu)建和訓(xùn)練成本很高,難以實(shí)現(xiàn)商用。為更好解決特定行業(yè)為題,行業(yè)大模型應(yīng)運(yùn)而生。行業(yè)大模型可以滿足特定場(chǎng)景需求,更好地為行業(yè)提供優(yōu)質(zhì)的服務(wù),促進(jìn)行業(yè)智能化轉(zhuǎn)型升級(jí)。
浪潮信息AI服務(wù)器產(chǎn)品專家郭磊表示,"金融機(jī)構(gòu)可以集中資源在行業(yè)大模型上,不是'在一千米的地上挖一米深的溝',而是'在一米的地方挖一千米深'"。
具體來(lái)看,大模型訓(xùn)練的第一階段是無(wú)監(jiān)督預(yù)訓(xùn)練階段,訓(xùn)練周期往往持續(xù)數(shù)十天到數(shù)月,需要數(shù)千張GPU卡同時(shí)計(jì)算,算力消耗巨大,訓(xùn)練時(shí)間非常長(zhǎng),訓(xùn)練出來(lái)的模型是基礎(chǔ)語(yǔ)言模型。金融機(jī)構(gòu)可以通過(guò)使用開源平臺(tái)或者第三方合作(如浪潮信息的"源"大模型),獲得基礎(chǔ)語(yǔ)言能力。第二到第四階段是有監(jiān)督精調(diào)階段、獎(jiǎng)勵(lì)模型訓(xùn)練和強(qiáng)化學(xué)習(xí),這3個(gè)階段需要數(shù)十張乃至上百?gòu)圙PU卡同時(shí)計(jì)算,算力消耗的規(guī)模和訓(xùn)練時(shí)長(zhǎng)相比第一階段都有明顯下降,所以金融機(jī)構(gòu)可以在這三個(gè)階段進(jìn)行訓(xùn)練,打造有金融行業(yè)優(yōu)勢(shì)的大模型。
另一方面,大模型光有算力遠(yuǎn)遠(yuǎn)不夠,還取決于數(shù)據(jù)規(guī)模和數(shù)據(jù)質(zhì)量。
大模型的優(yōu)勢(shì)在于海量信息的搜集、提取和分析能力,這是人類難以企及的。
近幾年,通用大模型的參數(shù)量快速增長(zhǎng)。2016年OpenAI發(fā)布Gym強(qiáng)化學(xué)習(xí)平臺(tái),2018年GPT-1問(wèn)世,模型參數(shù)為1.17億,經(jīng)過(guò)不斷迭代,GPT-4參數(shù)規(guī)模達(dá)到1.76萬(wàn)億。Google從2017年發(fā)布Transformer(6500萬(wàn)參數(shù))架構(gòu)以來(lái),陸續(xù)發(fā)布BERT(2018年,3億參數(shù))、T5(2019年,110億參數(shù)),參數(shù)規(guī)模逐步提高。近期,Google發(fā)布通才模型PaLM-E,這是迄今為止全球最大的視覺語(yǔ)言模型,包含5620億參數(shù)。
在垂直行業(yè),金融大模型的數(shù)據(jù)集在通用大模型基礎(chǔ)上還需包含諸如金融研報(bào)、股票、基金、銀行、保險(xiǎn)等方向的專業(yè)知識(shí),通過(guò)在訓(xùn)練過(guò)程中加入大量金融對(duì)話數(shù)據(jù)并針對(duì)金融領(lǐng)域進(jìn)行特定的預(yù)訓(xùn)練調(diào)優(yōu),提升其在金融垂直領(lǐng)域的表現(xiàn)。
同時(shí),多模態(tài)、跨模態(tài)成為常態(tài),金融大模型的數(shù)據(jù)類型變得更加豐富。其中無(wú)監(jiān)督數(shù)據(jù),即原始數(shù)據(jù),數(shù)據(jù)格式可以是網(wǎng)頁(yè)、文本或語(yǔ)音數(shù)據(jù);有監(jiān)督數(shù)據(jù),即經(jīng)過(guò)標(biāo)注的數(shù)據(jù),格式可以為json或Query。此外,為了給投資者提供實(shí)時(shí)市場(chǎng)輿情和風(fēng)險(xiǎn)預(yù)測(cè)等服務(wù),金融機(jī)構(gòu)還要高效處理金融行業(yè)新聞、股票交易,乃至社交評(píng)論等金融數(shù)據(jù)。這些巨量、多模態(tài)、實(shí)時(shí)的金融數(shù)據(jù)新需求、新特征,傳統(tǒng)集中式存儲(chǔ)難以應(yīng)對(duì),需要彈性、靈活的新型分布式存儲(chǔ)架構(gòu)來(lái)支撐。
由此可見,隨著金融大模型的演進(jìn),整個(gè)數(shù)據(jù)中心的架構(gòu)都會(huì)發(fā)生改變,從AI服務(wù)器、到存儲(chǔ)、再到網(wǎng)絡(luò)的全棧方案都需要適應(yīng)大模型時(shí)代的需求。
基礎(chǔ)設(shè)施 如何"存得下、算得快、傳得穩(wěn)"
只有數(shù)據(jù)"存得下"、算力"算得快"、網(wǎng)絡(luò)"傳得穩(wěn)",數(shù)字基礎(chǔ)設(shè)施才能充分發(fā)揮數(shù)據(jù)要素價(jià)值,推動(dòng)大模型應(yīng)用落地,帶動(dòng)新業(yè)態(tài)繁榮發(fā)展。
對(duì)此,浪潮信息基于智慧計(jì)算戰(zhàn)略,從算力、算法、數(shù)據(jù)、互聯(lián)四方面推進(jìn)產(chǎn)品創(chuàng)新,為大模型打造強(qiáng)大底座。
算力方面,浪潮信息通過(guò)千億參數(shù)規(guī)模的大模型創(chuàng)新實(shí)踐,已在算力集群構(gòu)建、算力調(diào)度部署、算法模型開發(fā)等方面,構(gòu)建起全棧領(lǐng)先的大模型算力系統(tǒng)解決方案,助力大模型訓(xùn)練開發(fā)。其中最新一代融合架構(gòu)的AI訓(xùn)練服務(wù)器NF5688G7采用Hopper架構(gòu)的GPU, 較上代平臺(tái)大模型實(shí)測(cè)性能提升近7倍,同時(shí)支持最新的液冷解決方案,可實(shí)現(xiàn)更低的集群能耗比與運(yùn)行成本,PUE小于1.15,以一個(gè)4000卡的智算中心為例,每年可節(jié)電620萬(wàn)度、降碳1700噸。
存儲(chǔ)方面,浪潮信息生成式AI存儲(chǔ)解決方案用一套AS13000融合存儲(chǔ)支撐生成式AI的全階段應(yīng)用,提供全閃、混閃、帶庫(kù)、光盤四種介質(zhì),支持文件、對(duì)象、大數(shù)據(jù)、視頻、塊多種協(xié)議。結(jié)合AIGC數(shù)據(jù)處理的五個(gè)階段:數(shù)據(jù)采集、準(zhǔn)備、訓(xùn)練、推理和歸檔,浪潮信息由同一套存儲(chǔ)提供端到端的數(shù)據(jù)流支持,滿足文本、音頻、圖像、視頻、代碼等多模態(tài)數(shù)據(jù)的存儲(chǔ)和處理需求。
在集群高速互聯(lián)層面,浪潮信息基于原生RDMA實(shí)現(xiàn)整個(gè)集群的全線速組網(wǎng),并對(duì)網(wǎng)絡(luò)拓?fù)溥M(jìn)行優(yōu)化,可以有效消除混合計(jì)算的計(jì)算瓶頸,確保集群在大模型訓(xùn)練時(shí)始終處于最佳狀態(tài)。
當(dāng)前,國(guó)有大行、股份制銀行以及部分城商行,均已經(jīng)開展或計(jì)劃開展金融大模型研發(fā),AI算力和數(shù)據(jù)基建將迎來(lái)高速發(fā)展。根據(jù)IDC預(yù)測(cè),未來(lái)5年中國(guó)智能算力規(guī)模的年復(fù)合增長(zhǎng)率將達(dá)52%,分布式存儲(chǔ)增速將達(dá)到中國(guó)市場(chǎng)增速的2倍。大模型時(shí)代,金融機(jī)構(gòu)需要以AI的場(chǎng)景、架構(gòu)為抓手,結(jié)合各行的數(shù)據(jù)特點(diǎn),打造新一代智算基礎(chǔ)設(shè)施。