omniture

IBM專家觀點(diǎn):從ChatGPT的走紅談企業(yè)需要怎樣的AI -- 是"百事通"還是"業(yè)務(wù)助手"?

IBM China
2023-02-27 19:42 3796

北京2023年2月27日 /美通社/ -- 根據(jù)瑞銀最近一份研究報(bào)告估計(jì),OpenAI去年11月底推出的ChatGPT在1月份達(dá)到了1億月度活躍用戶,成為歷史上增長最快的面向消費(fèi)者的人工智能app。 根據(jù)Sensor Tower的數(shù)據(jù),從上線開始算,到達(dá)到1億月活, Instagram用了大約兩年半,TikTok抖音用了大約9個月,而ChatGPT只用了兩個月。

據(jù)業(yè)內(nèi)媒體反饋,ChatGPG也是當(dāng)前中國企業(yè)開發(fā)者社區(qū)最關(guān)注的話題——如何將ChatGPT運(yùn)用于企業(yè)? 用于哪些業(yè)務(wù)場景?怎么用?包括金融、制造和車企在內(nèi)的傳統(tǒng)企業(yè)也對此極為關(guān)注。一些開發(fā)者表示,他們的領(lǐng)導(dǎo)已經(jīng)下命令,讓他們加快研究ChatGPT如何在業(yè)務(wù)當(dāng)中發(fā)揮作用。

IBM是全球企業(yè)級AI技術(shù)與應(yīng)用的領(lǐng)導(dǎo)者,第三方研究機(jī)構(gòu)早在2021年就報(bào)告IBM連續(xù)三年位列全球 AI 市場份額的第一名,全球有超過4萬企業(yè)客戶正在使用IBM的人工智能,即Watson AI。近年來,許多把"數(shù)據(jù)為先"作為企業(yè)數(shù)字化轉(zhuǎn)型重點(diǎn)的中國企業(yè)也加入到積極采用人工智能技術(shù)的行列,他們與IBM的技術(shù)與行業(yè)專家一道,攜手打造了不少創(chuàng)新領(lǐng)先的AI應(yīng)用場景,積累了一定的經(jīng)驗(yàn)。

基于客戶與合作伙伴近期對于面向企業(yè)的人工智能應(yīng)用的高度關(guān)注與探索需求,我們特別邀請IBM中國的技術(shù)與行業(yè)專家,分享他們的見解與實(shí)施經(jīng)驗(yàn),希望能夠?qū)V大客戶、合作伙伴和開發(fā)者社區(qū)的同行有所啟發(fā)和借鑒。首先與大家分享的是IBM杰出工程師、大中華區(qū)客戶成功架構(gòu)師、大中華區(qū)金融行業(yè)首席架構(gòu)師陳宇翔,以下是他近期的署名文章——

ChatGPT的走紅談企業(yè)需要怎樣的AI -- 是"百事通"還是"業(yè)務(wù)助手"?

作者:陳宇翔

IBM杰出工程師、大中華區(qū)客戶成功架構(gòu)師、大中華區(qū)金融行業(yè)首席架構(gòu)師

從ChatGPT的走紅,談企業(yè)需要怎樣的AI -- 是“百事通”?還是“業(yè)務(wù)助手”?
從ChatGPT的走紅,談企業(yè)需要怎樣的AI -- 是“百事通”?還是“業(yè)務(wù)助手”?

ChatGPT火爆出圈

最近幾周,AI業(yè)界最大的新聞無疑是ChatGPT橫空出世,從而引發(fā)的業(yè)界震動。市場上有大量的評論文章,有把它描述成無所不能的,大有代替人類職業(yè)之勢;也有提出擔(dān)擾,某些頂級學(xué)術(shù)雜志和知名高校已經(jīng)明確限制AI作者發(fā)表論文和科研成果。

出于好奇,筆者也試用了ChatGPT。整體感覺對于一般的開放性問題,ChatGPT生成的回答文法結(jié)構(gòu)完整,語言風(fēng)格自然,比之前的聊天機(jī)器人有明顯的進(jìn)步。內(nèi)容的準(zhǔn)確性和完整性,往往能超過正常交流時(shí)大多數(shù)人的"第一反應(yīng)",更像是經(jīng)過了一番思考并整理后的結(jié)果,條理清晰,很有啟發(fā)。但對于專業(yè)性問題,尤其是需要邏輯推理的知識,ChatGPT并沒有像網(wǎng)上文章說的那么出色,經(jīng)常"張冠李戴"或者形式上像模像樣但內(nèi)容上卻不知所云。

為什么會這樣呢?我們可以問一問ChatGPT自己。

"ChatGPT是由OpenAI公司開發(fā)的一款預(yù)訓(xùn)練語言模型,旨在生成人類可讀的文本。它通過讀取大量的文本數(shù)據(jù),學(xué)習(xí)了如何生成與語言相關(guān)的內(nèi)容,并在輸入一段文本時(shí)生成一段有關(guān)的文本輸出……"

ChatGPT中的GPT的全稱是的"Generative Pre-trained Transformer -即生成性預(yù)訓(xùn)練變換模型"。借用一位名叫#硅谷學(xué)霸Jolin 的技術(shù)教育博主對GPT模型的淺顯解釋,她說,以ChatGPT為代表的"生成性AI"是一項(xiàng)技術(shù)突破,之前AI學(xué)習(xí)大多聚焦于觀測、分類和分析內(nèi)容,而生成性AI則不限于分析現(xiàn)有數(shù)據(jù),它可以生成新內(nèi)容,可以根據(jù)需要生成新的代碼、詩歌、文章和藝術(shù)品。ChatGPT是專注于文本內(nèi)容的生成性AI。所謂"預(yù)訓(xùn)練"是指該模型已經(jīng)在某些有限的數(shù)據(jù)集上進(jìn)行了訓(xùn)練,事實(shí)上,ChatGPT已經(jīng)學(xué)習(xí)了2021年6月以前人類編寫和發(fā)布在互聯(lián)網(wǎng)上的海量信息,而且是通過"監(jiān)督學(xué)習(xí)"和"人類反饋強(qiáng)化學(xué)習(xí)"這兩種技術(shù)進(jìn)行的學(xué)習(xí)。Transformer是一個非常底層的AI機(jī)器學(xué)習(xí)的算法架構(gòu),是一種深度神經(jīng)網(wǎng)絡(luò)。從GPT-1到今天的GPT-3.5都是采用Transformer架構(gòu),而GPT模型的進(jìn)化有賴于底層硬件超級算力的效率提升,以支持AI對更多、更大數(shù)據(jù)集的訓(xùn)練和學(xué)習(xí)[i]

也就是說,ChatGPT是通過海量(約45TB[ii])語料訓(xùn)練而掌握了語法和語義結(jié)構(gòu)的成熟的大型語言模型(Large Language Model, LLM),其特色是文本生成能力很強(qiáng),產(chǎn)生的文字風(fēng)格和內(nèi)容很像之前的輸入,即人類語言。由于訓(xùn)練語料涉及面廣,所以ChatGPT對各行各業(yè)的信息都有涉獵,總能略知一二,有時(shí)甚至回答得頭頭是道。對某些專業(yè)領(lǐng)域,比如編程,甚至可以產(chǎn)生準(zhǔn)確的代碼并直接運(yùn)行。然而,若仔細(xì)觀察,這些代碼往往都是解決特定的小任務(wù),代碼風(fēng)格似曾相識。若要完成一個創(chuàng)新的算法,或者復(fù)雜問題的編程,ChatGPT就無能為力了。

總體而言,這類通過學(xué)習(xí)語料來生成文本的AI模型,都是在學(xué)習(xí)過去,其目標(biāo)是模仿過去,生成出幾可亂真的作品,并不是真正意義下的創(chuàng)造未來。ChatGPT也不例外。作為助手,對思考的廣度往往有幫助,對思考的深度卻不盡然。

從聊天到業(yè)務(wù)助手

ChatGPT讓我們看到了大型語言模型的未來。然而,在企業(yè)應(yīng)用中,為了創(chuàng)造業(yè)務(wù)價(jià)值,這類對話形式的應(yīng)用(ChatBot)則更多用于對外的"客戶服務(wù)"或?qū)?nèi)的"業(yè)務(wù)助手"方面。這就對此類模型提出更高的要求——

第一, 準(zhǔn)確性和專業(yè)性

企業(yè)往往要求回答準(zhǔn)確且專業(yè),如果對答案沒有把握,回答"不知道"也好過生成一大段豐富而無用的文字。

ChatGPT是一種"開放領(lǐng)域系統(tǒng)"(Open-domain system),類似的還有Google的Bard,它們都需要海量的信息輸入和長時(shí)間的訓(xùn)練,能應(yīng)付所有領(lǐng)域的對話,回答內(nèi)容相關(guān)度高,對答自知,語法自然。

而企業(yè)級的ChatBot是一種"封閉領(lǐng)域系統(tǒng)"(Close-domain system),往往不是需要一個乖巧的"百事通",而是需要專業(yè)領(lǐng)域可靠的"知識助手"。它的訓(xùn)練語料是有限的,包含企業(yè)內(nèi)部文檔和資料、專業(yè)領(lǐng)域知識庫、外部該領(lǐng)域的相關(guān)文章等等,大量的資料都是不公開的。ChatBot能回答的問題也限定在專業(yè)領(lǐng)域的場景語境中。不必面面俱到,但求簡練、精準(zhǔn)、專業(yè)。

第二,主動式對話

碰到提問模棱兩可的時(shí)候,企業(yè)應(yīng)用往往要求通過主動引導(dǎo)式對話,甚至反問的辦法,迅速澄清意圖。然后,再給出明確的答案。這一點(diǎn)ChatGPT目前尚未做到,當(dāng)問題模糊時(shí),回答也模糊,提問者發(fā)現(xiàn)后,換一種問法,或者在對話中縮小范圍,可逐步得到想要的結(jié)果。整個過程中,ChatGPT每次都是被動回答。

第三,后臺集成能力

ChatBot往往作為企業(yè)對話的渠道入口,在提供服務(wù)時(shí)需要和企業(yè)大量的后臺系統(tǒng)集成。比如:在識別意圖后可以從數(shù)據(jù)庫或大數(shù)據(jù)平臺中自動收集相關(guān)數(shù)據(jù),并進(jìn)行分析和推理,得到客戶所需的明確答案;或者啟動一條指令或一個后臺流程,幫助客戶完成相關(guān)操作。

IBM Watson服務(wù)企業(yè)級AI應(yīng)用

OpenAI從2018年以來長期堅(jiān)持研發(fā)大型語言模型,通過不斷迭代,從最初的GPT-1到目前的GPT-3,且今年會發(fā)行GPT-4。目前,在開源社區(qū)找到GPT-3模型,也為企業(yè)開展此類研究提供了范本。

ChatGPT對企業(yè)的吸引力是毋庸置疑的,多數(shù)企業(yè)都有意愿擁有一個自己的ChatGPT。然而,當(dāng)前ChatGPT采用最新的GPT-3.5模型,含有千億級參數(shù),一次訓(xùn)練就要花費(fèi)數(shù)百萬美元[iii]。大多數(shù)企業(yè)不具備如此大的算力,但如果為了獲得對話模型,把企業(yè)內(nèi)部數(shù)據(jù)都上傳到網(wǎng)上,利用公有云訓(xùn)練也會有安全顧慮。所以,企業(yè)主導(dǎo)訓(xùn)練一個定制版ChatGPT,無論從財(cái)力還是合規(guī)方面都會有障礙。

IBM Watson,也就是IBM企業(yè)級的人工智能,經(jīng)過十多年的發(fā)展,從研究到實(shí)驗(yàn),至今已經(jīng)發(fā)展成為一套可以在紅帽 OpenShift上任意運(yùn)行的AI能力,以產(chǎn)品化的方式提供給用戶,幫助企業(yè)整合和分析混合環(huán)境下分散而復(fù)雜的企業(yè)數(shù)據(jù),從而實(shí)現(xiàn)數(shù)據(jù)驅(qū)動的預(yù)測性決策、智能自動化和基于企業(yè)內(nèi)外適時(shí)數(shù)據(jù)和洞察的安全策略與響應(yīng)。

今天IBM Watson已經(jīng)應(yīng)用于全球四萬多企業(yè)用戶的業(yè)務(wù)場景當(dāng)中,為具有不同水平AI技能的用戶提供尖端的AI能力,無論是缺乏AI技能卻想通過AI重獲時(shí)間效率的商務(wù)及專業(yè)人士(例如人力資源、財(cái)務(wù)、網(wǎng)絡(luò)安全管理人員等),還是具備一定AI技能并且正在大規(guī)模使用AI的數(shù)據(jù)科學(xué)家、IT專業(yè)人員等。

IBM Watson提供了許多不同的工具和服務(wù),用于解決多種問題。它涵蓋了語言處理,解釋、回答和生成文本等多種功能,以幫助客戶解決商業(yè)問題。同時(shí),它也提供了語音識別、圖像識別等其它功能,使之成為一個非常強(qiáng)大和全面的人工智能平臺。

長期以來,IBM Watson面向企業(yè)級AI應(yīng)用,特別為企業(yè)定制"業(yè)務(wù)助手"類的對話式應(yīng)用?;旧希琖atson有語音文字轉(zhuǎn)換、意圖識別、對話流設(shè)計(jì)、文本分析、知識整理、情感分析等功能。使得Watson可以在通用的語言模型上疊加專業(yè)領(lǐng)域知識,并有意識地設(shè)計(jì)和引導(dǎo)對話方向。

Watson通過后臺的機(jī)器學(xué)習(xí)、自然語言處理、文本生成、語音識別與合成、對話系統(tǒng)、知識圖譜技術(shù),可以分解文本結(jié)構(gòu),精準(zhǔn)定位觀點(diǎn)、事實(shí)、論據(jù)、邏輯關(guān)系等,早在數(shù)年前,采用IBM Watson技術(shù)的IBM人工智能辯手(Project Debater[iv]就曾以它的機(jī)智幽默和高情商而驚艷業(yè)界,它可以針對任何一個預(yù)設(shè)話題,比如"國家應(yīng)該為每個人提供基本收入",臨時(shí)選擇正方或反方,與人類的辯論冠軍選手進(jìn)行對辯。今天的ChatGPT也可以達(dá)到這個效果。應(yīng)該承認(rèn),其通用語言模型和文本生成技術(shù)所呈現(xiàn)的體驗(yàn)感受甚至可以超過Watson,令人驚艷,其開放的用戶界面更是讓大眾能夠親身體驗(yàn)這種驚艷,然而Watson的專業(yè)性、可設(shè)計(jì)性、集成性則更適合企業(yè)級的業(yè)務(wù)定位。IBM把這種普適性的大型基礎(chǔ)模型稱為基礎(chǔ)模型Foundation model[v],它利用遷移學(xué)習(xí)(Transfer learning)經(jīng)過少量的專業(yè)訓(xùn)練,就能進(jìn)入一個知識領(lǐng)域,并且得到新的啟發(fā),這一點(diǎn)非常像人類的學(xué)習(xí)過程,有廣闊的應(yīng)用前景,也是IBM今后研究的重點(diǎn)。

我設(shè)想,對于企業(yè)已有的Watson對話模型,也可以利用ChatGPT得到增強(qiáng)??梢允菂f(xié)同模式:當(dāng)發(fā)現(xiàn)是專業(yè)領(lǐng)域的封閉式問題,可用原有Watson模型回答,當(dāng)發(fā)現(xiàn)是開放式問題,可用ChatGPT回答。也可以通過競爭模式:一次生成多個答案,由人類做裁判,相互學(xué)習(xí),共同提高。

總言之,ChatGPT將人機(jī)對話的體驗(yàn)提高了一個檔次,利用強(qiáng)大的搜索和知識整理的能力,在問題回答的廣度上往往很有啟發(fā),但深度不足。目前只能學(xué)習(xí)(Learn)人類語言和知識,還做不到思考(Think)推理,也難以駕馭高度創(chuàng)新和深度思考的任務(wù)。我認(rèn)為,對于企業(yè)級的應(yīng)用,融合ChatGPT與IBM Watson之所長,不乏為快速高效地應(yīng)用AI 提升體驗(yàn)、創(chuàng)造價(jià)值之選。

參考資料:

[1] OpenAI公司在GitHub上開源的GPT-3模型,https://github.com/openai/gpt-3 

[2] IBM致力于基礎(chǔ)模型研究 https://research.ibm.com/blog/what-are-foundation-models

https://research.ibm.com/blog/molecular-transformer-discovery

本文作者簡介

陳宇翔先生現(xiàn)任IBM大中華區(qū)客戶成功架構(gòu)師,他是IBM杰出工程師(Distinguish Engineer), 也是IBM大中華區(qū)金融行業(yè)首席架構(gòu)師。在近25年的IT 從業(yè)經(jīng)歷中,他主持了許多大型項(xiàng)目的解決方案設(shè)計(jì)和IT 架構(gòu)設(shè)計(jì),熟悉銀行領(lǐng)域相關(guān)業(yè)務(wù),是行業(yè)高級顧問。陳宇翔先生也是軟件和技術(shù)專家,長期致力于軟件推廣工作。同時(shí)擁有IBM 高級工程師和資深架構(gòu)師認(rèn)證。

陳宇翔先生長期致力于"人工智能、云計(jì)算、物聯(lián)網(wǎng)、量子計(jì)算"的技術(shù)推廣,結(jié)合金融行業(yè)創(chuàng)新應(yīng)用,是金融行業(yè)創(chuàng)新解決方案設(shè)計(jì)的領(lǐng)導(dǎo)者和實(shí)踐者。

[i] 至頂網(wǎng)2023年2月8日文章:《助力AI科研,IBM研究院打造Vela超級計(jì)算機(jī)》鏈接:https://server.zhiding.cn/server/2023/0208/3147388.shtml

[ii] 東吳證券研報(bào)分析認(rèn)為,ChatGPT的模型經(jīng)歷從GPT-1到GPT-3的升級,優(yōu)化主要來自算力增加。GPT-1、GPT-2和GPT-3在算法模型并沒有太大改變,但參數(shù)量從1.17億增加到1750億,預(yù)訓(xùn)練數(shù)據(jù)量從5GB增加到45TB,其中GPT-3訓(xùn)練一次的費(fèi)用是460萬美元,總訓(xùn)練成本達(dá)1200萬美元。雖然訓(xùn)練數(shù)據(jù)量和算力大幅增加使GPT-3有顯著優(yōu)化,但高額投入也使其只能走B端變現(xiàn)。信息源:第一財(cái)經(jīng)2022年12月7日報(bào)道:《拳打谷歌ChatGPT火出圈!投資人稱更需警惕投資泡沫化跟風(fēng)》。信息源:https://www.yicai.com/news/101616572.html

[iii] 東吳證券研報(bào)分析認(rèn)為,ChatGPT的模型經(jīng)歷從GPT-1到GPT-3的升級,優(yōu)化主要來自算力增加。GPT-1、GPT-2和GPT-3在算法模型并沒有太大改變,但參數(shù)量從1.17億增加到1750億,預(yù)訓(xùn)練數(shù)據(jù)量從5GB增加到45TB,其中GPT-3訓(xùn)練一次的費(fèi)用是460萬美元,總訓(xùn)練成本達(dá)1200萬美元。雖然訓(xùn)練數(shù)據(jù)量和算力大幅增加使GPT-3有顯著優(yōu)化,但高額投入也使其只能走B端變現(xiàn)。信息源:第一財(cái)經(jīng)2022年12月7日報(bào)道:《拳打谷歌ChatGPT火出圈!投資人稱更需警惕投資泡沫化跟風(fēng)》,https://www.yicai.com/news/101616572.html

[iv] IBM中國微信公眾號 2019年5月19日文章:《AI下棋還在喧囂,AI辯論早已啟航》鏈接:https://mp.weixin.qq.com/s/XqvPkQqtpHjfp_Erh3QrAw

[v] 至頂網(wǎng)2023年2月14日文章《IBM運(yùn)用基礎(chǔ)模型加生成式AI,展示開創(chuàng)性AI研究成果》鏈接: https://www.sohu.com/a/640755030_114765

消息來源:IBM China
China-PRNewsire-300-300.png
全球TMT
微信公眾號“全球TMT”發(fā)布全球互聯(lián)網(wǎng)、科技、媒體、通訊企業(yè)的經(jīng)營動態(tài)、財(cái)報(bào)信息、企業(yè)并購消息。掃描二維碼,立即訂閱!
關(guān)鍵詞: 電腦/電子 電腦配件
collection