這次的AI狂潮,和之前的炒作有什麼不同?企業若想發揮價值,專家點出3大挑戰

AI題材是推升今年股市行情的重要功臣,但面對千載難逢的技術革命浪潮中,企業若要充分發揮生成式AI的價值和潛力,必須解決三大核心挑戰。(美聯社)

近年AI技術與應用發展突飛猛進,自從ChatGPT問世之後,眾人對於AI的關注、創新和投資達到了空前的熱度。VMware執行長Raghu Raghuram認為,面對千載難逢的技術革命浪潮中,企業若要充分發揮生成式AI的價值和潛力,必須解決三大核心挑戰,透過導入AI應用提升工作者的生產力並加快全球經濟發展。

Raghu Raghuram分析,比起前幾次對於AI的炒作,這次的不同之處在於生成式AI能讓我們以對話的方式與強大的AI工具進行互動,進而生成包括文本、程式碼、視訊、音訊在內的全新內容。

如今的大型語言模型(LLM)讓英語、漢語等母語變成了真正的程式設計語言,人們在這些模型中輸入的提示詞,基本上就是它們用來運算答案的程式碼,這是有史以來距離實現程式設計真正普及化最近的一次。

Raghu Raghuram認為,這一切都在告訴人們,我們正處在一次千載難逢的革命浪潮中,這將為軟體發展、客戶支援、銷售、市場等主要的業務部門帶來轉型機遇。新一輪AI創新浪潮的加快將對整個全球經濟產生深遠影響。

有了生成式AI,人們可以透過解決不同學習者的差異性來重塑教育、幫助醫生做出臨床診斷、協助客戶做出投資決策等等,這都還只是冰山一角,根據麥肯錫最近的一份報告顯示,生成式AI每年可為全球創造高達7.9兆美元的經濟價值。

只不過,猶如以往此類大規模創新突破的早期階段一樣,人們在更加廣泛採用AI方面遇到了一些重大的障礙,而且若要在企業中充分發揮生成式AI的價值和潛力,必須共同解決三大核心挑戰。

挑戰一:將天價變成平價

Raghu Raghuram指出,訓練和管理當今的生成式AI模型既複雜又昂貴,需要耗費大量專用算力和高速網路以及無數記憶體。當前AI模型的效能與運算基礎設施的實際比例為1:1,在這種情況下既無法擴展,也不可持續。

風險投資機構Andreessen Horowitz最近將訓練ChatGPT這樣的模型描述為「人類迄今為止運算密集度最高的任務之一」。目前,單次訓練的價格從50萬美元到460萬美元不等,而且隨著模型的更新,訓練將成為一項持續性的花費。

看到這些令人瞠目結舌的費用,許多人便得出結論:全球將只會有極少數像ChatGPT這樣的「超大型LLM」。但其實還有另一條出路,未來一般企業都將能以可承受的價格構建並運行自己的定制化AI模型,這條路的關鍵在於靈活性和選擇性,儘管大多數資訊長都計畫使用超大型LLM來處理各種案例,但他們也想要構建大量較小的AI模型,以便針對特定任務進行優化,這些模型通常基於開源軟體。

事實上,目前開源AI模型的創新數量之大令人吃驚。可以預見的是,許多企業將把這些開放模型作為許多案例的首選,而不再依賴目前佔據主導地位的大型專有LLM。 (相關報導: 美元走弱,為何新台幣還是貶不停?央行點出關鍵因素,強調市場仍未失序 更多文章

這些開放的專用模型將充分利用企業獨有的知識財產——領域專用資料。我們可以在專門的基礎設施上經濟且高效地運行這些較小的AI系統,包括更加便宜的GPU(圖形處理單元)以及經過改良的低成本CPU,提供AI工作負載所需要的性能和輸送量。透過降低成本以及構建兼具靈活性和選擇性的解決方案,開闢一條對於主流企業來說更加可及的AI創新路徑。