飛象網(wǎng)訊(高靖宇/文)在智能手機市場絡(luò)繹不絕的新品發(fā)布中,一波涌動的潮流正逐漸凸顯其輪廓——AI大模型。隨著ChatGPT的橫空出世和全民級應(yīng)用發(fā)展趨勢,手機廠商開始探索將AI大模型嵌入到智能手機中,從而為用戶提供更加個性化的智能體驗。
在近日舉行的OPPO開發(fā)者大會(ODC 2023)上,ColorOS 14正式亮相。與以往不同的是,在這一次的系統(tǒng)更新中,OPPO首次內(nèi)置了安第斯大模型(AndesGPT)。根據(jù)官方介紹,該模型包含了從10億到千億不同參數(shù)規(guī)模的多種模型,并將與潘塔納爾系統(tǒng)全面融合。
而在半個月前,vivo正式發(fā)布自研藍心大模型BlueLM,它是vivo自研通用大模型矩陣,從開源到完全自研歷時6年,包括十億、百億、千億三個不同參數(shù)量級的5款自研大模型,全面覆蓋核心應(yīng)用場景,并將大模型矩陣能力全面融入到OriginOS 4。
此外,榮耀CEO趙明也于近期透露,新機榮耀Magic6將會搭載自研的70億參數(shù)量級端側(cè)AI大模型。同樣地,華為宣布手機系統(tǒng)接入盤古大模型。
隨著頭部手機廠商入局AI大模型賽道,預(yù)示著,部署AI大模型的手機終端將會越來越普及,為行業(yè)帶來新的機會。
頭部廠商逐鹿AI大模型
如果說數(shù)據(jù)是新的石油,那么大模型就是提煉這個石油的精煉廠。大模型的出現(xiàn),使得我們能夠更有效地利用海量的數(shù)據(jù),從而提煉出有價值的信息。那么,大模型千億級的參數(shù)量如何在手機上流程運行,此時端云協(xié)同的混合架構(gòu)就成為關(guān)鍵。
OPPO安第斯大模型就采用云端相結(jié)合的方式落地端側(cè)大模型,通過手機端硬件和云的組合,可以實現(xiàn)以往單純依賴云服務(wù)的智能語音助手所不能實現(xiàn)的功能。此外,大模型會根據(jù)任務(wù)需求和模型能力不同,調(diào)用不同模型。簡單任務(wù),如聯(lián)系人查詢等,將采用小模型端側(cè)快速響應(yīng),而復(fù)雜任務(wù),如知識、信息查詢等,將使用云端大模型進行準確回答。
vivo的藍心大模型包含有10億、70億、700億、1300億、1750億五種參數(shù)規(guī)模,其中10億和70億已經(jīng)可以由本地算力支撐,而更大的數(shù)據(jù)仍然需要運行在云端。為此,vivo并不會強制用戶必須使用端側(cè)或者云端,而是交給用戶自己去選擇,比如隱私保密性不需要那么高的輸入法等功能,可以選擇在云端運行,而公司文件、相冊等,就可以利用手機本身的算力來完成。
與單純在云端部署生成式 AI 應(yīng)用和服務(wù)相比,手機終端側(cè)部署生成式 AI 可以實現(xiàn)在設(shè)備端運行復(fù)雜的AI算法,從而減少對云端服務(wù)的依賴,個人私密信息也不用上傳的云端,保障數(shù)據(jù)安全。此外,手機可以更好地理解和響應(yīng)用戶的需求,從而滿足用戶對更加智能化手機的期待。
OPPO數(shù)智工程事業(yè)部總裁劉海鋒表示,在生成式AI技術(shù)的加持下,手機對于用戶意圖理解和情境感知將會更準確!氨热邕^去,系統(tǒng)只有知道用戶訂了高鐵去北京,才會推送高鐵行程信息。但未來手機系統(tǒng)會根據(jù)用戶需求提前形成一張包含高鐵班次、出行時間與出行地天氣溫度的新卡片進行推送。此外,系統(tǒng)還會根據(jù)交通擁堵情況,以及用戶偏好習(xí)慣,提供導(dǎo)航去高鐵站停車場等關(guān)聯(lián)服務(wù)推薦,如果識別到用戶是想去旅游,還會提供旅游相關(guān)一整套服務(wù)!
終端側(cè)部署AI大模型仍有挑戰(zhàn)
作為推動手機物種進化的先進技術(shù),與單純在云端部署生成式 AI 應(yīng)用和服務(wù)相比,手機終端側(cè)部署生成式 AI 在節(jié)約服務(wù)器成本、保護用戶信息安全、提升實時性和實現(xiàn)個性化用戶體驗等方面帶來了更加廣闊的應(yīng)用前景。同時,在手機端部署AI大模型仍然面臨不小的挑戰(zhàn)。
首先是算力,大模型的運算量大,需要強大的計算資源支持,手機廠商在算力基礎(chǔ)設(shè)施上的儲備往往不夠充足。vivo AI全球研究院院長周圍透露,目前1300億參數(shù)以上的大模型對算力要求非常高,現(xiàn)在訓(xùn)練都暫停了,1300億參數(shù)以下的大模型訓(xùn)練依然在繼續(xù)。據(jù)了解,vivo也與其他算力芯片廠商接觸,但還沒有明確的方案。
此外,從應(yīng)用側(cè)來看,輕量化本地部署是手機大模型的一個重要趨勢。為了在手機上高效運行大模型,手機廠商需要將模型進行壓縮和輕量化處理,通過剪枝、量化、分解等技術(shù),以減小模型的大小和計算量,以確保模型能夠在手機上高效運行。
在業(yè)內(nèi)看來,目前AI大模型在手機端側(cè)的應(yīng)用還在起步階段,但卻是未來必爭的技術(shù)高地。根據(jù)IDC預(yù)測,到2026年,中國市場中近50%的終端設(shè)備的處理器將帶有AI引擎技術(shù)。這意味著,手機廠商擁有AI大模型的能力將變得越來越重要。對于用戶而言,在AI大模型的賦能下,未來手機演進將迎來更多體驗層的“質(zhì)變”性創(chuàng)新。