人妻无码中文字幕免费视频蜜桃,国内精品久久久久香蕉。,黑人大鸡巴强奸韩国女人,国产午夜三级视频在线观看

國產(chǎn)大模型第一梯隊(duì)玩家 為什么pick了CPU?

2024-07-10 18:43:53 189觀看

AI一天,人間一年。yXB驛資訊

現(xiàn)在不論是大模型本身,亦或是AI應(yīng)用的更新速度簡直令人直呼跟不上——yXB驛資訊

Sora、Suno、Udio、Luma……重磅應(yīng)用一個(gè)接一個(gè)問世。yXB驛資訊

也正如來自InfoQ的調(diào)查數(shù)據(jù)顯示的那般,雖然AIGC目前還處于起步階段,但市場規(guī)模已初具雛形:yXB驛資訊

預(yù)計(jì)到2030年將達(dá)4500億人民幣。AIGC應(yīng)用正呈現(xiàn)多點(diǎn)開花之勢,逐步從通用場景向行業(yè)縱深滲透。yXB驛資訊

行業(yè)整體迅速發(fā)展固然是好事,但具體到每個(gè)的應(yīng)用或者大模型的落地來說,面臨的競爭也越發(fā)激烈了。yXB驛資訊

例如前不久各個(gè)大模型廠商之間展開的非常激烈的“價(jià)格戰(zhàn)”,主打一個(gè)比誰更便宜,甚至直接把大模型價(jià)格推向“厘時(shí)代”。yXB驛資訊

加上近OpenAI的“斷供”事件,更是讓國內(nèi)廠商們在打出“輕松搬家”計(jì)劃的同時(shí),再加碼Tokens送送送的力度。yXB驛資訊

究其原因,也是與當(dāng)下應(yīng)用為王,尤其是以盡量低的成本把業(yè)務(wù)快速落地的這一大趨勢緊密相關(guān)。yXB驛資訊

那么問題來了,大模型玩家們何以在又快又好又省之間做到平衡?yXB驛資訊

這就回到了那個(gè)避不開,同時(shí)又是成本里占絕對大頭的因素——算力。yXB驛資訊

國產(chǎn)大模型第一梯隊(duì)玩家 為什么pick了CPU?yXB驛資訊

現(xiàn)在提及大模型的訓(xùn)練和推理,很多人的第一反應(yīng)或許就是想到了GPU。yXB驛資訊

誠然GPU在高性能上占據(jù)著一定的優(yōu)勢,但它所存在“硬傷”也是比較明顯,那便是供應(yīng)不足、價(jià)格昂貴。yXB驛資訊

何以破局?國產(chǎn)大模型第一梯隊(duì)玩家百度智能云千帆大模型平臺,就給出了自己的一個(gè)更具“效價(jià)比”的解法:yXB驛資訊

除了少數(shù)大客戶對大型模型追求卓越的性能表現(xiàn)外,大多數(shù)企業(yè)和機(jī)構(gòu)在采用大型模型時(shí),需要全面評估其使用效果、性能表現(xiàn)以及成本效益,也就是所謂的”性價(jià)比”。yXB驛資訊

具體到算力的部署上,百度智能云AI與大模型平臺總經(jīng)理忻舟認(rèn)為:yXB驛資訊

跑AI這件事,其實(shí)早期一直是CPU在發(fā)揮作用;GPU的火爆也是近幾年的事情。yXB驛資訊

很多場景之下,GPU雖然有高密度的計(jì)算能力,但實(shí)測表明,現(xiàn)在的高端CPU同樣也可以完全勝任。yXB驛資訊

而且整個(gè)AI業(yè)務(wù)流中不止是有大模型需要做計(jì)算,同樣涉及前期的數(shù)據(jù)清洗等環(huán)節(jié),這些環(huán)節(jié)中CPU起到了非常重要的作用。yXB驛資訊

一言蔽之,在大模型時(shí)代,CPU甚至比以往更加重要了,而且是能讓大模型和應(yīng)用做到“快好省”落地的關(guān)鍵因素之一。yXB驛資訊

那么具體“上崗”效果又是如何,我們繼續(xù)往下看。yXB驛資訊

國產(chǎn)頭部大模型玩家,pick了CPUyXB驛資訊

國內(nèi)AIGC應(yīng)用爆發(fā),這其中,百度智能云千帆大模型平臺功不可沒。yXB驛資訊

作為企業(yè)使用大模型的”一站式”服務(wù)平臺,千帆大模型平臺自去年3月發(fā)布以來已有超12萬客戶使用,累計(jì)調(diào)優(yōu)模型2萬個(gè),孵化應(yīng)用4.2萬個(gè)。yXB驛資訊

這些應(yīng)用覆蓋教育、金融、辦公、醫(yī)療等眾多場景,為行業(yè)數(shù)字化轉(zhuǎn)型提供了有力支撐。yXB驛資訊

在教育領(lǐng)域,千帆大模型平臺賦能了試題生成、在線批改、題目解析等應(yīng)用,大大提升了教學(xué)和備考效率。yXB驛資訊

例如用戶可以提供參考材料,設(shè)定題型和難度,平臺就能自動(dòng)生成高質(zhì)量的試題。而交互式的題目解析,則可以針對每位學(xué)生的薄弱環(huán)節(jié),提供個(gè)性化的學(xué)習(xí)指導(dǎo)。yXB驛資訊

在辦公場景,千帆大模型平臺與業(yè)內(nèi)頭部企業(yè)合作,共同打造了智能寫作助手等創(chuàng)新應(yīng)用,能夠根據(jù)用戶輸入的關(guān)鍵詞,快速生成招聘文案、營銷方案、數(shù)據(jù)報(bào)告等專業(yè)文檔。yXB驛資訊

還可以專注于各類寫作場景,可以智能生成論文大綱、項(xiàng)目匯報(bào)、品牌宣傳稿等,大大提升了行政和營銷人員的工作效率。yXB驛資訊

醫(yī)療健康是千帆大模型平臺的另一大應(yīng)用賽道?;卺t(yī)療知識庫訓(xùn)練的模型,可以自動(dòng)生成體檢報(bào)告解讀,用通俗易懂的語言向用戶解釋各項(xiàng)指標(biāo),并給出個(gè)性化的健康指導(dǎo)。yXB驛資訊

這讓普通大眾也能更好地了解自己的身體狀況,實(shí)現(xiàn)”健康自主管理”。yXB驛資訊

可以看到,千帆大模型平臺在多個(gè)領(lǐng)域?qū)崿F(xiàn)了AI模型的”后一公里”落地。yXB驛資訊

那么千帆大模型平臺是怎么支撐如此多AI應(yīng)用的呢?yXB驛資訊

答案是:讓CPU成為客戶的選擇之一,讓“效價(jià)比”的紅利普惠千行百業(yè)。yXB驛資訊

國產(chǎn)大模型第一梯隊(duì)玩家 為什么pick了CPU?yXB驛資訊

之所以如此,百度智能云所給出的解釋是:yXB驛資訊

目前,行業(yè)還存在大量離線的LLM應(yīng)用需求,如生成文章總結(jié)、摘要、數(shù)據(jù)分析等,與在線場景相比,離線場景通常會(huì)利用平臺的閑時(shí)算力資源,對于推理的時(shí)延要求不高,而對于推理的成本較為敏感,因此用戶更加傾向采用低成本、易獲得的CPU來進(jìn)行推理。yXB驛資訊

百度智能云等云平臺中部署著大量基于CPU的云服務(wù)器,釋放這些CPU的AI算力潛力將有助于提升資源利用率,滿足用戶快速部署 LLM 模型的需求。yXB驛資訊

國產(chǎn)大模型第一梯隊(duì)玩家 為什么pick了CPU?yXB驛資訊

至于效果,以Llama-2-7B為例,在第四代英特爾至強(qiáng)可擴(kuò)展處理器上輸出 Token 吞吐可達(dá) 100 TPS 以上,相比第三代提升了60%。yXB驛資訊

國產(chǎn)大模型第一梯隊(duì)玩家 為什么pick了CPU?yXB驛資訊
△Llama-2-7b模型輸出Token吞吐yXB驛資訊

在低延遲的場景,同等并發(fā)下,第四代至強(qiáng)可擴(kuò)展處理器的首Token時(shí)延比第三代至強(qiáng)可降低50%以上。yXB驛資訊

在將處理器升級為第五代至強(qiáng)可擴(kuò)展處理器之后,較上代的吞吐可提升45%左右,首 Token 時(shí)延下降50%左右。yXB驛資訊

國產(chǎn)大模型第一梯隊(duì)玩家 為什么pick了CPU?yXB驛資訊
△Llama-2-7b模型首Token時(shí)延yXB驛資訊

并且千帆大模型平臺團(tuán)隊(duì)根據(jù)實(shí)踐經(jīng)驗(yàn)還表示:yXB驛資訊

針對30B以下規(guī)模的LLM模型,皆可采用英特爾至強(qiáng)?可擴(kuò)展處理器來獲得良好性能體驗(yàn)。yXB驛資訊

不僅如此,利用充足的CPU資源,降低對于AI加速卡的需求,從而降低 LLM 推理服務(wù)的總體擁有成本 (TCO),特別是在離線的 LLM 推理場景中表現(xiàn)出色。yXB驛資訊

國產(chǎn)大模型第一梯隊(duì)玩家 為什么pick了CPU?yXB驛資訊

而且在千帆大模型平臺上,可不止是有自家的ERNIE,還有很多主流的大模型都集成于此。yXB驛資訊

這也在一定程度上從側(cè)面印證了第五代英特爾? 至強(qiáng)? 可擴(kuò)展處理器在性能上的過關(guān)。yXB驛資訊

國產(chǎn)大模型第一梯隊(duì)玩家 為什么pick了CPU?yXB驛資訊

英特爾第五代至強(qiáng),如何讓性能和效率變得Pro Max?yXB驛資訊

百度智能云千帆大模型平臺,不止需要大模型推理一種工作負(fù)載,它其實(shí)是一個(gè)覆蓋大模型全生命周期的平臺。yXB驛資訊

具體來說,千帆大模型平臺提供數(shù)據(jù)標(biāo)注,模型訓(xùn)練與評估,推理服務(wù)與應(yīng)用集成的全面功能服務(wù),以及快速應(yīng)用編排與插件集成,助力大模型多場景落地應(yīng)用。這樣一來,比起專為大模型推理部署專用加速器,充分利用平臺已廣泛部署的CPU資源,就是更劃算的選擇了。yXB驛資訊

對于千帆大模型平臺上存在的大量離線大模型應(yīng)用需求來說,如生成文章總結(jié)、摘要、評估多個(gè)模型的效果等,這類需求對推理的時(shí)延要求其實(shí)不高,但內(nèi)存容易成為瓶頸。yXB驛資訊

采用CPU來做,擴(kuò)展內(nèi)存更方便,還可以利用起平臺閑時(shí)的算力資源,進(jìn)一步提高資源利用率,起到降低總擁有成本的作用。yXB驛資訊

在這個(gè)大背景下,第五代英特爾至強(qiáng)可擴(kuò)展處理器中的性能密集型通用計(jì)算應(yīng)用負(fù)載(類似P Core性能核)的設(shè)計(jì)就尤為關(guān)鍵了。yXB驛資訊

與E Core(能效核)相比,P Core采用了追求性能大化的設(shè)計(jì),能承載非常重的負(fù)載,同時(shí)還兼顧了AI推理加速。yXB驛資訊

采用此設(shè)計(jì)的第五代至強(qiáng)可擴(kuò)展處理器,在兼顧AI推理加速這一點(diǎn)上可不是說說而已,而是軟硬件協(xié)同優(yōu)化,各方面都考慮到位了。yXB驛資訊

硬件方面,英特爾AMX(高級矩陣擴(kuò)展)技術(shù),正是為大模型推理重深度學(xué)習(xí)中大量的矩陣乘法運(yùn)算專門優(yōu)化的,可以理解成”CPU 里的 Tensor Core”。yXB驛資訊

有了英特爾AMX,處理器每個(gè)時(shí)鐘周期可完成高達(dá)2048個(gè)INT8運(yùn)算,比上一代AVX512_VNNI指令提升8倍之多。yXB驛資訊

更重要的是,英特爾AMX加速器是內(nèi)置在CPU核心里的,讓矩陣存儲(chǔ)和運(yùn)算更近,這一特性應(yīng)用在大模型推理上,能夠降低處理下一個(gè)Token的時(shí)延,讓終端用戶的體驗(yàn)更好。yXB驛資訊

國產(chǎn)大模型第一梯隊(duì)玩家 為什么pick了CPU?yXB驛資訊
△英特爾AMX 可以更高效的實(shí)現(xiàn) AI 加速yXB驛資訊

軟件方面,百度智能云千帆大模型平臺已經(jīng)引入了針對英特爾至強(qiáng)可擴(kuò)展平臺深度優(yōu)化的大模型推理軟件解決方案xFasterTransformer (xFT),并將其作為后端推理引擎。主要優(yōu)化策略如下:yXB驛資訊

-充分利用 AMX/AVX512 等指令集,高效實(shí)現(xiàn)核心算子如Flash Attention等yXB驛資訊

-采用低精度量化,降低數(shù)據(jù)訪存量,發(fā)揮 INT8/BF16 運(yùn)算的優(yōu)勢yXB驛資訊

-支持超大規(guī)模模型的多機(jī)多卡并行推理yXB驛資訊

國產(chǎn)大模型第一梯隊(duì)玩家 為什么pick了CPU?yXB驛資訊
△英特爾至強(qiáng)可擴(kuò)展處理器 LLM 推理軟件解決方案yXB驛資訊

后還要補(bǔ)充的一點(diǎn)是,要知道選擇一種硬件平臺,不止關(guān)乎于設(shè)備本身的采購價(jià)格,還會(huì)影響到后續(xù)的維護(hù)成本,甚至人才儲(chǔ)備成本。yXB驛資訊

所以正如百度智能云所言,高性價(jià)比的算力基礎(chǔ)設(shè)施,與先進(jìn)的大模型算法和平臺軟件相輔相成,讓上層的開發(fā)者們能夠更加平滑地應(yīng)用,構(gòu)建他們的業(yè)務(wù),才能大化云計(jì)算平臺的商業(yè)價(jià)值。yXB驛資訊

大模型時(shí)代,CPU大有可為yXB驛資訊

縱觀當(dāng)下,大模型正從實(shí)驗(yàn)室走向產(chǎn)業(yè),從少數(shù)人的“玩具”變?yōu)榇蟊娍捎玫?ldquo;工具”。yXB驛資訊

這意味著,大模型服務(wù)不僅要有優(yōu)秀的性能表現(xiàn),還要做到價(jià)格親民、部署便捷。一言以蔽之,“快好省”成了大模型商業(yè)化的關(guān)鍵一環(huán)。yXB驛資訊

而要實(shí)現(xiàn)“快好省”,算力基礎(chǔ)設(shè)施的選擇至關(guān)重要。yXB驛資訊

傳統(tǒng)觀點(diǎn)認(rèn)為,專用加速器才是AI的“標(biāo)配”。但在供應(yīng)緊張、成本高企的背景下,專用加速器的優(yōu)勢正在減弱。yXB驛資訊

相比之下,優(yōu)化良好的高端 CPU 不僅能提供足夠應(yīng)對大模型推理的算力,而且具有更廣泛的部署基礎(chǔ)和更成熟的軟件生態(tài)、以及更好的安全保障,開始受到越來越多業(yè)界玩家的青睞。yXB驛資訊

以英特爾至強(qiáng)系列為代表的x86架構(gòu)CPU,擁有成熟完善的軟件生態(tài)和廣泛的應(yīng)用基礎(chǔ)。數(shù)以百萬計(jì)的開發(fā)者可以利用現(xiàn)有工具和框架,快速構(gòu)建和優(yōu)化AI應(yīng)用,而無需額外學(xué)習(xí)專門的加速器軟件棧,大大降低了開發(fā)難度和遷移成本。yXB驛資訊

同時(shí),企業(yè)級用戶還可以利用CPU內(nèi)置的多層次安全技術(shù),實(shí)現(xiàn)從硬件到軟件的全棧保護(hù),充分保障數(shù)據(jù)安全和隱私。這些優(yōu)勢,是當(dāng)前專用加速器難以比擬的。yXB驛資訊

由此可見,充分利用CPU進(jìn)行推理,讓AI從“燒錢游戲”變?yōu)?ldquo;普惠科技”,正是AIGC產(chǎn)業(yè)應(yīng)對算力門檻,推動(dòng)規(guī)?;瘧?yīng)用落地的關(guān)鍵一招。未來,隨著技術(shù)創(chuàng)新和生態(tài)完善,這一模式還將為更多企業(yè)創(chuàng)造價(jià)值,為產(chǎn)業(yè)發(fā)展注入新的動(dòng)力。yXB驛資訊

除了直接加速推理任務(wù)外,CPU在完整的端到端AI管線中還能高效完成數(shù)據(jù)預(yù)處理、特征工程等AI全流程中的關(guān)鍵步驟。而支持機(jī)器學(xué)習(xí)和圖分析的各類數(shù)據(jù)庫,也主要是構(gòu)建在CPU之上的。以至強(qiáng)可擴(kuò)展處理器為例,除了英特爾AMX之外,還有諸如英特爾數(shù)據(jù)保護(hù)與壓縮加速技術(shù)(英特爾QAT)、英特爾存內(nèi)分析加速器(英特爾? IAA)等一系列數(shù)據(jù)分析引擎內(nèi)置于處理器中,通過卸載特定任務(wù)使CPU得到更好的利用,從而提升工作負(fù)載整體性能,實(shí)現(xiàn)數(shù)據(jù)分析加速。yXB驛資訊

由此可見,構(gòu)建“快、準(zhǔn)、穩(wěn)”的 AI 應(yīng)用,既要靠專用加速器強(qiáng)大的算力,也離不開CPU超強(qiáng)的通用計(jì)算能力去釋放整個(gè)系統(tǒng)的潛力。yXB驛資訊

本文鏈接:http://www.88neiyi.com/news-130690.html國產(chǎn)大模型第一梯隊(duì)玩家 為什么pick了CPU?

標(biāo)簽:
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。郵件:2376512515@qq.com。天上從來不會(huì)掉餡餅,請大家時(shí)刻謹(jǐn)防詐騙
伊人激情综合网| 最新国产福利在线看精品| 大鸡把肏屄在线免费观看| 原创AV系列色服务在线| 福利姬在线视频国产观看| 日产中文字幕乱码精品国| 人妻痴汉电车~さわられ| 在线观看免费插鸡吧视频| 在线精品国精品国产尤物| 免费网禁拗女资源网视频| 91啪国产视频| 国产xxxxxxxxx| 亚洲成a×人片在线观看| 夜澡人人澡人人澡人人艹| 美女被粗鸡巴草的嗷嗷叫| 大鸡巴操屄动画| 国产xxxxx免费视频| 亚洲图套超市综合海外av| 操中国东北老妓女大骚逼| 欧美色欧美亚洲另类视频| 啊啊啊啊啊有一点大视频| 国产精品一区二区三区a| 国产性一交一乱―色―情人| 加勒比人妻在线| WWW夜插内射视频网站| 美女被操b插b舔b视频| 操逼日批啊啊啊| 亚洲天堂日韩欧美在线播放| 精品熟女少妇一区二区三区| 男生操女生下面喷水视频| 亚洲自拍电影院不卡精品| 免费国产三级视频在线观看| 精品久久中文字幕一区二区| 最新四虎影在线在永久观看| 男女插鸡巴网站| 免费观看狠狠操调教骚货| 五十六十丰满老熟妇av| 国产成人精品在线免费看| 亚洲色视频手机在线观看| 性关系一区二区三区网站| 逼逼爱插插18|