亚洲av无码成h人动漫无遮挡,特级欧美aaaaaaa免费观看,丝袜制服av熟女♀,亚洲avav天堂av在线网阿v,少妇人妻真实偷人精品视频

全球范圍掀起了以大模型為代表的生成式AI浪潮,大模型想落地,先讓大家用得起!

AIGC行業(yè)資訊1年前 (2024)發(fā)布 jzawxc
15 0
全球范圍掀起了以大模型為代表的生成式AI浪潮,大模型想落地,先讓大家用得起!

自2023年開始,全球范圍掀起了以大模型為代表的生成式AI浪潮。過去一年,但凡和算力、算法、數(shù)據(jù)、網(wǎng)絡(luò)安全、云計算、AI相關(guān)的企業(yè)和題材,都在AI大模型題材的風口上,被追捧上了天。但從技術(shù)革新的角度看,國產(chǎn)大模型并沒有給生產(chǎn)生活方式帶來質(zhì)的改變。

前不久,李開復在一場采訪中直言不諱地指出,對于美國人來說,“ChatGPT時刻”發(fā)生在17個月前,但中國用戶卻還在翹首以待屬于自己的“AI時刻”。

歸根結(jié)底,國內(nèi)的聊天機器人和工具做得還不夠好?!爸袊仨殦碛凶约旱腃hatGPT,才能激發(fā)公眾對AI技術(shù)的極大興趣,并推動其在更廣泛領(lǐng)域的應(yīng)用和投資?!崩铋_復直言。

與此同時,不斷有大佬高喊“不能落地的大模型沒有意義”。

比如李彥宏就公開表示,中國現(xiàn)在數(shù)百個基礎(chǔ)模型是對社會資源巨大的浪費,更多的資源應(yīng)該如何探索與各行各業(yè)的結(jié)合,以及下一個超級應(yīng)用的可能性。

在需求端,市場其實非常迫切想要找到能快速落地、產(chǎn)生效益的AI產(chǎn)品和服務(wù)。對于大模型開發(fā)者和應(yīng)用者來說,卷參數(shù)已經(jīng)沒有任何意義。在火山引擎總裁譚待看來,“如何讓更多人、各行各業(yè)用起來”,才是現(xiàn)階段對于“好模型”的最佳定義。

多位行業(yè)人士判斷,今年將是中國生成式AI應(yīng)用的爆發(fā)元年。而當下打開市場的關(guān)鍵突破口,“價格”成為了行業(yè)的新共識。

用起來是關(guān)鍵

在剛剛結(jié)束的春季功能更新會上,OpenAI宣布了其最新模型GPT-4o,不僅性能有大幅提升,價格也下調(diào)了50%。要知道,這是自2023年初以來,OpenAI進行的第4次降價。

在當前市場上,大模型通常是以1000 tokens為計費單元。以GPT4為例,從去年3月發(fā)布至今,OpenAI把GPT-4升級到GPT-4o,輸入價格從0.03美元/1000 tokens下降到0.005美元/1000 tokens,降幅高達83%;輸出價格也從0.06美元/1000 tokens下降到0.015美元/1000 tokens,降幅為75%。

按照OpenAI的預期,其大模型將按照每年50-75%幅度繼續(xù)降本。

把降本深埋在業(yè)務(wù)發(fā)展主線的,不只有OpenAI。今年以來,為了加速應(yīng)用端的落地,國內(nèi)大模型玩家不僅開始順應(yīng)降價的趨勢,甚至降幅力度達到了驚人的程度。

例如智譜大模型在本月官宣其新的價格體系,入門級產(chǎn)品 GLM-3 Turbo 模型調(diào)用價格從 5 元/百萬 tokens 降至 1 元/百萬 tokens,降幅高達 80%。

再比如DeepSeek 在5 月 6 日發(fā)布的二代 MoE 大模型 DeepSeek-V2,能力對標GPT-4、llama 3-70B,每百萬 tokens 的輸入和輸出分別是 1 元和2 元,只有 GPT-4 Turbo 價格的近百分之一。

全球范圍掀起了以大模型為代表的生成式AI浪潮,大模型想落地,先讓大家用得起!

而字節(jié)在5月15日發(fā)布的豆包大模型,直接把AI使用成本從“以分為單位”,干到了“以厘為單位”的時代。

其中,主力模型豆包Pro 32k定價0.8厘/1000 tokens,比行業(yè)平均價格降低99.3%。在全行業(yè)降價的背景下,同樣是1塊錢,用戶可以從GPT買到2400個 token,國產(chǎn)大模型可以得到8000多個 token。

如果用戶用開源Llama模型自己搭建,大概能獲得3萬個 token。而1塊錢,能在豆包大模型上足足獲得125萬個 token,相當于處理3本75萬字的《三國演義》文字量。

在過去一年上演的“百模大戰(zhàn)”,每隔一段時間總會有人對“如何加速模型落地”進行追問。無可否認,AI大模型有無限大的價值,等著市場玩家去發(fā)掘,但眼下不過是行業(yè)非常初期的探索階段。

AI作為一場成本驅(qū)動的生產(chǎn)力革命,大模型的價值在于通過創(chuàng)建圖像和語言理解,讓創(chuàng)造的邊際成本無限趨近于零。在火山引擎總裁譚待看來,降價是價值創(chuàng)造的重要推動力:“大模型在 to B市場的應(yīng)用場景還很少,包括OpenAI也在不斷降價,大家的共同目標都是把市場蛋糕先做大?!敝挥薪档涂蛻粼囧e成本,才能促進產(chǎn)業(yè)繁榮。

一位行業(yè)人士坦言,目前中國AI大模型應(yīng)用的市場規(guī)模,與所有市場玩家投入的訓練成本相比杯水車薪。企業(yè)還無法靠 to B 服務(wù)做到正循環(huán),在收入方面的差距在兩個量級以上。在這種情況下,大模型企業(yè)試圖通過降價,讓更多人用起來,“至少是條可以嘗試的路子?!?/p>

低價而非價格戰(zhàn)

中國企業(yè)歷來奉行應(yīng)用主義,多數(shù)企業(yè)之所以愿意擁抱AI時代,就是希望自身在市場競爭中借助 AI 打造差異化優(yōu)勢,從而提升行業(yè)競爭力。

然而,面對市場層出不窮的大模型,用戶難以準確做出選型決策。再加上企業(yè)缺乏模型調(diào)優(yōu)和專業(yè)數(shù)據(jù)處理的經(jīng)驗,導致模型的實際應(yīng)用效果達不到預期,很難與自身業(yè)務(wù)相適配。

模型效果是AI落地最關(guān)鍵的一環(huán)。多位行業(yè)從業(yè)者表示,好的技術(shù)一定是在大規(guī)模應(yīng)用,不斷打磨的情況下形成的。這與字節(jié)在豆包大模型發(fā)布會上對外闡述的理念一致——用起來才是關(guān)鍵。“只有在真實場景中落地,用的人越多,調(diào)用量越大,才能讓模型越來越好?!弊T待告訴虎嗅。

通常來說,價格是用戶對于大模型的首要考慮因素。畢竟AI 創(chuàng)新的風險系數(shù)非常高,很多企業(yè)即使想做各種創(chuàng)新,可受限于模型使用成本,并且擔心模型難以勝任各垂類場景的任務(wù),導致ROI為負,因此會更傾向嘗試沒有門檻負擔的工具。

譚待粗略算了一筆賬,企業(yè)要想用AI做一項創(chuàng)新,至少要消耗100億 token,如果按照大模型之前的售價,平均需要花費80萬元,而現(xiàn)在使用豆包大模型,只需要8000元就能搞定。

過去,大模型推理成本下降,很大程度上依賴于算力的升級。而豆包之所以在價格上“碾壓”其他同類大模型,依靠的是模型結(jié)構(gòu)的優(yōu)化、工程上從傳統(tǒng)的單機推理變?yōu)榉植际酵评?,以及把不同負載的推理進行混合調(diào)度等方式,從而帶來超預期的降本效果,也成為打開AI應(yīng)用的重要“開關(guān)”。

值得注意的是,包括BATJ等頭部大廠,也都在把大模型的競爭焦點放在了模型訓練效率提升,降低大模型的推理成本上。

當然,如果單純拼價格,誰都能祭出價格更低的大模型。但如果要真正打破大模型與行業(yè)之間的高墻,讓美好的場景更廣泛地發(fā)生,更低的成本是必要條件,但不能以犧牲模型的質(zhì)量為前提。

例如市面上也有很多輕量化模型,雖然也做到了比較低的成本,但是以壓縮了模型能力和推理成本為代價,在效果上大打折扣,不能與其主力模型相提并論。

盡管大模型降價的趨勢已成必然,但字節(jié)的“行業(yè)最低價”也招致不小的熱議。

一方認為,豆包大模型以行業(yè)最低價讓企業(yè)用最低成本就能調(diào)用大模型,加速了應(yīng)用落地;另一方則批評,字節(jié)的野心讓其過早地觸發(fā)了價格戰(zhàn),隨著各家大模型使用成本逐步降低,接下來很可能會上演一場市場爭奪戰(zhàn)。

對于外界的質(zhì)疑,譚待解釋稱,大模型現(xiàn)在還是初期階段,遠沒有到激烈競爭的程度,模型的推理成本未來一定會繼續(xù)下降,“或許,等到那時再回看今天的0.8厘錢,也許一點都不便宜。相比之下,我們只不過是提前那么一步而已,目的并非是為了驅(qū)趕對手?!?/strong>

況且,低價不等同于“價格戰(zhàn)”。to B 需要保持長期的盈利,譚待表示:“不虧損是保障業(yè)務(wù)穩(wěn)定的關(guān)鍵,也是火山引擎的原則?!币驗橹挥羞@樣,才能長期可持續(xù)地提供服務(wù)。

從概念驗證邁向落地開花

在去年AI大爆發(fā)引發(fā)的大模型訓練熱潮中,包括智譜AI、月之暗面、MiniMax、零一萬物最早都使用了火山引擎的算力訓練模型。

譚待坦言,云市場其實比拼的就是規(guī)模。AI大模型的火熱,為云廠商開辟了新的市場機遇。微軟Azure就是最有力的證明。其通過投資綁定OpenAI讓云業(yè)務(wù)一路高歌猛進,躍升為全球第一的智能云。

目前,豆包大模型已通過火山引擎正式對外提供服務(wù)。根據(jù)官方數(shù)據(jù),豆包大模型單日Tokens的用量達1200億,單日生成的圖片數(shù)超過了3000萬張。

去年,當大多數(shù)在去年上演“百模大戰(zhàn)”時,字節(jié)的“缺席”曾一度被外界認為存在嚴重的滯后性。彼時的豆包大模型,還處于襁褓之中。誰曾想,隱忍多時的字節(jié),會在這個節(jié)點出手。

除了模型的效果和成本,應(yīng)用落地也非常關(guān)鍵。在過去一年里,豆包接入了包括抖音、頭條、番茄小說等50多個業(yè)務(wù),業(yè)務(wù)場景涵蓋辦公智能助手、電商導購、售后客服、營銷創(chuàng)作、數(shù)據(jù)智能分析、編程助手等,并邀請了手機、汽車、金融、消費、互娛領(lǐng)域的行業(yè)頭部客戶內(nèi)測。

在模型打磨的過程中,挑戰(zhàn)一直都在。首先要讓基礎(chǔ)能力和性能達到對應(yīng)的標準,然后對接企業(yè)客戶需要解決很多問題,比如搭建大模型評估和應(yīng)用流程,包括測試集合、案例分析和精調(diào)能力等,否則很難辨別哪些場景靠譜,哪些場景短期內(nèi)不合適。

也是在和企業(yè)客戶磨合的過程中,火山引擎團隊加深了對助手類、知識類、娛樂類、教育類等場景的了解和適配程度,并且針對不同場景在火山方舟2.0平臺植入了對應(yīng)的插件和工具平臺,不斷實踐摸索中找到最佳的解決方案。

大模型的能力目前很多維度上讓人驚嘆,但也有很多缺陷,同時又在快速演進,每隔三個月、半年都會發(fā)生很大變化?!斑@恰恰是做大模型產(chǎn)品的挑戰(zhàn)和樂趣,需要在這種持續(xù)動態(tài)的技術(shù)發(fā)展中,不斷去判斷下一個產(chǎn)品的PMF?(產(chǎn)品市場匹配點)可能是什么。”

值得一提的是,在字節(jié)的AI 應(yīng)用搭建平臺“扣子”上,已經(jīng)有些開發(fā)者通過自己開發(fā)的應(yīng)用,獲得了一定收入。譚待預測在今年下半年,大模型在應(yīng)用方面將會讓更多場景,從概念驗證階段走向落地階段。

眼下,火山引擎和招商銀行、蒙牛、OPPO等企業(yè)用戶,在核心業(yè)務(wù)場景都已展開了合作和探索,至于大模型將如何塑造未來,一切還要交給時間去驗證。

? 版權(quán)聲明

相關(guān)文章