亚洲av无码成h人动漫无遮挡,特级欧美aaaaaaa免费观看,丝袜制服av熟女♀,亚洲avav天堂av在线网阿v,少妇人妻真实偷人精品视频

Meta硬剛OpenAI,國產(chǎn)“小模型”官宣開源,“百模大戰(zhàn)”走向何方?

AIGC行業(yè)資訊1年前 (2024)發(fā)布 jzawxc
24 0

今年以來,全球互聯(lián)網(wǎng)大廠掀起“百模大戰(zhàn)”,微軟、谷歌、百度、阿里等接連下場。經(jīng)過半年多的競爭,科技巨頭們圍繞大模型生態(tài)正迎來新一輪道路之爭:面對參數(shù)“天花板”,大模型的未來走向封閉還是開放?

開源模型可在家用電腦運行

8月3日,國內(nèi)AI開發(fā)者社區(qū)“魔搭”(ModelScope)上架兩款開源模型Qwen-7B和Qwen-7B-Chat,分別為阿里云通義千問的70億參數(shù)通用模型和對話模型,兩款模型均開源、免費、可商用。

Meta硬剛OpenAI,國產(chǎn)“小模型”官宣開源,“百模大戰(zhàn)”走向何方?

據(jù)介紹,通義千問Qwen-7B是支持中英等多種語言的基座模型,在超過2萬億token(文本單位)數(shù)據(jù)集上訓(xùn)練,而Qwen-7B-Chat是基于基座模型的中英文對話模型,已達到人類的認知水平。簡而言之,前者好比“地基”,后者是地基之上的“房屋”。

經(jīng)過實際測試顯示,Qwen-7B模型的綜合表現(xiàn)不俗。其中在英文能力測評基準(zhǔn)MMLU上,得分普遍高于同等參數(shù)規(guī)模的主流模型,甚至趕超120億、130億參數(shù)規(guī)模的部分模型。而在中文評測C-Eval驗證集上,該模型也取得了同等規(guī)模的最高分。在數(shù)學(xué)解題能力評測GSM8K和代碼能力評測HumanEval方面,Qwen-7B模型表現(xiàn)也名列前茅。

也就是說,在中英文寫作、數(shù)學(xué)解題以及寫代碼等考試中,Qwen-7B模型妥妥是一名“學(xué)霸”,分?jǐn)?shù)甚至超過同等參數(shù)級別的國際主流大模型。

Meta硬剛OpenAI,國產(chǎn)“小模型”官宣開源,“百模大戰(zhàn)”走向何方?

除此之外,業(yè)界更關(guān)心Qwen-7B模型的易用性。眾所周知,主流大模型的訓(xùn)練和運行需要專門的AI訓(xùn)練芯片(如英偉達A100),這些芯片不僅售價昂貴,每塊英偉達A100售價高達1萬—1.5萬美元,而且被歐美等國家壟斷,國內(nèi)幾乎無法購買。而國產(chǎn)Qwen-7B模型支持消費級顯卡上部署,相當(dāng)于高性能的家用電腦就能運行該模型。

得益于免費商用加上低門檻,Qwen-7B模型的上架,引起了AI開發(fā)者的關(guān)注。短短一天,在代碼托管平臺GitHub上,Qwen-7B模型已被千余名開發(fā)者標(biāo)星收藏,絕大多數(shù)提問者均為中文開發(fā)者。正如阿里云在聲明中所說:“相比英文世界熱鬧的AI開源生態(tài),中文社區(qū)缺少優(yōu)秀的基座模型。通義千問的加入有望為開源社區(qū)提供更多選擇,推動中國AI開源生態(tài)建設(shè)?!?/p>

開源還是封閉

事實上,Qwen-7B模型并非首款開源的大模型,其實ChatGPT的“前輩”GPT-2也是徹底開源的,其代碼和框架在互聯(lián)網(wǎng)上均可免費使用,還有相關(guān)論文可供查閱。而OpenAIChatGPT火遍全球之后選擇了閉源發(fā)展,GPT-3和GPT-4等模型代碼已成為OpenAI的商業(yè)機密。

所謂開源,就是開放源代碼。比如大模型一旦宣布開源后,在版權(quán)限制范圍內(nèi),任何人都可以公開獲取模型源代碼,并進行修改甚至重新開發(fā)。打個簡單的比方,源代碼就像是一幅畫的底稿,所有人可以照著底稿填色創(chuàng)造自己的藝術(shù)畫作。

閉源與開源正好相反,只有源代碼所有者(通常是軟件開發(fā)商)掌握代碼修改的權(quán)力,其他人沒辦法獲取“底稿”,只能向軟件開發(fā)商購買成品。

開源和閉源的優(yōu)劣都非常明顯。大模型開源后無疑會吸引更多開發(fā)者,大模型的應(yīng)用也將更加豐富,但相應(yīng)的監(jiān)管和商業(yè)化將成為難題,容易出現(xiàn)“替人做嫁衣”的尷尬局面。畢竟,開源考慮的是生態(tài)共榮,到底能賺多少錢的經(jīng)濟賬,這一階段很難算清楚,而這些難題恰好是閉源的機遇。

開源還是閉源,這是一道大模型的生死題,國際巨頭已給出答案。

Meta硬剛OpenAI,國產(chǎn)“小模型”官宣開源,“百模大戰(zhàn)”走向何方?

Facebook母公司Meta在上個月發(fā)布了大模型Llama2,開源免費給開發(fā)者和商業(yè)伙伴使用,而OpenAI則堅定地選擇了GPT-4閉源發(fā)展,不僅能保持OpenAI在生成式AI行業(yè)的領(lǐng)先地位,還能賺取更多營收。根據(jù)權(quán)威雜志《Fast Company》預(yù)測,OpenAI在2023年的收入將達到2億美元,包括提供API數(shù)據(jù)接口服務(wù)、聊天機器人訂閱服務(wù)費等。

國內(nèi)大模型也逐漸開始“分道揚鑣”。阿里云的通義大模型早在今年4月宣布向企業(yè)開放,Qwen-7B模型的開源將開放之路走得更遠一些。百度的文心一言也在近期宣布,將逐步開放插件生態(tài)給第三方開發(fā)者,幫助開發(fā)者基于文心大模型打造自己的應(yīng)用。

相比之下,華為則不走尋常路。在發(fā)布盤古大模型3.0時,華為云公開表示,盤古大模型全棧技術(shù)均由華為自主創(chuàng)新的,沒有采用任何開源技術(shù),同時盤古大模型將聚集無數(shù)行業(yè)大數(shù)據(jù)(涉及行業(yè)機密等),因此盤古大模型在未來也不會開源。

大參數(shù)還是小而美

除此之外,Qwen-7B模型的開源,還帶來了另一個思考:我們到底需要多大參數(shù)的大模型?

不可否認,大模型的參數(shù)規(guī)模正在不斷膨脹。以O(shè)penAI旗下的GPT大模型為例,GPT-1僅包含1.17億參數(shù),GPT-3的參數(shù)已經(jīng)高達1750億,幾年時間內(nèi)增長了1000多倍,而GPT-4的參數(shù)已超過萬億級別。

國內(nèi)大模型亦是如此。百度文心大模型為2600億參數(shù),騰訊混元大模型達到千億級參數(shù),華為盤古大模型參數(shù)規(guī)模推測接近GPT-3.5,阿里通義大模型官宣已達10萬億參數(shù)……據(jù)不完全統(tǒng)計,中國10億參數(shù)規(guī)模以上的大模型至少有79個。

遺憾的是,參數(shù)越大并不代表大模型的能力越強。在世界人工智能大會上,騰訊云副總裁吳運聲有一個很恰當(dāng)?shù)谋扔鳎骸熬拖襁\動員練體力,舉重運動員要舉200斤杠鈴,游泳運動員舉100斤就夠了,不同類型的運動員不需要每個人都練習(xí)200斤重的杠鈴?!?/p>

眾所周知,大模型的參數(shù)越高,消耗的資源和成本也越相應(yīng)增加。而深耕行業(yè)的垂直類大模型,并不需要一味追求“規(guī)模大”或是“參數(shù)高”,更應(yīng)該根據(jù)客戶需求制定相關(guān)的模型參數(shù)。比如生物大模型BioGPT-Large僅有15億參數(shù),而在生物醫(yī)學(xué)專業(yè)測試中的準(zhǔn)確率,卻優(yōu)于千億級別參數(shù)的通用大模型。

OpenAI聯(lián)合創(chuàng)始人Sam Altman也公開表示,OpenAI正接近LLM(大型語言模型)規(guī)模的極限,規(guī)模越大并不一定意味著模型越好,參數(shù)規(guī)模不再是衡量模型質(zhì)量的重要指標(biāo)。

火山引擎智能算法負責(zé)人吳迪也有類似觀點,長期來看,降低成本將成為大模型應(yīng)用落地的重要因素,“一個經(jīng)過良好精調(diào)的中小規(guī)格模型,在特定工作上的表現(xiàn)可能不亞于通用大模型,而成本可能僅為原來的十分之一?!?/p>

當(dāng)下,國內(nèi)科技大廠幾乎都拿到了大模型的入場券,但真正的道路抉擇才剛開始。

? 版權(quán)聲明

相關(guān)文章