亚洲av无码成h人动漫无遮挡,特级欧美aaaaaaa免费观看,丝袜制服av熟女♀,亚洲avav天堂av在线网阿v,少妇人妻真实偷人精品视频

轉(zhuǎn)載CSDN | 被稱(chēng)為下一代風(fēng)口的AIGC到底是什么??

近日,短視頻平臺(tái)上“AI繪畫(huà)”的概念爆火, ChatGPT這一詞條也刷爆了科技圈,而這些概念同屬于一個(gè)領(lǐng)域—— AIGC。2022年12月, Science雜志發(fā)布的2022年度科學(xué)十大突破中, AIGC入選。那么,被稱(chēng)為是 AI下一代風(fēng)口的 AIGC到底是什么?

AIGC的概念
AIGC全稱(chēng)為AI-Generated Content,即利用人工智能技術(shù)來(lái)自動(dòng)生產(chǎn)內(nèi)容。具體可基于生成對(duì)抗網(wǎng)絡(luò)GAN、生成擴(kuò)散模型和大型預(yù)訓(xùn)練模型等人工智能技術(shù),通過(guò)已有數(shù)據(jù)尋找規(guī)律,并通過(guò)適當(dāng)?shù)姆夯芰ι上嚓P(guān)內(nèi)容的技術(shù)。

AIGC已經(jīng)成為繼PGC(Professional Generated Content,專(zhuān)業(yè)生產(chǎn)內(nèi)容)和UGC(User Generated Content,用戶(hù)生產(chǎn)內(nèi)容)之后新型的內(nèi)容創(chuàng)作方式。

轉(zhuǎn)載CSDN | 被稱(chēng)為下一代風(fēng)口的AIGC到底是什么??
AIGC是繼PGCUGC后又一內(nèi)容創(chuàng)作方式
圖片來(lái)源:A16Z,中金公司標(biāo)題
其實(shí)AIGC的概念并非今年才出現(xiàn),在此前,類(lèi)似于微軟小冰等人工智能作詩(shī)、寫(xiě)作、創(chuàng)作歌曲的產(chǎn)品就屬于A(yíng)IGC的領(lǐng)域。但2022年以來(lái),AIGC又集中爆發(fā),國(guó)內(nèi)外的科技巨頭公司和投資公司紛紛入局,其原因可能在于以下幾點(diǎn):

文本-圖像生成模型Stable Diffusion的正式開(kāi)源,包括程序和訓(xùn)練好的模型。這給了后繼創(chuàng)業(yè)者一些高起點(diǎn)的機(jī)會(huì),有利于更廣泛的C端用戶(hù)普及。

深度學(xué)習(xí)算力、互聯(lián)網(wǎng)數(shù)據(jù)規(guī)模擴(kuò)張以及生成擴(kuò)散模型和多模態(tài)預(yù)訓(xùn)練模型等技術(shù)的快速發(fā)展,使人工智能技術(shù)也隨之迅速發(fā)展。從最初的文字生成逐漸發(fā)展為多模態(tài)和跨模態(tài)的內(nèi)容生成。

如今各類(lèi)社交和流媒體平臺(tái)的普及,也驅(qū)動(dòng)著內(nèi)容生產(chǎn)方式的演變。

外部環(huán)境因素影響。在經(jīng)濟(jì)低迷時(shí)期,科技行業(yè)會(huì)選擇相應(yīng)收斂開(kāi)支,并將重點(diǎn)放在像是人工智能商業(yè)化這類(lèi)更務(wù)實(shí)的地方。

AIGC的發(fā)展歷程
事實(shí)上,使用計(jì)算機(jī)生成內(nèi)容的想法自上個(gè)世紀(jì)五十年代就已經(jīng)出現(xiàn),早期的嘗試側(cè)重于通過(guò)讓計(jì)算機(jī)生成照片和音樂(lè)來(lái)模仿人類(lèi)的創(chuàng)造力,生成的內(nèi)容也無(wú)法達(dá)到高水平的真實(shí)感。結(jié)合人工智能的演進(jìn)改革,AIGC的發(fā)展可以大致分為以下三個(gè)階段:

早期萌芽階段(1950s-1990s),受限于科技水平,AIGC僅限于小范圍實(shí)驗(yàn)。1957年,萊杰倫·希勒(Lejaren Hiller)和倫納德·艾薩克森(Leonard Isaacson)通過(guò)將計(jì)算機(jī)程序中的控制變量改為音符,完成了歷史上第一部由計(jì)算機(jī)創(chuàng)作的音樂(lè)作品——弦樂(lè)四重奏《依利亞克組曲(Illiac Suite)》。1966年,約瑟夫·韋岑鮑姆(Joseph Weizenbaum)和肯尼斯·科爾比(Kenneth Colbv)共同開(kāi)發(fā)了世界上第一個(gè)機(jī)器人“伊莉莎(Eliza)”,其通過(guò)關(guān)鍵字掃描和重組來(lái)完成交互式任務(wù)。80年代中期,IBM基于隱馬爾可夫鏈模型創(chuàng)造了語(yǔ)音控制打字機(jī)“坦戈拉(Tangora)”,能夠處理兩萬(wàn)個(gè)單詞。

轉(zhuǎn)載CSDN | 被稱(chēng)為下一代風(fēng)口的AIGC到底是什么??
世界上第一個(gè)機(jī)器人“伊莉莎(Eliza)”標(biāo)題
沉積積累階段(1990s-2010s),AIGC從實(shí)驗(yàn)性向?qū)嵱眯灾饾u轉(zhuǎn)變。深度學(xué)習(xí)算法、圖形處理單元(GPU)、張量處理器(TPU)和訓(xùn)練數(shù)據(jù)規(guī)模等都取得了重大突破,受到算法瓶頸的限制,效果有待提升。2007 年,紐約大學(xué)人工智能研究員羅斯·古德溫(Ross Goodwin)裝配的人工智能系統(tǒng)通過(guò)對(duì)公路旅行中的所見(jiàn)所聞進(jìn)行記錄和感知,撰寫(xiě)出世界上第一部完全由人工智能創(chuàng)作的小說(shuō)《1 The Road》。2012年,微軟公開(kāi)展示了一個(gè)全自動(dòng)同聲傳譯系統(tǒng),通過(guò)深度神經(jīng)網(wǎng)絡(luò)(DNN)可以自動(dòng)將英文演講者的內(nèi)容通過(guò)語(yǔ)音識(shí)別、語(yǔ)言翻譯、語(yǔ)音合成等技術(shù)生成中文語(yǔ)音。

轉(zhuǎn)載CSDN | 被稱(chēng)為下一代風(fēng)口的AIGC到底是什么??
世界上第一部完全由人工智能創(chuàng)作的小說(shuō)《1 The Road》標(biāo)題
快速發(fā)展階段(2010s-至今),深度學(xué)習(xí)模型不斷迭代,AIGC取得突破性進(jìn)展。尤其在2022年,算法獲得井噴式發(fā)展,底層技術(shù)的突破也使得AIGC商業(yè)落地成為可能。下面列舉了一些迄今為止具有代表性的算法模型,其中主要集中在AI繪畫(huà)領(lǐng)域:

2014年6月,生成式對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)被提出。

2021年2月,OpenAI推出了CLIP(Contrastive Language-Image Pre-Training)多模態(tài)預(yù)訓(xùn)練模型。

2022年,擴(kuò)散模型Diffusion Model逐漸替代GAN。

上述三個(gè)算法是當(dāng)前AIGC的技術(shù)核心,下述算法模型大部分都是以此為基礎(chǔ)。

2018年12月,Nvidia推出StyIeGAN ,可以自動(dòng)生成高分辨率圖片。目前已升級(jí)到第四代模型。

2019年7月,DeepMind推出DVD-GAN ,可以生成連續(xù)視頻。

2021年1月,OpenAI 推出DALL-E,是首個(gè)引起公眾廣泛關(guān)注的文本生成圖像的模型之一。

2022年2月,開(kāi)源AI繪畫(huà)工具Disco Diffusion發(fā)布。

2022年3月,Meta推出Make-A-Scene這一AI圖像生成工具。

2022年4月,OpenAI 推出了DALL-E-2,在圖像分辨率、真實(shí)感和新功能上進(jìn)行了升級(jí)。

2022年4月,AI繪畫(huà)工具Midjourney發(fā)布。

2022年5月,Google推出Imagen,同樣是文本生成圖像的模型。

2022年6月,Google推出parti,與Imagen功能相同,但在模型算法、模型參數(shù)和圖像效果等方面做了升級(jí)。

2022年7月,開(kāi)源AI繪畫(huà)工具Stable Diffusion發(fā)布。

2022年9月,Meta推出Make-A-Video,可以從文字生成視頻。

2022年10月,Google提出Imagen video,同樣是文字生成視頻的模型。

2022年11月,Stable Diffusion 2.0發(fā)布,在模型算法、圖像質(zhì)量和內(nèi)容過(guò)濾等方面做了升級(jí)。

2022年11月,openAI推出 AI 聊天機(jī)器人chatGPT。

關(guān)于上述算法模型的具體原理和分析,可以期待我們的下一篇文章哦~

AIGC的應(yīng)用場(chǎng)景
AIGC在面向不同對(duì)象和不同場(chǎng)景時(shí),具有強(qiáng)大的自適應(yīng)創(chuàng)作能力,因此被應(yīng)用在了多種場(chǎng)景。具體包括:

【圖像生成】
該領(lǐng)域目前發(fā)展勢(shì)頭最猛,且落地產(chǎn)品較多。根據(jù)使用場(chǎng)景,可分為圖像編輯工具和端到端圖像生成。圖像編輯包括圖像屬性編輯(如去水印、風(fēng)格遷移、圖像修復(fù)等)和圖像內(nèi)容編輯(如修改面部特征、換臉等)。端到端圖像生成包括基于圖像生成(如基于草圖生成完整圖像,根據(jù)特定屬性生成圖像等)和多模態(tài)轉(zhuǎn)換(如根據(jù)文字生成圖像等)。

典型的產(chǎn)品或算法模型包括EditGAN、Deepfake、DALL-E、MidJourney、Stable Diffusion、文心·一格等。

視頻生成
視頻生成與圖像生成在原理上有一定相似性,可分為視頻編輯(如畫(huà)質(zhì)修復(fù)、視頻特效、視頻換臉等)、視頻自動(dòng)剪輯和端到端視頻生成(如文字生成視頻等)。

典型的產(chǎn)品或算法模型包括Deepfake、videoGPT、Gliacloud、Make-A-Video、Imagen video等。

【文本生成】
基于NLP技術(shù)的文本生成可以算是AIGC中發(fā)展最早的一部分技術(shù),功能也較為多樣。根據(jù)使用場(chǎng)景,可分為非交互式文本生成和交互式文本生成。非交互式文本生成包括內(nèi)容續(xù)寫(xiě)、摘要/標(biāo)題生成、文本風(fēng)格遷移、整段文本生成、圖像生成文字描述等功能。交互式文本生成包括聊天機(jī)器人、文本交互游戲等功能。

典型的產(chǎn)品或算法模型包括JasperAI、Copy.ai、彩云小夢(mèng)、AI dungeon、ChatGPT等。

【音頻生成】
音頻生成中的部分技術(shù)已經(jīng)較為成熟,被應(yīng)用于多種C端產(chǎn)品中。音頻生成可分為T(mén)TS(Text-to-speech)場(chǎng)景和樂(lè)曲生成兩類(lèi)。其中TTS包括語(yǔ)音客服、有聲讀物制作、智能配音等功能。樂(lè)曲生成包括基于開(kāi)頭旋律、圖片、文字描述、音樂(lè)類(lèi)型、情緒類(lèi)型等生成特定樂(lè)曲。

典型的產(chǎn)品或算法模型包括DeepMusic、WaveNet、Deep Voice、MusicAutoBot等。

【游戲生成】
游戲生成主要包括游戲元素生成和游戲策略生成,其中游戲元素生成包括游戲場(chǎng)景、游戲劇情、NPC角色等元素的生成。游戲策略生成主要指對(duì)戰(zhàn)策略,一般基于深度強(qiáng)化學(xué)習(xí)的技術(shù)。

典型的產(chǎn)品或算法模型包括rct AI、超參數(shù)、騰訊AI Lab等。

【代碼生成】
代碼生成主要包括代碼輔助的功能,包括代碼補(bǔ)全、自動(dòng)注釋、根據(jù)上下文生成代碼、根據(jù)注釋生成代碼等功能。

典型的產(chǎn)品或算法模型包括Github Copilot、Replit、CodeGeeX、Mintlify等。

【3D生成】
與圖像生成和視頻生成相比,目前3D內(nèi)容生成還處于較為初級(jí)階段?,F(xiàn)有的3D生成基本為基于圖像或文本生成3D模型。

典型的產(chǎn)品或算法模型包括Magic3D、DreamFusion、AVAR等。

轉(zhuǎn)載CSDN | 被稱(chēng)為下一代風(fēng)口的AIGC到底是什么??
當(dāng)前AIGC market map
圖片來(lái)源:Leonis Capital標(biāo)題
AIGC圖像生成實(shí)例
AIGC圖像生成能帶來(lái)許多有趣甚至實(shí)用的圖像,比如以自動(dòng)駕駛為例,corner case一直是令感知工程師頭疼的問(wèn)題,缺乏corner case場(chǎng)景的數(shù)據(jù)集訓(xùn)練出來(lái)的算法,往往無(wú)法很好地應(yīng)對(duì)corner case場(chǎng)景。

但是重建或挖掘corner case場(chǎng)景數(shù)據(jù)又是一件很困難的事情,不過(guò)現(xiàn)在通過(guò)AIGC的方式,我們能夠通過(guò)算法生成corner case場(chǎng)景的圖像,如下圖所示,展示的就是算法生成的一系列白色大卡車(chē)側(cè)翻的圖像,雖然生成的圖像真實(shí)度還有進(jìn)步空間,但是也給我們打開(kāi)了新的一扇大門(mén),大規(guī)模的生成用于A(yíng)I算法訓(xùn)練的數(shù)據(jù)集。

整數(shù)智能也將在后續(xù)的AIGC系列分享中,給大家分享如何在數(shù)據(jù)標(biāo)注、模型訓(xùn)練等領(lǐng)域充分使用這些能力。

輸入文本:一輛白色大卡車(chē)側(cè)翻在高速路中央題

轉(zhuǎn)載CSDN | 被稱(chēng)為下一代風(fēng)口的AIGC到底是什么??

輸入文本:三輛白色大卡車(chē)側(cè)翻在高速路中央題

轉(zhuǎn)載CSDN | 被稱(chēng)為下一代風(fēng)口的AIGC到底是什么??

輸入文本:十輛白色大卡車(chē)側(cè)翻在高速路中央

轉(zhuǎn)載CSDN | 被稱(chēng)為下一代風(fēng)口的AIGC到底是什么??
參考文獻(xiàn)
Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial networks[J]. Communications of the ACM, 2020, 63(11): 139-144.

Radford A, Kim J W, Hallacy C, et al. Learning transferable visual modelsfromnatural language supervision [C]//International Conference on Machine Learning. PMLR, 2021: 8748-8763.

Yang L, Zhang Z, Song Y, et al. Diffusion models: A comprehensive survey of methods and applications[J]. arXiv preprint arXiv:2209.00796, 2022.

Ramesh A, Pavlov M, Goh G, et al. Zero-shot text-to-image generation[C]//International Conference on Machine Learning. PMLR, 2021: 8821-8831.

Saharia C, Chan W, Saxena S, et al. Photorealistic Text-to-Image Diffusion Models with Deep Language Understanding[J]. arXiv preprint arXiv: 2205. 11487, 2022.

Rombach R, Blattmann A, Lorenz D, et al. High-resolution image synthesis with latent diffusion models[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 10684-10695.

中國(guó)信通院《AIGC白皮書(shū)》

量子位《AIGC:AI生成內(nèi)容產(chǎn)業(yè)展望報(bào)告》

甲子光年《AIGC爆火的背后,錢(qián)都被誰(shuí)賺走了》

Leonis Capital《Generative AI: State of the Market, Trends and Startup Opportunities》
————————————————
版權(quán)聲明:本文為CSDN博主「整數(shù)智能AI研究院」的原創(chuàng)文章,遵循CC 4.0 BY-SA版權(quán)協(xié)議,轉(zhuǎn)載請(qǐng)附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/molardata/article/details/128658093

? 版權(quán)聲明

相關(guān)文章