亚洲av无码成h人动漫无遮挡,特级欧美aaaaaaa免费观看,丝袜制服av熟女♀,亚洲avav天堂av在线网阿v,少妇人妻真实偷人精品视频

ChatGPT是如何工作的?你在使用ChatGPT嗎?

AIGC行業(yè)資訊2年前 (2023)發(fā)布 編輯員
1.8K 0

我們深入研究了廣受歡迎的AI聊天機(jī)器人ChatGPT的內(nèi)部運(yùn)作方式。如果您想了解它是如何進(jìn)行生成式人工智能魔術(shù)的,請(qǐng)繼續(xù)閱讀。

谷歌、Wolfram Alpha和ChatGPT都通過(guò)一個(gè)單行文本輸入框與用戶(hù)進(jìn)行交互,并提供文本結(jié)果。谷歌返回搜索結(jié)果,即一系列網(wǎng)頁(yè)和文章,希望能提供與搜索查詢(xún)相關(guān)的信息。Wolfram Alpha通常提供與數(shù)學(xué)和數(shù)據(jù)分析相關(guān)的答案。

ChatGPT是如何工作的?你在使用ChatGPT嗎?

相比之下,ChatGPT根據(jù)用戶(hù)問(wèn)題背后的上下文和意圖提供響應(yīng)。例如,你無(wú)法要求谷歌寫(xiě)一個(gè)故事,也無(wú)法要求Wolfram Alpha編寫(xiě)一個(gè)代碼模塊,但ChatGPT可以完成這些任務(wù)。

從根本上講,谷歌的優(yōu)勢(shì)在于能夠進(jìn)行大量數(shù)據(jù)庫(kù)查詢(xún)并提供一系列匹配結(jié)果。Wolfram Alpha的優(yōu)勢(shì)在于能夠解析與數(shù)據(jù)相關(guān)的問(wèn)題,并根據(jù)這些問(wèn)題進(jìn)行計(jì)算。ChatGPT的優(yōu)勢(shì)在于能夠解析查詢(xún)并根據(jù)大部分全球數(shù)字可訪(fǎng)問(wèn)的文本信息生成完整的答案和結(jié)果,至少是在其2021年之前的訓(xùn)練時(shí)期存在的信息。

 

在本文中,我們將看看ChatGPT如何生成那些完整的答案。我們將首先介紹ChatGPT操作的主要階段,然后介紹一些核心的AI架構(gòu)組件,使其能夠正常運(yùn)行。

 

除了本文中引用的來(lái)源(其中許多是每種技術(shù)背后的原始研究論文),我還使用了ChatGPT本身來(lái)幫助我創(chuàng)建這篇背景文章。

 

ChatGPT操作的兩個(gè)主要階段

 

讓我們?cè)俅我怨雀枳鳛轭?lèi)比。當(dāng)你要求谷歌搜索某些內(nèi)容時(shí),你可能知道,它并不會(huì)在你提問(wèn)的那一刻立即搜索整個(gè)互聯(lián)網(wǎng)來(lái)尋找答案。相反,谷歌會(huì)在其數(shù)據(jù)庫(kù)中搜索與請(qǐng)求匹配的頁(yè)面。谷歌實(shí)際上有兩個(gè)主要階段:網(wǎng)絡(luò)爬蟲(chóng)和數(shù)據(jù)收集階段,以及用戶(hù)交互/查詢(xún)階段。

 

大致而言,ChatGPT的工作方式與此類(lèi)似。數(shù)據(jù)收集階段稱(chēng)為預(yù)訓(xùn)練階段,而用戶(hù)響應(yīng)階段稱(chēng)為推理階段。生成式人工智能背后的魔法以及它為什么突然爆發(fā)的原因在于,預(yù)訓(xùn)練的方式被證明具有巨大的可擴(kuò)展性。這種可擴(kuò)展性得益于最近在價(jià)格實(shí)惠的硬件技術(shù)和云計(jì)算方面的創(chuàng)新。

ChatGPT是如何工作的?你在使用ChatGPT嗎?AI的預(yù)訓(xùn)練如何工作

一般而言(具體細(xì)節(jié)需要大量篇幅來(lái)解釋?zhuān)?,AI使用兩種主要方法進(jìn)行預(yù)訓(xùn)練:有監(jiān)督和無(wú)監(jiān)督。在當(dāng)前一批生成式AI系統(tǒng)(如ChatGPT)出現(xiàn)之前,大多數(shù)AI項(xiàng)目都使用了有監(jiān)督的方法。

有監(jiān)督的預(yù)訓(xùn)練是一個(gè)模型在帶有標(biāo)簽的數(shù)據(jù)集上進(jìn)行訓(xùn)練的過(guò)程,其中每個(gè)輸入與相應(yīng)的輸出相關(guān)聯(lián)。

例如,可以對(duì)一個(gè)包含客戶(hù)服務(wù)對(duì)話(huà)的數(shù)據(jù)集進(jìn)行訓(xùn)練,其中用戶(hù)的問(wèn)題和投訴與客服代表的適當(dāng)回答標(biāo)記在一起。為了訓(xùn)練AI,用戶(hù)的輸入將是像“如何重置密碼?”這樣的問(wèn)題,而輸出將是像“您可以通過(guò)訪(fǎng)問(wèn)我們網(wǎng)站上的帳戶(hù)設(shè)置頁(yè)面,并按照提示進(jìn)行操作來(lái)重置密碼?!边@樣的回答。

在有監(jiān)督的訓(xùn)練方法中,整體模型被訓(xùn)練以學(xué)習(xí)一個(gè)能夠準(zhǔn)確映射輸入到輸出的映射函數(shù)。這個(gè)過(guò)程通常在有監(jiān)督學(xué)習(xí)任務(wù)中使用,比如分類(lèi)、回歸和序列標(biāo)記。

但是這種方法在可擴(kuò)展性方面存在限制。人類(lèi)訓(xùn)練者必須預(yù)測(cè)所有的輸入和輸出。訓(xùn)練可能需要很長(zhǎng)時(shí)間,并且在主題專(zhuān)業(yè)知識(shí)方面有限制。

但是,ChatGPT在主題專(zhuān)業(yè)知識(shí)方面幾乎沒(méi)有限制。你可以要求它為《星際迷航》中的角色邁爾斯·奧布萊恩(Chief Miles O’Brien)寫(xiě)一份簡(jiǎn)歷,讓它解釋量子物理學(xué),編寫(xiě)一段代碼,寫(xiě)一篇短篇小說(shuō),比較美國(guó)前總統(tǒng)的治理風(fēng)格。

預(yù)先預(yù)訓(xùn)練模型無(wú)法預(yù)測(cè)所有可能被問(wèn)到的問(wèn)題,因此無(wú)法使用有監(jiān)督模型對(duì)ChatGPT進(jìn)行訓(xùn)練。相反,ChatGPT使用無(wú)監(jiān)督的預(yù)訓(xùn)練,這是一個(gè)改變游戲規(guī)則的過(guò)程。

無(wú)監(jiān)督預(yù)訓(xùn)練是指模型在數(shù)據(jù)上進(jìn)行訓(xùn)練,其中每個(gè)輸入都沒(méi)有特定的輸出與之對(duì)應(yīng)。相反,模型被訓(xùn)練來(lái)學(xué)習(xí)輸入數(shù)據(jù)的潛在結(jié)構(gòu)和模式,而沒(méi)有特定的任務(wù)。這個(gè)過(guò)程通常在無(wú)監(jiān)督學(xué)習(xí)任務(wù)中使用,比如聚類(lèi)、異常檢測(cè)和降維。在語(yǔ)言建模的背景下,無(wú)監(jiān)督預(yù)訓(xùn)練可以用來(lái)訓(xùn)練模型理解自然語(yǔ)言的語(yǔ)法和語(yǔ)義,從而在對(duì)話(huà)環(huán)境中生成連貫且有意義的文本。

正是在這里,ChatGPT的表面上無(wú)限知識(shí)的能力成為可能。因?yàn)?a class="external" href="http://www.xmqqs.cn/tag/%e5%bc%80%e5%8f%91%e8%80%85" title="查看與 開(kāi)發(fā)者 相關(guān)的文章" target="_blank">開(kāi)發(fā)者不需要知道輸入產(chǎn)生的輸出,他們只需要將更多的信息倒入ChatGPT的預(yù)訓(xùn)練機(jī)制中,這被稱(chēng)為基于Transformer的語(yǔ)言建模。

Transformer架構(gòu)

Transformer架構(gòu)是一種用于處理自然語(yǔ)言數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)通過(guò)一系列相互連接的節(jié)點(diǎn)層次結(jié)構(gòu)來(lái)模擬人腦的工作方式來(lái)處理信息??梢詫⑸窠?jīng)網(wǎng)絡(luò)類(lèi)比為一支曲棍球隊(duì):每個(gè)球員都有自己的角色,但他們?cè)诰哂刑囟ń巧那騿T之間傳遞球,共同努力達(dá)成進(jìn)球。

ChatGPT是如何工作的?你在使用ChatGPT嗎?

Transformer架構(gòu)通過(guò)使用”自注意力”來(lái)處理單詞序列,在進(jìn)行預(yù)測(cè)時(shí)權(quán)衡序列中不同單詞的重要性。自注意力類(lèi)似于讀者回顧之前的句子或段落,以理解書(shū)中新單詞所需的上下文。Transformer會(huì)查看序列中的所有單詞,以理解上下文和單詞之間的關(guān)系。

Transformer由多個(gè)層組成,每個(gè)層都有多個(gè)子層。其中兩個(gè)主要的子層是自注意力層和前饋層。自注意力層計(jì)算序列中每個(gè)單詞的重要性,而前饋層對(duì)輸入數(shù)據(jù)應(yīng)用非線(xiàn)性變換。這些層幫助Transformer學(xué)習(xí)和理解序列中單詞之間的關(guān)系。

在訓(xùn)練過(guò)程中,Transformer接收輸入數(shù)據(jù)(如一個(gè)句子),并根據(jù)該輸入進(jìn)行預(yù)測(cè)。模型根據(jù)其預(yù)測(cè)與實(shí)際輸出的匹配程度進(jìn)行更新。通過(guò)這個(gè)過(guò)程,Transformer學(xué)習(xí)理解序列中單詞的上下文和關(guān)系,使其成為處理自然語(yǔ)言的強(qiáng)大工具,如語(yǔ)言翻譯和文本生成等自然語(yǔ)言處理任務(wù)。

有一件事需要記住的是,這些模型有可能生成有害或帶偏見(jiàn)的內(nèi)容,因?yàn)樗鼈兛赡軐W(xué)習(xí)到訓(xùn)練數(shù)據(jù)中存在的模式和偏見(jiàn)。實(shí)施這些模型的公司正在努力提供”防護(hù)措施”,但這些防護(hù)措施本身可能會(huì)引發(fā)問(wèn)題。這是因?yàn)椴煌娜擞胁煌挠^(guān)點(diǎn),試圖基于一種思維方式來(lái)避免偏見(jiàn)可能會(huì)被另一種思維方式視為偏見(jiàn)。鑒于整個(gè)社會(huì)的復(fù)雜性,設(shè)計(jì)一個(gè)通用的聊天機(jī)器人是困難的。

讓我們首先討論喂入ChatGPT的數(shù)據(jù),然后再看看ChatGPT和自然語(yǔ)言的用戶(hù)交互階段。

ChatGPT的訓(xùn)練數(shù)據(jù)集

用于訓(xùn)練ChatGPT的數(shù)據(jù)集非常龐大。ChatGPT基于GPT-3(Generative Pre-trained Transformer 3)架構(gòu)。現(xiàn)在,GPT的縮寫(xiě)有意義了,不是嗎?它是生成型的,意味著它能生成結(jié)果;它是預(yù)訓(xùn)練的,意味著它基于吸收的所有數(shù)據(jù);它使用了權(quán)衡文本輸入以理解上下文的Transformer架構(gòu)。

GPT-3是在一個(gè)名為WebText2的數(shù)據(jù)集上進(jìn)行訓(xùn)練的,這是一個(gè)超過(guò)45TB的文本數(shù)據(jù)庫(kù)。當(dāng)你可以用不到300美元購(gòu)買(mǎi)一個(gè)16TB的硬盤(pán)時(shí),45TB的數(shù)據(jù)集可能看起來(lái)并不那么龐大。但與圖片視頻相比,文本占用的存儲(chǔ)空間要少得多。

這么龐大的數(shù)據(jù)量使得ChatGPT能夠以前所未有的規(guī)模學(xué)習(xí)自然語(yǔ)言中的詞語(yǔ)和短語(yǔ)之間的模式和關(guān)系,這也是為什么它在生成連貫且與上下文相關(guān)的回答方面如此有效的原因之一。

雖然ChatGPT基于GPT-3架構(gòu),但它已經(jīng)在不同的數(shù)據(jù)集上進(jìn)行了微調(diào),并針對(duì)對(duì)話(huà)式使用場(chǎng)景進(jìn)行了優(yōu)化。這使得它能夠?yàn)橥ㄟ^(guò)聊天界面與其互動(dòng)的用戶(hù)提供更加個(gè)性化和引人入勝的體驗(yàn)。

例如,OpenAI(ChatGPT的開(kāi)發(fā)者)發(fā)布了一個(gè)名為Persona-Chat的數(shù)據(jù)集,專(zhuān)門(mén)用于訓(xùn)練像ChatGPT這樣的對(duì)話(huà)式AI模型。該數(shù)據(jù)集包含超過(guò)16萬(wàn)個(gè)由兩個(gè)人參與的對(duì)話(huà),每個(gè)參與者都被分配一個(gè)獨(dú)特的角色,描述其背景、興趣和個(gè)性。這使得ChatGPT能夠?qū)W習(xí)如何生成與對(duì)話(huà)的具體上下文相關(guān)的個(gè)性化和相關(guān)的回應(yīng)。

此外,還有許多其他用于微調(diào)ChatGPT的對(duì)話(huà)式數(shù)據(jù)集。以下是一些示例:

– Cornell電影對(duì)話(huà)語(yǔ)料庫(kù):包含電影劇本中角色之間的對(duì)話(huà)。它包括超過(guò)20萬(wàn)個(gè)對(duì)話(huà)交流,涵蓋了超過(guò)1萬(wàn)個(gè)角色對(duì),涉及多種主題和流派。

– Ubuntu對(duì)話(huà)語(yǔ)料庫(kù):由用戶(hù)尋求技術(shù)支持和Ubuntu社區(qū)支持團(tuán)隊(duì)之間的多輪對(duì)話(huà)組成。它包含超過(guò)100萬(wàn)個(gè)對(duì)話(huà),是研究對(duì)話(huà)系統(tǒng)的最大公開(kāi)數(shù)據(jù)集之一。

– DailyDialog:包含各種主題的人對(duì)人對(duì)話(huà),從日常生活對(duì)話(huà)到社會(huì)問(wèn)題討論。數(shù)據(jù)集中的每個(gè)對(duì)話(huà)由幾個(gè)輪次組成,并標(biāo)有一組情感、情緒和主題信息。

除了這些數(shù)據(jù)集,ChatGPT還在互聯(lián)網(wǎng)上的大量非結(jié)構(gòu)化數(shù)據(jù)上進(jìn)行了訓(xùn)練,包括網(wǎng)站、書(shū)籍和其他文本來(lái)源。這使得ChatGPT能夠更加普遍地學(xué)習(xí)語(yǔ)言的結(jié)構(gòu)和模式,然后可以對(duì)特定應(yīng)用(如對(duì)話(huà)管理或情感分析)進(jìn)行微調(diào)。

ChatGPT是一個(gè)獨(dú)特的模型,使用了與GPT系列類(lèi)似的訓(xùn)練方法,但在架構(gòu)和訓(xùn)練數(shù)據(jù)方面存在一些差異。ChatGPT有15億個(gè)參數(shù),比GPT-3的1750億個(gè)參數(shù)要少。

總體而言,用于微調(diào)ChatGPT的訓(xùn)練數(shù)據(jù)通常是對(duì)話(huà)式的,并經(jīng)過(guò)專(zhuān)門(mén)策劃以包含人類(lèi)之間的對(duì)話(huà),這使得ChatGPT能夠?qū)W習(xí)如何以對(duì)話(huà)的形式生成自然而引人入勝的回應(yīng)。

想象一下ChatGPT的無(wú)監(jiān)督訓(xùn)練方式:它被提供了大量數(shù)據(jù),并被放任自流地尋找模式和理解其中的含義。正是這種機(jī)制使得這些新的生成式AI系統(tǒng)能夠如此迅速地?cái)U(kuò)展起來(lái)。

雖然ChatGPT的生成式AI主要通過(guò)預(yù)訓(xùn)練來(lái)完成,但它還必須能夠理解問(wèn)題并從所有的數(shù)據(jù)中構(gòu)建答案。這是通過(guò)自然語(yǔ)言處理和對(duì)話(huà)管理組成的推理階段來(lái)實(shí)現(xiàn)的。

那么在預(yù)訓(xùn)練中人類(lèi)的參與如何?

盡管非監(jiān)督式預(yù)訓(xùn)練具有內(nèi)在的可擴(kuò)展性,但有證據(jù)表明在ChatGPT準(zhǔn)備用于公眾使用時(shí)可能涉及了人類(lèi)的協(xié)助。

《時(shí)代》雜志上的一篇文章揭示了這一情況,該文章討論了肯尼亞的人類(lèi)“數(shù)據(jù)標(biāo)注員”參與其中,他們每小時(shí)賺取1.32至2美元。根據(jù)《時(shí)代》的報(bào)道,這些工人的責(zé)任是瀏覽令人恐懼和性露骨的互聯(lián)網(wǎng)內(nèi)容,并為ChatGPT的訓(xùn)練標(biāo)記出來(lái)。

另一篇發(fā)布在AI新聞通訊Martechpost上的文章稱(chēng),這個(gè)大型語(yǔ)言模型是使用一種稱(chēng)為“人類(lèi)反饋強(qiáng)化學(xué)習(xí)”(RLHF)的過(guò)程進(jìn)行訓(xùn)練的。根據(jù)該文章的說(shuō)法,“訓(xùn)練過(guò)程中使用了經(jīng)過(guò)精細(xì)調(diào)整的初始模型,采用了有人類(lèi)訓(xùn)練師扮演用戶(hù)和AI助手的角色的監(jiān)督學(xué)習(xí)?!?/span>

在討論“訓(xùn)練”一詞的含義時(shí),存在一些微妙之處。根據(jù)ChatGPT自己的說(shuō)法,“OpenAI并沒(méi)有使用帶有人類(lèi)反饋的強(qiáng)化學(xué)習(xí)來(lái)訓(xùn)練我。相反,我是使用無(wú)監(jiān)督和監(jiān)督學(xué)習(xí)技術(shù)的組合進(jìn)行預(yù)訓(xùn)練的,如語(yǔ)言建模、自編碼和序列預(yù)測(cè)。我的訓(xùn)練過(guò)程涉及處理來(lái)自互聯(lián)網(wǎng)的大量文本數(shù)據(jù),這使我能夠?qū)W習(xí)詞語(yǔ)和短語(yǔ)之間的模式和關(guān)系。”

AI繼續(xù)說(shuō)道:“然而,一旦我完成了預(yù)訓(xùn)練,研究人員和開(kāi)發(fā)者可以使用帶有人類(lèi)反饋的強(qiáng)化學(xué)習(xí)來(lái)對(duì)我進(jìn)行精細(xì)調(diào)整,以適應(yīng)特定的任務(wù)或領(lǐng)域,如回答問(wèn)題或生成文本。在這些情況下,人類(lèi)可以通過(guò)獎(jiǎng)勵(lì)或懲罰的形式提供反饋,這可以用來(lái)更新我的參數(shù)并提高我在類(lèi)似任務(wù)上的性能?!?/span>

這似乎與Marktechpost和TIME的報(bào)道相符,即初始的預(yù)訓(xùn)練是無(wú)監(jiān)督的,允許大量的數(shù)據(jù)被輸入系統(tǒng)。但在構(gòu)建與用戶(hù)進(jìn)行對(duì)話(huà)的回應(yīng)引擎時(shí)(稍后會(huì)詳細(xì)介紹),這些回應(yīng)引擎顯然在回應(yīng)類(lèi)型上進(jìn)行了訓(xùn)練,并進(jìn)行了過(guò)濾不適當(dāng)材料的訓(xùn)練,而這些訓(xùn)練似乎是由人類(lèi)協(xié)助完成的。

自然語(yǔ)言處理

然語(yǔ)言處理(Natural Language Processing,NLP)專(zhuān)注于使計(jì)算機(jī)能夠理解、解釋和生成人類(lèi)語(yǔ)言。隨著數(shù)字?jǐn)?shù)據(jù)的指數(shù)增長(zhǎng)和自然語(yǔ)言界面的廣泛使用,NLP已經(jīng)成為許多企業(yè)的重要技術(shù)。

NLP技術(shù)可用于廣泛的應(yīng)用領(lǐng)域,包括情感分析、聊天機(jī)器人、語(yǔ)音識(shí)別和翻譯。通過(guò)利用NLP,企業(yè)可以自動(dòng)化任務(wù)、提升客戶(hù)服務(wù),并從客戶(hù)反饋和社交媒體帖子中獲得有價(jià)值的見(jiàn)解。

實(shí)施NLP的一個(gè)關(guān)鍵挑戰(zhàn)是處理人類(lèi)語(yǔ)言的復(fù)雜性和歧義性。NLP算法需要在大量數(shù)據(jù)上進(jìn)行訓(xùn)練,以識(shí)別模式并學(xué)習(xí)語(yǔ)言的細(xì)微差別。它們還需要不斷地進(jìn)行改進(jìn)和更新,以跟上語(yǔ)言使用和上下文的變化。

這項(xiàng)技術(shù)通過(guò)將語(yǔ)言輸入(如句子或段落)分解為較小的組件,并分析它們的含義和關(guān)系,以生成洞察或回應(yīng)。NLP技術(shù)使用統(tǒng)計(jì)建模、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)等多種技術(shù)手段,以識(shí)別模式并從大量數(shù)據(jù)中學(xué)習(xí),從而準(zhǔn)確地解釋和生成語(yǔ)言。

對(duì)話(huà)管理

您可能已經(jīng)注意到,ChatGPT可以詢(xún)問(wèn)后續(xù)問(wèn)題,以澄清您的意圖或更好地理解您的需求,并提供個(gè)性化的回應(yīng),同時(shí)考慮到整個(gè)對(duì)話(huà)歷史記錄。

這就是ChatGPT如何能夠與用戶(hù)進(jìn)行多輪對(duì)話(huà),以一種自然而引人入勝的方式。它涉及使用算法和機(jī)器學(xué)習(xí)技術(shù)來(lái)理解對(duì)話(huà)的上下文,并在與用戶(hù)的多次交流中保持對(duì)話(huà)。

對(duì)話(huà)管理是自然語(yǔ)言處理的重要組成部分,因?yàn)樗褂?jì)算機(jī)程序能夠以更像對(duì)話(huà)而不是一次性交互的方式與人進(jìn)行互動(dòng)。這有助于建立與用戶(hù)的信任和參與度,并最終為用戶(hù)和使用該程序的組織帶來(lái)更好的結(jié)果。

當(dāng)然,營(yíng)銷(xiāo)人員希望擴(kuò)大信任的建立,但這也是一個(gè)可能令人擔(dān)憂(yōu)的領(lǐng)域,因?yàn)檫@是AI可能操縱使用它的人的一種方式。

盡管已經(jīng)講了3200多個(gè)字,這只是對(duì)ChatGPT內(nèi)部工作的一個(gè)非?;镜母攀觥1M管如此,也許現(xiàn)在你對(duì)為什么這項(xiàng)技術(shù)在過(guò)去幾個(gè)月中爆發(fā)有了一些了解。關(guān)鍵在于數(shù)據(jù)本身并沒(méi)有受到”監(jiān)督”,而AI能夠理解并運(yùn)用它所接收的數(shù)據(jù)。

此外:ChatGPT和Bard:我們是否正在錯(cuò)誤的地方尋找答案?

真的很棒。

最后,我將整篇文章的草稿輸入ChatGPT,并要求AI用一句話(huà)描述這篇文章。這是它的回答:

ChatGPT就像Google和Wolfram Alpha的聰明堂兄,可以做一些它們無(wú)法做到的事情,比如寫(xiě)故事和編寫(xiě)模塊。

 

ChatGPT被認(rèn)為是一項(xiàng)沒(méi)有自我意識(shí)的技術(shù),但如果這個(gè)回答不讓你稍微感到毛骨悚然,那說(shuō)明你沒(méi)有認(rèn)真聽(tīng)。

 

你在使用ChatGPT嗎?你對(duì)它的工作原理還有哪些問(wèn)題?

如果你沒(méi)有用過(guò)或者沒(méi)有其他好用的ChatGPT,現(xiàn)推薦我一直在用的ChatGPT中文版-知否AI問(wèn)答,支持60余個(gè)應(yīng)用場(chǎng)景,包括論文助手、公司文案、營(yíng)銷(xiāo)文案、多語(yǔ)言翻譯、行政公文、科研課題、招投標(biāo)書(shū)、輔助編程、學(xué)習(xí)與教育、生活?yuàn)蕵?lè)等各個(gè)領(lǐng)域。

? 版權(quán)聲明

相關(guān)文章