亚洲av无码成h人动漫无遮挡,特级欧美aaaaaaa免费观看,丝袜制服av熟女♀,亚洲avav天堂av在线网阿v,少妇人妻真实偷人精品视频

提示學(xué)習(xí)(Prompt Learning)

AI應(yīng)用信息2年前 (2024)發(fā)布 XIAOT
187 0
Part 0

?NLP領(lǐng)域的技術(shù)(范式*)變遷

在正式介紹 prompt learning 之前,了解自然語(yǔ)言處理NLP)領(lǐng)域的研究范式變遷,有利于我們更好地理解 prompt learning 提出的背景,其和其他方法的異同,以及其研究?jī)r(jià)值所在。
Stage 1. 非神經(jīng)網(wǎng)絡(luò)時(shí)代的完全監(jiān)督學(xué)習(xí)(Fully Supervised Learning, Non-Neural Network),?針對(duì)目標(biāo)任務(wù),僅僅在包含了輸入-輸出(input-output)樣本的數(shù)據(jù)集上訓(xùn)練出一個(gè)task-specific的模型。該范式長(zhǎng)期在機(jī)器學(xué)習(xí)領(lǐng)域發(fā)揮了重要的作用,然而往往因?yàn)槿O(jiān)督的數(shù)據(jù)數(shù)量不足而難以訓(xùn)練出高質(zhì)量的模型,因此大量的研究者聚焦于利用領(lǐng)域知識(shí)從原始數(shù)據(jù)(raw data)中定義或抽取一些顯著特征(salient feature)從而為模型引入恰當(dāng)?shù)臍w納偏置(inductive bias),使其能從有限的數(shù)據(jù)中學(xué)習(xí),因此該階段的NLP模型主要依賴(lài)于特征工程(feature engineering)
Stage 2. 基于神經(jīng)網(wǎng)絡(luò)的完全監(jiān)督學(xué)習(xí) (Fully Supervised Learning, Neural Network),?隨著神經(jīng)網(wǎng)絡(luò)在NLP領(lǐng)域中的發(fā)展,訓(xùn)練模型的同時(shí)能一并學(xué)習(xí)特征,因此研究者們的聚焦點(diǎn)轉(zhuǎn)移到了結(jié)構(gòu)工程(architecture engineering),因此該階段是通過(guò)設(shè)計(jì)一些有利于特征學(xué)習(xí)的模型結(jié)構(gòu)來(lái)引入歸納偏置。
Stage 3. 預(yù)訓(xùn)練,精調(diào)范式 (Pre-trAIn, Fine-tune),?2017-2019年間,NLP領(lǐng)域的范式又一次發(fā)生了巨大的變化,模型的參數(shù)不再是隨機(jī)初始化的,而是通過(guò)一些前置任務(wù),預(yù)先進(jìn)行訓(xùn)練,得到一套模型參數(shù)作為目標(biāo)任務(wù)的初始化,并再目標(biāo)任務(wù)上再訓(xùn)練進(jìn)行精調(diào)。這種預(yù)先訓(xùn)練好的模型作為語(yǔ)言模型(langugage model,abr. LM),如 BERTGPT,Elmo 等, 海量的無(wú)標(biāo)注語(yǔ)料為語(yǔ)言模型的訓(xùn)練提供了足量的數(shù)據(jù),從而得到較為魯棒的具有通用含義的特征。在此基礎(chǔ)上,通過(guò)引入額外的參數(shù)以及任務(wù)相關(guān)的目標(biāo)函數(shù)就可以對(duì)不同的下游任務(wù)進(jìn)行微調(diào)(fine-tune)。因此,研究的聚焦點(diǎn)又轉(zhuǎn)為目標(biāo)函數(shù)工程(objective engineering),使LM模型能得到較好的微調(diào)以適應(yīng)下游任務(wù)。
Stage 4. 預(yù)訓(xùn)練,提示,預(yù)測(cè)范式(Pre-train, Prompt, Predict),??論文[6] 提出擁有175B參數(shù)的語(yǔ)言模型 GPT-3 帶來(lái)了一種將 LM 用于下游任務(wù)的新方法:通過(guò)使用自然語(yǔ)言提示(prompt)和任務(wù)示例(demonstration)作為上下文(context),GPT-3 只需要幾個(gè)樣本就可以處理很多任務(wù),而不需要更新底層模型中的參數(shù)。該新引入的提示學(xué)習(xí)(prompt learning)范式核心在于,不再讓 LM 去適應(yīng)下游任務(wù),取而代之的是通過(guò)增加提示(prompt)的方式調(diào)整下游任務(wù),使其更接近在訓(xùn)練 LM 過(guò)程中能被解決的問(wèn)題。換言之,第四范式將 “LM 遷就下游任務(wù)” 的模式轉(zhuǎn)化為 “下游任務(wù)遷就 LM” 的模式了。
接下來(lái)的部分,我們會(huì)用一些 NLP 中常見(jiàn)的任務(wù)來(lái)進(jìn)一步 formulate 以及闡述提示學(xué)習(xí)(prompt learning, abr. PL)。
Part 1

淺探提示學(xué)習(xí)(Prompt Learning)

此章主要介紹提示學(xué)習(xí)中的提示,提示學(xué)習(xí)的一般工作流程,以及該種形式下獨(dú)有的優(yōu)勢(shì)。
1.0

? ? 什么是提示

此處借用劉鵬飛老師在北京智源大會(huì) Big Model Meetup 第1期:大模型 Prompt Tuning 技術(shù)中給出的例子來(lái)進(jìn)行闡述。
A. An Intuitive Definition
Prompt is a cue given to the pre-trained language model to allow it better understand human’s questions.

“提示” 是一種提供給預(yù)訓(xùn)練語(yǔ)言模型的線(xiàn)索,讓預(yù)訓(xùn)練語(yǔ)言模型能更好的理解人類(lèi)的問(wèn)題。

B. More Technical Definition
Prompt is the technique of?making better use of the knowledge?from the pre-trained model by?adding additional texts to the input.

目的是更好地利用預(yù)訓(xùn)練模型中的知識(shí)

手段是在輸入中增加額外的文本(clue/prompt)

如下圖所示,根據(jù)提示,BERT 能回答/補(bǔ)全出 “JDK是由 Oracle 研發(fā)的”,BART 能對(duì)長(zhǎng)文本進(jìn)行總結(jié),ERNIE 能說(shuō)出鳥(niǎo)類(lèi)的能力。
提示學(xué)習(xí)(Prompt Learning)
An illustration of prompt (Liu P, et al. 2021)
1.1

? ? 提示學(xué)習(xí)的通用流程(General Workflow)

提示學(xué)習(xí)的基本流程主要包括以下四個(gè)步驟:提示構(gòu)造(Prompt Construction),答案構(gòu)造(Answer Construction),答案預(yù)測(cè)(Answer Prediction),以及答案-標(biāo)簽映射(Answer-Label Mapping)。接下來(lái)以NLP中很常見(jiàn)的 text classification 任務(wù):情感分類(lèi)(Sentiment Classification)作為例子來(lái)分別闡述這四個(gè)步驟。

情感分類(lèi)的任務(wù)描述:

輸入:句子?x(e.g.?Input:??x?= I love this movie.)

輸出:對(duì) x?的情感極性預(yù)測(cè) (i.e., ?? v.s ???)

1.1.0 Prompt Construction?將input?x?轉(zhuǎn)為為帶提示的?x’的過(guò)程。

首先,需要設(shè)計(jì)一個(gè)模板, 一個(gè)包含輸入槽(input slot)[x] 和答案槽(answer slot)[z] 的文本串,輸入槽留給 input x答案槽 [z] 用于生成答案(answer)z,答案 z 之后會(huì)被映射到輸出的標(biāo)簽或文本(output label or text)。

接下來(lái),將 input x 代入到輸入槽 [x] 中。具體過(guò)程如下圖所示:

提示學(xué)習(xí)(Prompt Learning)
注:答案槽 [z] 可以位于 x’ 的中間位置或者末尾位置,通常稱(chēng) [z] 在中間的 x’ 為 cloze prompt(完形填空提示),[z] 在末尾的 x’ 為 prefix prompt(前綴型提示)。
1.1.1?Answer Construction:設(shè)計(jì) answer 和 class label 之間的映射函數(shù)
?
提示學(xué)習(xí)(Prompt Learning)
注:特殊情況1,answer 和 label 是相同的,比如機(jī)器翻譯任務(wù);特殊情況2,多個(gè) answer 可以映射到同一個(gè) label,比如情感分類(lèi)任務(wù)中 “excellent, good, wonderful” 等詞均可映射到正向的情感??。
1.1.2 Answer Predicting: 選擇合適的LM, 并讓其通過(guò)給定的x’ 預(yù)測(cè) answer z
提示學(xué)習(xí)(Prompt Learning)
首先選擇合適的 LM,此處以 Masked LM Bert 為例,關(guān)于 LM 的選擇策略將會(huì)在后續(xù)介紹??梢钥闯?,BERT 的輸入和我們之前構(gòu)造好的 x’ 形式相同,其中的 [mask] 與 x’ 中的 [z] 相同,都是為輸出預(yù)留的槽位。
提示學(xué)習(xí)(Prompt Learning)
通過(guò)構(gòu)造 promting x’,情感分類(lèi)的任務(wù)被轉(zhuǎn)化為了 LM 任務(wù),可以直接使用 LM 來(lái)對(duì) [z] 進(jìn)行預(yù)測(cè)得到答案(answer)z。
1.1.3 Answer Mapping:將 LM 預(yù)測(cè)出來(lái)的 answer z 映射為 label。
?
提示學(xué)習(xí)(Prompt Learning)
至此,就完成了一個(gè)使用 prompt learning 方法進(jìn)行情感分類(lèi)任務(wù)的過(guò)程,也大致介紹了 prompt learning 中的基本術(shù)語(yǔ),總結(jié)于下表中:
提示學(xué)習(xí)(Prompt Learning)
Summary of terminology in prompt learning. Credit to Pengfei Liu.
? 版權(quán)聲明

相關(guān)文章