logo

语言模型 Adaptation

wangzf / 2024-10-28


目录

Adaptation 简介

img

使用语言模型通过仅给出提示(Prompt)已经能够执行一些任务,例如在上下文学习中。 然而,提示(Prompt)方法并不适用于全部的下游任务,如 自然语言推理(NLI)问题回答(QA)将网络表格转换为文本解析电子健康记录(EHR) 等。

下游任务语言模型的训练数据(例如,Pile 数据集)可能在格式和主题上有所不同, 或者需要随时间更新新知识。因此,语言模型需要使用特定于任务的数据或领域知识来针对下游任务进行适配

为什么需要 Adaptation

在自动化和人工智能的时代,语言模型已成为一个迅速发展的领域。 这些模型被训练为对各种各样的任务作出响应,但它们真的适合所有的任务吗? 在探讨这一问题之前,需要理解语言模型如何被训练, 并明确 下游任务与原始训练任务之间可能存在的不同之处

从语言模型的训练方式来说(例如 GPT-3),通常是 任务不可知(task-agnostic) 的, 这意味着它们在一个广泛的领域内进行训练,而不是针对特定任务。 这种方法的优点在于模型具有广泛的适用性,但也带来了一些挑战。

task-agnostic 这个词组用于描述一种不针对任何特定任务进行优化的方法或模型。 在机器学习和人工智能的背景下,task-agnostic 通常指的是一种可以在多个不同任务上运行, 而不需要对每个单独任务进行特别调整或训练的方法。例如, 一个 task-agnostic 的语言模型在训练时不会专门针对特定任务进行优化, 例如情感分析、文本摘要或问题回答。相反,它被设计为能够捕捉到语言的通用特性和结构, 以便可以用于许多不同的下游任务。这种方法的优点是灵活性和广泛适用性, 因为相同的模型可以用于各种各样的应用。然而,它也可能带来挑战, 因为通用模型可能在特定任务上不如专门为该任务训练的模型表现出色。 这就引出了如何将 task-agnostic 的模型适应特定任务的需求, 以便在不同的应用场景中实现最佳性能。

比如下游任务的多样性,不同的下游任务与语言模型的预训练方式可以非常不同,这可能导致问题。 例如,自然语言推理(NLI)任务与 Pile 数据集上的语言建模任务可能完全不同。

考虑以下例子:

这种格式对模型来说可能并不自然,因为它远离了模型的训练范围。

另外在处理下游任务时,与原始训练任务之间的差异可能造成一些挑战。 这些不同之处可以从以下几个方面进行详细探讨:

因此可以总结一下 “为什么需要语言模型的 Adaptation?”,下游任务与语言模型的训练任务之间的不同之处非常复杂。 这些差异可以从格式、主题和时间三个方面来探讨,每个方面都可能涉及许多具体的挑战和需求。 通过深入了解这些不同之处,可以更好地理解如何有效地适配语言模型以满足各种下游任务的需求。

通用 Adaptation 配置

下面提供使用预训练语言模型的参数来适配(adapt)下游任务的一般设置。 下面将这个过程分为相关且逐渐递进的各个部分:

  1. 预训练语言模型(Pre-trained LM):在适配阶段的开始,我们已经有了一个预训练的语言模型, 用参数 $\theta_{\text{LM}}$ 表示。这个模型被训练来理解(NLU)和生成(NLG)语言,但不是特别针对任何特定任务;

    • $\theta_{\text{LM}}$
  2. 下游任务数据集(Downstream Task Dataset):我们获得了一组来自下游任务分布 $P_{\text{task}}$ 的样本数据。 这些数据可以是文本分类、情感分析等任务的特定实例,每个样本由输入 $x$ 和目标输出 $y$ 组成, 如 $\left(x^{(1)}, y^{(1)}\right), \ldots,\left(x^{(n)}, y^{(n)}\right)$

    • $P_{\text{task}}$
  3. 适配参数(Adaptation Parameters):为了使预训练的语言模型适合特定的下游任务, 需要找到一组参数 $\gamma$,这组参数可以来自现有参数的子集或引入的新的参数 $\Gamma$。 这些参数将用于调整模型,以便它在特定任务上的表现更好;

    • $\gamma$
  4. 任务损失函数(Task Loss Function):需要定义一个损失函数 $\ell_{\text{task}}$ 来衡量模型在下游任务上的表现。 例如,交叉熵损失是一种常见的选择,用于衡量模型预测的概率分布与真实分布之间的差异。

    • $\ell_{\text{task}}$
  5. 优化问题(Optimization Problem):目标是找到一组适配参数 $\gamma_{\text{adapt}}$, 使得任务损失在整个下游数据集上最小化。数学上,这可以通过以下优化问题表示:

    $$ \gamma_{\text{adapt}}=\underset{\gamma \in \Gamma}{\text{argmin}} \frac{1}{n} \sum_{i=1}^{n} \ell_{\text{task}}(\gamma, \theta_{\mathrm{LM}}, x_i, y_i)$$

通过这个过程,可以取得一组适配参数 $\gamma_{\text{adapt}}$,用于参数化适配后的模型 $p_{\text{adapt}}$。 这样,就可以将通用的、任务无关的预训练语言模型适配到特定的下游任务上,以实现更好的性能。 这种适配方法将 模型的通用性特定任务的效能 结合在一起,既保留了模型的灵活性,又确保了在特定任务上的高效表现。

Adaptation 方法

Probing

Probing,探针/探测

Probing 策略是在大规模预训练阶段就已经广泛使用的一种 微调策略

Probing 方法的引入

Probing 是一种分析和理解模型内部表示的技术。它引入了一个新的参数集 $\Gamma$, 用于定义 Probing,这些 Probing 通常是线性的或浅前馈网络。

通过 Probing 方法,可以检查和理解模型的表示。例如,如果一个简单的 Probing 可以预测词性标注(POS), 那么这些表示就 “存储” 了 POS 信息。

Probing 适用性和适配

Probing 主要适用于 Encoder-only 模型(例如,BERT), 但 Decoder-only 模型也可以使用(Liu et al. 2021)。

对于 Adaptation 来说,从语言模型的最后一层表示中训练一个 Probing(或预测头)到输出(例如,类标签), 整体的形式如下图所示:

img

固定长度表示策略

可以发现 Probing 方法是通过线性的或浅前馈网络来学习预训练模型的输出, 并获得分析和理解模型内容表示的能力,从而在下游任务中取得不错的表现。 值得一提的是,Probing 方法对于预训练模型本身的权重是固定的, 只对参数量很少的线性的或浅前馈网络进行训练,因此符合 Adaptation, 大大的减缓训练成本。

但是这样又引出了一个问题,对于预训练模型的输入,线性的或浅前馈网络需要对多少内容进行表征才可以呢? 因此自然的引出了 固定长度表示的策略。由于许多任务(例如分类)需要固定长度的输出, Transformer 编码器如何将 $L$ 个 token 映射到 1 个嵌入向量(Embedding Vector)成为了一个问题。

下面介绍了两种常见策略:

  1. CLS token 策略: 在预训练和微调期间,在提示符前加上一个名为 CLS 的特殊 token。 使用与 CLS token 对应的嵌入向量作为 “序列级” 嵌入;
  2. 平均化 token 策略:另一种常见方法是对 $L$ 个 token 求平均。 注意,由于每个嵌入向量都是上下文相关的并且位置依赖的,这并不使模型具有置换不变性。

Fine-tuning

Fine-tuning,微调

Fine-tuning 简介

Fine-tuning 使用语言模型参数 $\theta_{\text{LM}}$ 作为优化的初始化。 其中,优化后的参数家族 $\Gamma$ 包括了所有的语言模型参数和任务特定的预测头参数。 与此同时,预训练的优化器状态被丢弃。

在微调过程中,通常至少使用比预训练时小一个数量级的 学习速率,而且 微调的时长远远少于预训练。 这意味着需要存储针对每个下游任务专门化的大型语言模型,这可能相当昂贵。 然而,微调是在更大的模型家族(即非常具有表现力)上进行优化的,并且通常比探针有更好的性能。

Fine-tuning 对于 Zero-shot 能力

Zero-shot learning(零样本学习)是一种机器学习范式,在训练阶段在没有见过的任务或类别上进行泛化的能力, 它允许模型在没有任何具体示例的情况下解释和处理全新的信息。 这个能力对于许多实际应用至关重要,特别是当新任务或类别的样本难以获得时。

Zero-shot learning 的能力使得模型具有更高的灵活性和泛化能力,能够在未见过的任务上迅速适应。 这在现实世界中极为重要,因为我们常常会遇到一些新的、未在训练数据中出现过的任务或情境。 零样本学习模型可以迅速解决这些问题,而无需每次都进行繁琐的重新训练。

针对 Zero-shot 性能的微调是对现有模型的进一步优化,可以提高模型在未见过的任务上的表现。 以下是经过微调后对零样本性能的影响:

用于人类对齐语言模型的 Fine-tuning

在当前的 LLMs 中,指令(Instructions)常常作为输入提示(Prompt),来引导模型产生特定类型的输出。 有效的指令可以让模型更好地理解人类用户的需求,并产生有用、诚实、无害的反馈,LLMs 带来的有害性参考之前学习内容。

人类反馈 是指从人类用户或评估者收集的反馈,以评价模型的输出是否符合人们的期望和需求。 人类反馈在模型的训练和微调中起着关键作用。

微调的过程和影响

微调 可以使 语言模型 更好地与 人类价值观和目标 一致。

下面是 InstructGPT 对 GPT-3 模型进行微调的三个步骤:

  1. 收集人类书写的示范行为:这一步骤涉及收集符合人类期望的示例,并对这些示例进行监督微调;
  2. 基于指令的采样与人类偏好:对于每个指令,从步骤 1 的 LM 中采样 $k$ 个输出。 然后收集人类对哪个采样输出最优先的反馈。与步骤 1 相比,这些数据更便宜;
  3. 使用强化学习目标微调语言模型:通过强化学习目标微调步骤 1 中的 LM,以最大化人类偏好奖励。

经过这样的微调,1.3B 的 InstructGPT 模型在 85% 的时间里被优先于 175B 的 GPT-3, 使用少样本提示时为 71%。在封闭领域的问答/摘要方面,InstructGPT 21% 的时间会产生虚构信息, 相比 GPT-3 的 41% 有所改善。在被提示要尊重时,InstructGPT 比 GPT-3 减少了 25% 的有毒输出。

Fine-tuning 总结

img

微调是一种强大的工具,可以使预先训练的语言模型更好地符合人类的期望和需求。 通过 监督学习人类反馈强化学习 等手段,可以显著提高模型在特定任务和场景下的性能。 然而,仍需关注并解决某些方面的挑战,如偏见和虚构信息的产生,以确保语言模型的安全和可靠使用。 虽然有一些挑战和限制,但微调仍然是现代机器学习中一种非常有力的工具。

Lightweight Fine-tuning

轻量级微调(Lightweight Fine-Tuning)是一种特殊的微调技术, 旨在结合全面微调的表现力和更节省资源的优点。 轻量级微调试图在不需要为每个任务存储完整语言模型的同时, 保持与全面微调相同的表现力。换句话说, 它希望在减小模型存储需求和计算负担的同时,仍然实现出色的性能。

Lightweight Fine-tuning 的变体

轻量级微调有许多变体,其中一些主要的方法包括:

Prompt Tuning

提示调整(Prompt Tuning)是一种特殊的微调技术,主要用于文本分类任务。 Prompt Tuning 的灵感来源于推理为基础的自适应提示设计/工程。 与传统的微调方法不同,提示调整专注于优化输入提示,而不是改变模型的内部参数。

Prompt Tuning 通过在输入前添加 $k$ 个可学习的、连续的标记嵌入(定义为 $Γ$)来工作。 因此,新的输入长度现在为 $L^{′} = L + k$,其中 $L$ 是原始输入的长度。 这些额外的标记嵌入通过在带标签的任务数据上进行训练来学习。

与此同时,整个预训练的语言模型被冻结,这意味着模型的主体部分不会在微调过程中发生改变。 随着冻结语言模型的规模增加,Prompt Tuning 的性能变得越来越有竞争力, 甚至可以与全面微调(也称为模型调整(Model Tuning))相媲美。 这表明,即使在不改变预训练参数的情况下,也可以通过调整输入 Prompt 来获得出色的性能。

img

提示调整涉及不同的初始化策略,如:

需要提一下,P-Tuning v2 这篇工作是提示调整的全层版本。 所有层级的参数对文本分类和生成任务都有助益。

总的来说,Prompt Tuning 是一种创新的轻量级微调方法,通过在输入上添加可学习的嵌入, 而不是改变整个模型的结构来实现任务特定的优化。这不仅减少了计算和存储的需求, 而且还允许使用较大的冻结模型来实现与全面微调相当的性能。 在文本分类等任务中,提示调整提供了一种灵活和高效的解决方案。

Prefix Tuning

前缀调整(Prefix Tuning)是一种特别设计用于 语言生成任务 的微调方法, 已在 BART 和 GPT-2 模型上进行了开发。

Prefix Tuning 通过在输入的开始处添加 $k$ 个位置,并在每个注意力层连接额外的可学习权重, 作为键(Keys)和值(Values)来实现。这些附加的权重允许模型在微调过程中学习特定任务的上下文和结构。

虽然 Prefix Tuning 与 Prompt Tuning 在某些方面有相似之处(例如,都涉及微调输入), 但两者之间存在重要区别。比如与 Prompt Tuning 不同,Prefix Tuning 不仅添加可学习的输入, 还在每个注意力层中添加可学习的权重。这些权重可以更好地捕获任务特定的依赖关系和上下文信息。

前缀调整使用了一个广义的注意力操作定义,该操作接收 3 个参数:键($K$)、值($V$)和查询($Q$), 分别具有维度 $\mathbb{R}^{d×L^′}$$\mathbb{R}^{d×L^′}$$\mathbb{R}^{d×L}$。定义如下:

$$\text{Attn-op}(Q, K, V)=V \cdot \text{Softmax}\Big(\frac{K^{T}Q}{\sqrt{d}}\Big)$$

对于 Self-Attention,设置 $L^{'}=L$,并定义:

$$K = W_{\text{key}}x_{1:L}$$ $$V=W_{\text{value}}x_{1:L}$$ $$Q=W_{\text{query}}x_{1:L}$$

其中 $W_{\text{key}}$$W_{\text{value}}$$W_{\text{query}}$ 是学习到的权重矩阵。

对于注意力头 $i$,Prefix Tuning 通过将可学习的权重 $P(i)_{\text{key}}$$P(i)_{\text{value}} \in \mathbb{R}^{d \times k}$ 与键和值连接, 计算具有较大的 $L' = L + k$ 的注意力。这一计算由 He 等人在 2022 年提出:

$$K_{\text{prefix}} = [P(i)_{\text{key}}, K]$$ $$V_{\text{prefix}} = [P(i){\text{value}}, V] $$ $$\text{head}_{i} = \text{Attn-op}(Q,K{\text{prefix}},V{\text{prefix}})$$

其中,$Q = W_{\text{query}}x_{1:L}$,与常规自注意力一样。

所有层级的可训练参数可以增强模型的性能,允许模型在更细粒度上进行优化。

总的来说,前缀调整通过在注意力机制的键和值部分添加可学习的权重, 为模型提供了一种强大的微调手段。这种方法允许模型更好地捕捉任务特定的模式, 并与提示调整等其他技术相辅相成,提供了一种灵活和强大的任务特定优化手段。

Adapter Tuning

Adapter Tuning(适配器调整)是一种微调技术, 通过在每个(冻结的)Transformer 层之间添加新的学习 “bottleneck” 层(称为适配器)来实现。

Adapter Tuning 通常是操作于序列中每个元素 $x \in \mathbb{R}^d$ 的两层残差网络。 适配器的计算定义如下:

$$\text{Adapter}(x) = x + W_{\text{up}}\sigma(W_{\text{down}}x)$$

其中:

总之,Adapter Tuning 提供了一种灵活的微调方法,允许在不改变原始 Transformer 层的情况下, 通过引入新的可学习层来调整模型。这种方法与 Prompt Tuning 和 Prefix Tuning 等技术相结合, 为自然语言处理任务提供了一种高效、可扩展的解决方案。 “适配器” 的设计使其可以在不牺牲整体模型结构的情况下,增强特定任务的性能。

Lightweight Fine-tuning 的其他性质

img

Lightweight Fine-tuning 总结

img

Adaptation 总结

Adaptation 将大型语言模型适配到各种不同的下游任务中,这些任务可能与语言建模有很大不同。

  1. 探测法(Probing):探测法在冻结的语言模型之上训练一个特定任务的预测头, 将语言模型视为良好的表示提取器。冻结语言模型倾向于限制该方法的表现能力;
  2. 微调(Fine-tuning):微调将大型语言模型参数视为下游任务的进一步训练的初始化, 这比探测更具表现力,但也更昂贵,因为必须为每个下游任务保存整个模型;
  3. 轻量级微调(Lightweight Fine-tuning):轻量级微调在微调和探测之间取得了平衡, 只优化少量参数(小于模型的 1%),但它优化了模型的高杠杆部分,因此仍然非常具有表现力。

通过上述方法,可以更灵活地应对各种不同的下游任务,既实现了对特定任务的精确适配, 又在一定程度上控制了计算和存储的成本,从而在实际应用中取得更好的性能和效率。

参考