模型微调
Model Finetune
wangzf / 2025-07-05
预训练模型
Pre-trained Model,预训练模型
预训练模型 是指之前通过大量的数据训练出的大模型(如果不是大模型, 用少量数据训练的小模型能直接用在新的任务上也可以,但是一般来说少量数据没有强大的迁移能力, 所以一般都是指大模型),比如很大很耗时间的模型,又不想从头训练一遍。 这时候可以直接下载别人训练好的模型,里面保存的都是每一层的参数配置情况。有了这样的模型之后, 可以直接拿来做测试,前提是输出的类别是一样的。
预训练模型可以直接使用或者 Finetune 后用在新的任务上。 一般把预训练模型分为三类:图像大模型(VLM)、语言大模型(LLM)、 Meta learning(一般指 few-shot learning)。 这三类模型都是先通过在已有数据集上进行训练,然后在任务数据集上 Finetune。 从实用的角度,先把 Meta learning 排除掉,还处于研究和探索阶段。 在工业界真正用起来的,一般是图像大模型和语言大模型。而图像大模型最常用的是 ResNet, 语言大模型是 Transformer 的各类变种,如 BERT 系列 和 GPT 系列。
概括来说,ResNet 和 BERT 都是 Finetune 最后几层(有的方法也会再训练整个模型), 因为前几层提取了公共信息,比如 ResNet 前几层提取了颜色、形状等公共信息, BERT 前几层提取了词性、语义等公共信息。后几层往往和训练任务关联了, 比如 BERT 后几层是关注填空的准确度,所以后几层和你想做的任务关系不是很大。 所以一般是固定前面几层的模型参数,Finetune 后面几层参数。
另外,预训练模型也不局限在图像大模型和语言大模型,如果有一个简单的 DNN 训练出来, 可以用在新的任务上,也可以称之为预训练模型,总之通过已有数据训练出的模型, 直接(或 Finetune)后用在不同任务上,就可以称之为预训练模型。
Adaptation
Adaptation 简介
使用语言模型通过仅给出提示(Prompt)已经能够执行一些任务,例如在上下文学习中。 然而,提示(Prompt)方法并不适用于全部的下游任务,如 自然语言推理(NLI)、问题回答(QA)、 将网络表格转换为文本、解析电子健康记录(EHR) 等。
下游任务 与 语言模型的训练数据(例如,Pile 数据集)可能在格式和主题上有所不同, 或者需要随时间更新新知识。因此,语言模型需要使用特定于任务的数据或领域知识来针对下游任务进行适配。
在自动化和人工智能的时代,语言模型已成为一个迅速发展的领域。 这些模型被训练为对各种各样的任务作出响应,但它们真的适合所有的任务吗? 在探讨这一问题之前,需要理解语言模型如何被训练, 并明确 下游任务与原始训练任务之间可能存在的不同之处。
从语言模型的训练方式来说(例如 GPT-3),通常是 任务不可知(task-agnostic) 的, 这意味着它们在一个广泛的领域内进行训练,而不是针对特定任务。 这种方法的优点在于模型具有广泛的适用性,但也带来了一些挑战。
task-agnostic 这个词组用于描述一种不针对任何特定任务进行优化的方法或模型。 在机器学习和人工智能的背景下,task-agnostic 通常指的是一种可以在多个不同任务上运行, 而不需要对每个单独任务进行特别调整或训练的方法。例如, 一个 task-agnostic 的语言模型在训练时不会专门针对特定任务进行优化, 例如情感分析、文本摘要或问题回答。相反,它被设计为能够捕捉到语言的通用特性和结构, 以便可以用于许多不同的下游任务。这种方法的优点是灵活性和广泛适用性, 因为相同的模型可以用于各种各样的应用。然而,它也可能带来挑战, 因为通用模型可能在特定任务上不如专门为该任务训练的模型表现出色。 这就引出了如何将 task-agnostic 的模型适应特定任务的需求, 以便在不同的应用场景中实现最佳性能。
比如下游任务的多样性,不同的下游任务与语言模型的预训练方式可以非常不同,这可能导致问题。 例如,自然语言推理(NLI)任务与 Pile 数据集上的语言建模任务可能完全不同。
考虑以下例子:
- Premise: I have never seen an apple that is not red.
- Hypothesis: I have never seen an apple.
- Correct output: Not entailment (the reverse direction would be entailment)
这种格式对模型来说可能并不自然,因为它远离了模型的训练范围。
另外在处理下游任务时,与原始训练任务之间的差异可能造成一些挑战。 这些不同之处可以从以下几个方面进行详细探讨:
- 格式的不同
- 自然语言推理(NLI):下游任务如 NLI 涉及两个句子的比较以产生单一的二进制输出。 这与语言模型通常用于生成下一个标记或填充 MASK 标记的任务截然不同。 例如,NLI 的逻辑推理过程涉及多层次的比较和理解, 而不仅仅是根据给定的上下文生成下一个可能的词。
- BERT 训练与 MASK 标记:BERT 训练过程中使用了 MASK 标记, 而许多下游任务可能并不使用这些标记。 这种不同可能导致在针对具体任务时需要对模型进行显著的调整。
- 主题转变
- 特定领域的需求:下游任务可能集中在特定的主题或领域上,例如医疗记录分析或法律文档解析。 这些任务可能涉及专门的术语和知识,与模型的通用训练任务相去甚远。
- 广泛主题的灵活性:语言模型可能需要处理各种不同的主题。 如果下游任务突然聚焦在一个新的或非常独特的领域上,这可能会超出模型的训练范围。
- 时间转变
- 新知识的需求:随着时间的推移,新的信息和知识不断涌现。 例如,GPT-3 在拜登成为总统之前就已训练完毕,因此可能缺乏有关他总统任期的最新信息。
- 非公开信息的需求:有时下游任务可能涉及在训练期间不公开的信息。 这可能需要更多特定领域的专业知识和调整。
因此可以总结一下 “为什么需要语言模型的 Adaptation?”,下游任务与语言模型的训练任务之间的不同之处非常复杂。 这些差异可以从格式、主题和时间三个方面来探讨,每个方面都可能涉及许多具体的挑战和需求。 通过深入了解这些不同之处,可以更好地理解如何有效地适配语言模型以满足各种下游任务的需求。
Adaptation 配置
下面提供使用预训练语言模型的参数来适配(adapt)下游任务的一般设置。 下面将这个过程分为相关且逐渐递进的各个部分:
-
预训练语言模型(Pre-trained LM):在适配阶段的开始,我们已经有了一个预训练的语言模型, 用参数 表示。这个模型被训练来理解(NLU)和生成(NLG)语言,但不是特别针对任何特定任务;
-
下游任务数据集(Downstream Task Dataset):我们获得了一组来自下游任务分布 的样本数据。 这些数据可以是文本分类、情感分析等任务的特定实例,每个样本由输入 和目标输出 组成, 如 ;
-
适配参数(Adaptation Parameters):为了使预训练的语言模型适合特定的下游任务, 需要找到一组参数 ,这组参数可以来自现有参数的子集或引入的新的参数 。 这些参数将用于调整模型,以便它在特定任务上的表现更好;
-
任务损失函数(Task Loss Function):需要定义一个损失函数 来衡量模型在下游任务上的表现。 例如,交叉熵损失是一种常见的选择,用于衡量模型预测的概率分布与真实分布之间的差异;
-
优化问题(Optimization Problem):目标是找到一组适配参数 , 使得任务损失在整个下游数据集上最小化。数学上,这可以通过以下优化问题表示:
通过这个过程,可以取得一组适配参数 ,用于参数化适配后的模型 。 这样,就可以将通用的、任务无关的预训练语言模型适配到特定的下游任务上,以实现更好的性能。 这种适配方法将 模型的通用性 与 特定任务的效能 结合在一起,既保留了模型的灵活性,又确保了在特定任务上的高效表现。
Adaptation 方法
Adaptation 将大型语言模型适配到各种不同的下游任务中,这些任务可能与语言建模有很大不同。
- 探测法(Probing):探测法在冻结的语言模型之上训练一个特定任务的预测头, 将语言模型视为良好的表示提取器。冻结语言模型倾向于限制该方法的表现能力;
- 微调(Fine-tuning):微调将大型语言模型参数视为下游任务的进一步训练的初始化, 这比探测更具表现力,但也更昂贵,因为必须为每个下游任务保存整个模型;
- 轻量级微调(Lightweight Fine-tuning):轻量级微调在微调和探测之间取得了平衡, 只优化少量参数(小于模型的 1%),但它优化了模型的高杠杆部分,因此仍然非常具有表现力。
通过上述方法,可以更灵活地应对各种不同的下游任务,既实现了对特定任务的精确适配, 又在一定程度上控制了计算和存储的成本,从而在实际应用中取得更好的性能和效率。
Probing
Probing,探针/探测
Probing 策略是在大规模预训练阶段就已经广泛使用的一种 微调策略。
Probing 方法的引入
Probing 是一种分析和理解模型内部表示的技术。它引入了一个新的参数集 , 用于定义 Probing,这些 Probing 通常是线性的或浅前馈网络。
通过 Probing 方法,可以检查和理解模型的表示。例如,如果一个简单的 Probing 可以预测词性标注(POS), 那么这些表示就 “存储” 了 POS 信息。
Probing 适用性和适配
Probing 主要适用于 Encoder-only 模型(例如,BERT), 但 Decoder-only 模型也可以使用(Liu et al. 2021)。
对于 Adaptation 来说,从语言模型的最后一层表示中训练一个 Probing(或预测头)到输出(例如,类标签), 整体的形式如下图所示:
固定长度表示策略
可以发现 Probing 方法是通过线性的或浅前馈网络来学习预训练模型的输出, 并获得分析和理解模型内容表示的能力,从而在下游任务中取得不错的表现。 值得一提的是,Probing 方法对于预训练模型本身的权重是固定的, 只对参数量很少的线性的或浅前馈网络进行训练,因此符合 Adaptation, 大大的减缓训练成本。
但是这样又引出了一个问题,对于预训练模型的输入,线性的或浅前馈网络需要对多少内容进行表征才可以呢? 因此自然的引出了 固定长度表示的策略。由于许多任务(例如分类)需要固定长度的输出, Transformer 编码器如何将 个 token 映射到 1 个嵌入向量(Embedding Vector)成为了一个问题。
下面介绍了两种常见策略:
- CLS token 策略:
在预训练和微调期间,在提示符前加上一个名为
CLS
的特殊 token。 使用与CLS
token 对应的嵌入向量作为 “序列级” 嵌入; - 平均化 token 策略:另一种常见方法是对 个 token 求平均。 注意,由于每个嵌入向量都是上下文相关的并且位置依赖的,这并不使模型具有置换不变性。
Finetune
Fine-tuning,微调
Fine-tuning 简介
Fine-tuning 使用语言模型参数 作为优化的初始化。 其中,优化后的参数家族 包括了所有的语言模型参数和任务特定的预测头参数。 与此同时,预训练的优化器状态被丢弃。
在微调过程中,通常至少使用比预训练时小一个数量级的 学习速率,而且 微调的时长远远少于预训练。 这意味着需要存储针对每个下游任务专门化的大型语言模型,这可能相当昂贵。 然而,微调是在更大的模型家族(即非常具有表现力)上进行优化的,并且通常比探针有更好的性能。
Fine-tuning 对于 Zero-shot 能力
Zero-shot learning(零样本学习)是一种机器学习范式,在训练阶段在没有见过的任务或类别上进行泛化的能力, 它允许模型在没有任何具体示例的情况下解释和处理全新的信息。 这个能力对于许多实际应用至关重要,特别是当新任务或类别的样本难以获得时。
Zero-shot learning 的能力使得模型具有更高的灵活性和泛化能力,能够在未见过的任务上迅速适应。 这在现实世界中极为重要,因为我们常常会遇到一些新的、未在训练数据中出现过的任务或情境。 零样本学习模型可以迅速解决这些问题,而无需每次都进行繁琐的重新训练。
针对 Zero-shot 性能的微调是对现有模型的进一步优化,可以提高模型在未见过的任务上的表现。 以下是经过微调后对零样本性能的影响:
- 模型调整:使用诸如 FLAN 和 T0 这样的技术微调模型以获得更好的零样本性能。 它们通过统一许多下游任务的 Prompt format(提示格式), 并根据此格式微调模型来执行各种各样的任务;
- 性能提升:与原始语言模型相比,未见任务的零样本性能得到了显著提高。 这表明微调可以有效地改善模型的泛化能力;
- 学习新技能:模型正在学习使用提示格式来执行零样本任务。 这样的提示格式有助于引导模型理解和完成全新的任务, 从而实现了真正的零样本学习。
用于人类对齐语言模型的 Fine-tuning
在当前的 LLMs 中,指令(Instructions)常常作为输入提示(Prompt),来引导模型产生特定类型的输出。 有效的指令可以让模型更好地理解人类用户的需求,并产生有用、诚实、无害的反馈,LLMs 带来的有害性参考之前学习内容。
人类反馈 是指从人类用户或评估者收集的反馈,以评价模型的输出是否符合人们的期望和需求。 人类反馈在模型的训练和微调中起着关键作用。
微调的过程和影响
微调 可以使 语言模型 更好地与 人类价值观和目标 一致。
下面是 InstructGPT 对 GPT-3 模型进行微调的三个步骤:
- 收集人类书写的示范行为:这一步骤涉及收集符合人类期望的示例,并对这些示例进行监督微调;
- 基于指令的采样与人类偏好:对于每个指令,从步骤 1 的 LM 中采样 个输出。 然后收集人类对哪个采样输出最优先的反馈。与步骤 1 相比,这些数据更便宜;
- 使用强化学习目标微调语言模型:通过强化学习目标微调步骤 1 中的 LM,以最大化人类偏好奖励。
经过这样的微调,1.3B 的 InstructGPT 模型在 85% 的时间里被优先于 175B 的 GPT-3, 使用少样本提示时为 71%。在封闭领域的问答/摘要方面,InstructGPT 21% 的时间会产生虚构信息, 相比 GPT-3 的 41% 有所改善。在被提示要尊重时,InstructGPT 比 GPT-3 减少了 25% 的有毒输出。
Fine-tuning 总结
- 冻结(灰色):无需任何操作;
- 优化(蓝色,每个任务有所不同):语言模型的所有参数,外加一个新的预测头。
微调是一种强大的工具,可以使预先训练的语言模型更好地符合人类的期望和需求。 通过 监督学习、人类反馈 和 强化学习 等手段,可以显著提高模型在特定任务和场景下的性能。 然而,仍需关注并解决某些方面的挑战,如偏见和虚构信息的产生,以确保语言模型的安全和可靠使用。 虽然有一些挑战和限制,但微调仍然是现代机器学习中一种非常有力的工具。
什么是微调
针对于某个任务,自己的训练数据不多,那怎么办?没关系,我们先找到一个同类的别人训练好的模型, 把别人现成的训练好了的模型拿过来,换成自己的数据,调整一下参数,再训练一遍,这就是微调(Finetune)。
PyTorch 里面提供的经典的网络模型都是官方通过 Imagenet 的数据集训练好的模型, 如果我们的数据训练数据不够,这些数据是可以作为基础模型来使用的。
为什么要微调
- 对于数据集本身很小(几千张图片)的情况,从头开始训练具有几千万参数的大型神经网络是不现实的, 因为越大的模型对数据量的要求越大,过拟合无法避免。这时候如果还想用上大型神经网络的超强特征提取能力, 只能靠微调已经训练好的模型。
- 可以降低训练成本:如果使用导出特征向量的方法进行迁移学习,后期的训练成本非常低, 用 CPU 都完全无压力,没有深度学习机器也可以做。
- 前人花很大精力训练出来的模型在大概率上会比你自己从零开始搭的模型要强悍,没有必要重复造轮子。
微调的两种方法
通常,会将模型划分为两个部分
- Feature Extractor: 将 FC 层之前的部分认为是一个 Feature Extractor(特征提取器)
- Classifier: FC 层认为是 Classifier
基于此,Finetune 大体有两种方法:
- 将 Feature Extractor 部分的参数固定、冻结,不进行训练,仅训练 Classifier;
- 将 Feature Extractor 设置较小的学习率(learning rate), Classifier 设置较大的学习率(learning rate)
下面通过一个实例讲解两种方法:
冻结 Feature Extractor
原理是通过设置模型层 Paramters 的 requires_grad
为 False
,让它们不进行权重更新即可。
for param in resnet18_ft.parameters():
param.requires_grad = False
不同层使用不同学习率
原理是通过优化器的参数组管理,不同参数组可以设置不同的学习率。 因此第一步需要将不同的参数从模型中识别、提取出来,分别定义为不同参数组, 这里通过内存地址进行区分。
# 返回的是该层所有参数的内存地址
fc_params_id = list(map(id, resnet18_ft.fc.parameters()))
# 遍历 model 的参数,只要不是需要 ignore 的就保留,返回 filter 对象,
# 在 optimizer.py 中的 add_param_group 中有
base_params = filter(lambda p: id(p) not in fc_params_id, resnet18_ft.parameters())
optimizer = optim.SGD([
{'params': base_params, 'lr': LR}, # 0
{'params': resnet18_ft.fc.parameters(), 'lr': LR*2}
],
momentum = 0.9
)
LoRA
针对的问题
全量参数 Fine-tune 需要调整模型全部参数,随着预训练模型规模的不断扩大(GPT-3,175B), 全量 Fine-tune 的资源压力也倍增。高效、快速对模型进行领域或任务的微调,在大模型时代极其重要。
替代解决方案
针对全量 Fine-tune 的昂贵问题,目前主要有两种解决方案:
-
Adapt Tuning
- 即在模型中添加 Adapter 层,在微调时冻结原参数,仅更新 Adapter 层。 具体而言,其在预训练模型每层中插入用于下游任务的参数,即 Adapter 模块, 在微调时冻结模型主体,仅训练特定于任务的参数。
- 每个 Adapter 模块由两个前馈子层组成,第一个前馈子层将 Transformer 块的输出作为输入, 将原始输入维度 投影到 ,通过控制 的大小来限制 Adapter 模块的参数量, 通常情况下 。在输出阶段,通过第二个前馈子层还原输入维度,将 重新投影到 , 作为 Adapter 模块的输出(如上图右侧结构)。LoRA 事实上就是一种改进的 Adapt Tuning 方法。 但 Adapt Tuning 方法存在推理延迟问题,由于增加了额外参数和额外计算量, 导致微调之后的模型计算速度相较原预训练模型更慢。
-
Prefix Tuning
- 该种方法固定预训练 LM,为 LM 添加可训练,任务特定的前缀,这样就可以为不同任务保存不同的前缀, 微调成本也小。具体而言,在每一个输入 token 前构造一段与下游任务相关的 virtual tokens 作为 prefix, 在微调时只更新 prefix 部分的参数,而其他参数冻结不变。也是目前常用的微量微调方法的 Ptuning, 其实就是 Prefix Tuning 的一种改进。但 Prefix Tuning 也存在固定的缺陷:模型可用序列长度减少。 由于加入了 virtual tokens,占用了可用序列长度,因此越高的微调质量,模型可用序列长度就越低。
LoRA 的思路
如果一个大模型是将数据映射到高维空间进行处理,这里假定在处理一个细分的小任务时, 是不需要那么复杂的大模型的,可能只需要在某个子空间范围内就可以解决, 那么也就不需要对全量参数进行优化了,我们可以定义当对某个子空间参数进行优化时, 能够达到全量参数优化的性能的一定水平(如 90% 精度)时, 那么这个子空间参数矩阵的秩就可以称为对应当前待解决问题的本征秩(intrinsic rank)。
预训练模型本身就隐式地降低了本征秩,当针对特定任务进行微调后, 模型中权重矩阵其实具有更低的本征秩(intrinsic rank)。 同时,越简单的下游任务,对应的本征秩越低。 因此,权重更新的那部分参数矩阵尽管随机投影到较小的子空间,仍然可以有效的学习, 可以理解为针对特定的下游任务这些权重矩阵就不要求满秩。 我们可以通过优化密集层在适应过程中变化的秩分解矩阵来间接训练神经网络中的一些密集层, 从而实现仅优化密集层的秩分解矩阵来达到微调效果。
例如,假设预训练参数为 , 在特定下游任务上密集层权重参数矩阵对应的本征秩为 , 对应特定下游任务微调参数为 ,那么有:
这个 即为 LoRA 优化的秩分解矩阵。
LoRA 的优势
- 可以针对不同的下游任务构建小型 LoRA 模块,从而在共享预训练模型参数基础上有效地切换下游任务。
- LoRA 使用自适应优化器(Adaptive Optimizer),不需要计算梯度或维护大多数参数的优化器状态, 训练更有效、硬件门槛更低。
- LoRA 使用简单的线性设计,在部署时将可训练矩阵与冻结权重合并,不存在推理延迟。
- LoRA 与其他方法正交,可以组合。
LoRA 的原理
LoRA 使用
如何微调
对于不同的领域微调的方法也不一样,比如语音识别领域一般微调前几层,图片识别问题微调后面几层, 原因如下:
- 对于图片来说,CNN 的前几层学习到的都是低级的特征,比如,点、线、面, 这些低级的特征对于任何图片来说都是可以抽象出来的,所以将它们作为通用数据, 只微调这些低级特征组合起来的高级特征即可,例如,这些点、线、面,组成的是圆还是椭圆, 还是正方形,这些代表的含义是我们需要后面训练出来的。
- 对于语音来说,每个单词表达的意思都是一样的,只不过发音或者是单词的拼写不一样, 比如 苹果,apple,apfel(德语),都表示的是同一个东西,只不过发音和单词不一样, 但是他具体代表的含义是一样的,就是高级特征是相同的,所以我们只要微调低级的特征就可以了。
通俗解释
fine-tune,微调
一个通俗的场景例子说明一下 Fine-tune 的机制。
假设有一家公司,我们把它看作是一个 AI 模型,它曾经从事过机械制造/外贸/AR 领域的业务, 相当于这个 AI 模型在这 3 个领域被训练过,能熟悉得处理这些领域的问题。
这家公司内部有 100 个员工,我们看作是 100 个神经元,它们按照不同部门分成 DNN 里的不同层。 每个员工脑袋里记忆的信息相当于每个神经元的权重,它们涵盖了机械制造/外贸/AR 三个领域的特征。
如今,这家公司因为业务调整/改造,准备进军大飞机制造行业,具体业务是利用 AR 设备协助飞机内布线。 由于这是一个垂直行业,公司决定在现有基础上对 100 个员工针对性的培训(Fine-tune)一下, 发放了相关的学习资料(Fine-tune 所需的训练数据)。
这次公司改造并不增加员工数量,仅仅是对现有员工的业务能力改造。 每个员工的大脑容量是固定的,不能追加新知识,那么就必须 “遗忘” 一些以前学习过的知识, 好装入新的领域知识,本质上就是对已有的权重做修正。
那么要遗忘哪些?当然是跟AR和大飞机制造无关的知识,比如先前已经掌握的外贸业务知识, 机械制造领域的知识有部分被遗忘,还有一些跟布线有关的可以保留,员工大脑里腾出的空间就用来装新知识了。
整个过程中,预训练的知识同新领域知识的关联程度决定了它被改造的程度,关联性越大,保留的越多,反之越少。
这个被改造后的公司如果再去面对外贸业务就会很不适应了。
以上过程中,改造的基础是建立在新旧知识的差异性上, 也就是说 AI 模型(公司本身)没有为这次改造设定特定的规则,完全是数据差异驱动的改造。
事实上,可以设定一些简单规则,来优化改造过程。比如 Diffusion 领域的 DreamBooth, 它有一个概念叫做 Preservation。对应到刚才的例子,我们假设这次业务是针对一家外国大飞机制造公司的, 那么我们希望保留外贸业务中的结算能力,外贸的其它知识可以抛弃,那么在 Fine-tune 的时候, 特地把以前已经学会过的外贸结算知识也加入到这次的学习材料中,使得改造后的公司不至于错误得遗忘结算能力。
一般来讲,DNN 中哪一层会被改造以及被改造的程度,就要看新旧知识在这些层面上的关联程度了。
Finetune 示例
语言大模型-BERT 微调
简单说一下 BERT 是怎么训练的。简单来说 BERT 训练就是填空题,把给定的训练语料中某一个字 mask 掉,
可以用 [CLS]
这个特殊字符来代替,输出位置是一个相应的 vector,
这个 vector 再输入到一个 linear 层 然后做 softmax 变换,最后和 label 做 loss 计算。
注意,上面的过程中,从输入 [CLS]
到输出的 vector(linear 层之前)是 BERT。
BERT 的内部结构是 Transformer 的 encoder 部分,是 12 层(block)的 encoder,
而 BERT 的训练过程是 BERT + Linear 层 + softmax,一起来训练,训练完毕后,
BERT 部分单独拿出来使用,也就是把 12 层的 encoder 的参数拿来用。
Finetune 是指大模型(这里可以看做 BERT)用在下游任务中的训练过程。
从上面可以看到,BERT 是已经训练完毕的 12 层 encoder,其大小是 110~340 个 million 的参数,
可以看到非常的大。下游任务是指你自己要做的任务,通常包括句子分类,词性分类等。
以句子分类为例子(如下图),
首先 BERT 已经被预训练好(上面说的填空题方式预训练的 340 个 million 的参数的 12 层encoder),
然后以该 BERT 为基础,后面接一个 linear 层构成整体 Finetune 的结构,
输入是特殊字符 [CLS]
+ 一句话,[CLS]
位置的输出作为 linear 层的输入,
linear 的输出作为最后的输出和 label 计算 loss,反向更新整个 linear + BERT。
那么 Finetune 到底要 tune 哪里?是要 Finetune 整个模型还是最后一层,还是哪几层? 上面的例子中是 Finetune 是训练了整个 BERT+linear,真实场景中也往往先固定 BERT 的前面几层, 然后 Finetune 最后一层或者最后 3~4 层 + linear。对于不同领域,Finetune 的方法也不太一样。
BERT 往往 Finetune 最后几层:
LLM 微调
Fine-Tune LLMs
图片大模型-ResNet50 微调
使用 PyTorch 训练好的 ResNet50 对狗的种类识别来做一个简单的微调实例。
微调
import os
import numpy as np
import pandas as pd
import matplolib.pyplot as plt
from PIL import Image
from sklearn.model_selection import StratifiedShuffleSplit
import torch
import torchvision
import torch.nn as nn
import torch.nn.functional as F
import torch.utils.data import DataLoader, Dataset
from torchvision import datasets, models, transforms
print(torch.__vision__)
# ------------------------------
# Data
# ------------------------------
# 下载官方的数据(https://www.kaggle.com/c/dog-breed-identification)解压,只要保持数据的目录结构即可
DATA_ROOT = "data"
all_labels_df = pd.read_csv(os.path.join(DATA_ROOT, "label.csv"))
print(all_labels_df.head())
# 获取狗的分类,根据分进行编号
breeds = all_labels_df.breed.unique()
breed2idx = dict(breed, idx) for idx, breed in enumerate(breeds)
# idx2breed = dict(idx, breed) for idx, breed in enumerate(breeds)
# 上面定义两个字典,分别以名字和 id 作为对应,添加到列表中
all_labels_df["label_idx"] = [breed2idx[b] for b in all_labels_df.breed]
print(all_labels_df.head())
# 定义一个数据集
class DogDataset(Dataset):
def __init__(self, labels_df, img_path, transform = None):
self.labels_df = labels_df
self.img_path = img_path
self.transform = transform
def __len__(self):
return self.labels_df.shape[0]
def __getitem__(self, idx):
image_name = os.path.join(self.img_path, self.labels_df.id[idx]) + ".jpg"
img = Image.open(image_name)
label = self.labels_df.label_idx[idx]
if self.transform:
img = self.transform(img)
return img, label
# 定义一些超参数
IMG_SIZE = 224 # resnet50 的输入是 224,需要将图片统一大小
BATCH_SIZE= 256 # 这个批次大小需要占用 4.6-5g 的显存,如果不够的化可以改下批次,如果内存超过 10G 可以改为 512
IMG_MEAN = [0.485, 0.456, 0.406]
IMG_STD = [0.229, 0.224, 0.225]
DEVICE = torch.device("cuda" if torch.cuda.is_available() else "cpu")
# 定义训练和验证数据的图片变换规则
train_transforms = transforms.Compose([
transforms.Resize(IMG_SIZE),
transforms.RandomResizedCrop(IMG_SIZE),
transforms.RandomHorizontalFlip(),
transforms.RandomRotation(30),
transforms.ToTensor(),
transforms.Normalize(IMG_MEAN, IMG_STD),
])
val_transforms = transforms.Compose([
transforms.Resize(IMG_SIZE),
transforms.CenterCrop(IMG_SIZE),
transforms.ToTensor(),
transforms.Normalize(IMG_MEAN, IMG_STD),
])
# 分割 10% 数据作为训练时的验证数据
stratified_split = StratifiedShuffleSplit(n_splits = 1, test_size = 0.1, random_state = 0)
train_split_idx, val_split_idx = next(iter(stratified_split.split(all_labels_df.id, all_labels_df.breed)))
train_df = all_labels_df.iloc[train_split_idx].reset_index()
val_df = all_labels_df.iloc[val_split_idx].reset_index()
print(len(train_df))
print(len(val_df))
# 创建 DataLoader
train_dataset = DogDataset(
train_df,
os.path.join(DATA_ROOT, "train"),
transform = train_transforms,
)
val_datgaset = DogDataset(
val_df,
os.path.join(DATA_ROOT, "train"),
transform = val_transforms,
)
train_dataloader = DataLoader(
train_dataset,
batch_size = BATCH_SIZE,
shuffle = True,
num_workers = 0,
)
val_dataloader = DataLoader(
val_dataset,
batch_size = BATCH_SIZE,
shuffle = True,
num_workers = 0,
)
dataset_names = ["train", "test"]
image_transforms = {"train", train_transforms, "valid": val_transforms}
image_dataset = {"train": train_dataset, "valid": val_dataset}
image_dataloader = {"train": train_dataloader, "val": val_dataloader}
# ------------------------------
# Model
# ------------------------------
# 配置网络,由于 ImageNet 是识别 1000 个物体,我们的数据狗一共只有 120,所以需要对模型的最后一层全连接层进行微调,
model_ft = models.resnet50(pretrained = True)
# 将所有的参数进行冻结
for param in model_ft.parameters():
param.requires_grad = False
# 打印全连接层的信息
print(model_ft.fc)
# 获取到 fc 层的输入
num_fc_ftr = model_ft.fc.in_features
# 定义一个新的 FC 层,新模型
model_ft.fc = nn.Linear(num_fc_ftr, len(breeds))
model_ft = model_ft.to(DEVICE)
print(model_ft)
# ------------------------------
# Model Training
# ------------------------------
# 设置训练参数
criterion = nn.CrossEntropyLoss()
optimizer = torch.optim.Adam([{"params": model_ft.fc.parameters()}], lr = 0.001)
# 定义训练函数
def train(model, device, train_loader, epoch):
passmodel.train()
for batch_idx, data in enumerate(train_loader):
x, y = data
x, y = x.to(device), y.to(device)
optimizer.zero_grad()
y_hat = model(x)
loss = criterion(y_hat, y)
loss.backward()
optimizer.step()
print ('Train Epoch: {}\t Loss: {:.6f}'.format(epoch, loss.item()))
# 定义测试函数
def test(model, device, test_loader):
model.eval()
test_loss = 0
correct = 0
with torch.no_grad():
for i,data in enumerate(test_loader):
x,y = data
x, y =x.to(device), y.to(device)
optimizer.zero_grad()
y_hat = model(x)
test_loss += criterion(y_hat, y).item() # sum up batch loss
pred = y_hat.max(1, keepdim = True)[1] # get the index of the max log-probability
correct += pred.eq(y.view_as(pred)).sum().item()
test_loss /= len(test_loader.dataset)
print('\nTest set: Average loss: {:.4f}, Accuracy: {}/{} ({:.0f}%)\n'.format(
test_loss,
correct,
len(val_dataset),
100.0 * correct / len(val_dataset)
))
# 训练
for epoch in range(1, 10):
train(model = model_ft,
device = DEVICE,
train_loader = image_dataloader["train"],
epoch = epoch)
test(model = model_ft,
device = DEVICE,
test_loader = image_dataloader["valid"])
看到只训练了9次就达到了80%的准确率,效果还是可以的。 但是每次训练都需要将一张图片在全部网络中进行计算, 而且计算的结果每次都是一样的,这样浪费了很多计算的资源。 面我们就将这些不进行反向传播或者说不更新网络权重参数层的计算结果保存下来, 这样我们以后使用的时候就可以直接将这些结果输入到 FC 层或者以这些结果构建新的网络层, 省去了计算的时间,并且这样如果只训练全连接层,CPU 就可以完成了。
固定层的向量导出
采用 PyTorch 比较高级的 API hook 来处理了,首先要定义一个 hook
函数:
# 这里存放所有的输出
in_list = []
def hook(module, input, output):
"""
Params:
input 是一个 tuple 代表顺序代表每一个输入项,这里只有一项,所以直接获取
"""
# 需要全部的参数信息可以使用这个打印
for val in input:
print("input val:", val)
for i in range(input[0].size(0)):
in_list.append(input[0][i].cpu().numpy())
# 在相应的层注册 `hook` 函数,保证函数能够正常工作,
# 这里直接 `hook` 全连接层前面的 `pool` 层,
# 获取 `pool` 层的输入数据,这样会获得更多的特征
model_ft.avgpool.register_forward_hook(hook)
# 开始获取输出,这里因为不需要反向传播,所以直接可以使用 `no_grad` 嵌套
with torch.no_grad():
for batch_idx, data in enumerate(image_dataloader["train"]):
x, y = data
x, y = x.to(DEVICE), y.to(DEVICE)
y_hat = model_ft(x)
features = np.array(in_list)
np.save("features", features)
这样再训练时只需将这个数组读出来,然后可以直接使用这个数组再输入到 linear 或者前面讲到的 sigmod 层就可以了。 这里在 pool 层前获取了更多的特征,可以将这些特征使用更高级的分类器,例如 SVM,树型的分类器进行分类。
知识注入
Finetune 最后 4 层已经足够了,其实很多任务 Finetune 最后一层就可以。 另外对于特殊任务,知识注入也是非常有效的一种方式。知识注入有两种方式:
- 在 BERT embedding 层注入:通过将外部 Embedding 与 Bert token-embedding 拼接(相加)进行融合;
- 在 BERT 后的一层,拼接外部 Embedding, 如 Enriching BERT with Knowledge Graph Embeddings for Document Classification 中, 通过在 Transformer 的最后一层中拼接其他信息,提高模型的性能。
Lightweight Fine-tuning
轻量级微调(Lightweight Fine-Tuning)是一种特殊的微调技术, 旨在结合全面微调的表现力和更节省资源的优点。 轻量级微调试图在不需要为每个任务存储完整语言模型的同时, 保持与全面微调相同的表现力。换句话说, 它希望在减小模型存储需求和计算负担的同时,仍然实现出色的性能。
Lightweight Fine-tuning 的变体
轻量级微调有许多变体,其中一些主要的方法包括:
- 提示调整(Prompt Tuning): 通过微调模型的输入 Prompt 来优化模型的表现。Prompt Tuning 可以被视为一种更灵活的微调方法, 允许用户通过调整输入 Prompt 来导向模型的输出,而不是直接修改模型参数;
- 前缀调整(Prefix Tuning):与 Prompt Tuning 类似, Prefix Tuning 也集中在输入部分。它通过添加特定前缀来调整模型的行为,从而对特定任务进行定制;
- 适配器调整(Adapter Tuning): Adapter Tuning 是通过在模型的隐藏层之间插入可训练的 “适配器” 模块来微调模型的一种方法。 这些 “适配器” 模块允许模型在不改变原始预训练参数的情况下进行微调,从而降低了存储和计算的需求。
Prompt Tuning
提示调整(Prompt Tuning)是一种特殊的微调技术,主要用于文本分类任务。 Prompt Tuning 的灵感来源于推理为基础的自适应提示设计/工程。 与传统的微调方法不同,提示调整专注于优化输入提示,而不是改变模型的内部参数。
Prompt Tuning 通过在输入前添加 个可学习的、连续的标记嵌入(定义为 )来工作。 因此,新的输入长度现在为 ,其中 是原始输入的长度。 这些额外的标记嵌入通过在带标签的任务数据上进行训练来学习。
与此同时,整个预训练的语言模型被冻结,这意味着模型的主体部分不会在微调过程中发生改变。 随着冻结语言模型的规模增加,Prompt Tuning 的性能变得越来越有竞争力, 甚至可以与全面微调(也称为模型调整(Model Tuning))相媲美。 这表明,即使在不改变预训练参数的情况下,也可以通过调整输入 Prompt 来获得出色的性能。
提示调整涉及不同的初始化策略,如:
- 随机词汇词嵌入(Embedding of random vocab words):选择随机的词汇作为嵌入;
- 类标签词嵌入(Embedding of class label words):使用与分类标签相关的词汇进行嵌入;
- 随机初始化(Random init):这种方法通常效果不佳,不推荐使用。
需要提一下,P-Tuning v2 这篇工作是提示调整的全层版本。 所有层级的参数对文本分类和生成任务都有助益。
总的来说,Prompt Tuning 是一种创新的轻量级微调方法,通过在输入上添加可学习的嵌入, 而不是改变整个模型的结构来实现任务特定的优化。这不仅减少了计算和存储的需求, 而且还允许使用较大的冻结模型来实现与全面微调相当的性能。 在文本分类等任务中,提示调整提供了一种灵活和高效的解决方案。
Prefix Tuning
前缀调整(Prefix Tuning)是一种特别设计用于 语言生成任务 的微调方法, 已在 BART 和 GPT-2 模型上进行了开发。
Prefix Tuning 通过在输入的开始处添加 个位置,并在每个注意力层连接额外的可学习权重, 作为键(Keys)和值(Values)来实现。这些附加的权重允许模型在微调过程中学习特定任务的上下文和结构。
虽然 Prefix Tuning 与 Prompt Tuning 在某些方面有相似之处(例如,都涉及微调输入), 但两者之间存在重要区别。比如与 Prompt Tuning 不同,Prefix Tuning 不仅添加可学习的输入, 还在每个注意力层中添加可学习的权重。这些权重可以更好地捕获任务特定的依赖关系和上下文信息。
前缀调整使用了一个广义的注意力操作定义,该操作接收 3 个参数:键()、值()和查询(), 分别具有维度 、 和 。定义如下:
对于 Self-Attention,设置 ,并定义:
其中 、、 是学习到的权重矩阵。
对于注意力头 ,Prefix Tuning 通过将可学习的权重 , 与键和值连接, 计算具有较大的 的注意力。这一计算由 He 等人在 2022 年提出:
其中,,与常规自注意力一样。
所有层级的可训练参数可以增强模型的性能,允许模型在更细粒度上进行优化。
总的来说,前缀调整通过在注意力机制的键和值部分添加可学习的权重, 为模型提供了一种强大的微调手段。这种方法允许模型更好地捕捉任务特定的模式, 并与提示调整等其他技术相辅相成,提供了一种灵活和强大的任务特定优化手段。
Adapter Tuning
Adapter Tuning(适配器调整)是一种微调技术, 通过在每个(冻结的)Transformer 层之间添加新的学习 “bottleneck” 层(称为适配器)来实现。
Adapter Tuning 通常是操作于序列中每个元素 的两层残差网络。 适配器的计算定义如下:
其中:
- 和 是学习到的权重, 它们将 投影到一个瓶颈维度 ,然后再投影回维度 ;
- 符号 表示一个非线性激活函数;
- 结果 是一个在 中与 具有相同维度的向量。
总之,Adapter Tuning 提供了一种灵活的微调方法,允许在不改变原始 Transformer 层的情况下, 通过引入新的可学习层来调整模型。这种方法与 Prompt Tuning 和 Prefix Tuning 等技术相结合, 为自然语言处理任务提供了一种高效、可扩展的解决方案。 “适配器” 的设计使其可以在不牺牲整体模型结构的情况下,增强特定任务的性能。
Lightweight Fine-tuning 的其他性质
-
Lightweight Fine-tuning 的表达能力相当复杂,因为它与特定的预训练语言模型紧密相连。 如果预训练语言模型的权重为 0,则 Pormpt/Prefix Tuning 将不起作用;
-
Promt/Prefix/Adapter Tuning 提供了一种实现个性化模型的方法;
- 假设想为 个用户部署个性化模型,通过 Prefix Tuning,可以存储 个前缀,每个用户一个。 然后,在一个小批量内,通过在每个输入之前附加相应的用户特定前缀,可以并行运行每个用户的个性化模型。 这种方法实现了用户特定的调整,同时有效地利用了并行处理能力。
-
Lightweight Fine-tuning 方法的鲁棒性得到了提升,这些方法倾向于在与全面微调相比, 改善分布外(Out-Of-Distribution,OOD)的性能,例如在不同主题或领域的文本上的表现;
- 例如,Prompt Tuning 方法提高了 OOD 的准确性: 与在 SQuAD 上训练并在领域外的 MRQA 2019 任务上测试的全面微调(Model Tuning)相比, Prompt Tuning 方法在 F1 结果上表现得更好:
-
Prefix Tuning 有助于提高模型在领域外(OOD)的准确性
- 例如在 XSUM 摘要任务中,其中模型在新闻文章上进行微调,并在体育(新闻到体育)或在 {世界,英国,商业} 文章上进行训练, 并在{健康,科技}文章上进行测试(在新闻内部)。XSUM 任务中使用的评估指标是 ROUGE-L, 这是一种基于与参考摘要匹配的长度 L 子序列的自动评估指标。 值得注意的是,当测试数据集不是领域外分布时,Prefix Tuning 的准确性通常略低于模型的全量微调。
Lightweight Fine-tuning 总结
- 冻结(灰色):整个/大部分语言模型
- 优化(蓝色,根据任务变化):少量额外参数(参数的<1%)
- 方法:
LLMs 微调
在快速发展的人工智能领域,高效且有效地利用大型语言模型(LLMs)变得越来越重要。 本质上,我们可以通过两种主要方式使用预训练的大型语言模型来执行新任务: 情境学习(in-context learning) 和 微调(finetuning)。
下面,我们将简要解释什么是情境学习,然后我们将探讨我们可以以各种方式微调 LLMs。
In-Context Learning
情境学习
自从 GPT-2(Radford 等人)和 GPT-3(Brown 等人)以来,我们已经看到, 在通用文本语料库上预训练的生成式大型语言模型(LLMs)能够进行情境学习, 这种学习方式不需要我们对预训练的 LLMs 进行进一步训练或微调, 如果我们想要执行 LLMs 没有明确训练过的特定或新任务。 相反,我们可以通过输入提示直接提供一些目标任务的示例,如下面的示例所示:
Translate the following German sentences into English:
Example 1:
German: "Ich liebe Eis."
Englist: "I love ice cream."
Example 2:
GermanA: "Draußen ist es stürmisch und regnerisch"
Englist: "It's stormy and rainy outside."
Translate this sentence:
German: "Wo ist die naechste Supermarkt?"
如果我们无法直接访问模型,例如通过 API 使用模型时,情境学习非常实用。
与 情境学习 相关的是 硬提示微调(hard prompt tuning) 的概念,其中我们修改输入, 希望以此改善输出,如下所示:
1) "Translate the English sentence '{english_sentence}' into German: {german_translation}"
2) "Englist: '{english_sentence}' | German: {german_translation}"
3) "From Englist to German: '{english_sentence}' -> {german_translation}"
顺便提一下,我们称之为 硬提示微调(hard prompt tuning), 因为我们直接修改输入的单词或标记。稍后,我们将讨论一种不同的版本, 称为 软提示微调(soft prompt tuning)(或通常简称为 提示微调(prompt tuning))。
上述提到的提示微调方法为参数微调提供了一种更资源高效的替代方案。 然而,它的性能通常低于 参数微调(parameter finetuning), 因为它不会更新模型针对特定任务的参数,这可能限制其适应特定任务细微差别的能力。 此外,提示微调可能非常费时费力,因为它通常需要人工参与比较不同提示的质量。
Indexing
索引
在更详细地讨论微调之前,另一种利用纯情境学习方法的途径是 索引(indexing)。 在 LLMs 领域内,索引可以被视为一种情境学习的变通方法,它能够将 LLMs 转化为信息检索系统, 用于从外部资源和网站中提取数据。在这个过程中,索引模块将文档或网站分解为更小的片段, 并将它们转换为可以存储在向量数据库中的向量。然后,当用户提交查询时, 索引模块会计算嵌入查询与数据库中每个向量之间的向量相似度。 最终,索引模块获取最相似的 个嵌入来生成响应。
Feature-Based 和 Finetuning 方法
情境学习是一种有价值且用户友好的方法,适用于直接访问大型语言模型(LLM)受限的情况, 例如通过 API 或用户界面与 LLM 交互。
然而,如果我们能够访问 LLM,使用来自目标领域的数据在目标任务上调整和微调它通常能带来更优越的结果。 那么,我们如何将模型调整到目标任务呢?下面图中概述了三种传统方法。
Feature-Based 方法
在基于特征的方法中,我们加载一个预训练的 LLM,并将其应用于我们的目标数据集。 在这里,我们特别关注生成训练集的输出嵌入(output embedding), 这些 Embedding 可以用作训练分类模型的输入特征。 虽然这种方法对于 BERT 等专注于 Embedding 的任务特别常见, 但我们也可以从生成式 GPT 风格的模型中提取 Embedding。
分类模型可以是逻辑回归模型、随机森林或 XGBoost——随心所欲。 (然而,根据经验,这里逻辑回归等线性分类器表现最佳。)
model = AutoModel.from_pretrained("distilbert-base-uncased")
# ...
# tokenize dataset
# ...
# generate embeddings
@torch.inference_mode()
def get_output_embeddings(batch):
output = model(
batch["input_ids"],
attention_mask=batch["attention_mask"]
).last_hidden_state[:, 0]
return {"features": output}
dataset_features = dataset_tokenized.map(
get_output_embeddings, batched=True, batch_size=10)
X_train = np.array(imdb_features["train"]["features"])
y_train = np.array(imdb_features["train"]["label"])
X_val = np.array(imdb_features["validation"]["features"])
y_val = np.array(imdb_features["validation"]["label"])
X_test = np.array(imdb_features["test"]["features"])
y_test = np.array(imdb_features["test"]["label"])
# train classifier
from sklearn.linear_model import LogisticRegression
clf = LogisticRegression()
clf.fit(X_train, y_train)
print("Training accuracy", clf.score(X_train, y_train))
print("Validation accuracy", clf.score(X_val, y_val))
print("test accuracy", clf.score(X_test, y_test))
Finetuning I-更新输出层
与上述基于特征的方法相关的一种流行方法是微调输出层(我们将此方法称为微调 I)。 类似于基于特征的方法,我们保持预训练 LLM 的参数冻结。我们仅训练新添加的输出层, 类似于在嵌入特征上训练逻辑回归分类器或小型多层感知器。
理论上,这种方法在建模性能和速度方面应该与基于特征的方法表现相似,因为我们使用了相同的冻结主干模型。 然而,由于基于特征的方法使得预先计算和存储训练数据集的嵌入特征稍微更容易, 因此基于特征的方法可能在特定的实际场景中更加方便。
model = AutoModelForSequenceClassification.from_pretrained(
"distilbert-base-uncased",
num_labels=2
)
# freeze all layers
for param in model.parameters():
param.requires_grad = False
# then unfreeze the two last layers (output layers)
for param in model.pre_classifier.parameters():
param.requires_grad = True
for param in model.classifier.parameters():
param.requires_grad = True
# finetune model
lightning_model = CustomLightningModule(model)
trainer = L.Trainer(
max_epochs=3,
...
)
trainer.fit(
model=lightning_model,
train_dataloaders=train_loader,
val_dataloaders=val_loader
)
# evaluate model
trainer.test(lightning_model, dataloaders=test_loader)
Finetuning II-更新所有层
虽然原始 BERT 论文(Devlin 等人)报告仅微调输出层即可获得与微调所有层相当的建模性能, 但后者由于涉及更多参数,成本要高得多。例如,BERT 基础模型大约有 1.1 亿个参数。 然而,用于二分类的 BERT 基础模型的最后一层仅包含 1,500 个参数。 此外,BERT 基础模型的最后两层包含 60,000 个参数——这仅占模型总规模的 0.6%。
我们的效果会因目标任务和目标领域与模型预训练数据集的相似程度而异。 但在实践中,微调所有层几乎总是能带来更优越的建模性能。
因此,在优化建模性能时,使用预训练 LLMs 的金标准是更新所有层(此处称为微调 II)。 从概念上讲,微调 II 与微调 I 非常相似。唯一的不同之处在于,我们不冻结预训练 LLM 的参数, 而是对其进行微调:
model = AutoModelForSequenceClassification.from_pretrained(
"distilbert-base-uncased",
num_labels=2
)
# freeze layers (which we don't do here)
# for param in model.parameters():
# param.requires_grad = False
# finetune model
lightning_model = LightningModel(model)
trainer = L.Trainer(
max_epochs=3,
...
)
trainer.fit(
model=lightning_model,
train_dataloaders=train_loader,
val_dataloaders=val_loader
)
# evaluate model
trainer.test(lightning_model, dataloaders=test_loader)
Parameter-Efficient Finetuning
参数高效微调
参数高效微调允许我们在最小化计算和资源的同时重用预训练模型。总而言之,参数高效微调至少有五个优点:
- 降低计算成本(需要更少的 GPU 和 GPU 时间);
- 更快的训练时间(更快完成训练);
- 更低的硬件要求(可在更小的 GPU 和更少的内存上运行);
- 更好的建模性能(减少过拟合);
- 存储空间更小(大部分权重可以在不同任务间共享)。
之前,我们了解到微调更多层通常能带来更好的结果。现在,上述实验是基于一个相对较小的 DistilBERT 模型进行的。 如果我们想微调那些仅勉强能放入 GPU 内存的大型模型,例如最新的生成式 LLMs,该怎么办呢? 当然,我们可以使用之前提到的基于特征或微调 I 的方法。但假设我们希望获得与微调 II 相似的建模质量呢?
多年来,研究人员开发了几种技术,这些技术能够在仅需要训练少量参数的情况下, 对 LLM 进行高建模性能的微调。这些方法通常被称为参数高效微调技术(PEFT)。
下面总结了最广泛使用的部分 PEFT 技术。
那么,这些技术是如何工作的呢?简而言之, 它们都涉及引入少量额外的参数进行微调(与我们之前在 Finetuning II 方法中微调所有层的方式相反)。 从某种意义上说,Finetuning I(仅微调最后一层)也可以被视为一种参数高效微调技术。 然而,诸如前缀微调、适配器和低秩适应等技术,这些技术“修改”了多个层,却以较低的成本实现了更好的预测性能。
RLHF
在人类反馈强化学习(RLHF)中, 预训练模型通过监督学习和强化学习的结合进行微调——这种方法由最初的 ChatGPT 模型推广开来, 而 ChatGPT 模型本身则基于 InstructGPT。
在 RLHF 中,通过让人类对不同的模型输出进行排序或评分来收集人类反馈,从而提供一个奖励信号。 收集到的奖励标签可以用来训练一个奖励模型,该模型随后被用来指导 LLMs 适应人类偏好。
奖励模型本身是通过监督学习学习的(通常使用一个预训练的 LLM 作为基础模型)。 接下来,使用奖励模型来更新要适应人类偏好的预训练 LLM, 训练过程使用一种称为近端策略优化(proximal policy optimization, PPO)的强化学习方法。
下面是 InstructGPT 论文中的 RLHF 流程:
为什么使用奖励模型而不是直接在人类反馈上训练预训练模型?这是因为将人类纳入学习过程会形成瓶颈, 因为我们无法实时获取反馈。
总结
微调预训练 LLM 的所有层仍然是适应新目标任务的金标准,但使用预训练转换器有几个高效的替代方法。 基于特征的方法、情境学习以及参数高效的微调技术能够在最小化计算成本和资源的同时,使 LLM 有效地应用于新任务。 此外,带人类反馈的强化学习(RLHF)可作为监督微调的替代方案,有可能提升模型性能。