《从零构建大模型》
[美]塞巴斯蒂安·拉施卡
书中资料 https://github.com/rasbt/LLMs-from-scratch
第四章 模型架构
4.1 构建一个大语言模型架构
- 大语言模型,比如GPT(生成式预训练Transformer),是旨在一次生成一个词(或词元)的大型深度神经网络架构。
- GPT模型。除了嵌入层,它还包含一个或多个Transformer块,这些块中包括我们之前实现的掩码多头注意力模块
- 在深度学习和像GPT这样的大语言模型中,“参数”指的是模型的可训练权重。这些权重本质上是模型的内部变量,在训练过程中通过调整和优化来最小化特定的损失函数。这种优化使模型能够从训练数据中学习。
- 例如,在一个由2048维×2048维的权重矩阵(或张量)表示的神经网络层中,矩阵中的每个元素都是一个参数。由于矩阵有2048行和2048列,因此该层的参数总数为2048×2048,即4 194 304。
GPT-2 124M参数的模型配置如下:
1 | GPT_CONFIG_124M = { |
vocab_size表示会被BPE分词器使用的由50 257个单词组成的词汇表(参见第2章)
context_length指的是模型通过位置嵌入能够处理的最大输入词元数量(参见第2章)。
emb_dim表示嵌入维度大小,可以将每个词元转化为768维的向量
n_heads表示多头注意力机制中注意力头的数量
n_layers表示模型中的Transformer块数量
drop_rate表示dropout机制的强度(0.1表示有10%的隐藏单元被随机丢弃),以防止过拟合
qkv_bias指的是是否在多头注意力机制的线性层中添加一个偏置向量,用于查询、键和值的计算
模型的架构由图中几个步骤构成:
4.2 GPT模型的骨架
一个简化版的类GPT模型架构包括词元和位置嵌入、dropout、一系列Transformer块(DummyTransformerBlock)、最终层归一化(DummyLayerNorm)和线性输出层(out_head)。配置信息通过一个Python字典(GPT_CONFIG_124M)传入
1 | import torch |
forward方法描述了数据在模型中的处理流程:它首先计算输入索引的词元和位置嵌入,然后应用dropout,接着通过Transformer块处理数据,再应用归一化,最后使用线性输出层生成logits
测试函数如下
1 | def test_model(): |
- 在大语言模型中,输入词元的嵌入维度通常与输出维度相匹配。这里的输出嵌入代表上下文向量,还不是最终的模型输出。模型的输出(通常称为logits)
- 在GPT-2中输入的词元嵌入向量(维度为 768)会经过多层 Transformer 的自注意力(Self-Attention)和前馈神经网络(Feed-Forward Network)处理。在这些层中,所有的中间表示(包括注意力机制的上下文向量)都会保持维度为 768,以确保模型内部计算的一致性。从测试代码可以看到模型的输出最终的维度为
2*4*50257
,两行文本,每个文本4个词元,每个词元对应词汇表中50257个词出现的概率。 - GPT-2 是一个自回归语言模型,其目标是预测下一个词元(token)。为了实现这一点,模型的输出需要表示词汇表中每个词元的概率分布。因此,模型的最后一层会将 Transformer 的输出(维度为 768)通过一个线性变换层(通常称为输出投影层或语言模型头)映射到词汇表大小的维度(即词元字典的大小,例如 GPT-2 的词汇表大小为 50,257)
- 线性变换层的作用是将每个词元的语义表示(768 维)转化为词汇表中每个词元的得分(logits),然后通过
softmax
函数转换为概率分布,用于预测下一个词元。
4.3 使用层归一化进行归一化激活
由于梯度消失或梯度爆炸等问题,训练深层神经网络有时会变得具有挑战性。这些问题会导致训练过程不稳定,使网络难以有效地调整权重,从而使学习过程难以找到一组最小化损失函数的参数(权重)。换句话说,网络难以学习数据中的潜在模式,从而无法进行准确预测或决策。
实现层归一化,以提高神经网络训练的稳定性和效率。层归一化的主要思想是调整神经网络层的激活(输出),使其均值为0且方差(单位方差)为1。这种调整有助于加速权重的有效收敛,并确保训练过程的一致性和可靠性。
层归一化可以确保每个层的输出具有一致的均值和方差,从而稳定训练过程
在GPT-2和当前的Transformer架构中,层归一化通常在多头注意力模块的前后进行,
层归一化还应用于最终输出层之前
简单举例
一个输入值的维度5,经过网络层后输出维度为6,这6个值经过归一化后平均值为0,方差为1
以上图为例的代码实现
1 | def test_norm(): |
- 非线性激活函数ReLU(修正线性单元),ReLU是神经网络中的一种标准激活函数。它只是简单地将负输入值设为0,从而确保层的输出值都是正值,这也解释了为什么结果层的输出中不包含负值
- 一开始网络的输出是2*5和输入相同,且所有的值都是大于0的,经过层归一化后输出值包含负值,其均值为0,方差为1
层归一化类实现
1 | class LayerNorm(nn.Module): |
这个层归一化的具体实现作用在输入张量x的最后一个维度上,该维度对应于嵌入维度(emb_dim)。变量eps是一个小常数(epsilon),在归一化过程中会被加到方差上以防止除零错误。scale和shift是两个可训练的参数(与输入维度相同),如果在训练过程中发现调整它们可以改善模型的训练任务表现,那么大语言模型会自动进行调整。这使得模型能够学习适合其数据处理的最佳缩放和偏移。
在批次维度上进行归一化的批归一化不同,层归一化是在特征维度上进行归一化。由于层归一化是对每个输入独立进行归一化,不受批次大小的限制,因此在这些场景中它提供了更多的灵活性和稳定性。这在分布式训练或在资源受限的环境中部署模型时尤为重要
4.4 实现具有GELU激活函数的前馈神经网络
在大语言模型中,除了传统的ReLU,还有其他几种激活函数,其中两个值得注意的例子是GELU(Gaussian Error Linear Unit)和SwiGLU(Swish-gated Linear Unit)。GELU和SwiGLU是更为复杂且平滑的激活函数,分别结合了高斯分布和sigmoid门控线性单元。与较为简单的ReLU激活函数相比,它们能够提升深度学习模型的性能。
GELU激活函数
GELU激活函数可以通过多种方式实现,其精确的定义为
GELU(x)=x⋅Φ(x)
, 其中Φ(x)
是标准高斯分布的累积分布函数实际中通常使用以下近似计算公式:
$\text{GELU}(x) \approx 0.5 \cdot x \cdot \left(1 + \tanh\left[\sqrt{\frac{2}{\pi}} \cdot \left(x + 0.044715 \cdot x^3\right)\right]\right)$
ReLU是一个分段线性函数,当输入为正数时直接输出输入值,否则输出0。GELU则是一个平滑的非线性函数,它近似ReLU,但在几乎所有负值(除了在x约等于-0.75的位置外)上都有非零梯度。
GELU的平滑特性可以在训练过程中带来更好的优化效果,因为它允许模型参数进行更细微的调整。相比之下,ReLU在零点处有一个尖锐的拐角(参见图4-8的右图),有时会使得优化过程更加困难,特别是在深度或复杂的网络结构中 ReLU对负输入的输出为0,而GELU对负输入会输出一个小的非零值。这意味着在训练过程中,接收到负输入的神经元仍然可以参与学习,只是贡献程度不如正输入大。
前馈神经网络模块
1 | class GELU(nn.Module): |
FeedForward
模块是一个小型神经网络,由两个线性层和一个GELU激活函数组成。在参数量为1.24亿的GPT模型中,该模块通过GPT_CONFIG_124M
字典接收输入批次,其中每个词元的嵌入维度为768,即GPT_CONFIG_124M["emb_dim"] =768
FeedForward
模块在提升模型学习和泛化能力方面非常关键。虽然该模块的输入和输出维度保持一致,但它通过第一个线性层将嵌入维度扩展到了更高的维度,这里是从768维扩展到3072维。扩展之后,应用非线性GELU激活函数,然后通过第二个线性变换将维度缩回原始大小,即将3072维压缩回768维。这种设计允许模型探索更丰富的表示空间
4.5 快捷连接
- 快捷连接(也称为“跳跃连接”或“残差连接”),最初用于计算机视觉中的深度网络(特别是残差网络),目的是缓解梯度消失问题。梯度消失问题指的是在训练过程中,梯度在反向传播时逐渐变小,导致早期网络层难以有效训练。
- 快捷连接通过跳过一个或多个层,为梯度在网络中的流动提供了一条可替代且更短的路径。这是通过将一层的输出添加到后续层的输出中实现的。这也是为什么这种连接被称为跳跃连接。在反向传播训练中,它们在维持梯度流动方面扮演着至关重要的角色
- 快捷连接是通过将一层的输出直接传递到更深层来跳过一个或多个层的连接,它能帮助缓解在训练深度神经网络(如大语言模型)时遇到的梯度消失问题
简单举例
一个具有5层的深度神经网络,每层由一个线性层和一个GELU激活函数组成。在前向传播过程中,我们通过各层迭代地传递输入。快捷连接将某一层的输入添加到其输出中,有效地创建了一条绕过某些层的替代路径。图中的梯度表示每层的平均绝对梯度,有快捷连接的梯度值明显要大。
- 示例代码和输出
1 | class ExampleDeepNeuralNetwork(nn.Module): |
- 定义了一个损失函数
loss = nn.MSELoss()
,用于计算模型输出与用户指定目标(为简化处理,这里设为0)的接近程度。然后,当调用loss.backward()
时,PyTorch会计算模型中每一层的损失梯度 - 通过
model.named_parameters()
迭代权重参数,如果某一层有一个3×3的权重参数矩阵,那么该层将有3×3的梯度值。我们打印这3×3的梯度值的平均绝对值,以得到每一层的单一梯度值,从而可以比较层与层之间的梯度变化。 - 从第一段无快捷连接的输出看到,梯度在从最后一层(layers.4)到第1层(layers.0)的过程中逐渐变小,最后变成一个非常小的值,这种现象称为梯度消失问题
- 对有快捷连接的输出结果,梯度值在逐渐接近第1层(layers.0)时趋于稳定,并且没有缩小到几乎消失的程度。
4.6 Transformer块
Transformer块,是GPT和其他大语言模型架构的基本构建块。它结合了多个组件,包括掩码多头注意力模块、之前实现的FeedForward
模块。当Transformer块处理输入序列时,序列中的每个元素(如单词或子词)都被表示为一个固定大小的向量(此处为768维)。Transformer块内的操作,包括多头注意力和前馈层,旨在以保持这些向量维度的方式来转换它们。
自注意力机制在多头注意力块中用于识别和分析输入序列中元素之间的关系。前馈神经网络则在每个位置上对数据进行单独的修改。这种组合不仅提供了对输入更细致的理解和处理,而且提升了模型处理复杂数据模式的整体能力。
图中输入的词元(Every,effort等)被嵌入到768维的向量中。每一行对应一个词元的向量表示。Transformer块的输出是与输入具有相同维度的向量,这些向量可以传递到大语言模型的后续层中,这里是4x768。
前层归一化(Pre-LayerNorm):在多头注意力机制(MultiHeadAttention)和前馈神经网络(FeedForward)之前都有一个层归一化(LayerNorm),而在它们两个之后也都有一个dropout,以便对模型进行正则化并防止过拟合。
后层归一化(Post-LayerNorm):在多头注意力机制(MultiHeadAttention)和前馈神经网络(FeedForward)之后进行层归一化,早期的Transformer模型采用这种架构,会导致较差的训练结果
代码中实现的前向传播中每个组件后面都跟着一个快捷连接,将块的输入加到其输出上。这个关键特性有助于在训练过程中使梯度在网络中流动,并改善深度模型的学习效果
1 | class TransformerBlock(nn.Module): |
4.7 实现GPT模型
- 从底部开始,词元化文本首先被转换成词元嵌入,然后用位置嵌入进行增强。这些组合信息形成一个张量,然后通过中间所示的一系列Transformer块(每个块都包含多头注意力和前馈神经网络层,并带有dropout和层归一化功能),这些块相互堆叠并重复12次
- 最终Transformer块的输出会经过最后一步的层归一化处理,以稳定学习过程,然后传递到线性输出层。这个层会将Transformer的输出映射到一个高维空间(在本例中为50 257维,对应模型的词汇表大小),为词汇中的每个词元生成分数(logits),以预测序列中的下一个词元。
实现代码
- 通过
numel()
(“number of elements”的缩写)方法可以统计模型参数张量的总参数量
1 | class GPTModel(nn.Module): |
- 原始GPT-2架构中使用了一个叫作权重共享(weight tying)的概念。也就是说,原始GPT-2架构是将词元嵌入层作为输出层重复使用的
- 总的GPT-2模型参数计数中减去输出层的参数量得到参数数量为124,412,160,就是1.24亿了。
- 示例代码
GPTModel
对象中1.63亿个参数,并假设每个参数是占用4字节的32位浮点数,模型参数使用的内存总大小为621.83 MB,这表明即使是相对较小的大语言模型也需要相对较大的存储容量。 - 权重共享可以减少模型的总体内存占用和计算复杂度。不过,根据我的经验,使用单独的词元嵌入层和输出层可以获得更好的训练效果和模型性能
4.8 生成文本
在生成下一个词的迭代的每一步中,模型输出一个矩阵,其中的向量表示有可能的下一个词元。将与下一个词元对应的向量提取出来,并通过softmax
函数转换为概率分布。在包含这些概率分数的向量中,找到最高值的索引,这个索引对应于词元ID。然后将这个词元ID解码为文本,生成序列中的下一个词元。最后,将这个词元附加到之前的输入中,形成新的输入序列,供下一次迭代使用。这个逐步的过程使得模型能够按顺序生成文本,从最初的输入上下文中构建连贯的短语和句子
生成下一个词的过程
相关代码
输入文本”Hello, I am”共4个词元,经过GPT模型预测后,计算出下一个词的词元ID是27018,把这个词加入输入,一共5个词元输入给GPT模型,再去预测下一个词,直到6次预测完成,一共输出了10个词元,再把这10个词元ID转换回字串。
1 | def generate_text_simple(model, idx, max_new_tokens, context_size): |