位置编码详解

张开发
2026/4/8 23:55:31 15 分钟阅读

分享文章

位置编码详解
位置编码Positional Encoding, PE是自然语言处理NLP中特别是Transformer模型架构里的一个核心概念。它的作用是给序列中的每个词Token注入“顺序”或“位置”信息。一、WHY为什么需要位置编码1. 核心原因Self-Attention 机制缺乏“顺序感”Transformer 的核心组件是 Self-Attention自注意力机制它的计算方式是并行的且具有排列不变性Permutation Invariance。并行计算模型一次性看到所有词而不是像 RNN 那样一个一个按顺序处理。排列不变性在数学上如果你打乱输入句子中词的顺序Self-Attention 输出的向量集合内容是一样的只是顺序变了。例如输入I love AI和AI love I如果没有位置信息模型计算出的注意力权重集合是完全相同的。2. 语言数据的本质顺序决定语义自然语言NLP是序列数据词的顺序直接决定含义。例子 1主谓宾关系猫抓老鼠 vs 老鼠抓猫词完全一样但顺序不同语义截然相反。例子 2否定词位置我喜欢这个产品 vs 我不喜欢这个产品否定词的位置决定了情感极性。如果没有位置编码模型无法区分上述差异导致无法理解语言逻辑。3. 与 RNN/CNN 的对比模型架构是否有天然顺序感是否需要 Position EmbeddingRNN / LSTM✅ 有❌ 不需要按时间步 sequentially 处理CNN✅ 有❌ 不需要卷积核按顺序滑动Transformer❌ 无✅ 必须需要4. Position Embedding 的作用它的作用是显式地将“位置信息”注入到输入向量中弥补 Transformer 的缺陷。实现方式将一个代表位置的向量Position Vector加到词嵌入向量Word Embedding上。 InputToken EmbeddingPosition Embedding效果即使词相同只要位置不同最终输入模型的向量就不同。模型因此能够学习到“词 A 在词 B 前面”这样的顺序依赖关系。5. 结论弥补架构缺陷Transformer 的 Self-Attention 机制本身无法感知词序。保留语义逻辑确保模型能区分“谁对谁做了什么”主谓宾关系。实现并行计算为了让 Transformer 能并行处理序列比 RNN 快必须牺牲天然的顺序感并通过 PE 显式补回位置信息。二、HOW:如何实现位置编码1. 用整型值标记位置核心思想直接使用1, 2, 3, ..., N作为位置 ID通过 Embedding 层查找向量。这种方法带来的问题是泛化性差外推能力弱模型训练时最大长度可能是 512。如果推理时遇到长度为 1024 的句子模型会遇到从未见过的位置 ID如 513导致 Embedding 查找失败或随机初始化性能急剧下降。数值无界位置值无限增大导致 Embedding 向量的分布难以稳定可能影响梯度更新。2. 用[0,1]范围标记位置2.1 核心思想位置归一化Position Normalization这种方法的核心思想是将绝对的索引值转化为相对的比例值。它不再关心一个 token 具体是第几个如第 1 个、第 100 个而是关心它在整个序列中所处的相对进度。2.2 设计逻辑边界固定无论序列多长起始位置永远标记为0结束位置永远标记为1。均匀分布中间的 token 根据序列总长度均匀地分布在 0 到 1 之间。序列长度 3位置为[0, 0.5, 1]。每个间隔为0.5。序列长度 4位置为[0, 0.33, 0.69, 1]。每个间隔约为0.33。目的试图解决整型值标记带来的“数值无界”问题将位置信息压缩到一个固定的浮点数范围内避免位置值随序列长度无限增大。2.3 核心缺陷相对距离的语义不一致性这种方法虽然解决了数值范围问题但引入了一个更严重的语义问题Token 间的相对距离随序列长度变化而变化。2.3.1 缺陷详解在自然语言处理中距离往往代表着语法或语义的关联强度。短序列长度 3相邻 token 的数值距离是0.5。长序列长度 4相邻 token 的数值距离变成了0.33。更长序列这个距离会变得更小如长度 10 时距离为 0.11。2.3.2 为什么这是致命问题模型在学习语言规律时会建立“数值距离”与“语义关系”之间的映射。假设模型学习到当两个词的position距离为0.5时它们通常是“主谓关系”紧密关联。冲突发生在一个短句中相邻词的距离是0.5模型能正确识别为主谓关系。在一个长句中相邻词的距离变成了0.1模型可能会认为这两个词“距离很远”从而忽略它们之间的语法关联。后果模型无法形成稳定的位置感知。它学到的位置规律无法在不同长度的句子之间迁移。同样的语法结构仅仅因为句子变长了在模型眼里的“位置距离”就变了导致理解能力下降。2.4 理想的位置表示方式2.4.1. 能表示 Token 的绝对位置含义模型需要知道某个词具体在句子的哪个位置例如是开头、中间还是结尾。必要性某些语义依赖于绝对位置。例如句首的词通常是主语句尾的词可能是结论。如果只告诉模型“你在 50% 的位置”模型可能无法区分这是一个短句的中间还是长句的中间。2.4.2. 不同序列长度下相对位置/距离保持一致含义无论句子长短相邻两个词之间的“位置编码距离”应该是固定的或者遵循某种固定规律而不是随长度缩放。必要性这是为了解决上述核心缺陷。确保模型学到的“近距离依赖”规则在短句和长句中都能通用。2.4.3. 能表示训练过程中从未看到过的句子长度外推性含义模型训练时可能只见过长度为 512 的句子但在实际使用时需要处理长度为 1024 或 2048 的句子。位置编码方法必须支持这种泛化。必要性实际应用场景中输入长度是不可控的。如果位置编码只能处理训练过的长度模型的实用性将大打折扣。3. 二进制数字位置编码核心定义将 token 在序列中的位置索引Index直接转换为二进制向量作为位置编码加到 token 的词向量上。假设条件每个 token 的表征维度为d例如d4。位置索引p从 0 开始。使用d位二进制数来表示位置p。编码规则以4维二进制编码为例前9个token的位置编码如下Token位置十进制二进制向量 (dim4)Pos 00[0, 0, 0, 0]Pos 11[0, 0, 0, 1]Pos 22[0, 0, 1, 0]Pos 33[0, 0, 1, 1]Pos 44[0, 1, 0, 0]Pos 55[0, 1, 0, 1]Pos 66[0, 1, 1, 0]Pos 77[0, 1, 1, 1]观察规律最低位最右边dim 3每个token都变化0→1→0→1...变化最快次低位dim 2每2个token变化一次00→11→00→11...次高位dim 1每4个token变化一次最高位最左边dim 0每8个token才变化一次变化最慢二进制低位 → 高频变化快二进制高位 → 低频变化慢二进制编码缺陷离散的二进制数字编码会出现跳变而处于两个跳变区间的值全部相同要么全为0要么全为1。这种情况下模型很难感知到这些维度上的位置变化4. Sinusoidal位置编码4.1 sinusoidal连续性参数说明符号含义示例posToken 在序列中的位置0,1,2,3...i维度索引的一半i 0, 1, 2, ..., d/2-1d位置编码向量的总维度如 d5122i偶数维度使用sin)0, 2, 4, ...2i1奇数维度使用cos)1, 3, 5, ...示例分析当i0时第0维和第1维周期分析sin函数的完整周期是2π ≈ 6.283意味着每 6.2 个 token第 0 维的编码值就绕完一圈pos0: sin(0) 0.00 pos1: sin(1) 0.84 pos2: sin(2) 0.91 pos3: sin(3) 0.14 pos4: sin(4) -0.76 pos5: sin(5) -0.96 pos6: sin(6) -0.28 pos7: sin(7) 0.66 ← 开始新周期当i1时第二维和第三维假设d512,代入公式其中所以周期分析新周期1.029×2π≈6.468频率分布规律 不同维度的波长对比d512维度 i对应维度波长计算波长值频率i0dim 0,16.28最高频i1dim 2,36.47高频i2dim 4,56.66中高频...............i255dim 510,51163,662最低频总结低维度高频编高维度低频编Sinusoidal位置编码优势✅ 每个位置的编码都不同✅ 相邻位置的编码差异平滑✅ 模型可以轻松感知任意位置变化4.2 Sinusoidal的线性表示sin(AB)sinAcosBcosAsinBcos(AB)cosAcosB−sinAsinB这两个公式将角度相加的三角函数分解为单独角度的线性组合位置关系推导原始公式代入posk:令:所以其中所以公式结构分析根据以上公式可以表示为的线性组合形式为axb,其中b ±cos/sin(pos/⋯)⋅sin(k/⋯)特性说明优势线性关系相对位置编码可以用线性函数表示模型容易学习相对位置与的关系只依赖于k捕捉相对距离参数固定系数只与k 和维度 i有关与 无关泛化能力强4.3 Sinusoidal的相对位置信息在Self-Attention机制中模型能够感知两个不同token位置信息的关键时刻是Query和Key的计算过程。公式如下将上式展开可得其中第一项为token信息交互第二项为key的位置信息第三项为query的位置信息第四项为key和query的位置信息交互。因为Query和Key的位置编码同时出现在第四项所以这一项可能与相对位置有关。但原式子中原始的位置编码和都经过了线性映射这让分析变得困难。为了简化我们先把这两个线性映射当作恒等映射。那么相对位置这一项就可以简化成了。,其中 2ℎ 表示维度索引 d是总维度大小。上式中向量的两个维度分别对应维度 2ℎ 和维度 2ℎ1 的位置编码。为进一步简化符号记那么,利用上式计算向量内积利用三角函数性质所以根据以上公式按照Sinusoidal位置编码的定义如果我们不给两个位置编码引入额外的线性变化那么就能实现相对位置编码

更多文章