NLP的游戏规则从此改写

语言模型

Posted by Wwt on October 25, 2018

本文摘自夕小瑶专栏文章《NLP的游戏规则从此改写?从word2vec,ELMo和BERT》,部分内容稍作修改。

还记得不久之前的机器阅读理解领域,微软和阿里在SQuAD上分别以R-Net+和SLQA超过人类,百度在MS MARCO上凭借V-Net霸榜并在BLEU上超过人类。这些网络可以说一个比一个复杂,似乎“如何设计出一个更work的task-specific的网络”变成了NLP领域政治正确的研究方向。而在这种风向下,不管word2vec也好,glove也好,fasttext也好,都只能充当一个锦上添花的作用。说好的迁移学习、预训练呢?在NLP似乎始终没成主角 。

直到几天前的BERT出来,才使得预训练的语言模型再次受到大家的关注。预训练的词嵌入与上下文无关,仅用于初始化的第一层。近几月以来,许多有监督的任务被用来预训练神经网络。相比之下,语言只要未标记的文本,因此其训练可以扩展到数十亿单词的语料、新的领域、新的语言。预训练的语言模型于2015年被首次提出,但直到最近它才被证明在大量不同类型的任务中均十分有效。语言模型嵌入可以作为目标模型中的特征,或者根据具体任务进行调整。

本文试着从Word2Vec和ELMo的角度说说BERT。下面简单回顾下word2vec和ELMo中的精华,已经很透彻的小伙伴可以快速下拉到BERT章节。

Word2Vec

说来也都是俗套而乐此不疲一遍遍写的句子,2013年Google的word2vec一出,让NLP各个领域遍地开花,一时间好像不用上预训练的词向量都不好意思写论文了。

而Word2Vec是什么呢?

1

显然就是一个“线性”语言模型。既然我们的目标是学习词向量,而且词向量在语义上要支持一些“线性的语义计算”,如“国王-王后=男-女”,那么使用一个线性模型自然足够了,跑的又快又能完成任务,非常完美。

另外Word2Vec的一个精髓是把语义模型的那一套softmax加速方法也给顺便优化了,用一个看似开脑洞的“负采样”方法来代替传统的层级softmax和NCE做法。而这个高大上的“负采样”到底是什么呢?

负采样

我么 知道对于训练语言模型来说,softmax层非常难算,毕竟你要预测的是当前位置是哪个词,那么这个类别数就等同于词典规模,因此动辄几万几十万的类别数,算softmax函数当然很费力啦。但是,如果我们的目标不在于训练一个精准的语言模型,而只是为了训练得到语言模型的副产物–词向量,那么其实只需要这里隐含的一个计算代价更小的“子任务”就好啦。

这里举一个小例子,假设给你10000张写有数字的卡片,让你找出其中的最大值,是不是特别费力?但是如果把里面的最大值抽出来,跟五张随机抽取的卡片混到一起,让你选出其中的最大值,是不是就容易很多啦?

负采样就是这个思想,既不直接让模型从整个词表找最可能的词了,而是直接给定这个词(即正例)和几个随机采样的噪声词(即采样出来的负例),只要模型能从这里面找出正确的词就认为完成目标。所以这个想法对应的目标函数即:

2

这里$\acute vW_o$是正例,$\acute vw_i$是随机采样出来的负例(采样k个),$\sigma$是sigmoid函数。然后即最大化正例的似然,最小化负例的似然。

这种负采样的思想被成功的应用在了BERT模型中,只不过粒度从词变成了句子。

char-level与上下文

虽然2015到2017 年也有不少工作试图从char-level入手,另辟蹊径,摆脱预训练词向量的游戏规则,然而实测只是昙花一现,很快被怼了。不过,人们同时也意识到了char-level的文本中也蕴含了一些word-level的文本所难以描述的模式,因此一方面出现了可以学习到char-level特征的词向量FastText,另一方面在有监督任务中开始通过浅层CNN、HighWayNet、RNN等网络引入char-level 文本的表示。

不过,至此为止,词向量都是上下文无关的。也就是说,同一个词在不同语境中总是相同的词向量,很明显这导致词向量模型缺乏词义消歧的能力。于是,人们为了让词向量变得上下文相关,开始在具体的下游任务中基于词向量sequence来做encoding。

最常见的encoding方法当然就是用RNN系的网络,除此之外还有成功的用深层的CNN来encoding的工作。然而Google说了,CNN也太俗了,我们要用全连接网络self-attention!于是就有了为NLP深度定制的Transformer模型,Transformer的提出是在机器翻译任务上,但是其在其它领域如检索式对话上也发挥了巨大的威力。

不过,既然发现在各个NLP任务中基本都有encoding的需要,那么为啥不在最开始就让词向量用于上下文相关的能力呢?于是就有了ELMo。

ELMo

当然,实际上ELMo不是第一个试图产生上下文相关的词向量的模型,不过确是一个让你有充分理由放弃Word2Vec的模型。ELMo在模型层上就是一个stacked bi-lstm(严格来说就是训练了两个单向的stacked lstm),所以当然有不错的encoding能力。同时其源码实现上也支持用HighWay Net或者CNN来额外引入char-level encoding 。训练它的话自然也是语言模型标准的最大化似然函数。即

3

不过这个ELMo的亮点当然不在于模型层,而是其通过实验间接说明了在多层CNN中,不同层学到的特征其实是有差异的,因此ELMo提出在预训练完成并迁移到下游任务NLP任务中时,要为原始词向量层和每一层RNN的隐层都设置一个可训练参数,这些参数通过softmax层归一化后乘到其相应的层上并求和便起到可weighting的作用,然后对“加权和”得到的词向量再通过一个参数来进行词向量整体的scaling以更好的适应下游任务。

ps:其实最后这个参数还是非常重要的,比如word2vec中,一般来说cbow和sg学出来的词向量方差差异比较大,这时那个方差跟适合下游任务后续层方差匹配的词向量就收敛更快,更容易有更好的表现。

4

其中$L=2$就是ELMo论文中的设定,$j=0$时代表原始词向量层,$j=1$是lstm的第一隐层,$j=2$是第二隐层。$s_j^{task}$是参数被softmax归一化之后的结果(也就是$s_0+s_1+…+s_L$=1’‘)。

通过这样的迁移策略,那些对词义消歧有需求的任务就更容易通过训练给第二隐层一个很大的权重,而对词形、句法有明显需求的任务则可能对第一隐层的参数学习到比较大的值。总之,这样便得到了一份“可以被下游任务定制”的特征更为丰富的词向量,效果比Word2Vec好得多也就不足好奇。

不过话说回来,ELMo的目标也仅仅是学习到上下相关的、更强大的词向量,其目的依然是为下游任务提供一个扎实的根基。

而我们知道,仅仅是对文本进行充分而强大的encoding(即得到每个词位非常精准丰富的特征)是远不够覆盖所有NLP任务。在QA、机器阅读理解(MRC)、自然语言理解(NLI)、对话等任务中,还有很多更复杂的模式需要捕捉,比如句间关系。为此,下游任务中的网络会加入各种花式attention。

而随着捕捉更多神奇模式的需要,研究者为每个下游任务定制出各种各样的网络结构,导致同一个模型,稍微一换任务就挂掉了,甚至在同一个任务的情况下换另一种分布的数据集都会出现显著的性能损失,这显然不符合人类的语言行为。要知道人类的generalization的能力是非常强的,这就说明,或许现在整个NLP的发展轨迹就是错的,尤其是在SQuAD的带领下,穷尽各种trick和花式结构去刷榜,真正之于NLP的意义有多大呢?

好像扯远了,不过所幸,这条越走越偏的道路终于被一个模型shutdown了,那就是几天前Google发布的Bidirectional Encoder Representations from Transformers (BERT) 。

BERT

这篇paper的最重要意义不在于用了什么模型,也不在于怎么训练的,而是它提出一种全新的游戏规则。

像之前说的,为每个NLP任务去深度定制泛化能力极差的复杂模型结构其实是非常不明智的,走偏了方向。既然ELMo相比Word2vec会有这么大提升,这就说明预训练模型的潜力远不止为下游任务提供一份精准的词向量,所以我们可不可以直接预训练一个盖世级的模型呢?如果它里面已经充分的描述了字符级、词级、句子级甚至句间关系的特征,那么在不同的NLP任务中,只需要去为任务定制一个非常轻量级的输出层(比如一个单层MLP)就好了,毕竟模型结构都已经做好了。

深层双向的encoding

首先,它指出,对上下文相关的词向量的学习上,先前的预训练模型还不够?虽然在下游有监督任务中,encoding的方式已经是花里胡哨非常充分了,深度双向encoding基本成了许多复杂下游任务的标配。但在预训练模型上,先前的最先进模型也只是基于传统的语言模型来做,而传统的语言模型是单向的,即

\[p(s)=p(w0)*p(w1 \mid w0)*p(w2 \mid w1,w0)*p(w3 \mid w2,w1,w0)...p(wn \mid context)\]

而且往往都很浅(想象一下LSTM堆三层就train不动了,就要上各种trick了),不然ELMo。

另外,虽然在ELMo有双向RNN来做encoding,但是这两个方向的RNN其实是分开训练的,只是在最后在loss层做了个简单相加。这样就导致对于方向上的单词来说,在北encoding的时候始终看不到它另一侧的单词的。而显然句子中有的单词的语义会同时依赖于它左右两侧的某些词,仅仅从单方向做encoding是不能描述清楚的。

为什么不能像下游监督任务中那样做真正的双向encoding呢?

原因很简单,毕竟传统的语言模型是以预测下一个词为训练目标的,然而如果做了双向encoding的话,那不就表示要预测的词已经看到了嘛,这样的预测当然没有意义了。所以,在BERT中,提出了使用一种新的任务来训练监督任务中的那种真正可以双向encoding的模型,这个任务称为Masked Language Model(Masked LM)。

Masked LM

顾名思义,Masked LM 就是说,我们不是像传统LM那样给定已经出现过的词,去预测下一个词,而是直接把整个句子的一部分词(随机选择)盖住(make it masked),这样模型不就可以放心的去做双向encoding了嘛,然后我们就可以放心的让模型去预测这些盖住的词是啥。

这样显然会导致一些小问题。这样虽然可以放心的双向encodingle ,但是这样在encoding时把这些盖住的标记也给encoding进去了,而这些mask标记在下游任务中是不存在的。为了尽可能的把模型调教的忽略这些标记的影响,作者通过以下方式来告诉模型“这些噪声是噪声!靠不住的!忽略他们吧!”,对于一个被盖住的单词:

  • 有80%的概率用“【mask】”标记来替换
  • 有10%的概率用随机采样的一个单词来替换
  • 有10%的概率不做替换(虽然不做替换,但是还是要预测)

Encoder

在encoder的选择上,作者并没有用烂大街的bi-lstm,而是使用了可以做的更深、具有更好并行性的Transformer encoder来做。这样每个词位的词都可以无视方向和距离的直接把句子中的每个词都有机会encoding进来。

句子级负采样

将负采样的过程给generalize到sentence-level呢?这便是BERT学习sentence-level representation的关键。

BERT这里跟word2vec做法类似,不过构造的是一个句子级的分类任务。即首先给定的一个句子(相当于Word2vec给定context),它下一个句子即为正例(相当于word2vec的正确词),随机采样一个句子作为负例(相当于Word2vec中随机采样的词),然后在该sentence-level上来做二分类(即判断句子是当前句子的下一句还是噪声)。通过这个简单的句子级负采样任务,BERT就可以像word2vec学习词表示那样轻松学到句子表示啦。

句子级表示

BERT这里并没有像下游监督任务中的普遍做法一样,在encoding的基础上再搞个全局池化之类的,它首先在每个sequence(对于句子任务来说是两个拼起来的句子,对于其它任务来说是一个句子)前面加了一个特殊的token,记为[cls]

5

ps:这里的[seq]是句子之间的分隔符,BERT同时支持学习句对的表示,这里是[seq]便是为了区分句对的切割点。

然后让encoder对[cls]进行深度encoding,深度encoding的最高隐层即为整个句子、句对的表示。Transformer是可以无视空间和距离的全局信息encoding进每个位置的,而[cls]作为句子、句对的表示是直接跟分类器的输出层连接的,因此其作为梯度反传路径上的“关卡”,当然会想办法学习到分类相关的上层特征。

另外,为了让模型能够区分里面的每个词是属于“左句子”还是“右句子”,作者这里引入了“segment embedding ”的概念来区分句子。对于句来说,就用embedding A和embedding B来分别代表左句子和右句子;而对于句子来说,就只有embedding A 啦。这个embedding A 和B也是随模型训练出来的。

所以最终BERT每个token的表示由token原始的词向量toekn embedding、前文提到的position embedding和这里的segment embedding三部分相加而成,如图:

6

下游任务接口

真正体现出BERT这个模型是龙骨级模型而不再是词向量的,就是其到各个下游任务的接口设计了,或者换个更洋气的词叫迁移策略。 首先,既然句子和句子对的上层表示都得到了,那么当然对于文本分类任务和文本匹配任务(文本匹配其实也是一种文本分类任务,只不过输入是文本对)来说,只需要用得到的表示(即encoder在[CLS]词位的顶层输出)加上一层MLP就好了呀~

7

本文摘自夕小瑶专栏文章《NLP的游戏规则从此改写?从word2vec,ELMo和BERT》,部分内容稍作修改。