WC-LSTM
最后更新于
最后更新于
paper : An Encoding Strategy Based Word-Character LSTM for Chinese NER
source: NAACL-2019
code: WC-LSTM
主要的核心思想:它是Lattice-LSTM模型的改进版,WC-LSTM解决了Lattice-LSTM不支持batch的问题;正向和反向的LSTM分别挂载不同的词信息。
Lattice-LSTM是否增加远程信息取决于是否有词信息,一个节点可能有零个或多个远程词信息,所以没有办法批处理;
而WC-LSTM为每个节点都添加远程词信息后,做了对应的挂词策略(4种),所以,每个input都会有相同的shape。
模型结构如下:
用表示中文句子,其中表示第个字。
用表表示分配给第个字符的候选词集,其中的词语用词典 D 在句子中遍历得到,候选词集的词是以第个字符为结尾的词;
用表表示分配给第个字符的候选词集,其中的词语用词典 D 在句子中遍历得到,候选词集的词是以第个字符为开头的词;
这样,对于同一个char,在正向LSTM和反向LSTM的时候 ,会分别挂上 不同的词;
那么原句子的正向和反向分别可以表示为:
WC-LSTM建模词信息有四种策略:
Shortest Word First
直接取词语集中,长度最短的词,所对应的word embedding
Longest Word First
取词语集中长度最长的词所对应的word embedding
Average
取词语集中所有词对应的word embedding,求和取平均。如果词语集长度为0,即全是<PAD>,则取<PAD>的求和平均
Self-Attention
取词语集中所有词对应的word embedding,的self-attention,然后再对词emb进行加权
WC-LSTM由于是直接引入词信息理论上应该也不能解决新词问题。
优点
改进了Lattice LSTM 的不能batch训练的问题,训练效率得到了提高;
缺点
仍然存在信息:
比如,"人和药店",这个词只会挂在到"人"和"店"这2个字上,中间的2个字不会挂载上这个词信息
仍采取LSTM进行编码:
建模能力有限、存在效率问题