Transformer 模型结构

Transformer 用于处理不定长的序列输入并生成不定长的输出,却不包含RNN。仅使用注意力机制的Transformer不仅有良好的效果,其并行能力也比RNN大大提高。

Transformer 模型结构

Transformer也是一种Seq2seq,它的编码器和解码器的主体结构采用自注意力机制。其编码器和解码器都由多个编码器层和解码器层构成。

编码器层又包含两个子层,分别是自注意力子层和Feed Forward子层。Feed Forward就是前馈神经网络。解码器的子层多了一个编码器到解码器的注意力的层。

如下是Transformer结构示意图。

Transformer 模型结构

输入序列要经过Embedding层得到词向量,然后词向量会叠加代表序列位置信息的位置编码序列,相加后的序列作为编码器的输入。

Transformer结构是GPT和BERT等模型的基本结构,甚至在图像处理领域,Transformer结构也取得了优秀的成绩。

Huggingface Transformers 是基于一个开源基于 transformer 模型结构提供的预训练语言库,它支持 Pytorch,Tensorflow2.0,并且支持两个框架的相互转换。框架支持了最新的各种NLP预训练语言模型,使用者可以很快速的进行模型的调用,并且支持模型further pretraining 和 下游任务fine-tuning。

#Transformer##暑期创作大赛#

© 版权声明
THE END
如果内容对您有所帮助,就支持一下吧!
点赞0 分享
精0王子的头像 - 鹿快
评论 抢沙发

请登录后发表评论

    暂无评论内容