00192 NLP Course - Encoder models ubuntu
前言
编码器模型仅使用Transformer模型的编码器部分。在每一个阶段,注意力层都可以访问初始句子中的所有单词。这些模型通常被描述为具有“双向”注意力,并且常常被称为自编码模型。
这些模型的预训练通常围绕着以某种方式破坏给定的句子(例如,通过在句子中掩蔽随机单词)并使模型负责找到或重建初始句子来进行。
编码器模型最适合需要理解整个句子的任务,例如句子分类、命名实体识别(以及更一般的单词分类)和抽取式问答。
这个家族模型的代表包括:
src link: https://huggingface.co/learn/nlp-course/chapter1/5
Operating System: Ubuntu 22.04.4 LTS
参考文档
结语
第一百九十二篇博文写完,开心!!!!
今天,也是充满希望的一天。
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 LuYF-Lemon-love の Blog!