前言

在这一章中,您看到了如何使用 🤗 Transformers 中的高级 pipeline() 函数来处理不同的 NLP 任务。您还学习了如何在 Hub 中搜索和使用模型,以及如何使用 Inference API 在您的浏览器中直接测试模型。

我们讨论了 Transformer 模型在高级别是如何工作的,并谈论了迁移学习和微调的重要性。一个关键方面是,您可以根据您想要解决的任务类型,使用完整的架构,或者只使用编码器或解码器。下表总结了这一点:

Model Examples Tasks
Encoder ALBERT, BERT, DistilBERT, ELECTRA, RoBERTa Sentence classification, named entity recognition, extractive question answering
Decoder CTRL, GPT, GPT-2, Transformer XL Text generation
Encoder-decoder BART, T5, Marian, mBART Summarization, translation, generative question answering

src link: https://huggingface.co/learn/nlp-course/chapter1/9

Operating System: Ubuntu 22.04.4 LTS

参考文档

  1. NLP Course - Summary

结语

第二百零五篇博文写完,开心!!!!

今天,也是充满希望的一天。