LuYF-Lemon-love の Blog
00203 Plotly - Violin 00203 Plotly - Violin
前言如何在Python中使用Plotly制作小提琴图。 Plotly: https://plotly.com/python/ src link: https://plotly.com/python/violin/ Operating Sys
2024-10-19
00202 Hugging Face 常用函数 00202 Hugging Face 常用函数
前言简单的介绍Hugging Face - 常用函数。 Operating System: Ubuntu 22.04.4 LTS transformersHfArgumentParserapi link: https://huggingfa
00201 Hugging Face Llama Recipes - Fine Tuning 00201 Hugging Face Llama Recipes - Fine Tuning
前言简单的介绍如何Fine Tuning Llama。 src link: https://github.com/LuYF-Lemon-love/fork-huggingface-llama-recipes Llama Models: ht
00200 PyTorch - 常用函数 00200 PyTorch - 常用函数
前言简单的介绍PyTorch - 常用函数。 Operating System: Ubuntu 22.04.4 LTS 独立函数torch.outertorch.outer 是PyTorch库中的一个函数,用于计算两个向量的外积(也称为张量
2024-10-15
00199 Hugging Face Llama Recipes - Local Inference 00199 Hugging Face Llama Recipes - Local Inference
前言简单的介绍如何Local Inference Llama。 src link: https://github.com/LuYF-Lemon-love/fork-huggingface-llama-recipes Operating Sy
00198 Hugging Face Llama Recipes - Getting Started 00198 Hugging Face Llama Recipes - Getting Started
前言简单的介绍如何快速运行Llama。 src link: https://github.com/LuYF-Lemon-love/fork-huggingface-llama-recipes Operating System: Ubuntu
00197 干饭指南 - 炒豇豆 00197 干饭指南 - 炒豇豆
前言我们将介绍炒豇豆的做法。 炒豇豆是一道简单美味的家常菜,下面是详细的制作步骤及精准时间。 Operating System: Ubuntu 22.04.4 LTS 食材 豇豆 300克 大蒜 3瓣 生姜 1小块 食用油 适量 盐 适
2024-10-13
00196 加载文本数据 00196 加载文本数据
前言这份指南向您展示了如何加载文本数据集。要想了解如何加载任何类型的数据集,请查阅通用加载指南。 文本文件是存储数据集最常见的文件类型之一。默认情况下,🤗 Datasets 逐行采样文本文件以构建数据集。 >>> from dataset
00195 创建数据集 00195 创建数据集
前言有时,如果您正在使用自己的数据,可能需要创建一个数据集。使用🤗 Datasets创建数据集可以让您的数据集享受到库的所有优势:快速加载和处理、流式处理大型数据集、内存映射等等。您可以使用🤗 Datasets的低代码方法轻松快速地创建
00194 NLP Course - Sequence-to-sequence models 00194 NLP Course - Sequence-to-sequence models
前言编码器-解码器模型(也称为序列到序列模型)使用了Transformer架构的两部分。在每一个阶段,编码器的注意力层可以访问初始句子中的所有单词,而解码器的注意力层只能访问输入中给定单词之前的单词。 这些模型的预训练可以使用编码器或解码器
00193 NLP Course - Decoder models 00193 NLP Course - Decoder models
前言解码器模型仅使用Transformer模型的解码器。在每一个阶段,对于给定的单词,注意力层只能访问句子中位于它之前的单词。这些模型通常被称为自回归模型。 解码器模型的预训练通常围绕着预测句子中的下一个单词进行。 这些模型最适合涉及文本生
00192 NLP Course - Encoder models 00192 NLP Course - Encoder models
前言编码器模型仅使用Transformer模型的编码器部分。在每一个阶段,注意力层都可以访问初始句子中的所有单词。这些模型通常被描述为具有“双向”注意力,并且常常被称为自编码模型。 这些模型的预训练通常围绕着以某种方式破坏给定的句子(例如,
11 / 27