LuYF-Lemon-love の Blog
00295 Ollama OpenAI兼容性 00295 Ollama OpenAI兼容性
前言Ollama OpenAI 兼容性. OpenAI兼容性是实验性的,会受到重大调整,包括重大更改。有关对Ollama API的全功能访问,请参阅Ollama Python库、JavaScript库和REST API。 Ollama提供
00294 A800 GPU的功耗差异 00294 A800 GPU的功耗差异
前言本文介绍了A800 GPU的功耗差异。 Operating System: Ubuntu 22.04.4 LTS 参考文档功耗差异A800 GPU的功耗差异主要是由于其不同的版本和配置。具体来说,NVIDIA A800系列计算卡有不同的
00292 Ollama 导入模型 00292 Ollama 导入模型
前言Ollama 导入模型. Operating System: Ubuntu 22.04.4 LTS 参考文档 Importing a model 从Safetensors权重导入微调适配器首先,创建一个Modelfile,其中包含一个
00291 DeepSeek API 文档 00291 DeepSeek API 文档
前言DeepSeek API 文档。 Operating System: Ubuntu 22.04.4 LTS 参考文档 首次调用 API 推理模型 (deepseek-reasoner) 多轮对话 对话前缀续写(Beta) 首次调用 A
00279 摘要 00279 摘要
前言本文介绍了如何进行摘要。 Hugging Face Github 主页: https://github.com/huggingface 摘要会创建一个文档或文章的简短版本,捕捉所有重要的信息。与翻译一样,它也是一个可以表述为序列到序列任
00271 PEFT - Fine-tune large models using 🤗 peft adapters, transformers & bitsandbytes 00271 PEFT - Fine-tune large models using 🤗 peft adapters, transformers & bitsandbytes
前言在本教程中,我们将介绍如何使用最新的peft库和bitsandbytes库以8位格式加载大型模型,进而对大型语言模型进行微调。微调方法将依赖于一种最近的方法,称为“低秩适配器”(LoRA)。您无需微调整个模型,只需微调这些适配器并将它们
00270 PEFT - Quicktour 00270 PEFT - Quicktour
前言PEFT(参数高效微调)是一个库,它能够高效地将大型预训练模型适配到各种下游应用,而无需微调模型的所有参数,因为这样做成本过高。PEFT方法仅微调少量(额外)的模型参数,显著降低计算和存储成本,同时还能达到与完全微调模型相当的性能。这使
00266 NLP Course - Byte-Pair Encoding tokenization 00266 NLP Course - Byte-Pair Encoding tokenization
前言字节对编码(Byte-Pair Encoding,BPE)最初是作为一种文本压缩算法开发的,然后被OpenAI用于在预训练GPT模型时进行分词。它被许多Transformer模型使用,包括GPT、GPT-2、RoBERTa、BART和D
00264 处理文本数据 00264 处理文本数据
前言本指南展示了处理文本数据集的特定方法。学习如何: 使用 map() 对数据集进行分词。 为 NLI 数据集将数据集标签与标签 ID 对齐。 有关如何处理任何类型数据集的指南,请查看通用处理指南。 src link: https://
00263 NLP Course - Normalization and pre-tokenization 00263 NLP Course - Normalization and pre-tokenization
前言在深入探讨 Transformer 模型中常用的三种最常见的子词分词算法(Byte-Pair Encoding [BPE],WordPiece 和 Unigram)之前,我们首先来看看每个分词器对文本应用的预处理步骤。以下是分词管道中步
00254 NLP Course - Fast tokenizers in the QA pipeline 00254 NLP Course - Fast tokenizers in the QA pipeline
前言我们现在将深入问答管道,看看如何利用偏移量从上下文中抓取手头问题的答案,就像我们在上一节中对分组实体所做的那样。然后,我们将了解如何处理被截断的非常长的上下文。如果你对问答任务不感兴趣,可以跳过这一节。 src link: https:
00252 NLP Course - Fast tokenizers’ special powers 00252 NLP Course - Fast tokenizers’ special powers
前言在本节中,我们将更深入地了解🤗 Transformers中的分词器的功能。到目前为止,我们只使用它们来分词输入或将ID解码回文本,但分词器——特别是那些由🤗 Tokenizers库支持的分词器——可以做更多的事情。为了说明这些附加功
1 / 8