LuYF-Lemon-love の Blog
00323 QwQ-32B: 领略强化学习之力 00323 QwQ-32B: 领略强化学习之力
前言QwQ-32B: 领略强化学习之力。 QWEN CHAT: https://chat.qwen.ai/ Hugging Face: https://huggingface.co/Qwen/QwQ-32B ModelScope: htt
00322 Inference - Chat with models - Templates 学习笔记 00322 Inference - Chat with models - Templates 学习笔记
前言聊天管道指南介绍了TextGenerationPipeline以及与模型对话的聊天提示或聊天模板的概念。在这个高级管道的背后,是apply_chat_template方法。聊天模板是tokenizer的一部分,它指定了如何将对话转换为预
00321 Inference - Chat with models - Chat basics 学习笔记 00321 Inference - Chat with models - Chat basics 学习笔记
前言聊天模型是指你可以发送和接收消息的对话模型。有许多聊天模型可供选择,但一般来说,更大的模型往往表现更好,不过情况并非总是如此。模型大小通常包含在名称中,如“8B”或“70B”,它描述了参数的数量。混合专家模型(MoE)的名称如“8x7B
00316 NLP Course - Building a tokenizer, block by block 00316 NLP Course - Building a tokenizer, block by block
前言正如我们在前面的部分所看到的,分词包括几个步骤: 标准化(对文本进行必要的清理,例如删除空格或重音、Unicode 标准化等) 预分词(将输入分解为单词) 通过模型运行输入(使用预分词的单词生成一系列标记) 后处理(添加分词器的特殊标
00315 NLP Course - Unigram tokenization 00315 NLP Course - Unigram tokenization
前言Unigram算法通常用于SentencePiece中,这是AlBERT、T5、mBART、Big Bird和XLNet等模型使用的分词算法。 💡 本节深入介绍了Unigram算法,甚至展示了一个完整的实现。如果您只想了解分词算法的
00314 NLP Course - WordPiece tokenization 00314 NLP Course - WordPiece tokenization
前言WordPiece是谷歌开发用于预训练BERT的标记化算法。自那以后,它在许多基于BERT的Transformer模型中得到了重新使用,例如DistilBERT、MobileBERT、Funnel Transformers和MPNET。
00304 tiktoken 学习笔记 00304 tiktoken 学习笔记
前言tiktoken 是一个快速的 BPE 分词器,用于 OpenAI 的模型。 import tiktoken enc = tiktoken.get_encoding("o200k_base") assert enc.decode(enc
00295 Ollama OpenAI兼容性 00295 Ollama OpenAI兼容性
前言Ollama OpenAI 兼容性. OpenAI兼容性是实验性的,会受到重大调整,包括重大更改。有关对Ollama API的全功能访问,请参阅Ollama Python库、JavaScript库和REST API。 Ollama提供
00294 A800 GPU的功耗差异 00294 A800 GPU的功耗差异
前言本文介绍了A800 GPU的功耗差异。 Operating System: Ubuntu 22.04.4 LTS 参考文档功耗差异A800 GPU的功耗差异主要是由于其不同的版本和配置。具体来说,NVIDIA A800系列计算卡有不同的
00292 Ollama 导入模型 00292 Ollama 导入模型
前言Ollama 导入模型. Operating System: Ubuntu 22.04.4 LTS 参考文档 Importing a model 从Safetensors权重导入微调适配器首先,创建一个Modelfile,其中包含一个
00291 DeepSeek API 文档 00291 DeepSeek API 文档
前言DeepSeek API 文档。 Operating System: Ubuntu 22.04.4 LTS 参考文档 首次调用 API 推理模型 (deepseek-reasoner) 多轮对话 对话前缀续写(Beta) 首次调用 A
00279 摘要 00279 摘要
前言本文介绍了如何进行摘要。 Hugging Face Github 主页: https://github.com/huggingface 摘要会创建一个文档或文章的简短版本,捕捉所有重要的信息。与翻译一样,它也是一个可以表述为序列到序列任
1 / 9