00368 DeepSeek-OCR (论文学习笔记)


前言

DeepSeek-AI DeepSeek-OCR论文的学习笔记。

信息

论文题目:DeepSeek-OCR: Contexts Optical Compression

发表年份:2025

论文地址:https://arxiv.org/abs/2510.18234

pdf 地址:https://arxiv.org/pdf/2510.18234

个人学习笔记:

  1. https://github.com/yanfeng98/paper-is-all-you-need/blob/main/papers/00116-DeepSeek-OCR.pdf
  2. https://cdn.jsdelivr.net/gh/yanfeng98/paper-is-all-you-need/papers/00116-DeepSeek-OCR.pdf

内容

摘要

我们将DeepSeek-OCR作为通过光学二维映射压缩长上下文可行性的初步研究。DeepSeek-OCR由两个部分组成:DeepEncoder和DeepSeek3B-MoE-A570M,作为解码器。具体来说,DeepEncoder 作为核心引擎,设计用于在高分辨率输入下保持低激活率,同时实现高压缩比,确保视觉标记数量最优且易于管理。实验显示,当文本标记数量不超过视觉标记的10倍(即压缩比<10×时,模型可以实现97%的解码(OCR)精度。即使在20×的压缩比下,OCR准确率仍保持在约60%。这对历史长上下文压缩和大型语言模型中的记忆遗忘机制等研究领域展现出巨大潜力。此外,DeepSeek-OCR还展现出高度的实用价值。在OmniDocBench上,它仅用100个视觉tokens就超过了GOT-OCR2.0(每页256个tokens),并且在使用不到800个视觉tokens的情况下,表现优于MinerU2.0(平均每页6000+tokens)。在生产环境中,DeepSeek-OCR可以生成每天20万+页(单个A100-40G)的LLM/VLM训练数据。代码和模型权重均公开可访问 http://github.com/deepseek-ai/DeepSeek-OCR

结语

第三百六十八篇博文写完,开心!!!!

今天,也是充满希望的一天。


文章作者: LuYF-Lemon-love
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 LuYF-Lemon-love !
  目录