小红书 hi lab开源最强多模态大模型dots.vlm1,性能对标闭源 Gemini 2.5 Pro 和 Seed-VL1.5
01.模型亮点与创新
1.1 NaViT 视觉编码器 —— 原生自研,支持动态分辨率
- 完全从零训练:
非基于成熟视觉编码器微调,而是从头训练,极大提升视觉感知能力上限。
- 动态分辨率支持:
提升对多样真实图像场景的适应性。
- 双重视觉监督:
结合纯视觉(如纯图片)与文本视觉(如图片+描述),充分逼近复杂视觉场景的泛化能力。
- 多样训练数据:
纳入广泛结构化图片(表格、图表、公式、文档、OCR等),提升非典型场景(如长尾识别、文档解析)的表现。
1.2 多模态训练数据 —— 规模巨大,清洗精细
- 强多样性合成数据:
合成和收集表格/Chart/文档/Graphics 等图片及丰富的描述(Alt Text/Dense Caption/Grounding)。
- 自主重写多模态网页数据:
通过自研 VLM 进行数据清洗与重写,显著提升图文对齐和数据质量。
- PDF 图文增强训练:
自研 dots.ocr 将 PDF 文档结构化为图文混合数据,支持遮挡预测,提高文档理解。
1.3 前沿预训练与精细化调优流程
- 分阶段全流程训练:
视觉编码器预训练—大规模 VLM 预训练—多样 SFT 后训练。
- 视觉推理能力突出:
专注于 MMMU、MathVision、OCR Reasoning 等多项多模态基准测试,接近 Gemini 2.5 Pro/Seed-VL1.5 闭源领先模型水平。
- 文本推理能力主流:
在数学、代码与复杂推理上与主流 LLM 持平,部分任务略有提升空间。
02.性能评测与样例分析
2.1 评测指标与结果
在主要国际多模态评测集(如 MMMU、MathVision、OCR Reasoning 等)中,dots.vlm1 的整体表现已接近当前领先的 Gemini 2.5 Pro 与 Seed-VL1.5。相关核心结论如下:
在文本任务(AIME、GPQA、LiveCodeBench 等)上,dots.vlm1 达到了与主流 LLM 相当的水准,具备通用数学推理和代码能力,但极复杂推理仍与 SOTA 闭源模型存在差距。
2.2 应用效果样例
复杂图表推理
dots.vlm1 能对高度复杂的表格、图形、文档图像进行准确识别与逻辑推理,显著提升业务实践能力。
左右滑动查看更多
STEM/数学推理
支持复杂多步运算、长图理解、一题多解,完全胜任奥数、STEM 类视觉-文本混合解题任务。
左右滑动查看更多
长尾细分场景识别
模型对特殊/非主流领域图片(如OCR/长尾文档图像)表现优异,显著好于传统视觉编码方案。
03.技术架构与训练流程
3.1 三大核心组件
- NaViT 视觉编码器(12亿参数):
42层 Transformer,采用 RMSNorm、SwiGLU、2D RoPE,原生多分辨率支持。
- MLP 适配器:
高效图文特征融合。
- DeepSeek V3 MoE LLM:
业界主流性能的门控专家型大语言模型。
3.2 三阶段训练流程
- 视觉编码器阶段:
随机初始化,先以 224×224 分辨率进行大规模图文感知归一化训练,采用下一 Token 预测/NTP 与下一 Patch 生成/NPG 双重监督。
- VLM 联合预训练:
与 DeepSeek V3 LLM 拼接,接入多源海量多模态数据,大幅提升跨模态能力。
- 后训练微调:
多任务多样样例有监督Fine-tuning,进一步优化泛化与稳健性。
3.3 数据管线与多样性设计
- 跨模态互译:
图片与文本相互描述与理解,涵盖Alt Text/密集图注/公式/表格/grounding等全谱系视觉场景。
- 跨模态融合:
解耦图文依赖,清洗网页/PDF等复杂数据集以强化真实世界多模态理解。
04.存在不足与未来展望
视觉感知:将继续扩大跨模态数据规模和类型,优化视觉编码器神经网络结构。
视觉推理:将引入强化学习等前沿算法,提升推理泛化能力,探索更强的推理前置技术。
数据与评测闭环:打通更大规模、更丰富的结构化与非结构化多模态数据,围绕真实业务问题持续升级评测体系。
05.相关链接
GitHub Repo:
https://github.com/rednote-hilab/dots.vlm1
HuggingFace 模型:
https://huggingface.co/rednote-hilab/dots.vlm1.inst
在线 Demo:
https//huggingface.co/spaces/rednote-hilab/dots-vlm1-demo
魔搭链接:
https://modelscope.cn/models/rednote-hilab/dots.vlm1.inst
06.结论
小红书 hi lab 推出的 dots.vlm1 多模态大模型以全链条自研和开源姿态,综合性能首次对标并逼近 Gemini 2.5 Pro、Seed-VL1.5 等闭源最强大模型,不仅在视觉-文本复杂场景中展现卓越,文本编码推理能力也保持主流水平。未来,团队将坚持开源、高质量、持续创新,为国内外多模态大模型生态带来更强推动力。
点击阅读原文, 即可跳转模型链接~
更多推荐
所有评论(0)