腾讯混元大模型团队正式发布并开源HunyuanOCR模型!
这是一款商业级、开源且轻量(1B参数)
的OCR专用视觉语言模型,模型采用原生ViT和轻量LLM结合的架构。
![]()
具体而言,其感知能力(文本检测和识别、复杂文档解析)优于所有公开方案;语义能力(信息抽取、文字图像翻译)表现出色,荣获ICDAR 2025 DIMT挑战赛(小模型赛道)冠军,并在OCRBench上取得3B以下模型SOTA成绩。
目前,该模型在抱抱脸(Hugging Face)趋势榜排名前四,GitHub标星超过700,并在Day 0被vllm官方团队接入。
![]()
团队介绍,混元OCR专家模型实现了三大突破:
(1)全能与高效统一。
在轻量框架下支持文字检测和识别、复杂文档解析、开放字段信息抽取、视觉问答和拍照图像翻译,解决了传统专家模型功能单一和通用视觉理解大模型效率低下的痛点。
(2)极简端到端架构。
摒弃版面分析等前处理依赖,彻底解决流水线错误累积问题,大幅简化部署。
(3)数据驱动与RL创新。
验证了高质量数据价值,并证明强化学习可显著提升多项OCR任务性能。
目前模型参数已在抱抱脸和ModelScope等渠道开源,并提供基于vLLM的高性能部署方案,旨在助力科研与工业落地。
HunyuanOCR核心技术大揭秘
作为一款具备商业级性能的开源多语言VLM,混元OCR专家模型的核心动机在于构建一个真正统一、高效的端到端OCR基础模型。
其核心技术主要聚焦于以下几个方面:
- 轻量化模型结构设计、高质量预训练数据生产、重应用导向的预训练策略和OCR任务定制的强化学习。