华科北邮联合推出PR1:强化学习助力多模态LLM视觉感知超越YOLOv3

来源:爱集微 #华科# #北邮# #PR1#
6579

华中科技大学、北京邮电大学等多所高校研究团队近日联合推出了名为Perception-R1(PR1)的多模态大语言模型,该模型成为首个在COCO2017验证集上突破30AP的纯多模态开源LLM,超越了YOLOv3和Faster-RCNN等传统视觉模型的性能。

Perception-R1重点关注当下主流的纯视觉任务(如计数、通用目标检测)以及视觉语言任务(如grounding、OCR),通过探究基于规则的强化学习(rule-based RL)对模型感知能力的提升效果。目前,该项目的论文和代码已完全开源,研究团队希望为社区提供一个强大的基准,支持后续相关研究。

随着OpenAI o3等模型的出现,人工智能竞赛已进入以"视觉推理"为代表的新阶段。从GPT-4V到o3,短短两年时间内,AI视觉理解能力取得了显著进步。然而,现有多模态大语言模型(MLLM)如GPT-4o、Google的Gemini以及开源的Qwen-VL和LLaVA,虽然在一般视觉问答方面表现出色,但在需要精确物体定位、准确计数多个物体、复杂布局中文本识别或执行复杂视觉推理的任务上仍存在明显不足。

Perception-R1框架并非从头构建新模型,而是一个后训练框架,旨在通过基于规则的强化学习显著增强现有多模态模型(如Qwen2-VLInstruct-2B)的视觉感知能力。该框架使用Group Relative Policy Optimization(GRPO)技术来优化模型的"感知策略",包括从图像中提取视觉细节、执行逻辑操作以及生成正确格式的输出。

在实验评测中,Perception-R1在多项视觉任务上取得了突破性表现。在视觉定位(RefCOCO/+/g)、OCR(PageOCR)、视觉计数(Pixmo-Count)以及目标检测(COCO2017)等任务上,该模型均显著超越了原始的Qwen2-VL-2B-Instruct基线,甚至在某些任务上接近专门设计的"专家"模型性能。特别是在COCO2017目标检测任务上,Perception-R1达到了30.3的AP值,成为首个突破30AP的纯多模态开源LLM。

研究团队还进行了全面的消融实验,探究了奖励匹配、思考过程显式化以及监督微调与强化学习的优劣等因素对模型性能的影响。实验结果表明,Perception-R1具有良好的可扩展性,为后续大规模应用提供了实验验证。

Perception-R1的成功表明,当强化学习被精心适配到视觉任务的独特特性时,可以成为提升大模型视觉感知能力的有效工具。该研究挑战了视觉任务必须依赖语言推理的假设,强调了任务复杂性对强化学习效果的重要性,为构建下一代智能感知AI系统奠定了关键基础。

责编: 姜羽桐
来源:爱集微 #华科# #北邮# #PR1#
THE END

*此内容为集微网原创,著作权归集微网所有,爱集微,爱原创

关闭
加载

PDF 加载中...