RoboMamba: Multimodal State Space Model for Efficient Robot Reasoning and Manipulation,通过将视觉编码器与Mamba状态空间语言模型创新性地结合,构建了具备视觉常识和机器人推理能力的多模态大模型。利用高效的微调策略,RoboMamba快速掌握了操纵位姿预测能力,实现了强大的推理和操作能力,显著提高了机器人领域的多模态理解与操作效率。
北大推出全新机器人多模态大模型!面向通用和机器人场景的高效推理和操作
Previous: B站开源轻量级 Index-1.9B 系列模型:2.8T 训练数据,支持角色扮演
Next: 阿里通义Qwen2成斯坦福大模型榜单最强开源模型