🫂MoE-LLaVA:大型视觉语言模型的专家混合体

type
status
slug
summary
tags
category
icon
password
Date
📣 新闻
  • ⏳⏳⏳ 在更高的图像分辨率(例如 768 × 768)下训练更强大的模型。
  • ⏳⏳⏳ 训练 MoE-LLaVA-Qwen1.5 以更好地支持中文。
  • [2024.03.16] 🎉 我们发布了所有 stage2 模型,检查我们的模型动物园
  • [2024.02.02] 🤝 享受由@camenduru创建的和,他慷慨地支持了我们的研究!
  • [2024.02.01] 🔥 无法访问 HF 的人现在可以通过模型范围下载模型,检查我们的模型动物园
  • [2024.01.27] 🤗 Hugging Face 演示以及所有代码和数据集现已可用!欢迎关注👀 此存储库以获取最新更新。
😮 亮点
MoE-LLaVA 在多模态学习中表现出色。
🔥 性能高,但参数更少
  • 仅使用3B 个稀疏激活参数
    • ,MoE-LLaVA 在各种视觉理解数据集上表现出与 LLaVA-1.5-7B 相当的性能,甚至在物体幻觉基准测试中超越了 LLaVA-1.5-13B。
notion image
🚀 简单基线,学习具有稀疏路径的多模态交互。
  • 通过添加简单的 MoE 调整阶段8 个 A100 GPU
    • ,我们可以在 1 天内在
      上完成 MoE-LLaVA 的训练。
notion image
🤗 演示
Gradio 网页用户界面
强烈建议您通过以下命令试用我们的 Web 演示,该演示包含 MoE-LLaVA 目前支持的所有功能。我们还在Huggingface Spaces 中提供在线演示。
20240126_205845.mp4
 
CLI 推理
notion image
🐳 模范动物园
Stage2 模型
🚨请了解#27
模型
检查点
MoE-LLaVA-1.6B×4-Top2
MoE-LLaVA-1.6B×4-Top2-384
MoE-LLaVA-1.8B×4-Top2
MoE-LLaVA-2.7B×4-Top2
MoE-LLaVA-2.7B×4-Top2-384
预训练模型
模型
检查点
MoE-LLaVA-1.6B×4-Top2
MoE-LLaVA-1.6B×4-Top2-384
MoE-LLaVA-1.8B×4-Top2
MoE-LLaVA-2.7B×4-Top2
MoE-LLaVA-2.7B×4-Top2-384
⚙️ 要求和安装
我们建议要求如下。
  • Python == 3.10
  • Pytorch == 2.0.1
  • CUDA 版本 >= 11.7
  • Transformers == 4.37.0
  • 标记器==0.15.1
  • 安装所需的软件包:
警告
🚨我们发现使用 flashtention2 会导致性能下降。
🗝️ 训练与验证
训练和验证说明位于TRAIN.mdEVAL.md中。
💡 自定义你的 MoE-LLaVA
说明在CUSTOM.md中。
😍 可视化
说明在VISUALIZATION.md中。
🤖 API
我们开源了所有代码,如果你想在本地加载模型(例如LanguageBind/MoE-LLaVA-Phi2-2.7B-4e),可以使用以下代码片段。
使用以下命令运行代码。
🙌 相关项目
  • Video-LLaVA
    • 该框架使模型能够有效地利用联合的视觉标记。
  • LanguageBind
    • 一个开源的基于五种模式语言的检索框架。
👍 致谢
  • LLaVA
    • 是我们构建的代码库,它是一个高效的大型语言和视觉助手。
🔒 许可证
✏️ 引用
如果您发现我们的论文和代码对您的研究有用,请考虑给出星星⭐和引用📝。
✨ 明星历史
notion image
 
MoE-LLaVA
PKU-YuanGroupUpdated Nov 10, 2024
开源视频模型Open Sora多模态端侧大模型MiniCPM-V