腾讯混元文生图大模型(混元 DiT)今日开源小显存版本,仅需 6G 显存即可运行,对个人电脑本地部署的开发者友好,还宣布接入 Kohya 训练界面并升级至 1.2 版本,同时混元文生图打标模型“混元 Captioner”也正式对外开源,支持中英文双语,针对文生图场景优化,可帮助生成数据集,解决了业界通用模型的一些问题。
腾讯混元文生图大模型(混元 DiT)今日开源小显存版本,仅需 6G 显存即可运行,对个人电脑本地部署的开发者友好,还宣布接入 Kohya 训练界面并升级至 1.2 版本,同时混元文生图打标模型“混元 Captioner”也正式对外开源,支持中英文双语,针对文生图场景优化,可帮助生成数据集,解决了业界通用模型的一些问题。