GPT-4识图功能迟迟不开放,终于有人忍不住自己动手做了一个。
MiniGPT-4来了,Demo开放在线可玩。
传一张海鲜大餐照片上去,就能直接获得菜谱。
传一张商品效果图,就可以让AI写一篇带货文案。
手绘一个网页,可以给出对应的HTML代码
除了生产力拉满,也支持根据常识推理图上内容是否合理、解释表情包为什么好笑,以及看截图找电影等娱乐玩法。
可以说,GPT-4发布时展示过的功能,MiniGPT-4基本也都有了。
这下网友直接把Demo服务器挤爆,开发团队连开4台备用服务器,都有几十人在排队。
不等OpenAI了,现在就能玩除了研究团队给出的示例,网友也用MiniGPT-4玩出了各种花样
有人上传自己画的画,让AI评价评价。
有人上传一张从车道拍摄的飞机坠毁瞬间,让MiniGPT-4尽可能详细地描述,并思考自动驾驶AI能不能理解这个场面。
做到这么好的效果,MiniGPT-4实现起来却并不复杂。
把图像编码器与开源语言模型Vicuna整合起来,并且冻结了两者的大部分参数,只需要训练很少一部分。
传统预训练阶段,使用4张A100在10个小时内就可完成,此时训练出来的Vicuna已能够理解图像,但生成能力受到很大影响。
为解决这个问题,团队让MiniGPT-4与ChatGPT合作创建了3500个图像文本的高质量数据集,也一并开源。
用新的数据集微调可以显著提高模型的生成可靠性和整体可用性,而且计算效率很高,使用单个A100只需要7分钟。
并且团队正在准备一个更轻量级的版本,部署起来只需要23GB显存。
也就是消费级显卡中拥有24GB显存的3090或4090就可以本地运行了。
MiniGPT-4开发团队来自KAUST,包括4位华人成员和他们的导师 Mohamed Elhoseiny。
两位正在读博的共同一作还在GitHub页面上特别标注正在找工作。
有意向的公司要抓紧抢人了~
免责声明:该文章系本站转载,旨在为读者提供更多信息资讯。所涉内容不构成投资、消费建议,仅供读者参考。