
小红书开源最新多模态大模型dots.vlm1:性能跃升顶尖梯队
据媒体媒体报道,小红书人文智能实验室(Humane Intelligence Lab,简称 HI Lab)凭借其独特的多模态技术崭露头角。
近日,该实验室宣布开源其最新的视觉语言模型dots.vlm1,此举不仅彰显了其技术自研的坚定决心,也为多模态AI领域注入了新活力。
作为HI Lab首个开源的多模态大模型,dots.vlm1基于全自研的12亿参数NaViT视觉编码器和 DeepSeek V3 大语言模型构建而成。它在视觉理解与推理任务上展现出接近业界领先水平的能力,同时在纯文本任务中也保持了相当的竞争力。dots.vlm1的出现,突破了当前AI模型多聚焦于文本处理的局限,为多模态AI的发展开辟了新路径。
在实际测试中,dots.vlm1的表现令人印象深刻。该模型能够精准识别空间关系、解析复杂图表、解答数独问题,甚至能理解和完成高考数学题。其图像识别能力同样强大,无论是常见物体还是冷门图片,都能准确识别并给出详尽解释。例如,在面对经典的红绿色盲数字测试图时,dots.vlm1一次性全部答对,在颜色和形状识别上都表现出极高的准确性。
除了卓越的视觉与推理能力,dots.vlm1在文本生成方面也表现突出。它能够模仿李白诗风,创作出描述刘慈欣《诗云》中“诗云”意象的诗歌,作品意境深远、用词精准,充分展现了其文本创作实力。
dots.vlm1的成功,源于HI Lab对技术自研的持续投入。该实验室由小红书内部大模型技术与应用产品团队合并升级而来,专注于探索多元智能形态。通过融合人际智能、空间智能、音乐智能及人文关怀等维度,HI Lab不断拓展人机交互的边界,为AI技术发展注入新动能。
在dots.vlm1的开发中,HI Lab采用了严谨的三阶段训练流程:首先对NaViT视觉编码器进行预训练,最大化其对多样视觉数据的感知能力;随后将视觉编码器与DeepSeek V3大语言模型联合训练,利用大规模、多样化多模态数据集;最后通过有监督微调进一步提升模型的泛化能力。这一流程确保了dots.vlm1在视觉与文本领域均能出色发挥。
值得关注的是,dots.vlm1的开源不仅为AI研究者提供了宝贵资源,更积极推动了多模态AI技术的进步。在当前竞争激烈的AI领域,小红书HI Lab此举为行业树立了新标杆。随着dots.vlm1的持续完善和应用场景的不断拓展,其有望在更多领域释放巨大潜力。
[超站]友情链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
关注数据与安全,洞悉企业级服务市场:https://www.ijiandao.com/

随时掌握互联网精彩
- 1 积极促进产业高端化智能化绿色化 7904132
- 2 上海多个小区1700多个门禁集体失效 7809376
- 3 35岁男歌手心梗去世 曾是周杰伦学员 7712726
- 4 年轻的他们 这样面对失败 7616386
- 5 董事长教育消费者后 百果园港股大跌 7519658
- 6 日本东京举行反靖国神社游行 7426002
- 7 净网:编造地震虚假灾情?网警查处 7330024
- 8 王楚钦横扫进决赛 将战张本智和 7236489
- 9 全球首个孕育机器人预计一年内面世 7139080
- 10 卫健委:建议80岁老人每月测2次体重 7046464