沃资讯
科技 财经 汽车 游戏 数码 资讯 商业

Hugging Face新推SmolVLM AI模型,20亿参数助力设备端高效推理

2024-11-27来源:ITBEAR编辑:瑞雪

Hugging Face平台近期在科技界掀起波澜,发布了一款名为SmolVLM的AI视觉语言模型(VLM),这款模型以其精简的20亿参数设计,专为设备端推理打造,凭借超低的内存占用,在众多同类模型中独树一帜。

SmolVLM AI模型的核心优势在于其小巧的体积、惊人的处理速度以及高效的内存利用。更重要的是,该模型完全开源,所有相关的模型检查点、VLM数据集、训练配方和工具,均在Apache 2.0许可证下向公众开放。

SmolVLM提供了三个版本以满足不同需求:SmolVLM-Base,适用于下游任务的微调;SmolVLM-Synthetic,基于合成数据进行微调;以及SmolVLM-Instruct,这是一个指令微调版本,可直接应用于交互式应用中。

该模型在架构设计上的巧妙之处,是其借鉴了Idefics3的理念,并采用了SmolLM2 1.7B作为语言主干。通过创新的像素混洗策略,SmolVLM将视觉信息的压缩率提升了9倍,从而实现了更高效的视觉信息处理。

在训练数据集方面,SmolVLM涵盖了Cauldron和Docmatix,并对SmolLM2进行了上下文扩展,使其能够处理更长的文本序列和多张图像。这一优化不仅提升了模型的性能,还有效降低了内存占用,解决了大型模型在普通设备上运行缓慢甚至无法运行的问题。

在内存使用方面,SmolVLM展现出了卓越的能力。它将384x384像素的图像块编码为81个tokens,这意味着在相同的测试图片下,SmolVLM仅需使用1200个tokens,而相比之下,Qwen2-VL则需要1.6万个tokens。这一显著的内存节省,使得SmolVLM在设备端推理上更具优势。

在性能表现上,SmolVLM同样令人瞩目。它在多个基准测试中,如MMMU、MathVista、MMStar、DocVQA和TextVQA等,均展现出了出色的处理能力。与Qwen2-VL相比,SmolVLM在预填充吞吐量上快了3.3到4.5倍,而在生成吞吐量上更是快了7.5到16倍。

这款创新模型的发布,无疑为AI视觉语言模型领域带来了新的活力和可能性。随着SmolVLM的广泛应用和深入发展,我们有理由期待它在未来能够发挥更大的作用,为人工智能技术的发展贡献更多的力量。

固态电池量产新突破:成本更低充电更快,续航与安全性能双提升
2026年将是固态电池元年,无论国内还是国外,都在分秒必争的研发固态电池,因为大家都知道,固态电池对于电动汽车来说,将引发山呼海啸般的变革,搭载了固态电池后,电动汽车的很多缺点将不复存在,比如“里程焦虑”和“…

2026-01-07

煤矿自动无压风门市场崛起:济南衡丰能源设备以技术和服务赢得口碑
目前,国内规模以上煤矿中,已有超70%完成风门系统智能化改造,市场对高可靠性、定制化产品的需求持续扩大。此外,公司通过与多家设计院所合作,参与10余个矿井通风系统改造项目,累计提供风门设备超5000套,成为中…

2026-01-07

百度百科20周年前夕焕新:推“动态百科”等新功能 词条总量超3000万
正值其20周年前夕,百度百科宣布以AI为核心引擎赋能产品,正式推出“动态百科”“百科AI知识图谱”等全新功能,以生成式交互方式重塑知识获取体验。她强调,未来,百度百科将在坚守内容权威性、严谨性的基础上,持续探…

2026-01-07

大模型如何重塑工单系统?5大国产厂商技术实力与选型避坑全解析
随着大模型技术在企业服务领域的深度渗透,大模型通过深度语义理解、多模态数据整合、知识图谱构建等核心能力,解决了传统工单系统“听不懂需求、派不准工单、解不了难题”的行业痛点。本文聚焦国产客服系统厂商,以技术能力…

2026-01-07

抖音热梗节:线上线下联动,让虚拟玩梗文化在现实落地生花
热梗节现场,集齐了10个堪称“互联网减速带”的现象级热梗,不仅有霸总男团、暴躁古人、来财财神等形象cos,敬自己一杯、鸟儿摇、丝瓜汤等抽象内容也被设计成了具象的人偶,很多梗即便已经在网上看过百遍,新鲜立体的…

2026-01-07