Hugging Face一直以来以其强大的自然语言处理和多模态AI能力而闻名,而这次推出的SmolVLM系列正是基于公司之前训练的庞大800亿参数模型提炼而来。SmolVLM-256M采用了最新的SigLIP技术作为其图像编码方式,注重轻量化和高效性 ...
Hugging Face 的团队,包括公司联合创始人兼首席科学家 Thomas Wolf,表示他们的开放深度研究项目结合了 OpenAI 的 o1模型和一个开源的 “代理框架”。这个框架旨在帮助模型更好地进行信息分析,并指导其使用搜索引擎等工具。尽管 o1是一个付费的专有模型,研究人员认为它在性能上优于一些开放模型,如 DeepSeek 的 R1。
在内部评估中,Hugging Face 将 SmolVLM-256M 与其 18 个月前发布的一个拥有 800 亿参数的多模态模型进行了比较。在超过半数的基准测试中,前者获得了更高的分数。在一个名为 MathVista ...
近日,全球知名的AI大模型社区Hugging Face宣布启动Open-R1项目,旨在填补DeepSeek R1开源推理模型中尚未公开的组件,进一步推动模型在科研及商业领域的应用。自DeepSeek ...
本次推出的 SmolVLM-256M-Instruct 仅有 2.56 亿参数,是有史以来发布的最小视觉语言模型,可以在内存低于 1GB 的 PC 上运行,提供卓越的性能输出。 SmolVLM-500M-Instruct 仅有 5 ...
IT之家 1 月 28 日消息,自从 DeepSeek 发布了与 OpenAI o1 竞争的开源推理模型 R1 以来,已经过去了大约一周,引发全球关注。现在,AI 大模型社区 Hugging Face 宣布了 Open-R1 项目,计划填补 ...
在科技领域,总有一些项目以惊人的速度打破常规,而Hugging Face则再次引领了这一潮流。近日,该平台欣喜地发布了专为算力受限设备设计的两款轻量级AI模型——SmolVLM-256M-Instruct和SmolVLM-500M-Instruct,这意味着在内存和算力有限的情况下,AI技术的应用前景变得更加广阔。
在人工智能技术快速发展的今天,如何在算力有限的设备上实现高效的AI应用,成为了业界关注的热点话题。2025年1月23日,Hugging ...
IT之家 1 月 26 日消息,Hugging Face 发布了两款全新多模态模型 SmolVLM-256M 和 SmolVLM-500M, 其中 SmolVLM-256M 号称是世界上最小的视觉语言模型(Video Language Model) ...
随着人工智能技术的飞速发展,模型性能与训练期间投入的资源之间的绑定关系愈发明显。对于小型企业和个人开发者而言,他们往往面临着资源不足的困境,难以与头部厂商相竞争。为了解决这一问题,Hugging Face 团队提出了一种名为“扩展测试时计算”的方法,旨在通过延长运算时间实现降本增效,让小模型也能有大作为。 首先,我们需要明确一点:模型性能的提升并非一蹴而就的过程,它需要大量的数据、计算资源和时间。
Hugging Face 团队通过对视觉处理和语言组件的技术创新,成功减少了模型规模而不损失性能。他们将原先的400M 参数视觉编码器更换为93M 参数版本,并实施了更激进的令牌压缩技术。这些创新使得小型企业和初创公司能够在短时间内推出复杂的计算机视觉产品,基础设施成本也大幅降低。
1月26日,Hugging Face发布了两款全新多模态模型:SmolVLM-256M和SmolVLM-500M。据悉,这两款模型都是基于去年训练的80B参数模型进行提炼而成,实现了性能与资源需求之间的平衡。官方表示,这两款模型可以直接部署在transformer MLX和ONNX平台上。