IBM发布迄今最小AI模型

自动草稿

IBM已正式确认推出Granite 4.0 Nano系列,这也是该公司迄今为止体积最小的人工智能模型。

此次发布彰显了IBM的最新努力:证明模型规模未必与更高智能划等号,单纯追求参数量的做法可能并非决定性优势。Granite 4.0 Nano参数规模仅约10亿,与OpenAI和谷歌等公司的产品相比相形见绌。

IBM研究员凯特·索尔和拉梅斯瓦尔·潘达在Hugging Face平台确认该系列发布时指出,这些模型专为边缘设备和端侧应用设计,并强调它们体现了“IBM持续致力于开发强大实用、无需数千亿参数即可完成任务的模型”。

该产品系列包含两种参数规模(3.5亿与约15亿),既提供采用混合状态空间架构(SSM)的版本,也推出基于Transformer架构的变体。

IBM在Hugging Face平台发布的模型包含四款指令微调模型及对应的基础模型,具体包括:

  • Granite 4.0 H 1B(约15亿参数):采用混合SSM架构的稠密大型语言模型

  • Granite 4.0 H 350M(约3.5亿参数):采用混合SSM架构的稠密大型语言模型

  • Granite 4.0 1B:基于Transformer的变体,专为混合架构尚未优化支持的工作负载(如Llama.cpp)设计

  • Granite 4.0 350M:与1B模型类似,同为基于Transformer的架构变体

相关文章

One Reply to “IBM发布迄今最小AI模型”

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注