来源:TechCrunch 作者:Kyle Wiggers

非营利性人工智能研究机构人工智能 2 研究所(Ai2)周四发布了 Olmo 2 1B 模型,这是一个拥有 10 亿参数的模型。Ai2 称,在多项基准测试中,该模型的表现超过了谷歌、Meta 和阿里巴巴等公司推出的同规模模型。参数,有时也被称为权重,是模型的内部组成部分,用于指导模型的行为。
Olmo 2 1B 模型已在人工智能开发平台 Hugging Face 上以宽松的 Apache 2.0 许可证形式发布。与大多数模型不同的是,Olmo 2 1B 模型可以从头开始复现,因为 Ai2 提供了用于开发该模型的代码和数据集(Olmo-mix-1124 和 Dolmino-mix-1124)。
小型模型的能力可能比不上那些大型模型,但重要的是,它们不需要强大的硬件设备就能运行。这使得开发者和爱好者更容易使用这些模型,尤其是那些受限于低端硬件和家用电脑性能的人群。
在过去几天里,已经有许多小型模型发布,从微软的 Phi 4 推理系列到通义(Qwen)的 2.5 Omni 3B 模型。包括 Olmo 2 1B 在内的大多数模型,都可以在现代笔记本电脑甚至移动设备上轻松运行。
Ai2 表示,Olmo 2 1B 模型是在一个由 4 万亿个标记组成的数据集上进行训练的,这些数据来自公开可用的资源、人工智能生成的内容以及人工创建的内容。标记是模型处理和生成的原始数据单元,100 万个标记大约相当于 75 万个单词。
在衡量算术推理能力的 GSM8K 基准测试中,Olmo 2 1B 模型的得分高于谷歌的 Gemma 3 1B 模型、Meta 的 Llama 3.2 1B 模型以及阿里巴巴的通义 2.5 1.5B 模型。在用于评估事实准确性的 TruthfulQA 测试中,Olmo 2 1B 模型的表现也超过了上述三个模型。
然而,Ai2 也警告称,Olmo 2 1B 模型存在一定风险。该机构表示,与所有人工智能模型一样,它可能会产生 “有问题的输出”,包括有害和 “敏感” 内容,以及与事实不符的陈述。出于这些原因,Ai2 不建议在商业场景中部署 Olmo 2 1B 模型。
本文转载自TechCrunch,本文观点不代表雅典娜AI助手YadiannaAI立场。