查看: 3|回复: 0

在线训练PyTorch构建块,专为 OLMo 生态系统打造,助力大规模语言模型开发。

[复制链接]

8

主题

0

回帖

24

积分

新手上路

积分
24
发表于 昨天 15:17 | 显示全部楼层 |阅读模式
在线训练PyTorch构建块,专为 OLMo 生态系统打造,助力大规模语言模型开发。


AllenAI推出的 OLMo-core,集成了训练、推理的全套模块,不仅提供了官方训练脚本支持多GPU分布式训练,还能无缝接入 Hugging Face Transformers 和高效的 vLLM 推理引擎。

主要亮点:
- 支持最新的 OLMo-2(32B)和 OLMo-3(7B/32B)模型训练脚本;
- 兼容 PyTorch,支持 torchrun 与 Beaker 一键分布式启动训练;
- 提供多种可选依赖支持加速(flash-attn、TransformerEngine、torchao 等);
- 通过 Hugging Face Transformers 和 vLLM 实现高效推理,加速模型部署;
- 提供交互式聊天演示和评测工具,方便研究和测试;
- Docker 镜像包含所有依赖,便于快速启动环境。

安装简易,pip 安装即用:
```bash
pip install ai2-olmo-core
```

官方文档:olmo-core.readthedocs.io

GitHub:github.com/allenai/OLMo-core

适合科研人员、AI工程师、NLP开发者使用,全面提升大模型训练与推理效率。

#



本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关注公众号

相关侵权、举报、投诉及建议等,请发 E-mail:admin@discuz.vip

Powered by Discuz! X5.0 © 2001-2026 Discuz! Team.|青ICP备2025004122号-1

在本版发帖
关注公众号
返回顶部