AiOffice 能力组合,开箱即用,为您的工作流提速
关键:在开始任何研究之前,请验证请求是否包含:
OpenAI 的多语言语音识别模型。
当您需要执行以下操作时,请使用权重和偏差 (W&B):
verl 是来自字节跳动 Seed 团队的一个灵活、高效、可用于生产的大型语言模型 RL 训练库。它实现了 HybridFlow 框架 (EuroSys 2025) 并为 Doubao-1.5-pro 等模型提供支持,在数学基准上实现了 O1 级性能。
由官方文档生成的全面帮助,帮助您顺利开发。
TransformerLens 是 GPT 风格语言模型的机械可解释性研究事实上的标准库。它由 Neel Nanda 创建并由 Bryce Meyer 维护,提供了干净的界面,可以在每次激活时通过 HookPoints 检查和操作模型内部。
torchforge 是 Meta 的 PyTorch 原生 RL 库,它将基础设施问题与算法问题分开。它让您能够专注于算法,同时自动处理分布式训练、推理和权重同步,从而实现快速强化学习研究。
当您需要执行以下操作时,请使用 TensorBoard:
使用 HuggingFace Diffusers 库通过稳定扩散生成图像的综合指南。
当您需要执行以下操作时,请使用推测解码:
SAELens 是用于训练和分析稀疏自动编码器 (SAE) 的主要库,稀疏自动编码器是一种将多语义神经网络激活分解为稀疏、可解释特征的技术。基于 Anthropic 对单义性的开创性研究。
slime 是清华大学 THUDM 团队的 LLM 后培训框架,为 GLM-4.5、GLM-4.6 和 GLM-4.7 提供支持。它将 Megatron-LM 与 SGLang 连接起来进行训练,以实现高吞吐量的部署生成。
使用 SkyPilot 跨云运行 ML 工作负载并自动成本优化的综合指南。
SimPO 是一种无参考偏好优化方法,无需参考模型即可优于 DPO。
用于 LLM 和 VLM 的高性能服务框架,具有用于自动前缀缓存的 RadixAttention。
无监督分词器,无需针对特定语言进行预处理即可处理原始文本。
使用 Transformer 进行句子和文本嵌入的 Python 框架。
使用 Meta AI 的 Segment Anything Model 进行零样本图像分割的综合指南。
RWKV (RwaKuv) 将 Transformer 并行化(训练)与 RNN 效率(推理)结合起来。
Ray Train 以最少的代码更改将机器学习训练从单 GPU 扩展到多节点集群。