AiOffice 能力组合,开箱即用,为您的工作流提速
有关如何检查文档中声明的说明,请参阅 CHECKING.md。
DiffDock 是一种基于扩散的深度学习工具,用于分子对接,可预测小分子配体与蛋白质靶标的 3D 结合姿势。它代表了计算对接的最先进水平,对于基于结构的药物发现和化学生物学至关重要。
用户可能会要求您创建、编辑或分析 .docx 文件的内容。 .docx 文件本质上是一个 ZIP 存档,其中包含 XML 文件以及您可以读取或编辑的其他资源。您有不同的工具和工作流程可用于不同的任务。
OpenAI 的多语言语音识别模型。
当您需要执行以下操作时,请使用权重和偏差 (W&B):
verl 是来自字节跳动 Seed 团队的一个灵活、高效、可用于生产的大型语言模型 RL 训练库。它实现了 HybridFlow 框架 (EuroSys 2025) 并为 Doubao-1.5-pro 等模型提供支持,在数学基准上实现了 O1 级性能。
由官方文档生成的全面帮助,帮助您顺利开发。
TransformerLens 是 GPT 风格语言模型的机械可解释性研究事实上的标准库。它由 Neel Nanda 创建并由 Bryce Meyer 维护,提供了干净的界面,可以在每次激活时通过 HookPoints 检查和操作模型内部。
torchforge 是 Meta 的 PyTorch 原生 RL 库,它将基础设施问题与算法问题分开。它让您能够专注于算法,同时自动处理分布式训练、推理和权重同步,从而实现快速强化学习研究。
当您需要执行以下操作时,请使用 TensorBoard:
使用 HuggingFace Diffusers 库通过稳定扩散生成图像的综合指南。
SAELens 是用于训练和分析稀疏自动编码器 (SAE) 的主要库,稀疏自动编码器是一种将多语义神经网络激活分解为稀疏、可解释特征的技术。基于 Anthropic 对单义性的开创性研究。
slime 是清华大学 THUDM 团队的 LLM 后培训框架,为 GLM-4.5、GLM-4.6 和 GLM-4.7 提供支持。它将 Megatron-LM 与 SGLang 连接起来进行训练,以实现高吞吐量的部署生成。
使用 SkyPilot 跨云运行 ML 工作负载并自动成本优化的综合指南。
用于 LLM 和 VLM 的高性能服务框架,具有用于自动前缀缓存的 RadixAttention。
使用 Transformer 进行句子和文本嵌入的 Python 框架。
使用 Meta AI 的 Segment Anything Model 进行零样本图像分割的综合指南。
RWKV (RwaKuv) 将 Transformer 并行化(训练)与 RNN 效率(推理)结合起来。
Ray Train 以最少的代码更改将机器学习训练从单 GPU 扩展到多节点集群。
适用于 ML 和 AI 工作负载的分布式数据处理库。