AiOffice 能力组合,开箱即用,为您的工作流提速
针对 NeurIPS、ICML、ICLR、ACL、AAAI、COLM(ML/AI 场地)和 OSDI、NSDI、ASPLOS、SOSP(系统场地)撰写可发表论文的专家级指导。这项技能将顶级研究人员(Nanda、Farquhar、Karpathy、Lipton、Steinhardt)的写作理念与实用工具相结合:LaTeX 模板、引文验证 API 和会议检查表。
miles 是一个高性能、企业级 RL 框架,针对大规模模型训练后进行了优化。它作为 Slime 的生产分支而构建,解决了 MoE 训练稳定性、低精度训练和训练推理对齐方面的关键挑战。
Mamba 是一种状态空间模型架构,可实现序列建模的 O(n) 线性复杂度。
当您需要执行以下操作时,请使用长上下文技术:
用于对话图像理解的开源视觉语言模型。
连接法学硕士与数据的领先框架。
LlamaGuard是专门用于内容安全分类的7-8B参数模型。
根据官方文档生成的 llama-factory 开发的全面帮助。
具有最小依赖性的纯 C/C++ LLM 推理,针对 CPU 和非 NVIDIA 硬件进行了优化。
用于调试、评估和监控语言模型和人工智能应用程序的开发平台。
有关在 Lambda Labs GPU 云上使用按需实例和一键式集群运行 ML 工作负载的综合指南。
当您需要执行以下操作时,请使用知识蒸馏:
当您需要执行以下操作时,请使用讲师:
快速、免校准重量量化,支持 8/4/3/2/1 位精度,具有多个优化的后端。
使用 Transformer 强化学习 (TRL) 库实施组相对策略优化 (GRPO) 的专家级指南。该技能提供了经过实战检验的模式、关键见解和可用于生产的工作流程,用于通过自定义奖励函数微调语言模型。
训练后量化方法,使用分组量化将 LLM 压缩至 4 位,且精度损失最小。
GGUF(GPT 生成的统一格式)是 llama.cpp 的标准文件格式,可通过灵活的量化选项在 CPU、Apple Silicon 和 GPU 上进行高效推理。
TRL 提供了使语言模型与人类偏好保持一致的训练后方法。
Facebook AI 的库,用于十亿级矢量相似性搜索。
BigCode 评估工具可跨 15 多个基准评估代码生成模型,包括 HumanEval、MBPP 和 MultiPL-E(18 种语言)。