功能特性
产品对比
定价
常见问题
免费下载
立即下载
技能包
模型广场
登录
技能包广场
›
优化注意力闪光
📚
文档 & 知识
优化注意力闪光
@optimizing-attention-flash
Flash Attention 通过 IO 感知的平铺和重新计算,为变压器注意力提供 2-4 倍的加速和 10-20 倍的内存减少。
包含技能
1 个
📚
优化注意力闪光
@zechenzhangagi/ai-research-skills/optimizing-attention-flash
Flash Attention 通过 IO 感知的平铺和重新计算,为变压器注意力提供 2-4 倍的加速和 10-20 倍的内存减少。
🚀
如何安装技能包
请下载安装 AiOffice 客户端,
如果已下载AiOffice,
请在 AiOffice 的技能广场页面进行一键安装。
知道了