📚
文档 & 知识

优化注意力闪光

@optimizing-attention-flash

Flash Attention 通过 IO 感知的平铺和重新计算,为变压器注意力提供 2-4 倍的加速和 10-20 倍的内存减少。

包含技能

1 个
📚
优化注意力闪光
@zechenzhangagi/ai-research-skills/optimizing-attention-flash

Flash Attention 通过 IO 感知的平铺和重新计算,为变压器注意力提供 2-4 倍的加速和 10-20 倍的内存减少。

🚀 如何安装技能包 请下载安装 AiOffice 客户端,
如果已下载AiOffice,
请在 AiOffice 的技能广场页面进行一键安装。