【快捷查询】flash-attn及flash-attn-3的安装【预构建文件】


flash-attn

flash-attn-3

Github页面:https://github.com/windreamer/flash-attention3-wheels 预构建文件查找:https://windreamer.github.io/flash-attention3-wheels/

使用方式【torch2.9.1, cu128】:

pip install flash_attn_3 --find-links https://windreamer.github.io/flash-attention3-wheels/cu128_torch291 --extra-index-url https://download.pytorch.org/whl/cu128

如果网络环境不好可以直接下载下来再安装。


注意:这个预构建包需要glibc 2.34支持 Alibaba Cloud 3只支持到2.32

查看方式:

strings /usr/lib64/libc.so.6 |grep GLIBC_

还没找到怎么升级

声明:烈火灼冰|版权所有,违者必究|如未注明,均为原创|本网站采用BY-NC-SA协议进行授权

转载:转载请注明原文链接 - 【快捷查询】flash-attn及flash-attn-3的安装【预构建文件】


离离沐雪踏轻尘