flash-attn
flash-attn-3
Github页面:https://github.com/windreamer/flash-attention3-wheels
预构建文件查找:https://windreamer.github.io/flash-attention3-wheels/
使用方式【torch2.9.1, cu128】:
pip install flash_attn_3 --find-links https://windreamer.github.io/flash-attention3-wheels/cu128_torch291 --extra-index-url https://download.pytorch.org/whl/cu128
如果网络环境不好可以直接下载下来再安装。
注意:这个预构建包需要glibc 2.34支持 Alibaba Cloud 3只支持到2.32
查看方式:
strings /usr/lib64/libc.so.6 |grep GLIBC_
还没找到怎么升级


Comments | NOTHING