windows安裝python的時候勾選pip默認是會安裝好pip,不過在升級pip的時候,遇到了一個問題,在執行了pip install --upgrade pip之后,卸載了當前的pip,然后就沒有然后了[流淚]
沒有了pip安裝包可就麻煩了,那么除了重新安裝python之外,我們也可以單獨安裝pip
參考https://pip.pypa.io/en/stable/installing/,在windows環境下我們通過兩部就能完成最新的pip的安裝
curl https://bootstrap.pypa.io/get-pip.py -o get-pip.py
py get-pip.py
執行get-pip.py完成pip安裝
Flash Attention
Flash-attn(Flash Attention),作為一種用于神經網絡模型的注意力機制,在處理序列數據時有顯著的優勢,可以提高計算效率并減少內存使用,特別是Transformer模型。它通過優化數據布局和計算流程,降低了注意力計算的內存訪問開銷,在本地部署大模型可以減輕GPU的開銷,加快推理速度。項目地址 :https://github.com/Dao-AILab/flash-attention
然而,官方發布的版本只支持linux,沒有windows包,如果要在windows下安裝,要么使用docker,要么自己編譯,而自己編譯耗時很長,而且也會遇到各種問題。這里我使用的是Brian Dashore編譯好的whl. 下載地址:https://github.com/bdashore3/flash-attention/releases
要注意選擇對應的版本,首先查看自己的cuda版本,在CMD 里輸入:nvcc --version
查看cuda版本
我的本地環境如下:
系統 windows10 ,python版本11,cuda版本12.1
下載對應的版本為:flash_attn-2.5.9.post1+cu122torch2.3.1cxx11abiFALSE-cp311-cp311-win_amd64.whl
flash-attn版本
下載到本地后執行,pip安裝:
pip install d:\downloads\flash_attn-2.5.9.post1+cu122torch2.3.1cxx11abiFALSE-cp311-cp311-win_amd64.whl
注意:安裝完成后,如果你以前已經安裝過PyTorch,需要重新安裝一遍,否則運行會報錯。
打開網址https://pytorch.org/get-started/locally/ 選擇對應的版本
安裝pytorch
根據pytorch.org給出的提示命令,在本地執行安裝:
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
安裝完成,寫一個簡單的腳本檢驗一下。
test.py
import flash_attn
print(flash_attn.__version__)
運行結果如果正確輸出版本號,則表示安裝成功。
檢驗flash_attn版本