操屁眼的视频在线免费看,日本在线综合一区二区,久久在线观看免费视频,欧美日韩精品久久综

新聞資訊

    windows安裝python的時候勾選pip默認是會安裝好pip,不過在升級pip的時候,遇到了一個問題,在執行了pip install --upgrade pip之后,卸載了當前的pip,然后就沒有然后了[流淚]

    沒有了pip安裝包可就麻煩了,那么除了重新安裝python之外,我們也可以單獨安裝pip

    參考https://pip.pypa.io/en/stable/installing/,在windows環境下我們通過兩部就能完成最新的pip的安裝

    curl https://bootstrap.pypa.io/get-pip.py -o get-pip.py
    py get-pip.py

    執行get-pip.py完成pip安裝

    Flash Attention

    Flash-attn(Flash Attention),作為一種用于神經網絡模型的注意力機制,在處理序列數據時有顯著的優勢,可以提高計算效率并減少內存使用,特別是Transformer模型。它通過優化數據布局和計算流程,降低了注意力計算的內存訪問開銷,在本地部署大模型可以減輕GPU的開銷,加快推理速度。項目地址 :https://github.com/Dao-AILab/flash-attention

    然而,官方發布的版本只支持linux,沒有windows包,如果要在windows下安裝,要么使用docker,要么自己編譯,而自己編譯耗時很長,而且也會遇到各種問題。這里我使用的是Brian Dashore編譯好的whl. 下載地址:https://github.com/bdashore3/flash-attention/releases

    要注意選擇對應的版本,首先查看自己的cuda版本,在CMD 里輸入:nvcc --version

    查看cuda版本

    我的本地環境如下:

    系統 windows10 ,python版本11,cuda版本12.1

    下載對應的版本為:flash_attn-2.5.9.post1+cu122torch2.3.1cxx11abiFALSE-cp311-cp311-win_amd64.whl

    flash-attn版本

    下載到本地后執行,pip安裝:

    pip install d:\downloads\flash_attn-2.5.9.post1+cu122torch2.3.1cxx11abiFALSE-cp311-cp311-win_amd64.whl

    注意:安裝完成后,如果你以前已經安裝過PyTorch,需要重新安裝一遍,否則運行會報錯。

    打開網址https://pytorch.org/get-started/locally/ 選擇對應的版本

    安裝pytorch

    根據pytorch.org給出的提示命令,在本地執行安裝:

    pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

    安裝完成,寫一個簡單的腳本檢驗一下。

    test.py

    import flash_attn
    print(flash_attn.__version__)

    運行結果如果正確輸出版本號,則表示安裝成功。

    檢驗flash_attn版本

網站首頁   |    關于我們   |    公司新聞   |    產品方案   |    用戶案例   |    售后服務   |    合作伙伴   |    人才招聘   |   

友情鏈接: 餐飲加盟

地址:北京市海淀區    電話:010-     郵箱:@126.com

備案號:冀ICP備2024067069號-3 北京科技有限公司版權所有