lash Player是一款輕量級瀏覽器插件,讓用戶在win10系統上瀏覽網頁時能夠享受到更廣泛的多媒體體驗,但是對于這樣一款插件也需要對其進行及時的更新,以便用戶使用過程中更好的體驗,那么win10如何更新flash player呢?下面就來教大家win10更新flash到最新版本操作方法。
具體方法:
1、在Windows10桌面,依次點擊“開始/Windows系統/控制面板”菜單項。
2、在打開的Windows10控制面板窗口中,點擊右上角的“查看方式”下拉菜單,在彈出菜單中選擇“大圖標”菜單項。
3、在打開的所有控制面板項窗口中,點擊“Flash Player”圖標。
4、這時會打開Flash Player設備管理器窗口,點擊上面的“更新”選項卡。
5、在打開的更新窗口中,點擊“立即檢查”按鈕。
6、這時就會自動打開Adobe的官方網站,然后點擊“立即安裝”按鈕,就會自動下載并更新Flash插件了。
上述就是win10更新flash到最新版本操作方法了,有需要的用戶就可以根據小編的步驟進行操作了,希望能夠對大家有所幫助。
本文來源于http://www.xitongtiandi.net/,轉載請注明出處。
Flash Attention
Flash-attn(Flash Attention),作為一種用于神經網絡模型的注意力機制,在處理序列數據時有顯著的優勢,可以提高計算效率并減少內存使用,特別是Transformer模型。它通過優化數據布局和計算流程,降低了注意力計算的內存訪問開銷,在本地部署大模型可以減輕GPU的開銷,加快推理速度。項目地址 :https://github.com/Dao-AILab/flash-attention
然而,官方發布的版本只支持linux,沒有windows包,如果要在windows下安裝,要么使用docker,要么自己編譯,而自己編譯耗時很長,而且也會遇到各種問題。這里我使用的是Brian Dashore編譯好的whl. 下載地址:https://github.com/bdashore3/flash-attention/releases
要注意選擇對應的版本,首先查看自己的cuda版本,在CMD 里輸入:nvcc --version
查看cuda版本
我的本地環境如下:
系統 windows10 ,python版本11,cuda版本12.1
下載對應的版本為:flash_attn-2.5.9.post1+cu122torch2.3.1cxx11abiFALSE-cp311-cp311-win_amd64.whl
flash-attn版本
下載到本地后執行,pip安裝:
pip install d:\downloads\flash_attn-2.5.9.post1+cu122torch2.3.1cxx11abiFALSE-cp311-cp311-win_amd64.whl
注意:安裝完成后,如果你以前已經安裝過PyTorch,需要重新安裝一遍,否則運行會報錯。
打開網址https://pytorch.org/get-started/locally/ 選擇對應的版本
安裝pytorch
根據pytorch.org給出的提示命令,在本地執行安裝:
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
安裝完成,寫一個簡單的腳本檢驗一下。
test.py
import flash_attn
print(flash_attn.__version__)
運行結果如果正確輸出版本號,則表示安裝成功。
檢驗flash_attn版本