器之心原創
作者:Jiying
編輯:H4O
1、概述
隨著大語言模型(Large Language Model,LLM)的火速發展,關于大語言模型對人工智能產業發展的影響引發了越來越多的討論。一種觀點認為,大語言模型的發展摧毀了人工智能初創企業的發展之路,因為大語言模型參數多,所需要的算力規模大,所依賴的訓練數據規模也大。大模型、大參數、大數據實際都集中在大的人工智能企業,從而導致初創企業的機會越來越少。另外一種觀點則相反,他們認為,大語言模型的發展一定程度成促進了人工智能在多個領域中的廣泛發展,例如可以直接在大語言模型的基礎上利用私有數據搭建一些垂直領域的大語言模型,可以直接將大語言模型應用在不同的業務場景中等等。
我們在這篇文章中不討論上述兩種觀點,我們關注的是第二種觀點中提到的應用方式:如何在保證數據隱私性的前提下,利用私有數據訓練大語言模型,從而滿足在垂直領域中的應用需求?這一點也將是 LLM 促進人工智能初創企業發展的關鍵。具體的,我們關注聯邦學習是否可以用來訓練大語言模型?
1.1 大語言模型結構及需要的資源
由于 Transformer 架構具有出色的可并行性和容量,它已經成為開發各種 LLM 事實上的主干網絡,使得語言模型的規模達到數千或數億的參數成為可能。一般來說,現有 LLM 的主流架構可以大致分為三大類型,即編碼器 - 解碼器(encoder-decoder)、因果解碼器(causal decoder)和前綴解碼器(prefix decoder),如圖 1 所示 [8]。
圖 1. 三種主流架構中的注意力模式比較。其中,藍色、綠色、黃色和灰色的圓角矩形分別表示前綴標記之間的注意力、前綴和目標標記之間的注意力、目標標記之間的注意力和掩碼的注意力。
但是,在大語言模型發展過程中,越來越多的人提出了疑慮,主要集中在以下幾個方面:
由此,引發出我們這篇文章討論的方法:FL+LLM,即引入聯邦學習來訓練大語言模型,從而為企業商業用戶提供眾多優勢,在模型規模和性能、隱私、效率、云計算成本和勞動力成本方面大大增強企業使用大型模型的能力。
1.2 聯邦學習回顧
聯邦學習(Federated learning,FL)是一種機器學習環境,在這種環境下,多個客戶端(如移動設備或整個組織)在中央服務器(如服務提供商)的協調下協同訓練一個模型,同時保持訓練數據的分散性。FL 體現了集中數據收集和最小化的原則,可以減輕傳統的集中式機器學習和數據科學方法帶來的許多隱私、安全性風險和成本。因此,FL 是一種有效的高性能計算范式,也被看作是滿足數據隱私性要求的分布式訓練方法。目前,FL 已經在一些應用場景中成功使用,包括一些消費端設備,例如 GBoard、關鍵詞發現,以及制藥、醫學研究、金融、制造業等等。此外,也出現了大量 FL 開發工具和平臺,例如 Tensorow Federated, LEAF, PaddleFL 和 PySy,進一步推動 FL 的發展。
在聯邦學習框架中,中央服務器保存初始化可共享的全局數據。各個客戶端(參與者、邊緣設備)保存本地數據,并根據本地數據訓練本地機器學習模型。客戶端根據一定的通信機制向中央服務器傳輸模型參數等數據(不會傳輸完整的客戶端原始數據),中央服務器匯聚各客戶端上載數據后訓練構建全局模型,各個客戶端在整個聯邦學習機制中身份和地位相同。聯邦學習有效解決了兩方或多方數據使用實體(客戶端)在不貢獻出數據的情況下的數據共同使用問題,解決了數據孤島問題。此外,在各個客戶端數據特征對齊的前提下,聯邦學習的全局模型能夠獲得與數據集中式存儲相同的建模效果。
以下是四個非常重要的聯邦學習算法:
1. FedAvg(Federated Averaging)[1]:FedAvg 是最經典的聯邦學習算法,由 Google 于 2016 年提出。該算法采用梯度下降的方式對模型參數進行迭代更新。在 FedAvg 中,每個客戶端(例如,手機或其他設備)首先在本地用自己的數據訓練模型,然后將本地模型權重發送至中央服務器。中央服務器收集所有客戶端的權重更新,計算權重的平均值,并將更新后的權重分發回各個客戶端。這個過程在多輪中進行,直到達到收斂。
2. FedProx(Federated Proximal)[2]:FedProx 是一種改進的聯邦學習算法,用于解決聯邦學習中的非獨立同分布(non-IID)數據和設備異質性問題。這些問題會導致訓練質量下降,尤其是在訓練數據不均勻分布的情況下。FedProx 通過在優化目標中添加一個 proximal term 來解決這個問題,這使得模型在更新時更加關注與全局模型權重接近的本地模型權重。這樣可以減輕非獨立同分布數據和設備異質性帶來的負面影響,提高模型性能。
3. SCAFFOLD(Federated Learning via Stochastic Controlled Averaging)[3]:SCAFFOLD 是一種高效的聯邦學習算法,主要關注梯度稀疏性和設備間的通信。SCAFFOLD 通過在每輪中維護一個控制變量(control variate)來減少通信量。這個控制變量可以根據全局模型的梯度變化進行調整,從而使每個設備之間的通信更為緊湊。SCAFFOLD 在通信方面更加高效,可以在不犧牲模型性能的情況下減少通信成本。
4. FedNova(Federated Learning via Normalized Averaging)[4]:FedNova 的核心思想是采用歸一化平均方法消除目標不一致性,同時保持快速的誤差收斂。在每輪迭代中,在各個客戶端設備上進行本地訓練,并對本地模型參數進行歸一化,然后將歸一化后的參數發送至中央服務器。中央服務器在收集所有客戶端的參數更新后,對其進行歸一化平均,從而減少目標不一致性。之后,中央服務器將更新后的模型參數分發回各個客戶端,以便在下一輪迭代中繼續訓練。FedNova 的優點在于,它能夠在保持快速誤差收斂的同時,消除由于數據異質性導致的目標不一致性。這使得 FedNova 算法在處理非獨立同分布數據和設備異質性方面表現出較好的性能。
2、聯邦學習結構來訓練大語言模型的難點
近年來,LLM 和 FL 的研究都取得了一定的進展。但是,在目前的技術和資源條件下,直接 FL+LLM 還面臨一系列的問題。
2.1 數據方面
LLM 的訓練依托的是超大規模的數據量。Chinchilla 探討了訓練 LLM 需要多少數據 [9]。2020 年 5 月,OpenAI 展示了他們的 LLM data scaling laws(也稱為 Kaplan scaling laws):300B tokens 可用于訓練參數量大小為 175B LLM。2022 年 9 月,DeepMind 為 “數據最優” LLM 找到了新 data scaling laws(也稱為 Chinchilla 或 Hoffman scaling laws):應該使用 1,400B (1.4T) tokens 來訓練參數量大小為 70B LLM 最佳。
表 1. 與 Chinchilla 數據優化模型一致所需的數據集大小 [9]
由表 1 中 Chinchilla 給出的數據可以看出,應用聯邦學習結構來訓練 LLM 勢必要將海量的數據量分布在不同的客戶端設備中,如果客戶端數量較少,那就造成每個客戶端中存儲、承載的數據量依然較大,對每個客戶端的計算性能要求都非常高,這與聯邦學習架構的設計初衷是不一致的;如果客戶端數量非常龐大,每個客戶端中存儲的數據量適中,那對于大量客戶端之間的協調調用機制、多方計算能力和資源分配不均的資源不均衡問題就會非常突出,不均衡情況下的客戶端激勵機制也尤為關鍵,會對聯邦學習的中央模型效果、訓練效率都有很大的影響。
2.2 客戶端設備方面
聯邦學習架構下的分布式系統中,單個客戶端如何容納整個 LLM 模型?在已有的聯邦學習平臺中,特別是一些實用場景下的聯邦學習平臺,分布式的客戶端設備大多為手機、平板等,這些設備根本不可能容納整個 LLM 模型或為模型訓練提供足夠的內存資源。如果將這些設備完全排除在訓練過程之外,也與聯邦學習架構的設計初衷不一致。但在客戶端無法容納整個模型、又不能將客戶端完全排除在訓練過程之外的情況下,如何對 LLM 進行并行式的訓練呢?
微軟在一篇文章中對 LLaMA 目前對設備內存的占用量進行了分析 [10]。在模型訓練過程中,大部分的內存開銷用于 model states (模型參數、優化器的狀態、梯度)。剩下的內存開銷則來自于 residual states(激活值、臨時區緩存和內存碎片)。
以 LLaMA 7B 模型為例,模型參數所需的內存是 (參數量 * 每個參數的內存):fp32 精度: 7*4 bytes=28GB;fp16 精度:7*2 bytes=14GB;int8 精度:7*1 bytes=7GB;混合精度(fp16/32)訓練:存儲 fp16 精度 + fp32 精度=14GB +28GB=42GB。
梯度所需的內存(計算方式同模型參數一樣,參數量 * 每個參數的內存):fp32 精度: 7*4 bytes=28GB;fp16 精度:7*2 bytes=14GB;int8 精度:7*1 bytes=7GB;混合精度(fp16/32)訓練:只存儲 fp16 精度=14GB。
優化器所需的內存(參數量 * 每個參數的內存 * 2,以 Adam 為例):fp32 精度: 7*4 bytes * 2=56GB;fp16 精度:7*2 bytes * 2=28GB;int8 精度:7*1 bytes * 2=14GB;混合精度(fp16/32)訓練:存儲 fp32 精度=56 G。
總的來說,訓練 LLaMa 模型總的內存需求為,fp32 精度: 28+28+56=112GB;fp16 精度:14+14+28=56GB;int8 精度:7+7+14=28G;混合精度(fp16/32)訓練: 42+14+56=112GB。
LLaMA 7B 的規模相當于目前的 LLM 來說非常小了,但即使 LLaMA 7B 的內存消耗量對一些手機、平板來說也是難以滿足的,這就對 FL 架構下的客戶端設備選擇構成了巨大的約束。
2.3 訓練算法方面
已有的聯邦學習訓練算法對于 LLM 來說是低效的。如上所述,聯邦學習的工作過程是:“各個客戶端根據本地數據訓練本地模型。客戶端根據一定的通信機制向中央服務器傳輸模型參數等數據,中央服務器匯聚各客戶端上載數據后訓練構建全局模型”。由于 LLM 的參數量和模型結構非常龐大,這種傳輸、匯聚的過程又受到通信條件的影響,所以整個工作過程的效率是非常低的。
3、FL+LLM 已有哪些工作進展
盡管 FL+LLM 還面臨諸多問題,但是不少研究人員已經開始探索相關方向的技術可能性并取得了一定的進展。我們在這一章節中介紹一下相關的工作進展情況。
3.1 FedLLM:在專有數據上建立你自己的大型語言模型
FedLLM 是一個 MLOps 支持的訓練 pipeline,能夠實現在專有數據上建立企業自己的大語言模型 [7]。代碼已公開:https://github.com/FedML-AI/FedML/tree/master/python/app/fedllm 。FedLLM 代表了 "LLM 的基礎生態系統設計",而不僅僅是 "LLM 的聯邦學習"。
FedLLM 是 FedML.Inc. 推出的 FL+LLM 框架。FedML, Inc. (https://FedML.ai ) 是由華人主導的國際化團隊,他們起源于美國南加州大學 (University of Southern California),是全球范圍內研究該技術的早期機構之一。過去幾年,FedML 起初作為博士生主導的科研開源項目,服務于多個科研基金,輔助所在實驗室發表了 50 多篇相關頂級論文。2023 年,FedML 宣布完成 600 萬美元種子輪和 Pre-Seed 輪融資,Camford Capital 領投,Plug and Play Ventures、AimTop Ventures、Acequia Capital、LDV Partners 等投資者參投。
圖 2. FedLLM 的訓練過程
如圖 2,FedLLM 實現了數據協作、計算協作和模型協作,并支持在集中式和地理分布式的 GPU 集群上進行訓練,以及數據孤島的聯邦學習。FedLLM 與 HuggingFace 和 DeepSpeed 等流行的 LLM 庫兼容,并旨在提高效率和安全 / 隱私。
對于特定的孤島式 GPU 集群,FedLLM 利用現有的開源 LLM 和流行框架進行本地訓練:
FedML 也給出了一個應用 FedLLM 的實例。如圖 3,本地數據保持在本地,只有模型參數或權重數據從中央服務器流向和流回。這個特殊的實例假設了一個聊天類型的應用,它結合了本地數據的訓練,以及中央服務器通過利用其他設備的訓練而建立的微調訓練的好處。聊天應用程序只是一個例子,可以被其他利用 LLM 模型的應用程序所取代。
圖 3. FedLLM 應用實例
FedLLM 從一定程度上能夠實現利用聯邦學習訓練 LLM。但是,回顧我們在第二章中討論的,利用聯邦學習架構訓練 LLM 還面臨很多問題,從公開的技術內容來看,FedLLM 并沒有能夠解決這些問題。FedLLM 架構中假設的計算節點都是具備一定計算能力的 GPU 節點,FedLLM 能夠解決的問題是 “不用大量購置 GPU”。但真實狀況下的聯邦學習,客戶端節點很多是手機、平板,FedLLM 并不能適配這些情況。同樣的問題也存在于客戶端節點數據量的情況,即 FedLLM 假設客戶端是足夠容納訓練本地 LLM 所需要的數據量的。最后,FedLLM 并沒有討論什么樣的聚合算法適合 FL for LLM,也沒有討論是否需要改進客戶端訓練 LLM 的算法,這對于真正推廣應用 FL+LLM 還是需要進一步細化解決的。
3.2 DeepSpeed:通過提高規模、速度、成本和可用性來推進大型模型訓練,釋放出訓練 1000 億個參數模型的能力
LLM 在訓練時往往需要大量內存來存儲中間激活、權重等參數,百億模型甚至無法在單個 GPU 上進行訓練,使得模型訓練在某些情況下非常低效和不可能。前期工作已經有研究人員專門聚焦在多節點分布式訓練問題中,主要采用數據并行(模型的不同實例在不同的 GPU 和不同批數據上運行)和模型并行(將模型拆分到多個 GPU 上進行訓練)兩種方式。
DeepSpeed 是微軟開發的一種深度學習訓練優化工具,旨在通過分布式訓練和混合精度技術來提高訓練速度和節省資源。它是一個開源的 Python 庫,可以在多個平臺上運行。與傳統的深度學習框架,例如 TensorFlow、Pytorch、Keras 等相比,DeepSpeed 通過將模型參數拆散分布到各個 GPU 上,以實現大模型的計算,使得可以用更少的 GPU 訓練更大的模型,而且不受限于顯存。
數據并行會在所有 worker 之間進行模型和優化器的復制,因此顯存效率不高。DeepSpeed 開發了 ZeRO ,它是一系列用于提高數據并行的顯存效率的優化器。針對模型并行,DeepSpeed 借用了英偉達的 Megatron-LM 來為基于 Transformer 的語言模型提供大規模模型并行功能。
具體來說,DeepSpeed (https://www.deepspeed.ai) 能夠通過一次點擊實現類似 ChatGPT 的模型訓練,與 SOTA RLHF 系統相比,提供了 15 倍的速度提升,并在所有規模上實現了前所未有的成本降低。DeepSpeed 有三個創新點:
具體來說,DeepSpeed Inference 的兩個核心組件介紹如下:
圖 4. DeepSpeed 壓縮庫
DeepSpeed Compression 提出了一個無縫 pipeline 來解決壓縮合成性的挑戰,如圖 4 所示。DeepSpeed Compression 的核心部分是一個叫做 compression composer 的組件,它包括幾個重要的功能:
1. 它提供了多種尖端的壓縮方法,包括極端量化、頭 / 行 / 通道修剪和知識提煉,可以有效地減少模型大小和推理成本。隨著不斷地整合更多的最先進的壓縮方法,這個列表還會擴大。
2. 它提供了一個易于使用的 API,自動處理組裝不同壓縮技術的復雜問題,以提供多種壓縮方法的復合效益。例如,XTC 需要組成輕量級的減層、二值化和知識蒸餾。然而,將它們組合在一起并不困難。有了 compression composer,應用極端壓縮就像添加兩個新的 API 調用來啟用壓縮和清理壓縮模型一樣簡單。
3. 它是以模塊化的方式設計的,這樣用戶就可以很容易地添加新的壓縮方案。例如,額外的壓縮方法可以通過自定義壓縮層添加,通過向 compression composer 注冊,新方法可以與已經由 composer 管理的現有方法組成。
4. 它與 DeepSpeed 庫無縫銜接。這有兩個好處。首先,DeepSpeed 壓縮可以通過 JSON 文件以與 DeepSpeed 訓練和推理相同的方式進行指定和啟用,其中啟用不同的壓縮技術組合只需要在 JSON 文件中修改幾行。其次,一旦配置了壓縮方案,壓縮 composer 就會自動修改模型層和訓練以啟用壓縮過程,不需要用戶對模型結構或訓練程序進行額外的修改。
3.3 相關算法基礎
為了應對 LLM 大規模預訓練的成本問題,從算法層面,研究人員提出了 LoRA( LOW-RANK ADAPTATION ),即大語言模型的低秩適應方法,一種輕量級訓練大語言模型的方法。通過凍結預訓練的模型權重,并將可訓練的秩分解矩陣注入到 Transformer 架構的每一層,極大地減少了下游任務的可訓練參數的數量,有效提升預訓練模型在下游任務上的 finetune 效率。
項目地址:https://github.com/microsoft/LoRA [6]
為解決微調大語言模型到不同領域和任務的挑戰,已有多種方案,比如部分微調、使用 adapters 和 prompting。但這些方法存在如下問題:
Lora 提出的思路是:雖然模型的參數眾多,但其實模型主要依賴低秩維度的內容 (low intrinsic dimension)。假設在適應過程中,權重的更新也具有較低的 "內在等級(intrinsic rank)"。對于一個預先訓練好的權重矩陣 W_0∈R^d×k,通過用低秩分解代表后者來約束其更新:
,
,
在訓練期間,凍結 W_0,不接受梯度更新,而 A 和 B 包含可訓練參數。W_0 和?W=BA 都與相同的輸入相乘,它們各自的輸出向量按坐標相加。對于 h=W_0x,修改后的正向傳遞得到了:
圖 5. Reparameterized 只訓練 A 和 B
如圖 5,對 A 使用隨機高斯初始化,對 B 使用零初始化,所以?W=BA 在訓練開始時是零。然后,用 α/r 來調整?Wx,其中 α 是 r 中的一個常數。當用 Adam 進行優化時,如果適當地調整初始化,那么調整 α 與調整學習率大致相同。因此,只需將 α 設置為嘗試的第一個 r,而不對其進行調整。這種比例有助于減少在改變 r 時重新調整超參數的需要。
圖 6. 常規微調和 LoRA 圖示
如圖 6,r 是超參數,指定用于自適應的低秩矩陣的秩。r 越小,低秩矩陣越簡單,在自適應過程中需要學習的參數越少,訓練就更快,計算需求會相應的減少。然而,r 變小的弊端是,低秩矩陣捕獲任務特定信息的能力降低。這可能導致較低的自適應質量,并且與較高的 r 相比,模型在新任務上可能表現不佳。總之,在 LoRA 中確定 r 的取值,需要在模型復雜性、自適應能力和擬合不足或擬合過度的風險之間進行權衡。因此,重要的是用不同的 r 值進行實驗,以找到正確的平衡,從而在新任務中滿足所需的性能。
矩陣秩 (r) 可以非常低,比如對于 GPT-3 175B 模型,rank-1 或 rank-2 就能基本對齊原始 rank-12288 的效果:
與 Adam 微調的 GPT-3 175B 相比,LoRA 可訓練參數數量減少了 1 萬倍,GPU 內存需求減少了 3 倍
在 RoBERTa、DeBERTa、GPT-2 和 GPT-3 等大語言模型上,LoRA 在模型質量方面的表現與微調相當或更好,盡管它具有更少的可訓練參數、更高的訓練吞吐量,并且與適配器不同,沒有額外的推斷延遲
3.4 相關硬件基礎
最后,我們來看看硬件方面的工作。
Grace Hopper 是第九代英偉達數據中心 GPU,與前幾代英偉達安培 GPU 相比,旨在為大規模 AI 和 HPC 應用提供數量級的改進。線程塊集群和線程塊重新配置改善了空間和時間上的數據定位,再加上新的異步執行引擎,使應用程序能夠始終保持所有單元的忙碌。NVIDIA Grace Hopper 通過 NVIDIA NVLink C2C 將 NVIDIA Grace CPU 和 NVIDIA Hopper GPU 融合到一個超級芯片中,NVLink C2C 是一個總帶寬為 900 GB/s 的芯片間互連。NVLink C2C 內存一致性使得 Grace CPU 超級芯片和 Grace Hopper 超級芯片都可以通過統一的編程模型進行編程。
圖 7. 英偉達 Grace Hopper 超級芯片邏輯概覽
2023 年 6 月,英偉達宣布其新的 GH200 Grace Hopper "超級芯片"— 專門為大規模人工智能應用創建的 CPU 和 GPU 組合 — 已經進入全面生產。它有 528 個 GPU 張量核心,支持高達 480GB 的 CPU 內存和 96GB 的 GPU 內存,并擁有高達 4TB / 秒的 GPU 內存帶寬。
圖 8. 英偉達的 GH200 "Grace Hopper"AI 超級芯片 [5]
GH200 以 "Hopper" 為基礎,與 Nvidia 的 "Grace"CPU 平臺(兩者均以計算機先驅 Grace Hopper 命名)相結合,通過 Nvidia 的 NVLink 芯片對芯片(C2C)互連技術將其納入一個芯片。Nvidia 預計,這一組合將極大地加速人工智能和機器學習應用的訓練(創建模型)和推理(運行模型)。
"生成式人工智能正在迅速改變企業,在醫療、金融、商業服務和更多行業釋放新的機會并加速發現,"Nvidia 加速計算副總裁 Ian Buck 在一份新聞稿中說。"隨著 Grace Hopper 超級芯片的全面生產,全球制造商將很快提供企業所需的加速基礎設施,以建立和部署利用其獨特的專有數據的生成式人工智能應用程序。" 據該公司稱,GH200 的主要特點包括一個新的 900GB/s 相干(共享)內存接口,比 PCIe Gen5 快 7 倍。GH200 還為 GPU 提供了 30 倍的系統內存總帶寬。此外,GH200 可以運行所有 Nvidia 軟件平臺,包括 Nvidia HPC SDK、Nvidia AI 和 Nvidia Omniverse。Nvidia 還宣布,它將把這種 CPU/GPU 組合芯片構建成一個新的超級計算機,稱為 DGX GH200,它可以利用 256 個 GH200 芯片的綜合能力,作為一個單一的 GPU 來執行,提供 1 exaflop 的性能和 144 兆字節的共享內存,比上一代 Nvidia DGX A100 的內存多近 500 倍。DGX GH200 將能夠為生成語言應用、推薦系統和數據分析訓練巨大的下一代人工智能模型。Nvidia 目前并未公開 DGX GH200 的售價,但如果根據去年出貨的 DGX H100 作為參考,一臺搭載 8 組 H100 GPU 的 8U GPU 服務器機柜約為 20 萬美元,考慮到 DGX GH200 擁有最多 256 個 Grace Hopper,其價格可能會高于這個范圍。根據 Anandtech 的報道,一臺 DGX GH200 計算機的價格 "很容易達到 8 位數(美元)的水平"。
由于 Nvidia 和 Cerebras 等供應商的持續硬件進步,高端云人工智能模型可能會隨著時間的推移繼續變得更有能力,處理更多的數據,并且比以前做得更快。根據內部測試,在處理需要大量內存的 AI 工作負載方面,DGX GH200 系統顯示出比 DGX H100 更好表現,平均可獲得 2-6 倍不等的性能提升,例如,在使用 1TB 的內存容量用于 GPT3 模型訓練時,DGX GH200 的處理速度快上 1 倍,若以 40TB 內存處理深度學習推薦模型(DLRM)時,速度則有多達 4 倍的提升,甚至在圖神經網絡處理方面速度更快上許多,足足有 5 倍之多。
單純從 GH200 的角度看,能夠在一定程度上支撐對 LLM 的分布式訓練,使 FL+LLM 變得更加可行。但是,回到文初我們的討論,FL 的初衷是利用大量分散的一般性設備分布式訓練一個中央模型,一方面可以有效利用分散的客戶端資源,另一方面也滿足各個客戶端的數據隱私需要。要求這些客戶端都裝有 GH200 顯然是不現實的,這樣的 GPU 的成本消耗與 FL 的初衷并不一致。
此外,也有一些研究人員認為 GH200 自身也不會對大模型的應用推廣有太大影響 [11]。他們分析,算力層面,單顆 GH 芯片和 H100 芯片 FP8 浮點算力沒有差異。內部測試中 GH200 更好的表現是由于其存儲。DGX GH200 內部 GPU 和 CPU 的連接方式與 DGX H100 不同,其高速觸達的存儲容量可以大幅提升。然而,集群性能的提升主要有算力本身、網絡、存儲三大要素。因此,傳統 GPT3、GPT4 等主流大模型下,DGX H100 集群(NVLink 聯網)與 DGX GH200 系統并不會有明顯差異。
關于 H100,已有報道分析了其大模型訓練的性能 [12]。兩項 MLPerf 基準評測的最新數據中,英偉達 H100 芯片組在人工智能算力表現的測試中,刷新了所有組別的紀錄,也是唯一一個能夠跑完所有測試的硬件平臺。英偉達和 GPU 云算力平臺 CoreWeave 提交的數據為這項測試設定了業界標準。在 896 個英特爾至強 8462Y + 處理器和 3584 個英偉達 H100 芯片的聯合作用下,僅僅花了 10.94 分鐘就完成了基于 GPT-3 的大語言模型訓練任務。在 BERT-Large 模型訓練中,H100 和 CoreWeave 將數據刷到了極端的 0.13 分鐘,在 64 卡的情況下,測試數據也達到了 0.89 分鐘。
4、后續發展討論
我們在這篇文章中討論了與 FL+LLM 相關的一些方法,包括算法方面的改進、硬件方面的研發,以及分布式訓練和聯邦學習的架構。其中,FedLLM 應當是最符合 FL+LLM 的一篇工作,盡管其距離實用、技術完備的 FL+LLM 還有很大差距。
DeepSpeed 是通過分布式訓練和混合精度技術來提高訓練速度和節省資源的模型訓練架構,其面向的是分布式訓練的應用場景,一般來說,分布式學習會將訓練數據均勻分布在不同節點,節點大多是專用機房中的計算節點,且節點通常處于統一地理位置,節點間通信條件較好。而對于 FL 來說,每個計算節點擁有的數據量與設備自身有關,很難保證不同計算節點擁有相近的數據量。此外,FL 的計算節點可能是手機、平板等,一般與中央服務器處于遠程連接狀態,連接穩定性和通信代價的情況都比較差。所以目前 DeepSpeed 的工作直接應用到 FL+LLM 中還有很大難度。
LoRA 是目前非常流行的微調方法,更多優秀的微調方法也在不斷提出。算法上的改進,給 FL 各個客戶端節點基于本地數據訓練模型帶來了可能。而硬件目前的發展我們在前面也討論過,硬件自身的性能在不斷提高,但對于 FL 這個應用場景來說,令手機、平板具備這樣的硬件條件難度非常大。
由對目前與 FL+LLM 相關的一些工作的分析,我們感覺聯邦學習支撐 LLM 還有很多需要解決的問題。包括 FedLLM,實際上也沒有談及如何應對存儲容量小、處理性能差、網絡條件不佳的客戶端設備,而這些,恰好是 FL 最典型的應用場景。我們期待有更多的研究人員可以關注 FL+LLM 問題,給出更多的技術細節和可落地的解決方案。
作者介紹
Jiying,工學博士,畢業于北京交通大學,曾分別于香港中文大學和香港科技大學擔任助理研究員和研究助理,現從事電子政務領域信息化新技術研究工作。主要研究方向為模式識別、計算機視覺,愛好科研,希望能保持學習、不斷進步。
參考引用的文獻:
[1] McMahan, Brendan, et al. "Communication-efficient learning of deep networks from decentralized data."Artificial intelligence and statistics. PMLR, 2017.
[2] Li, Tian, et al. "Federated optimization in heterogeneous networks."Proceedings of Machine learning and systems2 (2020): 429-450.
[3] Karimireddy, Sai Praneeth, et al. "Scaffold: Stochastic controlled averaging for federated learning."International Conference on Machine Learning. PMLR, 2020.
[4] Wang, Jianyu, et al. "Tackling the objective inconsistency problem in heterogeneous federated optimization."Advances in neural information processing systems 33 (2020): 7611-7623.
[5] https://arstechnica.com/information-technology/2023/06/nvidias-new-ai-superchip-combines-cpu-and-gpu-to-train-monster-ai-systems/
[6] LoRA: Low-Rank Adaptation of Large Language Models, https://arxiv.org/abs/2106.09685
[7] Releasing FedLLM: Build Your Own Large Language Models on Proprietary... (https://blog.fedml.ai/releasing-fedllm-build-your-own-large-language-models-on-proprietary-data-using-the-fedml-platform/)
[8] Wayne Xin Zhao, Kun Zhou, etc., A Survey of Large Language Models, https://arxiv.org/abs/2303.18223
[9] https://lifearchitect.ai/chinchilla/
[10] Samyam Rajbhandari, Jeff Rasley, etc., ZeRO: Memory Optimizations Toward Training Trillion Parameter Models, https://arxiv.org/pdf/1910.02054.pdf%22%20%5Ct%20%22_blank
[11] 國泰君安證券,研究報告《AI 超算渾然一體,光互聯地位顯著提升》
[12] 英偉達 H100 霸榜權威 AI 性能測試,11 分鐘搞定基于 GPT-3 的大模型訓練,https://m.cnbeta.com.tw/view/1367739.htm
源:駱十七(文/社長 )
嘖!時尚雜志都開始出2020年1月刊了,瞅瞅我倪妮姐《男人風尚》的開年刊,迷離神情加烈焰紅唇,每個細節都透露出想被保護的失落感,不知道一直說她man的陳坤哥,看到這組會不會心動?
這失落的眼神兒,楚楚可憐的表情,還有最致命,自帶風情的紅棕色嘴唇~我想要蹲一個色號和鏈接
哎!但是回神一想,不對啊!我才是給你們派鏈接的角色害!既然都年末了咱也很久沒搞搞口紅推薦了今兒個我們就來做個年末口紅盤點,說叨一下2019年的幾大網紅色號吧~
盤點分七個色系進行
發色濃郁的楓葉紅簡直是偷心盜賊
一到秋冬我就忍不住把包里的C位留給它們
而近年大火色,楓葉紅算是獨領風騷
每次一出新楓葉色,那必然是斷貨的節奏
最主要是這個色完全不挑皮
就連我家日日涂這個色號也是超級驚艷!
白黃黑皮都可,怪不得能火!
那楓葉紅色有那幾款是可圈可點的咧?
讓我們先從去年大火的雅詩蘭黛333講起
社長巴拉巴:年度斷貨王之一,無敵爆炸顯白的日雜楓葉色,薄涂元氣少女,厚涂氣質女王,膏體順滑且不干不卡~我尤為推薦給剛畢業開始工作的職業小菜鳥,這個色號很大氣,給人一種陽光中帶著沉穩的感覺,楓葉紅剛剛好,沒有正紅色那么傲嬌~
社長巴拉巴:TF每次出新都是搶錢要命,他家的口紅最大的優點就是潤!干唇星人必備!今年新出這只濃郁楓葉紅也不例外,紅棕啞光的質感,絲絨的觸感和順滑的膏體,李佳琦式OMG!速度掏錢結賬!
社長巴拉巴:雕家的740算是楓葉界屹立不倒的標桿了!漆光般的妝感,高級又滋潤,特別適合平時喜歡穿裙子的姐妹,因為這個色的棕色調稍少一些,給人多一點甜的感覺~全糖非冰的小可愛必備!
社長巴拉巴:N年窖藏小辣椒,這只算是魅可家最成功的色號吧,學生黨們第一支過百口紅大多也是這只!而且子彈頭都有一股巧克力味,讓人聞著,涂著都有一種幸福感~不過我推薦干唇姐妹選非啞光版本,不然你還得額外涂個潤唇膏才行!
社長巴拉巴:這款可以說是楓葉紅中超溫柔的顏色了!而且還帶著金色細閃,社長國慶那幾天去做人家伴娘就安排了這只,不奪彩不搶眼但很氣質的一款~適合安靜的美女子們!
楓葉紅總結!
番茄紅和楓葉紅其實有點像
但是番茄紅比較活力,帶了一絲橘意
而楓葉紅更顯成熟,稍微有點紅棕調
番茄紅是口紅界的元氣代表,非常適合學生黨!
而且黃皮都超可!
社長巴拉巴:阿瑪尼405是一顆響當當蒸不爛的爛番茄,番茄界大哥大,一秒黃皮變白皮,滋潤不干,濃郁顯色,沒有任何缺點的元氣色,平時素顏也超級可!非常適合熬夜后上早課的姐妹們提精神!
社長巴拉巴:這款番茄色的橘調感較重,更適合黃皮的姐妹們!而且這款的滋潤程度堪稱唇釉~但又很快成膜,很適合秋冬!最最絕的是,蘭蔻膏體的華麗寶石切面,質感好到不舍得涂!拿在手上仿佛自己是公主!
社長巴拉巴:雕的番茄色真是萬人pick的網紅色,該死的散發魅力的小妖精!這款的顏色更偏向于橘調,相對更顯白一些,但對唇色偏深的姐妹不是很友好,涂完會有些差異感!
社長巴拉巴:社長真是吹爆植村秀家的口紅,簡直就是潤唇膏!完全不用擔心拔干!這稚嫩小番茄色,給人一種學妹感,讓人心生保護欲!
番茄紅總結
奶茶色到底是啥色?
說白了就是大地色倒一點粉
再加一點水勾兌變淡
就是一抹暖融融的珍珠奶茶色了
這色超級溫柔,很多韓國的網紅都超級pick
而且這個色冬天涂真的好看到爆!
社長巴拉巴:焦糖布丁奶茶的感覺,較明顯的棕調,讓它看起來很好吃,一點點的肉桂色,讓它有一種溫柔得不行的氣質…白皮姐妹真的必須入一只!不然太浪費你的膚色了!
社長巴拉巴:天哪!這只真的是太水太嫩太顯仙氣了!仙女色完全沒毛病!缺點就是賊挑皮!高貴的白皮姐妹們請立馬安排!你和仙女就只有這一只口紅的距離!
社長巴拉巴:香煎奶茶的感覺,比咱上一款更偏向于大地色!這款推薦沒啥唇紋的姐妹入,絕美絕氣質!
社長巴拉巴:摩卡奶茶,這款比上邊的奶茶色更適合黃皮膚入!而且非常適合畫歐美妝的黃皮膚姐妹!涂上它你就是芭比本芭!
奶茶色總結
大部分豆沙色其實都是,豆沙+玫瑰,溫溫柔柔的灰調玫粉色,豆沙色算是白皮妹子的獨家驚喜了
,也不是說黃皮涂不好看,但比白皮少些驚艷感,是真的,不黑不吹
社長巴拉巴:長相偏甜美的姐妹,這款是你的本命色!也是你們的優越感!因為黃皮+中性臉真的涂不太出它的仙女感(我哭了)
社長巴拉巴:雅詩蘭黛的這款是豆沙色中的扛把子,薄涂溫柔淡粉色,厚涂純正豆沙色,由于紅色調偏多一些更顯白一些,所以稍微黃皮的姐妹完全可以嘗試!超顯氣色!涂回家見親戚絕對會被夸!
社長巴拉巴:TF新色白管04,我真的和它鎖死好嗎!剛說的豆沙色不適合黃皮,在這里統統作廢!這款超級顯白不說,還很日常!素顏都可!日雜風的豆沙色春夏秋冬四季皆宜!
豆沙色總結
講完粉粉的棕棕的,再來講講純正的紅色調吧!櫻桃紅算是貴婦正紅色的女兒,比正紅色多了一些稚嫩感,適合年輕活躍的00后臭妹妹們
社長巴拉巴:Dior的漆光唇釉是灰粽調櫻桃紅,一顆冰凍車厘子,有種水晶的冰透感,成膜速度hin快,全膚色可駕馭!
社長巴拉巴:今年王炸櫻桃紅!!鮮嫩多汁清甜誘人,膏體帶一點金閃,上唇特別剔透,發色又濃郁,而且順滑滋潤還好涂,各方面全超一流!!
社長巴拉巴:無人能擋的飽滿多汁熟櫻桃,我真的愛慘了它,成膜速度敲快!過年涂這個紅色真的顯洋氣~回老家戴它一只就夠了!啥穿搭都能hold住!
櫻桃紅總結
吃土色其實就是
巧克力加灰粽調
今年尤為流行好吧!博主們人手一只
而且還有專門為了配合它而創作出來的妝容~
上嘴超級高級,黃黑皮都完全可!
尤其是喜歡歐美風的姐妹,我不用推薦你買
因為我相信你一定早就有了~
社長巴拉巴:這支全場最便宜,但是顏色卻超正的~以前3ce就是做吃土色火的嘛,但個人社長覺得3ce的顏色太艷麗了,不夠日常~這只的色調就剛剛好!
社長巴拉巴:這色說難駕馭吧,也不難駕馭!適合畫歐美妝的姐妹,那種囂張跋扈的大女人穿搭也很適合這款色!
社長巴拉巴:這款其實偏向于紅棕色,特別復古!這款比其他兩個色都日常了許多!走港風復古風的姐妹可以試試!我是黃黑皮我涂著超級可!顏色超級高級!誰買誰知道!
吃土色總結
比較搞人心態的顏色
一般涂這個sai
其他人就默認你黑化了哈哈哈
這種中毒梅子色比較適合去蹦迪涂
保證沒人敢拐你
社長巴拉巴:濃郁深紅酒,氣場全開霧面色,確認過顏色!是我惹不起的人,這顏色是可以去見前男友的顏色,還適合討債!
社長巴拉巴:這款絕對是高能色!涂了它你像一個女企業家,隨便揮揮手就是幾千萬的生意,而且還很適合畫暗黑妝!適合喜歡穿機能風的姐妹!嘖嘖!酷到飛起!
社長巴拉巴:這款稍微日常一些,適合平時穿西裝,職業裝比較多的姐妹!而且啞光持久!不怎么粘杯!適合出差時攜帶!不用經常補口紅~
姨媽色總結