羊 豐色 發自 凹非寺
量子位 | 公眾號 QbitAI
一個小小字符“0”,竟引得B站全面崩潰。
不知你是否還記得那一夜,B站“大樓停電”、“服務器爆炸”、“程序員刪庫跑路”的徹夜狂歡。(手動狗頭)
時隔一年,背后“真兇”現在終于被阿B披露出來——
沒想到吧,就是這么簡單幾行代碼,直接干趴B站兩三個小時,搞得B站程序員徹夜無眠頭發狂掉。
你可能會問,這不就是個普普通通用來求最大公約數的函數嗎,怎么就有如此大的威力?
背后一樁樁一件件,歸根結底其實就一句話:0,它真的不興除啊。
具體詳情,咱們還是一起來看看“事故報告”。
先來說道說道引發慘案的根本原因,也就是開頭貼出的這個gcd函數。
學過一點編程知識的小伙伴應該都知道,這是一種用輾轉相除法來計算最大公約數的遞歸函數。
跟我們手算最大公約數的方法不同,這個算法是醬嬸的:
舉個簡單的例子,a=24,b=18,求a和b的最大公約數;
a除以b,得到的余數是6,那么就讓a=18,b=6,然后接著往下算;
18除以6,這回余數是0,那么6也就是24和18的最大公約數了。
也就是說,a和b反復相除取余數,直到b=0,函數中:
if b==0 then return a end
這個判斷語句生效,結果就算出來了。
基于這樣的數學原理,我們再來看這段代碼,似乎沒什么問題:
但如果輸入的b是個字符串“0”呢?
B站的技術解析文章中提到,這段出事的代碼是用Lua寫的。Lua具有這么幾個特點:
我們來模擬一下這個過程:
1、當b是一個字符串“0”時,由于這個gcd函數沒有對其進行類型校驗,因此在碰上判定語句時,“0”不等于0,代碼中“return _gcd(b, a%b)”觸發,返回_gcd(“0”, nan)。
2、_gcd(“0”, nan)再次被執行,于是返回值變成了_gcd(nan, nan)。
這下就完犢子了,判定語句中b=0的條件永遠沒法達到,于是,死循環出現了。
也就是說,這個程序開始瘋狂地原地轉圈,并且為了一個永遠得不到的結果,把CPU占了個100%,別的用戶請求自然就處理不了了。
那么問題來了,這個“0”它到底是怎么進去的呢?
官方說法是:
在某種發布模式中,應用的實例權重會短暫地調整為0,此時注冊中心返回給SLB(負載均衡)的權重是字符串類型的“0”。此發布環境只有生產環境會用到,同時使用的頻率極低,在SLB前期灰度過程中未觸發此問題。
SLB在balance_by_lua階段,會將共享內存中保存的服務IP、Port、Weight作為參數傳給lua-resty-balancer模塊用于選擇upstream server,在節點weight=“0”時,balancer模塊中的_gcd函數收到的入參b可能為“0”。
以“事后諸葛亮”的視角來看,這個引發B站全面崩潰的根本原因多少有點讓人直呼“就這”。
但從當事程序員的視角來看,事情確實沒有辣么簡單。
當天晚上22:52分——大部分程序員才剛下班或者還沒下班的節骨眼(doge),B站運維收到服務不可用的報警,第一時間懷疑機房、網絡、四層LB、七層SLB等基礎設施出現問題。
然后立馬和相關技術人員拉了個緊急語音會議開始處理。
5分鐘后,運維發現承載全部在線業務的主機房七層SLB的CPU占用率達到了100%,無法處理用戶請求,排除其他設施后,鎖定故障為該層。
(七層SLB是指基于URL等應用層信息的負載均衡。負載均衡通過算法把客戶請求分配到服務器集群,從而減少服務器壓力。)
萬般緊急之時,小插曲還現了:遠程在家的程序員登上VPN卻沒法進入內網,只好又去call了一遍內網負責人,走了個綠色通道才全部上線(因為其中一個域名是由故障的SLB代理的)。
此時已經過去了25分鐘,搶修正式開始。
首先,運維先熱重啟了一遍SLB,未恢復;然后嘗試拒絕用戶流量冷重啟SLB,CPU依然100%,還是未恢復。
接著,運維發現多活機房SLB請求大量超時,但CPU未過載,正準備重啟多活機房SLB時,內部群反應主站服務已恢復,視頻播放、推薦、評論、動態等功能已基本正常。
此時是23點23分,距離事故發生31分鐘。
值得一提的是,這些功能恢復其實是事發之時被網友們吐槽的“高可用容災架構”發揮了作用。
至于這道防線為啥一開始沒發揮作用,里頭可能還有你我一點鍋。
簡單來說,就是大家伙點不開B站就開始瘋狂刷新,CDN流量回源重試 + 用戶重試,直接讓B站流量突增4倍以上,連接數突增100倍到千萬級別,多活SLB就給整過載了。
不過,并不是所有服務都搞了多活架構,至此事情并沒完全解決。
接下來的半個小時里,大家做了很多操作,回滾了最近兩周左右上線的Lua代碼,都沒把剩余的服務恢復。
時間來到了12點,沒有辦法了,“先不管bug是怎么出來的,把服務全恢復了再說”。
簡單+粗暴:運維直接耗時一小時重建了一組全新的SLB集群。
凌晨1點,新集群終于建好:
一邊,有人負責陸續將直播、電商、漫畫、支付等核心業務流量切換到新集群,恢復全部服務(凌晨1點50分全部搞定,暫時結束了崩了逼近3個小時的事故);
另一邊,繼續分析bug原因。
在他們用分析工具跑出一份詳細的火焰圖數據后,那個搞事的“0”才終于露出了一點端倪:
CPU熱點明顯集中在一個對lua-resty-balancer模塊的調用中。而該模塊的_gcd函數在某次執行后返回了一個預期外的值:NaN。
同時,他們也發現了觸發誘因的條件:某個容器IP的weight=0。
他們懷疑是該函數觸發了jit編譯器的某個bug,運行出錯陷入死循環導致SLB CPU 100%。
于是就全局關閉了jit編譯,暫時規避了風險。一切都解決完后,已經快4點,大家終于暫時睡了個好覺。
第二天大家也沒閑著,馬不停蹄地在線下環境復現了bug后,發現并不是jit編譯器的問題,而是服務的某種特殊發布模式會出現容器實例權重為0的情況,而這個0是個字符串形式。
正如前面所說,這個字符串“0”在動態語言Lua中的算術操作中,被轉成了數字,走到了不該走的分支,造成了死循環,引發了b站此次前所未見的大崩潰事件。
不少網友都還對這次事故記憶猶新,有回想起自己就是以為手機不行換電腦也不行的,也有人還記得當時5分鐘后此事就上了熱搜。
大家都很詫異,就這么一個簡單的死循環就能造成如此大的網站崩服。
不過,有人指出,死循環不罕見,罕見的是在SLB層、在分發過程出問題,它還不像在后臺出問題很快能重啟解決。
為了避免這種情況發生, 有人認為要慎用遞歸,硬要用還是設置一個計數器,達到一個業務不太可能達到的值后直接return掉。
還有人認為這不怪遞歸,主要還是弱類型語言的鍋。
以此還導致了“詭計多端的‘0’”這一打趣的說法。
另外,由于事故實在是耽誤了太久、太多事兒,當時B站給所有用戶補了一天大會員。
有人就在此算了一筆賬,稱就是這7行代碼,讓b站老板一下虧了大約1,5750,0000元。(手動狗頭)
對于這個bug,你有什么想吐槽的?
參考鏈接:
[1]《2021.07.13 我們是這樣崩的》by 嗶哩嗶哩技術
https://mp.weixin.qq.com/s/nGtC5lBX_Iaj57HIdXq3Qg
— 完 —
量子位 QbitAI · 頭條號簽約
關注我們,第一時間獲知前沿科技動態
還記得那則關于舊電腦因缺少 POPCNT 指令集而無法運行最新 Windows 11 版本的新聞嗎?事實證明,問題不僅僅是在古老的硬件上安裝最新的操作系統。由于不支持 NVIDIA 圖形驅動程序,使用舊處理器的 Windows 10 用戶現在可能會陷入藍屏死循環。
大約一個月前,NVIDIA 發布了一篇知識庫文章,內容是關于其驅動程序對不含 POPCNT 指令集的舊電腦的支持終止。這不僅僅是一種任意的不支持狀態:在裝有受支持的 NVIDIA GPU 和不受支持的處理器的系統上安裝驅動程序 555 或更新版本,會導致整個系統崩潰,出現 BSOD,錯誤代碼為 SYSTEM THREAD EXCEPTION NOT HANDLED。
從 555 版開始,NVIDIA顯示驅動程序將不再支持不支持 POPCNT(填充計數)指令的舊版 CPU。雖然微軟的 Windows 10/Windows 11 正式版已經不支持這些 CPU,但如果用戶的電腦使用了不支持的 CPU,并試圖安裝 R555+ 顯示驅動程序,那么電腦在啟動 Windows 時就會出現BSOD藍屏。
如果 Windows 10 用戶的系統使用的是仍然支持顯卡(如 GTX 750 Ti 及更新版本)的舊處理器,他們可能需要調整 Windows Update 設置,以防止操作系統自動下載 555 或更新版本的驅動程序。
不過,使用仍然支持 NVIDIA 顯卡的酷睿 2 Duo 系統的 Windows 用戶可能并不多,因此這則新聞不太可能在 Windows 用戶中引起太大反響。不過,如果你的裝有 GTX 750 Ti 或 GTX 950 的 SSE4.2 之前的舊系統在更新顯卡驅動程序后無法啟動,那么現在已經知道原因了。
要檢查您的 PC 是否支持 POPCNT 指令:
1.從微軟網站下載實用程序Coreinfo:
https://learn.microsoft.com/en-us/sysinternals/downloads/coreinfo
2.解壓 Coreinfo 壓縮文件內容。
3.在提取的文件夾中,右鍵單擊并選擇在終端中打開
4.此時會出現一個終端窗口,鍵入如下截圖所示的命令,然后按ENTER 鍵:
.\coreinfo64 -f
5.如果這是第一次啟動 Coreinfo,則會出現許可協議。 同意后繼續。
6.電腦支持的 CPU 指令集將被列出,請查找 POPCNT 以確認 CPU 是否支持該指令集。
存溢出(OOM)是線上經常面臨的問題,也是大廠面試經常考察的內容,下面我就全面來詳解內存溢出(OOM)的原因及解決方案@mikechen
本篇已收于mikechen原創超30萬字《阿里架構師進階專題合集》里面。