.MBR/GPT分區怎么選?
新購買的固態硬盤是沒有分區的,當首次打開Windows磁盤管理時會彈出對話框要求初始化磁盤,分區形式會有MBR和GPT兩種選擇,該選哪個好呢?
MBR與GPT只是分區表的差異,不影響性能。MBR分區格式比較傳統,對于各種操作系統的兼容性較好,而更新的GPT分區格式能夠支持大于3TB的硬盤以及更多的邏輯分區,但是GPT只能與64位操作系統一起使用,并且僅適用于UEFI引導。
對于固態硬盤來說,沒有特殊要求的話兩種分區格式是可以自由選擇的。不過如果在Windows 10系統安裝過程中初始化建立分區,默認會自動選擇GPT格式。除非你需要使用一些較老的系統或硬盤底層軟件,否則GPT是未來的更好選擇。
2.UEFI可以加快系統啟動速度嗎?
很多人都聽說過UEFI開機速度更快的說法,理論上UEFI的確對加快開機速度有幫助,但最好同時在主板BIOS設置中關閉CSM,這樣才能實現啟動速度最大化。如下圖所示,將CSM Support從默認Enabled改為Disabled。
UEFI是用以取代傳統BIOS的新型“固件”,用高級C語言編寫,用驅動協議取代硬件中斷/端口,效率更高安全性更強。不過為了保持與一些老硬件的兼容性,多數DIY組裝機的主板BIOS設置都默認開啟了Compatibility Support Module(CSM兼容性支持模塊),這會拖累UEFI的高效能優勢。反觀近幾年的品牌機基本都已經默認禁用CSM。
如果你希望自己的電腦在安裝固態硬盤之后能取得更快的開機速度,不妨嘗試關閉CSM Support,用UEFI模式搭配GPT分區格式重新安裝系統。
3.固態硬盤的健康度和使用壽命
固態硬盤的使用壽命主要由閃存寫入耐久度決定。使用東芝64層3D閃存的TR200相比過去的平面2D閃存固態硬盤具備更強的耐用度。根據容量的不同,TR200最高可提供240TBW寫入量,相當于每天可寫入219GB,是多數家庭用戶日寫入量的5到10倍以上。
不同廠商對固態硬盤健康度的計算方式不同。有些是基于剩余備用塊占出廠總備用塊的百分比顯示,這樣的計算方式在固態硬盤壽命末期健康度會快速下降甚至突然降至零。而東芝的耐久度標準是嚴格按照JESD218A行業標準計算,根據已產生主機寫入量除以標稱耐久度來實時展示健康度數值,顯示更為直觀。
需要說明的是,固態硬盤標稱壽命與實際壽命并不能劃等號。經過嚴格認證的原廠固態硬盤在使用耐久度上都留有較大余量,即便健康度降至零依然可以使用。但建議用戶在合適的時候考慮更換升級。未來新產品將可提供更佳性能以及更大的存儲容量。
4.為什么固態硬盤容量比預計的要少?
固態硬盤的容量是由閃存規格決定的,東芝TR200固態硬盤使用的64層BiCS3閃存,每個存儲單元可以記憶3比特數據,但除了用戶存儲空間之外,閃存還需保留用于糾錯及性能優化、壞塊替換的備用區域,綜合以上影響之后,單顆閃存晶粒的容量大都以2的N次冪出現。例如東芝BiCS3閃存的單die容量為256Gb或512Gb。
在全部閃存容量之中,固態硬盤主控需要保留部分空間用于優化磨損均衡、垃圾回收以及寫入性能,綜合以上因素影響之后,固態硬盤的容量基本會以240G、480G、960GB出現在大家面前。
由于進制轉換原因(制造商以1000進制標注,而操作系統以1024進制計算),顯示在系統當中的可用容量還會略低一些,這部分空間其實也體現在固態硬盤保留容量當中了。所有保留容量都會參與閃存的磨損均衡并被充分利用。
另外UEFI模式安裝的系統,硬盤中會有不顯示的隱藏分區,所以C盤容量可能會比以上計算出來的數值再少500MB左右,這部分隱藏分區在東芝SSD Utility工具箱中將顯示為“未分配的”。
5.怎樣才能讓固態硬盤更長壽?
要讓固態硬盤長壽并不是要減少使用,而是盡量減少異常斷電。異常斷電是消費級固態硬盤故障的主要誘因之一,東芝在固件研發中已經針對異常掉電做了大量保護策略,但減少異常斷電依然對固態硬盤長期穩定運行以及用戶數據安全具有很大意義。通過東芝SSD Utility工具箱軟件,大家可以了解到最近發生的異常斷電和異常溫度等警告信息,幫助大家養成良好的使用習慣,使固態硬盤更加穩定和長壽。
機器之心報道
機器之心編輯部
今天凌晨,微軟公司召開最新一場 Ignite 大會,CEO 薩提亞?納德拉在大會上介紹了 100 多項產品和技術的發布與更新,涉及范圍非常廣泛,包括應用、生產力以及安全性等多個方面。
Microsoft Ignite 是該公司為開發人員和 IT 專業人士舉辦的年度會議,而生成式 AI 的一切無疑是本年度的最大熱點。不出意外,在本次大會上,我們看到了來自 Bing Chat、專用 AI 芯片、Windows、Microsoft 365 和 Azure 等業務的最新動態。
大會現場還請來了英偉達創始人黃仁勛,之后微軟會將 AMD 、英偉達最新的處理器納入 Azure 云服務。
大會有哪些值得關注的亮點,我們繼續往下看。
Bing Chat 更名為「Copilot」
GPT-4 、DALL?E 3、GPTs 免費用
大會上,微軟宣布了將 Bing Chat 和 Bing Chat Enterprise 全部更名為「Copilot」。
品牌重塑的動作意味著 Copilot 正在變成更獨立的一種體驗,用戶無需先導航到 Bing 即可訪問。Copilot 的免費版本仍然可以在 Bing 和 Windows 中訪問,但也會擁有專用域名「copilot.microsoft.com」。
在此之前,在微軟內部有十幾種產品共享「Copilot」這一品牌,一度讓人感到迷茫。該品牌標識始于 2021 年的 GitHub Copilot,今年 微軟又推出 Dynamics 365 Copilot、Windows 中的 Copilot、Microsoft Security Copilot 和 Microsoft 365 Copilot,似乎每一項業務都有自己的「Copilot」。
至于為什么要在這個 Copilot 矩陣中再加兩名成員,微軟解釋說是希望為消費者和企業客戶創造統一的 Copilot 體驗。
所以現在,Bing Chat 變成了微軟的第六個「Copilot」,但也可以理解為最通用的一個 Copilot。
今后,Bing 將是為其提供支持的一部分。此外,Copilot 基于最新的 OpenAI 模型,包括 GPT-4 和 DALL?E 3,在統一的體驗中提供文本和圖像生成功能。
但也有可能是,Bing Chat 并沒有為 Bing 本身帶來太多收益,因此微軟希望將這一產品從搜索引擎中剝離出來。
此時剝離是一件有趣的事情,因為微軟曾經投入了大量精力在自家的搜索引擎中推出 AI 產品,并將其視為從谷歌手中搶奪市場份額的一種方式。就比如今年初,微軟 CEO 納德拉曾稱「谷歌是搜索領域 800 磅重的大猩猩」,而微軟會讓它「跳舞」。
但后來的谷歌并沒有像微軟那樣急于將生成式 AI 產品整合到其搜索結果中。從目前來看,這種「不變」沒有帶來什么壞影響:根據 StatCounter 的數據,在 Bing Chat 推出近 10 個月后,Google 搜索引擎的市場份額仍然超過 91% 。
微軟特別提到,從 12 月 1 日起,使用 Microsoft Entra ID 登錄時,在 Bing、Edge 和 Windows 中使用 Copilot 的客戶將享受商業數據保護功能。Copilot 不會保存用戶使用過程中的 prompt 和回復,微軟無法直接訪問,也不會將其用于訓練底層模型。
此外,微軟還推出了另外一些「Copilot」:Microsoft Copilot Studio、Copilot for Azure、Copilot for Service 和 Copilot in Dynamics 365 Guides。
其中,Microsoft Copilot Studio 這一產品對標的是上周 OpenAI 推出的 GPTs,這個新平臺提供將微軟所發布 AI 應用與第三方數據連接起來的工具,同樣可以讓企業創建自定義 Copilot 或集成自定義 ChatGPT AI 聊天機器人。該產品已向現有 Copilot for Microsoft 365 訂閱者提供公測版本。
借助基于 Web 的 Copilot Studio,企業可以讓 Copilot for Microsoft 365 和 Copilot for Service 訪問其 CRM、企業資源管理系統和其他數據庫中的數據,使用預構建的連接器或它自己構建的連接器進行數據存儲。
「作為 OpenAI 和 Microsoft 戰略合作伙伴關系的一部分,我們可以輕松地將 OpenAI 的服務無縫集成到 Microsoft 現有的生態系統中,」微軟副總裁 Jared Spataro 說道。
首款 5nm AI 芯片
面向 LLM 訓練和推理
在將 Bing Chat 更名 Copilot 之外,微軟備受觀眾的自研芯片也終于露出廬山真面目了。
微軟發布了兩款為其云基礎設施設計的高端定制芯片,分別是 Azure Maia 100 AI 芯片和 Cobalt 100 CPU。這兩款芯片均由微軟內部構建,并面向整個云服務器堆棧進行了深度改造以優化性能、功耗和成本,預計將于 2024 年推出。
先看 Maia 100,這是微軟首個定制的內部 AI 加速器系列的首款產品,以一顆明亮的藍星命名,專為運行和優化云 AI 工作負載而設計,例如 GPT 3.5 Turbo 和 GPT-4 等大型語言模型的訓練和推理。
Maia 100 將為微軟 Azure 上最大的 AI 工作負載提供支持,包括為 OpenAI 所有工作負載提供支持的部分。微軟表示其在 Maia 的設計和測試階段一直與 OpenAI 展開合作。
在具體規格上,Maia 100 采用臺積電 5nm 制程工藝,擁有 1050 億個晶體管,只比 AMD MI300 AI GPU 芯片的 1530 億晶體管少了約 30%。Maia 100 首次支持實現 8-bit 以下的數據類型(MX 數據類型),以便共同設計軟硬件。這有助于支持更快的模型訓練和推理時間。
納德拉展示 Maia 100 的服務器機架和冷卻系統
Cobalt 100 以藍色顏料命名,是一款 128 核芯片,基于 Arm Neoverse CSS 設計構建,為微軟定制。Cobalt 100 旨在為微軟 Azure 上的通用云服務提供支持。關于這款芯片,微軟不僅保證它具有高性能,還特別注意電源管理。同時在芯片設計時有意控制每個核心以及每個虛擬機的性能和功耗。
微軟目前正在 Microsoft Teams 和 SQL Server 等工作負載上測試 Cobalt 100,并計劃明年為客戶提供虛擬機以處理各種工作負載。與微軟 Azure 目前使用的 Arm 服務器相比,Cobalt 100 有一些明顯的性能提升。
微軟初步測試表明,Cobalt 100 的性能比目前使用商用 Arm 服務器的數據中心的性能提升了 40%。不過微軟沒有透露完整的系統規格或基準測試。
用于測試微軟 Azure Cobalt 片上系統的探針臺
不過,微軟也表示,Maia 100 和 Cobalt 100 兩者都將優先滿足自用,支持自己的 Azure 云服務。
Phi-2 模型發布
在 Azure AI 服務中可以使用
微軟宣布新的 Phi-2 模型將完全開源,該模型具有 27 億參數,與 Phi-1-5 相比,其推理能力和安全措施有了顯著提高,但與業內其他 Transformer 相比,它仍然相對較小。
Phi-2 更加穩健,數學推理能力提高了 50%,不僅如此,在其他任務上的推理能力提高也非常大,微調起來很方便。現在可以在 Azure AI 服務中使用。
今年 6 月,微軟在一篇題為《Textbooks Are All You Need》的論文中,用規模僅為 7B token 的「教科書質量」數據訓練了一個 1.3B 參數的模型 ——phi-1。盡管在數據集和模型大小方面比競品模型小幾個數量級,但 phi-1 在 HumanEval 的 pass@1 上達到了 50.6% 的準確率,在 MBPP 上達到了 55.5%。phi-1 證明高質量的「小數據」能夠讓模型具備良好的性能。
隨后,今年 9 月,微軟又發表了論文《Textbooks Are All You Need II: phi-1.5 technical report》,對高質量「小數據」的潛力做了進一步研究。文中提出了 Phi-1.5,參數 13 億,適用于 QA 問答、代碼等場景。
直到今天,Phi-2 正式發布,可以看出微軟對模型的更新迭代速度還是非常快的。
前面我們已經提到 Phi-2 在 Azure AI 服務中可用。不僅如此,OpenAI 的語音識別模型 Whisper-Large-V3 ;Salesforce 的能夠執行各種多模態任務的 BLIP 系列模型;OpenAI 的 CLIP 系列模型;Meta 的 Code Llama、SAM ;阿布扎比技術創新研究所(TII)開發的大型開源語言模型 Falcon;Stability AI 的 Stable Diffusion 等新模型都已經被收錄進來。
參考鏈接:
https://www.theverge.com/2023/11/15/23960345/microsoft-cpu-gpu-ai-chips-azure-maia-cobalt-specifications-cloud-infrastructure
https://www.youtube.com/watch?v=wBdS3omKlqU