操屁眼的视频在线免费看,日本在线综合一区二区,久久在线观看免费视频,欧美日韩精品久久综

新聞資訊

    :本文轉載自微信號:iProgrammer

    2013 年 10 月,我們在微博(@程序員的那些事 )發過一張信息圖《知名軟件系統代碼庫對比》。

    信息圖中提到,Windows XP 和 Windows 7 操作系統的代碼量約 4 千萬行級別。



    (信息圖部分截圖,完整版在這里:http://t.cn/EXMs07e )

    Windows Vista 源碼體量約 5 千萬行。



    所以,Windows 10 源碼體量至少在 5 千萬行咯。

    Windows 操作系統是用什么編程語言開發的?

    Windows 操作系統這么個量級的代碼庫,用了哪些/哪種編程語言,肯定有人好奇。

    這不,就有人在 Quora 發帖問《開發 Windows 10 用了哪種編程語言?》

    2019 年 3 月,微軟內核工程師 Axel Rietschin 在 Quora 上回復了這個帖子。



    「程序員的那些事」摘編如下:

    Axel 說,Windows 10 和 Windows 8.x、7、Vista、XP、2000 和 NT 有著相同的代碼庫,每一代操作系統都經歷了重大的重構,添加了大量的新特性,改進了性能、硬件支持和安全性,同時保持了非常高的向后兼容性。

    內核(ntoskrnl.exe)大部分是用 C 語言編寫的。在 Github 可以找到 Windows Research Kernel 的泄露版。



    有興趣的童鞋可以看看:github.com/markjandrews/wrk-v1.2

    Axel 表示,雖然 WRK 代碼已經過時了,而且很大程度上還不完整,但那些代碼應該會給大家一些深刻的見解。

    比如:wrk-v1.2/base/ntos/config 目錄下是大家熟知的注冊表(Registry)的源碼,這個內核組件就是配置管理器(configuration manager,CM)。

    在內核模式下運行的大多數程序,也是用 C 語言編寫的(大多數文件系統、網絡、大多數驅動程序……),還有一些 C++。

    至于 Window 10 是用什么編程語言寫的,Axel 認為是 C 和 C++,并且 C 占了絕大部分。

    .NET BCL 和其他托管庫及框架通常都是用 C# 編寫的,來自不同的部門(開發者部門),并且也不屬于 Windows 源代碼樹。相比散落著 C++ 島嶼的 C 代碼海洋,C# 寫的代碼簡直就是滄海一粟。

    Windows 真的真的真的真的真的很大

    Axel 提示大家,大多數人沒有意識到 Windows 系統的龐大,真一個具有史詩規模的巨大項目。

    Windows 的完整源代碼樹(包括全部代碼、測試代碼等)的大小超過 0.5 TB,涉及 56 多萬個文件夾,400 多萬個文件。

    你可以花一年時間深入源代碼樹,鉆入到那些文件中。它們包括了所有組成 OS 工作站和服務器產品,及其所有版本,工具,相關的開發包。

    然后你再讀文件名,看看里面有什么,它們是用來做什么的。想做完這些事,一個人(或兩個人)恐怕要窮盡一生咯。

    有一次 Axel 離開 Git 分支幾周,他回來時發現落后了近 6 萬次提交。Axel 想有人會說,沒人可以每天把添加到 Windows 的所有代碼都看完,更不用說去讀過去 30 年來編寫的代碼了!

    試用了幾款LLM加速/服務化軟件,非常喜歡ollama,速度快、操作簡潔。看推介的Open-WebUI(原Ollama_WebUI)配合ollama服務,效果不錯。于是就像裝一個。

    網址:GitHub - open-webui/open-webui: User-friendly WebUI for LLMs (Formerly Ollama WebUI)

    添加圖片注釋,不超過 140 字(可選)

    介紹

    它的特點?

    • ?直觀的界面:聊天界面從 ChatGPT 中汲取靈感,確保用戶友好的體驗。
    • 響應式設計:在桌面和移動設備上享受無縫體驗。
    • ?快速響應:享受快速響應的性能。
    • 輕松設置:使用 Docker 或 Kubernetes(kubectl、kustomize 或 helm)無縫安裝,以獲得無憂體驗。
    • 代碼語法突出顯示:通過我們的語法突出顯示功能增強代碼的可讀性。
    • ??完整的 Markdown 和 LaTeX 支持:通過全面的 Markdown 和 LaTeX 功能來豐富交互,提升您的 LLM 體驗。
    • 本地 RAG 集成:通過突破性的檢索增強生成 (RAG) 支持深入了解聊天交互的未來。此功能將文檔交互無縫集成到您的聊天體驗中。您可以將文檔直接加載到聊天中或將文件添加到文檔庫中,使用#提示中的命令輕松訪問它們。在 alpha 階段,當我們積極完善和增強此功能以確保最佳性能和可靠性時,可能會偶爾出現問題。
    • 網頁瀏覽功能#:使用URL 后的命令將網站無縫集成到您的聊天體驗中。此功能允許您將網絡內容直接合并到您的對話中,從而增強交互的豐富性和深度。
    • 提示預設支持/:使用聊天輸入中的命令立即訪問預設提示。輕松加載預定義的對話開頭并加快您的互動。通過Open WebUI Community集成輕松導入提示。
    • RLHF 注釋:通過對消息進行“贊成”和“反對”評級來增強您的消息的能力,從而促進根據人類反饋 (RLHF) 創建強化學習數據集。利用您的消息來訓練或微調模型,同時確保本地保存數據的機密性。
    • ?對話標記:輕松分類和定位特定聊天,以便快速參考和簡化數據收集。
    • ?下載/刪除模型:直接從 Web UI 輕松下載或刪除模型。
    • ?? GGUF 文件模型創建:通過直接從 Web UI 上傳 GGUF 文件,輕松創建 Ollama 模型。簡化的流程,可選擇從您的計算機上傳或從 Hugging Face 下載 GGUF 文件。
    • 多模型支持:不同聊天模型之間無縫切換,實現多樣化交互。
    • 多模態支持:與支持多模態交互的模型無縫交互,包括圖像(例如 LLava)。
    • 模型文件生成器:通過 Web UI 輕松創建 Ollama 模型文件。通過開放 WebUI 社區集成輕松創建和添加角色/代理、自定義聊天元素以及導入模型文件。
    • ??多個模特對話:輕松地同時與多個模特互動,利用他們的獨特優勢來獲得最佳響應。通過并行利用一組不同的模型來增強您的體驗。
    • 協作聊天:通過無縫編排群組對話來利用多個模型的集體智慧。使用@命令指定模型,在聊天界面中啟用動態且多樣化的對話。讓自己沉浸在聊天環境中的集體智慧中。
    • 再生歷史記錄訪?問:輕松重新訪問和探索您的整個再生歷史記錄。
    • 聊天歷史記錄:輕松訪問和管理您的對話歷史記錄。
    • 導入/導出聊天歷史記錄:將您的聊天數據無縫移入和移出平臺。
    • ?語音輸入支持:通過語音交互與您的模型互動;享受直接與模特交談的便利。此外,探索在 3 秒靜音后自動發送語音輸入的選項,以獲得簡化的體驗。
    • ??使用高級參數進行微調控制:通過調整溫度等參數和定義系統提示來獲得更深層次的控制,以根據您的特定偏好和需求定制對話。
    • 圖像生成集成:使用 AUTOMATIC1111 API(本地)和 DALL-E 無縫集成圖像生成功能,通過動態視覺內容豐富您的聊天體驗。
    • OpenAI API 集成:輕松集成 OpenAI 兼容 API,與 Ollama 模型進行多功能對話。自定義 API 基本 URL 以鏈接到LMStudio、Mistral、OpenRouter 等
    • ?多種 OpenAI 兼容 API 支持:無縫集成和定制各種 OpenAI 兼容 API,增強聊天交互的多功能性。
    • 外部 Ollama 服務器連接:通過配置環境變量無縫鏈接到托管在不同地址上的外部 Ollama 服務器。
    • 多個 Ollama 實例負載平衡:輕松地在多個 Ollama 實例之間分配聊天請求,以增強性能和可靠性。
    • 多用戶管理:通過我們直觀的管理面板輕松監督和管理用戶,簡化用戶管理流程。
    • 基于角色的訪問控制(RBAC):通過受限的權限確保安全訪問;只有經過授權的個人才能訪問您的 Ollama,并且為管理員保留專有的模型創建/拉取權限。
    • 后端反向代理支持:通過 Open WebUI 后端和 Ollama 之間的直接通信增強安全性。這一關鍵功能消除了通過 LAN 公開 Ollama 的需要。從 Web UI 向“/ollama/api”路由發出的請求會從后端無縫重定向到 Ollama,從而增強整體系統安全性。
    • 多語言支持:借助我們的國際化 (i18n) 支持,以您喜歡的語言體驗開放式 WebUI。加入我們,擴展我們支持的語言!我們正在積極尋找貢獻者!
    • 持續更新:我們致力于通過定期更新和新功能來改進 Open WebUI。


    快速開始使用 Docker

    警告 使用 Docker 安裝 Open WebUI 時,請確保-v open-webui:/app/backend/data在 Docker 命令中包含 。此步驟至關重要,因為它確保您的數據庫正確安裝并防止任何數據丟失。

    提示 :cuda如果您希望使用包含 Ollama 或 CUDA 加速的 Open WebUI,我們建議使用帶有或標簽的官方圖像:ollama。要啟用 CUDA,您必須在 Linux/WSL 系統上安裝Nvidia CUDA 容器工具包。

    如果 Ollama 在您的計算機上,請使用以下命令:

    docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

    如果 Ollama 位于不同的服務器上,請使用以下命令:

    要連接到另一臺服務器上的 Ollama,請將 更改OLLAMA_BASE_URL為服務器的 URL:

    docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

    安裝完成后,您可以通過http://localhost:3000訪問 Open WebUI 。享受!

    我的安裝過程

    推薦的使用Docker,可是以我的經驗,這種docker通常都非常的大。所以我準備用源碼安裝。

    文檔地址:https://docs.openwebui.com/getting-started/

    我的具體步驟,大部分按文檔操作,在pip的時候增加了國內源,

    git clone https://github.com/open-webui/open-webui.git
    cd open-webui/
    
    # Copying required .env file
    cp -RPp .env.example .env
    
    # Building Frontend Using Node
    npm i
    npm run build
    
    # Serving Frontend with the Backend
    cd ./backend
    pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt -U

    安裝完后,在啟動前,需要修改以下幾個配置文件:

    1, .env 需要把:

    添加圖片注釋,不超過 140 字(可選)

    這部分內容修改為ollama的實際地址。

    2,backend/config.py

    RAG_EMBEDDING_MODEL = os.environ.get("RAG_EMBEDDING_MODEL", "all-MiniLM-L6-v2")

    這一句根據實際情況進行修改

    然后就可以啟動服務了。

    linux:

    bash start.sh

    windows:

    start_windows.bat


    使用效果:

    在設置里面可以設置語言:

    添加圖片注釋,不超過 140 字(可選)


    添加圖片注釋,不超過 140 字(可選)

    用起來感覺很方便,尤其是與ollama一起用。

網站首頁   |    關于我們   |    公司新聞   |    產品方案   |    用戶案例   |    售后服務   |    合作伙伴   |    人才招聘   |   

友情鏈接: 餐飲加盟

地址:北京市海淀區    電話:010-     郵箱:@126.com

備案號:冀ICP備2024067069號-3 北京科技有限公司版權所有