操屁眼的视频在线免费看,日本在线综合一区二区,久久在线观看免费视频,欧美日韩精品久久综

新聞資訊

    作者 | Tina、褚杏娟、核子可樂

    昨晚,微軟突然的大規模中斷影響了 Bing.com、網頁和移動版 Copilot、Windows 版 Copilot、ChatGPT 互聯網搜索和 DuckDuckGo 等。


    微軟的服務中斷大約在美國東部時間凌晨 3 點開始,似乎主要影響了亞洲和歐洲的用戶。目前,部分版本在歐洲仍處于離線狀態。


    根據網友們的反饋,當打開 Bing.com 時,會看到空白頁或帶有 429 HTTP 代碼錯誤的頁面,但是如果直接訪問,Bing 搜索仍然有效。出于某種原因,這次中斷只對主頁產生了影響。



    要使用 Bing,可以使用這個鏈接(https://www4.bing.com/),但是網站、應用程序和 Windows 中的 Copilot 都是完全離線的。


    據悉,這次中斷影響了 Bing 的 API,因此依賴該 API 的服務也被波及,包括 ChatGPT 互聯網搜索、DuckDuckGo 和Ecosia,DuckDuckGo 和Ecosia兩個替代搜索引擎都依賴 Bing 的搜索結果。



    DuckDuckGo 拒絕加載搜索頁面,顯示:“搜索結果出錯。請重試。”


    有網友指出,在這次中斷的大約一個小時之前,DuckDuckGo 就出現了加載結果很慢、需要多次刷新或重新輸入查詢的情況。而最終顯示的加載結果則是當前查詢的各種答案的混合,以及來自其他最近查詢的關鍵字。假設輸入"LG 顯示器型號"等,按回車鍵后,每個結果都是"導電性錯誤鋁制 LG 顯示器更換部件"或“可以使用洗潔精清潔鋁制 LG 顯示器嗎?月光騎士第 2 季傳聞……”依此類推,對于每一個結果都是如此。


    事件似乎在太平洋時間上午 7 點 20 分左右結束,經過五個多小時的中斷后,服務開始恢復上線。

    一次更新引起大范圍的宕機


    雖然微軟并沒有對引發中斷的原因做出解釋,但微軟確認, UTC 時間 5 月 23 日 08:46 出現問題,并指出“用戶可能無法訪問 Microsoft Copilot 服務。”


    互聯網平臺經常出現故障,這已是司空見慣。然而,當像微軟這樣的大型供應商的技術受到影響時,后果可能極其嚴重,并波及廣泛。盡管此次故障似乎并未影響所有平臺的使用,但大量用戶的投訴表明,其影響范圍可能相當廣泛。



    GitHub Copilot 壞了嗎?我真的得自己輸入代碼了?呃。



    我于美國東部時間凌晨 2:30 起床,發現使用 ChatGPT-4 的 Copilot 不工作了。



    Copilot 停止工作,這意味著我今天的工作效率將受到嚴重影響。



    印度的 Bing 不工作了。


    此前,微軟在其@MSFT365Status X 頁面上表示:“我們正在調查用戶可能無法訪問 Microsoft Copilot 服務的問題。我們正在努力找出問題的原因。更多信息可以在管理中心的 CP795190 下找到。”OpenAI 也證實了這個問題,并表示正在調查。



    微軟將這次事故原因歸于“一次軟件更新出錯”,他們隨后將請求轉移到備用服務組件,想盡快讓服務恢復。



    數小時后,Bing 和 Copilot 恢復上線,但 Android、iOS 和 Windows 應用程序仍然無法加載。


    另一方面,由于 Bing 以及 API 正成為網絡底層基礎設施的重要組成部分,因此這次故障中調用 Bing 搜索結果的 DuckDuckGo 也受到影響。


    但問題貌似比 API 調用更為復雜一點,有網友表示,微軟在幾個小時前就設法修復了 Bing 前端,但依賴于 Bing 搜索結果的 DuckDuckGo 仍然沒法正常工作。



    這次事故,除微軟系的搜索引擎幾乎全部沒法提供服務,有網友指出他并不想因此轉投 Google 搜索。



    盡管微軟投入大量資金,并在該服務中加入了人工智能,但 Bing 的市場份額其實仍然不算高。今天問題的主要影響可能是現有用戶紛紛轉向其他平臺,而這是微軟無法承受的。


    搜索看起來完全被壟斷了


    這次故障確實凸顯了服務的相互依賴性。“有趣的是,DuckDuckGo 堅持聲稱他們使用的搜索結果‘遠不止 Bing’,然而 Bing 一旦癱瘓,他們的搜索功能就會完全癱瘓,無法顯示任何結果。”網友評價道。


    雖然到東部時間上午上班時,Bing 服務已經基本恢復,但人們在慶幸之余又感到一絲擔憂。


    長期占據市場主導地位的搜索平臺 Google 上周剛剛宣布并首次發布 AI 概覽(AI Overviews)功能,將其作為整體搜索服務的默認添加項。如果大家不想要 AI 響應但仍想使用 Google,則可以在菜單中尋找新的“Web”選項,或者按照相關說明在搜索中添加“&udm=14”,通過這條神奇的秘技繼續留在前生成式 AI 時代。


    相信很多朋友都曾對 AI 技術的幻覺、電力消費或者怪異的披薩配方感到失望,包括擔心谷歌一方的更多問題,例如隱私、跟蹤、新聞、搜索引擎優化乃至壟斷權力等。但看似靠譜的大多數替代方案,都因今天早上的這次 API 中斷而現出了原形。要想避免這種“牽一 API 而動全身”的尷尬局面,整個行業和關注此事的個人都需要好好費一番工夫。



    2023 年 4 月至 2024 年 4 月,StatCounter 統計的搜索引擎市場份額


    絕大多數以 Google“替代方案”自居的搜索工具,其實都依賴于 Google、Bing 或者 Yandex,也就是說這三大搜索引擎正維持著太大的全球索引體系。


    Yandex 總部位于俄羅斯,其服務范圍目前還沒有覆蓋到世界上的每個角落。Bing 廣泛為合作方提供服務,特別是 DuckDuckGo,但其基于廣告的收入模式和隱私方面的記錄曾經引起過一些爭議。因此在找到阻止微軟跟蹤腳本的辦法之前,DuckDuckGo 公司 CEO 兼創始人 Gabriel Weinberg 在 Reddit 的回復中,解釋了為什么像他們這樣的廠商無法走通完整的 DIY 路線:


    ……我們的大部分傳統鏈接和圖像都是從 Bing 那邊下載獲取的……實際上只有兩家公司(谷歌和微軟)擁有高質量的全球網絡鏈接索引(因為我相信他們在這方面的年度開銷超過了 10 億美元),所以任何其他搜索引擎都需要借助其中一方或者兩方才能提供主流搜索產品。

    順帶一提,地圖業務也是如此——只有體量最大的巨頭才能負擔得起部署衛星、并派出地面車輛為各個社區拍攝街景照片的成本。


    Bing 確實在給微軟賺錢,雖然還沒有完全盈利。盡管目前的業務重點幾乎完全集中在自家 AI 聊天機器人版 Bing 之上,保持搜索索引儲備及 API 開放仍舊符合微軟的利益定位。然而,如果微軟決定取消 API 訪問,或者這項服務的可靠性持續下滑,那么谷歌的市場地位將進一步提升。


    面對這樣的現實,想要搞點動靜出來的攪局者們究竟該何去何從?


    當前,許多非 GBY 搜索引擎都依賴于 Common Crawl,或者至少是此為起點。Common Crawl 屬于公共資源,包含過去 17 年間超過 2500 億個網頁,且每月新增網頁數量高達數十億。從某種意義上講,我們需要的全部信息都在其中,這也讓 Common Crawl 成為眾多大語言模型訓練中的基本組成部分。


    換句話說,接下來的重點在于弄清如何以用戶喜歡的方式組織、排序并顯示這些結果,同時找到一條可行的盈利路徑。


    DuckDuckGo 和 Kagi 的創始人已經親自證明,如果想讓業務超越 Crawl 之外,就必須投入大量資金和基礎設施。谷歌有廣告可供銷售,還有瀏覽器、Android 手機及一眾受益于其引擎的捆綁服務。微軟這邊同樣有廣告業務,外加一款瀏覽器和捆綁有 Bing 引擎的主導級操作系統。如果想要徹底脫離這兩者(或者說也算上 Yandex),其他廠商該如何交付搜索結果?這是個問題。


    現在大模型成為主要的探索方向,至少 AI 能以搜索助手的形態幫助大家擺脫典型的 GBY 產品。


    “我已經無法忍受網絡搜索那粗糙的結果,甚至寧愿直接上 Reddit 查找愛好者們的意見。”這應該是很多人的心聲。當然,Reddit 的帖子也在被納入 ChatGPT、谷歌乃至其他 AI 解決方案的關注范圍。


    不過,盡管基于 GBY 來源的其他引擎往往會顯示不同的結果,甚至偶有亮眼表現,但全球搜索被兩到三個信息源綁架的現實已成定局。

    小眾搜索:只能是“第二輛車”


    在被大廠“壟斷”的主流搜索之外,也有很多小眾搜索。


    個人開發者Rohan Kumar一直在用自己的索引更新一份帶有大量注釋的搜索引擎列表,借此我們也可以了解到更多關于“GBY”(即 Google、Bing 和 Yandex)三巨頭之外的搜索世界及其運轉邏輯。


    Kumar 三年來統計出了一份榜單,該英文榜單洋洋灑灑數千言,但列舉的引擎中只有少部分擁有自己的通用索引。


    Kumar 最喜愛的兩個分別是在市場競爭中保持住生命力的 Mojeek,以及為各類主要引擎提供良好補充的 Stract。Right Dao 的搜索結果“速度很快且質量很高”,部分原因在于其爬蟲選擇了維基百科作為起點。Yep 的覆蓋范圍更廣,會顯示與查詢相關的網站鏈接與返回結果,并承諾與創作者們分享廣告收入。


    這些搜索都在某種程度上表現出了實力,但仍給人一種強烈的“家庭第二輛車”的感覺——不足以成為“出行首選”。


    Kumar 還分享了其他更為小眾的引擎。對于大家偶爾聽說過的這類搜索引擎,其很可能被列入了“半獨立索引”的部分。這是因為當其自身的搜索結果不夠強大時,它們都會借用 GBY 索引。比如推崇加密貨幣、備受爭議的 Brave 引擎,以及不少直接“轉載”GBY 結果或者將其相關鏈接塞進自身顯示內容的引擎。


    Kagi 還要求使用者注冊賬戶,并將其索引 Teclis 與 Google、Bing、Yandex、Mojeek 乃至其他索引(包括 Brave)配合使用。Kagi 的創始人對于基于 AI 的搜索未來有著鮮明的觀點,認為這將以“不可擴展”的方式危害整個搜索世界。


    也許各位有不同觀點,但需要注意的是,如果 GBY 三巨頭的服務出現問題,Kagi 這樣的搜索工具也同樣會受到波及。

    原文鏈接:又翻車!微軟一次更新引爆大規模連鎖反應,Bing、Copilot等多個軟件集體宕機五小時!_AI&大模型_Tina_InfoQ精選文章

    一代人有一代人的經典回憶,1994年由周海媚、馬景濤、葉童主演的《神雕俠侶》曾經風靡一時,周海媚所詮釋的周芷若凝聚了漢水之鐘靈,峨嵋之毓秀,遇雪尤清,經霜更艷,俘獲萬千觀眾,成為了一代人的共同記憶。

    如今美人仙去,回望經典,雪膚依然,花貌如昨,白璧微瑕之處是九十年代電視劇的分辨率有些低,本次我們利用百度自研框架PaddleGan的視頻超分SOTA算法來對九十年代電視劇進行4K修復。

    配置PaddlePaddle框架

    PaddlePaddle框架需要本地環境支持CUDA和cudnn,具體請參照:聲音好聽,顏值能打,基于PaddleGAN給人工智能AI語音模型配上動態畫面(Python3.10),囿于篇幅,這里不再贅述。

    接著去PaddlePaddle官網查看本地cudnn對應的paddlepaddle版本:

    https://www.paddlepaddle.org.cn/

    輸入命令查看本地cudnn版本:

    nvcc --version
    nvcc: NVIDIA (R) Cuda compiler driver
    Copyright (c) 2005-2022 NVIDIA Corporation
    Built on Tue_Mar__8_18:36:24_Pacific_Standard_Time_2022
    Cuda compilation tools, release 11.6, V11.6.124
    Build cuda_11.6.r11.6/compiler.31057947_0

    可以看到版本是11.6

    隨后安裝對應11.6的最新paddle-gpu版本:

    python -m pip install paddlepaddle-gpu==2.5.2.post116 -f https://www.paddlepaddle.org.cn/whl/windows/mkl/avx/stable.html

    注意這里的最新版是paddlepaddle-gpu==2.5.2.post116,而非之前的paddlepaddle-gpu==2.4.2.post116

    安裝成功后,進行檢測:

    PS C:\Users\zcxey> python
    Python 3.10.11 (tags/v3.10.11:7d4cc5a, Apr  5 2023, 00:38:17) [MSC v.1929 64 bit (AMD64)] on win32
    Type "help", "copyright", "credits" or "license" for more information.
    >>> import paddle
    >>> paddle.utils.run_check()
    Running verify PaddlePaddle program ...
    I1214 14:38:08.825912  4800 interpretercore.cc:237] New Executor is Running.
    W1214 14:38:08.827040  4800 gpu_resources.cc:119] Please NOTE: device: 0, GPU Compute Capability: 8.9, Driver API Version: 12.3, Runtime API Version: 11.6
    W1214 14:38:08.829569  4800 gpu_resources.cc:149] device: 0, cuDNN Version: 8.4.
    I1214 14:38:12.468061  4800 interpreter_util.cc:518] Standalone Executor is Used.
    PaddlePaddle works well on 1 GPU.
    PaddlePaddle is installed successfully! Let's start deep learning with PaddlePaddle now.

    說明PaddlePaddle的配置沒有問題。

    隨后克隆項目并且進行編譯:

    git clone https://gitee.com/PaddlePaddle/PaddleGAN
    cd PaddleGAN 
    pip3 install -v -e .

    視頻修復超分模型

    關于視頻修復超分模型的選擇,這里我們使用百度自研SOTA超分系列模型PP-MSVSR、業界領先的視頻超分模型還包括EDVR、BasicVSR,IconVSR和BasicVSR++等等。

    百度自研的PP-MSVSR是一種多階段視頻超分深度架構,具有局部融合模塊、輔助損失和細化對齊模塊,以逐步細化增強結果。具體來說,在第一階段設計了局部融合模塊,在特征傳播之前進行局部特征融合, 以加強特征傳播中跨幀特征的融合。在第二階段中引入了一個輔助損失,使傳播模塊獲得的特征保留了更多與HR空間相關的信息。在第三階段中引入了一個細化的對齊模塊,以充分利用前一階段傳播模塊的特征信息。大量實驗證實,PP-MSVSR在Vid4數據集性能優異,僅使用 1.45M 參數PSNR指標即可達到28.13dB。

    PP-MSVSR提供兩種體積模型,開發者可根據實際場景靈活選擇:PP-MSVSR(參數量1.45M)與PP-MSVSR-L(參數量7.42)。

    關于EDVR:

    EDVR模型在NTIRE19視頻恢復和增強挑戰賽的四個賽道中都贏得了冠軍,并以巨大的優勢超過了第二名。視頻超分的主要難點在于(1)如何在給定大運動的情況下對齊多個幀;(2)如何有效地融合具有不同運動和模糊的不同幀。首先,為了處理大的運動,EDVR模型設計了一個金字塔級聯的可變形(PCD)對齊模塊,在該模塊中,從粗到精的可變形卷積被使用來進行特征級的幀對齊。其次,EDVR使用了時空注意力(TSA)融合模塊,該模塊在時間和空間上同時應用注意力機制,以強調后續恢復的重要特征。

    關于BasicVSR:

    BasicVSR在VSR的指導下重新考慮了四個基本模塊(即傳播、對齊、聚合和上采樣)的一些最重要的組件。 通過添加一些小設計,重用一些現有組件,得到了簡潔的 BasicVSR。與許多最先進的算法相比,BasicVSR在速度和恢復質量方面實現了有吸引力的改進。 同時,通過添加信息重新填充機制和耦合傳播方案以促進信息聚合,BasicVSR 可以擴展為 IconVSR,IconVSR可以作為未來 VSR 方法的強大基線 .

    關于BasicVSR++:

    BasicVSR++通過提出二階網格傳播和導流可變形對齊來重新設計BasicVSR。通過增強傳播和對齊來增強循環框架,BasicVSR++可以更有效地利用未對齊視頻幀的時空信息。 在類似的計算約束下,新組件可提高性能。特別是,BasicVSR++ 以相似的參數數量在 PSNR 方面比 BasicVSR 高0.82dB。BasicVSR++ 在NTIRE2021的視頻超分辨率和壓縮視頻增強挑戰賽中獲得三名冠軍和一名亞軍。

    在當前參數量小于6M的輕量化視頻超分模型在 UDM10 數據集上的PSNR指標對比上,PP-MSVSR可謂是“遙遙領先”:

    視頻修復實踐

    PP-MSVSR提供兩種體積模型,開發者可根據實際場景靈活選擇:PP-MSVSR(參數量1.45M)與PP-MSVSR-L(參數量7.42)。這里推薦使用后者,因為該大模型的參數量更大,修復效果更好:

    ppgan.apps.PPMSVSRLargePredictor(output='output', weight_path=None, num_frames)

    參數說明:

    output_path (str,可選的): 輸出的文件夾路徑,默認值:output.
    weight_path (None,可選的): 載入的權重路徑,如果沒有設置,則從云端下載默認的權重到本地。默認值:None.
    num_frames (int,可選的): 模型輸入幀數,默認值:10.輸入幀數越大,模型超分效果越好。

    隨后進入項目的根目錄:

    cd PaddleGAN

    編寫test.py來查看視頻參數:

    import cv2
    import imageio
    import numpy as np
    import matplotlib.pyplot as plt
    import matplotlib.animation as animation
    from IPython.display import HTML
    import warnings
    warnings.filterwarnings("ignore")
    
    def display(driving, fps, size=(8, 6)):
        fig = plt.figure(figsize=size)
    
        ims = []
        for i in range(len(driving)):
            cols = []
            cols.append(driving[i])
    
            im = plt.imshow(np.concatenate(cols, axis=1), animated=True)
            plt.axis('off')
            ims.append([im])
    
        video = animation.ArtistAnimation(fig, ims, interval=1000.0/fps, repeat_delay=1000)
    
        plt.close()
        return video
    
    video_path = 'd:/倚天屠龍記.mp4'
    video_frames = imageio.mimread(video_path, memtest=False)
    
    # 獲得視頻的原分辨率
    cap = cv2.VideoCapture(video_path)
    fps = cap.get(cv2.CAP_PROP_FPS)
        
    
    HTML(display(video_frames, fps).to_html5_video())

    如此,就可以獲得視頻的原分辨率。

    隨后,進入項目的根目錄,執行修復命令:

    python3 tools/video-enhance.py --input d:/倚天屠龍記.mp4 \
                                   --process_order PPMSVSR \
                                   --output d:/output_dir \
                                   --num_frames 100

    這里使用PPMSVSR模型對該視頻進行修復,input參數表示輸入的視頻路徑;output表示處理后的視頻的存放文件夾;proccess_order 表示使用的模型和順序;num_frames 表示模型輸入幀數。

    隨后展示修復后的視頻:

    output_video_path = 'd:/倚天屠龍記_PPMSVSR_out.mp4'
    
    video_frames = imageio.mimread(output_video_path, memtest=False)
    
    # 獲得視頻的原分辨率
    cap = cv2.VideoCapture(output_video_path)
    fps = cap.get(cv2.CAP_PROP_FPS)
        
    
    HTML(display(video_frames, fps, size=(16, 12)).to_html5_video())

    修復效果:

    除了視頻超分外,PaddleGAN中還提供了視頻上色與補幀的功能,配合上述的PP-MSVSR一起使用,即可實現視頻清晰度提高、色彩豐富、播放更加行云流水。

    補幀模型DAIN

    DAIN 模型通過探索深度的信息來顯式檢測遮擋。并且開發了一個深度感知的流投影層來合成中間流。在視頻補幀方面有較好的效果:

    ppgan.apps.DAINPredictor(
                            output_path='output',
                            weight_path=None,
                            time_step=None,
                            use_gpu=True,
                            remove_duplicates=False)

    參數:

    output_path (str,可選的): 輸出的文件夾路徑,默認值:output.
    weight_path (None,可選的): 載入的權重路徑,如果沒有設置,則從云端下載默認的權重到本地。默認值:None。
    time_step (int): 補幀的時間系數,如果設置為0.5,則原先為每秒30幀的視頻,補幀后變為每秒60幀。
    remove_duplicates (bool,可選的): 是否刪除重復幀,默認值:False.

    上色模型DeOldifyPredictor

    DeOldify 采用自注意力機制的生成對抗網絡,生成器是一個U-NET結構的網絡。在圖像的上色方面有著較好的效果:

    ppgan.apps.DeOldifyPredictor(output='output', weight_path=None, render_factor=32)

    參數:

    output_path (str,可選的): 輸出的文件夾路徑,默認值:output.
    weight_path (None,可選的): 載入的權重路徑,如果沒有設置,則從云端下載默認的權重到本地。默認值:None。
    render_factor (int): 會將該參數乘以16后作為輸入幀的resize的值,如果該值設置為32, 則輸入幀會resize到(32 * 16, 32 * 16)的尺寸再輸入到網絡中。

    結語

    AI技術通過分析視頻中的圖像信息并應用圖像處理和修復算法,自動修復視頻中的缺陷、噪聲、模糊等問題,以提高視頻的觀看質量和可用性,配合語音克隆等技術,從而讓演員在某種程度上實現“數字永生”。

網站首頁   |    關于我們   |    公司新聞   |    產品方案   |    用戶案例   |    售后服務   |    合作伙伴   |    人才招聘   |   

友情鏈接: 餐飲加盟

地址:北京市海淀區    電話:010-     郵箱:@126.com

備案號:冀ICP備2024067069號-3 北京科技有限公司版權所有