文內容與微信公眾號裝個好房子(ID:ihaofangzi)同步
商務合作請加微信:BJDamao
SO和她的愛寵KUMA
屋主SO是個抹茶料理店的店主,喜歡干凈清爽的生活方式,喜歡無拘無束的生活空間。
設計師宋小聰給了她一個,由素雅白墻和原木家具,角落里點綴著薄荷綠的,簡單自然的家。
戶型:3室
使用面積:124平米
房屋位置:四川 成都
裝修花費:40萬元
原始圖
完工后平面圖
宋小聰的裝修靈感簡單而直接,就是源于屋主SO的一次日本行,她住的民宿的洗手臺是用薄荷綠色的馬賽克堆砌起來的,小巧而精致很是喜歡。所以在這次裝修時,特意將薄荷綠和原木做為整間屋子的基調。
加上SO一直很喜歡大地原木色,想追求那種質樸、清爽而又溫馨的氛圍,就有了這個秒殺了99%原木風,比無印良品門店的MUJI風還高級的家。
▲原本的入戶是開放式,沒有任何遮擋,考慮到私密性和收納功能,用一個原木格柵安裝在門口,增設了隔斷的同時,增加了趣味性,且在視覺上有隔而不斷的效果。
▲入戶右手邊的墻上做了一整面墻的半開放式收納空間,中下層放置日常的鞋子衣服和雜物,吊柜中可以收納不是很常用的東西。
▲客廳的面積大概有20㎡左右,家里所有的木質家具都是定制的,原木家具搭配素雅的白墻,自然而無拘無束。另外,定制家具可以自己選擇好質量的原料,能夠最大限度的降低甲醛對人體的傷害。
▲原木地板和細腳茶幾搭配糖果色沙發,讓整個空間柔軟了下來。
▲整個客廳隨處可見綠植,簡單而富有生氣,現場安裝的原木柜都是按照屋主的習慣量身定制的,從衣柜書柜到小物件收納柜,能夠減少空間的不必要浪費。
▲陽臺和客廳打通相連,視覺上空間更加明亮通透。利用大白墻放置了投影儀,代替了電視的功能,還擁有一個私人家庭影院。
▲屋主SO的建議是,家里有寵物的人家最好用仿木紋磚代替木地板,因為如果它們會在地上撒尿,木地板是很受到傷害的。但是如果家里的寵物在即使換了新環境,也不會不習慣的話,就沒有這個必要啦。
▲廚房的面積不到10㎡,木色的地磚和柜門搭配白色的小方磚,讓整個空間沉穩而不失清新。集成灶的使用釋放了更多的上方空間,于是打了更多的高柜儲物,灶臺上方多了高柜儲物,但使用后發現,尤其是灶臺上方的部分是很容易粘上油膩的。
▲下沉式入戶玄關設計,讓入戶形成一個小臺階,增加進門的儀式感,同時與其他空間區分,也好打掃。
▲干凈飽滿的餐廳讓空間更加明亮,飽滿的色調營造出美好的氛圍。
▲定制的原木桌椅提升整個空間的質感,其實宋小聰想弄一個卡座增加一些儲物空間的,但想到現十個家里有五個卡座的泛濫,又不能移動,就拋棄了卡座的念頭。
小貼士:
定制的原木桌椅手感沒得說,如果用原木蠟油的話感覺會更加細膩滑順,但是時間久了難免會有油污,要注意清潔。
▲在原木谷倉門與地板和桌椅相互呼應的同時,搭配薄荷綠和淺灰藍的吊燈,讓人分分鐘眼前一亮。
▲正面看谷倉門,怎么看怎么好心情,好心情胃口就好,多吃點東西貼秋膘準備過冬。
▲次衛5㎡左右,進行了干濕分區,現場磚砌的洗手臺,貼了糖果色的馬賽克瓷磚,清新明亮。
小貼士:
馬賽克瓷磚在使用過程中要做好防霉去黃的準備,后期保潔上也會比較麻煩。
▲濕區。
▲主衛9㎡左右,木紋磚與小白磚的搭配延展出了層次分明、干凈明亮的空間。因為平時只是偶爾在這里泡澡,于是這里大膽地用了人字形木地板拼接,梳妝臺也放在這里,在明亮陽光下,畫個美美的裝,擺弄擺弄瓶瓶罐罐,心情怎么可能不好呢。
▲主臥面積約16㎡。柔軟粉嫩的墻面搭配原木色地板,讓主臥空間煥發出別樣的清新浪漫。利用飄窗下的空間做了一排收納抽屜,可以收納零碎的物件,同時讓暖氣看起來也美了起來。
▲為了和客廳區分,臥室沒有選擇屋主最初想要的大地色系,而是改用了粉色,整個臥室色調暖暖的,住在這樣臥室里的人,永遠都不會老吧。
▲兒童房面積約15㎡,趣味十足。不過目前SO還沒小孩,就選擇了男孩女孩都適合的灰綠色調。
▲主臥衣帽間與主衛相連,左右兩邊做了兩排頂天立地的衣柜,中間留有一條通往主衛的通道,充足的收納空間滿足所有的收納需求。
▲書房面積約15㎡,是一個集收納、書房、客臥于一體的房間,非常實用,全屋現場制作的榻榻米集成衣柜和書柜,增加大量收納的同時,也讓整個家多了一處慵懶閑散的空間。
屋主SO曾經也是一只北漂的小盆友,后來實在受不了北京的環境就卷鋪蓋回到成都,和朋友一起開了一家抹茶店。
她一直堅定不移地認為,在外地那叫生存,在成都才叫生活,購置一套自己的房子,一點一點添置出一個自己最愛的家。
案例來自設計師宋小聰
設計師:宋小聰
工作室:清羽設計
微信:qy52sj
文字由裝個好房子整理
工欲善其事必先利其器,想要玩轉換臉,硬件,軟件,系統必須跟上!先從準備工作說起。
硬件 軟件 系統 驅動 硬件
換臉軟件出來也好幾年了,但是目前依舊對硬件依賴比較大。想要在自己電腦上跑換臉軟件就必須要一張顯卡,想要輕松點,就必須要一張好顯卡(今年搞一張好顯卡不容易)。 顯卡主要分N卡(英偉達)和A卡(AMD),一般來說是推薦N卡,N卡的支持會更好,使用場景更廣泛。 在DeepFaceLab的歷史版本中,曾經有支持A卡的opencl版本,中途放棄了對A卡的支持,2021終于有了支持A卡的DirectX12版本??偟膩碚f,買一張中上水平的N卡,肯定可以玩,如果是A卡就需要確認支持DirectX12。
常見的N卡有10系列,20系列,30系列。還有麗臺,泰坦,特斯拉,安倍。幾乎所有顯存大于2G的N卡都支持。 rtx3060 12G 因為顯存大,對于跑模型有優勢,性價比較高。所有60結尾的卡,都是性價比比較高,功耗比較低,顯存還可以。而50結尾的卡么….。如果你只在乎性能,那么可以上目前最強的游戲卡RTX3090,指導價一萬出頭,市場價可能兩萬多。除了3090,上一代的2080ti,和上上代的1080ti 也是一個不錯的選擇,這兩張卡顯存比較給力,速度也比較快,提取頭像比3000系列還有優勢。
除了顯卡之外,其實CPU最好也跟上。顯卡特別快,處理器跟不上,整體速度就會下來。顯卡和cpu的比較強的情況下,電源供電一定要有保障。電源不夠的話,燒卡不至于,但是可能會重啟,不穩定。
關于硬盤,使用普通HDD完全沒有問題,用SSD的話在某些情況下會更好。比如加載,寫入的時候,還有大量素材圖片拷貝,粘貼,刪除的時候。
總而言之,想要玩基于深度學習的軟件,都需要中高端配置。其中顯卡和顯存是核心指標。
軟件
軟件方面,DeepFaceLab相比之前的一些換臉軟件,最大的優勢就是“集成” 。如果你使用DeepFaceLab,千萬不要去裝什么CUDA,CUDN,除非你知道自己在干什么。
軟件方面主要是注意版本的問題。
DeepFaceLab最早的版本可以追溯到2018年,目前比較推薦的是2020年8月份的版本,以及2021年8月份的版本。選擇版本需要注意幾個點。
■A卡還是N卡? A卡只能用2019年opencl版和2021的DirectX12版。
■RTX2080ti:針對2080ti以及以下版本
■RTX3000:針對3000系列顯卡
■DirectX12:針對支持DirectX12
需要注意的是,2080ti版肯定不能用在30系列顯卡上,而rtx3000可以支持老顯卡。DirectX12并不針對A卡或者N卡,而是針對支持DirectX12的顯卡設備。言下之意不支持DirectX12的顯卡,不管你姓黃還是姓蘇,都沒用。大部分新卡都支持!
軟件下載:
百度網盤:https://pan.baidu.com/s/1f7iIF8qY7k8LDetWhJMARg?pwd=2nnn
阿里網盤:https://www.aliyundrive.com/s/tfPUf8zHLSJ
系統
從大的的范疇來說,除了MacOS支持不好之外,window和linux全部可以使用。
Window方面,主要是支持win10和win7。但是隨著30系列新顯卡的推出,win7不推薦了。使用30系列顯卡的朋友需確保三件事情:
■操作系統版本Win10 20h2+
■驅動去官方下載更新到最新
■啟用操作系統的GPU加速計劃
驅動不夠新,提取這一步就過不了。
系統不夠新,沒有GPU加速選項
沒有GPU加速選項,可能導致訓練卡死。
新版驅動似乎對GPU加速沒有要求,但是保險起見,還是先把上面幾點做好。
最后提示一下,XP和32位系統請自覺回避。
驅動
DeepFaceLab唯一的依賴就是驅動。驅動最大的問題就是不夠新,因為DFL一直在更新,往往都是針對最新的版本。所以驅動一定要跟上。用魯大師和驅動精靈的需要注意一下,這些第三方軟件安裝的驅動有可能不是最新的,會出現問題,推薦用官方的Geforce Experience更新升級驅動。
DeepFaceLab新手0起點入門圖文教程詳解 DeepFaceLab中文版新手0起點入門圖文教程詳解
講過了安裝DeepFaceLab所需要的軟硬件環境。正常來說就可以進入安裝,實操的階段了。但是,我覺得安裝之前還是要先結合workspace來講一些概念,這樣用起來會更加順暢。workspace這個是軟件自帶的目錄,安裝完之后就已經存在了。
工作目錄里都有啥?
DeepFaceLab教程
workspace主要包含如下文件:
■data_dst(目標素材)
■data_src (源素材)
■model (模型)
■data_dst.mp4 (目標視頻)
■data_src.mp4 (源視頻)
DeepFaceLab為了簡化操作和規范素材名稱,采用慣例的方式。就是把所有素材統一放workspace里面,而且統一命名。所有文件夾,文件名都不能亂改。
什么是視頻換臉?
所謂視頻換臉就是把一個人的臉換到另一個人的腦袋上并保持表情神態的同步。比如將張三的臉換到李四身上。源素材取自張三,我們需要換臉的對象是李四。張三提供臉,李四提供身體,最后的結果是李四看起來變成了張三。而為了實現換臉這個目標我們需要收集兩個人的視頻。
張三的視頻叫data_src.mp4,我們稱為源視頻,
李四的視頻叫data_dst.mp4,我們稱為目標視頻。
有了視頻之后我們需要將視頻里的人臉提取出來,讓AI去分析學習人臉特征。
data_dst 和data_src 文件夾里放的就是目標視頻和源視頻中提取出來的圖片和人臉。
圖片是指把視頻轉換成一張一張的圖片,人臉是指從圖片中摳出人臉部分并擺端正,最后放在aligned文件夾里面。在摳圖的同時還會用一些點標出人臉的輪廓放在debug文件里面。
模型是什么?
DeepFaceLab換臉看是有很多步驟,其實就兩大步驟,一個是訓練模型,一個是應用模型。model文件夾里面放的就是模型文件,是換臉軟件的核心所在。
那么模型是個啥東西? 有人可能會理解為模板,這種比喻并不精確,但是有那么一點意思。模板只能簡單的復刻,但是模型可以自動匹配各種表情,要智能一些。
其實在深度學習里面模型這個概念無處不在,我們常用的基于深度學的一些應用,比如美顏,貼圖,翻譯,語音識別,語音合成,人臉識別,去碼,脫衣,背后都有模型。
模型就像是一個學富五車或者特別擅長某種技能的人。所謂訓練模型,就像是訓練一個小孩子,讓他學習增加某一方的能力。
那些“繪畫”能力特別強的機器視覺模型,我們可以把它比喻成一個畫師。沒學習之前,他什么不會。你給他看了很多法外狂徒的視頻,他不斷臨摹之后,就掌握了畫出張三的能力。因為他的大腦就是為繪畫而生,所以他閉著眼睛也能畫出張三,更厲害的是,給他一張李四的臉他也能畫出和李四表情一樣的張三。當然,要變得這么強,除了天賦之外,學習時間肯定少不了,而且得多看高清視頻,記住各種細節才可以。光記住還不行,還得有一定的聯想能力。
訓練模型也常常被稱為“煉丹”,而模型就是仙丹。要搞個仙丹肯定不容易是吧。比如,太上老君練齊天大圣,練了那么多太天,一不小心還是沒練成。練好一顆丹,需要很多條件。
■首先,得有好的原材料(人臉素材)。
■其次,得有好的丹爐(電腦硬件顯卡和CPU)
■再次,得掌握好火候(參數)
■最后,八八六十四一天不能少。(時間)
初學者,肯定要反復嘗試,才能找到最好的方式。
不同仙丹,有不同的效果。有些包治百病(通用模型),有些只有一個功效比如長生不老(專用模型)
說回畫師,有的畫師稍作學習什么都能畫(通用模型),有的畫師只會畫一個人(專用模型)
名字不能隨便改
如果不懂workspace的命名規則,可能會出現一些問題。一定記住不要少文件,也不要改文件名。比如提取src的時候一定要有data_src.mp4這個視頻,其他名字沒用。合成視頻的時候一定要有dat_dst.mp4這個視頻,沒有那就直接報錯。比如你自己的視頻原先叫“我很帥.mp4” ,你想換臉,就必須把這句話改掉,改成data_src.mp4 。不管多帥都得按規矩來。
如何用圖片來換臉?
雖然一直建議用視頻素材來換臉,但是依舊有很多人問到能不能用圖片換臉。能,是肯定能,但是你不要希望在DFL上用一張圖片來換出好的效果。用圖片換臉,只需要將完整的圖片直接放在data_src文件里面,然后用提取腳本提取人臉即可,其他操作和視頻換臉一模一樣。
概念這個東西吧,理解了很有用,不理解好像也沒啥用。不理解也沒關系,只要記住workspace這個文件夾,所有相關的素材都放在里面。下一篇,我們就“不講道理”了,直接一步一步來操作。
對于剛入門的朋友來說,你給他直接上心法肯定沒啥有,最直接的還是教招式。實操,才有感覺嘛!DeepFaceLab雖然版本一直在升級,但是整體步驟和執行邏輯并沒有太大變化。所以老教程現在一樣能用了。但是為了教程的完整性,我就全部重寫一遍,稍作改進。
安裝軟件
安裝過程其實非常簡單。一般發布的軟件包都是.exe結尾,本質上其實就是一個用7z壓縮的壓縮包而已。大家可以通過我分享的鏈接,找到適合自己顯卡的版本,然后解壓安裝即可!
安裝的時候需要注意幾個點。
第一:殺毒軟件可能會有木馬警報,添加信任就好。殺毒軟件可能會無警報刪文件,導致執行的時候出現未知錯誤。這種情況可以先退殺毒軟件,安裝完了就不受影響。
第二:安裝的時候記得選好路徑
DeepFaceLab教程
路徑并沒有硬性要求,默認是解壓到安裝包所在路徑。建議放在C盤外的其他盤的根目錄。文件路徑不要有中文,避免各種莫名其妙的問題,如上圖,最好放到磁盤根目錄,方便查找使用。
第三:輸入密碼
DeepFaceLab教程
我發布的文件如果有密碼,就都是395267954。不管哪個版本直接輸入就好了。
DeepFaceLab教程
解壓后就是如上圖的樣子。里面會有_internal和workplace文件夾。前者放的是源代碼和軟件相關的內容,后者是工作目錄。除此之外還有一堆.bat結尾的文件。可以把這些稱為腳本或者批處理文件。里面是一行行的DOS命令。
批處理文件打開方式和EXE一模一樣,直接雙擊打開!每一個批處理文件都干一件事情,我們要做的就是按一定的順序點擊這些文件,就能完成換臉。是不是挺簡單?
執行步驟
DFL換臉的思路是,想將視頻轉換成圖,從圖片中提取人臉,從人臉中學習特征。然后應用模型,先對圖片進行換臉,然后把圖片合成視頻,同時帶上原視頻的音軌。
具體來說可以分為如下幾步:
1.src視頻分解圖像
2.dst視頻分解圖像
3.src提取面部
4.dst提取面部
5.訓練模型
6.應用模型
7.合成視頻
批處理文件步驟依次如下:
2) src 視頻提取圖像extract images fromvideo data_src.bat
3) dst 視頻提取圖像(全幀率)extract imagesfrom video data_dst FULL FPS.bat
4) src 自動提取面部data_src facesetextract.bat
5) dst 自動提取面部data_dst facesetextract.bat
6) 訓練SAEHD train SAEHD.bat
7) 應用SAEHD merge SAEHD.bat
8) 合成 MP4 視頻merged to mp4.bat
其實看著很復雜,但真正的操作就幾個步驟,下面我就按照順序帶著大家操作一邊軟件,這里只講SEAHD模型的操作,Q96和AMP大同小異,模型參數這次也不做過多講解,后期的教程會單獨寫一篇關于參數的介紹。關于操作,這里做一個重點提示:遇事不決按回車!
Step1:src視頻 分解圖像
DeepFaceLab教程
雙擊批處理文件 2) src 視頻提取圖像 extract images from video data_src.bat
跳出黑色窗口,默認回車,然后輸入jpg回車,就會自動開始將視頻分解為圖片。
確認幀率:視頻有一個指標叫幀率,常見有24,30,60等,代表一秒鐘有幾張。第一個參數輸入10指的是一秒鐘只取10張;不輸入直接回車,默認幀率是30就取30張。因為很多影視劇畫面相對固定,沒必要全部取,否則后面會浪費大量提取時間,而且模型訓練壓力也會加大。這里根據自己的需求選擇,幀數越高,畫面越流暢,文件體積就越大。
輸出圖片格式: 圖片格式,主要是jpg和png。png是無損格式,但是JPG能在保證畫質的情況下減少巨量的空間。所以如果不是要求特別變態,一般都用jpg。這樣可以減少空間,節省時間。
DeepFaceLab教程
正常情況下,這個步驟執行非???,出現“搞定/done” 的字樣就是執行完成了。完成后,workplace/data_src下面就會出現很多圖片,這就是從視頻里分解出來的圖片。文件名一般為0000x.jpg,其實這里面命名可以隨意,沒有強制要求。這里還有一個aligned的文件夾,是為后面步驟準備的。
Step2:dst視頻 分解圖像
DeepFaceLab教程
雙擊批處理文件 3) dst 視頻提取圖像(全幀率)extract images from video data_dst FULL FPS.bat
和上面的步驟類似,這次處理的是dst視頻。因為dst必須一幀不落,所以沒有FPS選項,只有圖片格式這一個選項。
DeepFaceLab教程
處理完后的圖片保存在workspace/data_dst里面。
Step3:src 提取面部
DeepFaceLab教程
雙擊批處理文件 4) src 自動提取面部 data_src faceset extract.bat
這一步的作用是提取src素材圖片中的人臉。這里有六個參數,一般只需一路回車即可。第一次使用需要緩存GPU內核,需要稍微等一等。開始提取后底部有顯示進度,當進度到100%,會顯示圖片數量和提取到的人臉數量,并出現“搞定?。?!” 就證明已經出來成功并且處理完成。
DeepFaceLab教程
處理完成后,頭像保存在data_src/aligned下面。
不少人在這個環節會遇到問題。
常見問題是:
驅動不夠新,去官網下載更新到最新版本即可。
軟件不夠新,加QQ 395267954獲取新版
顯卡軟件不匹配,N卡分3系和非3系版本,3系顯卡(比如RTX3080,RTX3090等)用DFL_RTX3000_series.exe這個版本,非3系(如RTX2060,GTX1060等)用DFL_UPTO_RTX2080Ti.exe這個版本。A卡和老顯卡用DFL_DirectX12.exe版本。
提取完之后,如果src素材比較復雜,比如側臉多,仰頭低頭等復雜的角度,視頻中有多個人臉等,自動切臉就會出現切錯的情況。這個時候就需要做一些篩選。這個篩選可以寫一篇很長的文章。這里簡要說一下。主要是把一些不需要的素材刪除:
■很模糊的可以直接刪除
■不是目標人物的可以直接刪除
■圖片殘缺的刪除
■臉部有遮擋的刪除
■臉部光照差異特別大的刪除
.....
Step4:dst 提取面部
DeepFaceLab教程
雙擊批處理文件 5) dst 自動提取面部 data_dst faceset extract.bat
這一步的作用是提取dst素材圖片中的人臉。和上一步非常類似,這里就是少了一個“保存調試圖片”的參數。其實也不是少了,而是默認就執行了。
DeepFaceLab教程
提取的頭像保存在data_dst/aligned的文件夾里。
提取完之后也要對素材進行一個篩選。
把不是目標人物的素材刪掉,把頭像旋轉的圖片刪掉。一般來說文件名后綴_1的都可以刪掉。dst的刪除核心原則是要換的人臉留下,不要換的統統刪掉。
DeepFaceLab教程
這一步默認就生成了debug的文件。
打開aligned_debug文件及里的其中一張圖片,可以看到人臉上有三種顏色的線框。
DeepFaceLab教程
紅色就是頭像截取的區域,藍色是面部區域,綠色是人臉輪廓,以及五官定位的點。其實就是人臉的landmark。通過debug你可以直觀的看到人臉識別算法識別了哪些區域,有沒有識別正確。如果這個區域不在人臉上或者出現了亂七八糟的交織線,就說明這個臉部提取錯誤,這個時候就需要手動提取了。新手暫時不講如何手動提取,后期的教程再做介紹。
Step5:訓練模型
這里簡單介紹下目前的三種模型:一個是Q96適合低配電腦玩的輕量模型,優點是對顯卡要求不高,比如2G顯存的老卡就可以玩。缺點是像素太低,沒有高級參數選項,合成效果差,可玩性低。
另一種是AMP模型,這種模型剛出來不久,對素材要求高,訓練出來效果逼真,但新手操作復雜,不建議新手玩這個模型。
最后一種就是今天我們要介紹的SAEHD模型,這個模型也是使用范圍最廣,運用最成熟的一種模型??梢造`活調整各種模型的參數,以達到最佳的訓練效果。那么我們開始講SAEHD模型的訓練。
雙擊批處理文件 6) 訓練 SAEHD train SAEHD.bat
DeepFaceLab教程
這一步是訓練模型,所有步驟中最重要,最難,也是最耗時間的部分。
SAEHD模型推薦顯卡顯存在4G+,這里就以分辨率為128,其他參數默認的模型參數來演示,建議新手也跟我使用一樣的參數來練手,后期我會單獨做一個參數講解的教程。
如下圖,第一次運行會提示創建新模型,這里隨便輸入模型名稱,比如我們這里輸入128 你也可以默認回車,回車默認創建名為 new 的模型文件名。一路回車即可!
DeepFaceLab教程
所有參數設置完成后,程序就會自動加載素材,并顯示模型的參數,如下圖。
DeepFaceLab教程
之后底部會有一行跳動的數字,然后會跳出一個預覽窗口。如下圖
DeepFaceLab教程
先來說說底部的數字,總共五列,分別代表:模型保存時間,迭代次數,單次迭代時間,src損失,dst損失。理論上說,迭代次數是越多越好,損失是越低越好,零就是無損了嘛~不過,不可能達到,一般推薦數值在0.1以下!
這里補充一點,win10新增了顯卡加速功能,開啟能大大提高訓練速度,具體開啟方法為:設置-系統-顯示-圖形設置-硬件GPU加速計劃-打開
下面來說說預覽窗口
DeepFaceLab教程
預覽窗口包含操作提示、loss曲線,人臉區域。人臉區域總共五列。第一列是src,第三列是dst。第二,四,五列為算法生成列,剛開始是純色,啥頭像都沒有。隨著訓練的進行,會慢慢出現輪廓,鼻子,眼睛,然后慢慢變清晰。
訓練的過程就是等待這幾列變清晰的過程,最后一列就是換臉后的效果。
這個過程,就是訓練模型,我們俗稱“煉丹”。根據顯卡的性能,這個過程可能持續十天半個月,甚至是一個月或者更長的時間。但是我們可以使用訓練好的模型,如下圖,我們使用訓練好的模型,第2,4,5這幾列是不是立馬變清晰了?使用模型就省去了大量的時間去從0訓練模型,省去了訓練模型的這十天半個月的時間。所以,如果想快速合成或者不想浪費時間去訓練模型的小伙伴,可以聯系我購買訓練好的模型,快速合成。
DeepFaceLab教程
不管是使用模型還是自己訓練模型,通過預覽圖來判斷就更加直觀了,如上圖。只要觀察第二列是否無限接近第一列,第四列是否無限接近第三列。第五列的表情是否無限接近第四列。所有列的圖片是否都足夠清晰。如果是的,且損失值在0.1左右 ,那么就可以點擊預覽窗口并按回車結束訓練,進入下一步(如果你的損失值在0.1以上且一直降不下去,只要預覽足夠清晰,也可以結束訓練,先嘗試合成,效果不好再返回繼續訓練)。
正常情況下模型會過二十五分鐘保存一次,也可以點擊預覽窗口手動按S直接保存。關閉后,可以重新點擊批處理文件繼續訓練,不用擔心丟失進度。當然,要防止意外關機和重啟,可能會損壞模型。如果模型訓練結束,可以點擊預覽窗口,按回車Enter鍵保存當前進度并退出訓練。
網盤贈送一套df-128的模型,使用參考網盤教程2:模型使用教程
可免訓練直接進行下一步合成操作,方便新手快速學習軟件操作!
Step6:應用模型
DeepFaceLab教程
雙擊批處理文件 7) 應用 SAEHD merge SAEHD.bat
這個步驟要做的是將圖片進行換臉。應用SAEHD模型也很簡單。啟動直接按回車選中或者輸入對應的數字選中上一步已經訓練好的模型。然后軟件就會加載模型并顯示模型參數。
然后需要配置兩個參數:
一個是是否啟用交互模式,直接回車,默認啟用。
一個是線程數量,新版支持最大核心數,可以默認,如果報錯,這里改成8
稍等一會兒會彈出幫助界面。
DeepFaceLab教程
這個界面并沒有任何功能上的用處,只是顯示了這個環節可以使用的快捷鍵。每個快捷鍵旁邊都有中文注釋,可以看個大概,具體的參數含義在后期的教程會做詳細的介紹。
點擊這個界面,確保輸入法為英文,按下鍵盤上的Tab,就可以進入合成預覽界面。
DeepFaceLab教程
進來后,默認情況下都會有人皮面具的感覺,這是正常現象。因為我們參數還沒有調整!就這個素材來說,只要調整W/S,E/D 快捷鍵即可(W和S鍵是調節遮罩侵蝕的加減;E和D鍵是調節遮罩羽化效果的加減),新手建議先學習這幾個參數,基本也夠用了。調整后的效果如下:
DeepFaceLab教程
調整后可以試試查看預覽效果,覺得差不多可以了,按下快捷鍵shift+?(向后應用到所有幀) 然后再按下shift+>(自動合成) 就開始自動合成了。也可以通過鍵盤上的< 和 >進行手動切換,查看前后幀的合成效果。(注:所以快捷鍵操作都需要先點擊預覽窗口)
DeepFaceLab教程
黑色窗口會顯示所有的合成參數,這里的參數后期進階教程也會詳細介紹。等到進度到了100%完成之后,手動關閉窗口即可。
DeepFaceLab教程
此時,在data_dst下面已經多了兩個文件,一個是merged,一個是merged_mask
DeepFaceLab教程
進入merged可以看到很多圖,這些圖片中的人臉已經完全換臉。
DeepFaceLab教程
進入merged_mask可以看到一些黑色的圖片,中間有一個白色的區域。這些文件是為了方便后期制作。我們單純使用DFL的不用太關心。
Step7:合成視頻
DeepFaceLab教程
雙擊批處理文件 8) 合成 MP4 視頻 merged to mp4.bat
這個步驟是將已經換好臉的圖片轉換成視頻,并且會自動讀取源視頻的配置信息,包括幀率,音軌這些。這個環節只有一個輸出碼率的參數,常規來說4就夠了,你也可以默認16。
除了合成mp4之外,還可以根據自己的需求合成無損視頻,AVI ,MOV等格式,便于后期處理。
DeepFaceLab教程
執行完成后,workspace下面多了兩個文件,分別是result.mp4和 result_mask.mp4 。result.mp4就是我們需要的最終視頻,后者是遮罩視頻,供后期使用。
DeepFaceLab教程
雙擊打開視頻,就可以看到最終效果了。因為我只是為了做教程,所以模型沒有充分的訓練,合成也只是隨便調了幾個參數,并非最終的完美效果,你可以根據自己的需要,繼續訓練模型以達到最好的效果。
軟件雖然不難,已經接近傻瓜化,但是想要做出好的作品,還是需要熟練掌握軟件基礎操作,多練習,好的模型+好的素材才能有好的合成作品。這是專業的換臉軟件,市面上幾乎所有神乎其技的換臉視頻都是基于DFL,有些可能專門準備了道具場景并使用了后期制作。新手不要急于求成,一步步來,先學習軟件操作,再慢慢摸索,不要上來就換,基礎的知識都不學習,一步一個腳印,相信你也很快能做出完美的作品!
本圖文教程基于TONY教程修改和完善!