到自拍,大家想到的或許都是臉占畫面1/2以上、英文稱為「 Selfie 」的照片,不過想必大家也看過不少超專業的藝術自拍。今天就一起來看看這類在英文中稱作「Self-Portrait」(自拍人像)自拍題材,究竟需要哪些基本裝備和技巧吧!
▲photo by Carolina Tarré
沒有麻豆不用愁,自導自演
自拍人像(Self-Portrait)作為一種攝影題材,常常出現在不少攝影師的創作中,也不時出現在攝影比賽的題目里。比起一般人像攝影,自拍人像的困難度似乎更高,一來在拍攝過程中你很難直接看到自己在鏡頭中的表現,二來調整相機參數、設定器材也必須花比較多的時間,尤其是對焦這點,因為無法「Live View」拍攝畫面而難以確認對焦是否準確。
話又說回來,自拍人像也有省時間的地方,比方不需要花時間跟麻豆溝通或引導,因為麻豆就是你自己,只要你清楚知道自己要的是怎樣的表情和姿勢,想要呈現什么樣的情緒氛圍,其他就是技術性的問題。而且,反正因為只有自己一個人嘛,自由度很高,你可以花一整天的時間自己拍到爽,嘗試各種莫名其妙的點子,尺度全開也沒人管你。
當下年輕一輩也越來越勇于表現自我,不少攝影新銳也選擇這樣的題材,并創作出令人驚艷的作品,像美國的14歲攝影師fiddle oak(筆名)的微距自拍、住在挪威的18歲攝影師Xin Li的超現實自拍等,都十分精彩。
▲14歲美國攝影師fiddle oak的奇幻自拍,眾人驚艷。
基本裝備
想要進行這樣的自拍創作,除了相機和鏡頭外,還需要以下配件輔助。
腳架
用來在各種場景下架設你的相機,是進行此類自拍創作必不可少的配件之一,挑選時注意腳架的可承載重量,并可根據不同的拍攝環境選擇不一樣特性的腳架,不過無論如何,穩定性最重要,畢竟這樣的自拍創作,腳架彷彿是你的替身,要跟你一起「長期抗戰」,若沒有良好的穩定性,或許會在你還沒拍爽前就先倒下了。
▲選擇腳架時講究穩定性和最大載重。
遙控快門線或無線遙控器
雖然說大多數相機都具備自拍快門延遲的功能,但若想要讓你的拍攝過程更「舒適」一點,建議使用快門遙控工具,如快門線或無線遙控器來輔助,而若相機本身自帶Wi-Fi功能的話,亦可與手機連線來遙控快門。
外接取景器
自拍創作在傳統上來說,比較困難的點在于無法在拍攝的同時預覽到自己在畫面中的景象,然而現在不少相機具有翻轉顯示屏功能,對于自拍創作上提供一定的方便性。然而,如果你覺得翻轉顯示屏太小不方便取景的話,也可以利用HDMI輸出功能外接平板、計算機顯示屏,甚至是電視屏幕,讓你的拍攝更便利。(編按:不過在戶外就比較麻煩了吧!)
▲透過HDMI端外接計算機或電視,讓自拍人像創作更容易。
閃光燈
創作時難免會碰到光線不足或逆光環境,這時就需要閃光燈或其他光線為人像作補光的部分。能配備閃光燈是最好,更專業一點要用棚燈的話也可以,但若兩者皆無時,可利用臺燈來試試看。
▲若沒有閃光燈或棚燈,也可使用臺燈來補光。〈圖片來源:IKEA〉
創意自拍的計劃劃構思
老實說,在準備裝備之前就應該先擬好所謂的「拍攝計劃」,更有勝者不妨先擬一份拍攝計劃書,拍攝主題、風格走向、具體場景、畫面內容、構圖到自己的服裝飾品、需要準備的道具等全部列出來,能使拍攝的前置作業更加完備。
▲自拍人像創作,講求體現個人特色。photo by Josh Libatique
體現個人特色風格
個人特色,可從個人外觀特征、個人風格取向上來進行選擇。想想看你的身上有什么特征是比較好發揮的?美國攝影師Nathan Marx抓住他自己光頭的特點,拍了一張明亮光頭的自拍照,就光頭這個特點,或許還可作彩繪或加上其他裝飾來進行其他創作。
你的興趣是什么?平常喜歡什么樣的東西?喜歡什么風格的創作?巴西的攝影玩家 Fabiano Rodrigues喜愛滑板,于是將滑板、建筑和攝影三者結合,創作出自拍作品。如果你喜愛籃球,那或許以籃球為主題也是個不錯的選擇。就拿攝影這個興趣,也能創作出許多不一樣效果的自拍照。
▲巴西攝影玩家 Fabiano Rodrigues喜愛滑板,于是將滑板、建筑和攝影三者結合,創作出自拍作品。
模擬特定場景情境
如果覺得自己沒有什么特別強烈的個人特色或喜好,也可給自己一些假想情境來豐富自拍創作。舉例來說,地主惠亮的「單身男別哭」系列,就是約會場景下的創意,假想自己有女朋友的話,可以拍出什么樣的畫面呢?而美國Suzanne Heintz與人偶的約會自拍,也有異曲同工之妙。給自己一個主題場景,例如失戀、單戀等主題,甚至可編一段小故事,用自拍影像來詮釋,當然這種類型的自拍,有時也十分挑戰演技或是場景氛圍的渲染。
▲地主惠亮的「單身男別哭」系列,就是約會場景下的創意。
▲單身女Suzanne Heintz連自己受傷,老公帶女兒來探病的場景都想到了。
拍攝技巧
使用替身協助對焦
自拍人像比較麻煩的點之一,在于對焦。由于作為拍攝對象的自己還不在鏡頭前,在自動對焦的情況下常會出現對焦對錯地方的情況。這時不妨準備個「替身」來做為對焦對象,可先使用AF對好焦之后,轉到MF模式,以避免跑焦。不過自己入鏡時的位置應該就是要在原來「替身」所在的位置,不然還是會有對焦失敗的可能。
▲photo by Blythe D
▲photo by Ikayama
注意景深控制
雖然說利用大光圈拍出淺景深的人像作品能有唯美的效果,但似乎會使對焦更加困難。一開始嘗試自拍人像時,建議先從小光圈開始,比較容易成功拍攝,若能結合環境背景,也能創作出效果非凡的自拍作品。
▲photo by Dustin Diaz
▲photo by J-Bird in K-town
柔和的光線比較容易掌握
無論在室內還是室外、自然光還是人造光,人像拍攝都講求柔和的光線,就算是自拍也一樣。在室內,可靠近窗邊,利用窗外的光線來拍攝。如果要到室外拍攝,盡量避開晴天中午太陽光強烈的時段,可選擇陰天或是黃金時間拍攝,獲得自然柔和的光線。當然若有需要也是能使用閃光燈或棚燈等光源進行補光,當技術比較成熟時,亦能挑戰看看制造特殊光影效果的自拍創作。
▲photo by Corie Howell
▲photo by Corie Howell
不一定要露臉
誰說自拍一定要眼看鏡頭,或一定要露臉,其實利用肢體、身體某部分細節展現想要表達的氛圍情緒,也能達到不錯的效果,比起總是要對著鏡頭展現露出不自然的笑容要更有特色。
▲photo by Anna Gay
▲photo by Bethan Phillips
更多精彩請關注微信公眾號dlmode-v
著微博、微信等社交媒體的普及,許多人都愛上了自拍,經常將自己的自拍照發到朋友圈中炫耀。不過同樣是自拍照,有的是美艷動人,有的卻老套俗氣。當然,自拍不只是簡單“咔”地一聲按下快門那么簡單,還是有一些技巧的。
圖1 據英國《鏡報》報道,泰國帕岸島一只大象用長鼻卷走加拿大游客的相機,戲劇性地成為一名“自拍大師”
天性愛自拍——自拍的三種方式
自拍,也就是自己給自己拍照,這似乎是人類的天性,如同很多人愛照鏡子一樣,自我欣賞。1838年人類首次將自己的影像記錄到膠卷上,第二年(1839年),美國攝影師羅伯特·科尼利厄斯就拍攝了世界上第一張自拍照。
自拍的方法主要有三種。一種是對鏡自拍,有點類似別人在給自己拍照。一種是自己手拿手機(相機)對著自己拍攝。因為手臂比較短,有著很大的局限,所以現在又流行起自拍桿,使得我們自拍時選擇角度的余地更大一些。
圖2 對鏡自拍時需要注意,你看到的現實在鏡中的布局已完全改變
還有一種自拍方法,使用的是手機(相機)的定時器功能。通過三腳架或者別的設備將手機固定好,設定好拍攝角度及定時的長度,然后自己跑向預定的位置,擺好POSE,等待手機快門自動啟動即可。以華為榮耀7手機為例,進入手機相機應用界面,點按左上角設置按鈕(三橫線圖標),在接下來的界面中點按右側的“設置”,從打開的界面中再點按“定時拍照”,選擇定時長度為2秒、5秒或10秒。回到拍攝界面,按下快門時,即可啟動定時器了。
圖3 手機中設置定時拍攝
圖4 啟動定時器后,會有滴滴的時間提示音
手機自拍的技巧
使用定時器自拍的時候,關鍵是要站對位置,拍攝前取景的時候,最好在站位的地方做上標志。不過更多的時候,我們是手拿手機,或者使用自拍桿進行自拍,這時候更注重的是角度。自己用手操控相機的時候,因為距離太近,臉部容易變形、變大,拍攝出來很不好看。一個較好的解決方法,就是使用從上往下,與臉部呈45度角的位置進行自拍,這樣拍攝出來的臉就會比較瘦削,并且還能拍出“尖”下巴的效果。記住,除非你是為了搞笑,要想美的話,最好不要從下往上的角度拍攝。
圖5 45度角是最經典的自拍模式
另外一個讓臉顯瘦的方法,就是用手或者其他道具(如鮮花、圖書等)遮住臉的一部分。如果是多人合影自拍,還有一個“坑友”的好方法,就是讓朋友的臉在前面,自己躲在朋友后面,這樣也會顯出你的臉“更小”。
圖6 多人合影逆光自拍
當然,自拍的時候也不用太實在,完全正臉對著鏡頭。其實大部分人的側臉會更好看,尤其以四分之一的側臉最美。找四分之一側臉的角度,可以側對著鏡頭,然后以最接近鏡頭這一邊的顴骨的那條垂直線做為參考,處于頭部的四分之一左右的位置就可以了。
自拍,什么都能拍
自拍不一定非得拍臉,其實你覺得自己哪一部分最美,都可以進行自拍。英國牛津字典曾經就自拍選出一系列的網絡熱詞,如自拍、頭發自拍、健身自拍等。如果你覺得自己的鼻子、手甚至腳比較好看,其實都可以自拍下來。無限的角度,無限的可能,展現無限美好的自己。
圖7 展現一頭秀發的自拍照
者按:本文作者 Andrej KarPathy,由閱面科技翻譯整理。
卷積神經網絡是非常強大的,它能在你的個人照片里識別出物體,地點和人物,又能在自動駕駛汽車里能識別出路標,行人和交通燈,還能在航空影像中識別出莊稼,森林和道路,在醫療圖像中識別出多種異常,諸如此類,不勝枚舉。在這些嚴肅的問題之外,這種高大上的視覺識別模型也可以用在消遣和娛樂上,博眾一笑。
在接下來我要給大家介紹的這個趣味實驗中,我們要做這樣一件事:我們從網絡中收集了2百萬張自拍圖,并將它們作為一個具有1億4千萬個參數,當今世界最先進的卷積神經網絡模型的輸入,來訓練一個分類器用以識別好的自拍和差的自拍。這么做的原因僅僅是因為這很簡單,而且我們也能輕松實現。讀完本文,你將會學到如何自拍的法門。
卷積神經網絡
在我們深入介紹這個實驗之前,我們先來簡單介紹一下卷積神經網絡是什么,這樣能讓更多的受好奇心驅使閱讀本文的讀者不至于始終處于云山霧罩的狀態。用通俗一點的話來說,卷積神經網絡是一把大錘,而計算機視覺問題不過是一些釘子。假如你在2015年聽說過或者閱讀過一些關于計算機如何識別圖像或者視頻中的物體的文章,大部分文章都會提到卷積神經網絡。下面就是一些例子:
卷積神經網絡眾多成功案例中的一部分。從上到下,從左到右依次是:街景圖片中識別門牌號,醫療圖像中識別壞東西,中文識別,路牌識別以及人臉識別。
卷積神經網絡恰好有著一段有趣的背景故事。卷積神經網絡最早是由Yann Lecun等人于上世紀80年代發展出來的技術(當然,還是基于前人,像是Fukushima的工作)。當時的卷積神經網絡被叫做LeNet 1,其中一個有趣的應用是在1993年用來識別數字。可惜的是,這類模型并不被當時的計算機視覺界接受,因為大家普遍認為這些模型沒辦法處理“真實世界”中的海量圖片。
這種觀念一直到2012年才被扭轉過來,那一年開始我們總算有了足夠的計算能力(特指GPU計算)以及足夠的數據(ImageNet),使得我們能夠真正地將這類模型應用到大規模的圖像上。首先取得突破的是Alex Krizhevsky,Ilya Sutskever和Geoff Hinton的工作,他們在2012年的ImageNet挑戰賽(把它當成計算機視覺界的世界杯即可)上取得了壓倒性的勝利(16.4%的錯誤率,遠低于第二名的26.2%的錯誤率)。
由于過去幾年的ImageNet挑戰賽是由Fei-Fei Li的實驗室組織的,恰好我就在她實驗室工作,因此我得以親眼見證了這一歷史的轉折點。我還記得當Hinton組的結果提交上來后,實驗室的一個妹子那一臉什么鬼的表情(因為實在太強了)。后來,我們大家都注意到了這個結果,紛紛站了起來,從實驗室的一頭走到另一頭,試圖去弄清楚剛才發生的一切。
在接下來的幾個月中,卷積神經網絡從一個備受質疑的晦澀模型一躍成為了計算機視覺界的香餑餑,幾乎所有新發表的計算機視覺論文都講其作為核心模型。ImageNet挑戰賽也反映出了這個趨勢——2012年的時候,只有Hinton一家用卷積神經網絡模型參賽,在那之后的2013年和2014年挑戰賽中,幾乎所有的參賽者都采用了卷積神經網絡模型。另一個有趣的現象是,每一年的冠軍小組都立刻被某一公司吸納。
這幾年里,比起2012年的AlexNet(這些模型名稱),我們見到了更加完美,簡潔并且處理更大規模的模型。2013年是ZFNet,2014年是GoogLeNet(這是Google版的LeNet,)和VGGNet。總之,現在我們知道卷積神經網絡有如下優點:
簡單:同一個操作在原始圖像上會被一遍一遍的重復數十次。
快速:在幾十毫秒內處理一個圖像。
有效:他們的工作原理在某些方面和我們組的視覺皮層工作很類似。
深入內部
那么,卷積神經網絡模型到底是怎么做的呢?如果你看一下模型的細節,你將會發現一種極為簡潔的計算思想被重復了一遍又一遍。下面這張動圖描述了一個小型卷積神經網絡的整個計算過程:
ConvNet推理過程的說明
在最左邊是我們的輸入,原始的圖像像素,我們可以用一個3維矩陣來表示它。例如,一個分辨率為256x256的圖像可以用一個256x256x3的矩陣來表示(這里的3表示RGB三個顏色)。接下去,我們就開始做卷積,聽上去很神奇,但實際上就是我們用一個小型濾波器從圖像的一頭滑動到另一頭,一行滑動到另一行。不同的濾波器對圖像中不同的特征有不同的反應:有一些濾波器看到一個很小的水平邊緣就會很激動,還有一些會對紅色的區域很敏感,等等等等。
假設,我們有10種不同的濾波器,通過這種方式我們可以將原始(256,256,3)的圖像轉換成另一個(256,256,10)的“圖像”。在這個經過變換后的“圖像”中,我們已經將原始圖像中的信息舍去了,留下的是原始圖像每一個位置上對這10個濾波器的響應。這就好像是我們將原始圖像的3個顏色通道(紅綠藍)變成10個濾波響應通道(在動圖中,原始圖像的右側第一列就是經過變換后的圖像)。
上面解釋了原始圖像右側第一列是怎么來的,那么,后面這些列又是怎么出來的呢?很簡單,繼續用濾波器對第一列的結果進行濾波得到第二列,對第二列濾波得到第三列,以此類推。不同的列會使用不同的濾波器組合對上一列進行操作,目的是漸進地去發現越來越復雜的視覺模式,而最后一組濾波器則是用來計算圖片的視覺分類概率(是汪星人還是癩蛤蟆)。當然,中間省略了一些細節,只保留了基本思想:將卷積進行到底。
剛才介紹了卷積神經網絡就是一個大型濾波器疊濾波器的集合。一個問題是,我們怎么知道該用什么樣的濾波器組合才能達到目的呢?實際上我們并不知道——最開始的時候我們完全隨機地選擇濾波器,然后一遍遍地訓練他們,讓他們變得更好。
下面開始舉例,我們給一個采用隨機濾波器的卷積神經網絡輸入一張圖片,最后它會告訴我們這個圖里有54%的可能含有狗。接著,我們可以告訴它,這實際是一只癩蛤蟆,通過一個數學過程,這個卷積神經網絡會小幅度地去調整它使用的濾波器,目的是為了當它下一次看到相同的圖是會告訴我們這張圖更可能有癩蛤蟆。我們要做的就是用數百萬的圖像重復這個過程數千萬次甚至數億次。下面就是見證奇跡的時刻,在卷積計算過程中所使用的不同濾波器會漸漸地調整自己去響應圖像中重要的東西,例如眼睛,頭部,甚至整個身體等等。
上圖是從一個經過訓練后的卷積神經網絡中隨機選出12個濾波器,可以看看它們對圖像的什么部分響應強烈。圖是從Matthew Zeiler的Visualizing and Understanding Convolutional Networks里借來的。這里展示的濾波器處于卷積的第三階段,看上去像是在尋找蜂窩狀的模式,或者是輪子/軀干/文字等等。再次強調,這并不是我們特意設置的。一切都是模型自發形成的,我們只能來檢視。
另一組非常優秀的卷積神經網絡可視化的例子可以從Jason Yosinki等人的Deepvis項目中找到。其中包含了一個非常有趣的演示,用你電腦上的攝像頭來實時地演示卷積神經網絡的工作原理。
深度可視化工具箱
總結一下,卷積神經網絡的整個訓練過程就好像是給一個小孩看許多物體的圖像,然后小孩要從中逐漸發現該在圖像中看什么以及怎么把這些物體找到。假如你更喜歡技術一點說法,那卷積神經網絡是一個從圖像像素到分類概率的函數,濾波器是它的參數,我們采用隨機梯度下降法來優化一個分類損失函數。如果你對什么人工智能,大腦,奇點著迷,那可以把這個函數說成是一個“深度神經網絡”,這些濾波器是神經元,而整個卷積神經網絡就是一種自適應的模擬視覺皮層組織。
訓練 ConvNet
卷積神經網絡的一個優點就是你可以輸入任何圖像,只要你喜歡(帶上一些標簽),然后它們就開始學習如何識別這些標簽了。在這個例子里,我們將一些好的自拍和差的自拍作為卷積神經網絡的輸入,接著它將神奇的發現如何區分一張自拍照是好的還是差的。讓我們先搞點自拍圖:
我寫了一個小腳本來抓取帶有#selfie標簽的圖片。最后我抓了大概500萬張圖片(在卷積神經網絡中,圖片總是多多益善)。
我用另一個卷積神經網絡將這500萬張圖中不帶人臉的圖片扔了,最后還剩下200萬張圖片。
接下去就是去挑選哪些自拍是好的,哪些自拍是差的。直觀上講,我們需要去計算一張自拍有多少人看過,然后將點贊的人數和粉絲群體的大小用一個函數關聯起來。首先,我拿了所有的自拍用戶,并將他們按照粉絲的數量進行排序,排序時,我會給圖片上每一個額外的標簽加一些些分,因為額外的標簽也許能吸引更多的目光。
接下來,我將這些排好序用戶以100為大小分組,根據點贊的數量對這100張自拍圖進行排序。這里我只選用了已經在網上掛了超過一個月的圖,目的是得到一個比較穩定的點贊數。我將排在前面的50張自拍作為好的自拍,排在后50張的自拍作為差的自拍。最終,我們將整個200萬張圖一分為二,一半是好的自拍一半是差的自拍,然后我們又對可能看過所有自拍的人數做了一次歸一化處理。我還將那些粉絲數量太少或者太多的用戶過濾掉了,還有一些圖片上有太多標簽的也被過濾了。
用上面這個100萬好自拍,100萬差自拍的數據集來訓練一個卷積神經網絡。
到這里,你可能會反對我判斷一張自拍是好是差的方法——比如說,有人上傳了一張非常棒的自拍,但是上傳時間是半夜,因此可能不會有很多人看到它,那它得到的點贊也就少了,這時候該怎么辦?你說的對——我的這種分類方法肯定有問題,不過沒關系,只要這100萬張好自拍中真正好的自拍更多就行了,卷積神經網絡可以處理這種事情。它不會因此而迷惑或者氣餒,它只是盡自己的全力去解讀這些輸入。為了讓大家對區分好差自拍這個問題的難度有一個感性認識,我把一些訓練用的圖像貼在下面。假如我給你任意一張圖,你能很準確的回答它是好自拍還是差自拍嗎?
在我們的訓練數據中顯示好和壞自拍的示例圖像。 這些將作為數據提供給ConvNe
簡單介紹一些實現細節,我用了Caffe來訓練這個卷積神經網絡。我用了一個在ImageNet預訓練過的VGGNet,并針對這次的自拍數據集精調了參數。我用一塊英偉達K40GPU花了一個通宵來訓練這個模型。我禁用了模型中的 dropout選項,因為我發現禁用的結果更好一些。我還試著用一個在人臉數據集上預訓練的VGGNet,不過結果并不比ImageNet預訓練的好。最終,模型在測試集上達到了60%的準確率 (比隨機猜50%的準確率好一些)。
怎么拍出好自拍?
剛才說道,我們收集了200萬的自拍圖,又根據它們接受到的點贊數(對粉絲數量做了控制)將他們分成了好的自拍和差的自拍,然后將它們扔進Caffe來訓練一個卷積神經網絡。這個卷積神經網絡將每一張自拍都了“看”數十次,以此來調整它使用的濾波器,為了找到一種最佳的方式來區分好自拍和差自拍。我們沒辦法去確切地檢查它找出來的東西(這些濾波器的參數總共有1億4千萬個)。不過呢,我可以用它沒見過的自拍圖問它是好是差,進而去理解它是通過什么來判斷一張自拍的好與差的。
我用了5萬張自拍圖作為我的測試數據(這些自拍圖是這個卷積神經網絡沒見過的)。作為第一個可視化結果,下面這張圖里我將這些自拍圖按照從好到差的順序排列出來,最好的自拍在最上面一排,最差的自拍在最下面一排:
從最佳(頂部)到最差(底部)自拍的連續體,由ConvNet判斷。
挺有趣的,是吧?下面讓我們看看這個卷積神經網絡認為的最好的100張自拍圖(從5萬張圖的測試集中選出)是什么樣子的:
最好的100張自拍照,由卷積神經網絡判斷
要拍出一張好自拍,有如下要點:
1.首先你得是個女人. 女性的自拍一致地比男的自拍要好。特別是在前100張好自拍中,無一例外全是女性。
2.其次你的臉得占整個自拍的三分之一。注意到沒有,在排名靠前的自拍圖中,臉的位置和姿態出奇的一致。臉總是占據了整個圖片的1/3,臉要微微側過來一些,位置要在圖片的中上方。
3.將你的額頭截掉。至少對于女性來說它看起來像一個非常流行的策略。
4.展示你的長發,披肩長發能給你的自拍加分不少。
5.臉部要過飽和。光線過飽和在好自拍中經常出現, 這能讓臉部看來更加光滑白皙。
6.要使用濾鏡。黑白照看起來能加分, 大部分排名靠前的自拍看起來都用了某種濾鏡是的整個圖片帶有淡出效果并能降低對比度。
7.加上邊框。好自拍通常都會加上水平或者垂直的白邊。
有趣的是,這里的有些原則在男性身上就行不通了。我從前2000張自拍中找出了所有男性自拍,如下圖:
從2000自拍中選出來的幾個最好的男性自拍
很明顯,額頭截斷的情況沒有出現。相反,大部分自拍都會用稍廣的角度將整個腦袋都拍進去,還要露出肩膀。還有,大多數的男性頭發稍長,發型浮夸,還精心把頭發往上梳。不過,臉部過飽和這個特點還是能夠看得出來。
看過了好自拍,讓我們再來看看壞自拍是啥樣的。這次,我把圖片縮的很小讓大家看不出來是誰,因為我的目的是讓大家發現降低自拍質量的普遍模式是什么,而不是讓大家看看拍了差自拍的都有誰。下圖是卷積神經網絡認為比較差的自拍,很顯然,它們的點贊數一定很低:
由卷積神經網絡判斷出的最糟糕的300萬自拍
即便在這么低的分辨率下,我們還是能看出一些道道的。自拍時千萬不要:
1.在弱光環境下自拍。非常明顯, 那些很暗的照片 (通常也帶有大量噪點) 肯定會被卷積神經網絡打一個很低的分數。
2.把你的腦袋放太大。 這一條大概是因為沒人愿意湊這么近看你的臉。
3.拍合照。和小伙伴們一起自拍是很有趣,不過這會讓你的自拍減分。構圖要簡潔,你一個人出鏡就夠了,但也別占據鏡頭太多。
4.最后,區分一張自拍的好與差,很大程度上是看圖片的風格,而不是看本人長得好不好。還有一點讓我感到欣慰的是,那些露肉很多的自拍并不能讓它們的得分變高。最開始的時候,我還擔心這個屌炸天的卷積神經網絡會變成一個露肉分辨器。看來是我想多了。
那么作為明星們的自拍又是如何呢?作為最后一個有意思的實驗, 我試著讓這個卷積神經網絡給一些明星的自拍打個分。下圖中,得分從上到下,從左至右依次減少:
卷積神經網絡為名人自拍做出的判斷。最有吸引力的自拍:左上方
神奇的是,我們之前總結出來的一條經驗規律(不要拍合照)在這次實驗中不再有效了,像是艾倫·狄珍妮的知名合照,還有一些奧斯卡頒獎時候的合照得分都很高,排在了第二排。棒!
另一條經驗規律(男的自拍都不行)被克里斯·帕拉特的裸上身自拍(也排在第二排)妥妥地打破了,還有一些男明星的自拍得分也很高,像是丁日的挑眉照,扣扣熊和肥倫的合照(排在第三排)。然而詹姆斯·弗蘭科那近乎限制級的自拍(排在第四排)卻并沒有讓我們的卷積神經網絡留下很好的印象。
最后強調一點,圖片的風格很重要。有幾個長得絕對好看的人依舊排在了榜單的末尾,就是因為構圖不行,或者是光線不行等等。
探索自拍空間
我們還嘗試了另一種有趣的可視化方法t-SNE,來展示這些自拍圖。t-SNE是一種非常美妙的算法,由于它非常通用而且高效,我喜歡在幾乎所有數據上先試試用這個來一次。它需要輸入一些東西(這個例子里就是圖片),然后將他們按照相似相鄰的原則排列。
事實上,用t-SNE可以排列很多東西,像是Netflix的電影,單詞,Twitter的個人資料,ImageNet的圖片,任何東西只要量足夠而且可比較就行。在這里,我們將自拍圖按照卷積神經網絡認為的相似程度來排列。用專業術語來說,我們采用了最后一個全連接層中的fc7激活的L2范數來確定每張圖的得分進而比較其相似程度。下面是可視化結果:
自拍 t-SNE可視化
從而大家可以看出自拍圖以一種有趣的方式聚成了組:比如說,左上方是自拍合照,中左方是戴太陽鏡/眼鏡的自拍,左下是大頭照,右上有不少是對著鏡子來的全身照。我覺得這種現象還挺有趣的。
如何對自拍圖做最優剪裁?
我們還做了另一個有趣的實驗,用卷積神經網絡自動找出一張自拍圖的最優裁剪。我們先拍一張照片,隨機對其進行許多種可能的裁剪,然后把卷積神經網絡認為最好的一張選出來。下面是4組實驗結果,左側是原圖,右側是最好的裁剪圖:
四個對中的每一對顯示原始圖像(左)和ConvNet選擇為最佳(右)的圖像
注意到沒有,卷積神經網絡還是喜歡那種頭占據圖片1/3大小,額頭被切掉一部分的自拍。有趣的是,在右下這組實驗中,卷積神經網絡覺得沒有人的圖反而好,完全不對勁了有沒有。下面還有一些類似的例子,卷積神經網絡做出了不講道理的選擇:
原圖在左,裁剪圖在右
在一些行家提問之前,我先回答了:是的,我試過在原始圖像之后,卷積神經網絡之前插入一層空域變換層。我希望能得到了一個用6個參數表達任意裁剪的模型。不幸的是,這種方法不可行——優化有時候會卡住,或者任意偏向一個位置。我還嘗試過對變換加一些約束,只做放縮和平移,可惜還是沒用。幸運的是,如果這變換有三個有界的參數,那我們還是可以承受得起全局搜索最優解的。
你的自拍能打幾分?
是不是想看看你的自拍能得幾分?我們已經將這個網絡做成了一個Twitter機器人,方便大家來自測。(這個機器人大概只有150行的Python代碼,還包括了所有用到的Caffe/Tweepy代碼)。將你的圖片(或者鏈接)放在推文中,在推文的任意位置加上@deepselfie。
機器人會看下你的照片給出一個打分!為了得到最佳結果,自拍圖最好是正方形的,否則機器人會先將它壓成正方形,這會讓最終的得分變低。機器人會在一分鐘內回復你,如果沒出問題的話(出問題的時候,等一會兒再試一次)。
雷鋒網原創文章,網頁轉載請注明來自雷鋒網,署名作者和原文鏈接。微信轉載授權,請聯系雷鋒網公眾號,詳情見轉載須知。