ACCV 2020 會議正在召開,同時官方已經(jīng)公布了收錄其中的 255 篇論文。昨日已經(jīng)與大家分享了:
令人驚喜的是,大會有約一半的論文已開源,今日先來一波 星標(biāo)前 10 的論文『截至2020 年 11 月 30 日』。
by and
目標(biāo)對象和具有相似類別干擾物的大規(guī)模偏差是視覺跟蹤中的一大挑戰(zhàn),在本次工作中,來自韓國首爾大學(xué)和中央大學(xué)的學(xué)者提出全新的 和上下文嵌入模塊,用于基于孿生網(wǎng)絡(luò)的視覺跟蹤。在多個基準(zhǔn)數(shù)據(jù)集上獲得的實(shí)驗(yàn)結(jié)果表明,所提出的跟蹤器的性能達(dá)到最先進(jìn)的行列,同時所提出的跟蹤器能以實(shí)時速度運(yùn)行。
作者 | Choi, Kwon, Mu Lee論文 |代碼 |備注 |ACCV | 18
Rank 8(并列)
with 3D and Body Poses百度研究員提出一個全新方法:,將給定音頻轉(zhuǎn)換為特定人物照片的逼真視頻,輸出視頻具有同步性、逼真以及豐富的身體動態(tài)。
作者 |Miao Liao,Sibo Zhang,Peng Wang,Hao Zhu, Zuo, Yang論文 |主頁 |代碼 |備注|ACCV | 19
Rank 8
Meta- via
來自加州大學(xué)默塞德分校,美國NEC實(shí)驗(yàn)室;英偉達(dá);臺灣陽明交通大學(xué);谷歌的學(xué)者所提出的 方法緩解現(xiàn)有的基于梯度的元學(xué)習(xí)模型中的過擬合問題,提高跨域少樣本分類的性能。
作者 |Hung-Yu Tseng,Yi-Wen Chen,Yi-Hsuan Tsai,Sifei Liu,Yen-Yu Lin,Ming-Hsuan Yang論文 |代碼 |備注|ACCV | 19
Rank 7
: Story Based with
牛津大學(xué) VGG 組學(xué)者創(chuàng)建了 數(shù)據(jù)集(CMD),由 3K 多部電影中的關(guān)鍵場景組成:每個關(guān)鍵場景都附有場景的高級語義描述、人物臉部軌跡和電影的元數(shù)據(jù)。該數(shù)據(jù)集是可擴(kuò)展的,從 自動獲取,任何人都可以免費(fèi)下載使用。它在電影數(shù)量上也比現(xiàn)有的電影數(shù)據(jù)集大一個數(shù)量級;在該數(shù)據(jù)集上提供了一個文本到視頻檢索的深度網(wǎng)絡(luò)基線,將字符、語音和視覺線索結(jié)合到一個單一的視頻嵌入中;同時該文還展示了如何從其他視頻剪輯中添加上下文來提高檢索性能。
作者 |Max Bain,Arsha , Brown, 論文 |主頁 |~vgg//-/代碼 |備注|ACCV | 20
Rank 6
A to -Based 6DoF
德國航空航天中心和慕尼黑工業(yè)大學(xué)學(xué)者提出一個全新的、高效的、稀疏的基于區(qū)域的 6DoF 目標(biāo)跟蹤方法,只需一個單目 RGB 相機(jī)和 3D 目標(biāo)模型。
在 RBOT 數(shù)據(jù)集上,所提出算法在跟蹤成功率和計算效率方面都以相當(dāng)大的優(yōu)勢優(yōu)于最先進(jìn)的基于區(qū)域的方法。
作者 | , , Klaus H. , , Alin Albu-Sch論文 |/gion-er.pdf代碼 |備注|ACCV | 23
Rank 5
: for Image
GANs 雖然是生成式圖像建模的一種強(qiáng)大方法,但其訓(xùn)練的不穩(wěn)定性卻十分棘手,特別是在大規(guī)模的復(fù)雜數(shù)據(jù)集上。近期的 工作顯著提高了 的圖像生成質(zhì)量,但它需要一個巨大的模型,因此很難在資源有限的設(shè)備上部署。為了減小模型大小,中國臺灣中央研究院資訊科學(xué)研究所學(xué)者提出一種壓縮 GAN 的黑盒知識蒸餾框架,突出了穩(wěn)定高效的訓(xùn)練過程。給定 作為教師網(wǎng)絡(luò),設(shè)法訓(xùn)練一個小得多的學(xué)生網(wǎng)絡(luò)來模仿它的功能,在生成器的參數(shù)減少 16 倍的情況下,在 和 FID 分?jǐn)?shù)上實(shí)現(xiàn)了有競爭力的性能。
作者 |Ting-Yun Chang,Chi-Jen Lu論文 |代碼 |備注|ACCV | 30
Rank 4
to and to : in
來自法國雷恩第一大學(xué),法國南布列塔尼大學(xué),公司等的學(xué)者對在 boxes 和 truth boxes 之間使用 IoU 作為目標(biāo)檢測中 的良好標(biāo)準(zhǔn)提出質(zhì)疑,并研究了檢測過程中涉及的兩個子任務(wù)(即定位和分類)的相互依賴性。
提出 機(jī)制,通過根據(jù)一個任務(wù)的預(yù)測質(zhì)量為另一個任務(wù)分配錨標(biāo)簽,提供錨和目標(biāo)之間的自適應(yīng)匹配,反之亦然。在不同的架構(gòu)和不同的公共數(shù)據(jù)集上評估了所提出的方法,并與傳統(tǒng)的靜態(tài)錨匹配策略進(jìn)行了比較。報告的結(jié)果顯示了這種機(jī)制在目標(biāo)檢測中的有效性和通用性。
作者 |Heng Zhang,Elisa ,Sé ,Bruno 論文 |代碼 |備注|ACCV | 31
Rank 3
Patch SVDD: Patch-level SVDD for and
來自韓國首爾大學(xué)的學(xué)者提出 Patch SVDD 方法,用于圖像異常檢測和分割的方法。與 Deep SVDD 不同的是,在 patch level 時檢查圖像,可以定位缺陷。額外的自監(jiān)督學(xué)習(xí)提高了檢測性能。因此,所提出的方法在MVTec AD工業(yè)異常檢測數(shù)據(jù)集上取得SOTA。
作者 |Jihun Yi, Yoon論文 |代碼 |--備注|ACCV | 45
Rank 2
: Deep Super-
來自蘇黎世聯(lián)邦理工學(xué)院的計算機(jī)視覺實(shí)驗(yàn)室,作者稱 是第一個利用語義圖探索超分辨率的方法,所提出模型大大超越了普通的放大系數(shù),可放大到 32 倍,對人臉的驗(yàn)證證明了高感知質(zhì)量的結(jié)果。作者還指出了一些進(jìn)一步可研究方向微信關(guān)注代碼生成器,如在隱風(fēng)格空間中確定有意義的方向(如年齡、性別、光照度、對比度等),或者將應(yīng)用到其他領(lǐng)域。
作者 | C. Bühler,Andrés ,Radu 論文 |主頁 |代碼 | 備注 |ACCV 2020 (oral)Star | 49
Rank 1
: in Human 來自法國雷恩第一大學(xué)、倫敦大學(xué)學(xué)院等的學(xué)者在本文中研究的內(nèi)容是人類軌跡預(yù)測(Human (HTP))數(shù)據(jù)集的比較,并圍繞人類軌跡預(yù)測性、軌跡規(guī)律性、上下文復(fù)雜性這三個概念對不同數(shù)據(jù)集的復(fù)雜度進(jìn)行了評估。并根據(jù)這些指標(biāo)比較了 HTP 任務(wù)中最常見的數(shù)據(jù)集,以及討論了對 HTP 算法基準(zhǔn)測試的意義。在 上介紹了現(xiàn)有的 HTP 數(shù)據(jù)集,并提供了加載、可視化和分析數(shù)據(jù)集的工具。
作者 |Javad , Zhang, ,Juan Jose ,Jean- Hayet, 論文 |代碼 |備注|ACCV | 91
交流群
歡迎加入公眾號讀者群一起和同行交流微信關(guān)注代碼生成器,目前有SLAM、三維視覺、傳感器、自動駕駛、計算攝影、檢測、分割、識別、醫(yī)學(xué)影像、GAN、算法競賽等微信群(以后會逐漸細(xì)分),請掃描下面微信號加群,備注:”昵稱+學(xué)校/公司+研究方向“,例如:”張三 + 上海交大 + 視覺SLAM“。請按照格式備注,否則不予通過。添加成功后會根據(jù)研究方向邀請進(jìn)入相關(guān)微信群。請勿在群內(nèi)發(fā)送廣告,否則會請出群,謝謝理解~
投稿、合作也歡迎聯(lián)系:
掃描關(guān)注視頻號,看最新技術(shù)落地及開源方案視頻秀↓