2000 ~2019 年历届 CVPR 最佳论文汇总
原文鏈接:http://bbs.cvmart.net/topics/665/CVPR-Best-Paper
 
本文匯總了從 2000 ~ 2019年歷屆 CVPR 會議最佳論文,附上作者和論文鏈接(論文題目含超鏈),部分含論文解讀和代碼。原文文末有最佳論文合集下載鏈接~
值得注意的是:香港中文大學(xué)湯曉鷗教授、博士生何愷明與微軟亞洲研究院孫劍合作取得的有關(guān)圖像去霧的論文(CVPR 2009)是自CVPR設(shè)立以來第一次由我國研究單位為主取得的 CVPR最佳論文獎。
西北工業(yè)大學(xué)何明一教授及其博士生戴玉超以及澳大利亞國立大學(xué)高級研究人員Hongdong Li博士合作完成的論文“一種簡單的不需要先驗(yàn)信息的非剛性結(jié)構(gòu)與運(yùn)動恢復(fù)方法 "獲得了CVPR 2012 最佳論文獎,西北工業(yè)大學(xué)也因此成為中國大陸第一個獲得計(jì)算機(jī)視覺頂級會議最佳論文的研究機(jī)構(gòu)。
2019(1篇)
A Theory of Fermat Paths for Non-Line-of-Sight Shape Reconstruction
 非視線形狀重建的費(fèi)馬路徑理論
作者:辛?xí)? Sotiris Nousias, Kiriakos N. Kutulakos, Aswin C. Sankaranarayanan, Srinivasa G. Narasimhan and Ioannis Gkioulekas
核心內(nèi)容:我們提出了一個新的理論,即在一個已知的可見場景和一個不在瞬態(tài)相機(jī)視線范圍內(nèi)的未知物體之間的費(fèi)馬路徑(fermat path)。這些光路或者遵守鏡面反射,或者被物體的邊界反射,從而編碼隱藏物體的形狀。
 我們證明費(fèi)馬路徑對應(yīng)于瞬態(tài)測量中的不連續(xù)性?;诖?#xff0c;我們推導(dǎo)出一種新的約束,它將這些不連續(xù)處的路徑長度的空間導(dǎo)數(shù)與表面法線相關(guān)聯(lián)。
 基于這一理論,我們提出了一種名為Fermat Flow的算法來估計(jì)非視距物體的形狀。我們的方法第一次實(shí)現(xiàn)復(fù)雜對象的精確形狀恢復(fù),范圍從隱藏在拐角處以及隱藏在漫射器后面的漫反射到鏡面反射。
 最后,我們的方法與用于瞬態(tài)成像的特定技術(shù)無關(guān)。因此,我們展示了使用SPAD和超快激光從皮秒級瞬態(tài)恢復(fù)的毫米級形狀,以及使用干涉測量法從飛秒級瞬態(tài)微米級重建。我們相信,這項(xiàng)工作是非視距成像技術(shù)的重大進(jìn)步。
獲獎理由:這篇論文作出重大進(jìn)步的問題是非視線內(nèi)的物體形狀重建,換句話說就是能看到墻角后面的東西。這篇論文的理論部分非常優(yōu)美,而且同樣非常給人帶來激勵。它把計(jì)算機(jī)視覺所能解決的問題的邊界繼續(xù)向前推進(jìn)了一步。
CVPR 2019最佳論文得主專訪:非視距形狀重建的費(fèi)馬路徑理論
2018(1篇)
Taskonomy: Disentangling Task Transfer Learning
 任務(wù)學(xué):任務(wù)遷移學(xué)習(xí)的解耦
作者:Amir R. Zamir, Stanford University;Alexander Sax, Stanford University;
 沈博魁, Stanford University;Leonidas Guibas, Stanford University;
 Jitendra Malik, University of California Berkeley;Silvio Savarese, Stanford University
核心內(nèi)容:論文研究了一個非常新穎的課題,那就是研究視覺任務(wù)之間的關(guān)系,根據(jù)得出的關(guān)系可以幫助在不同任務(wù)之間做遷移學(xué)習(xí)。該論文提出了「Taskonomy」——一種完全計(jì)算化的方法,可以量化計(jì)算大量任務(wù)之間的關(guān)系,從它們之間提出統(tǒng)一的結(jié)構(gòu),并把它作為遷移學(xué)習(xí)的模型。實(shí)驗(yàn)設(shè)置上,作者首先找來一組一共 26 個任務(wù),當(dāng)中包括了語義、 2D、2.5D、3D 任務(wù),接著為任務(wù)列表里的這 26 個任務(wù)分別訓(xùn)練了 26 個任務(wù)專用神經(jīng)網(wǎng)絡(luò)。結(jié)果顯示,這些遷移后的模型的表現(xiàn)已經(jīng)和作為黃金標(biāo)準(zhǔn)的任務(wù)專用網(wǎng)絡(luò)的表現(xiàn)差不多好。論文提供了一套計(jì)算和探測相關(guān)分類結(jié)構(gòu)的工具,其中包括一個求解器,用戶可以用它來為其用例設(shè)計(jì)有效的監(jiān)督策略。
論文解讀:https://zhuanlan.zhihu.com/p/38425434
代碼鏈接:https://github.com/StanfordVL/taskonomy
CVPR2018最佳論文演講:研究任務(wù)之間的聯(lián)系才是做遷移學(xué)習(xí)的正確姿勢
Taskonomy的網(wǎng)站:taskonomy.stanford.edu.
2017(2篇)
Densely Connected Convolutional Networks
 密集連接的卷積網(wǎng)絡(luò)
作者:劉壯, 清華大學(xué);黃高, Cornell University;
 Laurens van der Maaten, Facebook AI Research;Kilian Q. Weinberger, Cornell University
核心內(nèi)容:近期的研究已經(jīng)展現(xiàn)這樣一種趨勢,如果卷積網(wǎng)絡(luò)中離輸入更近或者離輸出更近的層之間的連接更短,網(wǎng)絡(luò)就基本上可以更深、更準(zhǔn)確,訓(xùn)練時也更高效。這篇論文就對這種趨勢進(jìn)行了深入的研究,并提出了密集卷積網(wǎng)絡(luò)(DenseNet),其中的每一層都和它之后的每一層做前饋連接。對于以往的卷積神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)中的每一層都和其后的層連接,L 層的網(wǎng)絡(luò)中就具有 L 個連接;而在 DenseNet 中,直接連接的總數(shù)則是 L(L+1)/2 個。對每一層來說,它之前的所有的層的 feature-map 都作為了它的輸入,然后它自己的 feature-map 則會作為所有它之后的層的輸入。
論文解讀:CVPR 2017最佳論文解讀:密集連接卷積網(wǎng)絡(luò)
代碼鏈接:
 Torch implementation: https://github.com/liuzhuang13/DenseNet/tree/master/models
PyTorch implementation: https://github.com/gpleiss/efficient_densenet_pytorch
MxNet implementation: https://github.com/taineleau/efficient_densenet_mxnet
Caffe implementation: https://github.com/Tongcheng/DN_CaffeScript
Learning from Simulated and Unsupervised Images through Adversarial Training
 通過對抗訓(xùn)練從模擬的和無監(jiān)督的圖像中學(xué)習(xí)
作者:Ashish Shrivastava, Apple Inc.;Tomas Pfister, Apple Inc.;
 Oncel Tuzel, Apple Inc.;Josh Susskind, Apple Inc.;
 Wenda Wang, Apple Inc.;Russ Webb, Apple Inc.
核心內(nèi)容:隨著圖像領(lǐng)域的進(jìn)步,用生成的圖像訓(xùn)練機(jī)器學(xué)習(xí)模型的可行性越來越高,大有避免人工標(biāo)注真實(shí)圖像的潛力。但是,由于生成的圖像和真實(shí)圖像的分布有所區(qū)別,用生成的圖像訓(xùn)練的模型可能沒有用真實(shí)圖像訓(xùn)練的表現(xiàn)那么好。為了縮小這種差距,論文中提出了一種模擬+無監(jiān)督的學(xué)習(xí)方式,其中的任務(wù)就是學(xué)習(xí)到一個模型,它能夠用無標(biāo)注的真實(shí)數(shù)據(jù)提高模擬器生成的圖片的真實(shí)性,同時還能夠保留模擬器生成的圖片的標(biāo)注信息。論文中構(gòu)建了一個類似于 GANs 的對抗性網(wǎng)絡(luò)來進(jìn)行這種模擬+無監(jiān)督學(xué)習(xí),只不過論文中網(wǎng)絡(luò)的輸入是圖像而不是隨機(jī)向量。為了保留標(biāo)注信息、避免圖像瑕疵、穩(wěn)定訓(xùn)練過程,論文中對標(biāo)準(zhǔn) GAN 算法進(jìn)行了幾個關(guān)鍵的修改,分別對應(yīng)「自我正則化」項(xiàng)、局部對抗性失真損失、用過往的美化后圖像更新鑒別器。
論文詳解:https://www.leiphone.com/news/201707/IGVe5J0p57WrGkPc.html
2016(1篇)
Deep Residual Learning for Image Recognition
 圖像識別中的深度殘差學(xué)習(xí)
作者:何凱明, Microsoft Research;張翔宇, Microsoft Research;
 任少卿, Microsoft Research;孫劍, Microsoft Research
核心內(nèi)容:在現(xiàn)有基礎(chǔ)下,想要進(jìn)一步訓(xùn)練更深層次的神經(jīng)網(wǎng)絡(luò)是非常困難的。我們提出了一種減輕網(wǎng)絡(luò)訓(xùn)練負(fù)擔(dān)的殘差學(xué)習(xí)框架,這種網(wǎng)絡(luò)比以前使用過的網(wǎng)絡(luò)本質(zhì)上層次更深。我們明確地將這層作為輸入層相關(guān)的學(xué)習(xí)殘差函數(shù),而不是學(xué)習(xí)未知的函數(shù)。同時,我們提供了全面實(shí)驗(yàn)數(shù)據(jù),這些數(shù)據(jù)證明殘差網(wǎng)絡(luò)更容易優(yōu)化,并且可以從深度增加中大大提高精度。我們在 ImageNet 數(shù)據(jù)集用 152 層–比 VGG 網(wǎng)絡(luò)深 8 倍的深度來評估殘差網(wǎng)絡(luò),但它仍具有較低的復(fù)雜度。在 ImageNet 測試集中,這些殘差網(wǎng)絡(luò)整體達(dá)到了 3.57% 的誤差。該結(jié)果在 2015 年大規(guī)模視覺識別挑戰(zhàn)賽分類任務(wù)中贏得了第一。此外,我們還用了 100 到 1000 層深度分析了的 CIFAR-10。
 對于大部分視覺識別任務(wù),深度表示是非常重要的。僅由于極深的表示,在 COCO 對象檢查數(shù)據(jù)時,我們就得到了近 28% 相關(guān)的改進(jìn)。深度剩余網(wǎng)絡(luò)是我們提交給 ILSVRC 和 COCO2015 競賽的基礎(chǔ),而且在 ImageNet 檢測任務(wù),ImageNet 定位,COCO 檢測和 COCO 分割等領(lǐng)域贏我們獲得了第一。
GitHub 鏈接:https://github.com/KaimingHe/deep-residual-networks
2015(1篇)
DynamicFusion: Reconstruction and Tracking of Non-rigid Scenes in Real-Time
 動態(tài)融合:實(shí)時非剛性場景的重建與跟蹤
作者:Richard A. Newcombe, University of Washington;Dieter Fox, University of Washington;
 Steven M. Seitz, University of Washington
核心內(nèi)容:作者提出第一個結(jié)合商用傳感器對 RGBD 掃描結(jié)果進(jìn)行捕獲,該結(jié)果可實(shí)時重建非剛性變形場景的密集 SLAM 系統(tǒng)。被稱作 DynamicFusion 的這種方法在重建場景幾何的當(dāng)兒,還能同時估算一個密集體積的 6D 運(yùn)動場景,并將估算結(jié)果變成實(shí)時框架。與 KinectFusion 一樣,該系統(tǒng)可以生成越來越多去噪、保留細(xì)節(jié)、結(jié)合多種測量的完整重建結(jié)果,并實(shí)時顯示最新的模型。由于該方法無需基于任何模板或過往的場景模型,因此適用于大部分的移動物體和場景。
2014(1篇)
What Camera Motion Reveals About Shape with Unknown BRDF
 關(guān)于未知雙向反射分布函數(shù),攝像機(jī)運(yùn)動揭示了什么
作者:Manmohan Chandraker, NEC Labs America
核心內(nèi)容:作者提出了一種理論,用于解決在未知遠(yuǎn)距離照明以及未知各向同性反射率下,運(yùn)動物體的形狀識別問題,無論是正交投影還是穿透投影。該理論對表面重建硬度增加了基本限制,與涉及的方法無關(guān)。在正交投影場景下,三個微分運(yùn)動在不計(jì) BRDF 和光照的情況下,可以產(chǎn)生一個將形狀與圖像導(dǎo)數(shù)聯(lián)系起來的不變量。而在透視投影場景下,四個微分運(yùn)動在面對未知的 BRDF 與光照情況,可以產(chǎn)生基于表面梯度的線性約束。此外,論文也介紹了通過不變量實(shí)現(xiàn)重建的拓?fù)漕悺?br /> 最后,論文推導(dǎo)出一種可以將形狀恢復(fù)硬度與場景復(fù)雜性聯(lián)系起來的通用分層。從定性角度來說,該不變量分別是用于簡單照明的均勻偏微分方程,以及用于復(fù)雜照明的非均勻方程。從數(shù)量角度來說,該框架表明需要更多的最小運(yùn)動次數(shù)來處理更復(fù)雜場景的形狀識別問題。關(guān)于先前假設(shè)亮度恒定的工作,無論是 Lambertian BRDF 還是已知定向光源,一律被被當(dāng)作是分層的特殊情況。作者利用合成與真實(shí)數(shù)據(jù)進(jìn)一步說明了重建方法可以如何更好地利用這些框架。
 
2013(1篇)
Fast, Accurate Detection of 100,000 Object Classes on a Single Machine
 在單個機(jī)器上快速、準(zhǔn)確地對100,000個物體類別進(jìn)行檢測
作者:Thomas Dean, Google;Mark A. Ruzon, Google;
 Mark Segal, Google;Jonathon Shlens, Google;
 Sudheendra Vijayanarasimhan, Google;Jay Yagnik, Google
核心內(nèi)容:許多物體檢測系統(tǒng)受到將目標(biāo)圖像與過濾器結(jié)合進(jìn)行卷積所需時間的約束,這些過濾器從不同的角度對物件的外表(例如物體組件)進(jìn)行編碼。作者利用局部敏感散列這點(diǎn),將卷積中的點(diǎn)積內(nèi)核運(yùn)算符替換為固定數(shù)量的散列探測器,這些探測器可以在無視濾波器組大小情況下,及時、有效地對所有濾波器響應(yīng)進(jìn)行采樣。
 為了向大家展示技術(shù)的有效性,作者將其用于評估 100,000 組可變形零件模型,模型將根據(jù)目標(biāo)圖像的多個維度需要運(yùn)用超過一百萬個濾波器,作者需在 20 秒內(nèi)通過 20GB RAM 的單個多核處理器來達(dá)成評估目標(biāo)。實(shí)驗(yàn)結(jié)果顯示,與其他同樣硬件配置下執(zhí)行卷積的系統(tǒng)相比,該模型獲得了大約 20,000 倍的提速 - 相等于四個量級。模型在針對 100,000 個物體類別的平均精確度達(dá)到了 0.16,主要因?yàn)樵谟?xùn)練數(shù)據(jù)與基本實(shí)施的收集上面臨挑戰(zhàn),最終模型在三分之一類別上實(shí)現(xiàn)至少 0.20 的 mAP,另外在大約 20%的類別上實(shí)現(xiàn) 0.30 或更高的 mAP。
2012(1篇)
A Simple Prior-free Method for Non-Rigid Structure-from-Motion Factorization
 一種簡單的不需要先驗(yàn)信息的非剛性結(jié)構(gòu)與運(yùn)動恢復(fù)方法
作者:戴玉超, 西北工業(yè)大學(xué);Hongdong Li, Australian National University;
 何明一, 西北工業(yè)大學(xué)
核心內(nèi)容:作者提出一種簡單的「無先驗(yàn)」方法來解決非剛性結(jié)構(gòu)的運(yùn)動因子分解問題。除了基本的低秩條之外,該方法無需任何關(guān)于非剛性場景或相機(jī)運(yùn)動的先驗(yàn)知識。即便如此,它依然得以穩(wěn)定運(yùn)行,并產(chǎn)生最佳結(jié)果,且不受許多傳統(tǒng)非剛性分解技術(shù)的基礎(chǔ) - 模糊性問題(basis-ambiguity issue)困擾。
 該方法易于實(shí)現(xiàn),可以解決包括小型與固定大小的 SDP(半定規(guī)劃)、線性最小二乘或范數(shù)最小化追蹤等問題。大量實(shí)驗(yàn)結(jié)果表明,該方法優(yōu)于現(xiàn)有的多數(shù)非剛性因子分解線性方法。本論文不僅提供全新的理論見解,同時提供了一種適用于非剛性結(jié)構(gòu)運(yùn)動分解的實(shí)用日常解決方案。
2011(1篇)
Real-time Human Pose Recognition in Parts from Single Depth Images
 針對單個深度圖像部件的實(shí)時人體姿態(tài)識別模型
作者:Jamie Shotton, Microsoft Research;Andrew Fitzgibbon, Microsoft Research;
 Mat Cook, Microsoft Research;Toby Sharp, Microsoft Research;
 Mark Finocchio, Microsoft Research;Richard Moore, Microsoft Research;
 Alex Kipman, Microsoft Research;Andrew Blake, Microsoft Research
核心內(nèi)容:作者提出一種可以基于無時間信息從單個深度圖像中快速、準(zhǔn)確預(yù)測身體關(guān)節(jié) 3D 位置的方法。通過采用物體識別方法設(shè)計(jì)出身體部位的間接表示,進(jìn)而將有難度的姿勢估計(jì)問題映射為簡單的每像素分類問題。作者同通過龐大、多樣化的訓(xùn)練數(shù)據(jù)集,讓分類器可以針對身體部位的姿勢、身體形狀、衣服等不變量進(jìn)行預(yù)估,進(jìn)而通過重新投影分類結(jié)果找到局部模式,最終生成具有置信度的身體關(guān)節(jié) 3D 建模。
 該系統(tǒng)能在消費(fèi)類硬件上以每秒 200 幀的速度運(yùn)行。評估系統(tǒng)在合成與實(shí)際測試集的處理結(jié)果中顯示了高精度,并分析了幾個訓(xùn)練參數(shù)對此的影響。與相關(guān)工作相比,該模型實(shí)現(xiàn)了目前最先進(jìn)的精度,并在全骨架最近鄰匹配上有了很大進(jìn)步。
論文解讀:https://lincccc.blogspot.com/2011/05/real-time-human-pose-recognition-in.html
2010(1篇)
Efficient computation of robust low-rank matrix approximations in the presence of missing data using the L1 norm 
 利用L1范數(shù)對數(shù)據(jù)缺失的魯棒低秩近似矩陣進(jìn)行有效計(jì)算
作者:Anders Eriksson & Anton va den Hendel, University of Adelaide
核心內(nèi)容:低秩近似矩陣計(jì)算是許多計(jì)算機(jī)視覺應(yīng)用中的基礎(chǔ)操作。這類問題的主力解決方案一直是奇異值分解(Singular Value Decomposition)。一旦存在數(shù)據(jù)缺失和異常值,該方法將不再適用,遺憾的是,我們經(jīng)常在實(shí)踐中遇到這種情況。
 論文提出了一種計(jì)算矩陣的低秩分解法,一旦丟失數(shù)據(jù)時會主動最小化 L1 范數(shù)。該方法是 Wiberg 算法的代表——在 L2 規(guī)范下更具說服力的分解方法之一。通過利用線性程序的可區(qū)分性,可以對這種方法的基本思想進(jìn)行擴(kuò)展,進(jìn)而包含 L1 問題。結(jié)果表明,現(xiàn)有的優(yōu)化軟件可以有效實(shí)現(xiàn)論文提出的算法。論文提供了令人信服、基于合成與現(xiàn)實(shí)數(shù)據(jù)的初步實(shí)驗(yàn)結(jié)果。
2009(1篇)
Single Image Haze Removal Using Dark Channel Prior
 暗通道先驗(yàn)去霧
作者:何凱明, 香港中文大學(xué);孫劍, Microsoft Research;
 湯曉鷗, 香港中文大學(xué)
核心內(nèi)容:本文中提出了一個簡單卻有效、針對單個輸入圖像的暗通道去霧法。暗通道先驗(yàn)去霧法是一種戶外去霧圖像的統(tǒng)計(jì)方法,它主要基于一個關(guān)鍵的觀察——室外無霧圖像中的大多數(shù)局部斑塊包含一些像素,這些像素的強(qiáng)度起碼有一個顏色通道處于低狀態(tài)。使用這種基于霧度成像模型的先驗(yàn)方法,我們可以直接估計(jì)圖像的霧霾厚度,借此將圖像恢復(fù)至高質(zhì)量的無霧狀態(tài)。各種模糊圖像的去霧結(jié)果證明了論文所提出先驗(yàn)方法的成效。此外,我們可以通過該方法獲得高質(zhì)量的深度圖。
論文解讀:https://www.cnblogs.com/Imageshop/p/3281703.html
 
2008(2篇)
Global Stereo Reconstruction under Second Order Smoothness Priors
 二階平滑先驗(yàn)下的全局立體重建
作者:Oliver Woodford, University of Oxford;Ian Reid, Oxford Brookes University;
 Philip Torr, University of Oxford;Andrew Fitzgibbon, Microsoft Research
核心內(nèi)容:3D 曲面平滑度中的二階先驗(yàn)是比一階先驗(yàn)更好的典型場景模型。然而,基于全局推理算法(如圖形切割)的二階平滑先驗(yàn)法未能與二階先驗(yàn)很好地進(jìn)行結(jié)合,因?yàn)楸磉_(dá)所需的三重集會產(chǎn)生難以處理的(非子模塊)優(yōu)化問題。
 本文表明三重集的推理可以獲得有效的優(yōu)化。作者提出的優(yōu)化策略是基于 α 擴(kuò)展的最新研究結(jié)果,源自「QPBO」算法。該策略通過 QPBO 算法的最新擴(kuò)展對提議深度圖進(jìn)行重復(fù)合并。對于提案深度圖的來源并不受局限,比如可以是α擴(kuò)展的前平行平面,亦或者帶有任意參數(shù)設(shè)置的實(shí)際立體算法。最終實(shí)驗(yàn)結(jié)果證明了二階先驗(yàn)法以及框架優(yōu)化策略的有效性。
Beyond Sliding Windows: Object Localization by Efficient Subwindow Search
 超越滑動窗口:利用高效子窗口搜索實(shí)現(xiàn)對象定位
作者:Chistoph H. Lampert, Max Planck Institut;Matthew B. Blaschko, Max Planck Institut;
 Thomas Hodmann, Google
核心內(nèi)容:大部分有效的物體識別系統(tǒng)都依賴于二進(jìn)制分類,不過這種方法只能確認(rèn)物體是否存在,而無法提供物體的實(shí)際位置。為了實(shí)現(xiàn)物體定位功能,我們可以考慮采用滑動窗口法,然而這將大大增加計(jì)算成本,因?yàn)楸仨氃诖罅康暮蜻x子窗口上進(jìn)行分類器函數(shù)評估。
 為此,論文提出了一種簡單而強(qiáng)大的分支界定方案,可以在所有可能子圖像上有效最大化大類分類器函數(shù)。它在次線性時間內(nèi)提供基于全局最優(yōu)解的收斂方案。論文展示了該方法如何適用于不同的檢測對象與場景。該方案實(shí)現(xiàn)的加速效果允許使用類似具有空間金字塔內(nèi)核的 SVMs 或者基于χ2-距離的最近鄰分類器來進(jìn)行物體定位,而在過去,這些分類器被認(rèn)為在處理相關(guān)任務(wù)時的速度太慢了。該方案在 UIUC 車輛數(shù)據(jù)集、PASCAL VOC 2006 數(shù)據(jù)集以及 PASCAL VOC 2007 競賽中均取得了最先進(jìn)的結(jié)果。
2007(1篇)
Dynamic 3D Scene Analysis from a Moving Vehicle
 在移動工具中進(jìn)行動態(tài)三維場景分析
作者:Bastian Leibe, ETH Zurich;Nico Cornelis, Katholieke Universiteit Leuven;
 Kurt COrnelis, Katholieke Universiteit Leuven;Luc Van Gool, ETH Zurich
核心內(nèi)容:論文提出一個集成了全自動場景幾何估計(jì)、2D 物體檢測、3D 定位、軌跡估計(jì)和跟蹤功能的系統(tǒng),以用于分析移動工具的動態(tài)場景。該系統(tǒng)的唯一輸入來源是汽車頂部經(jīng)過校準(zhǔn)的立體裝置。從這些視頻流中,我們得以實(shí)時估計(jì) Structurefrom-Motion(SfM)和場景幾何。與此同時,作者還試圖執(zhí)行多視圖/多類別對象識別,以檢測攝像里的汽車和行人。
 通過 SfM 自定位系統(tǒng),我們可以將檢測到的 2D 對象轉(zhuǎn)換為 3D 成像,并在真實(shí)世界的坐標(biāo)系中持續(xù)累積。隨后跟蹤模塊將對 3D 觀測結(jié)果進(jìn)行分析,進(jìn)而找到跟物理空間吻合的時空軌跡。最后,全局優(yōu)化標(biāo)準(zhǔn)會將對象 - 對象交互(object-object interactions)考慮在內(nèi),以獲得精確的汽車和行人的 3D 定位和軌跡預(yù)估結(jié)果。論文展示了該集成系統(tǒng)在挑戰(zhàn)真實(shí)世界數(shù)據(jù)方面的表現(xiàn),該數(shù)據(jù)集顯示了擁堵市區(qū)內(nèi)的汽車行駛情況。
2006(1篇)
Putting Objects in Perspective
 在透視場景中放置物體
作者:Derek Hoiem, Carnegie Mellon University;Alexei Efros, Carnegie Mellon University;
 Martial Hebert, Carnegie Mellon University
核心內(nèi)容:
 圖像理解不僅需要考慮視覺世界中的元素,還需要考慮這些元素之間的相互作用。本文提出了一個在 3D 場景語境中進(jìn)行局部對象檢測的框架,該框架主要基于物體、表面方向以及攝像機(jī)視點(diǎn)的相互作用。
 大多數(shù)物體檢測方法會考慮圖像的比例和位置。通過對 3D 幾何進(jìn)行概率預(yù)估(包括表面以及世界坐標(biāo)),我們可以將物體放置在透視圖中,進(jìn)而對圖像的比例和位置變化進(jìn)行建模。該方法通過對物體概率進(jìn)行假設(shè)以細(xì)化幾何,借此反映問題的周期性,反之亦然。該框架允許任意物體探測器進(jìn)行「無痛」替換,且便于擴(kuò)展至包括圖像理解在內(nèi)的其他方面。最終實(shí)驗(yàn)結(jié)果證實(shí)該綜合方法的優(yōu)勢。
2005(1篇)
Real-Time Non-Rigid Surface Detection
 實(shí)時非剛性表面檢測
作者:Julien Pilet, école Polytechnique Fédérale de Lausanne;Vincent Lepetit, école Polytechnique Fédérale de Lausanne;
 Pascal Fua, école Polytechnique Fédérale de Lausanne
核心內(nèi)容:論文提出一種無需任何先驗(yàn)知識、可實(shí)時檢測變形表面的方法。該方法從一組寬基線點(diǎn)開始,在物體未變形圖像及檢測圖像之間進(jìn)行匹配。該匹配不僅可用于檢測,同時還可以用來計(jì)算點(diǎn)與點(diǎn)之間的精確映射。該算法在面對嚴(yán)重變形、光照變化、運(yùn)動模糊以及遮擋問題時具有魯棒性。它在 2.8 GHz 的 PC 上以每秒 10 幀的速度運(yùn)行,據(jù)作者了解,尚未有其他產(chǎn)生類似結(jié)果的技術(shù)。
 將可變形網(wǎng)格與設(shè)計(jì)良好的魯邦性估計(jì)器進(jìn)行結(jié)合,是該方法得以處理涉及大量參數(shù)的可變形表面建模,且獲得高達(dá) 95% 避免錯誤匹配率的關(guān)鍵,遠(yuǎn)遠(yuǎn)超過了實(shí)際要求。
2004(1篇)
Programmable Imaging using a Digital Micromirror Array
 使用電子微鏡陣列實(shí)現(xiàn)可編程的圖像創(chuàng)建
作者:Shree K. Nayar, Columbia University;Vlad Branzoi, Columbia University;
 Terry E. Boult, University of Colorado
核心內(nèi)容:論文介紹了可編程成像系統(tǒng)的概念。該成像系統(tǒng)為人類或視覺系統(tǒng)提供了對系統(tǒng)輻射度與幾何特征的控制方法。該靈活性是通過可編程微鏡陣列才得以實(shí)現(xiàn)的。我們可以通過把控空間和時間上的高精度來控制陣列方向,使得系統(tǒng)可以根據(jù)應(yīng)用需要來靈活選擇并調(diào)制光線。
 作者成功實(shí)現(xiàn)了一種基于數(shù)字微鏡裝置(DMD)的可編程成像系統(tǒng),用于處理數(shù)字光。雖然設(shè)備的鏡像只能置于兩個鏡頭中的一個,結(jié)果卻表明該系統(tǒng)可以實(shí)現(xiàn)各種成像功能,其中包括高動態(tài)范圍成像、特征檢測以及物體識別。論文在最后探討了如何在無需動用移動部件情況下,使用微鏡陣列進(jìn)行視場控制。
2003(1篇)
Object Class Recognition by Unsupervised Scale-Invariant Learning
 使用尺度無關(guān)的無監(jiān)督學(xué)習(xí)實(shí)現(xiàn)物體類型識別
作者:Rob Fergus, University of Oxford;Pietro Perona, California Institute of Technology;
 Andrew Zisserman, University of Oxford
核心內(nèi)容:論文提出一種通過尺度不變方法(scale invariant manner)從未標(biāo)記、未分段的雜亂場景中學(xué)習(xí)并識別物體類模型的方法。這些物體被建模成靈活性的系列部件。概率表示方法被用于識別物體的所有方面,包括形狀、外觀、遮擋物以及相對比例?;陟氐奶卣鳈z測器則用于對圖像內(nèi)的區(qū)域及其比例做選擇。在這過程中,尺度不變對象模型的參數(shù)將被模型預(yù)估,這是通過最大似然設(shè)置(maximum-likelihood setting)中的期望最大化(expectation-maximization)來完成的。該模型基于貝葉斯方式對圖像進(jìn)行分類。通過一系列在幾何約束類(例如面部,汽車)和柔性物體(例如動物)數(shù)據(jù)集上取得的優(yōu)異結(jié)果,證明了該模型的靈活性。
2001(1篇)
Morphable 3D models from video
 視頻中的形變?nèi)S模型
作者:Matthew Brand, Mitsubishi Electric Research Laboratories
核心內(nèi)容:非剛性運(yùn)動 3D 結(jié)構(gòu) 和 2D 光流被認(rèn)為是張量分解領(lǐng)域的問題。通過嘈雜仿射變換方法,我們可以將這兩者問題變?yōu)榻M合非剛性結(jié)構(gòu)強(qiáng)度問題,進(jìn)而使用結(jié)構(gòu)化矩陣分解方法進(jìn)行解決。然而,圖像噪聲及數(shù)據(jù)缺陷將導(dǎo)致該因式分解法的前提條件無法成立。即便如此,我們依然可以通過等級約束、范數(shù)約束以及強(qiáng)度值來解決這兩個問題,進(jìn)而產(chǎn)生針對不確定性 SVD、不確定性分解、非剛性因子分解以及子空間光流的全新解決方案。最終獲得的集成算法可以跟蹤以及進(jìn)行 3D 重建具有細(xì)小紋理的非剛性表面,比如具有平滑部分的面部。通過結(jié)合低分辨率低紋理的「視頻發(fā)現(xiàn)」,這些方法可以產(chǎn)生良好的跟蹤與 3D 重建結(jié)果。
2000(1篇)
Real-Time Tracking of Non-Rigid Objects using Mean Shift
 運(yùn)用均值漂移實(shí)現(xiàn)對非剛性物體的實(shí)時追蹤
作者:Dorin Comaniciu, Siemens Corporate Research;Visvanathan Ramesh, Siemens Corporate Research;
 Peter Meer, Rutgers University
核心內(nèi)容:論文提出一種可以從移動攝像機(jī)實(shí)時追蹤非剛性物體的全新方法。中央計(jì)算模塊將基于均值漂移以及當(dāng)前幀中的目標(biāo)可能位置進(jìn)行運(yùn)算。目標(biāo)模型(顏色分布)與目標(biāo)候選者之間的差異由 Bhattacharyya 系數(shù)進(jìn)行表示。該方法的理論分析表明,它與貝葉斯框架息息相關(guān),同時提供了實(shí)用、快速且有效的解決方案。針對多個圖像序列的演示結(jié)果,展示了該方法跟蹤并處理實(shí)時部分遮擋、顯著雜波以及目標(biāo)比例變化的能力。
2000~2019年 CVPR best paper 合集
 鏈接:https://pan.baidu.com/s/1v9-7m3MGmmqLOsQ69DbNqQ
 提取碼:點(diǎn)擊這里即可獲取
推薦閱讀:
 1998 ~2017 年歷屆 ICCV 優(yōu)秀論文匯總
 1996 ~2018 年歷屆 AAAI 優(yōu)秀論文匯總 
總結(jié)
以上是生活随笔為你收集整理的2000 ~2019 年历届 CVPR 最佳论文汇总的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
 
                            
                        - 上一篇: 重磅!2K图像90FPS,中科院开源轻量
- 下一篇: ICCV 2019 最佳论文和最佳学生论
