日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關咨詢
選擇下列產品馬上在線溝通
服務時間:8:30-17:00
你可能遇到了下面的問題
關閉右側工具欄

新聞中心

這里有您想知道的互聯(lián)網營銷解決方案
CMU&FAIRICCV論文:通過傳遞不變性實現(xiàn)自監(jiān)督視覺表征學習

通過自監(jiān)督學習學習視覺表征在計算機視覺領域逐漸開始流行。本文提出可通過不變性的傳遞實現(xiàn)視覺表征自監(jiān)督學習,該網絡在多種識別任務中均表現(xiàn)不俗,在表面正常評估任務中的表現(xiàn)甚至優(yōu)于 ImageNet 網絡。

論文:Transitive Invariance for Self-supervised Visual Representation Learning

論文地址:https://arxiv.org/abs/1708.02901

通過自監(jiān)督學習學習視覺表征在計算機視覺領域逐漸開始流行。該方法是為了設計可隨意獲取標簽的輔助任務。大多數輔助任務最終將提供數據來學習特定種類的有助于識別的不變性(invariance)。在本論文中,我們提出利用不同的自監(jiān)督方法學習表征,這些表征與 (i) 實例間變體(inter-instance variation,相同類別的兩個對象應該具備相似的特征)、(ii) 實例內變體(intra-instance variation,視角、姿勢、變形、亮度等)無關。我們沒有將這兩種方法與多任務學習聯(lián)結起來,而是組織和推理具備多種不變性的數據。具體來說,我們提出使用從成百上千個視頻中挖掘出的數百萬個對象生成一個圖。這些對象由分別對應兩種不變性的兩種邊緣(edge)聯(lián)結起來:「具備相似的觀點和類別的不同實例」和「相同實例的不同觀點」。通過將簡單的傳遞性(transitivity)應用到帶有這些邊緣的圖上,我們能夠獲取具備更加豐富視覺不變性的成對圖像。我們使用這些數據訓練帶有 VGG16 的 Triplet-Siamese 網絡作為基礎架構,將學得的表征應用到不同的識別任務中。關于物體檢測,我們使用 Fast R-CNN 在 PASCAL VOC 2007 數據集上達到了 63.2% mAP(ImageNet 的預訓練結果是 67.3%)。而對于有難度的 COCO 數據集,使用我們的方法得出的結果(23.5%)與 ImageNet-監(jiān)督的結果(24.4%)驚人地接近。我們還證明了我們的網絡在表面正常評估(surface normal estimation)任務中的表現(xiàn)優(yōu)于 ImageNet 網絡。

圖 1:我們提出使用簡單的傳遞關系獲取豐富的不變性。在該示例中,兩輛不同的汽車 A 和 B 被有利于實例間不變性的特征聯(lián)結起來;每輛車通過視覺追蹤與另一個視角(A′和 B′)聯(lián)系起來。之后,我們能夠借助傳遞性從物體對〈A, B′〉、〈A′, B〉和〈A′, B′〉中獲取新的不變性。

圖 2:圖構建描述。我們首先將物體節(jié)點聚集到更加粗糙的集群(叫作「父」集群),然后我們在每個集群內執(zhí)行最近鄰搜索(nearest-neighbor search)來得到包含 4 個樣本的「子」集群。每個子集群內的樣本通過「實例內」邊緣互相聯(lián)結。我們通過視覺追蹤增加新樣本,并通過「實例間」邊緣將其與原始物體聯(lián)結起來。

圖 5:訓練網絡所用樣本。每一列是一系列圖像塊 {A, B, A′, B′}。這里,A 和 B 通過實例間邊緣聯(lián)結,而 A′/B′與 A/B 通過實例內邊緣聯(lián)結。

圖 6:我們的 Triplet-Siamese 網絡。我們向該網絡輸入樣本的不同聯(lián)結。

圖 7:PASCAL VOC 數據集上的最近鄰搜索。我們抽取三種特征:(a)語境預測網絡,(b)使用我們的自監(jiān)督方法訓練的網絡,(c)標注 ImageNet 數據集中預訓練的網絡。我們證明我們的網絡可以展示出相同類別物體的更多種類(如視角)。

【本文是專欄機構“機器之心”的原創(chuàng)譯文,微信公眾號“機器之心( id: almosthuman2014)”】

戳這里,看該作者更多好文


分享題目:CMU&FAIRICCV論文:通過傳遞不變性實現(xiàn)自監(jiān)督視覺表征學習
鏈接分享:http://www.dlmjj.cn/article/coiejhh.html