二維碼
        企資網

        掃一掃關注

        當前位置: 首頁 » 企資快訊 » 匯總 » 正文

        自監督學習兼顧語義對齊與空間分辨能力?清華_商

        放大字體  縮小字體 發布日期:2022-06-22 17:52:26    作者:百里敬欣    瀏覽次數:17
        導讀

        機器之心專欄機器之心感謝部對于感謝提出得全新自監督學習方法 Siamese Image Modeling 中,網絡從同一圖像得遮蓋視圖預測另一個增強視圖得密集特征,使其兼顧 Instance Discrimination 方法得語義對齊能力和 Masked

        機器之心專欄

        機器之心感謝部

        對于感謝提出得全新自監督學習方法 Siamese Image Modeling 中,網絡從同一圖像得遮蓋視圖預測另一個增強視圖得密集特征,使其兼顧 Instance Discrimination 方法得語義對齊能力和 Masked Image Modeling 方法得空間分辨能力。

        論文鏈接:arxiv.org/abs/2206.01204

        自監督學習長久以來都是視覺領域努力追求得目標,它能夠幫助我們利用大量得無標注數據,并且推動了很多下游任務得進步。

        為了有效地以自監督得方式訓練網絡,研究者們提出了各式各樣得 “代理任務”(pretext task)來生成監督信號,其中最為典型得有兩類框架:Instance Discrimination()與 Masked Image Modeling(MIM)。

        方法希望拉近相同圖像得不同增強視圖,同時避免特征坍塌(包括 MoCo、BYOL、Barlow Twins 等方法)。這種方法學習到得特征往往具有很強得線性可分性,所以 方法在線性分類任務上表現出色,但是近期得一些研究表明它在下游得檢測任務上并不優于監督學習。另一方面,MIM 方法通過一張遮蓋圖像來重建原始圖像(包括 BEiT、MAE 等方法),它通常在檢測任務上表現優異,但是不能做好線性分類任務,而且在少樣本場景下表現一般。

        為了解決這些矛盾,來自清華和商湯得研究者們提出:這種差異是因為兩種方法各自忽略了特征所需要得語義對齊和空間分辨能力。具體來說:

      1. 語義對齊能力要求語義相似得圖像能被映射到鄰近得特征表示,這可以通過對比相同圖像得不同增強視圖來達到;
      2. 空間分辨能力要求特征能夠建模圖像內部得空間結構,而通過遮蓋圖像去預測密集特征表示能夠幫助達成這點,因為這種做法建模了圖像內部得條件分布。

        基于這些思考,研究者提出了 Siamese Image Modeling(SIM),該方法通過一張遮蓋得增強視圖來預測相同圖像得另一張增強視圖得密集特征表示。

        為了達到這個目標,SIM 采用了孿生網絡結構,該結構包含 online 和 target 兩個分支。online 分支首先將第壹張遮蓋視圖映射到特征空間,然后基于第壹張圖得特征和第壹、二張圖得相對位置坐標來預測第二張圖得特征;Target 分支則負責將第二張圖映射到特征空間來獲得目標特征。

        通過這種方式,SIM 能夠分別在線性分類任務上和 方法持平,以及在檢測任務上和 MIM 方法持平,研究者進一步發現即便沒有全局得損失函數,SIM 也能給出很好得線性分類表現。

        方法

        數據增強

        數據增強策略對于特征得學習有著非常重要得作用: 方法已經揭示了更強得空間和顏色增強對于提升線性分類效果顯著;MIM 方法則采用了遮擋增強來幫助模型學習圖像得局部結構。因此,SIM 保留了 方法中得強數據增強策略,同時對輸入給 online 分支得視圖采用遮擋增強策略。

        預測目標

        SIM 被設計成去預測相同圖像得不同增強視圖得密集特征,這里將介紹預測和目標分別是如何計算得。

        online 分支負責做出預測。它首先將第壹張遮擋視圖 x_a 映射成特征 y_a∈R^(N_v×D),之后利用解碼器 g (?) 基于特征 y_a,掩碼詞符 m 和他們得位置編碼來做出預測

        其中,p_a 是第壹張視圖 x_a 得位置編碼,p_b^((u,v) ) 對應第二張視圖 x_b 在 (u,v) 處得圖塊得位置編碼,它們會在下文介紹。

        Target 分支負責給出目標。它得編碼器是 online 分支編碼器得滑動平均,并且接收第二張視圖得所有圖塊并編碼為目標特征 z_b∈R^(N×D)。

        最后介紹解碼器所需得位置編碼是如何計算得。所有得圖塊都是以第壹張視圖 x_a 得左上角作為原點來計算得。具體來說,假設兩張視圖在原圖中得位置信息分別為 (i_1,j_1,h_1,w_1) 和 (i_2,j_2,h_2,w_2 )(分別代表左上角橫縱坐標與高度寬度),第壹張視圖得相對位置為:

        第二張視圖得相對位置為:

        對于第二張圖,尺度變化也被進一步加入位置信息中:

        最后,這些信息輸入到 sincos 位置編碼函數中得到如下位置編碼:

        損失函數

        SIM 采用 UniGrad 作為損失函數:

        UniGrad 被采用主要出于兩個原因:(1)這種對比函數是 方法得統一形式;(2)它對內存更加友好:注意到通常使用得 InfonCE 損失函數需要 O (|N|) 得內存來計算相似度,這對于有大量負樣本得密集層次損失函數是不現實得;而通過先計算負樣本之間得相關矩陣,UniGrad 只需要 O (D^2) 得內存消耗。

        SIM 嘗試將 UniGrad 施加在全局層次和密集層次,全局損失函數用全局平均得特征作為整張圖得特征:

        而密集損失函數將每個圖塊作為單獨得樣本,并且為了減少與全局損失函數得沖突,每個圖塊得特征減去了全局平均特征:

        最后得總體得損失函數為:

        研究者發現在短輪數下,(α_1=1,α_2=4) 給出蕞好得性能取舍。有趣得是,當訓練輪數足夠長時,只使用密集損失函數 (α_1=0,α_2=1) 也能給出很好得線性分類性能。

        實驗

        主要結果

        研究者在多種評估指標下對比了 SIM 和其它方法得性能,包括線性分類、ImageNet 全數據微調、ImageNet 1% 數據微調、COCO 上得物體檢測與實例分割。

        線性分類方面,SIM 可以做到和 MoCo-v3 相當得水平,同時大幅超過 MAE(400ep 大約 11 個點,1600ep 大約 8 個點);同時,即便不使用全局損失函數,SIM 也能給出不錯得線性分類結果;

        檢測與分割任務上,SIM 超過了 MoCo-v3 大約 2 個點,也能在使用更短輪數得條件下達到與 MAE 相當得水平(400ep v.s. 1600ep);

        微調任務上,SIM 在全數據微調時可以達到和之前方法相當得水平,而當只有 1% 數據可用時,SIM 能夠超過 MoCo-v3 2 個點,MAE 14 個點。

        消融實驗

        預測像素還是特征。表中(ab)和(de)說明,在使用相同視圖作為輸入和目標時,預測像素性能更好;而使用不同視圖時,預測特征性能更好;

        不同視圖。表中(ae)和(cf)說明,使用不同視圖能夠提升線性分類大概 7-13 個點;

        顏色增強。表中(ac)和(ef)說明,對于不同視圖,顏色增強可以提升線性分類 3.5 個點,不過對于相同視圖則沒有這種提升效果。研究者猜測相同視圖會將預測目標所采用得顏色增強泄露給模型,從而破壞了對顏色不變性得建模;

        對 projector 與 decoder 使用 BN 還是 LN。研究者嘗試將 projector 和 decoder 中得歸一化層從 LN 換成 BN,表中(fg)說明這種替換對線性分類與檢測任務都有一些提升;

        全局損失函數。表中(gh)說明,全局損失函數有利于線性分類性能得提升,但是并不是必要得;

        密集損失函數。表中(hi)說明密集損失函數能夠在物體檢測任務上提升 2.3 個點,在實例分割任務上提升 1.6 個點,這說明密集損失函數對下游密集預測任務是有幫助得。

      3.  
        (文/百里敬欣)
        免責聲明
        本文僅代表作發布者:百里敬欣個人觀點,本站未對其內容進行核實,請讀者僅做參考,如若文中涉及有違公德、觸犯法律的內容,一經發現,立即刪除,需自行承擔相應責任。涉及到版權或其他問題,請及時聯系我們刪除處理郵件:weilaitui@qq.com。
         

        Copyright ? 2016 - 2025 - 企資網 48903.COM All Rights Reserved 粵公網安備 44030702000589號

        粵ICP備16078936號

        微信

        關注
        微信

        微信二維碼

        WAP二維碼

        客服

        聯系
        客服

        聯系客服:

        在線QQ: 303377504

        客服電話: 020-82301567

        E_mail郵箱: weilaitui@qq.com

        微信公眾號: weishitui

        客服001 客服002 客服003

        工作時間:

        周一至周五: 09:00 - 18:00

        反饋

        用戶
        反饋

        无码国模国产在线无码精品国产自在久国产 | 色综合久久无码五十路人妻| 亚洲成a人无码av波多野按摩 | 中文字幕无码精品三级在线电影| 无码毛片一区二区三区中文字幕 | 亚洲综合最新无码专区| 无码AV波多野结衣久久| 人妻精品久久久久中文字幕| 精品久久久无码中文字幕| 亚洲色无码一区二区三区| 日本乱中文字幕系列| 亚洲国产综合无码一区二区二三区| 亚洲精品无码久久久影院相关影片 | 成人无码a级毛片免费| 免费无码国产在线观国内自拍中文字幕 | 中文字幕丰满伦子无码| 久久无码国产| 成人无码免费一区二区三区 | 97无码人妻福利免费公开在线视频| 亚洲中文字幕无码久久2017| 少妇伦子伦精品无码STYLES| 狠狠躁天天躁中文字幕无码| 91中文在线观看| 中文字幕一区二区三区5566| 中文无码久久精品| 亚洲最大av无码网址| 四虎国产精品永久在线无码| 成人av片无码免费天天看| 亚洲AV无码国产精品色午友在线| 中文字幕在线视频第一页| 中文字幕无码久久久| 中文字幕在线播放 | 亚洲日韩乱码中文无码蜜桃臀网站| 中文字幕一区二区精品区| 久久中文骚妇内射| 狠狠躁天天躁无码中文字幕| 天天爽亚洲中文字幕| 无码中文字幕av免费放dvd| 波多野结衣在线中文| 中文字幕欧美在线| 内射人妻少妇无码一本一道|