开心六月综合激情婷婷|欧美精品成人动漫二区|国产中文字幕综合色|亚洲人在线成视频

    1. 
      
        <b id="zqfy3"><legend id="zqfy3"><fieldset id="zqfy3"></fieldset></legend></b>
          <ul id="zqfy3"></ul>
          <blockquote id="zqfy3"><strong id="zqfy3"><dfn id="zqfy3"></dfn></strong></blockquote>
          <blockquote id="zqfy3"><legend id="zqfy3"></legend></blockquote>
          打開APP
          userphoto
          未登錄

          開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

          開通VIP
          Domain Adaptation總結(jié)(2017.9)
          • 有一篇論文([cvpr2017]Joint Geometrical and Statistical Alignment for Visual Domain Adaptation )對(duì)Domain Adaptation做了一定的總結(jié),我直接把我當(dāng)時(shí)的翻譯抄一下(這里是針對(duì)判別式模型(discriminator model)的分析):

            • 常見的域適應(yīng)包括基于實(shí)例(instance-based)的適應(yīng)、基于特征表示( feature representation)的適應(yīng)、基于分類器(classifier-based )的適應(yīng),其中在非監(jiān)督的情況下,因?yàn)闆]有target labels,所以基于分類器的適應(yīng)是不可行的。

              • 通常分布差異(distribution devergence)可以通過基于實(shí)例(instance-based)的適應(yīng),比如對(duì)source domain中的樣本的權(quán)重重新加權(quán)
              • 或者可以通過特征表示的方法(feature representation/transformation)的方式,將source domain和target domain的特征投影到第三個(gè)使得分布的偏差較小的domain當(dāng)中。
              • 基于實(shí)例(instance-based)的方法需要比較嚴(yán)格的假設(shè):1)source domain和target domain的條件分布是相同的,2)source domain中的某些部分?jǐn)?shù)據(jù)可以通過重新加權(quán)被重用于target domain中的學(xué)習(xí)。
              • 基于特征表示(feature representation/transformation)的s適應(yīng)的假設(shè)則相對(duì)來(lái)說更弱一點(diǎn),僅僅假設(shè)存在一個(gè)使得source domain和target domain的分布相似的公共空間。
            • 有兩大類特征變換的方法:1)以數(shù)據(jù)為中心(data centric methods );2)以子空間為中心(subspace centric methods)

            • 以數(shù)據(jù)為中心的方法(data centric methods ) 尋求一個(gè)統(tǒng)一的轉(zhuǎn)換,將數(shù)據(jù)從source domain和target domain投影到域不變空間(domain invariant space)當(dāng)中,以求減少source domain和target domain上數(shù)據(jù)的分布差異(distributional divergence),并且同時(shí)保留原始空間當(dāng)中的數(shù)據(jù)屬性
            • 以數(shù)據(jù)為中心的方法(data centric methods )僅僅利用兩個(gè)域中的共同特征(shared feature),然而當(dāng)source domain和target domain的差異很大(have large discrepancy)的時(shí)候會(huì)導(dǎo)致失敗,因?yàn)槭沟胹ource domain和target domain分布一致的公共空間可能會(huì)不存在。
            • 以子空間為中心的方法(subspace centric
              methods)則是通過操縱兩個(gè)域的子空間(比如建立線性映射,或者使用類似grassmann 這樣的流形來(lái)進(jìn)行映射)來(lái)減少域位移(domain shift),使得每個(gè)域的子空間都有助于最終映射的形成。
            • 作者認(rèn)為,以子空間為中心的方法僅在兩個(gè)域的子空間上進(jìn)行操作,而不用直接地考慮兩個(gè)域的投影數(shù)據(jù)之間的分布偏移。(However, the subspace centric methods only manipulate on the subspaces of the two domains without explicitly considering the distribution shift between projected data of two domains.)
          • 另外一篇論文([CVPR2017]Adversarial Discriminative Domain Adaptation)則是依據(jù)對(duì)抗性損失(Adversarial Loss)的建模方式進(jìn)行分析,大致分為以下兩種

            • 使用生成式模型(generative model)的
              • 最初的論文GAN就是典型的生成式建模,利用噪聲直接生成對(duì)應(yīng)標(biāo)簽圖像,可以視為學(xué)習(xí)了類的聯(lián)合分布,即生成式模型
              • 域適應(yīng)中比如CoGAN和下文中的Unsupervised Pixel–Level Domain Adaptation with Generative Adversarial Networks就是生成式建模
              • 論文作者認(rèn)為生成式模型的優(yōu)點(diǎn)在于訓(xùn)練期間不需要復(fù)雜的推理和抽樣(?),缺點(diǎn)是訓(xùn)練的難度可能很大,當(dāng)source domain和target domain差異較大的時(shí)候,單純使用生成式模型網(wǎng)絡(luò)可能不收斂,并且對(duì)圖像進(jìn)行生成式建模是不必要的,畢竟神經(jīng)網(wǎng)絡(luò)最終學(xué)習(xí)的目的就是得到類的后驗(yàn)概率,即神經(jīng)網(wǎng)絡(luò)本身是個(gè)判別式模型。
            • 使用判別式模型的(目前大部分的Domain Adaptation使用的是這個(gè)方法,差異也很大,不好直接歸類)
            • 例子:

          我大致用上面的歸類方法對(duì)目前的論文進(jìn)行歸類:

          Deep Domain Confusion: Maximizing for Domain Invariance(2014)

          • 點(diǎn)擊查看筆記
          • 基于特征變換-以數(shù)據(jù)為中心的方法(同一個(gè)映射)
          • 采用的技術(shù):
            • maximum mean discrepancy:最大平均差異
          • 模型:
          • 特點(diǎn):
            • source domain和target domain之間參數(shù)的完全共享
          • 性能:

          Unsupervised Domain Adaptation by Backpropagation(2015)

          • 點(diǎn)擊查看筆記
          • 基于特征變換-以子空間為中心的方法
          • 適用于非監(jiān)督
          • 采用的技術(shù):
            • GAN loss的對(duì)抗性損失,具體實(shí)現(xiàn)使用的是梯度反轉(zhuǎn)層GRL,其“pesudo function”表示如下:
          • 模型:
          • 特點(diǎn):
            • 特征提取之后,在域分類器(domain classifier)之前加入了一個(gè)梯度反轉(zhuǎn)層。
          • 作者針對(duì)不同的數(shù)據(jù)集使用了不同的網(wǎng)絡(luò):
          • 性能:

          Beyond Sharing Weights for Deep Domain Adaptation(2016)

          • 點(diǎn)擊查看筆記
          • 基于特征變換-以子空間為中心的方法
          • 適用于非監(jiān)督和半監(jiān)督
          • 采用的技術(shù):
            • maximum mean discrepancy:最大平均差異
          • 模型:
          • 特點(diǎn):
            • source domain和target domain之間參數(shù)的部分共享
            • 在source domain和target domain之間學(xué)習(xí)一個(gè)線性的轉(zhuǎn)換
            • 有一個(gè)很嚴(yán)重的問題,就是網(wǎng)絡(luò)的架構(gòu)會(huì)隨著任務(wù)的改變而改變(否則性能會(huì)下降)
            • 性能的話(據(jù)作者所說)好于Deep Domain Confusion的
          • 性能:


          Domain Separation Networks(2016)

          • 點(diǎn)擊查看筆記
          • 源代碼(論文里給出了地址 https://github.com/tensorflow/models/domain_adaptation,但是我點(diǎn)進(jìn)去404了)
          • 基于特征變換-以子空間為中心的方法()
          • 采用的技術(shù):
            • adversarial loss的對(duì)抗性損失,具體實(shí)現(xiàn)使用的是梯度反轉(zhuǎn)層GRL
            • MMD(后來(lái)作者覺得使用MMD效果不如GAN loss)
          • 模型:

          • 特點(diǎn):
            • 分別針對(duì)source domain與target domain共有的部分,source domain和target domain私有的部分進(jìn)行訓(xùn)練
            • 在source domain和target domain之間的共有部分之間,作者最終選擇了GAN loss,在兩個(gè)stream之間另外建立了一個(gè)Domain classifier(域分類器)從梯度反轉(zhuǎn)層(GRL)產(chǎn)生的結(jié)果中進(jìn)行學(xué)習(xí),與交叉熵形式的進(jìn)行對(duì)抗性訓(xùn)練
          • 備注:
            • 論文里的和和GAN那篇論文里的和不太一樣
            • 論文里的圖像重建部分(shared Decoder)僅僅是用于觀察學(xué)習(xí)的進(jìn)度,貌似和對(duì)抗性損失的關(guān)系不大。
          • 性能:


          Deep CORAL: Correlation Alignment for Deep Domain Adaptation(2016)

          • 點(diǎn)擊查看筆記
          • 基于特征變換-以數(shù)據(jù)為中心的方法(同一個(gè)映射)
          • 非監(jiān)督
          • 采用的技術(shù):
            • CORAL損失:
              • CORAL作為二階統(tǒng)計(jì)量,對(duì)齊source domain和target domain的CORAL能夠?qū)Rsource domain和target domain的均值和協(xié)方差矩陣
              • 后一個(gè)是矩陣的Frobenius范數(shù)
                • 協(xié)方差矩陣計(jì)算:
                  • 其中是一個(gè)所有元素為1的列向量
          • 模型(AlexNet,fc8層引入CORAL):
          • 備注:
            • 作者強(qiáng)調(diào)他的模型是”end-to-end”的,但是我沒搞懂什么意思
            • 作者也強(qiáng)調(diào)這個(gè)CORAL正則項(xiàng)很“易于實(shí)現(xiàn)”
          • 性能:

          Unsupervised Domain Adaptation with Residual Transfer Networks(2017)

          • 點(diǎn)擊查看筆記
          • 源代碼
          • 基于特征變換-以子空間為中心的方法
          • 非監(jiān)督
          • 采用的技術(shù):

            • 多層MMD(Maximum Mean Discrepancy on multiple layers):
            • Residual function(Deep residual learning for image recognition.[CVPR2016])
          • 模型(前面AlexNet,ResNet等):

          • 特點(diǎn):
            • 這篇論文更傾向于解決source domain和target domain差異較大的情況,source domain和target domain使用的是不同的分類器
            • source domain和target domain的分類器作者認(rèn)為不應(yīng)差距過大,所以在source domain和target domain的分類器之間學(xué)習(xí)一個(gè)Residual function使得source domain和target domain的分類器有個(gè)較小的區(qū)別,其中,(target domain上沒有標(biāo)簽,所以用source domain的放在前面)
            • 為保證target domain的分類器確實(shí)有分類的能力,使用entropy penalty(熵懲罰)保證分類器的輸出趨向于one-hot vector(保證了low-density separation)。
          • 性能:

          [CVPR2017]Unsupervised Pixel–Level Domain Adaptation with Generative Adversarial Networks

          • 點(diǎn)擊查看筆記
          • 源代碼:”We plan to open source our code once author feedback is released”
          • 非監(jiān)督(實(shí)驗(yàn)中提到了半監(jiān)督的拓展)
          • 本文使用對(duì)抗性損失(adversarial loss)中的生成式模型(generative model)進(jìn)行domain adaptation任務(wù)
          • 模型(分類器和域適應(yīng)解耦合):
          • 采用的技術(shù):
            • adversarial loss:
              • 與GAN那篇文章里有不同,本文將source domain圖像和一個(gè)隨機(jī)噪聲(實(shí)驗(yàn)中提到是均勻分布的)作為生成器(generator)的輸入(類比GAN那篇文章里的),去擬合target domain的圖像的分布(類比GAN那篇文章中原始的圖像分布)
              • 本文:
              • GAN:
            • 受style transfer的啟發(fā),使用的Content–similarity loss
              • 希望generator生成的圖像,前景色和source domain基本一致(背景色不作要求),不過并不是阻止前景色的變化,而是希望前景色的變化能夠保持一致。
              • 在給定一個(gè)遮罩的情況下進(jìn)行圖像的Content–similarity loss,不過我沒有看明白這個(gè)圖像是數(shù)據(jù)集給定的,還是網(wǎng)絡(luò)學(xué)習(xí)得出的,還是自己標(biāo)記的(這個(gè)幾乎不可能):

          • 備注:
            • target domain和source domain的標(biāo)簽域可以不一樣,target domain訓(xùn)練時(shí)和測(cè)試時(shí)可以使用不同的標(biāo)簽。
            • 作者說因?yàn)檫@個(gè)域適應(yīng)是在像素級(jí)別上進(jìn)行的( because our model
              maps one image to another at the pixel level),所以我們可以改變這個(gè)Task-Specific圖像訓(xùn)練結(jié)構(gòu)
              • 網(wǎng)絡(luò)對(duì)參數(shù)設(shè)置不敏感
          • 性能:





          [CVPR2017]Mind the Class Weight Bias: Weighted Maximum Mean Discrepancy for Unsupervised Domain Adaptation

          • 點(diǎn)擊查看筆記
          • 源代碼
          • 基于特征變換-以子空間為中心的方法
          • 非監(jiān)督
          • weighted MMD 說明:
          • 采用的技術(shù):
            • 改良后的MMD(weighted MMD,作者把相應(yīng)的架構(gòu)稱為WDAN(weighted domain adaptation network)):
              • 直接使用MMD來(lái)測(cè)量source domain和target domain作者認(rèn)為會(huì)造成一定的誤差,因?yàn)閮H僅使用MMD沒有考慮到source domain和target domain之間的class weight(類的先驗(yàn)分布)的不同。當(dāng)source domain和target domain的類的先驗(yàn)分布差異很大的時(shí)候,僅僅使用MMD會(huì)造成target domain上嚴(yán)重的分類失誤。
              • 作者引入class-specific auxiliary
                weights(類特定輔助權(quán)重?)對(duì)source domain的樣本重新分配權(quán)重,以使得映射以后的source domain樣本的類后驗(yàn)分布于target domain一致(但是難點(diǎn)在于target domain的類先驗(yàn)分布未知,因?yàn)闆]有標(biāo)簽,因此后驗(yàn)分布也未知)(對(duì)于判別式模型(discriminative model),網(wǎng)絡(luò)學(xué)習(xí)的是類的后驗(yàn)概率)
              • 為了解決target domain的類先驗(yàn)分布未知的問題,作者又引入了一個(gè)新的訓(xùn)練方式,被稱為ECM(具體見筆記)
                • E:估計(jì)target domain的類后驗(yàn)概率(用上次迭代得到的分類器做出的預(yù)測(cè)來(lái)進(jìn)行判斷)
                • C:利用E步驟中計(jì)算的類后驗(yàn)概率,給定每個(gè)target domain數(shù)據(jù)一個(gè)pesudo label,并計(jì)算class-specific auxiliary
                  weights(類特定輔助權(quán)重?)的估計(jì)值
                • M:利用class-specific auxiliary
                  weights的估計(jì)值,更新網(wǎng)絡(luò)的各個(gè)參數(shù),得到的分類器用于下一次迭代給E以預(yù)測(cè)的結(jié)果。
          • 特點(diǎn):
            • 當(dāng)source domain和target domain的類先驗(yàn)分布差異較大的時(shí)候,這個(gè)網(wǎng)絡(luò)應(yīng)該會(huì)有比較好的表現(xiàn)
          • 性能:

          [CVPR2017]Learning an Invariant Hilbert Space for Domain Adaptation

          • 因?yàn)槲宜剿蓿餍螌W(xué)習(xí)與相關(guān)的數(shù)學(xué)方面的知識(shí)不足),這篇論文很大一部分無(wú)法理解,所以只能簡(jiǎn)單歸類一下)
          • 點(diǎn)擊查看筆記
          • 源代碼
          • 基于特征變換-以子空間為中心的方法
          • 非監(jiān)督與半監(jiān)督
          • 模型說明:
          • 采用的技術(shù):

          [CVPR2017]Adversarial Discriminative Domain Adaptation

          • 點(diǎn)擊查看筆記
          • 基于特征變換-以子空間為中心的方法
          • 非監(jiān)督
          • 模型說明:

            • 虛線為固定參數(shù)
            • 先預(yù)訓(xùn)練source domain上的分類器和source mapping,其中作者假設(shè)source domain和target domain共用一個(gè)分類器
            • 之后固定source domain上的參數(shù),對(duì)抗性地訓(xùn)練域分類器和target mapping
            • 測(cè)試期間則直接使用source domain上的分類器對(duì)映射后的target domain數(shù)據(jù)進(jìn)行分類
            • (我本人的想法)分類器僅僅使用source domain上的數(shù)據(jù)進(jìn)行訓(xùn)練,可能并不能很好地推廣(泛化),畢竟僅僅使用source domain訓(xùn)練的分類器可能會(huì)帶有一定的域特定特征(domain-separated feature)
          • 采用的技術(shù):
            • adversarial loss:
              • 作者的對(duì)抗性損失考慮的比較周到,這也是該論文的亮點(diǎn),詳細(xì)的在筆記里有提到,這里就不再詳細(xì)說了
          • 性能:

          [cvpr2017]Deep Hashing Network for Unsupervised Domain Adaptation

          • 點(diǎn)擊查看筆記
          • 源代碼
          • 基于特征變換-以子空間為中心的方法
          • 非監(jiān)督
          • 模型:
          • 采用的技術(shù):
            • 多層的的多核MMD(multi-kernel Maximum Mean Discrepancy (MK-MMD))
            • Hash:
              • 希望source domain學(xué)習(xí)到的哈希碼中,同一類的哈希碼盡可能相似,不同一類的哈希碼盡可能不同(相似度的概率度量使用漢明距離(Hamming Distance)
              • 希望target domain學(xué)習(xí)到的哈希碼能夠和source domain中某一類的圖片的哈希碼相似,但是和其他類的哈希碼不相似
          • 特點(diǎn):
            • 在數(shù)據(jù)量很龐大的時(shí)候,所以考慮到了哈希,可以利用哈希的快速查詢和低內(nèi)存使用
          • 性能:


          [cvpr2017]Joint Geometrical and Statistical Alignment for Visual Domain Adaptation

          • 這篇文章我讀的比較吃力,近期內(nèi)我打算在學(xué)習(xí)LDA的相關(guān)知識(shí)以后再針對(duì)這篇文章進(jìn)行校正,現(xiàn)在這篇筆記僅供參考
          • 點(diǎn)擊查看筆記
          • 源代碼
          • 作者在他的網(wǎng)絡(luò)中學(xué)習(xí)兩個(gè)耦合的投影(coupled projections),將source domain和target domain上的數(shù)據(jù)映射到相應(yīng)的子空間。在映射之后:
            • 最大化target domain上數(shù)據(jù)的方差以保留target domain上數(shù)據(jù)的特征
            • 保留source domain上數(shù)據(jù)的判別信息(discriminative information)以使得有效地傳送類別的信息
            • 最小化投影后的source domain和target domain上數(shù)據(jù)的條件分布差異(conditional distribution divergences),在統(tǒng)計(jì)上(statistically)減少域偏移(domain shift)
            • 使得兩個(gè)域的投影之間的差異較小(子空間之間的差異較?。趲缀紊希╣eometrically)減少域偏移(domain shift)。
            • 1) the variance of target domain is maximized,
              2) the discriminative information of source domain is preserved,
              3) the divergence of source and target distributions
              is small, and 4) the divergence between source and target
          • 優(yōu)勢(shì):
            • 與基于數(shù)據(jù)的方法不同,作者的方法不需要強(qiáng)大的假設(shè):統(tǒng)一變換可以減少分布偏移,同時(shí)保留數(shù)據(jù)屬性。
            • 不同于基于子空間的適應(yīng)方法,作者的方式不僅減少了子空間的幾何移動(dòng)(reduce the shift of subspace geometries)并且減少了兩個(gè)域之間的分布偏移
            • 作者認(rèn)為自己的方法可以很容易的擴(kuò)展到kernelized(核方法)來(lái)處理域之間的偏移是非線性的情況
          • 采用的技術(shù):

          [cvpr2017]Domain Adaptation by Mixture of Alignments of Second- or Higher-Order Scatter Tensors

          • 這篇文章我看起來(lái)依然有些吃力,以下寫的僅供參考
          • 點(diǎn)擊查看筆記
          • 基于特征變換-以子空間為中心的方法
          • 模型:
          • 采用的技術(shù):
            • 使用高階(二階或者更高)的scatter張量積作為衡量source domain和target domain的距離
          • 特點(diǎn):
            • 作者將自己的模型稱為Second or
              Higher-order Transfer of Knowledge (So-HoT),是一個(gè)對(duì)source domain和target domain之間進(jìn)行二階或者更高階次的統(tǒng)計(jì)量的一個(gè)對(duì)齊(alignment).
          • 性能:



          本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
          打開APP,閱讀全文并永久保存 查看更多類似文章
          猜你喜歡
          類似文章
          領(lǐng)域泛化最新綜述
          CVPR 2018 | ETH Zurich提出利用對(duì)抗策略,解決目標(biāo)檢測(cè)的域適配問題
          近幾年跟蹤算法總結(jié)
          從 CVPR 2019 一覽小樣本學(xué)習(xí)研究進(jìn)展
          遷移學(xué)習(xí)——入門簡(jiǎn)介
          數(shù)據(jù)不均衡、長(zhǎng)尾數(shù)據(jù)的常用解決方法匯總(附論文及源碼)
          更多類似文章 >>
          生活服務(wù)
          分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
          綁定賬號(hào)成功
          后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
          如果VIP功能使用有故障,
          可點(diǎn)擊這里聯(lián)系客服!

          聯(lián)系客服