开心六月综合激情婷婷|欧美精品成人动漫二区|国产中文字幕综合色|亚洲人在线成视频

    1. 
      
        <b id="zqfy3"><legend id="zqfy3"><fieldset id="zqfy3"></fieldset></legend></b>
          <ul id="zqfy3"></ul>
          <blockquote id="zqfy3"><strong id="zqfy3"><dfn id="zqfy3"></dfn></strong></blockquote>
          <blockquote id="zqfy3"><legend id="zqfy3"></legend></blockquote>
          打開(kāi)APP
          userphoto
          未登錄

          開(kāi)通VIP,暢享免費(fèi)電子書(shū)等14項(xiàng)超值服

          開(kāi)通VIP
          只有加法也能做深度學(xué)習(xí)的AdderNet開(kāi)源了!

          2 月 25 日,華為諾亞方舟實(shí)驗(yàn)室將 AdderNet 正式開(kāi)源!

          一個(gè)月以前,一篇名為《我們真的需要在深度學(xué)習(xí)中使用乘法嗎?》的論文刷爆朋友圈,這篇來(lái)自華為諾亞方舟實(shí)驗(yàn)室與北大合作的論文提出了一種新的方法,名為:AdderNet。

          根據(jù)論文介紹:與加法運(yùn)算相比,乘法運(yùn)算具有更高的計(jì)算復(fù)雜度。在深度神經(jīng)網(wǎng)絡(luò)中被廣泛使用的卷積計(jì)算,正是衡量輸入特征和卷積濾波器之間相似度的交叉相關(guān)計(jì)算,這涉及到浮點(diǎn)值之間的大量乘法。而 AdderNet 可以將深度神經(jīng)網(wǎng)絡(luò)中,特別是卷積神經(jīng)網(wǎng)絡(luò)中的乘法,轉(zhuǎn)換為更簡(jiǎn)單的加法運(yùn)算,以便減少計(jì)算成本。

          在 AdderNet 中,研究者采用了 L1 正則距離,用于計(jì)算濾波器和輸入特征之間的距離,分析了這種新的相似性度量方法對(duì)神經(jīng)網(wǎng)絡(luò)優(yōu)化的影響。為了獲得更好的性能,研究人員還開(kāi)發(fā)了一種特殊的反向傳播方法來(lái)研究 AdderNet 的全精度梯度。然后,根據(jù)每個(gè)神經(jīng)元梯度的大小,提出一種自適應(yīng)學(xué)習(xí)速率策略來(lái)增強(qiáng) AdderNet 的訓(xùn)練過(guò)程。

          因此,在不使用卷積乘法的情況下,AdderNet 在 ResNet-50 上對(duì) ImageNet 數(shù)據(jù)集進(jìn)行訓(xùn)練后,能夠取得 74.9% 的 top-1 精確度和 91.7% 的 top-5 精確度,如下圖所示:

          開(kāi)源后,用戶可以在自己的設(shè)備上對(duì) AdderNet 進(jìn)行配置,需要的基礎(chǔ)環(huán)境為:

          • python 3

          • pytorch >= 1.1.0

          • torchvision

          用戶可以按照 pytorch / examples 準(zhǔn)備 ImageNet 數(shù)據(jù)。此外,官方表示預(yù)訓(xùn)練的模型將很快發(fā)布。

          目前,開(kāi)發(fā)者可以通過(guò)運(yùn)行如下代碼來(lái)對(duì) ImageNet val 集進(jìn)行評(píng)估:

          python test.py --data_dir 'path/to/imagenet_root/'

          在 ResNet-50 上對(duì) ImageNet 數(shù)據(jù)集訓(xùn)練,用戶將達(dá)到 74.9%的最高精度和 91.7%的 Top-5 精度。開(kāi)發(fā)者可嘗試運(yùn)行如下代碼,在 CIFAR-10 上進(jìn)行求值運(yùn)算:

          python test.py --dataset cifar10 --model_dir models/ResNet20-AdderNet.pth --data_dir 'path/to/cifar10_root/'

          此外,在 ResNet-20 上對(duì) CIFAR-10 數(shù)據(jù)集進(jìn)行訓(xùn)練,用戶將達(dá)到 91.8%的精度。

          由于加法器過(guò)濾器是由 torch.cdist 實(shí)現(xiàn)的,所以 AdderNet 的推理很慢,但是用戶可以編寫 cuda 以獲得更高的推理速度。

          雖然 AdderNet 簡(jiǎn)化了運(yùn)算成本,但是有一些反對(duì)的聲音認(rèn)為:類似的工作是可以通過(guò)硬件的優(yōu)化(如 AI 芯片)來(lái)解決的,因此加法的優(yōu)勢(shì)其實(shí)并不算明顯。如果有讀者對(duì) AdderNet 有更多見(jiàn)解,歡迎在留言區(qū)發(fā)表您的觀點(diǎn)。

          GitHub 開(kāi)源鏈接:https://github.com/huawei-noah/AdderNet

          論文地址:https://arxiv.org/pdf/1912.13200.pdf

          本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
          打開(kāi)APP,閱讀全文并永久保存 查看更多類似文章
          猜你喜歡
          類似文章
          華為諾亞加法網(wǎng)絡(luò)再升級(jí):精度提升,可以逼近任意函數(shù)
          性能提升最高120倍!滴滴實(shí)習(xí)生提出自動(dòng)結(jié)構(gòu)化減枝壓縮算法框架
          神經(jīng)網(wǎng)絡(luò)其實(shí)并不需要那么深!普林斯頓大學(xué)&英特爾提出ParNet,12層的網(wǎng)絡(luò)就能達(dá)到80%以上的準(zhǔn)確率!
          Google AI:廣度網(wǎng)絡(luò)和深度網(wǎng)絡(luò)能學(xué)到同樣的東西嗎?
          四年級(jí)運(yùn)算定律
          小學(xué)數(shù)學(xué)簡(jiǎn)便運(yùn)算歸類練習(xí)2
          更多類似文章 >>
          生活服務(wù)
          分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
          綁定賬號(hào)成功
          后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
          如果VIP功能使用有故障,
          可點(diǎn)擊這里聯(lián)系客服!

          聯(lián)系客服