日日夜夜一区二区_欧美体内she精视频_91亚洲大成网污www_日韩欧美中文字幕精品_亚洲午夜久久久久久久久电影院_蜜桃av一区二区_久久狠狠亚洲综合_国产成人精品亚洲777人妖_九九精品视频在线看_国产婷婷色一区二区三区四区 _ww久久中文字幕_日本亚洲免费观看_91久久精品午夜一区二区_久久精品视频免费观看_亚洲精品伦理在线_日本在线不卡一区

SRCNN、DRCN、FSRCNN、ESPCN、SRGAN、RED …你都掌握了嗎?一文總結(jié)超分辨率分析必備經(jīng)典模型(一)

時(shí)間:2023-04-09 19:08:44 來源: 機(jī)器之心


以下文章來源于機(jī)器之心SOTA模型 ,作者機(jī)器之心SOTA模型

機(jī)器之心專欄


(相關(guān)資料圖)

本專欄由機(jī)器之心SOTA!模型資源站出品,每周日于機(jī)器之心公眾號持續(xù)更新。

本專欄將逐一盤點(diǎn)自然語言處理、計(jì)算機(jī)視覺等領(lǐng)域下的常見任務(wù),并對在這些任務(wù)上取得過 SOTA 的經(jīng)典模型逐一詳解。前往 SOTA!模型資源站(sota.jiqizhixin.com)即可獲取本文中包含的模型實(shí)現(xiàn)代碼、預(yù)訓(xùn)練模型及 API 等資源。

本文將分 3 期進(jìn)行連載,共介紹 16個在語音識別任務(wù)上曾取得 SOTA 的經(jīng)典模型。

第 1 期:SRCNN、DRCN、FSRCNN、ESPCN、SRGAN、RED

第 2 期:VDSR、DRRN、LapSRN、RCAN、DSRN

第 3 期:SFT-GAN、CSRCNN、CSNLN、HAN+、Config (f)

您正在閱讀的是其中的第 1 期。前往 SOTA!模型資源站(sota.jiqizhixin.com)即可獲取本文中包含的模型實(shí)現(xiàn)代碼、預(yù)訓(xùn)練模型及 API 等資源。

本期收錄模型速覽

模型SOTA!模型資源站收錄情況模型來源論文
SRCNNhttps://sota.jiqizhixin.com/project/srcnn收錄實(shí)現(xiàn)數(shù)量:57支持框架:PyTorch、TensorFlow、MindSporeImage Super-Resolution Using Deep Convolutional Networks
DRCNhttps://sota.jiqizhixin.com/project/drcn收錄實(shí)現(xiàn)數(shù)量:1支持框架:TensorFlowDeeply-Recursive Convolutional Network for Image Super-Resolution
FSRCNNhttps://sota.jiqizhixin.com/project/fsrcnn收錄實(shí)現(xiàn)數(shù)量:8支持框架:PyTorch、TensorFlowAccelerating the Super-Resolution Convolutional Neural Network
ESPCNhttps://sota.jiqizhixin.com/project/espcn收錄實(shí)現(xiàn)數(shù)量:14支持框架:PyTorch、TensorFlowReal-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network
SRGANhttps://sota.jiqizhixin.com/project/srgan收錄實(shí)現(xiàn)數(shù)量:4支持框架:PyTorch、TensorFlowPhoto-Realistic Single Image Super-Resolution Using a Generative Adversarial Network
REDhttps://sota.jiqizhixin.com/project/red30-2收錄實(shí)現(xiàn)數(shù)量:13 支持框架:TensorFlowImage Restoration Using Convolutional Auto-encoders with Symmetric Skip Connections

圖像超分辨率(Super Resolution,SR)是指從低分辨率(Low Resolution,LR)圖像中恢復(fù)高分辨率(High Resolution, HR)圖像的過程,是計(jì)算機(jī)視覺和圖像處理中一類重要的圖像處理技術(shù)。SR在現(xiàn)實(shí)世界中有著廣泛的應(yīng)用,如醫(yī)療成像、監(jiān)控和安全等。除了提高圖像感知質(zhì)量外,SR還有助于改善其他計(jì)算機(jī)視覺任務(wù)。一般來說,超分辨率分析是非常具有挑戰(zhàn)性的,而且本身就是一個難題,因?yàn)榭偸怯卸鄠€HR圖像對應(yīng)于一個LR圖像。在已有文獻(xiàn)中,研究人員提出了各種經(jīng)典的SR方法,包括基于預(yù)測的方法、基于邊緣的方法、統(tǒng)計(jì)方法、基于patch的方法和稀疏表示方法等。

近年來,隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,基于深度學(xué)習(xí)的SR模型得到了快速發(fā)展,并在SR的各種基準(zhǔn)上取得了最先進(jìn)的性能。各種各樣的深度學(xué)習(xí)方法已經(jīng)被應(yīng)用于SR任務(wù),從早期的基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的方法到最近使用的生成對抗網(wǎng)絡(luò)的SR方法。一般來說,使用深度學(xué)習(xí)技術(shù)的SR方法在以下主要方面有所不同:不同類型的網(wǎng)絡(luò)架構(gòu)、不同類型的損失函數(shù)、不同類型的學(xué)習(xí)原理和策略等。

超分辨率分析可以分為視頻超分辨率VSR(Video Super Resolution) 和單幀超分辨率SISR(Single Image Super Resolution),本文重點(diǎn)關(guān)注單幀超分辨率分析方法。本文聚焦于深度學(xué)習(xí)技術(shù),回顧SISR中必備的TOP模型。

1、 SRCNN

本文首次提出將深度學(xué)習(xí)技術(shù)應(yīng)用于SR,得到經(jīng)典的SRCNN(Super-Resolution CNN)模型。SRCNN結(jié)構(gòu)很簡單,但是效果很好。計(jì)算效率高,速度快。對于一個LR圖像,首先使用bicubic 插值到所需的尺寸得到圖像Y,然后學(xué)習(xí)一個映射F,使得F(Y)盡可能和ground-truth接近。該方法的完整學(xué)習(xí)過程包含三步:1)Patch extraction and representation,從Y中提取patches并表示為高維向量;Non-linear mapping,將高維向量映射到另一高維向量;reconstruction,整合上述的high-resolution patch-wise representation。上述三個步驟組成了一個卷積網(wǎng)絡(luò)。如圖1所示:

圖1 給定一個低分辨率的圖像Y,SRCNN的第一個卷積層提取一組特征圖。第二層將這些特征圖非線性地映射到高分辨率的patch表示上。最后一層結(jié)合空間鄰域內(nèi)的預(yù)測,生成最終的高分辨率圖像F (Y)

Patch extraction and representation。在圖像恢復(fù)中有一個常用的策略就是從圖像密集提取圖像塊,然后用一組預(yù)先訓(xùn)練好的基(PCA、DCT、Haar等)來表示。這等同于用一組濾波器對圖像進(jìn)行卷積,每個濾波器對應(yīng)一個基。SRCNN的第一層可以如下表示:

其中,W1對應(yīng) n1個濾波器,每個濾波器大小為 c×f_1 ×f_1 ,其中,c是圖像通道數(shù),RGB就是3通道,灰度圖像是單通道。f_1是濾波器尺寸。卷積之后就得到n1個特征圖。接著對濾波器響應(yīng)應(yīng)用 ReLU,即 max(0,x)。

Non-linear mapping。經(jīng)過上一步卷積,我們得到一個n1維特征向量,對應(yīng)一個圖像塊,這一步,將一個n1維特征向量映射到一個n2維向量。對于大的濾波器,非線性映射不是對應(yīng)圖像塊,而是對應(yīng)特征圖中的 "塊"。這一步可以看做如下卷積:

Reconstruction。這一步就是對高分辨率圖像塊的權(quán)值平均,這個平均可以看做對一組特征圖的一個預(yù)先定義的濾波器,使用下面的卷積表示:

在SRCNN中,上述三個步驟作為一個卷積網(wǎng)絡(luò)共同訓(xùn)練。

當(dāng)前SOTA!平臺收錄SRCNN共57個模型實(shí)現(xiàn)。

項(xiàng)目SOTA!平臺項(xiàng)目詳情頁SRCNN前往 SOTA!模型平臺獲取實(shí)現(xiàn)資源:https://sota.jiqizhixin.com/project/srcnn

2、 DRCN

SRCNN的層數(shù)較少,同時(shí)感受野也較小(13x13)。本文提出的DRCN (Deeply-Recursive Convolutional Network for Image Super-Resolution)使用更多的卷積層增加網(wǎng)絡(luò)感受野(41x41),同時(shí)為了避免過多網(wǎng)絡(luò)參數(shù),使用遞歸神經(jīng)網(wǎng)絡(luò)(RNN)。網(wǎng)絡(luò)的基本結(jié)構(gòu)如圖2,輸入圖像是原始LR圖像經(jīng)過插值上采樣后的圖像。

圖2 DRCN架構(gòu)

與SRCNN類似,DRCN分為三個模塊,第一個是Embedding network,相當(dāng)于特征提取;第二個是Inference network, 相當(dāng)于特征的非線性變換;第三個是Reconstruction network,即從特征圖像得到最后的重建結(jié)果。其中的Inference network是一個遞歸網(wǎng)絡(luò),即數(shù)據(jù)循環(huán)地通過該層多次。將這個循環(huán)展開,就等效于使用同一組參數(shù)的多個串聯(lián)的卷積層。DRCN將每一層的卷積結(jié)果都通過同一個Reconstruction Net得到一個重建結(jié)果,從而共得到D個重建結(jié)果,再把它們加權(quán)平均得到最終的輸出。另外,受到ResNet的啟發(fā),DRCN通過skip connection將輸入圖像與H_d的輸出相加后再作為Reconstruction Net的輸入(如圖2所示),相當(dāng)于使Inference Net去學(xué)習(xí)高分辨率圖像與低分辨率圖像的差,即恢復(fù)圖像的高頻部分。

以上得到的Basic Model 雖然簡單且功能強(qiáng)大,但作者發(fā)現(xiàn)訓(xùn)練深度遞歸網(wǎng)絡(luò)非常困難(最多訓(xùn)練三個循環(huán)層)。作者分析有以下幾點(diǎn)原因:1)梯度的消失和爆炸。梯度爆炸是由鏈?zhǔn)教荻鹊某朔ㄐ再|(zhì)造成的。對于深度遞歸,可以呈指數(shù)增長。梯度消失問題正好與梯度爆炸相反。梯度呈指數(shù)級的速度到零向量。因此,梯度爆炸和消失的存在使深度遞歸網(wǎng)絡(luò)掌握遠(yuǎn)距離像素信息間的關(guān)系非常困難。2)經(jīng)過多次遞歸想要保留原始LR信息并不容易。在SR任務(wù)中,輸出與輸入非常相似,所以LR圖像的信息非常重要,需要為后續(xù)更深的遞歸層保留輸入圖像的精確信息。3)存在一個尋找最優(yōu)遞歸次數(shù)的問題。如果遞歸對于給定的任務(wù)來說太深,就需要減少遞歸的次數(shù)。尋找最優(yōu)數(shù)需要訓(xùn)練許多具有不同遞歸深度的網(wǎng)絡(luò)。

由此,作者提出了如下改進(jìn)技術(shù):1)Recursive-Supervision:監(jiān)督每層遞歸,以減輕梯度消失/爆炸的影響。假設(shè)在推理層中卷積過程反復(fù)使用相同的卷積核,使用相同的重建層來預(yù)測每一次遞歸重建的SR圖像。重建層輸出D個預(yù)測圖像,所有預(yù)測都在訓(xùn)練期間同時(shí)受到監(jiān)督。將所有D個預(yù)測圖像通過加權(quán)求和來計(jì)算最終輸出(權(quán)重由網(wǎng)絡(luò)學(xué)習(xí)得到)。通過遞歸減輕了訓(xùn)練遞歸網(wǎng)絡(luò)的困難,通過反向傳播將不同預(yù)測損失產(chǎn)生的反傳梯度求和提供平滑效果,能夠有效緩解梯度爆炸或消失。此外,由于監(jiān)督能夠利用所有中間層的預(yù)測信息,因此,對最佳遞歸次數(shù)選擇的重要性降低了。2)Skip-Connection:對于圖像重建任務(wù),輸入和輸出圖像高度相關(guān),所以可以直接通過skip層連接將LR信息直接傳輸?shù)絊R重建層。改進(jìn)后的Advanced Model如圖3所示。

圖3 (a): Advanced Model,帶有遞歸監(jiān)督和skip connection。重建網(wǎng)絡(luò)是共享的,用于遞歸預(yù)測。使用中間遞歸的所有預(yù)測來獲得最終的輸出。(b): 將深度監(jiān)督應(yīng)用于Basic Model。與(a)不同的是,(b)中的模型使用不同的重建網(wǎng)絡(luò)進(jìn)行遞歸,并且使用了更多的參數(shù)。(c): (a)的擴(kuò)展結(jié)構(gòu)示例,沒有參數(shù)共享(沒有遞歸)。權(quán)重參數(shù)的數(shù)量與深度的平方成正比

當(dāng)前SOTA!平臺收錄DRCN共1個模型實(shí)現(xiàn)。

項(xiàng)目SOTA!平臺項(xiàng)目詳情頁DRCN前往 SOTA!模型平臺獲取實(shí)現(xiàn)資源:https://sota.jiqizhixin.com/project/drcn

3、FSRCNN

本文旨在加速SRCNN,提出了一個compact hourglass-shape 的CNN結(jié)構(gòu)--FSRCNN,主要在三個方面進(jìn)行了改進(jìn):1)在整個模型的最后使用了一個反卷積層放大尺寸,因此可以直接將原始的低分辨率圖像直接輸入到網(wǎng)絡(luò)中,而不需要像SRCNN一樣先通過bicubic方法放大尺寸。2)改變特征維數(shù),使用更小的卷積核和使用更多的映射層。3)可以共享其中的映射層,如果需要訓(xùn)練不同上采樣倍率的模型,只需要fine-tuning最后的反卷積層。

由于FSRCNN不需要在網(wǎng)絡(luò)外部進(jìn)行放大圖像尺寸的操作,同時(shí)通過添加收縮層和擴(kuò)張層,將一個大層用一些小層來代替,因此FSRCNN與SRCNN相比有較大的速度提升。FSRCNN在訓(xùn)練時(shí)也可以只fine-tuning最后的反卷積層,因此訓(xùn)練速度也更快。FSRCNN與SCRNN的結(jié)構(gòu)對比如圖4所示。

圖4 該圖顯示了SRCNN和FSRCNN的網(wǎng)絡(luò)結(jié)構(gòu)。FSRCNN主要在三個方面與SRCNN不同。首先,F(xiàn)SRCNN采用原始的低分辨率圖像作為輸入,沒有進(jìn)行雙三次插值。在網(wǎng)絡(luò)的末端引入了一個解卷積層來進(jìn)行上采樣。第二,SRCNN中的非線性映射步驟被FSRCNN中的三個步驟所取代,即收縮、映射和擴(kuò)展步驟。第三,F(xiàn)SRCNN采用了更小的濾波器尺寸和更深的網(wǎng)絡(luò)結(jié)構(gòu)

FSRCNN的結(jié)構(gòu)如圖4下半部分所示。整個網(wǎng)絡(luò)可以被分解為5個部分:特征提取、壓縮、映射、擴(kuò)展、反卷積。其中前四部分都是卷積層conv(fi,ni,ci),第五部分是反卷積層deconv(fi,ni,ci),其中,fi,ni,ci分別為核尺寸、核數(shù)量、核通道。作者將網(wǎng)絡(luò)中的變量分為敏感變量和不敏感變量(敏感是指微小改變即可對網(wǎng)絡(luò)結(jié)果造成很大影響),其中不敏感變量可以預(yù)設(shè),而敏感變量則需根據(jù)實(shí)驗(yàn)比較得出其值。

特征提取:這部分是和SRCNN相似的,不同點(diǎn)在于FSRCNN不經(jīng)過對LR圖像的插值,而是直接從LR圖像提取子圖塊信息。若輸入圖像為灰度圖像,則核深度為1,而核的數(shù)量決定了該層卷積輸出的特征圖的維度d。后續(xù)會將特征圖送入真正的SR過程,所以維度d至關(guān)重要,d是第一個敏感變量,需要實(shí)驗(yàn)對比得出。該層可記為conv(5,d,1)。

壓縮:這部分主要考慮到SRCNN中直接在高維特征圖上對LR做SR,先對LR圖像通道數(shù)進(jìn)行減小,然后在低維LR特征圖進(jìn)行SR操作,這樣會減少運(yùn)算參數(shù),最后再對生成的SR圖像進(jìn)行升維操作。使用s個1 X 1 大小的濾波核,對來自特征提取層的d維圖像進(jìn)行降維處理(從d降到s),s是第二個敏感變量,這可以為后續(xù)的SR操作減少參數(shù)量。該層可記為conv(1,s,d)。

非線性映射:這部分最重要的兩個參數(shù)為特征圖的通道數(shù)(d,即核的數(shù)量)和深度(卷積層的層數(shù)m,m是第三個敏感變量),深度m決定了SR的精度和復(fù)雜度。卷積核的尺寸為3X3,因此該部分可記為mXconv(3,s,s)。

擴(kuò)展:擴(kuò)展部分使用d個1X1大小的核,以期恢復(fù)到壓縮前的圖像形狀。壓縮、非線性映射、擴(kuò)展這三部分是對稱的。擴(kuò)展部分可記為conv(1,d,s)。

反卷積:可視為卷積的逆操作,可以將小尺寸的圖像恢復(fù)成大尺寸的圖像。參照圖5,通過在deconv前移動一個步長,得到deconv后移動的兩個步長的區(qū)域,這樣就可以實(shí)現(xiàn)對圖像放大2倍的操作了。為了保持對稱結(jié)構(gòu),需要采用9X9大小的濾波器。該層可記為deconv(9,1,d)。反卷積不同于傳統(tǒng)的插值方法,傳統(tǒng)的方法對所有的重建像素都有一套共同的重建公式,而反卷積的核需要學(xué)習(xí)得到,它能夠針對具體的任務(wù)得出更精確的結(jié)果。

圖5 FSRCNN由卷積層和反卷積層組成

PReLU:直接給出公式f(xi) = max(xi,0) + ai*min(0,xi),在原來relu 的基礎(chǔ)上,對負(fù)半軸的梯度也能激活(即使很小),消除了部分梯度無法激活的情況。

全局結(jié)構(gòu):Conv(5, d, 1) - PReLU - Conv(1, s, d)-PReLU - m×Conv(3, s, s) - PReLU-Conv(1, d, s) - PReLU - DeConv(9, 1, d)。從全局來看,有三個參數(shù)d、s、m影響著網(wǎng)絡(luò)的性能和速度,所以將網(wǎng)絡(luò)記為FSRCNN(d,s,m),計(jì)算復(fù)雜度可由下式表示:

當(dāng)前SOTA!平臺收錄FSRCNN共8個模型實(shí)現(xiàn)。

項(xiàng)目SOTA!平臺項(xiàng)目詳情頁

FSRCNN

前往 SOTA!模型平臺獲取實(shí)現(xiàn)資源:https://sota.jiqizhixin.com/project/fsrcnn

4、ESPCN

在SRCNN和DRCN中,低分辨率圖像都是先通過上采樣插值得到與高分辨率圖像同樣的大小,再作為網(wǎng)絡(luò)輸入,意味著卷積操作在較高的分辨率上進(jìn)行,相比于在低分辨率的圖像上計(jì)算卷積,會降低效率。本文提出一種在低分辨率圖像上直接計(jì)算卷積得到高分辨率圖像的高效率亞像素卷積神經(jīng)網(wǎng)絡(luò)(efficient sub-pixel convolutional neural network,ESPN)。

圖6. ESPN有兩個卷積層用于提取特征圖,還有一個亞像素卷積層將LR空間的特征圖聚合起來,并在一個步驟中建立SR圖像

ESPN的核心概念是亞像素卷積層(sub-pixel convolutional layer)。如上圖所示,網(wǎng)絡(luò)的輸入是原始低分辨率圖像,通過兩個卷積層以后,得到的特征圖像大小與輸入圖像一樣,但是特征通道數(shù)量為r^2(r是圖像的目標(biāo)放大倍數(shù))。將每個像素的r^2個通道重新排列成一個r x r的區(qū)域,對應(yīng)于高分辨率圖像中的一個r x r大小的子塊,從而將大小為r^2 x H x W的特征圖像重新排列成1 x rH x rW大小的高分辨率圖像。這個變換雖然被稱作sub-pixel convolution, 但實(shí)際上并沒有卷積操作。通過使用sub-pixel convolution, 在將圖像從低分辨率到高分辨率放大的過程中,插值函數(shù)被隱含地包含在前面的卷積層中,可以自動學(xué)習(xí)而得到。只在最后一層對圖像大小做變換,前面的卷積運(yùn)算由于在低分辨率圖像上進(jìn)行,因此效率會較高。

首先將一個l層卷積神經(jīng)網(wǎng)絡(luò)直接應(yīng)用于LR圖像,然后利用一個子像素卷積層將LR特征圖放大,生成SR圖像I^。對于一個由L層組成的網(wǎng)絡(luò),前L-1層可以描述如下:

在LR空間中,一個跨度為1/r的卷積與一個大小為ks、權(quán)重間隔為1/r的濾波器Ws進(jìn)行卷積,能夠激活Ws的不同部分。落在像素之間的權(quán)重沒有被激活,不需要計(jì)算。激活模式的數(shù)量正好是r^2。每個激活模式,根據(jù)其位置,最多有[ks/r]^2個權(quán)重被激活。在整個圖像的濾波卷積過程中,根據(jù)不同的子像素位置,這些模式被周期性地激活:mod (x,r)、 mod (y,r) w,其中x,y是HR空間中的輸出像素坐標(biāo)。本文提出了一種有效的方法來實(shí)現(xiàn)上述操作,當(dāng)mod(ks,r)=0時(shí):

因此卷積算子W_L具有n_L-1×r^2C×k_L×k_L的形狀。請注意,我們不對最后一層的卷積的輸出施加非線性約束。當(dāng)k_L = k_s/r和mod (k_s, r) = 0時(shí),它等同于LR空間中的子像素卷積。將新層稱為亞像素卷積層,由此,網(wǎng)絡(luò)稱為高效亞像素卷積神經(jīng)網(wǎng)絡(luò)(ESPN)。最后一層從LR特征圖中直接生成HR圖像,每個特征圖都有一個放大的濾波器。

最終ESPN網(wǎng)絡(luò)目標(biāo)函數(shù)為:

當(dāng)前SOTA!平臺收錄ESPCN共14個模型實(shí)現(xiàn)。

項(xiàng)目SOTA!平臺項(xiàng)目詳情頁ESPCN前往 SOTA!模型平臺獲取實(shí)現(xiàn)資源:https://sota.jiqizhixin.com/project/espcn

5、 SRGAN

深度卷積神經(jīng)網(wǎng)絡(luò)在單個圖像實(shí)現(xiàn)超分辨率在速度和精度上取得了突破,但是仍然存在一個核心問題:當(dāng)在放大因子下的超分辨率時(shí),如何恢復(fù)細(xì)小的紋理細(xì)節(jié)?基于這些問題:本文提出了一種用于圖像SR的生成對抗網(wǎng)絡(luò)SRGAN(Super-Resolution Using a Generative Adversarial Network),并且根據(jù)GAN網(wǎng)絡(luò)結(jié)構(gòu)提出了一種新的視覺損失( perceptual loss),其中包含對抗損失(adversarial loss)和內(nèi)容損失(content loss)。

圖7. SRGAN的生成器和鑒別器網(wǎng)絡(luò)結(jié)構(gòu),每個卷積層都有相應(yīng)的核大小(k)、特征圖數(shù)量(n)和步長(s)

如圖7所示網(wǎng)絡(luò)結(jié)構(gòu),在訓(xùn)練SRGAN的生成器網(wǎng)絡(luò)過程中需要提供HR圖像。首先對HR圖像進(jìn)行下采樣得到相應(yīng)的LR圖像,然后將LR圖像作為生成器的輸入,訓(xùn)練生成器,使之輸出對應(yīng)的HR圖像。作者提出用深度殘差網(wǎng)絡(luò)(ResNet)作為生成器的生成對抗網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)中存在很多的skip connection。為了區(qū)分真實(shí)的HR圖像和生成的HR圖像,還訓(xùn)練了一個鑒別器,使用了LeakeyReLU作為激活函數(shù),網(wǎng)絡(luò)層數(shù)從64到512,后面連接兩個全連接層和一個sigmoid層,用來判斷是否為同一圖像的概率。

文章將代價(jià)函數(shù)改進(jìn)為:

第一部分是基于內(nèi)容的代價(jià)函數(shù),第二部分是基于對抗學(xué)習(xí)的代價(jià)函數(shù)。基于內(nèi)容的代價(jià)函數(shù)除了像素空間的最小均方差以外,又包含了一個基于特征空間的最小均方差,該特征是利用VGG網(wǎng)絡(luò)提取的圖像高層次特征:

對抗學(xué)習(xí)的代價(jià)函數(shù)是基于鑒別器輸出的概率:

當(dāng)前SOTA!平臺收錄SRGAN共5個模型實(shí)現(xiàn)。

項(xiàng)目SOTA!平臺項(xiàng)目詳情頁SRGAN前往 SOTA!模型平臺獲取實(shí)現(xiàn)資源:https://sota.jiqizhixin.com/project/srgan

6、 Red

本文提出了一個由對稱的卷積層——反卷積層構(gòu)成的網(wǎng)絡(luò)結(jié)構(gòu),稱為Red-Net(Residual Encoder-Decoder Networks)。如圖8所示,其網(wǎng)絡(luò)結(jié)構(gòu)是對稱的,每個卷積層都對應(yīng)有反卷積層,卷積層將輸入圖像尺寸減小后,再通過反卷積層上采樣變大,使得輸入輸出的尺寸一樣。卷積層用于提取圖像的特征,相當(dāng)于編碼的作用。而反卷積層用于放大特征的尺寸并恢復(fù)圖像細(xì)節(jié)。每一組鏡像對應(yīng)的卷積和反卷積都由skip connection將兩部分具有同樣尺寸的特征進(jìn)行相加操作后再輸入到下一個反卷積層。這樣的結(jié)構(gòu)能夠讓反向傳播信號能夠直接傳遞到底層,解決了梯度消失問題,同時(shí)能將卷積層的細(xì)節(jié)傳遞給反卷積層,從而恢復(fù)出更干凈的圖像。與此同時(shí),網(wǎng)絡(luò)中有一條線是將輸入的圖像連接到后面與最后的一層反卷積層的輸出相加,因此,整個模型架構(gòu)中間的卷積層和反卷積層學(xué)習(xí)的特征是目標(biāo)圖像和低質(zhì)圖像之間的殘差。

圖8.網(wǎng)絡(luò)整體結(jié)構(gòu)。該網(wǎng)絡(luò)包含對稱卷積(編碼器)和反卷積(去編碼器)層。每隔幾層(在本文實(shí)驗(yàn)中是兩層)就有一個skip shortcuts,從卷積特征圖到其鏡像的反卷積特征圖。卷積層的響應(yīng)被直接傳播到相應(yīng)的鏡像反卷積層,包括前向和后向傳播

具體來說,各個組成部分的作用如下:

卷積:特征提取,隨卷積進(jìn)行,提取圖像特征同時(shí)抑制噪聲,經(jīng)過多層卷積后,提取圖像特征,同時(shí)降低噪聲的影響。

反卷積:針對特征的上采樣,完成由圖像特征到圖像的轉(zhuǎn)換,由于利用的是過濾噪聲后的圖像特征,因此達(dá)到了降噪、圖像修復(fù)的目的。

Skip connections:保留更多的圖像細(xì)節(jié),協(xié)助反卷積層完成圖像的恢復(fù)工作;反向傳播過程中的梯度反向,減少梯度消失,加快模型訓(xùn)練。

當(dāng)前SOTA!平臺收錄RED共16個模型實(shí)現(xiàn)。

項(xiàng)目SOTA!平臺項(xiàng)目詳情頁RED前往 SOTA!模型平臺獲取實(shí)現(xiàn)資源:https://sota.jiqizhixin.com/project/red30-2

前往 SOTA!模型資源站(sota.jiqizhixin.com)即可獲取本文中包含的模型實(shí)現(xiàn)代碼、預(yù)訓(xùn)練模型及API等資源。

網(wǎng)頁端訪問:在瀏覽器地址欄輸入新版站點(diǎn)地址sota.jiqizhixin.com,即可前往「SOTA!模型」平臺,查看關(guān)注的模型是否有新資源收錄。

移動端訪問:在微信移動端中搜索服務(wù)號名稱「機(jī)器之心SOTA模型」或 ID「sotaai」,關(guān)注 SOTA!模型服務(wù)號,即可通過服務(wù)號底部菜單欄使用平臺功能,更有最新AI技術(shù)、開發(fā)資源及社區(qū)動態(tài)定期推送。

關(guān)鍵詞:

網(wǎng)站簡介 網(wǎng)站團(tuán)隊(duì) 本網(wǎng)動態(tài) 友情鏈接 版權(quán)聲明 我要投稿

Copyright? 2014-2020 中原網(wǎng)視臺(www.b4dc4.cn) All rights reserved.

日日夜夜一区二区_欧美体内she精视频_91亚洲大成网污www_日韩欧美中文字幕精品_亚洲午夜久久久久久久久电影院_蜜桃av一区二区_久久狠狠亚洲综合_国产成人精品亚洲777人妖_九九精品视频在线看_国产婷婷色一区二区三区四区 _ww久久中文字幕_日本亚洲免费观看_91久久精品午夜一区二区_久久精品视频免费观看_亚洲精品伦理在线_日本在线不卡一区

                亚洲一区在线电影| 日本久久精品电影| 精品无人区一区二区三区| 国产伦精品一区二区三区四区视频| 岛国视频一区免费观看| 国产伦精品一区二区三区免| 欧美亚洲爱爱另类综合| 伊人久久大香线蕉综合75| 欧美在线视频全部完| 日韩一区二区三区在线| 国产亚洲精品免费| 亚洲天堂成人在线观看| 午夜精品免费在线观看| 久久99精品国产麻豆不卡| 国产a精品视频| 99视频免费观看| 欧美激情一区二区三区在线视频| 一本一道久久a久久精品综合| 欧美少妇bbb| 精品国产一区二区亚洲人成毛片| 中文字幕不卡在线观看| 亚洲综合色成人| 另类中文字幕网| 不卡的电视剧免费网站有什么| 国产精品一区二| 亚洲精品tv久久久久久久久| 欧美日韩国产bt| 国产午夜精品一区二区三区视频 | 欧美成人国产一区二区| 国产精品每日更新在线播放网址| 亚洲国产精品视频| 国产麻豆精品一区二区| 91香蕉视频在线下载| 奇米影视首页 狠狠色丁香婷婷久久综合| 综合视频在线观看| 欧美变态tickling挠脚心| 自拍偷拍国产亚洲| 久久aⅴ国产欧美74aaa| 91美女视频网站| 五月天亚洲综合| 日韩区在线观看| 一区二区三区日韩欧美| 国产精品亚洲а∨天堂免在线| 国产激情美女久久久久久吹潮| 亚洲人成网站在线播放2019| 日韩亚洲欧美综合| 亚洲伦理在线精品| 国产中文一区二区三区| 国产精品国产亚洲精品看不卡15| 一本久久a久久精品vr综合 | 色综合天天综合色综合av| 日韩欧美的一区| 一区二区三区四区不卡在线 | 亚洲精品欧洲精品| 日韩欧美在线网站| 一二三区精品视频| 成人深夜视频在线观看| 欧洲一区二区日韩在线视频观看免费| 777亚洲妇女| 亚洲免费在线电影| 盗摄精品av一区二区三区| 欧美日韩在线播放一区二区| 欧美一区二区三区免费在线看 | 成人影片在线播放| 欧美专区日韩专区| 亚洲欧洲色图综合| 国产精品1024| 日韩亚洲欧美精品| 精品国产sm最大网站免费看| 丝袜亚洲另类欧美| 风间由美一区二区三区| 欧美色视频在线| 亚洲欧美日韩国产手机在线| 国产成人免费在线| 亚洲一区三区在线观看| 国产日韩欧美高清| 国产一区二区三区四区五区入口| 欧美日韩在线观看一区二区三区| 日韩美女在线视频| 日本成人在线网站| 精品视频一区在线| 精品少妇一区二区三区日产乱码| 午夜国产精品一区| 国产精品污www一区二区三区| 欧美日韩国产精选| 亚洲v中文字幕| 国产精品青青草| 日韩亚洲欧美在线观看| 日韩av中文字幕一区二区三区| 国产精品美女xx| 日韩欧美国产综合一区| 欧美aⅴ一区二区三区视频| 久久久久久九九| 久久综合九色综合97婷婷女人| 精一区二区三区| 特级西西444www大精品视频| 中文字幕不卡一区| 成人免费的视频| 欧美性猛片aaaaaaa做受| 艳妇臀荡乳欲伦亚洲一区| 99电影在线观看| 日韩三级免费观看| 九一九一国产精品| 亚洲欧美日韩国产成人综合一二三区| 国产欧美视频在线观看| 懂色av一区二区夜夜嗨| 精品视频资源站| 视频在线观看91| 欧美日韩喷水| 国产精品久久久久aaaa樱花| 成人av资源下载| 欧美精品在线观看播放| 日本欧美肥老太交大片| 日本一区视频在线观看| 中文字幕一区二区三中文字幕| 99re成人精品视频| 日韩一区二区在线看片| 国内外成人在线| 欧洲精品一区二区| 亚洲成人动漫在线免费观看| 欧美久久综合性欧美| 国产精品久久久久久久久图文区| 91丨porny丨户外露出| 日韩欧美国产麻豆| 国产精品18久久久| 欧美精品在线观看播放| 美女尤物国产一区| 伊人久久婷婷色综合98网| 亚洲国产日韩a在线播放| 欧美重口乱码一区二区| 最新中文字幕一区二区三区| 国产精品久久久久av福利动漫| 久久这里都是精品| av成人老司机| 精品国产电影一区二区| 不卡一区二区在线| 欧美一区二区美女| 国产福利一区二区三区视频在线 | 国产婷婷色一区二区三区在线| 成人精品亚洲人成在线| 日韩欧美在线一区二区三区| 高清成人免费视频| 91精品国产免费| 国产成人av一区二区| 欧美一区二区在线视频| 国产.欧美.日韩| 日韩欧美视频在线| 波多野结衣中文字幕一区二区三区| 欧美刺激午夜性久久久久久久 | 欧美日韩中文一区| 黑人巨大精品欧美一区| 在线播放中文字幕一区| 国产精品1区2区3区| 欧美一级二级三级乱码| 成人免费视频caoporn| 日韩免费观看2025年上映的电影| 成人av网址在线| 久久先锋影音av鲁色资源 | 色一情一乱一伦一区二区三区| 亚洲综合视频在线观看| 亚洲成人自拍视频| 日韩成人av影视| 精品视频一区 二区 三区| 国产精品资源在线| 精品久久久久久久人人人人传媒 | 欧美成人r级一区二区三区| av不卡免费电影| 欧美激情一区二区三区| 久久久99爱| 亚洲图片欧美色图| 日本道精品一区二区三区| 精品无码三级在线观看视频| 91精品国产日韩91久久久久久| 北条麻妃一区二区三区| 中文在线一区二区| 欧美日韩在线精品| 奇米色777欧美一区二区| 欧美久久久一区| 99国产精品国产精品久久| 国产精品久久久久aaaa樱花| 免费日韩av电影| 日韩精品91亚洲二区在线观看| 欧美日韩国产首页在线观看| 成人avav影音| 国产精品久久综合| 亚洲欧美影院| 国产在线播放一区三区四| 精品国产凹凸成av人网站| 久久99精品久久久久久青青日本 | 欧美精品久久天天躁| av不卡免费电影| 中文字幕亚洲成人| 在线综合视频网站| 国产电影精品久久禁18| 欧美国产一区在线| 三区精品视频| 国产一区二区三区免费观看| 2020国产精品| 欧美人xxxxx| 精品一区二区三区久久久|