《電子技術應用》
您所在的位置:首頁 > 人工智能 > 設計應用 > 基于CNN-Transformer混合構架的輕量圖像超分辨率方法
基于CNN-Transformer混合構架的輕量圖像超分辨率方法
網絡安全與數據治理
林承浩,吳麗君
福州大學物理與信息工程學院
摘要: 針對基于混合構架的圖像超分模型通常需要較高計算成本的問題,提出了一種基于CNN-Transformer混合構架的輕量圖像超分網絡STSR(Swin Transformer based Single Image Super Resolution)。首先,提出了一種并行特征提取的特征增強模塊(Feature Enhancement Block,FEB),由卷積神經網絡(Convolutional Neural Network,CNN)和輕量型Transformer網絡并行地對輸入圖像進行特征提取,再將提取到的特征進行特征融合。其次,設計了一種動態調整模塊(Dynamic Adjustment,DA),使得網絡能根據輸入圖像來動態調整網絡的輸出,減少網絡對無關信息的依賴。最后,采用基準數據集來測試網絡的性能,實驗結果表明STSR在降低模型參數量的前提下仍然保持較好的重建效果。
中圖分類號:TP391文獻標識碼:ADOI:10.19358/j.issn.2097-1788.2024.03.005
引用格式:林承浩,吳麗君.基于CNN-Transformer混合構架的輕量圖像超分辨率方法[J].網絡安全與數據治理,2024,43(3):27-33.
A lightweight image super resolution method based on a hybrid CNN-Transformer architecture
Lin Chenghao, Wu Lijun
School of Physics and Information Engineering, Fuzhou University
Abstract: In order to address the problem that image super segmentation models based on hybrid architectures usually require high computational cost, this study proposes a lightweight image super segmentation network STSR (Swin Transformer based Single Image Super Resolution) based on a hybrid CNN-Transformer architecture. Firstly, this paper proposes a Feature Enhancement Block (FEB) for parallel feature extraction, which consists of a Convolutional Neural Network (CNN) and a lightweight Transformer Network to extract features from the input image in parallel, and then the extracted features are fused to the features. Secondly, this paper designs a Dynamic Adjustment (DA) module, which enables the network to dynamically adjust the output of the network according to the input image, reducing the network's dependence on irrelevant information. Finally, some benchmark datasets are used to test the performance of the network, and the experimental results show that STSR still maintains a better reconstruction effect under the premise of reducing the number of model parameters.
Key words : image superresolution; lightweighting; Convolutional Neural Network; Transformer

引言

圖像超分辨率(Super Resolution, SR)是一項被廣泛關注的計算機視覺任務,其目的是從低分辨率(Low Resolution, LR)圖像中重建出高質量的高分辨率(High Resolution, HR)圖像[1]。由于建出高質量的高分辨率圖像具有不適定的性質,因此極具挑戰性[2]。隨著深度學習等新興技術的崛起,許多基于卷積神經網絡(CNN)的方法被引入到圖像超分任務中[3-6]。SRCNN[3]首次將卷積神經網絡引入到圖像超分任務中,用卷積神經網絡來學習圖像的特征表示,并通過卷積層的堆疊來逐步提取更高級別的特征,使得重建出的圖像具有較高的質量。在后續研究中,Kaiming He等人提出了殘差結構ResNet[5],通過引入跳躍連接,允許梯度能夠跨越層進行傳播,有助于減輕梯度消失的問題,使得模型在較深的網絡情況下仍然能保持較好的性能。Bee Lim等人在EDSR[6]中也引入了殘差結構,EDSR實際上是SRResnet[7]的改進版,去除了傳統殘差網絡中的BN層,在節省下來的空間中擴展模型尺寸來增強表現力。RCAN[8]中提出了一種基于Residual in Residual結構(RIR)和通道注意力機制(CA)的深度殘差網絡。雖然這些模型在當時取得了較好的效果,但本質上都是基于CNN網絡的模型,網絡中卷積核的大小會限制可以檢測的空間范圍,導致無法捕捉到長距離的依賴關系,意味著它們只能提取到局部特征,無法獲取全局的信息,不利于紋理細節的恢復,使得圖像重建的效果不佳[5]。


本文詳細內容請下載:

http://m.viuna.cn/resource/share/2000005931


作者信息:

林承浩,吳麗君

福州大學物理與信息工程學院,福建福州350108


雜志訂閱.jpg

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 国产69精品久久久久777 | 欧美视频在线一区二区三区 | 国产尤物二区三区在线观看 | 国产成人精品久久一区二区三区 | 插吧插吧综合网 | 欧美日韩中文一区 | 国产一区免费视频 | 成人满18在线观看网站免费 | 免费看美女午夜大片 | 日韩a在线看免费观看视频 日韩h片 | 色综合天天综合网国产人 | 久久亚洲免费视频 | 免费看国产黄色片 | 无遮羞肉动漫在线观看免费 | 青青草成人网 | 国产特黄特色的大片观看免费视频 | 深夜天堂 | 久久精品欧美一区二区 | 天堂最新资源在线 | 亚洲图色视频 | 性生交大片免费一级 | 狠狠干夜夜 | 日韩视频在线观看一区二区 | 91精品国产闺蜜国产在线 | 一级在线观看视频 | 天堂资源地址在线 | 天天夜夜狠狠一区二区三区 | 亚洲区精品久久一区二区三区 | 欧美日本亚洲国产一区二区 | 最近韩国日本免费免费版 | 天天摸天天爽天天碰天天弄 | 亚洲激情视频网站 | 欧美中文一区 | 日本欧美大码aⅴ在线播放 日本欧美成人免费观看 | 日韩中文字幕视频在线 | 一级特黄特黄的大片免费 | 特一级大黄在线观看 | 天天色天天色 | 44383亚洲大成网人网站 | 欧美片欧美日韩国产综合片 | 国产亚洲精品国产第一 |