《電子技術應用》
您所在的位置:首頁 > 微波|射頻 > 設計應用 > 一種新的結合NSCT和PCNN的圖像融合方法
一種新的結合NSCT和PCNN的圖像融合方法
2016年微型機與應用第23期
楊丹,何建農
福州大學 數學與計算機科學學院,福建 福州 350116
摘要: 考慮到小波變換存在一些局限性,提出一種把非下采樣Contourlet變換(NSCT)與脈沖耦合神經網絡(PCNN)相結合的圖像融合新方法。用NSCT變換從多尺度和多方向上分解配準后的原始圖像。低頻應用改進的邊緣能量結合空間頻率的融合方法;高頻應用PCNN簡化數學模型,其鏈接強度用改進的拉普拉斯能量和表示。并且選擇點火映射圖的點火次數與其標準差相結合的方法。最后經過NSCT逆變換得出融合圖像。實驗分析可知,與其他幾種圖像融合方法進行比較,新方法取得了更高質量的融合圖像。
Abstract:
Key words :

  楊丹,何建農

  (福州大學 數學與計算機科學學院,福建 福州 350116)

       摘要:考慮到小波變換存在一些局限性,提出一種把非下采樣Contourlet變換(NSCT)與脈沖耦合神經網絡(PCNN)相結合的圖像融合新方法。用NSCT變換從多尺度和多方向上分解配準后的原始圖像。低頻應用改進的邊緣能量結合空間頻率的融合方法;高頻應用PCNN簡化數學模型,其鏈接強度用改進的拉普拉斯能量和表示。并且選擇點火映射圖的點火次數與其標準差相結合的方法。最后經過NSCT逆變換得出融合圖像。實驗分析可知,與其他幾種圖像融合方法進行比較,新方法取得了更高質量的融合圖像。

  關鍵詞:圖像融合;非下采樣輪廓波變換;脈沖耦合神經網絡;邊緣能量;拉普拉斯能量和

  中圖分類號:TP391文獻標識碼:ADOI: 10.19358/j.issn.16747720.2016.23.013

  引用格式:楊丹,何建農. 一種新的結合NSCT和PCNN的圖像融合方法[J].微型機與應用,2016,35(23):46-48,55.

0引言

  圖像融合是將由不同傳感器獲得的圖像的重要信息進行互相補充,得到一幅含有更加全面信息的新圖像,它能夠更加準確地描述真實場景[1]。比較經典的是小波變換方法,不過它只有點奇異性,而且方向受到限制,因此不能解決高維問題。為了打破方向上的限制,相關學者又研究出了一些新方法,如Contourlet變換,它比小波變換處理的效果好,但其沒有平移不變性。所以,CUNHA A L等[2]對Contourlet變換作了改進,提出非下采樣Contourlet變換(Nonsubsanpled Contourlet Transform,NSCT),它有平移不變的性質。脈沖耦合神經網絡(PulseCoupled Neural Network,PCNN)是Eckhorn提出來的,它對圖像融合領域產生了重要影響。

1NSCT變換

  NSCT變換是由兩個重要的部分構成,它們分別為非下采樣金字塔濾波器組(NSP)和非下采樣方向濾波器組(NSDFB)[3]。用NSP從多尺度上分解輸入圖像,獲得低頻子帶、高頻子帶;用NSDFB從多方向上分解高頻子帶,獲得方向子帶。重復進行這兩個操作就是對圖像進行了NSCT變換。NSCT變換的工作流程中不包含上采樣和下采樣的環節,因而擁有平移不變的性質,這是它與Contourlet變換的重要區別。圖1為NSCT的結構示意圖。

圖像 001.png

2NSCT與PCNN相結合的圖像融合方法

  2.1融合步驟

  本文提出一種NSCT與PCNN相結合的新算法。具體步驟如下:

  (1)利用NSCT變換分解原圖像A與B,獲得高低頻系數。

  (2)低頻使用的是改進的邊緣能量與空間頻率相結合的融合策略;高頻引入PCNN模型,其鏈接強度使用的是改進的拉普拉斯能量和,選擇點火映射圖的點火次數與其標準差相結合的融合策略。

  (3)對融合后的低頻系數CF(i,j)和高頻系數Ck,lF(i,j)作NSCT逆變換,取得融合圖像F。

  2.2低頻融合規則

  利用NSCT分解之后的低頻域表示圖像的大體輪廓,它是對真實場景的近似描述。因為空間頻率可以表征圖像的活躍狀態,邊緣區域能量能夠反映其邊緣特征。參考文獻[4]和[5]使用邊緣能量與空間頻率相結合的融合策略,能夠有效地保留圖像的邊緣細節信息,提高圖像的清晰度。改進的邊緣能量定義:

  QQ圖片20170105133335.png

  式(1)中,ω(i,j)為窗口加權系數矩陣,為了突出窗口中心像素與其變化邊界,本文選取QQ圖片20170105133339.png式(2)中,L1、L2、L3為方向濾波算子,其值分別為:

  QQ圖片20170105133342.png

  其中,EJ(i,j)為原始圖像J在像素(i,j)處的邊緣能量,J=A、B;CJ表示圖像的低頻系數;表示卷積。

  改進的空間頻率定義為:

  QQ圖片20170105133349.png

  其中,SF為空間頻率;RF、CF分別表示行頻率和列頻率;DF1、DF2分別表示對角線為45°和135°時的頻率;I(i,j)為像素(i,j)處的灰度值;η=0.707。

  加權系數是通過對S函數[6]改進得到的,本文改進的S函數為:

  wQQ圖片20170105133507.png

  其中,為收縮因子,本文取為5。

  最終獲得的融合系數為:

  QQ圖片20170105133609.png

  QQ圖片20170105133704.png

  其中,加權系數QQ圖片20170105133708.png為融合圖像F在像素(i,j)處的低頻融合系數。

  2.3高頻融合規則

  PCNN是由一些神經元組合成的網絡,每個神經元都是由接受域、調制部分和脈沖產生器三個成分動態非線性地構成[7]。本文使用的是PCNN的簡化模型,其數學模型如式(10)所示:

  QQ圖片20170105133711.png

  其中,(i,j)是神經元所在的位置;Ik,l(i,j)為外部的輸入刺激;Fk,ln(i,j)為第n次迭代時的反饋輸入;Lk,ln(i,j)為鏈接輸入;Uk,ln(i,j)表示內部活動項;θk,ln(i,j)為動態閾值;αL、αθ為鏈接輸入和動態閾值的時間常數;VL和Vθ分別為Fk,ln(i,j)和Lk,ln(i,j)的放大系數;p、q為鏈接范圍;Wij,pq為神經元之間的鏈接矩陣;βk,ln(i,j)為鏈接強度;Yk,ln(i,j)表示輸出項。Uk,ln(i,j)>θk,ln(i,j)時,輸出項Yk,ln(i,j)=1,則表示發生了一次點火;Tk,ln(i,j)為總點火次數。

  高頻系數表示的是圖像的細節紋理信息,人的視覺更傾向于對這部分信息的關注。考慮到PCNN方法能夠更好地提取圖像的細節信息,所以本文在處理高頻方面引入PCNN模型。參考文獻[8]及[9],在PCNN的模型中,其刺激輸入采用高頻系數,鏈接強度采用改進的拉普拉斯能量和,融合規則選取點火次數與其標準差相結合的方法。此方法能夠更加充分地展現圖像的細節紋理特征。改進的拉普拉斯能量和的定義:

  QQ圖片20170105133952.png

  其中,NSMLk,lJ(i,j)為輸入圖像J在k尺度l方向位于像素(i,j)處的拉普拉斯能量和,J=A、B;Ck,lJ(i,j)為輸入圖像J的高頻系數。

圖像 002.png

圖像 003.png

  計算點火映射圖的標準差為:

  QQ圖片20170105133955.png

  其中,X=A、B;σk,lX為點火映射圖位于k尺度l方向上的標準差;Tk,lX,N1為點火次數;μX為點火次數均值。

  本文選擇PCNN的點火映射圖的點火次數與其標準差相結合的融合方法:

  QQ圖片20170105133959.png

  其中,Ck,lF(i,j)為融合圖像F在k尺度l方向上的高頻系數。

3仿真實驗結果和分析

  本文選擇了兩組精確配準后的多聚焦圖像和醫學圖像進行分析。通過用新算法與其他4種算法進行比較,證明新算法的有效性。其他4種算法分別為:小波變換算法(WT)采用低頻取平均,高頻取大的融合方法;Contourlet變換算法中低頻采用取平均,高頻能量取大;NSCT算法采取低頻取平均,高頻采取絕對值取較大者的方法;文獻[10]中低頻選擇加權平均,高頻引入PCNN,其鏈接強度為拉普拉斯能量和。

  從人眼視覺上對兩組圖像分別進行分析。觀察圖2,圖2(c)出現明顯的頻譜失真現象,整體比較模糊。圖2(d)效果有所改善,但是骨骼、軟組織等信息損失較為嚴重。圖2(e)和(f)清晰度有所提高,但是具體細節紋理信息不夠清晰,圖(f)比(e)的效果好些。圖2(g)為新方法的結果,圖中的骨骼結構、軟組織部分很清楚,亮度合適,有利于人眼觀察。

  觀察圖3,圖3(c)中右邊的條形碼出現失真現象,圖中的字跡很模糊。圖3(d)比前者清晰,但是邊緣出現虛影。圖3(e)和(f)的效果有所改善,但是圖中的字跡不夠光滑。圖3(g)為新算法的結果,圖中的所有字跡都很光滑、清楚,能夠看出條形碼的細節紋理。

  本文還使用了4個客觀指標進行評價。空間頻率(SF)表示圖像的空間活躍狀態,數值越大其清晰度越高。標準差(STD)表示圖像的對比度,取值越大其對比度越高。信息熵(IE)是反映圖像保留下來的信息量的多少。QAB/F是表征邊緣信息的指標,取值越靠近1表明其效果越好。對表1和表2進行分析可知,本文所提出的算法在這4個評價指標上都比其他4種方法的數值大,由此證明新算法所得到的融合圖像效果是最好的。表

圖像 004.png

圖像 005.png

4結束語

  綜合NSCT變換與PCNN的優點,本文采取把兩者相結合的圖像融合新算法。本文的關鍵之處是對高低頻融合方法的改進。低頻應用改進的邊緣能量與空間頻率相結合的融合方法,高頻應用PCNN模型,其鏈接強度為改進的拉普拉斯能量和。并且通過點火映射圖的點火次數與其標準差相結合的方法選擇高頻融合系數。最后,對融合結果進行主觀與客觀評價,充分驗證了新算法的有效性與可靠性。

  參考文獻

  [1] 周渝人, 耿愛輝, 王瑩,等. 基于對比度增強的紅外與可見光圖像融合[J]. 中國激光, 2014,41(9):223-229.

  [2] CUNHA A L Da ,ZHOU J P ,DO M N. Nonsubsampled contourlet transform:theory,design, and applications [J].IEEE Transactions on Image Processing,2006,15(10):3089-3101.

  [3] 李美麗, 李言俊, 王紅梅,等. 基于NSCT和PCNN的紅外與可見光圖像融合方法[J]. 光電工程, 2010, 37(6):90-95.

  [4] WANG J, LI Q, JIA Z, et al. A novel multifocus image fusion method using PCNN in nonsubsampled contourlet transform domain[J]. Optik International Journal for Light and Electron Optics, 2015, 126(20):2508-2511.

  [5] 鄭偉, 孫雪青, 李哲. shearlet變換和區域特性相結合的圖像融合[J]. 激光技術, 2015,39(1):50-56.

  [6] 劉衛, 殷明, 欒靜,等. 基于平移不變剪切波變換域圖像融合算法[J]. 光子學報, 2013, 42(4):496-503.

  [7] WANG Z B,MA Y D,CHENG F Y,et al.Review of pulsecoupled neural networks[J].Image and Vision Computing,2010,28(1):5-13.

  [8] 李新娥, 任建岳, 呂增明,等. NSCT域內基于改進PCNN和區域能量的多光譜和全色圖像融合方法[J]. 紅外與激光工程, 2013, 42(11):3096-3102.

  [9] CHAI Y, LI H, ZHANG X. Multifocus image fusion based on features contrast of multiscale products in nonsubsampled contourlet transform domain[J]. Optik International Journal for Light and Electron Optics, 2012, 123(7):569-581.

  [10] 姜志.基于PCNN和NSCT變換的圖像融合算法研究[D].杭州:浙江理工大學,2014.


此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 日本精品一区二区 | 欧美一级视频在线 | 九九热久久免费视频 | 国产精品每日更新在线观看 | 羞羞视频在线看免费 | 三级视频网站 | 1769国产精品视频免费观看 | 韩国精品一区 | 五月天婷婷网站 | 日韩欧美动漫 | 日日爽天天干 | 波兰性xxxxx极品hd | 日本韩国在线观看 | 久久一本精品久久精品66 | 午夜影院三级 | 人人草人人干 | 欧美色亚洲图 | 精品亚洲成a人片在线观看 精品亚洲成a人在线播放 | 亚洲黄网在线播放高清 | 波多野结衣一区 | 欧美一级高清片欧美国产欧美 | 亚洲 欧美 中文 日韩欧美 | 黄色毛片国产 | 色网址在线观看 | 欧美黑人巨大日本人又爽又色 | 被窝国产理论一二三影院 | 国产免费一级高清淫曰本片 | 免费乱理伦片在线观看八戒 | 在线 中文字幕 日韩 欧美 | 婷婷夜夜躁天天躁人人躁 | 午夜香蕉视频 | 18无删减羞羞网站动漫 | 五月天婷婷免费视频观看 | 天天操女人| 香蕉视频老司机 | 最近2019中文字幕大全第二页 | 青草国产精品久久久久久久久 | 日韩黄视频 | 日本一区二区三区高清福利视频 | 欧美日韩影院 | 夜晚福利网站 |