《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 微波|射頻 > 設(shè)計(jì)應(yīng)用 > 一種新的結(jié)合NSCT和PCNN的圖像融合方法
一種新的結(jié)合NSCT和PCNN的圖像融合方法
2016年微型機(jī)與應(yīng)用第23期
楊丹,何建農(nóng)
福州大學(xué) 數(shù)學(xué)與計(jì)算機(jī)科學(xué)學(xué)院,福建 福州 350116
摘要: 考慮到小波變換存在一些局限性,提出一種把非下采樣Contourlet變換(NSCT)與脈沖耦合神經(jīng)網(wǎng)絡(luò)(PCNN)相結(jié)合的圖像融合新方法。用NSCT變換從多尺度和多方向上分解配準(zhǔn)后的原始圖像。低頻應(yīng)用改進(jìn)的邊緣能量結(jié)合空間頻率的融合方法;高頻應(yīng)用PCNN簡(jiǎn)化數(shù)學(xué)模型,其鏈接強(qiáng)度用改進(jìn)的拉普拉斯能量和表示。并且選擇點(diǎn)火映射圖的點(diǎn)火次數(shù)與其標(biāo)準(zhǔn)差相結(jié)合的方法。最后經(jīng)過(guò)NSCT逆變換得出融合圖像。實(shí)驗(yàn)分析可知,與其他幾種圖像融合方法進(jìn)行比較,新方法取得了更高質(zhì)量的融合圖像。
Abstract:
Key words :

  楊丹,何建農(nóng)

  (福州大學(xué) 數(shù)學(xué)與計(jì)算機(jī)科學(xué)學(xué)院,福建 福州 350116)

       摘要:考慮到小波變換存在一些局限性,提出一種把非下采樣Contourlet變換(NSCT)與脈沖耦合神經(jīng)網(wǎng)絡(luò)(PCNN)相結(jié)合的圖像融合新方法。用NSCT變換從多尺度和多方向上分解配準(zhǔn)后的原始圖像。低頻應(yīng)用改進(jìn)的邊緣能量結(jié)合空間頻率的融合方法;高頻應(yīng)用PCNN簡(jiǎn)化數(shù)學(xué)模型,其鏈接強(qiáng)度用改進(jìn)的拉普拉斯能量和表示。并且選擇點(diǎn)火映射圖的點(diǎn)火次數(shù)與其標(biāo)準(zhǔn)差相結(jié)合的方法。最后經(jīng)過(guò)NSCT逆變換得出融合圖像。實(shí)驗(yàn)分析可知,與其他幾種圖像融合方法進(jìn)行比較,新方法取得了更高質(zhì)量的融合圖像。

  關(guān)鍵詞:圖像融合;非下采樣輪廓波變換;脈沖耦合神經(jīng)網(wǎng)絡(luò);邊緣能量;拉普拉斯能量和

  中圖分類(lèi)號(hào):TP391文獻(xiàn)標(biāo)識(shí)碼:ADOI: 10.19358/j.issn.16747720.2016.23.013

  引用格式:楊丹,何建農(nóng). 一種新的結(jié)合NSCT和PCNN的圖像融合方法[J].微型機(jī)與應(yīng)用,2016,35(23):46-48,55.

0引言

  圖像融合是將由不同傳感器獲得的圖像的重要信息進(jìn)行互相補(bǔ)充,得到一幅含有更加全面信息的新圖像,它能夠更加準(zhǔn)確地描述真實(shí)場(chǎng)景[1]。比較經(jīng)典的是小波變換方法,不過(guò)它只有點(diǎn)奇異性,而且方向受到限制,因此不能解決高維問(wèn)題。為了打破方向上的限制,相關(guān)學(xué)者又研究出了一些新方法,如Contourlet變換,它比小波變換處理的效果好,但其沒(méi)有平移不變性。所以,CUNHA A L等[2]對(duì)Contourlet變換作了改進(jìn),提出非下采樣Contourlet變換(Nonsubsanpled Contourlet Transform,NSCT),它有平移不變的性質(zhì)。脈沖耦合神經(jīng)網(wǎng)絡(luò)(PulseCoupled Neural Network,PCNN)是Eckhorn提出來(lái)的,它對(duì)圖像融合領(lǐng)域產(chǎn)生了重要影響。

1NSCT變換

  NSCT變換是由兩個(gè)重要的部分構(gòu)成,它們分別為非下采樣金字塔濾波器組(NSP)和非下采樣方向?yàn)V波器組(NSDFB)[3]。用NSP從多尺度上分解輸入圖像,獲得低頻子帶、高頻子帶;用NSDFB從多方向上分解高頻子帶,獲得方向子帶。重復(fù)進(jìn)行這兩個(gè)操作就是對(duì)圖像進(jìn)行了NSCT變換。NSCT變換的工作流程中不包含上采樣和下采樣的環(huán)節(jié),因而擁有平移不變的性質(zhì),這是它與Contourlet變換的重要區(qū)別。圖1為NSCT的結(jié)構(gòu)示意圖。

圖像 001.png

2NSCT與PCNN相結(jié)合的圖像融合方法

  2.1融合步驟

  本文提出一種NSCT與PCNN相結(jié)合的新算法。具體步驟如下:

  (1)利用NSCT變換分解原圖像A與B,獲得高低頻系數(shù)。

  (2)低頻使用的是改進(jìn)的邊緣能量與空間頻率相結(jié)合的融合策略;高頻引入PCNN模型,其鏈接強(qiáng)度使用的是改進(jìn)的拉普拉斯能量和,選擇點(diǎn)火映射圖的點(diǎn)火次數(shù)與其標(biāo)準(zhǔn)差相結(jié)合的融合策略。

  (3)對(duì)融合后的低頻系數(shù)CF(i,j)和高頻系數(shù)Ck,lF(i,j)作NSCT逆變換,取得融合圖像F。

  2.2低頻融合規(guī)則

  利用NSCT分解之后的低頻域表示圖像的大體輪廓,它是對(duì)真實(shí)場(chǎng)景的近似描述。因?yàn)榭臻g頻率可以表征圖像的活躍狀態(tài),邊緣區(qū)域能量能夠反映其邊緣特征。參考文獻(xiàn)[4]和[5]使用邊緣能量與空間頻率相結(jié)合的融合策略,能夠有效地保留圖像的邊緣細(xì)節(jié)信息,提高圖像的清晰度。改進(jìn)的邊緣能量定義:

  QQ圖片20170105133335.png

  式(1)中,ω(i,j)為窗口加權(quán)系數(shù)矩陣,為了突出窗口中心像素與其變化邊界,本文選取QQ圖片20170105133339.png式(2)中,L1、L2、L3為方向?yàn)V波算子,其值分別為:

  QQ圖片20170105133342.png

  其中,EJ(i,j)為原始圖像J在像素(i,j)處的邊緣能量,J=A、B;CJ表示圖像的低頻系數(shù);表示卷積。

  改進(jìn)的空間頻率定義為:

  QQ圖片20170105133349.png

  其中,SF為空間頻率;RF、CF分別表示行頻率和列頻率;DF1、DF2分別表示對(duì)角線為45°和135°時(shí)的頻率;I(i,j)為像素(i,j)處的灰度值;η=0.707。

  加權(quán)系數(shù)是通過(guò)對(duì)S函數(shù)[6]改進(jìn)得到的,本文改進(jìn)的S函數(shù)為:

  wQQ圖片20170105133507.png

  其中,為收縮因子,本文取為5。

  最終獲得的融合系數(shù)為:

  QQ圖片20170105133609.png

  QQ圖片20170105133704.png

  其中,加權(quán)系數(shù)QQ圖片20170105133708.png為融合圖像F在像素(i,j)處的低頻融合系數(shù)。

  2.3高頻融合規(guī)則

  PCNN是由一些神經(jīng)元組合成的網(wǎng)絡(luò),每個(gè)神經(jīng)元都是由接受域、調(diào)制部分和脈沖產(chǎn)生器三個(gè)成分動(dòng)態(tài)非線性地構(gòu)成[7]。本文使用的是PCNN的簡(jiǎn)化模型,其數(shù)學(xué)模型如式(10)所示:

  QQ圖片20170105133711.png

  其中,(i,j)是神經(jīng)元所在的位置;Ik,l(i,j)為外部的輸入刺激;Fk,ln(i,j)為第n次迭代時(shí)的反饋輸入;Lk,ln(i,j)為鏈接輸入;Uk,ln(i,j)表示內(nèi)部活動(dòng)項(xiàng);θk,ln(i,j)為動(dòng)態(tài)閾值;αL、αθ為鏈接輸入和動(dòng)態(tài)閾值的時(shí)間常數(shù);VL和Vθ分別為Fk,ln(i,j)和Lk,ln(i,j)的放大系數(shù);p、q為鏈接范圍;Wij,pq為神經(jīng)元之間的鏈接矩陣;βk,ln(i,j)為鏈接強(qiáng)度;Yk,ln(i,j)表示輸出項(xiàng)。Uk,ln(i,j)>θk,ln(i,j)時(shí),輸出項(xiàng)Yk,ln(i,j)=1,則表示發(fā)生了一次點(diǎn)火;Tk,ln(i,j)為總點(diǎn)火次數(shù)。

  高頻系數(shù)表示的是圖像的細(xì)節(jié)紋理信息,人的視覺(jué)更傾向于對(duì)這部分信息的關(guān)注。考慮到PCNN方法能夠更好地提取圖像的細(xì)節(jié)信息,所以本文在處理高頻方面引入PCNN模型。參考文獻(xiàn)[8]及[9],在PCNN的模型中,其刺激輸入采用高頻系數(shù),鏈接強(qiáng)度采用改進(jìn)的拉普拉斯能量和,融合規(guī)則選取點(diǎn)火次數(shù)與其標(biāo)準(zhǔn)差相結(jié)合的方法。此方法能夠更加充分地展現(xiàn)圖像的細(xì)節(jié)紋理特征。改進(jìn)的拉普拉斯能量和的定義:

  QQ圖片20170105133952.png

  其中,NSMLk,lJ(i,j)為輸入圖像J在k尺度l方向位于像素(i,j)處的拉普拉斯能量和,J=A、B;Ck,lJ(i,j)為輸入圖像J的高頻系數(shù)。

圖像 002.png

圖像 003.png

  計(jì)算點(diǎn)火映射圖的標(biāo)準(zhǔn)差為:

  QQ圖片20170105133955.png

  其中,X=A、B;σk,lX為點(diǎn)火映射圖位于k尺度l方向上的標(biāo)準(zhǔn)差;Tk,lX,N1為點(diǎn)火次數(shù);μX為點(diǎn)火次數(shù)均值。

  本文選擇PCNN的點(diǎn)火映射圖的點(diǎn)火次數(shù)與其標(biāo)準(zhǔn)差相結(jié)合的融合方法:

  QQ圖片20170105133959.png

  其中,Ck,lF(i,j)為融合圖像F在k尺度l方向上的高頻系數(shù)。

3仿真實(shí)驗(yàn)結(jié)果和分析

  本文選擇了兩組精確配準(zhǔn)后的多聚焦圖像和醫(yī)學(xué)圖像進(jìn)行分析。通過(guò)用新算法與其他4種算法進(jìn)行比較,證明新算法的有效性。其他4種算法分別為:小波變換算法(WT)采用低頻取平均,高頻取大的融合方法;Contourlet變換算法中低頻采用取平均,高頻能量取大;NSCT算法采取低頻取平均,高頻采取絕對(duì)值取較大者的方法;文獻(xiàn)[10]中低頻選擇加權(quán)平均,高頻引入PCNN,其鏈接強(qiáng)度為拉普拉斯能量和。

  從人眼視覺(jué)上對(duì)兩組圖像分別進(jìn)行分析。觀察圖2,圖2(c)出現(xiàn)明顯的頻譜失真現(xiàn)象,整體比較模糊。圖2(d)效果有所改善,但是骨骼、軟組織等信息損失較為嚴(yán)重。圖2(e)和(f)清晰度有所提高,但是具體細(xì)節(jié)紋理信息不夠清晰,圖(f)比(e)的效果好些。圖2(g)為新方法的結(jié)果,圖中的骨骼結(jié)構(gòu)、軟組織部分很清楚,亮度合適,有利于人眼觀察。

  觀察圖3,圖3(c)中右邊的條形碼出現(xiàn)失真現(xiàn)象,圖中的字跡很模糊。圖3(d)比前者清晰,但是邊緣出現(xiàn)虛影。圖3(e)和(f)的效果有所改善,但是圖中的字跡不夠光滑。圖3(g)為新算法的結(jié)果,圖中的所有字跡都很光滑、清楚,能夠看出條形碼的細(xì)節(jié)紋理。

  本文還使用了4個(gè)客觀指標(biāo)進(jìn)行評(píng)價(jià)。空間頻率(SF)表示圖像的空間活躍狀態(tài),數(shù)值越大其清晰度越高。標(biāo)準(zhǔn)差(STD)表示圖像的對(duì)比度,取值越大其對(duì)比度越高。信息熵(IE)是反映圖像保留下來(lái)的信息量的多少。QAB/F是表征邊緣信息的指標(biāo),取值越靠近1表明其效果越好。對(duì)表1和表2進(jìn)行分析可知,本文所提出的算法在這4個(gè)評(píng)價(jià)指標(biāo)上都比其他4種方法的數(shù)值大,由此證明新算法所得到的融合圖像效果是最好的。表

圖像 004.png

圖像 005.png

4結(jié)束語(yǔ)

  綜合NSCT變換與PCNN的優(yōu)點(diǎn),本文采取把兩者相結(jié)合的圖像融合新算法。本文的關(guān)鍵之處是對(duì)高低頻融合方法的改進(jìn)。低頻應(yīng)用改進(jìn)的邊緣能量與空間頻率相結(jié)合的融合方法,高頻應(yīng)用PCNN模型,其鏈接強(qiáng)度為改進(jìn)的拉普拉斯能量和。并且通過(guò)點(diǎn)火映射圖的點(diǎn)火次數(shù)與其標(biāo)準(zhǔn)差相結(jié)合的方法選擇高頻融合系數(shù)。最后,對(duì)融合結(jié)果進(jìn)行主觀與客觀評(píng)價(jià),充分驗(yàn)證了新算法的有效性與可靠性。

  參考文獻(xiàn)

  [1] 周渝人, 耿愛(ài)輝, 王瑩,等. 基于對(duì)比度增強(qiáng)的紅外與可見(jiàn)光圖像融合[J]. 中國(guó)激光, 2014,41(9):223-229.

  [2] CUNHA A L Da ,ZHOU J P ,DO M N. Nonsubsampled contourlet transform:theory,design, and applications [J].IEEE Transactions on Image Processing,2006,15(10):3089-3101.

  [3] 李美麗, 李言俊, 王紅梅,等. 基于NSCT和PCNN的紅外與可見(jiàn)光圖像融合方法[J]. 光電工程, 2010, 37(6):90-95.

  [4] WANG J, LI Q, JIA Z, et al. A novel multifocus image fusion method using PCNN in nonsubsampled contourlet transform domain[J]. Optik International Journal for Light and Electron Optics, 2015, 126(20):2508-2511.

  [5] 鄭偉, 孫雪青, 李哲. shearlet變換和區(qū)域特性相結(jié)合的圖像融合[J]. 激光技術(shù), 2015,39(1):50-56.

  [6] 劉衛(wèi), 殷明, 欒靜,等. 基于平移不變剪切波變換域圖像融合算法[J]. 光子學(xué)報(bào), 2013, 42(4):496-503.

  [7] WANG Z B,MA Y D,CHENG F Y,et al.Review of pulsecoupled neural networks[J].Image and Vision Computing,2010,28(1):5-13.

  [8] 李新娥, 任建岳, 呂增明,等. NSCT域內(nèi)基于改進(jìn)PCNN和區(qū)域能量的多光譜和全色圖像融合方法[J]. 紅外與激光工程, 2013, 42(11):3096-3102.

  [9] CHAI Y, LI H, ZHANG X. Multifocus image fusion based on features contrast of multiscale products in nonsubsampled contourlet transform domain[J]. Optik International Journal for Light and Electron Optics, 2012, 123(7):569-581.

  [10] 姜志.基于PCNN和NSCT變換的圖像融合算法研究[D].杭州:浙江理工大學(xué),2014.


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
亚洲一区二区欧美_亚洲丝袜一区_99re亚洲国产精品_日韩亚洲一区二区
香蕉久久夜色精品国产| 日韩香蕉视频| 亚洲精品国产精品久久清纯直播| 国产日韩专区在线| 国产精品久久久一区二区| 欧美日韩国产黄| 欧美黄色一区二区| 免费视频一区| 蜜桃av综合| 久久婷婷蜜乳一本欲蜜臀| 久久精品视频va| 久久国产精品久久久久久久久久| 亚洲欧美日韩成人| 亚洲欧美电影院| 亚洲综合国产| 亚洲午夜电影网| 亚洲直播在线一区| 亚洲性感激情| 亚洲免费影视| 亚洲欧美一区二区三区在线| 午夜伦理片一区| 香蕉视频成人在线观看| 午夜精彩视频在线观看不卡| 亚洲免费在线视频一区 二区| 亚洲视频在线观看视频| 正在播放亚洲一区| 亚洲新中文字幕| 亚洲自拍电影| 午夜精品影院| 久久国产色av| 六十路精品视频| 欧美成人午夜77777| 欧美日本在线一区| 欧美午夜无遮挡| 国产精品一卡| 好吊色欧美一区二区三区视频| 韩国福利一区| 亚洲国产精品日韩| 日韩亚洲在线| 亚洲影院色在线观看免费| 欧美一区二区三区久久精品茉莉花| 久久国产直播| 亚洲精品视频二区| 亚洲一区二区三区激情| 小黄鸭精品aⅴ导航网站入口| 久久精品二区| 免费观看一级特黄欧美大片| 欧美精品二区三区四区免费看视频| 欧美视频二区36p| 国产精品一区一区| 欲色影视综合吧| 日韩午夜中文字幕| 亚洲欧美在线播放| 亚洲激情一区| 亚洲网站啪啪| 久久久久久欧美| 欧美极品在线播放| 国产精品中文字幕欧美| 影音先锋成人资源站| 亚洲美女精品久久| 欧美一级专区| 99视频一区二区| 欧美亚洲一区二区在线观看| 免费观看在线综合色| 欧美视频日韩视频| 国产一区深夜福利| 亚洲精品中文字幕有码专区| 亚洲免费伊人电影在线观看av| 亚洲黄色尤物视频| 亚洲一区二区三区在线看 | 精品成人一区二区三区四区| 亚洲精品一区二区三区四区高清| 亚洲在线一区二区三区| 亚洲欧洲在线一区| 久久国产婷婷国产香蕉| 欧美日韩高清在线一区| 国产一级精品aaaaa看| 日韩亚洲在线| 91久久精品国产91久久性色| 欧美一级欧美一级在线播放| 欧美成人午夜影院| 国产欧美一区二区三区在线老狼 | 亚洲国产精品一区制服丝袜| 亚洲欧美乱综合| 亚洲精品一区二区三区av| 欧美在线视频观看| 欧美日韩综合视频网址| 在线观看亚洲一区| 西瓜成人精品人成网站| 亚洲线精品一区二区三区八戒| 免费91麻豆精品国产自产在线观看| 国产精品亚洲成人| 日韩视频在线免费观看| 亚洲国产二区| 久久精彩免费视频| 国产精品美女主播| 日韩一级大片在线| 亚洲精品乱码久久久久久黑人| 久久久久久综合| 国产噜噜噜噜噜久久久久久久久| 99re66热这里只有精品3直播| 91久久夜色精品国产九色| 久久精品一区二区三区不卡| 国产精品视频自拍| av成人黄色| 亚洲久久视频| 狂野欧美性猛交xxxx巴西| 国产日韩在线播放| 亚洲一区二区三区在线观看视频 | 欧美激情综合五月色丁香小说| 精品69视频一区二区三区| 性色av一区二区三区| 亚洲欧美视频在线观看视频| 欧美日韩中文字幕综合视频| 亚洲狼人综合| 日韩视频免费观看| 欧美国产综合视频| 亚洲黄色有码视频| 亚洲人成亚洲人成在线观看图片 | 亚洲国产精品一区二区第一页| 亚洲国产欧美日韩另类综合| 久久精品论坛| 国产亚洲aⅴaaaaaa毛片| 欧美亚洲一区| 久久精品国产亚洲5555| 国产日韩精品久久| 欧美一区二区福利在线| 久久精品二区亚洲w码| 国产亚洲欧洲| 久久精品五月婷婷| 久久资源在线| 亚洲二区精品| 日韩午夜电影在线观看| 欧美日韩不卡视频| 99re国产精品| 亚洲欧美日韩综合一区| 国产欧美精品| 欧美一区二区三区在线视频| 久久视频在线看| 在线观看欧美黄色| 亚洲精品一二| 欧美色一级片| 亚洲——在线| 久久久久88色偷偷免费| 影音先锋亚洲电影| 日韩天堂在线观看| 国产精品v亚洲精品v日韩精品| 亚洲一区国产| 久久久精品动漫| 亚洲电影在线看| 在线视频欧美日韩| 国产精品自拍网站| 99精品国产在热久久婷婷| 麻豆国产精品va在线观看不卡 | 亚洲欧美bt| 久久久xxx| 亚洲激情影视| 亚洲欧美国产日韩中文字幕| 国产免费成人在线视频| 久久精品亚洲精品| 欧美区二区三区| 亚洲嫩草精品久久| 欧美~级网站不卡| 中国av一区| 久久裸体视频| 亚洲美女av黄| 久久国产精品一区二区三区| 亚洲第一在线综合在线| 亚洲一区二区网站| 国产一区日韩一区| 一区二区久久久久| 国产亚洲精品久久飘花| 亚洲免费成人| 国产三级欧美三级| 日韩午夜激情av| 国产日韩欧美一区二区三区在线观看 | 亚洲美女黄网| 国产精品女主播一区二区三区| 亚洲高清av| 国产精品久久久久久亚洲调教 | 欧美日韩高清在线观看| 欧美一区二区三区免费观看视频| 欧美精品一区二区三区在线看午夜| 亚洲欧美三级在线| 欧美日本一道本| 久久福利影视| 国产精品mv在线观看| 亚洲欧洲日本在线| 国产日韩精品一区观看| av成人免费在线观看| 国产一区二区三区四区五区美女| 在线中文字幕日韩| 伊人成人在线| 欧美在线视频一区二区| 99亚洲一区二区| 免费成人黄色av| 欧美一区二区大片| 国产精品国产三级国产专播精品人| 亚洲韩日在线| 国产一区二区三区的电影 |