基于变换域PCNN的近红外与彩色可见光融合
沈瑜, 苑玉彬*, 彭静
兰州交通大学电子与信息工程学院, 甘肃 兰州 730070
*通讯作者 e-mail: 164821193@qq.com

作者简介: 沈 瑜, 女, 1982年生, 兰州交通大学电子与信息工程学院教授 e-mail: 18609311366@163.com

摘要

针对近红外与彩色可见光图像融合后对比度低、 细节丢失和颜色失真等问题, 提出一种基于多尺度变换和自适应脉冲耦合神经网络(PCNN-pulse coupled neural network, PCNN)的红外与彩色可见光图像融合的新算法。 首先将彩色可见光图像转换到HSI(hue saturation intensity)空间, HSI色彩空间包含亮度、 色度和饱和度三个分量, 并且这三个分量互不相关, 因此利用这个特点可对三个分量分别进行处理。 将其亮度分量与近红外图像分别进行多尺度变换, 变换方法选择Tetrolet变换。 变换后分别得到低频和高频分量, 针对图像低频分量, 提出一种期望最大的低频分量融合规则; 针对图像高频分量, 采用高斯差分算子调节PCNN模型的阈值, 提出一种自适应的PCNN模型作为融合规则。 处理后的高低频分量经过Tetrolet逆变换得到的融合图像作为新的亮度图像。 然后将新的亮度图像和原始的色度和饱和度分量反向映射到RGB空间, 得到融合后的彩色图像。 为了解决融合带来的图像平滑化和原始图像光照不均的问题, 引入颜色与锐度校正机制(colour and sharpness correction, CSC)来提高融合图像的质量。 为了验证方法的有效性, 选取了5组分辨率为1 024×680近红外与彩色可见光图像进行试验, 并与当前高效的四种融合方法以及未进行颜色校正的本方法进行了对比。 实验结果表明, 同其他图像融合算法进行对比分析, 该方法在有无CSC颜色的情况下均能保留最多的细节和纹理, 可见度均大大提高, 同时本方法的结果在光照条件较弱的情况下具有更多的细节和纹理, 均具有更好的对比度和良好的色彩再现性。 在信息保留度、 颜色恢复、 图像对比度和结构相似性等客观指标上均具有较大优势。

关键词: 彩色图像融合; Tetrolet变换; 期望最大算法; 自适应脉冲耦合神经网络
中图分类号:TP391.41 文献标志码:A
Research on Near Infrared and Color Visible Fusion Based on PCNN in Transform Domain
SHEN Yu, YUAN Yu-bin*, PENG Jing
School of Electronic and Information Engineering, Lanzhou Jiaotong University, Lanzhou 730070, China
*Corresponding author
Abstract

Aiming at the problems of low contrast, loss of detail and color distortion after fusion of near-infrared and color visible images, a new fusion algorithm of infrared and color visible images based on multi-scale transformation and adaptive pulse coupled neural network (PCNN) is proposed. Firstly, the visible color image is transformed into HSI (Hue Saturation Intensity) space. HSI color space contains three components: brightness, chroma and saturation, and these three components are not correlated with each other. Therefore, using this feature, the three components can be processed separately. The brightness component and the near-infrared image are transformed by multi-scale transformation, respectively. Tetrolet transform is chosen as the transformation method. After transformation, the low-frequency and high-frequency components are obtained, respectively. For the low-frequency components of the image, a fusion rule with the highest expectation is proposed. For the high-frequency components of the image, the threshold of the PCNN model is adjusted by the Gauss difference operator, and an adaptive PCNN model is proposed as the fusion rule. The fused image of the processed high and low frequency components through Tetrolet inverse transformation is used as a new brightness image. Then, the new brightness image and the original chromaticity and saturation components are mapped to RGB space, and the fused color image is obtained. In order to solve the problem of image smoothing and uneven illumination of the original image, a color and sharpness correction mechanism (CSC) is introduced to improve the quality of the fused image. In order to verify the effectiveness of the proposed method, five groups of near-infrared and color visible images with the resolution of 1 024×680 were selected for experiments and compared with four current efficient fusion methods and the method without color correction. The experimental results show that, compared with other image fusion algorithms, this method can retain the most details and textures with or without CSC color, and the visibility is greatly improved. At the same time, the results of this method have more details and textures under weak illumination conditions and have better contrast and good quality. Good color reproduction. It has great advantages in information retention, color restoration, image contrast and structural similarity.

Keyword: Color image fusion; Tetrolet transform; Expected maximum algorithm; Adaptive Pulse Coupled Neural Network
引言

可见光图像与近红外图像融合技术能够将近红外传感器捕获的热辐射目标和细节内容同可见光图像中的场景内容结合起来, 增加可见光图像的有效信息, 大大提升图像信息量, 具有重要意义[1, 2, 3]

近年来, 国内外学者对可见光与近红外图像的融合进行了大量的研究。 Sharma等[4]将可见光图像和近红外图像分别经由双边滤波器和加权最小二乘滤波器进行处理, 分别得到两图的基础图像和细节图像。 对近红外细节图像通过取两者的最大值进行融合, 然后与来自边缘保持滤波器的基础图像融合。 Yan等[5]对分解后的图像通过分析波段的特征, 利用梯度和显著性分别约束融合高频分量和低频分量。 Su等[6]将融合问题定义成小波域中的最大后验估计问题, 根据近红外图像和可见光图像小波系数之间的相关性, 生成小波尺度图进行融合和去噪。 Bavirisetti等[7]将显著性检测和二尺度图像分解同时应用到图像融合中, 用视觉显著性来构建权重图, 采用二尺度图像分解。 Jens Krommweh[8]等提出了Tetrolet变换, 具有良好的方向性结构, 能够表达图像的高维纹理特征, 更适合在图像融合中作为融合框架。 Nemalidinned[9]等将脉冲耦合神经网络PCNN应用到低频分量的融合中, 该神经网络经和修正拉普拉斯(sum-modified-laplacian)算子激励, 以获得两个原始图像中的最大可用信息。

在对Tetrolet变换和自适应PCNN模型进行改进的基础上, 并结合HSI图像空间各个分量相互独立的特点, 对可见光图像的亮度分量图像和红外图像分别进行Tetrolet分解。 为了解决原始Tetrolet变换降低高频系数取值范围问题, 采用一阶范数最大值进行最优模板选定。 从给定不完备数据集中寻找潜在分布最大似然估计, 提出了一种基于最大期望算法的低频分量融合规则。 采用一种新的PCNN网络模型作为高频分量融合规则, 选取点火次数最多的神经元系数作为高频分量, 利用高斯差分算子(difference of Gaussian, DoG)自适应地控制PCNN的阈值。 为了解决融合带来的图像平滑化和原始图像光照不均的问题, 对处理后的图像进行颜色和锐度校正, 得到最终处理结果。

1 融合算法

本方法流程如图1所示。 将亮度分量同近红外图像使用改进后的Tetrolet分解, 低频系数使用用期望最大算法进行融合, 高频系数采用改进的自适应PCNN进行融合, 另外两个分量则保持不变。

图1 本算法融合流程图Fig.1 The flow chart of algorithm fusion

1.1 空间映射

HSI空间的三个通道具有较强的独立性并且同图像的彩色信息无关, 因此HSI模型非常适合彩色图像的特性检测与处理[10]。 采用几何推导法对图像进行转换, 具体操作如式(1)—式(3)

H=θ, GB2π-θ, G< B(1)

其中 θ=cos-1(R-G)+(R-B)2[(R-G)2+(R-B)(G-B)]1/2

S=1-3min(R, G, B)R+G+B(2)

I=R+G+B3(3)

式中的R, GB分量均为归一化之后的数据。

1.2 改进的Tetrolet分解

在Tetrolet变换中, 首先将图像分割成4×4的图像块, 对图像块分解, 得到2×2个低频分量和12×1个高频分量, 再将低频分量分割成4×4的图像块继续Tetrolet分解。 原始的Tetrolet变换降低了高频系数取值范围, 丢失了部分边缘和轮廓信息, 本文采用一阶范数最大值进行模板选择, 具体如下:

假设一幅原始图像II=(a[i, j] )(i, j)=0N=1, 其中N=2J, JN, 其大小为N×N, 对该图像最多进行J-1层的Tetrolet分解。 对图像进行d(d=1, 2, …, J-1)层分解步骤如下:

Step1 分别对分割成为4×4的图像块Bi, j进行Tetrolet分解, 得到4个低频分量Dd, (c)[s], s=0, 1, 2, 3和12个高频分量Gd, (c), z[s], (z=1, 2, 3), s=0, 1, 2, 3。 其中, s是覆盖4×4的块对应的4个四个拼板。

Step2 采用一阶范数的最大值进行滤波替换原始的一阶范数的最小值进行滤波。 选择公式为

c* =argmaxcz3Gd, (c), zl=argmaxcz=13s=03Gd, (c), z[s](4)

Step3 将低频分量重新排列成N×N大小的矩阵, 保留最优模板, 低频分量作为输入进行下一层的Tetrolet分解。

1.3 基于期望最大算法的低频系数融合规则

通过从给定不完备数据集中寻找潜在分布最大似然估计, 将期望最大算法运用到低频系数图像融合中[11, 12]。 假定待融合的K幅低频图像Ik, k∈ {1, 2, …, K}来自一幅未知图像F, Ik的一个通用模型为

Ik(i, j)=αk(i, j)F(l)+εk(i, j)(5)

式(5)中, α k(i, j)∈ {-1, 0, 1}为图像选择性因子, ε k(i, j)为位置(i, j)处的随机噪声。 当图像不具备同样的形态时, 使用选择性因子α k: 第k幅图像能感知给到场景取1、 不能感知取0、 极性相反取-1。

低频系数的融合步骤如下:

Step1 设定参数初始值, 采用平均图像的方法, 假定处理后的低频分量为F

F(l)=k=1hwkIk(l)(6)

其中, wk为待融合图像的权系数, Ik是标准归一化后的低频分量。

像素邻域窗口L=p×q的总体方差为

σk2=l=1L[Ik(l)-F(l)]2/L(7)

Step2 计算在参数给定的情况下, 混合正态分布第m项的条件概率密度

gm, k, l[Ik(l)]=λm, k2πσm, k2exp-(Ik(l)-αkF(l))22σm, k2t=1Mλt, k2πσt, k2exp-(Ik(l)-αkF(l))22σt, k2(8)

其中 σm, k2为混合高斯模型方差, 初试值设定为 σm, k2=10 σm-1, k2

Step3 更新参数α k, α k的值, 在{-1, 0, 1}中选择以使式(9)的期望值Q最大

Q=-12k=1ql=1Lm=1Mln(σm, k2)+(Ik(l)-α'kF(l))22σm, k2·gm, k, l[Ik(l)](9)

Step4 重新计算gm, k, l更新真实场景F(l)

F'(l)=k=1qm=1M(Ik(l)-βk)α'kgm, k, l[Ik(l)]σm, k2k=1qm=1Mα'i2gm, k, l[Ik(l)]σm, k2(10)

1.4 基于改进自适应PCNN的高频融合规则

PCNN由多个包含输入域、 调制域和脉冲产生器的神经元构成。 每个像素对应一个PCNN神经元, 输出状态有点火和不点火2种[13]。 在PCNN的处理中, 输入域接收外界输入Sij和前一级反馈输出Fij, 接收到的信号在调制域经过非线性调制得到活动信号Uij, 脉冲产生器将Uij与阈值θ ij进行比较, 当Uij大于θ ij时, 输出一个数值Yij=1, 点火一次, 接着θ ij快速增加, 直到θ ij值大于Uij值时, 关闭脉冲产生器, 输出数值Yij=0, 形成信号Yij。 简化模型如图2所示。

图2 PCNN单个神经元简化模型图Fig.2 Simplified model of PCNN single neuron

对模型进行了改进, 简化了算法流程, 具体如下:

在输入域中,

Fij(n)=Sij(11)

Lij(n)=VLpqWijpqYij(n-1)(12)

其中, Lij表示输入, Wijpq表示神经间的权值系数矩阵, pq表示单个神经元邻域范围。

在调制域中,

Uij(n)=Fij(n)[1+βLij(n)](13)

其中, β 为链接强度; n为迭代次数。

在脉冲产生域中,

θij(n)=e-aθθij(n-1)+VijθYij(n-1)(14)

Yij(n)=step(Uij(n)-Yij(n))=1Uij(n)> θij(n)0其他(15)

其中, α Lα θ 是时间常数, VL是链接输入放大系数, Vθ 是阈值放大系数。

提出采用DoG算子自适应地控制PCNN的阈值θ , 具体如式(16)

θ(i, j)=max(H(i, j))-i, jDoG×y(i, j)(16)

其中, max(H(i, j))为高频分量最大值, DoG算子取DoG=[-2.-5.-2.; -5.28.-5; -2.-5.-2]。

PCNN的点火次数越大表明Tetrolet变换后所包含的细节信息越多, 为了尽可能多的保留细节信息, 选取点火次数大的Tetrolet系数。 当n=N时, 取初始值为 U0k, l(i.j)=0, L0k, l(i.j)=0, Y0k, l(i.j)=0和式(25)中 T0k, l(i.j)=0, 得到融合后分量yF

yF=yI(i, j)Tij, I(N)Tij, V(N)yV(i, j)Tij, I(N)Tij, V(N)(17)

其中, 高频系数的点火次数为: Tnk, l(i.j)= Tn-1k, l(i.j)+ Ynk, l(i.j), yF(i, j), yI(i, j)yV(i, j)分别表示位置(i, j)处的融合系数、 近红外图像高频分量和亮度分量高频分量。

2 CSC颜色校正

融合后的亮度分量连同色调和饱和度从HSI空间转换回RGB空间的同时, 导致饱和度被降低, 同时引起图像平滑化。 因此, 引入一种颜色校正机制, 该机制的工作方式类似于融合颜色图像的色调映射, 其结果增加了饱和度, 使图像看起来色彩更加艳丽。 颜色校正描述为

IT, RGBc(x, y)=IF, RGBc(x, y)IF(x, y)βIV(x, y)+INIR(x, y)2(18)

其中c为R, G和B颜色成分, 指数β 为风格控制参数, 与饱和度成正比。 将β 值设定为1.5。

采用锐化机制解决融合带来的平滑化, 彩色校正后的图像转换到HSI色彩空间, 首先将亮度分量通过加权中值滤波器过滤, 提取高频分量进行压缩, 然后再添加回图像, 形成最终结果IRGB(x, y)。

IOut(x, y)=IT(x, y)+λ[IT(x, y)W(x, y)](19)

其中W(x, y)表示加权中值滤波器, k为大于或等于零的图像锐化控制参数, 设为0.4。

3 结果与讨论

为了证明该方法的有效性, 选取分辨率为1 024×680的五组图像进行实验方法对比。 对比方法包括Sharma等[4]提出的基于双边滤波器与加权最小二乘滤波器融合方法、 Yan等[5]的基于NSST变换的融合方法、 Su等[6]的基于多尺度小波分析的融合方法、 Bavirisetti等[7]基于显著性检测和二尺度图像分解的融合方法和本方法没有进行CSC颜色校正时的对比, 对比算法均使用预定义设置, 本方法的Tetrolet变换的分解层数为4层。 对比结果如图3所示, 第1至8行分别为可见光图像、 近红外图像、 Sharma等处理结果、 Yan等处理结果、 Su等处理结果、 Bavirisetti等处理结果、 本方法无CSC处理结果、 本方法有CSC处理结果。

图3 不同融合方法的图像视觉质量比较Fig.3 Comparison of visual quality of different fusion methods

Sharma等的结果不含天空的区域颜色较为昏暗, 图像细节丢失较多, 颜色对比度较差; Yan等的结果相对于Sharma等的结果颜色对比度有所提升, 但天空部分存在失真, 整体风格较暗; Su等的结果天空区域的处理效果与Sharma等的结果相似, 与Sharma等和Yan等的结果比较具有较好的颜色复现性, 光照较暗区域仍存在细节丢失现象; Bavirisetti等的结果颜色饱和度较低, 色彩还原度较差, 整体色彩偏淡, 造成了部分细节的丢失; 相比较, 本方法在有无CSC颜色的情况下均能保留最多的细节和纹理, 可见度均大大提高, 同时在光照条件较弱的情况下均具有更好的对比度和良好的色彩再现性, 都能显示出对原始图像信息的最大可见性。 CSC颜色校正提高了输出图像的可见性和视觉质量。 增加CSC颜色校正后的输出图像更生动, 模糊度更小, 颜色更饱和。

同时还使用了图像信息保留度评价指标QMI、 颜色恢复性能评估指标σ 、 图像结构相似性评价指标SSIM和图像对比度评价指标Cg对图像融合效果进行评估, 表1给出了各种方法和本方法的定量比较, 为数据集所有图像的参数均值, 其中加粗参数为性能最好的参数。 由表可知, 本方法无论有没有使用CSC颜色校正所有数据均具有优越的性能。 为了更直观地进行评估, 图4展示了QMI, σ , SSIM和Cg平均值的条形图比较。

表1 各种融合方法的QMI参数对比分析 Table 1 Comparative analysis of QMI parameters of various fusion methods

图4 不同融合方法下图像数据的参数平均值的条形图比较Fig.4 Bar chart comparison of the average value of parameters of image data under different fusion methods

通过以上仿真和分析, 可以得出结论: 与现有的方法相比, 本方法能够以较少的信息损失和较少的融合伪影将近红外图像中的大部分边缘、 轮廓等细节信息传输到最后的图像中, 并且解决了图像带来的平滑化问题, 有效提升了融合图像的质量。

4 结论

针对近红外与彩色可见光图像融合后导致对比度低、 细节丢失和颜色失真等问题, 结合多尺度变换与耦合脉冲网络, 提出了一种新的融合方法, 同时解决了融合图像的平滑化问题。 并在信息保留度、 颜色恢复、 对比度和图像结构相似性等客观指标上具有较大优势。 实验结果表明, 该算法的融合图像的视觉效果好, 色彩对比度高, 细节丰富。

参考文献
[1] Ding W S, Bi D Y, He L Y, et al. Infrared Physics & Technology, 2018, 92: 372. [本文引用:1]
[2] Li J, Song M H, Peng Y X. Infrared Physics & Technology, 2018, 89: 129. [本文引用:1]
[3] Liu C H, Qi Y, Ding W R. Infrared Physics & Technology, 2017, 83: 94. [本文引用:1]
[4] Sharma V, Hardeberg J Y, George S. Journal of Imaging Science & Technology, 2017, 61(4): 1. [本文引用:2]
[5] Huang Y, Bi D Y, Wu D P. Sensors, 2018, 18(4): 1169. [本文引用:2]
[6] Su H, Jung C. Multi-Spectral Fusion and Denoising of RGB and NIR Images Using Multi-Scale Wavelet Analysis. 2018 24th International Conference on Pattern Recognition, 2018. 1779. [本文引用:2]
[7] Bavirisetti D P, Dhuli R. Infrared Physics & Technology, 2016, 76: 52. [本文引用:2]
[8] Krommweh J. Journal of Visual Communication and Image Representation, 2010, 21(4): 364. [本文引用:1]
[9] Nemalidinne S M, Gupta D. Fire Safety Journal, 2018, 101: 84. [本文引用:1]
[10] Wu F, Kin Tak U. Low-Light Image Enhancement Algorithm Based on HSI Color Space. 2017 10th International Congress on Image and Signal Processing. BioMedical Engineering and Informatics, 2017. 1. [本文引用:1]
[11] Mittel V, Singh D, Saini L M. A Comparative Analysis of Supervised Land Cover Classification Using Multi-Polarized PALSAR EM Image Fusion. International Conference on Industrial & Information Systems, 2014. 1. [本文引用:1]
[12] Sun Q, Zhang S, Cao L, et al. Visual Tracking Algorithm by Particle Filter and EM Based on Multi-Cues. 2016 IEEE International Conference on Information and Automation, 2016. 1850. [本文引用:1]
[13] Cheng B Y, Jin L X, Li G N. Neurocomputing. 2018, 310: 135. [本文引用:1]