计算机应用   2017, Vol. 37 Issue (6): 1722-1727  DOI: 10.11772/j.issn.1001-9081.2017.06.1722
0

引用本文 

董侠, 王丽芳, 秦品乐, 高媛. 改进耦合字典学习的脑部CT/MR图像融合方法[J]. 计算机应用, 2017, 37(6): 1722-1727.DOI: 10.11772/j.issn.1001-9081.2017.06.1722.
DONG Xia, WANG Lifang, QIN Pinle, GAO Yuan. CT/MR brain image fusion method via improved coupled dictionary learning[J]. Journal of Computer Applications, 2017, 37(6): 1722-1727. DOI: 10.11772/j.issn.1001-9081.2017.06.1722.

基金项目

山西省自然科学基金资助项目(2015011045)

通信作者

王丽芳, wsm2004@nuc.edu.cn

作者简介

董侠(1992-), 女, 山西临汾人, 硕士研究生, 主要研究方向:医学图像融合、机器学习;
王丽芳(1977-), 女, 山西长治人, 副教授, 博士, 主要研究方向:机器视觉、大数据处理、医学图像处理;
秦品乐(1978-), 男, 山西长治人, 副教授, 博士, 主要研究方向:机器视觉、大数据处理、三维重建;
高媛(1972-), 女, 山西太原人, 副教授, 硕士, 主要研究方向:大数据处理、医学图像处理、三维重建

文章历史

收稿日期:2016-11-18
修回日期:2017-02-03
改进耦合字典学习的脑部CT/MR图像融合方法
董侠, 王丽芳, 秦品乐, 高媛    
中北大学 计算机与控制工程学院, 太原 030051
摘要: 针对目前使用单字典表示脑部医学图像难以得到精确的稀疏表示进而导致图像融合效果欠佳,以及字典训练时间过长的问题,提出了一种改进耦合字典学习的脑部计算机断层成像(CT)/磁共振成像(MR)图像融合方法。该方法首先将CT和MR图像对作为训练集,使用改进的K奇异值分解(K-SVD)算法联合训练分别得到耦合的CT字典和MR字典,再将CT和MR字典中的原子作为训练图像的特征,并使用信息熵计算字典原子的特征指标;然后,将特征指标相差较小的原子看作公共特征,其余为各自特征,并分别使用"平均"和"选择最大"的规则融合CT和MR字典的公共特征和各自特征得到融合字典;其次,将配准的源图像编纂成列向量并去除均值,在融合字典的作用下由系数重用正交匹配追踪(CoefROMP)算法计算得到精确的稀疏表示系数,再分别使用"2范数最大"和"加权平均"的规则融合稀疏表示系数和均值向量;最后通过重建得到融合图像。实验结果表明,相对于3种基于多尺度变换的方法和3种基于稀疏表示的方法,所提方法融合后图像在亮度、清晰度和对比度上都更优,客观参数互信息、基于梯度、基于相位一致和基于通用图像质量指标在三组实验条件下的均值分别为:4.1133、0.7131、0.4636和0.7625,字典学习在10次实验条件下所消耗的平均时间为5.96 min。该方法可以应用于临床诊断和辅助治疗。
关键词: 医学图像融合    K奇异值分解    系数重用正交匹配追踪    稀疏表示    字典训练    
CT/MR brain image fusion method via improved coupled dictionary learning
DONG Xia, WANG Lifang, QIN Pinle, GAO Yuan     
School of Computer Science and Control Engineering, North University of China, Taiyuan Shanxi 030051, China
Abstract: The dictionary training process is time-consuming, and it is difficult to obtain accurate sparse representation by using a single dictionary to express brain medical images currently, which leads to the inefficiency of image fusion. In order to solve the problems, a Computed Tomography (CT)/Magnetic Resonance (MR) brain image fusion method via improved coupled dictionary learning was proposed. Firstly, the CT and MR images were regarded as the training set, and the coupled CT and MR dictionary were obtained through joint dictionary training based on improved K-means-based Singular Value Decomposition (K-SVD) algorithm respectively. The atoms in CT and MR dictionary were regarded as the features of training images, and the feature indicators of the dictionary atoms were calculated by the information entropy. Then, the atoms with the smaller difference feature indicators were regarded as the common features, the rest of the atoms were considered as the innovative features. A fusion dictionary was obtained by using the rule of "mean" and "choose-max" to fuse the common features and innovative features of the CT and MR dictionary separately. Further more, the registered source images were compiled into column vectors and subtracted the mean value. The accurate sparse representation coefficients were computed by the Coefficient Reuse Orthogonal Matching Pursuit (CoefROMP) algorithm under the effect of the fusion dictionary, the sparse representation coefficients and mean vector were fused by the rule of "2-norm max" and "weighted average" separately. Finally, the fusion image was obtained via reconstruction. The experimental results show that, compared with three methods based on multi-scale transform and three methods based on sparse representation, the image visual quality fused by the proposed method outperforms on the brightness, sharpness and contrast, the mean value of the objective parameters such as mutual information, the gradient based, the phase congruency based and the universal image quality indexes under three groups of experimental conditions are 4.1133, 0.7131, 0.4636 and 0.7625 respectively, the average time in the dictionary learning phase under 10 experimental conditions is 5.96 min. The proposed method can be used for clinical diagnosis and assistant treatment.
Key words: medical image fusion    K-means-based Singular Value Decomposition (K-SVD)    Coefficient Reuse Orthogonal Matching Pursuit (CoefROMP)    sparse representation    dictionary training    
0 引言

在医学领域,医生需要对同时具有高空间和高光谱信息的单幅图像进行研究和分析,以便对疾病进行准确诊断和治疗[1]。这种类型的信息仅从单模态图像中无法获取,例如:计算机断层成像(Computed Tomography, CT)能够捕捉人体的骨结构,具有较高的分辨率,而磁共振成像(Magnetic Resonance, MR)能够捕捉人体器官的软组织如肌肉、软骨、脂肪等细节信息。因此,将CT和MR图像的互补信息相融合以获取更全面丰富的图像信息,可为临床诊断和辅助治疗提供有效帮助[2]

目前应用于脑部医学图像融合领域比较经典的方法是基于多尺度变换的方法:离散小波变换(Discrete Wavelet Transform, DWT)[3]、平稳小波变换(Stationary Wavelet Transform, SWT)[4]、双树复小波变换(Dual-Tree Complex Wavelet Transform, DTCWT)[5]、拉普拉斯金字塔(Laplacian Pyramid, LP)[6]、非下采样Contourlet变换(Non-Subsampled Contourlet Transform, NSCT)[7]。基于多尺度变换的方法能够很好地提取图像的显著特征,并且计算效率较高,但是多尺度分解水平不易确定,分解层数太少则不能提取足够多的细节信息,分解层数太多则融合过程对图像误配准更加敏感,分解层数需要在细节提取能力和对误配准鲁棒性之间做出折中。另外,传统的融合策略也会导致融合图像对比度丢失。随着压缩感知[8]的兴起,基于稀疏表示的方法[9-10]被广泛用于图像融合领域,并取得了极佳的融合效果。Yang等[11]使用冗余的离散余弦变换(Discrete Cosine Transform, DCT)字典稀疏表示源图像,并使用“选择最大”的规则融合稀疏系数。DCT字典是一种隐式字典,易于快速实现,但是其表示能力有限。Aharon等[12]提出K奇异值分解(K-means-based Singular Value Decomposition, K-SVD)算法用于从训练图像中学习字典。与DCT字典相比,学习的字典是一种自适应于源图像的显式字典,具有较强的表示能力。学习的字典中将仅从自然图像中采样训练得到的字典称为单字典,单字典可以表示任意一幅与训练样本类别相同的自然图像,但对于结构复杂的脑部医学图像,使用单字典既要表示CT图像又要表示MR图像,难以得到精确的稀疏表示系数。Ophir等[13]提出小波域上的多尺度字典学习方法,即在小波域上对所有子带分别使用K-SVD算法训练得到所有子带对应的子字典。多尺度字典有效地将解析字典和学习的字典的优势相结合,能够捕捉图像在不同尺度和不同方向上包含的不同特征。但是所有子带的子字典也是单字典,使用子字典对所有子带进行稀疏表示仍然难以得到精确的稀疏表示系数,并且分离的字典学习时间效率较低。Yu等[14]提出基于联合稀疏表示的图像融合方法兼具去噪功能。这种方法是对待融合的已配准源图像本身进行字典学习,根据联合稀疏模型的第一种模型(Joint Sparsity Model-1, JSM-1) 提取待融合图像的公共特征和各自特征,再分别组合并重构得到融合图像。这种方法由于是对待融合源图像本身训练字典所以适用于脑部医学图像,可以得到精确的稀疏表示系数;但是对于每对待融合的源图像都需要训练字典,时间效率低,缺乏灵活性。

针对上述问题,本文提出一种适用于脑部CT/MR图像融合的方法。不同于单字典的样本采集方式,该方法首先将高质量的脑部CT/MR图像对作为训练集,使用改进的K-SVD算法联合训练分别得到耦合的CT字典和MR字典,再结合空间域的方法融合CT和MR字典得到融合字典。融合字典很好地保留了CT和MR训练图像的特征,使用这样一个融合字典就可以同时准确地表示CT和MR源图像并得到精确的稀疏表示系数。其次,在耦合的特征空间下使用改进的K-SVD算法联合训练字典较其他几种经典字典学习方法提高了字典学习的时间效率。最后,在融合阶段将源图像列向量的均值去掉,这样只保留了图像纹理信息而不是图像的强度值,再使用不同的融合规则组合重构各部分得到融合图像。实验结果表明本文提出的方法在主观视觉和客观参数上性能较优。

1 稀疏表示和字典学习

稀疏表示理论的基本假设是:任何给定的自然信号都可以表示为字典中原子的稀疏线性组合[15]。对给定的信号xRn,信号x的稀疏表示可以描述为x=,其中矩阵D=(d1, d2, …, dm)∈Rn×m是一个字典,每个列向量diRn(i=1, 2, …, m)是字典D的一个原子,向量αRm是含有一些非零元素的稀疏系数。稀疏系数α的计算式如下:

$\mathop {{\rm{min}}}\limits_{\mathit{\boldsymbol{\alpha }}} {\left\| {\mathit{\boldsymbol{\alpha }}} \right\|_0}$ (1)

s.t. ‖x-Dα22ε

式中:向量α的稀疏水平是由l0范数衡量的;‖α0表示向量α中非零元素的个数;ε表示允许偏差的精度。问题(1) 的求解过程称为“稀疏编码”。

在稀疏表示中,字典D的选择是非常关键的。构造字典的两种主要方法是:解析方法和基于学习的方法。与解析方法相比,基于学习的方法可以提高字典的性能和灵活性,应用范围更广。

具体地,令{xi}(i=1, 2, …, Num)是一个包含Num个样本的训练集,把这些样本排列成列组成一个矩阵X=(x1, x2, …, xNum)∈Rn×Num。字典学习就是从X中学习一个字典DRn×m,则X=DAA=(α1, α2, …, αNum)∈Rm×Num是稀疏系数矩阵。最有代表性的字典学习算法是最优方向法(Method of Optimal Directions, MOD)[16]和K-SVD算法[12]。这两种学习算法都是通过最小化稀疏逼近误差‖X-DAF2学习字典,对应的优化问题如下:

$\mathop {{\rm{min}}}\limits_{{\mathit{\boldsymbol{D}}}, {\mathit{\boldsymbol{A}}}} \left\| {{\mathit{\boldsymbol{X}}} - {\mathit{\boldsymbol{DA}}}} \right\|_\rm{F}^2\;\;$ (2)

${\rm{s}}{\rm{.t}}{\rm{.}}\;\;\forall i\;{\left\| {{{\mathit{\boldsymbol{\alpha }}}_i}} \right\|_0} \le \tau $

式中:符号‖·‖F表示F范数;τ是稀疏矩阵A的稀疏度。MOD和K-SVD都是迭代算法,通过交替地执行稀疏编码和字典更新这两个步骤得到问题(2) 的解。

2 改进的耦合字典学习和融合字典

精确的稀疏表示是图像融合成功的关键。经典的模型是从自然图像当中训练一个超完备字典来描述源图像。与自然图像相比,医学图像具有灰度不均匀、对比度低等特点,使用这样的超完备字典并不能精确地表示CT和MR图像。基于此,本文提出使用改进的K-SVD算法联合训练分别得到耦合的CT字典和MR字典,耦合的字典学习能够更高效完整地提取CT和MR图像的特征,然后再结合空间域的方法融合CT字典和MR字典得到融合字典。由于融合字典同时包含了CT和MR图像的特征,所以使用融合字典表示这两种源图像能够得到更精确的稀疏表示系数,从而提高脑部医学图像融合的质量。本文将提出的基于改进耦合字典学习的脑部CT/MR图像融合方法简记为ICDL (Improved Coupled Dictionary Learning)。图 1为ICDL方法的流程。

图 1 ICDL方法的流程 Figure 1 Flow chart of ICDL method
2.1 改进的耦合字典学习

本文使用的训练集是8个已经配准的CT和MR图像对,这些图像对来自哈佛大学医学院[17],如图 2所示。从训练集中采样得到向量对{XC, XR},定义XC$ \buildrel \Delta \over = $(x1C, x2C, ...xnC)∈Rd×nn个采样的CT图像向量组成的矩阵,XR$ \buildrel \Delta \over = $(x1R, x2R, ...xnR)∈Rd×N作为对应的n个采样的MR图像向量组成的矩阵。根据文献[18]和[19],本文的目标是在耦合的特征空间下训练两个字典DC, DRRd×N,使得CT和MR训练图像在相应的字典作用下具有相同的稀疏表示系数ARN×n图 3为ICDL方法的字典学习过程。

图 2 训练集 Figure 2 Training set
图 3 ICDL方法的字典学习过程 Figure 3 Dictionary learning process of ICDL method

传统的耦合字典学习问题可表示为:

$\mathop {{\rm{min}}}\limits_{{{\mathit{\boldsymbol{D}}}^{\rm{C}}}, {{\mathit{\boldsymbol{D}}}^{\rm{R}}}, {\mathit{\boldsymbol{A}}}} \left\| {{{\mathit{\boldsymbol{X}}}^{\rm{C}}} - {{\mathit{\boldsymbol{D}}}^{\rm{C}}}{\mathit{\boldsymbol{A}}}} \right\|_2^2 + \left\| {{{\mathit{\boldsymbol{X}}}^{\rm{R}}} - {{\mathit{\boldsymbol{D}}}^{\rm{R}}}{\mathit{\boldsymbol{A}}}} \right\|_2^2\;$ (3)

s.t. ‖A0τ, ‖diC22≤1, ‖diR22≤1, ∀1≤iN其中:AXCXR的联合稀疏编码;diCdiR分别是DCDR字典原子的第i列;τ是稀疏矩阵A的稀疏度。

本文的耦合字典训练使用改进的K-SVD算法[20],该算法是在字典学习代价函数式(3) 中加入支撑完整的先验信息[21],交替地更新DCDRA,对应的训练优化问题如下:

$\mathop {{\rm{min}}}\limits_{{{\mathit{\boldsymbol{D}}}^{\rm{C}}}, {{\mathit{\boldsymbol{D}}}^{\rm{R}}}, {\mathit{\boldsymbol{A}}}} \left\| {{{\mathit{\boldsymbol{X}}}^{\rm{C}}} - {{\mathit{\boldsymbol{D}}}^{\rm{C}}}{\mathit{\boldsymbol{A}}}} \right\|_2^2 + \left\| {{{\mathit{\boldsymbol{X}}}^{\rm{R}}} - {{\mathit{\boldsymbol{D}}}^{\rm{R}}}{\mathit{\boldsymbol{A}}}} \right\|_2^2$ (4)

s.t. ‖A0τ, AM=0

式中:⊙代表点乘;掩膜矩阵M由元素0和1组成,定义为M={|A|=0},等价于如果A (i, j)=0则M (i, j)=1,否则为0。因此AM=0能使A中所有零项保持完备。引入辅助变量:

${\mathit{\boldsymbol{\bar X}}} = \left( \begin{array}{l} {{\mathit{\boldsymbol{X}}}^{\rm{C}}}\\ {{\mathit{\boldsymbol{X}}}^{\rm{R}}} \end{array} \right)$ (5)
${\mathit{\boldsymbol{\bar D}}} = \left( \begin{array}{l} {{\mathit{\boldsymbol{D}}}^{\rm{C}}}\\ {{\mathit{\boldsymbol{D}}}^{\rm{R}}} \end{array} \right)$ (6)

则问题式(4) 可以等价地转化为:

$\begin{array}{l} \quad \quad \mathop {{\rm{min}}}\limits_{{\mathit{\boldsymbol{\bar D}}}, {\mathit{\boldsymbol{A}}}} \left\| {{\mathit{\boldsymbol{\bar X}}} - {\mathit{\boldsymbol{\bar DA}}}} \right\|_2^2\\ {\rm{s}}{\rm{.t}}.\quad \;{\left\| {\mathit{\boldsymbol{A}}} \right\|_0} \le \tau , \;\;{\mathit{\boldsymbol{A}}} \odot {\mathit{\boldsymbol{M}}} = 0 \end{array}$ (7)

式(7) 的求解过程分为稀疏编码和字典更新两个步骤。

首先,随机矩阵初始化字典D0CD0R。通过求解式(8) 来实现对系数矩阵A的更新:

$\begin{array}{l} \quad \quad {\mathit{\boldsymbol{A}}} = \mathop {{\rm{arg \ min}}}\limits_{\mathit{\boldsymbol{A}}} \left\| {{\mathit{\boldsymbol{\bar X}}} - {\mathit{\boldsymbol{\bar DA}}}} \right\|_2^2\\ {\rm{s}}{\rm{.t}}.\;\;{\mathit{\boldsymbol{A}}} \odot {\mathit{\boldsymbol{M}}} = 0 \end{array}$ (8)

分别对系数矩阵A中每一列的非零元素进行处理,而保持零元素完备,则式(8) 可以转换为式(9):

${{\mathit{\boldsymbol{\alpha }}}_i} = \mathop {{\rm{arg}}\;{\rm{min}}}\limits_{{{\mathit{\boldsymbol{\alpha }}}_i}} \left\| {{{{\mathit{\boldsymbol{\bar x}}}}_i} - {{{\mathit{\boldsymbol{\bar D}}}}_i}{{\mathit{\boldsymbol{\alpha }}}_i}} \right\|_2^2$ (9)

式中:DiD对应A的非零支集的子矩阵; αiAi列的非零部分。问题(9) 由系数重用正交匹配追踪(Coefficient Reuse Orthogonal Matching Pursuit, CoefROMP)算法[19]求解,由此可得到更新的稀疏系数矩阵A

其次,在字典更新阶段,式(7) 的优化问题可以转化为式(10):

$\begin{array}{l} \quad \quad \left\{ {{\mathit{\boldsymbol{\bar D}}}, {\mathit{\boldsymbol{A}}}} \right\} = \mathop {{\rm{arg}}\;{\rm{min}}}\limits_{{\mathit{\boldsymbol{\bar D}}}, {\mathit{\boldsymbol{A}}}} \left\| {{\mathit{\boldsymbol{\bar X}}} - {\mathit{\boldsymbol{\bar DA}}}} \right\|_2^2\\ {\rm{s}}{\rm{.t}}.\;\;{\mathit{\boldsymbol{A}}} \odot {\mathit{\boldsymbol{M}}} = 0 \end{array}$ (10)

则式(10) 的补偿项可以写为:

$\begin{array}{l} \left\| {{\mathit{\boldsymbol{\bar X}}} - {\mathit{\boldsymbol{\bar DA}}}} \right\|_2^2 = \left\| {{\mathit{\boldsymbol{\bar X}}} - \sum\limits_{j = 1}^N {{{{\mathit{\boldsymbol{\bar d}}}}_j}} {\mathit{\boldsymbol{\alpha }}}_j^T} \right\|_2^2 = \\ \;\;\;\;\;\;\;\;\;\;\left\| {\left( {{\mathit{\boldsymbol{\bar X}}} - \sum\limits_{j \ne k} {{{{\mathit{\boldsymbol{\bar d}}}}_j}{\mathit{\boldsymbol{\alpha }}}_j^T} } \right) \odot \left( {{1_d} \cdot {\mathit{\boldsymbol{m}}}_j^T} \right) - {{{\mathit{\boldsymbol{\bar d}}}}_k}{\mathit{\boldsymbol{\alpha }}}_k^T} \right\|_2^2 = \\ \;\;\;\;\;\;\;\;\;\;\left\| {{{\mathit{\boldsymbol{E}}}_k} - {{{\mathit{\boldsymbol{\bar d}}}}_k}{\mathit{\boldsymbol{\alpha }}}_k^T} \right\|_2^2 \end{array}$ (11)

式中:dk表示字典D中待更新的第k列; αkT表示稀疏系数矩阵A的第k行; mjT表示掩膜矩阵M的第j行用来保证αkT中的零元素在正确的位置。掩膜矩阵1d·mjT是将行向量mjT复制d次得到尺寸为d×n的秩为1的矩阵,利用掩膜矩阵1d·mjT可以有效地去除${\mathit{\boldsymbol{\bar X}}} - \sum\limits_{j \ne k} {{{{\mathit{\boldsymbol{\bar d}}}}_j}} {\mathit{\boldsymbol{a}}}_j^T$中那些未用到第k个原子所对应样本的列。对误差矩阵Ek进行奇异值分解(SVD)得到Ek=VT,使用矩阵U的第一列更新字典D中的原子dk,同时将稀疏系数矩阵A中的αkT更新为矩阵V的第一列与Δ(1, 1) 的乘积。

最后,循环执行稀疏编码和字典更新这两个阶段,直至达到预设的迭代次数为止,输出一对耦合的DCDR字典。由于字典更新阶段同时更新字典和稀疏表示系数的非零元素,使得字典的表示误差更小且字典的收敛速度更快。在稀疏编码阶段,考虑到每次迭代时都忽略前一次迭代的表示,CoefROMP算法提出利用上次迭代的稀疏表示残差信息进行系数更新,从而更快地得到所要求问题的解[21]

2.2 融合字典

为构造一个同时包含CT和MR两种图像特征的字典,使得这个字典能够同时精确地表示CT和MR源图像。考虑到2.1节中CT和MR训练图像在一对耦合字典的作用下具有相同的稀疏表示系数,因此将CT和MR字典中的原子作为训练图像的特征,再结合空间域的方法融合CT和MR字典得到融合字典。

具体地,令DC, DRRd×NLC(n)和LR(n)(n=1, 2, …, N)分别代表CT字典和MR字典的第n个原子的特征指标。由于脑部CT和MR图像是对应于人体同一部位由不同成像设备获取的图像,因此两者之间一定存在着公共特征和各自特征。本文提出:将特征指标相差较大的原子看作各自特征,使用“选择最大”规则融合;特征指标相差较小的原子看作公共特征,使用“平均”的规则融合。融合字典的计算式表示如下:

$\begin{array}{l} {\mathit{\boldsymbol{D}}_{\rm{F}}}\left( n \right) = \\ \left\{ \begin{array}{l} \begin{array}{*{20}{c}} {{{\mathit{\boldsymbol{D}}}^{\rm{C}}}\left( n \right),} & {\begin{array}{*{20}{c}} {} & {} \end{array}\begin{array}{*{20}{c}} {} & {} \end{array}\begin{array}{*{20}{c}} {} & {} \end{array}{L^{\rm{C}}}\left( n \right) > {L^{\rm{R}}}\left( n \right)且} \end{array}\\ \quad \quad \left| {{L^{\rm{C}}}\left( n \right) - {L^{\rm{R}}}\left( n \right)} \right|/\left| {{L^{\rm{C}}}\left( n \right) + {L^{\rm{R}}}\left( n \right)} \right| \ge \lambda \\ \begin{array}{*{20}{c}} {{{\mathit{\boldsymbol{D}}}^R}\left( n \right)} & {\begin{array}{*{20}{c}} {} & {} \end{array}\begin{array}{*{20}{c}} {} & {} \end{array}\begin{array}{*{20}{c}} {} & {} \end{array}{L^{\rm{C}}}\left( n \right) \le {L^{\rm{R}}}\left( n \right)且} \end{array}\\ \quad \quad \left| {{L^C}\left( n \right) - {L^{\rm{R}}}\left( n \right)} \right|/\left| {{L^{\rm{C}}}\left( n \right) + {L^{\rm{R}}}\left( n \right)} \right| \ge \lambda \\ \begin{array}{*{20}{c}} {\left( {{{\mathit{\boldsymbol{D}}}^{\rm{C}}}\left( n \right) + {{\mathit{\boldsymbol{D}}}^{\rm{R}}}\left( n \right)} \right)/2,\;\;} & {其他} \end{array} \end{array} \right. \end{array}$ (12)

式中:设λ=0.25,DFRd×N表示融合字典。根据医学图像的物理特性,使用信息熵[22]作为特征指标。这种方法将稀疏域和空间域的方法结合起来,考虑了医学图像的物理特性计算字典原子的特征指标,与稀疏域的方法相比,具有更加明确的物理意义。

3 脑部CT/MR图像融合过程

不失一般性,设已经配准的脑部CT/MR源图像IC, IRRMN图 4为脑部CT/MR图像融合流程,融合过程如下:

图 4 脑部CT/MR图像融合 Figure 4 Fusion of CT/MR brain images

1) 预处理阶段。使用步长为1的滑动窗把源图像ICIR分为$\sqrt m \times \sqrt m $大小的图像块,然后将这些提取的图像块编纂成m维列向量。对于每幅源图像ICIR,都有$\left( {M - \sqrt m + 1} \right)\left( {N - \sqrt m + 1} \right)$个图像块。将两幅源图像中的第j个图像块拉成的列向量记为和xCjxRj,并减去各自的均值:

${\mathit{\boldsymbol{\hat x}}}_C^j = {\mathit{\boldsymbol{x}}}_C^j - m_C^j \cdot 1$ (13)
${\mathit{\boldsymbol{\hat x}}}_R^j = {\mathit{\boldsymbol{x}}}_R^j - m_R^j \cdot 1$ (14)

其中:mCjmRj分别是xCjxRj中所有元素的均值;1表示一个全1的m维列向量。

2) 融合阶段。使用CoefROMP算法[17]求解$\left\{ {{\mathit{\boldsymbol{\hat x}}}_{\rm{C}}^j, {\mathit{\boldsymbol{\hat x}}}_{\rm{R}}^j} \right\}$的稀疏表示系数,计算式如下:

$\begin{array}{l} \quad {\mathit{\boldsymbol{\alpha }}}_{\rm{C}}^j = \mathop {{\rm{arg}}\;{\rm{min}}}\limits_{\mathit{\boldsymbol{\alpha }}} {\left\| {\mathit{\boldsymbol{\alpha }}} \right\|_0}\;\;\\ {\rm{s}}{\rm{.t}}{\rm{.}}\;\;{\left\| {{\mathit{\boldsymbol{\hat x}}}_{\rm{C}}^j - {{\mathit{\boldsymbol{D}}}_{\rm{F}}}{\mathit{\boldsymbol{\alpha }}}} \right\|_2} < \varepsilon \end{array}$ (15)
$\begin{array}{l} \quad {\mathit{\boldsymbol{\alpha }}}_{\rm{R}}^j = \mathop {{\rm{arg}}\;{\rm{min}}}\limits_{\mathit{\boldsymbol{\alpha }}} {\left\| {\mathit{\boldsymbol{\alpha }}} \right\|_0}\;\;\\ {\rm{s}}{\rm{.t}}{\rm{.}}\;\;{\left\| {{\mathit{\boldsymbol{\hat x}}}_{\rm{R}}^j - {{\mathit{\boldsymbol{D}}}_{\rm{F}}}{\mathit{\boldsymbol{\alpha }}}} \right\|_2} < \varepsilon \end{array}$ (16)

其中:DF是由2.2节提出的融合字典。

将稀疏系数的l2范数作为源图像的活跃度测量,则稀疏系数αCjαRj通过以下的融合规则融合:

${\mathit{\boldsymbol{\alpha }}}_{\rm{F}}^j = \left\{ \begin{array}{l} {\mathit{\boldsymbol{\alpha }}}_{\rm{C}}^j & {\left\| {{\mathit{\boldsymbol{\alpha }}}_{\rm{C}}^j} \right\|_2} \ge {\left\| {{\mathit{\boldsymbol{\alpha }}}_{\rm{R}}^j} \right\|_2}, \\ {\mathit{\boldsymbol{\alpha }}}_{\rm{R}}^j, & 其它 \end{array} \right.$ (17)

均值mCjmRj使用“加权平均”规则融合:

$m_{\rm{F}}^j = w \cdot m_{\rm{C}}^j + \left( {1 - w} \right) \cdot m_{\rm{R}}^j$ (18)

其中,w=1/(1+exp(-β(mCj-mRj))), β>0。则xCjxRj的融合结果为:

$\mathit{\boldsymbol{x}}_{\rm{F}}^j = {{\mathit{\boldsymbol{D}}}_{\rm{F}}}{\mathit{\boldsymbol{\alpha }}}_{\rm{F}}^j + m_{\rm{F}}^j \cdot 1$ (19)

3) 重建阶段。对所有的图像块都执行上述两个步骤以得到所有图像块的融合结果。对于每个块向量xFj,通过反滑窗的过程重塑成$\sqrt m \times \sqrt m $的图像块并放回到对应的像素位置,再对重复像素取平均得到最终的融合图像IF

4 实验结果与分析

本文的实验环境为:32位Windows7操作系统、Matlab R2013a、Intel i3-2350 2.3 GHz处理器、4 GB运行内存。为验证本文方法的有效性,选取三组已经配准的脑部CT/ MR图像进行融合,分别为正常脑部CT/MR (图 5(a)(b))、脑萎缩CT/MR (图 6(a)(b))、脑肿瘤CT/MR (图 7(a)(b)),图片大小均为256×256。选取的对比算法有:离散小波变换(DWT)[3]、平稳小波变换(SWT)[4]、非下采样Contourlet变换(NSCT)[7]、传统基于选择最大的稀疏表示方法(Sparse Representation “choose-Max”-based, SRM)[11]、基于K-SVD的稀疏表示方法(Sparse Representation based on K-SVD, SRK)[12]、基于多尺度字典学习的方法(Multi-scale Dictionary Learning, MDL)[13]

图 5 正常脑部的CT/MR融合结果 Figure 5 CT/MR fusion results of normal brain
图 6 脑萎缩的CT/MR融合结果 Figure 6 CT/MR fusion results of brain atrophy
图 7 脑肿瘤的CT/MR融合结果 Figure 7 CT/MR fusion results of brain tumors

基于多尺度变换的方法中,对于DWT和SWT方法,分解水平都设为3, 小波基分别设为“db6”和“bior1.1”。NSCT方法使用“9—7”金字塔滤波器和“c—d”方向滤波器,分解水平设为{22, 22, 23, 24}。基于稀疏表示的方法中滑动步长为1,图像块大小均为8×8,字典大小均为64×256,误差ε=0.01,稀疏度τ=6。ICDL方法使用改进的K-SVD算法,执行6个字典更新周期(Dictionary Update Cycles, DUC)和30次迭代。

图 5~7可以看出,DWT方法的融合图像边缘纹理模糊,图像信息失真且存在块效应;与DWT方法相比,SWT和NSCT方法的融合质量相对较好,图像的亮度、对比度、清晰度有了很大的提升,但仍存在边缘亮度失真,软组织和病灶区域存在伪影的问题;SRM和SRK方法较基于多尺度变换的方法,图像的骨组织和软组织更加清晰,伪影也有所减少,能很好地识别病灶区域;MDL方法与SRM和SRK方法相比,能保留更多的细节信息,图像质量取得进一步的改善,但仍有部分伪影存在;本文提出的ICDL方法在图像的亮度、对比度、清晰度和细节的保持度上都优于其他方法,融合图像没有伪影,骨组织、软组织和病灶区域显示清晰,有助于医生诊断。

为进一步验证本文方法的有效性,使用互信息(Mutual Information, MI)[23]、基于梯度QAB/F[24]、基于相位一致Qp[25]和基于通用图像质量指标Qw[26]来对融合图像进行客观评价。MI反映融合图像从源图像提取的信息量的多少,提取的信息量越多则融合图像的质量越好;QAB/F反映融合图像对源图像边缘特性的保留情况,取值范围在[0, 1],越接近1表示融合图像的边缘越清晰;Qp反映融合图像多种类型的显著特征,如边缘和角点等;Qw反映融合图像在系数相关性、光照和对比度方面与源图像的关联,符合人类视觉系统的特点。

表 1~3为三组实验条件下不同融合方法的客观评价指标。

表 1 正常脑部CT/MR融合结果性能比较 Table 1 Performance comparison of CT/MR fusion results of normal brain
表 2 脑萎缩CT/MR融合结果性能比较 Table 2 Performance comparison of CT/MR fusion results of brain atrophy
表 3 脑肿瘤CT/MR融合结果性能比较 Table 3 Performance comparison of CT/MR fusion results of brain tumors

表 1~3可以看出,DWT方法在MIQAB/FQpQw四项指标上均不理想,主要是因为离散小波变换具有平移变化性、走样和缺乏方向性等缺陷;SWT和NSCT方法在上述四项指标上均明显优于DWT方法是由于它们具有平移不变性;SRM、SRK和MDL方法在MI指标上优于三层分解水平的多尺度变换的方法,而在其他三项指标上存在一些低于多尺度变换方法的情况,这可能是由于字典的表示能力不足以提取足够的细节信息和l1范数取极大的融合规则导致的图像的灰度不连续效应;经计算,本文提出的ICDL方法的MIQAB/FQpQw四项指标在上述三组实验条件下的均值分别为4.113 3、0.713 1、0.463 6和0.762 5。与其他几种方法相比:本文提出的ICDL方法在MI指标上的值最大,表明该方法的融合图像从源图像提取的信息最丰富;同时在QAB/FQpQw三项指标上对应的值也最大,表明ICDL方法对图像误配准处理得较好,图像融合质量较高,其主客观评价一致。

为验证本文提出的字典学习方法的时间效率,分别计算不同的图像融合方法的字典学习阶段在相同条件下进行10次实验所消耗时间的平均值。SRK、MDL、CDL和ICDL方法的字典训练时间均值分别为4.61 min、42.59 min、81.27 min和5.96 min。SRK方法的字典学习中训练数据是从50幅自然图像中提取5万个8×8图像块;MDL方法的字典学习中训练数据是在小波域中分别对每个子带提取5万个8×8图像块;传统的耦合字典学习(Coupled Dictionary Learning, CDL)方法和本文提出的ICDL方法的字典学习中训练数据均是从图 2的训练集中提取5万对8×8的图像块。下面对四种字典学习方法的时间复杂度进行分析。假设训练图像的尺寸为N×N,提取N2个大小为$\sqrt n \times \sqrt n $的训练图像块。SRK方法的时间复杂度为O (N2);MDL方法的时间复杂度为O ((3S+1) N2),其中S为小波变换的分解水平;CDL方法的时间复杂度为O (N4),这是因为两个字典交替地更新影响了字典学习的效率;ICDL方法的时间复杂度为O (N2),这是由于字典更新阶段同时更新字典和稀疏表示系数的非零元素而使零元素保持完备,降低了矩阵的维数,同时使用联合学习的策略,进一步提高了字典学习的时间效率。

5 结语

针对目前基于字典学习的多模态脑部医学图像融合中,使用单字典难以得到精确的稀疏表示进而影响脑部医学图像融合的质量,以及字典训练时间过长的问题,提出了一种改进耦合字典学习的脑部CT/MR图像融合方法。该方法分别对正常脑部、脑萎缩和脑肿瘤三组脑部医学图像进行了多次实验,结果表明本文提出的ICDL方法与基于多尺度变换的方法、传统基于选择最大的稀疏表示方法、基于K-SVD的稀疏表示方法以及多尺度字典学习的方法相比,不仅提高了脑部医学图像融合的质量,而且有效降低了字典训练的时间,能为临床医疗诊断提供有效帮助。但仍存在以下需要进一步研究的问题:

1) 本文提出的融合方法在空间域中使用滑窗技术易使源图像的细节被模糊。因此,进一步研究适用于稀疏表示方法的新的图像融合规则是下一步的工作重点。

2) 本文是在已配准的脑部医学图像的基础上进行的融合研究,对未精确配准的脑部医学图像进行有针对性的图像融合的方法也需要进一步的研究。

3) 本文主要实现了脑部CT和MR医学图像的高质量融合,但如何对脑部解剖图像和功能图像如MR与正电子发射断层成像(Positron Emission Tomography, PET)、MR与单光子发射计算机断层成像(Single Photon Emission Computed Tomography, SPECT)等进行高质量融合,也将是下一步继续研究的内容。

参考文献
[1] BHAVANA V. Multi-modality medical image fusion-a survey[C]//Proceedings of the 2015 International Journal of Engineering Research and Technology. Bangalore, India:Esrsa Publication, 2015:778-781.
[2] 李超, 李光耀, 谭云兰, 等. 基于非下采样Contourlet变换和区域特征的医学图像融合[J]. 计算机应用, 2013, 33(6): 1727-1731. ( LI C, LI G Y, TAN Y L, et al. Medical image fusion of nonsubsampled contourlet transform and regional feature[J]. Journal of Computer Applications, 2013, 33(6): 1727-1731. )
[3] PAJARES G, DE LA CRUZ J M. A wavelet-based image fusion tutorial[J]. Pattern Recognition, 2004, 37(9): 1855-1872. doi: 10.1016/j.patcog.2004.03.010
[4] LI S T, KWOK J T, WANG Y N. Using the discrete wavelet frame transform to merge Landsat TM and SPOT panchromatic images[J]. Information Fusion, 2002, 3(1): 17-23. doi: 10.1016/S1566-2535(01)00037-9
[5] LEWIS J J, O'CALLAGHAN R J, NIKOLOV S G, et al. Pixel-and region-based image fusion with complex wavelets[J]. Information Fusion, 2007, 8(2): 119-130. doi: 10.1016/j.inffus.2005.09.006
[6] BURT P J, ADELSON E H. The Laplacian pyramid as a compact image code[J]. IEEE Transactions on Communications, 1983, 31(4): 532-540. doi: 10.1109/TCOM.1983.1095851
[7] ZHANG Q, GUO B L. Multifocus image fusion using the nonsubsampled contourlet transform[J]. Signal Processing, 2009, 89(7): 1334-1346. doi: 10.1016/j.sigpro.2009.01.012
[8] DONOHO D L. Compressed sensing[J]. IEEE Transactions on Information Theory, 2006, 52(4): 1289-1306. doi: 10.1109/TIT.2006.871582
[9] YANG B, LI S T. Pixel-level image fusion with simultaneous orthogonal matching pursuit[J]. Information Fusion, 2012, 13(1): 10-19. doi: 10.1016/j.inffus.2010.04.001
[10] LIU Y, WANG Z F. Simultaneous image fusion and denoising with adaptive sparse representation[J]. IET Image Processing, 2015, 9(5): 347-357. doi: 10.1049/iet-ipr.2014.0311
[11] YANG B, LI S T. Multifocus image fusion and restoration with sparse representation[J]. IEEE Transactions on Instrumentation & Measurement, 2010, 59(4): 884-892.
[12] AHARON M, ELAD M, BRUCKSTEIN A. K-SVD:an algorithm for designing overcomplete dictionaries for sparse representation[J]. IEEE Transactions on Signal Processing, 2006, 54(11): 4311-4322. doi: 10.1109/TSP.2006.881199
[13] OPHIR B, LUSTIG M, ELAD M. Multi-scale dictionary learning using wavelets[J]. IEEE Journal of Selected Topics in Signal Processing, 2011, 5(5): 1014-1024. doi: 10.1109/JSTSP.2011.2155032
[14] YU N N, QIU T S, BI F, et al. Image features extraction and fusion based on joint sparse representation[J]. IEEE Journal of Selected Topics in Signal Processing, 2011, 5(5): 1074-1082. doi: 10.1109/JSTSP.2011.2112332
[15] 赵井坤, 周颖玥, 林茂松. 基于稀疏表示与非局部相似的图像去噪算法[J]. 计算机应用, 2016, 36(2): 551-555. ( ZHAO J K, ZHOU Y Y, LIN M S. Image denoising algorithm based on sparse representation and nonlocal similarity[J]. Journal of Computer Applications, 2016, 36(2): 551-555. doi: 10.11772/j.issn.1001-9081.2016.02.0551 )
[16] ENGAN K, AASE S O, HAKON H J. Method of optimal directions for frame design[C]//Proceedings of the 1999 IEEE International Conference on Acoustics, Speech, and Signal Processing. Piscataway, NJ:IEEE, 1999:2443-2446.
[17] JOHNSON K A, BECKER J A. The whole brain atlas[EB/OL].[2016-10-09]. http://www.med.harvard.edu/aanlib/home.html.
[18] YANG J C, WRIGHT J, HUANG T S, et al. Image super-resolution via sparse representation[J]. IEEE Transactions on Image Processing, 2010, 19(11): 2861-2873. doi: 10.1109/TIP.2010.2050625
[19] YANG J C, WANG Z, LIN Z, et al. Coupled dictionary training for image super-resolution[J]. IEEE Transactions on Image Processing, 2012, 21(8): 3467-3478. doi: 10.1109/TIP.2012.2192127
[20] SMITH L N, ELAD M. Improving dictionary learning:multiple dictionary updates and coefficient reuse[J]. IEEE Signal Processing Letters, 2013, 20(1): 79-82. doi: 10.1109/LSP.2012.2229976
[21] 练秋生, 石保顺, 陈书贞. 字典学习模型、算法及其应用研究进展[J]. 自动化学报, 2015, 41(2): 240-260. ( LIAN Q S, SHI B S, CHEN S Z. Research advances on dictionary learning models, algorithms and applications[J]. Acta Automatica Sinica, 2015, 41(2): 240-260. )
[22] CVEJIC N, CANAGARAJAH C N, BULL D R. Image fusion metric based on mutual information and Tsallis entropy[J]. Electronics Letters, 2006, 42(11): 626-627. doi: 10.1049/el:20060693
[23] QU G H, ZHANG D L, YAN P F. Information measure for performance of image fusion[J]. Electronics Letters, 2002, 38(7): 313-315. doi: 10.1049/el:20020212
[24] XYDEAS C S, PETROVIC V. Objective image fusion performance measure[J]. Military Technical Courier, 2000, 36(4): 308-309.
[25] ZHAO J Y, LAGANIERE R, LIU Z. Performance assessment of combinative pixel-level image fusion based on an absolute feature measurement[J]. International Journal of Innovative Computing Information & Control Ijicic, 2006, 3(6): 1433-1447.
[26] PIELLA G, HEIJMANS H. A new quality metric for image fusion[C]//ICIP 2003:Proceedings of the 2003 International Conference on Image Processing. Washington, DC:IEEE Computer Society, 2003:173-176.