广东工业大学学报  2024, Vol. 41Issue (1): 27-33.  DOI: 10.12052/gdutxb.230050.
0

引用本文 

梁宇辰, 蔡念, 欧阳文生, 谢依颖, 王平. 基于切片关联信息的慢性阻塞性肺疾病CT诊断[J]. 广东工业大学学报, 2024, 41(1): 27-33. DOI: 10.12052/gdutxb.230050.
Liang Yu-chen, Cai Nian, Ouyang Wen-sheng, Xie Yi-ying, Wang Ping. CT Diagnosis of Chronic Obstructive Pulmonary Disease Based on Slice Correlation Information[J]. JOURNAL OF GUANGDONG UNIVERSITY OF TECHNOLOGY, 2024, 41(1): 27-33. DOI: 10.12052/gdutxb.230050.

基金项目:

国家自然科学基金资助项目 (82172019);广州市科技计划项目 (202102010251)

作者简介:

梁宇辰 (1998–),男,硕士研究生,主要研究方向为深度学习、医学图像处理等。

通信作者

蔡念 (1976–),男,教授,博士生导师,主要研究方向为机器视觉、机器学习、数字信号处理等,E-mail:cainian@gdut.edu.cn

文章历史

收稿日期:2023-03-16
基于切片关联信息的慢性阻塞性肺疾病CT诊断
梁宇辰1, 蔡念1, 欧阳文生1, 谢依颖1, 王平2    
1. 广东工业大学 信息工程学院, 广东 广州 510006;
2. 广州医科大学附属第一医院 肝胆外科, 广东 广州 510120
摘要: 慢性阻塞性肺疾病(Chronic Obstructive Pulmonary Disease, COPD) 是一种常见的全球呼吸系统疾病,需要耗费医生大量的时间和精力对CT图像进行初步评估诊断。为了提高阅片效率,提出一种基于CT图像切片关联信息的深度网络,辅助诊断慢性阻塞性肺疾病。提出一种分组方式将网络分成若干个网络分支,每个网络分支能够提取局部CT图像切片内部关联信息,结合双向LSTM技术整合各网络分支信息以提取CT图像全局切片关联信息。为了进一步提升网络分支的局部特征提取能力,融入ConvNeXt提出增强的多头卷积注意力模块。对比实验结果表明,所提出的深度网络能够更好地对CT图像进行分类,辅助COPD诊断,其准确率达到92.15%,敏感度达到94.17%,特异性达到91.17%,AUC达到95.33%。
关键词: 慢性阻塞性肺疾病    深度学习    多头卷积注意力    
CT Diagnosis of Chronic Obstructive Pulmonary Disease Based on Slice Correlation Information
Liang Yu-chen1, Cai Nian1, Ouyang Wen-sheng1, Xie Yi-ying1, Wang Ping2    
1. School of Information Engineering, Guangdong University of Technology, Guangzhou 510006, China;
2. Department of Hepatobiliary Surgery, the First Affiliated Hospital of Guangzhou Medical University, Guangzhou 510120, China
Abstract: Chronic obstructive pulmonary disease (COPD) is a common respiratory disease of the world, and the doctors need a lot of time to read the abdominal CT images for COPD pre-evaluation. To improve the pre-evaluation efficiency, a deep network based on slice correlation information was proposed for COPD auxiliary diagnosis. First, by using a grouping approach, the architecture of the deep network is divided into several network branches, each of which aims to extract the local intra-slice association information of the CT images. Then, the outputs from multiple network branches are integrated via a BiLSTM to extract the global inter-slice association information between the adjacent CT slices. To further improve the ability of local feature extraction for each network branch, the enhanced multi-headed convolutional attention is designed by embedding the ConvNeXt into the existing multi-headed convolutional attention. Experimental results show that the proposed deep network achieves promising effectiveness for CT image classification on auiliarily diagnose of COPD, and the accuracy, sensitivity, specificity and AUC of the proposed network reach to approximately 92.15%, 94.17%, 91.17% and 95.33%, respectively.
Key words: chronic obstructive pulmonary disease (COPD)    deep learning    multi-head convolutional attention    

慢性阻塞性肺疾病(Chronic Obstructive Pulmonary Disease,COPD) 是一种常见的全球性呼吸疾病,已成为全球的第三大死因[1]。近些年,我国的COPD患病率也呈现不断上升趋势,且死亡率高于全球平均水平[2-3]。COPD患者通常会出现气道严重阻塞现象,进一步导致呼吸困难,甚至存在肺心病、呼吸衰竭等风险[4]。目前,主要采用CT图像评估[5-6]鉴别COPD肺部异常,这需要医生根据COPD患者的上百张CT序列图片中的病灶气泡占比情况进行主观分析,耗费医生大量精力和时间,也给医生带来视觉疲劳并影响主观评估[7]

近几年,随着深度学习尤其是卷积神经网络(Convolutional Neural Network, CNN)的高速发展,CNN已经被广泛应用于CT图像处理,以辅助肺部疾病诊断。Shah等[8]使用VGG-19对新型冠状病毒肺炎(Corona Virus Disease 2019 ,COVID-19) 进行诊断。Polat等[9]在Inceptionv3模型上使用迁移学习,从患者的单张胸部CT图像获取病灶信息识别COPD的严重程度。虽然上述方法在肺部疾病辅助诊断上取得不错的效果,但是这些方法只考虑了部分CT切片图像内的局部病变肺泡特征,没有考虑CT切片图像之间的关联信息,这将不利于肺部病灶区病变肺泡识别[10]

Xu等[11]从胸部CT序列中随机选出8张CT图像,采用AlexNet网络对每张CT图像进行特征提取,然后采用SVM进行分类实现COPD诊断。可是,该方法只对单张CT图像进行单独分析,虽然SVM对8张CT图像进行了分类,但是本质上仍未考虑这8张CT切片之间的关联信息。Ahmed 等[12]将VoxResNet拓展到3D卷积结构,通过多个残差3D卷积结构保留尽可能多的空间信息对CT序列图像进行处理来诊断COPD。Varchagall等[13]使用3D ResNet提取CT图像病灶空间特征并使用迁移学习进行肺癌诊断。Kienzle等[14]将ConvNeXt网络拓展到3维结构构成3D ConvNeXt网络对COVID-19进行诊断。这些网络都是采用3D卷积方法对CT序列图像进行处理,但是3D卷积难以提取病灶区细微肺泡特征,影响网络的分类效果。Wu等[15]从CT序列图像中提取气管树图像和9张3D肺部图像等其他模态信息作为ResNet26的网络输入,从而实现COPD辅助诊断。可是,该方法受制于气管树3D形态提取的精准性,缺乏COPD辅助诊断的便捷性。Kollias等[16]使用CNN和RNN分别获取局部病变肺泡的图像特征和全局切片间的关联信息,构建了一种MIA-COVID-19网络对COVID-19进行诊断。Humphries等[17]结合CNN与长短时记忆(Long-Short Term Memory, LSTM)对COPD进行诊断。上述两个网络可以同时学习病灶图像局部特征和切片之间全局关联信息。但是,它们直接对上百张CT切片图像进行特征关联信息提取,忽视了不同距离的CT切片图像之间的关联性是不同的。

本文提出一种基于CT切片图像关联信息的深度网络,辅助诊断COPD。将COPD患者胸部CT切片序列分为若干组作为整个网络的网络分支的输入,同时提取组内切片之间的局部关联信息和各切片内的病灶图像局部特征。为了提高各网络分支的病灶图像局部特征提取能力,融入ConvNeXt提出一种增强的多头卷积注意力模块。

1 方法 1.1 网络结构

基于切片关联信息的COPD诊断网络输入COPD患者的胸部CT图像序列,输出诊断结果。网络由多个局部切片关联信息提取分支和一个全局的切片关联信息提取阶段构成。图1展示了3个分支组成的网络结构示意图。局部切片关联信息提取分支由Conv STEM模块、En-MHCA模块、Down Sample模块和Ef-Transformer模块构成,主要提取组内CT切片之间的局部关联信息和组内CT切片病灶区的局部图像特征。将每个分支的特征信息以N切片数的维度进行二次拼接组成局部特征序列输入到全局切片关联信息提取阶段,该阶段主要由BiLSTM[18]构成,提取各分支之间的切片之间的全局关联信息。最后,级联一个多层感知器(Multi-Layer Perceptron,MLP)进行COPD诊断。

图 1 本文提出的深度网络架构 Figure 1 The framework of the proposed deep network
1.2 局部切片关联信息提取分支

肺部病变肺泡是COPD患者的典型病理特征,是COPD诊断重要依据。根据合作医生提供的先验知识[19],COPD病变肺泡通常在3至4张CT切片中就能观察到完整的病变肺泡结构;在一些切片数量较多的情况中,病变肺泡可能分布在10张左右CT切片中。因此,本文提出对COPD患者胸部CT序列图像进行合理分组,各分组可以提取组内CT切片之间的局部关联信息和组内CT切片病灶区的局部图像特征。

将COPD患者CT序列数据划分为若干组,每组内有张切片,每张CT切片图像维度为(C,W,H) ,其中C代表特征通道数,W代表图像宽度,H代表图像高度。本文中,经验选择为10,后续消融实验将验证此选择。因此,分组后的序列图像组数由患者CT序列的切片总数决定,如患者CT序列为400张CT切片,则分组数为40组。

将各组CT切片作为各局部切片关联信息提取分支的输入,其结构如图2所示。其中,Conv STEM模块用于低维特征提取,2个En-MHCA模块和2个Down Sample下采样模块用于提取高维局部病灶特征。提取到的高维特征按N切片数的维度拼接为特征序列输入到Ef-Transformer模块。图2中仅展示了3张图像的特征拼接情况。在Ef-Transformer模块中,特征序列通过自注意力[20]获取组内切片之间的局部关联信息和局部病灶图像特征。

图 2 局部切片关联信息提取分支的结构 Figure 2 The structure of the branch for local slice correlated information extraction
1.3 Conv STEM模块

Conv STEM模块的结构如图3所示,包含一组由Depth Wise卷积层和Point Wise卷积层构成的深度可分离卷积层、Batch Normal归一化层、Max Pool层和ReLU层,数学表示为

图 3 Conv STEM的结构 Figure 3 The structure of the Conv STEM
$ \mathrm{S}\mathrm{T}\mathrm{E}\mathrm{M}\left({x}_{1}\right) =\mathrm{M}\left(\mathrm{R}\left(\mathrm{B}\mathrm{N}\left(\mathrm{P}\mathrm{W}\mathrm{C}\left(\mathrm{D}\mathrm{W}\mathrm{C}\left({x}_{1}\right) \right) \right) \right) \right) $ (1)

式中:$ {x}_{1} $为输入特征,M代表Max Pool层,R代表ReLU激活函数层,BN代表Batch Normal归一化层,$ \mathrm{P}\mathrm{W}\mathrm{C} $代表Point Wise卷积层, $ \mathrm{D}\mathrm{W}\mathrm{C} $代表Depth Wise卷积层。

1.4 Down Sample模块

Down Sample模块的结构如图4所示,主要由1个Convolution层和1个Max Pool层构成,其数学表示为

图 4 下采样模块 Figure 4 Down sampling module
$ \mathrm{D}\mathrm{o}\mathrm{w}\mathrm{n}\;\mathrm{S}\mathrm{a}\mathrm{m}\mathrm{p}\mathrm{l}\mathrm{e}\left({x}_{2}\right) =\mathrm{M}\left(\mathrm{C}\mathrm{o}\mathrm{n}\mathrm{v}\left({x}_{2}\right) \right) \mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ }\mathrm{ } $ (2)

式中:$ {x}_{2} $为该模块的输入,Conv() 代表卷积层操作。

图4中,H、WC分别为特征映射图的高、宽和通道数,N为切片数。

1.5 En-MHCA模块

受ConvNeXt[21]的启发,提出了一个增强的多头卷积注意力模块(Enhanced Multi Head Convolutional Attention, En-MHCA) 。与传统的多头卷积注意力模块(Multi Head Convolutional Attention, MHCA) [22]不同的是,En-MHCA融合ConvNeXt进行特征提取和非线性拟合,去除了只有非线性拟合能力的MLP结构,因此En-MHCA本质上是一个倒置的多头卷积注意力结构。传统MHCA仅使用MHCA层进行特征学习,而且MLP结构仅有非线性拟合能力。相比之下,En-MHCA包含了2个拥有特征学习能力的残差结构(即ConvNeXt和MHCA),具有更强的特征提取能力。

图5所示,ConvNeXt由1个Depth Wise卷积层、2个Point Wise卷积层以及残差结构构成。Depth Wise卷积层是一个大小为3、步长为1且分组数和通道数一致的卷积层。Point Wise卷积层是一个大小为1、步长为1的通道转换卷积层。经过1个Depth Wise卷积层、2个Point Wise卷积层后输出的特征映射图和ConvNeXt输入特征映射图进行一次残差结构相加。

图 5 增强的多头卷积注意力模块 Figure 5 Enhanced multi-head convolutional attention module

ConvNeXt输出的特征映射图作为MHCA输入。MHCA主要由1个$ 3\times 3 $分组卷积层、1个1×1卷积层、1个Batch Normal层和1个ReLU层构成,其数学表示为

$ {R}_{1}=\mathrm{P}\mathrm{W}\mathrm{C}\left(\mathrm{P}\mathrm{W}\mathrm{C}\left(\mathrm{D}\mathrm{W}\mathrm{C}\left({x}_{3}\right) \right) \right) +{x}_{3} $ (3)
$ {R}_{2}=\mathrm{M}\mathrm{H}\mathrm{C}\mathrm{A}\left({R}_{1}\right) +{R}_{1} $ (4)

式中:$ {x}_{3} $为输入特征映射图,$ {R}_{1} $为ConvNeXt输出特征映射图,$ {R}_{2} $为MHCA输出特征映射图。

1.6 Ef-Transformer模块

为了更好地获取组内切片间的局部关联信息,在分支中采用Ef-Transformer 模块[23]提取特征。如图6所示,特征映射图经过1个Layer Norm层,再输入到E-MHSA(Efficient Multi-head Self-attention)。E-MHSA输出的特征映射图和Ef-Transformer输入的初始特征映射图通过一个残差连接进行相加得到组内切片间的关联信息$ {S}_{1} $。随后,$ {S}_{1} $经过1个Layer Norm层和1个MLP后,再与$ {S}_{1} $执行一次残差连接相加。Ef-Transformer模块的计算过程可以数学表示为

图 6 Ef-Transformer模块 Figure 6 The Ef-Transformer module
$ {S}_{1}=\mathrm{E}\mathrm{M}\mathrm{H}\mathrm{S}\mathrm{A}\left(\mathrm{L}\mathrm{N}\left({x}_{4}\right) \right) +{x}_{4} $ (5)
$ {S}_{2}=\mathrm{M}\mathrm{L}\mathrm{P}\left(\mathrm{L}\mathrm{N}\left({S}_{1}\right) \right) +{S}_{1} $ (6)

式中:$ {x}_{4} $为输入特征映射图,EMHSA代表多头自注意力模块操作,LN代表LayerNorm正则化层操作,$ {S}_{1} $为一次残差连接的输出特征,$ {S}_{2} $为第二次残差连接的输出特征。

1.7 BiLSTM模块

因为不同COPD患者的CT切片数是不一致的,所以各患者CT切片序列的分组数也有所不同。故采用BiLSTM多单元模块来提取各组之间的切片全局关联信息。BiLSTM结构如图7所示,可以数学表示为

图 7 BiLSTM模块 Figure 7 The BiLSTM module
$ {i}_{t}=\sigma \left({{W}_{i}x}_{t}+{{U}_{i}h}_{t-1}+{b}_{i}\right) $ (7)
$ {f}_{t}=\sigma \left({{W}_{f}x}_{t}+{{U}_{f}h}_{t-1}++{b}_{f}\right) $ (8)
$ {o}_{t}=\sigma \left({{W}_{o}x}_{t}+{{U}_{o}h}_{t-1}+{b}_{o}\right) $ (9)
$ {C}_{t}={C}_{t-1}\cdot {f}_{t}+\mathrm{tan}\mathrm{h}\left({W}_{C}{x}_{t}+{{U}_{C}h}_{t-1}+{b}_{C}\right)\cdot i_t $ (10)
$ {h}_{t}={o}_{t}\cdot \mathrm{tan}\mathrm{h}\left({C}_{t}\right) $ (11)
$ \stackrel{\leftrightarrow}{{h}_{t}}=\left(\stackrel{ \leftharpoonup }{{h}_{t}},\stackrel{ \rightharpoonup }{{h}_{t}}\right) $ (12)

式中:$ {i}_{t} $为输入门的输出特征,$ {f}_{t} $为遗忘门的输出特征、$ {o}_{t} $为输出门的输出特征,$ b $为各门偏置项,$ W $$ U $分别为输入序列特征$ {x}_{t} $和隐藏状态$ {h}_{t-1} $中各门的网络参数。$ {x}_{t} $$ {h}_{t} $分别为特征在切片$ t $中的输入和隐藏状态,$ {h}_{t-1} $为切片t−1的隐藏状态,$ {C}_{t} $为记忆单元状态,$\stackrel{ \rightharpoonup }{{h}_{t}}$$\stackrel{ \leftharpoonup }{{h}_{t}}$分别为LSTM的前向输出和后向输出,$ \mathrm{t}\mathrm{a}\mathrm{n}\mathrm{h} $为双曲正切函数,$\stackrel{\leftrightarrow}{{h}_{t}}$表示BiLSTM的输出,·为hadamard乘积。

1.8 损失函数

采用交叉熵损失函数优化提出的深度网络参数,数学表达为

$ {L}_{{\rm{CE}}}=-\frac{1}{M}\mathop \sum \limits_{i = 1}^M {{y}}_{i}\mathrm{l}\mathrm{n}\left({p}_{i}\right) $ (13)

式中:$ {{y}}_{i} $为COPD真实诊断标签,$ {p}_{i} $为模型根据数据诊断的结果,M表示训练集的样本数,$ i $表示当前样本序号。

2 实验 2.1 数据集及训练环境配置

本文实验数据均由广州医科大学第一附属医院提供,共收集了161例COPD患者CT序列,每例数据包含130到400之间的CT切片图像。因此,数据集总共包含43140张CT切片图像。每张切片图像的分辨率是512×512,像素平均间距为0.68 mm,切片平均厚度为1.143 mm。由于患者隐私等协议条款,本文不能公开这些影像数据。

训练集由110例共30190张CT切片构成,测试集由51例共12950张CT切片构成,数据标注均由经验丰富的医生完成。

本文实验皆在一台配置为NVIDIA RTX A6000 48 GB GPU和Inter Xeon(R) Gold 5218R 2.10GHz CPU的工作站上完成。模型训练和测试代码都是基于PyTorch 1.6(python3.8)深度学习框架编程实现,其训练初始化参数如表1所示。

表 1 模型训练初始化参数 Table 1 The initialization parameters of the model in training

评估标准有准确率(Accuracy, ACC)、灵敏度(Sensitivity, SEN)、特异性(Specificity, SPE)和受试者工作特征(Receiver Operating Characteristic, ROC)曲线下的面积值(Area Under Curve, AUC) 。其中,AUC的值由ROC曲线与坐标围成的区域面积所得。ACC、SEN、SPE的计算公式为

$ {\rm{ACC}}=\frac{2\mathrm{T}\mathrm{P}}{2\mathrm{T}\mathrm{P}+\mathrm{F}\mathrm{N}+\mathrm{F}\mathrm{P}} $ (14)
$ {\rm{SEN}}=\frac{\mathrm{T}\mathrm{P}}{\mathrm{T}\mathrm{P}+\mathrm{F}\mathrm{N}} $ (15)
$ {\rm{SPE}}=\frac{\mathrm{T}\mathrm{N}}{\mathrm{T}\mathrm{N}+\mathrm{F}\mathrm{P}} $ (16)

式中:TP表示真阳性,真实标签为COPD患者,模型预测为COPD患者;FP表示假阳性,真实标签为COPD患者,模型预测为非COPD患者;TN表示真阴性,真实标签为非COPD患者,模型预测为非COPD患者;FN表示假阴性,真实标签为非COPD患者,模型预测为COPD患者。

2.2 消融实验

(1) 不同模块对网络性能的影响。

本文通过相关模块的消融实验说明网络中相关模块对网络诊断性能的影响,Ef-Transformer缩写为Ef-Trans,数据如表2所示。

表 2 不同特征提取模块的对比 Table 2 Comparisons of different feature extraction modules

表2可以看到,当只使用Ef-Trans时,网络只获取了组内切片间的局部关联信息,而忽视了组间切片的全局关联信息,从而导致网络诊断性能最差。而当只采用BiLSTM时,网络的诊断准确率等性能要比只使用Ef-Trans有大幅度的提升,这说明组间的长程关联性对COPD诊断具有重要指导价值。当同时使用BiLSTM和Ef-Trans时,网络性能相比于只使用BiLSTM时的网络略微有所提升,这说明组间的切片全局关联信息和组内的切片局部关联信息的有机融合能提升COPD患者的CT序列分类效果。从最后一行数据来看,提出的增强多头卷积注意力模块与普通的多头卷积主力模块相比,网络的诊断准确率等性能有所提升。

(2) 不同分组切片参数对网络性能的影响。

为了探索不同的分组切片数对网络性能的影响,本文做了对比实验。如表3所示,当分组切片数为10时,网络的AUC指标表现更好。这是因为过少的分组切片数会造成网络无法获取完整的结构关联信息,而过多的分组切片数提供了冗余的切片关联信息。

表 3 不同分组切片参数的对比实验 Table 3 Comparative experiments with different grouping of slicing parameters
2.3 对比实验

为了验证提出模型的效果,将其与现有的一些基于CT图像的肺部疾病深度学习方法进行对比,这些方法分别是VGG-19 [8]、3D VoxResNet [12]、DCT-MIL [11]、MIA-COV19D [16]、3D ResNet[13]、CNN+LSTM[17]和3D ConvNeXt[14],结果如表4所示。

表 4 不同深度学习方法的对比 Table 4 Comparisons among different deep learning methods

表4可以看出,VGG-19网络在提取CT图像特征过程中,网络深度的增加导致病变肺泡特征信息丢失,且VGG-19网络也未考虑切片之间的关联信息,因此获得非常差的COPD诊断性能。

3D ResNet和3D VoxResNet都通过残差结构缓解因网络深度不断加深而丢失特征的现象,因此获得比VGG-19网络更好的COPD诊断性能。3D ConvNeXt网络使用的3D ConvNeXt模块具有很强的空间提取能力,因此获得了高达92.91%的AUC值。虽然这3种3D网络都较好地实现了COPD辅助诊断,但是它们仅使用CT图像内的局部空间特征,忽视了切片间的关联信息,因此难以获取病变肺泡的整体形貌信息,不同程度地影响网络诊断性能。MIA-COV19D和CNN+LSTM采用CNN提取切片内的局部细节信息,分别采用RNN和LSTM提取CT序列的全局关联信息,因此分别获得了87.37%和83.22%的AUC值。但是,这两种方法在提取CT序列的全局关联信息时未考虑不同距离切片之间的关联程度。DCT-MIL采用AlexNet迁移特征,并采用多实例实习策略分析随机选取的8张连续CT切片图像,并考虑了邻近切片之间的关联性,因此也获得了82.53%AUC值。但是,DCT-MIL忽视了整个CT序列的长程关联关系,导致其诊断性能仍然较低。本文所提出的深度网络结合了组间切片的全局关联信息和组内切片的局部关联信息,同时融合了切片图像病灶区的局部图像特征,因此获得了最佳的COPD辅助诊断效果,准确率达到92.15%,敏感度达到94.17%,特异性达到91.17%,AUC达到95.33%。图8为不同深度学习方法的ROC曲线图。如图8所示,本文网络的ROC曲线包裹面积最大。

图 8 ROC曲线图 Figure 8 The ROC curves
3 结论

本文提出一种基于切片关联信息的深度网络,应用于COPD辅助诊断。采用分组方式,融合ConvNeXt和MHCA提出增强的多头卷积注意力模块(En-MHCA),提取组内CT切片间的局部关联信息和CT切片病灶区的局部图像特征。采用BiLSTM提取组间CT切片的全局关联信息。实验结果表明,提出的深度网络比多个现有深度网络具有更好的诊断性能,准确率、敏感度、特异性和AUC分别达到92.15%、94.17%、91.17%和95.33%。

参考文献
[1]
MARKELIĆ I, HLAPČIĆ I, ČERI A, et al. Activation of NLRP3 inflammasome in stable chronic obstructive pulmonary disease[J]. Scientific Reports, 2022, 12(1): 7544. DOI: 10.1038/s41598-022-11164-1.
[2]
VESTBO J, HURD S S, AGUSTÍ A G, et al. Global strategy for the diagnosis, management, and prevention of chronic obstructive pulmonary disease: GOLD executive summary[J]. American Journal of Respiratory and Critical Care Medicine, 2013, 187(4): 347-365. DOI: 10.1164/rccm.201204-0596PP.
[3]
MATHERS C D, LONCAR D. Projections of global mortality and burden of disease from 2002 to 2030[J]. PLoS Medicine, 2006, 3(11): e442. DOI: 10.1371/journal.pmed.0030442.
[4]
周祖东. 慢性阻塞性肺疾病急性加重期的临床治疗分析[J]. 中外医疗, 2020, 39(36): 67-69.
ZHOU Z D. Analysis of clinical treatment in acute exacerbation of chronic obstructive pulmonary disease[J]. China & Foreign Medical Treatment, 2020, 39(36): 67-69. DOI: 10.16662/j.cnki.1674-0742.2020.36.067.
[5]
LYNCH D A, AUSTIN J H M, HOGG J C, et al. CT-definable subtypes of chronic obstructive pulmonary disease: a statement of the Fleischner society[J]. Radiology, 2015, 277(1): 192-205. DOI: 10.1148/radiol.2015141579.
[6]
GALBÁN C J, HAN M K, BOES J L, et al. Computed tomography-based biomarker provides unique signature for diagnosis of COPD phenotypes and disease progression[J]. Nature Medicine, 2012, 18(11): 1711-1715. DOI: 10.1038/nm.2971.
[7]
LYNCH D A, MOORE C M, WILSON C, et al. CT-based visual classification of emphysema: association with mortality in the COPDGene study[J]. Radiology, 2018, 288(3): 859-866. DOI: 10.1148/radiol.2018172294.
[8]
SHAH V, KENIYA R, SHRIDHARANI A, et al. Diagnosis of COVID-19 using CT scan images and deep learning techniques[J]. Emergency Radiology, 2021, 28(3): 497-505. DOI: 10.1007/s10140-020-01886-y.
[9]
POLAT Ö, ŞALK İ, DOĞAN Ö T. Determination of COPD severity from chest CT images using deep transfer learning network[J]. Multimedia Tools and Applications, 2022, 81(15): 21903-21917. DOI: 10.1007/s11042-022-12801-7.
[10]
MONDOÑEDO J R, SATO S, OGUMA T, et al. CT imaging-based low-attenuation super clusters in three dimensions and the progression of emphysema[J]. Chest, 2019, 155(1): 79-87. DOI: 10.1016/j.chest.2018.09.014.
[11]
XU C, QI S, FENG J, et al. DCT-MIL: deep CNN transferred multiple instance learning for COPD identification using CT images[J]. Physics in Medicine & Biology, 2020, 65(14): 145011.
[12]
AHMED J, VESAL S, DURLAK F, et al. COPD classification in CT images using a 3D convolutional neural network[C]// Bildverarbeitung für die Medizin 2020. Berlin: Springer, 2020: 39-45.
[13]
VARCHAGALL M, NETHRAVATHI N P, CHANDRAMMA R, et al. Using deep learning techniques to evaluate lung cancer using CT images[J]. SN Computer Science, 2023, 4(2): 173. DOI: 10.1007/s42979-022-01587-y.
[14]
KIENZLE D, LORENZ J, SCHÖN R, et al. COVID detection and severity prediction with 3D-ConvNeXt and custom pretrainings[C]//Computer Vision–ECCV. Tel Aviv: Springer, 2022: 500-516.
[15]
WU Y, DU R, FENG J, et al. Deep CNN for COPD identification by multi-view snapshot integration of 3D airway tree and lung field[J]. Biomedical Signal Processing and Control, 2023, 79: 104162. DOI: 10.1016/j.bspc.2022.104162.
[16]
KOLLIAS D, ARSENOS A, SOUKISSIAN L, et al. MIA-COV19D: COVID-19 detection through 3-D chest CT image analysis[C]// International Conference on Computer Vision. Montreal: IEEE/CVF, 2021: 537-544.
[17]
HUMPHRIES S M, NOTARY A M, CENTENO J P, et al. Deep learning enables automatic classification of emphysema pattern at CT[J]. Radiology, 2020, 294(2): 434-444. DOI: 10.1148/radiol.2019191022.
[18]
LIN H, ZHANG S, LI Q, et al. A new method for heart rate prediction based on LSTM-BiLSTM-Att[J]. Measurement, 2023, 207: 112384. DOI: 10.1016/j.measurement.2022.112384.
[19]
FRIEDMAN P J. Imaging studies in emphysema[J]. Proceedings of the American Thoracic Society, 2008, 5(4): 494-500. DOI: 10.1513/pats.200708-128ET.
[20]
DOSOVITSKIY A, BEYER L, KOLESNIKOV A, et al. An image is worth 16×16 words: Transformers for image recognition at scale [EB/OL]. arXiv: 2010.11929 (2021-01-03) [2023-03-15]. https://doi.org/10.48550/arXiv.2010.11929.
[21]
LIU Z, MAO H, WU C Y, et al. A convnet for the 2020s[C]//Conference on Computer Vision and Pattern Recognition. New Orleans: IEEE/CVF , 2022: 11976-11986.
[22]
LI J, XIA X, LI W, et al. Next-ViT: next generation vision transformer for efficient deployment in realistic industrial scenarios [EB/OL]. arXiv: 2207.05501 (2022-08-16) [2023-03-15]. https://doi.org/10.48550/arXiv.2207.05501.
[23]
WANG W, XIE E, LI X, et al. Pyramid vision transformer: a versatile backbone for dense prediction without convolutions[C]// International Conference on Computer Vision. Montreal: IEEE/CVF, 2021: 568-578.