石油物探  2021, Vol. 60 Issue (5): 751-762, 855  DOI: 10.3969/j.issn.1000-1441.2021.05.006
0
文章快速检索     高级检索

引用本文 

杨翠倩, 周亚同, 何昊, 等. 基于全局上下文和注意力机制深度卷积神经网络的地震数据去噪[J]. 石油物探, 2021, 60(5): 751-762, 855. DOI: 10.3969/j.issn.1000-1441.2021.05.006.
YANG Cuiqian, ZHOU Yatong, HE Hao, et al. Global context and attention-based deep convolutional neural network for seismic data denoising[J]. Geophysical Prospecting for Petroleum, 2021, 60(5): 751-762, 855. DOI: 10.3969/j.issn.1000-1441.2021.05.006.

基金项目

河北省自然科学基金项目(F2019202364)和河北省教育厅资助重点项目(ZD2020304)共同资助

第一作者简介

杨翠倩(1993—), 女, 硕士在读, 主要从事地震数据处理方面的研究工作。Email: 13102852264@163.com

通信作者

周亚同(1973—), 男, 博士, 教授, 主要从事地震数据处理、模式识别与机器学习方面的研究工作。Email: zyt@hebut.edu.cn

文章历史

收稿日期:2020-12-11
改回日期:2021-04-13
基于全局上下文和注意力机制深度卷积神经网络的地震数据去噪
杨翠倩1, 周亚同1, 何昊1, 崔焘2, 王杨1    
1. 河北工业大学电子信息工程学院, 天津 300401;
2. 中海油田服务股份有限公司物探事业部, 天津 300451
摘要:在地震数据处理中, 随机噪声压制是提高地震数据信噪比的关键。针对目前卷积神经网络大多关注局部特征以及在特征提取方面的局限性, 提出了一种结合全局上下文和注意力机制的深度卷积神经网络(global context and attention-based deep convolutional neural network, GC-ADNet), 并用残差学习压制地震数据随机噪声的方法。其中, 全局上下文模块(global context block, GCBlock)既关注局部信息, 又能提取全局上下文信息; 注意力模块(Attention Block)不仅强调关键特征, 还能高效提取隐藏在复杂背景中的噪声信息。加入残差学习和批量规范化方法加快了网络的训练和收敛速度, 使用扩张卷积扩大上下文信息并降低计算成本。将GC-ADNet应用于合成和实际地震数据处理, 并与现有的去噪方法进行了比较。实验结果表明, GC-ADNet能够更有效压制随机噪声, 并保留更多局部细节信息。
关键词地震数据    全局上下文    注意力机制    噪声压制    深度卷积神经网络    
Global context and attention-based deep convolutional neural network for seismic data denoising
YANG Cuiqian1, ZHOU Yatong1, HE Hao1, CUI Tao2, WANG Yang1    
1. School of Electronics and Information Engineering, Hebei University of Technology, Tianjin 300401, China;
2. Geophysical Division of China Oilfield Services Limited, Tianjin 300451, China
Abstract: The attenuation of random noise is a critical step for improving the signal-to-noise ratio of seismic data during seismic data processing.Existing convolutional neural networks mostly focus on local features and have limited feature extraction capability.In this work, a deep convolutional neural network is proposed that combines global context and attention-based deep convolutional neural network (GC-ADNet).Residual learning is used to suppress the random noise in seismic data.The global context block boosts the denoising performance by not only making the network focus on local information but also extracting global context information.Simultaneously, the attention module is used to highlight key information and efficiently extract the noise from in the complex background.In addition, the residual learning and batch normalization methods are included to speed up the training and convergence, and dilated convolution is used to enlarge the contextual information and reduce the computational cost.The proposed method was tested on both synthetic and actual seismic data.Compared with state-of-the-art denoising methods, the proposed method, and particularly the GC-ADNet, demonstrated superior random noise suppression and local detail retention capabilities.
Keywords: seismic data    global context    attention mechanism    noise suppression    deep convolutional neural network    

地震勘探正向深层勘探以及地面地质条件复杂区发展, 对地震数据采集质量的要求不断提高[1]。在地震勘探中, 地震数据不可避免被随机噪声干扰, 从而影响地震数据后续处理。因此, 有效消除随机噪声, 最大限度保留有效信息是地震数据处理的关键步骤之一。

根据地震数据中噪声的特点, 人们提出了多种压制噪声的方法。传统的去噪方法主要包括空间域去噪方法[2]、变换域去噪方法[3]、字典学习[4]和混合域去噪方法[5]。其中, 空间域去噪方法主要利用块之间的相似性去噪, 例如非局部均值滤波[6], 但是由于块之间的权重计算代价过大、耗时过多, 导致该方法不实用。基于变换域的去噪方法包括傅里叶变换、小波变换[7]和Shearlet变换[8]等, 其基本思想是假设地震数据在变换域是稀疏的或可压缩的, 将地震数据转换到其它域提高稀疏性。在变换域中, 地震数据可以用一组稀疏基来表示。李民等[9]在Shearlet变换域中引入非局部均值对地震数据去噪, 可以有效处理细节部分。上述方法需要估计噪声水平, 然而噪声水平通常很难准确估计, 并且可能产生不需要的伪影。基于字典学习的方法主要依赖稀疏编码和字典更新。NAZARI SIAHSAR等[10]提出了一种用于地震数据降噪的相干约束字典学习方法, 该方法不需要先验噪声, 但复杂度较高。基于混合域的去噪方法利用多域优势, 能够在克服每个域的局限性的同时提高去噪效果。LI等[11]将小波域中高阶相关叠加合并到Curvelet变换中, 用于消除地震随机噪声, 但可能丢失复杂细节信息。

考虑到传统去噪方法的不足, 有必要进一步探索新方法获得高质量的地震数据。卷积神经网络(convolutional neural network, CNN)采用独特的卷积结构, 在特征学习[12]、目标检测[13]和图像去噪[14]等领域均取得了显著的应用效果。CNN作为一种数据驱动的学习方法, 在压制复杂地震数据的随机噪声方面起着至关重要的作用, 将含噪地震数据映射到无噪声的地震数据, 从而恢复地震数据。ZHAO等[15]将改进的去噪卷积神经网络(de-noising convolutional neural network, DnCNN)用于压制沙漠低频噪声, 能够在无需人工调节参数的情况下获得无噪声的地震剖面。然而, 机械地叠加卷积层会使网络更难学习到有效特征, 可能导致过度拟合或性能饱和[16]。ZHANG等[17]利用基于块的深度卷积神经网络去噪方法, 训练多种CNN模型对数据块进行聚类和去噪, 在压制随机噪声方面具有出色性能。然而, 上述方法将所有通道一视同仁, 忽略了关键特征的重要性。由于卷积运算局部感知的特点, 导致感受野受限, 无法获得输入特征图的全局信息。CAO等[18]提出了一种基于全局上下文的建模框架, 其感受野能够覆盖整个特征图, 从而克服了卷积神经网络关注局部特征的缺点, 能够提取丰富的局部和全局信息。TIAN等[19]将注意力机制与CNN结合提出了ADNet网络, 并且利用扩张卷积增大感受野, 能够在复杂背景中提取噪声信息, 获得了很好的去噪效果。

受全局上下文模块和注意力机制的启发, 本文提出了一种基于全局上下文和注意力机制的深度卷积神经网络(global context and attention-based deep convolutional neural network, GC-ADNet)。其中, 全局上下文模块对输入特征图进行全局上下文建模, 能够获得丰富的深、浅层特征; 注意力模块有助于网络从复杂背景中提取噪声。除此之外, 还利用残差学习[20]避免梯度消失, 批量规范化[21](Batch Normalization, BN)加速网络收敛, 扩张卷积[22]增加感受野。地震数据的去噪实验结果表明, GC-ADNet在特定噪声水平和未知噪声水平两种情况下均优于其它去噪方法, 比如三维块匹配滤波(BM3D)[23]、加权核范数最小化(WNNM)[24]、去噪卷积神经网络(DnCNN)[25]、盲去噪卷积神经网络(DnCNN-B)等的去噪效果。

1 GC-ADNet去噪方法

含随机噪声的地震数据表示如下:

$y=x+n $ (1)

式中: x表示无噪声地震数据; n代表随机噪声; y代表含噪地震数据。其中, xn不相关。由于本文主要关注随机噪声的压制, 所以假设噪声n为高斯噪声, 且服从方差为σ, 均值为0的正态分布, 即nN(0, σ)。

地震数据去噪是从含噪地震数据中恢复无噪声的地震数据。使用均方误差训练网络, 即使用以下损失函数来训练网络中的参数:

$ l(\theta)=\frac{1}{2 N}\left\|f_{\text {GC-ADNet }}\left(I_{N}^{i}\right)-\left(I_{N}^{i}-I_{\mathrm{C}}^{i}\right)\right\|^{2} $ (2)

其中, θ表示训练网络的参数, N表示输入数据的数量, fGC-ADNet表示所设计的网络, $I_{\mathrm{N}}^{i} $$I_{\mathrm{C}}^{i} $ 分别代表第i层的含噪地震数据和无噪声地震数据。

1.1 GC-ADNet基本原理 1.1.1 残差学习

在深度CNN中, 一般认为, 网络越深, 性能越好。然而, 当网络深度到达一定程度后, 随着网络继续加深, 会出现梯度消失/爆炸。虽然正则初始化解决了梯度消失/爆炸的问题, 但会导致网络退化, 即随着网络层数的增加, 在训练集上的准确率趋于饱和, 甚至下降。之后, 残差学习解决了网络退化的问题, 增强了网络的适应性。在本文中, 利用残差学习将含有噪声的地震数据映射到残差数据中。为了得到无噪声地震数据x, 只需从含噪地震数据y中减去预测到的噪声n, 即

$ x=y-n $ (3)
1.1.2 批量规范化

批量规范化类似于CNN中的卷积层, 属于网络中的层间机制[26]。在网络训练过程中, 输入数据的分布可能会发生变化, 导致内部协变量偏移[27]。因此, 在各层非线性激活前加入BN层对数据规范化处理, 使每一层的输入数据具有近似相同的分布, 从而能够有效避免梯度消失, 并且加快网络训练, 提高网络的收敛速度。

首先将每批训练样本大小设置为m, 并且BN层的输出被规范化为:

$ y_{k}=\mathrm{BN}_{\gamma, \beta}\left(x_{k}\right) $ (4)

式中: xk表示输入样本; yk表示经过BN层后的结果; $\gamma=\sqrt{\operatorname{Var}[x]}, \beta=E[x]$ 分别表示样本对应的特征图中神经元的方差和均值。具体公式如下:

$ \mu_{\mathrm{B}}=\frac{1}{m} \sum\limits_{k=1}^{m} x_{k} $ (5)
$ \sigma_{\mathrm{B}}=\frac{1}{m} \sum\limits_{k=1}^{m}\left(x_{k}-\mu_{\mathrm{B}}\right)^{2} $ (6)
$ \hat{x}_{k}=\frac{x_{k}-\mu_{\mathrm{B}}}{\sqrt{\sigma_{\mathrm{B}}^{2}+\varepsilon}} $ (7)
$ y_{k}=\gamma \hat{x}_{k}+\beta=\mathrm{BN}_{\gamma, \beta}\left(x_{k}\right) $ (8)

其中, μBσB分别表示样本的期望值和方差, $ \hat{x}_{k}$ 表示对xk进行正则化。

1.1.3 扩张卷积

在CNN中, 增大感受野是获取更多上下文信息的常用方法。一般来说, 在CNN中扩大感受野的方法有两种: 增加网络深度和扩大滤波器尺寸。然而, 增加网络深度会导致网络性能下降, 而扩大滤波器尺寸会增加参数数量和计算量。但是, 扩张卷积能够在不增加计算量的同时增加感受野。若扩张因子f=2, 对于卷积核大小为3×3, 步长为1, 层数为n的扩张卷积, 其感受野大小可表示为(4n+1)×(4n+1)。而对于深度为n的普通卷积层网络, 其感受野大小为(2n+1)×(2n+1)。例如, 当f=2, n=10时, 扩张卷积神经网络的感受野大小为41×41, 相当于20层普通的CNN卷积层。基于以上原因, 一些学者在CNN中使用扩张卷积增大感受野。例如, PENG等[28]利用对称跳跃连接和扩张卷积进行去噪, 能够显著提高网络的训练效率; TIAN等[29]利用两个并行的网络和扩张卷积在增加网络宽度的同时增加感受野, 提取更多特征, 表现出了优异的去噪效果。

1.1.4 全局上下文模块

由于卷积具有局部感知的特点, 只能对局部区域进行上下文建模, 导致感受野受限。因此, 堆叠多层卷积层进行建模, 不仅计算量大, 而且难以优化。全局上下文模块(GCBlock), 可以克服卷积神经网络关注局部特征的缺点, 对整个输入特征图进行上下文建模。全局上下文模块融合了非局部均值网络(Non-Local Network)[30]、压缩和激励网络(squeeze-and-excitation networks, SENet)[31]两种方法, 其中, Non-Local Network采用自注意力机制建模, 利用其它位置的信息增强当前位置的信息, 但是计算量大; SENet对不同通道进行权值重标定, 用于强调不同通道的重要性, 但其不能充分利用全局上下文信息。所以, 融合了两种方法的GCBlock不仅可以对全局上下文建模, 提取全局信息, 而且能够降低计算量。所以, 增加GCBlock到网络中, 用于提取全局上下文信息, 从而获得更多、更丰富的浅层和深层特征。

1.1.5 注意力机制

提取合适的特征和关键的信息非常重要。然而, 背景越复杂, 提取特征越困难。注意力机制[32]使网络将注意力集中于感兴趣的区域, 有利于提取特征。目前, 注意力机制主要包括通道注意力和空间注意力。通道注意力着眼于强调不同通道对关键信息的贡献, 若每个通道的数据都增加一个权重, 该权重表示该通道与关键信息的相关度, 那么权重越大, 相关度越高。空间注意力机制用于强调特征图的关键区域, 提取重要特征。然而, 在地震数据去噪方面, 注意力机制的研究还很少。在本文中, 注意力模块包括卷积和相乘两部分, 作用在空间尺度上。将注意力模块集成到CNN中进行地震数据去噪, 建立远程依赖, 即利用当前阶段指导前一阶段学习噪声信息, 能够有效提取噪声。

1.2 GC-ADNet结构

通常, 不同的网络结构可以提取不同的特征。本文采用基于注意力的卷积神经网络为基础, 结合GCBlock形成一个新的网络, 即GC-ADNet, 其网络结构如图 1所示。该网络包含两部分: 主网络和GCBlock。

图 1 GC-ADNet网络结构

主网络包含17层, 主要包括: Conv, ReLU, BN, Tanh和Dilated Conv。第1~15层包含Dilated Conv+BN+ReLU和Conv+BN+ReLU, 其中, Dilated Conv的扩张因子为2。网络第1层的滤波器尺寸为1×3×3×64, 2~15层的输入和输出通道为64, 卷积核大小为3×3。第16层输入通道为64, 输出通道为1, 卷积核大小为3×3, 即64×3×3×1。采用级联运算将含噪地震数据与第16层的输出特征图进行融合, 以增强网络的特征表示能力。另外, Tanh可以将获得的特征转换为非线性特征的同时进行归一化。

图 1中虚线框内为注意力模块, 用来增强网络提取噪声的能力。主要包含两步: 第一步利用第17层的1×1卷积将通道数转换为1, 进行特征压缩; 第二步利用所获得结果乘以第16层的输出, 以提取更显著的噪声特征。最后利用残差学习将输入的含噪地震数据减去提取到的噪声, 得到去噪后的地震数据。并且, 在卷积过程中, 采用零填充确保输出特征图大小与输入特征图大小一致。其中, $ \otimes $ 代表乘运算, ⊕表示残差学习思想的实现, 即实践中的减法运算。

GCBlock的网络结构如图 2所示, 位于主网络第七、八层之间, 用来增强网络获得全局上下文信息的能力。首先采用1×1卷积和Softmax函数, 即滤波器尺寸为64×1×1×1, 紧接着执行相乘操作, 获得全局上下文信息。然后依次采用1×1卷积、LayerNorm、ReLU和1×1卷积进行特征转换, 经过两个卷积后滤波器尺寸分别为64×1×1×16和16×1×1×64, 其中LN表示在通道方向对输入地震数据进行归一化, 最后利用相加操作进行特征融合, 即将全局上下文特征聚合到每个位置的特征上。其中, HW分别表示特征图的高和宽, C表示特征图数目。

图 2 GCBlock网络结构
1.3 网络训练和测试

为了评估GC-ADNet的性能, 训练了若干种不同的模型, 包括已知噪声水平的模型和未知噪声水平的模型, 对不同模型的去噪效果进行比较。通过计算峰值信噪比(peak signal-to-noise ratio, PSNR)和结构相似性(structural similarity index measurement, SSIM)来评估网络的降噪能力和局部细节的保持能力。

1.3.1 已知噪声水平的地震数据

基于CNN去噪方法的性能在很大程度上依赖于训练集的多样性。为了加强GC-ADNet的泛化能力, 有必要利用尽可能丰富的训练集对网络进行训练。所以, 利用人工合成和海上地震数据构造训练集, 部分训练样本如图 3所示。训练集的地震数据共有128道, 每道128个采样点, 即大小为128×128, 共535个训练样本。由于不同窗口内的地震数据包含不同细节, 因此在训练网络时, 使用块大小为50×50、步长为10的滑动窗口来截取数据, 同时采取旋转和翻转操作进行数据增强, 在幅度归一化后生成包含88275个样本的数据集。在数据集中选取不同于训练集的14个地震数据作为测试集, 包含人工合成和海上地震数据, 测试集中的地震数据共有128道, 每道128个采样点。

图 3 训练集中部分样本
1.3.2 未知噪声水平的地震数据

对于未知噪声水平的地震数据, GC-ADNet遵循DnCNN盲去噪的训练策略, 除执行与已知噪声水平相同的步骤外, 噪声水平范围设置为σ∈[0, 55]。使用β1=0.900, β2=0.999的Adam优化器, 批大小设置为64, 对于50个epoch, 学习率从1×10-3(1~30), 1×10-4(30~40)到1×10-5(40~50)变化, 网络训练参数如表 1所示。利用Pytorch训练网络, 实验在华为云平台运行, 配置为8核64GiB CPU, 32GB的nvidia-v100 GPU。

表 1 网络训练参数
2 实验及分析 2.1 全局上下文模块在主网络中的位置

分析全局上下文模块在主网络中不同位置的去噪效果。在噪声水平为15的情况下, 考虑3个位置: 主网络的第1层之后; 第7层之后, 即网络的中间位置; 第15层之后。去噪结果如表 2所示。从表 2中可知, 当全局上下文模块位于主网络的中间位置时, 去噪效果最好, 此时网络对全局上下文建模能力最强。

表 2 不同位置上插入全局上下文模块的测试结果
2.2 消融实验

为了验证GCBlock和注意力模块在网络中的作用, 在噪声水平为15的情况下, 将GC-ADNet与不含GCBlock、不含注意力模块的网络进行比较, 测试集上的PSNR和SSIM的性能曲线如图 4所示。由图 4可知, 随着时期(epoch)的增加, 不含GCBlock的网络和不含注意力模块的网络去噪后信噪比低于GC-ADNet。表 3总结了不同模块组合对测试集去噪效果的影响。与GC-ADNet相比, 不含GCBlock网络的PSNR和SSIM分别降低了0.22dB和0.0003;同时, 不含注意力模块网络的PSNR和SSIM分别降低了0.19dB和0.0006, 表明GCBlock和注意力模块在不同程度上增强了网络的去噪性能。

图 4 不同模块对测试集去噪效果的影响 a 测试集上的PSNR性能曲线; b 测试集上的SSIM性能曲线
表 3 不同模块组合对测试集去噪效果的影响
2.3 已知噪声水平的地震数据去噪 2.3.1 不同深度学习模型收敛速度和去噪效果比较

图 5展示了GC-ADNet和DnCNN在噪声水平为15时训练过程中的收敛速度。其中, loss代表由(2)式计算所得的损失函数值。由图 5可见, GC-ADNet不仅起始值最小, 且一直低于DnCNN, 并持续下降趋于稳定。图 6a图 6b分别显示了在σ=15时不同模型在测试集上的平均PSNR和平均SSIM。由图 6可以看出, GC-ADNet的PSNR和SSIM高于DnCNN, 去噪效果更好。

图 5 GC-ADNet和DnCNN在噪声水平为15时训练过程中的收敛速度
图 6 σ=15时不同模型在测试集上的平均PSNR(a)和平均SSIM(b)
2.3.2 人工合成地震数据去噪结果

为了验证GC-ADNet的优越性, 图 7给出了测试集中的某人工合成地震数据及其采用不同方法得到的去噪结果。图 7a为无噪声的人工合成地震数据; 图 7b为向图 7a中加入噪声水平为25的高斯噪声所得地震数据, 其PSNR为20.27dB, SSIM为0.5663;图 7c图 7f分别为采用不同的去噪方法得到的结果, 其PSNR和SSIM分别为35.11dB、0.9783, 37.96dB、0.9884, 40.57dB、0.9976, 41.26dB、0.9979。观察图 7可以发现, 图 7c图 7d中地震数据不同程度地出现了模糊、边缘不清晰的现象; 图 7e图 7f中地震数据质量很高, 图 7f中地震数据的同相轴最清晰, 表明去噪后的地震数据与原始地震数据高度相似, 说明了GC-ADNet去除噪声的有效性。

图 7 某人工合成地震数据及采用不同方法得到的去噪结果 a 无噪声地震数据; b 含噪地震数据; c BM3D去噪结果; d WNNM去噪结果; e DnCNN去噪结果; f GC-ADNet去噪结果
2.3.3 海上地震数据去噪结果

为了进一步验证GC-ADNet的去噪能力和保持局部细节的能力, 针对测试集中的某海上地震数据, 图 8给出了不同方法的去噪结果。

图 8 某海上地震数据及采用不同去噪方法得到的结果 a 无噪声地震数据; b 含噪地震数据; c BM3D去噪结果; d WNNM去噪结果; e DnCNN去噪结果; f GC-ADNet去噪结果

图 8a为不含噪声的地震数据; 图 8b为对图 8a添加方差σ=50的高斯噪声所得地震数据, 其PSNR为14.08dB, SSIM为0.5500;图 8c图 8f分别显示了采用不同去噪方法得到的去噪结果, 其PSNR和SSIM分别为23.29dB、0.7642, 23.53dB、0.9104, 25.00dB、0.9547, 25.50dB、0.9598。观察图 8c图 8d可知, BM3D和WNNM去噪后的地震数据不同程度出现模糊, 同时边缘不清晰, 无法保持地震数据的纹理和细节; 从图 8e图 8f可知, 去噪后地震数据的纹理和细节都得到了较好的恢复; DnCNN去噪后的地震数据边缘部分出现了轻微的模糊, GC-ADNet去噪后的地震数据边缘清晰, 并且PSNR和SSIM值比其它方法高。通过人工观察和客观评价指标可知, GC-ADNet能够在压制随机噪声的同时, 保留更多的局部细节。

为了更清楚地观察去噪后的结果, 对图 8中红框部分采用变面积的方式显示, 如图 9所示。

图 9 图 8中红框部分的变面积显示 a 无噪声地震数据; b 含噪地震数据; c BM3D去噪结果; d WNNM去噪结果; e DnCNN去噪结果; f GC-ADNet去噪结果

图 9a表示无噪声的地震数据; 图 9b表示含噪地震数据; 图 9c图 9f分别为采用不同去噪方法得到的去噪结果。从图 9可以看出, 4种去噪方法均能较好地压制随机噪声, 然而, 图 9c图 9d中红色圆圈内的同相轴未完全恢复, 并且边缘部分恢复效果相较于无噪声的地震数据相差较大。从图 9e图 9f可以看出, 两种深度学习去噪方法均较好地恢复了地震数据, 图 9e红色圆圈内仍有少部分噪声残留, 边缘部分同样不清晰; 图 9f不仅恢复了地震数据, 并且保持了地震数据的细节和纹理, 进一步展示了GC-ADNet的优势。

为了更直观地分析去噪结果, 图 10给出了不同方法去噪后的残差剖面。在图 10a图 10b中有较多地震数据残留, 其噪声压制效果差; 图 10d中残留的地震数据较图 10c少, 这表明GC-ADNet具有更好的噪声压制能力和局部细节保持能力。

图 10 海上地震数据不同去噪方法得到的残差剖面 a BM3D; b WNNM; c DnCNN; d GC-ADNet
2.3.4 与其它去噪方法结果对比

为了进一步验证GC-ADNet去噪方法的优越性, 将BM3D, WNNM, DnCNN, GC-ADNet 4种去噪方法应用于噪声水平为5, 15, 25, 50的地震数据测试集, 得到平均PSNR和平均SSIM, 结果见表 4。从表 4可知, GC-ADNet得到的PSNR和SSIM较传统方法均有明显提高, 与DnCNN相比, GC-ADNet的去噪效果更优。

表 4 将不同去噪方法应用于噪声水平为5, 15, 25, 50的地震数据测试集得到的平均PSNR和SSIM
2.4 未知噪声水平的地震数据去噪

采用GC-ADNet和DnCNN分别对噪声进行盲去噪。图 11列出了GC-ADNet和DnCNN在训练过程中的收敛速度。从图 11可以看出, 随着epoch的增加, GC-ADNet的loss值始终低于DnCNN。在测试集上分别计算不同噪声水平下的平均PSNR和SSIM, 所得实验结果如图 12所示。

图 11 GC-ADNet和DnCNN在训练过程中的收敛速度
图 12 不同模型在不同噪声水平下的平均PSNR(a)和平均SSIM(b)

图 12可见, 随着噪声水平的增大, GC-ADNet的平均PSNR值和平均SSIM值始终高于DnCNN。表明对于盲去噪, GC-ADNet的去噪效果优于DnCNN。

2.5 野外地震数据去噪

为了验证GC-ADNet的实用性, 选取另一野外海上单炮数据进行测试, 如图 13a所示, 该数据共有128道, 每道250个采样点, 道间距为12m, 时间采样率为2ms。可以看出, 地震数据受到随机噪声的干扰, 同相轴不清晰。图 13b图 13e分别显示了对该单炮数据采用不同方法得到的去噪结果; 图 13f显示了GC-ADNet去除的随机噪声。对比图 13b图 13c图 13d图 13e可知, BM3D去噪后的地震数据仍有噪声残留; WNNM去噪后地震数据过于平滑, 部分同相轴没有被恢复; DnCNN和GC-ADNet去噪后的结果中局部同相轴保留更加完整, GC-ADNet比DnCNN去噪后的结果更加清晰, 保持了地震数据的纹理和细节, 进一步展示了GC-ADNet的有效性和实用性。

图 13 某野外海上单炮数据及采用不同去噪方法得到的结果 a 含噪地震数据; b BM3D去噪结果; c WNNM去噪结果; d DnCNN去噪结果; e GC-ADNet去噪结果; f GC-ADNet去除的随机噪声
3 结论

传统的地震数据去噪方法受频谱分布和方法调优的限制, 去噪结果中往往存在噪声残留和数据模糊等问题。本文在ADNet的基础上加入了全局上下文模块, 提出了一种压制随机噪声的深度卷积神经网络。GC-ADNet可以使网络获取更多的全局上下文信息, 提取丰富的浅层和深层特征; 同时, 注意力模块能够有效提取复杂背景中的噪声。与传统去噪方法和其它深度学习方法相比, GC-ADNet不仅能够压制噪声, 而且能够保留更多的局部细节。

通过对地震数据去噪及分析得出GC-ADNet比BM3D、WNNM和DnCNN等方法去噪效果更好, PSNR和SSIM值更高; 同时盲去噪结果也优于DnCNN。从野外地震数据去噪结果来看, GC-ADNet能够压制随机噪声, 保持地震数据细节和纹理。但本文方法在提取多尺度特征等方面存在不足, 暂时无法充分利用地震数据的自相似性。在未来的工作中, 我们将探索并改进方法以提取多尺度特征, 增强去除随机噪声的能力。

参考文献
[1]
赵殿栋. 高精度地震勘探技术发展回顾与展望[J]. 石油物探, 2009, 48(5): 425-435.
ZHAO D D. Review and prospect of high precision seismic exploration technology[J]. Geophysical Prospecting for Petroleum, 2009, 48(5): 425-435. DOI:10.3969/j.issn.1000-1441.2009.05.001
[2]
STUMPF A, LACHICHE N, MALET J P, et al. Active learning in the spatial domain for remote sensing image classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2014, 52(5): 2492-2507. DOI:10.1109/TGRS.2013.2262052
[3]
刘燕峰, 邹少峰, 居兴国. 基于Contourlet变换的K-L变换地震随机噪声自适应衰减方法[J]. 石油物探, 2017, 56(5): 676-683.
LIU Y F, ZOU S F, JV X G. Seismic random noise self-adaptive attenuation method based on K-L transform in the Contourlet-domain[J]. Geophysical Prospecting for Petroleum, 2017, 56(5): 676-683. DOI:10.3969/j.issn.1000-1441.2017.05.008
[4]
毛海波, 马俊彦, 王晓涛, 等. 基于自适应字典学习的可控震源数据谐波噪声压制方法[J]. 石油物探, 2020, 59(5): 725-735.
MAO H B, MA J Y, WANG X T, et al. Harmonic noise suppression of vibroseis data based on adaptive dictionary learning[J]. Geophysical Prospecting for Petroleum, 2020, 59(5): 725-735. DOI:10.3969/j.issn.1000-1441.2020.05.006
[5]
SHAN H, MA J, YANG H. Comparisons of wavelets, contourlets and curvelets in seismic denoising[J]. Journal of Applied Geophysics, 2009, 69(2): 103-115. DOI:10.1016/j.jappgeo.2009.08.002
[6]
BUADES A, COLL B, MOREL J M. Nonlocal image and movie denoising[J]. International Journal of Computer Vision, 2007, 76(2): 123-139.
[7]
YU Z, ABMA R, ETGEN J, et al. Attenuation of noise and simultaneous source interference using wavelet denoising[J]. Geophysics, 2017, 82(3): V179-V190. DOI:10.1190/geo2016-0240.1
[8]
TANG N, ZHAO X, LI Y, et al. Adaptive threshold shearlet transform for surface microseismic data denoising[J]. Journal of Applied Geophysics, 2018, 153: 64-74. DOI:10.1016/j.jappgeo.2018.03.019
[9]
李民, 周亚同, 李梦瑶, 等. Shearlet域基于非局部均值的地震信号去噪[J]. 重庆大学学报, 2020, 43(1): 1-16.
LI M, ZHOU Y T, LI M Y, et al. Denoising of seismic signals based on non-local mean in Shearlet domain[J]. Journal of Chongqing University, 2020, 43(1): 1-16.
[10]
NAZARI SIAHSAR M A, GHOLTASHI S, ABOLGHASEMI V, et al. Simultaneous denoising and interpolation of 2D seismic data using data-driven non-negative dictionary learning[J]. Signal Processing, 2017, 141: 309-321. DOI:10.1016/j.sigpro.2017.06.017
[11]
LI J, ZHANG Y, QI R, et al. Wavelet-based higher order correlative stacking for seismic data denoising in the curvelet domain[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2017, 10(8): 3810-3820. DOI:10.1109/JSTARS.2017.2685628
[12]
ZHANG M, LIU Y, BAI M, et al. Seismic noise attenuation using unsupervised sparse feature learning[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(12): 9709-9723. DOI:10.1109/TGRS.2019.2928715
[13]
ULLAH A, AHMAD J, MUHAMMAD K, et al. Action recognition in video sequences using deep Bi-directional LSTM with CNN features[J]. IEEE Access, 2018, 6: 1155-1166. DOI:10.1109/ACCESS.2017.2778011
[14]
NODA K, YAMAGUCHI Y, NAKADAI K, et al. Audiovisual speech recognition using deep learning[J]. Applied Intelligence, 2015, 42(4): 722-737. DOI:10.1007/s10489-014-0629-7
[15]
ZHAO Y, LI Y, DONG X, et al. Low-frequency noise suppression method based on improved DnCNN in desert seismic data[J]. IEEE Geoscience and Remote Sensing Letters, 2019, 16(5): 811-815. DOI:10.1109/LGRS.2018.2882058
[16]
LEE H, CHO S. Locally adaptive channel attention-based network for denoising images[J]. IEEE Access, 2020, 8: 34686-34695. DOI:10.1109/ACCESS.2020.2974001
[17]
ZHANG Y, LIN H, LI Y, et al. A patch based denoising method using deep convolutional neural network for seismic image[J]. IEEE Access, 2019, 7: 156883-156894. DOI:10.1109/ACCESS.2019.2949774
[18]
CAO Y, XU J, LIN S, et al. GCNet: Non-local networks meet squeeze-excitation networks and beyond[J]. Expanded Abstracts of IEEE/CVF International Conference on Computer Vision Workshop (ICCVW), 2019, 1971-1980.
[19]
TIAN C, XU Y, LI Z, et al. Attention-guided CNN for image denoising[J]. Neural Networks, 2020, 124: 117-129. DOI:10.1016/j.neunet.2019.12.024
[20]
MA H, YAO H, LI Y, et al. Deep residual encoder-decoder networks for desert seismic noise suppression[J]. IEEE Geoscience and Remote Sensing Letters, 2020, 17(3): 529-533. DOI:10.1109/LGRS.2019.2925062
[21]
IOFFE S, SZEGEDY C. Batch normalization: Accelerating deep network training by reducing internal covariate shift[J]. Expanded Abstracts of International Conference on Machine Learning, 2015, 448-456.
[22]
CHEN G, GAO Z, ZHU P, et al. Learning a multi-scale deep residual network of dilated-convolution for image denoising[J]. Expanded Abstracts of IEEE 5th International Conference on Cloud Computing and Big Data Analytics(ICCCBDA), 2020, 348-353.
[23]
AMANI S, GHOLAMI A, NIESTANAK A J. Seismic random noise attenuation via 3D block matching[J]. Journal of Applied Geophysics, 2017, 136: 353-363. DOI:10.1016/j.jappgeo.2016.11.014
[24]
LI J, WANG D, JI S, et al. Seismic noise suppression using weighted nuclear norm minimization method[J]. Journal of Applied Geophysics, 2017, 146: 214-220. DOI:10.1016/j.jappgeo.2017.09.013
[25]
SI X, YUAN Y. Random noise attenuation based on residual learning of deep convolutional neural network[J]. Expanded Abstracts of 88th Annual Internat SEG Mtg, 2018, 1986-1990.
[26]
SCHIRRMEISTER R T, SPRINGENBERG J T, FIEDERER L D J, et al. Deep learning with convolutional neural networks for EEG decoding and visualization[J]. Human Brain Mapping, 2017, 38(11): 5391-5420. DOI:10.1002/hbm.23730
[27]
VICTORIA L, ALBERTO F, FRANCISCO H. On the importance of the validation technique for classification with imbalance datasets: Addressing covariate shift when data is skewed[J]. Information Sciences, 2014, 257(1): 1-13.
[28]
PENG Y, ZHANG L, LIU S, et al. Dilated residual networks with symmetric skip connection for image denoising[J]. Neurocomputing, 2018, 345(14): 67-76.
[29]
TIAN C, XU Y, ZUO W. Image denoising using deep CNN with batch renormalization[J]. Neural Networks, 2020, 121: 461-473. DOI:10.1016/j.neunet.2019.08.022
[30]
WANG X, GIRSHICK R, GUPTA A, et al. Non-local neural networks[J]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018, 7794-7803.
[31]
HU J, SHEN L, ALBANIE S, et al. Squeeze-and-excitation networks[J]. Expanded Abstracts of IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2018, 7132-7141.
[32]
ZHU Z, WU W, ZUO W, et al. End-to-end flow correlation tracking with spatial-temporal attention[J]. Expanded Abstracts of IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2018, 548-557.