石油物探  2020, Vol. 59 Issue (1): 51-59  DOI: 10.3969/j.issn.1000-1441.2020.01.006
0
文章快速检索     高级检索

引用本文 

罗仁泽, 李阳阳. 一种基于RUnet卷积神经网络的地震资料随机噪声压制方法[J]. 石油物探, 2020, 59(1): 51-59. DOI: 10.3969/j.issn.1000-1441.2020.01.006.
LUO Renze, LI Yangyang. Random seismic noise attenuation based on RUnet convolutional neural network[J]. Geophysical Prospecting for Petroleum, 2020, 59(1): 51-59. DOI: 10.3969/j.issn.1000-1441.2020.01.006.

基金项目

国家重点研发计划深地专项项目(2016YFC0601100)和四川省科技计划项目(2019CXRC0027)共同资助

作者简介

罗仁泽(1973—), 男, 博士, 教授, 研究方向为地震信号处理、人工智能等。Email:lrzsmith@126.com

文章历史

收稿日期:2019-05-06
改回日期:2019-07-30
一种基于RUnet卷积神经网络的地震资料随机噪声压制方法
罗仁泽 , 李阳阳     
西南石油大学油气藏地质及开发工程国家重点实验室, 西南石油大学地球科学与技术学院, 四川成都 610500
摘要:应用深度学习方法压制地震噪声的训练集和测试集均来自同一数据集, 使得模型的泛化性受限。为解决泛化性问题, 提出一种基于卷积神经网络(CNN)的残差U型网络(RUnet)压制随机噪声的方法。方法的设计思想是在基于卷积神经网络的U型网络(Unet)基础上加入残差块, 以增强网络对随机噪声的捕获能力。该方法建立在端到端的编码-解码网络结构上, 将含噪声地震数据作为输入, 由多个卷积层和残差块提取随机噪声的本质特征, 构成编码; 再由多个反卷积层和残差块构成解码, 网络的输出即为噪声压制后的地震数据。在残差块之后加入批规范化层, 采用带泄露整流函数作为非线性因子, 提高网络模型对地震资料随机噪声的泛化性和敏感性。在叠后和叠前地震数据实验中将RUnet卷积神经网络方法与小波变换、离散余弦变换、三维块匹配(BM3D)算法和Unet卷积神经网络算法进行去噪效果对比, 结果表明, RUnet卷积神经网络方法相比其它4种方法, 对随机噪声的压制更有效, 并且在一定程度上保护了有效信号。
关键词泛化性    RUnet卷积神经网络    Unet卷积神经网络    编码-解码    随机噪声压制    残差块    
Random seismic noise attenuation based on RUnet convolutional neural network
LUO Renze, LI Yangyang     
State Key Laboratory of Oil and Gas Reservoir Geology and Exploitation, School of Earth Sciences and Technology, Southwest Petroleum University, Chengdu 610500, China
Foundation item: This research is financially supported by the National Key Research and Development Program (Grant No.2016YFC0601100) and the Sichuan Provincial Science and Technology Project(Grant No.2019CXRC0027)
Abstract: The training and test sets used for deep learning methods to suppress seismic noise originate from the same data set, which leads to limited model generalization.This study proposes a random noise suppression method using the RUnet convolutional neural network.The design idea of the method is to add a residual block on the basis of the Unet convolutional neural network to enhance the networks ability to capture random noise.First, based on the code-decode network structure, this method used seismic data containing noise as the input, and extracted the essential features of random noise using multiple convolutional layers and residual blocks to form the coding process.Then, multiple deconvolution layers and residual blocks were used to build the decoding process; the output of the network was noise-suppressed seismic data.A batch normalization layer was added after the residual block and the leakage rectification function was used as the nonlinear factor to improve the generalization and sensitivity of the network model to seismic random noise.Testing using post-and pre-stack data showed that compared with the wavelet transform, discrete cosine transform, BM3D algorithm, and Unet convolutional neural network, the RUnet convolutional neural network was more effective in suppressing random noise and preserving signal.
Keywords: generalization    RUnet convolutional neural network    Unet convolutional neural network    code-decode    random noise suppression    residual block    

地震数据采集过程中, 采集环境导致地震资料通常含有很多随机噪声。而随机噪声的存在对地震资料的后续处理和解释工作会带来不利影响。针对此问题, 研究者们提出了诸多压制随机噪声的方法。常见的方法有:f-k域滤波、f-x域去噪、小波变换、曲波变换和离散余弦变换等。何潮观[1]设计并应用f-k滤波器对地震记录进行二维滤波, 为加强其二维滤波效果, 设计了f-k陷波器; 康冶等[2]提出了一种将地震数据拟线性化变换后进行f-x域预测去噪的方法; 夏洪瑞等[3]研究了小波变换在地震资料去噪中的应用问题; 闫兴等[4]提出将最优估计理论与第2代小波变换相结合的方法, 改善了地震资料处理的效果; 刘鑫等[5]提出在多层小波变换中引入双变量概率分布模型的复数小波变换局域自适应收缩去噪算法; 彭才等[6]提出基于曲波变换的地震数据去噪方法, 并验证了曲波变换压制随机噪声的可行性; 陆文凯[7]提出基于离散余弦变换的地震随机噪声压制方法, 与f-k域预测滤波相比, 离散余弦变换不仅效果好, 而且能够更好地保护有效波。除上述方法外, 关于地震资料随机噪声压制问题, ZHU等[8-9]提出基于字典学习的自适应基变换算法; 汪金菊等[10]提出双树复小波域双变量方法对地震信号中的随机噪声进行压制; ZHOU等[11]提出基于图像分割的思想压制地震随机噪声的方法。这些方法在压制地震资料噪声时, 都取得了很好的效果, 但仍存在去噪能力不足、不能有效保护有效信号等问题。

深度学习作为机器学习领域的一个分支, 近年来成为计算机领域的研究热点。鉴于深度学习在图像识别、语义分割、语音识别等领域的优异表现, 地球物理领域的研究者们也将该技术引入到地震资料的处理和解释工作中。MAURICIO等[12]提出直接由单炮记录利用深度学习反演断层的方法, 跳过了常规地震资料处理解释的步骤; XIONG等[13]提出用卷积神经网络(CNN)识别三维地震数据中的断层区域, 并在合成数据和实际地震数据中验证了该方法的可行性; WU等[14]利用卷积神经网络将合成断层数据作为训练集, 推广到真实数据中进行测试, 取得了不错的效果。在地震资料去噪研究中, SI等[15]利用去噪卷积神经网络(DnCNN)压制合成地震数据中的随机噪声; 韩卫雪等[16]提出基于深度学习卷积神经网络的地震资料随机噪声去除方法, 取得了很好的效果; 王钰清等[17]提出基于数据增广和基于卷积神经网络的U型网络(Unet)压制地震资料中随机噪声的方法, 为解决深度学习中的数据标签问题提供了一种思路。但对于深度学习而言, 模型的泛化性是一项非常重要的指标, 训练集和测试集均来自同一块数据体, 虽然测试效果很好, 但模型的泛化性受限。

本文借鉴上述研究成果, 提出一种基于卷积神经网络(CNN)的残差U型网络(RUnet)压制随机噪声的方法。基本思想是在Unet卷积神经网络的基本结构上加入残差块, 增加对卷积层所提取的随机噪声特征的再次学习, 进而增强网络对随机噪声的捕获能力。以含噪地震数据作为输入, 预处理后的地震数据作为输出, 即数据标签。然后对网络进行训练, 计算损失函数, 并对其进行最优化处理。训练完成后, 将测试数据输入到网络模型中进行测试, 输出即为去噪之后的结果。最后通过实验, 验证了本文算法的可行性, 并与其它算法进行对比, 验证了本文算法的去噪性能。

1 方法原理

含随机噪声的地震数据可以表示为:

$ y=x+n $ (1)

式中:y表示含随机噪声的地震数据; x表示地震数据中的有效信号; n表示地震数据中所含随机噪声。去噪算法的目标是尽可能精确地从含噪数据中恢复出有效信号[17]。深度学习地震数据去除噪声的过程就是通过对样本的学习, 试图建立起含噪信号和有效信号之间的映射关系, 然后通过建立起来的映射关系, 将含噪信号作为输入, 输出有效信号, 完成对随机噪声的压制工作。

1.1 RUnet卷积神经网络结构

Unet卷积神经网络是一种被广泛应用于图像分割的端到端的学习网络, 能够融合不同尺度的特征, 达到更好的学习效果。本文在Unet卷积神经网络的基本结构上, 结合残差网络(ResNet)[18-19]的残差块, 构建一种比Unet卷积神经网络更深层的网络。CNN能够提取低级特征、中级特征和高级特征, 随着层数的增加, 能够提取到不同层级的特征, 并且越深的网络提取的特征更为抽象, 越具有物理意义。但简单地增加深度, 会导致梯度弥散或梯度爆炸。基于此, 本文提出将Unet卷积神经网络和ResNet网络的特点相结合的RUnet卷积神经网络, 其结构如图 1所示。

图 1 RUnet卷积神经网络结构

RUnet卷积神经网络在整体上包括一个编码过程和一个解码过程。编码过程由5组残差块构成, 每组残差块由5个卷积层和1个池化层构成, 将[256×256]维的输入数据编码为[16×16]维特征信息, 卷积核大小设置为3×3, 步长设置为1。每经过一次残差块操作, 特征图的大小压缩为上一次操作的1/2, 相应的特征图的通道数是上一次残差块操作的2倍, 保证特征信息不丢失。特征解码过程由4组残差块组成, 每个残差块由1个反卷积层和5个卷积层组成, 将由编码过程生成的[16×16]维特征信息, 上采样到[256×256]维的输出数据。与编码过程相对称, 每经过一次残差操作, 特征图的上采样大小为上一次残差操作的2倍, 特征图的通道数变为上一次残差操作的1/2。与Unet卷积神经网络类似, 将编码部分对应位置的特征图加入到解码部分的特征图中, 融合不同尺度的特征信息。最后的输出由一个卷积核大小为1×1、步长为1的卷积层和激活函数tanh完成, 该层的作用类似于全连接层。

1.2 损失函数优化和评价指标

神经网络的训练过程实质上是损失函数最小化的过程。本文算法将均方误差函数作为损失函数, 其数学定义为:

$ {L_{{\rm{loss}}}} = \frac{1}{{2M}}\sum\limits_{i = 1}^M {{{\left\| {{y_i} - {{\hat y}_i}} \right\|}^2}} $ (2)

式中:Lloss为实际输出值与期望输出值之间的损失; M为训练样本的数量; yi为神经网络实际输出值; $ \hat{y}_{i}$为期望输出值。一般在深度学习网络中, 采用交叉熵作为损失函数, 该函数适合解决分类问题, 而地震资料去噪属于拟合问题, 采用均方误差函数效果更好。当样本容量很小时, 为了防止过拟合现象, 损失函数需要加入正则化项。由于本文训练使用的样本容量较大, 况且RUnet卷积神经网络中加入了批规范化层, 且采用交叉验证的方式进行训练等防止过拟合的训练技巧, 故未在损失函数后加入正则化项。

损失函数的优化采用自适应矩估计(Adam)算法, 该算法是随机梯度下降算法的扩展, 与随机梯度下降算法不同的是, 随机梯度下降算法保持单一的学习率更新所有参数, 并且训练过程中学习率保持不变; 而Adam算法通过计算梯度的一阶矩估计和二阶矩估计为不同的参数设计独立的自适应学习率, 适合解决大规模数据和参数的优化问题, 超参数可以直观地解释, 并且基本上只需极少量的调参。

本文采用信噪比和峰值信噪比来评价算法的去噪性能。其数学定义如下:

$ \begin{aligned} S_{\mathrm{SNR}} &=20 \lg \frac{y^{2}}{\left(y-y_{\mathrm{n}}\right)^{2}} \\ \end{aligned} $ (3)
$ P_{\mathrm{SNR}} =20 \lg \frac{\max (y)^{2}}{\left(y-y_{\mathrm{n}}\right)^{2} / N} $ (4)

式中:SSNR为信噪比; PSNR为峰值信噪比; y为不含噪声的地震数据; yn为含随机噪声的地震数据; N为地震数据的采样点。

1.3 RUnet的其它特点

1) 在残差块之后, 增加批规范化层。批规范化是深度学习中的一种训练技巧, 是指在采用梯度下降法训练深度神经网络(DNN)时, 对网络层中每个批处理(batch)的数据进行标准化处理, 使其均值变为0, 方差变为1, 其主要作用是缓解DNN训练中的梯度消失或爆炸的现象, 加快模型的训练速度, 有利于提高模型对断层特征的敏感性。数学定义为:

$ {z_i} = \frac{{\gamma \left( {{x_i} - \frac{1}{m}\sum\limits_{i = 1}^m {{x_i}} } \right) + \beta }}{{\sqrt {\frac{1}{m}\sum\limits_{i = 1}^m {{{\left( {{x_i} - \frac{1}{m}\sum\limits_{i = 1}^m {{x_i}} } \right)}^2}} + \varepsilon } }} $ (5)

式中:zi为规范化后的数据; xi为上一层输入的数据; γ, β为重构参数; m为batch的大小; ε为保持数值稳定而添加到batch方差的常数。

2) 原始Unet卷积网络中采用线性整流(ReLU)激活函数, 本文将带泄露整流函数(Leaky ReLU)作为激活函数, 数学定义为:

$ f_{i}=\left\{\begin{array}{ll} {c_{i}} & {c_{i}>0} \\ {\alpha c_{i}} & {c_{i} \leqslant 0} \end{array}\right. $ (6)

式中:fi为激活函数的输出; ci为激活函数的输入; α为泄露系数, 0<α<1。

与ReLU激活函数相比, Leaky ReLU激活函数对于小于0的值具有一定的容忍性, 并不会将负值设置为0, 使得负轴的信息不会全部丢失, 如图 2所示。

图 2 激活函数 a ReLU激活函数; b Leaky ReLU激活函数
2 模型训练及测试

本文从Parihaka三维叠后地震数据中提取子集作为网络训练的训练集。训练集的制作过程如下:在时间维度选取256个采样点, 同时在Crossline测线上选取256道数据, 构成一个二维数据样本, 然后在Inline测线上选取900道数据, 构成900组训练样本数据。设置迭代次数(epochs)为1 000次, 批大小(batch size)为16, 为了减小网络的过拟合, 采用交叉验证的训练方法, 训练集与验证集的比例设置为7:3, 学习率初始化为1×10-4。实验软件采用Keras深度学习框架, 硬件采用GEFORCE RTX2 080Ti型GPU进行加速计算, 训练时间为116分钟。根据添加高斯噪声的水平不同, 训练了3个模型, 利用训练好的模型对测试集进行测试, 测试集来自同一块地震数据。模型训练过程如图 3所示。从图 3中可以看出, 在迭代1 000次之后, 峰值信噪比和信噪比趋于收敛状态。将测试结果分别与小波变换(软阈值大小为0.524 4, 小波类型为sym5, 分解层数为2)、离散余弦变换和Unet卷积神经网络算法结果进行比较, 其中, 添加了噪声水平为25%的实验结果如图 4所示。

图 3 RUnet卷积神经网络训练过程
图 4 各种算法去噪实验结果 a 原始地震数据; b 加噪地震数据; c 小波变换去噪结果; d 离散余弦变换去噪结果; e Unet卷积神经网络算法去噪结果; f 本文算法去噪结果

图 4可见, 小波变换去噪算法在一定程度上压制了随机噪声, 但是有效信号损失明显; 离散余弦变换算法的随机噪声压制效果较小波变换更好, 但与原始地震数据相比, 仍有随机噪声残余, 局部存在一定程度的有效信号损失; Unet卷积神经网络去噪算法压制了大部分随机噪声, 但仍有残余; 本文提出的RUnet卷积神经网络算法的去噪结果与加噪前的数据更为接近, 基本上压制了随机噪声, 保护了有效信号。

表 1对比了4种算法在不同噪声水平下的去噪性能。加噪之后的地震数据经过4种算法对随机噪声进行压制, 峰值信噪比和信噪比都有一定程度的提高。其中本文提出的RUnet卷积神经网络算法提高的幅度最大, 相比于Unet卷积神经网络提高了0.8~1.0 dB; 相比于离散余弦变换算法提高了1.4~2.2 dB。

表 1 地震数据去噪性能对比
3 实际地震数据应用

本文采用RUnet卷积神经网络去噪算法分别对叠后和叠前地震数据进行随机噪声压制实验, 并与离散余弦变换、三维块匹配(BM3D)算法和Unet卷积神经网络算法进行对比。由于叠后地震数据与叠前地震数据之间的差异性, 需要分别进行训练。

3.1 叠后地震数据去噪

实验采用Kerry三维叠后地震数据中的部分数据(数据尺寸为256个采样点×256道)进行测试。首先采用LIU等[20]提出的估计噪声水平的方法估计该地震数据的噪声水平, 输入到训练好的模型中, 输出测试结果; 然后将其与离散余弦变换和Unet卷积神经网络算法进行对比, 如图 5所示。

图 5 叠后地震数据测试结果 a 原始数据; b 离散余弦变换去噪结果; c Unet卷积神经网络算法去噪结果; d 本文算法去噪结果; e 离散余弦变换去除的噪声; f Unet卷积神经网络算法去除的噪声; g 本文算法去除的噪声

对比图 5中3种算法的去噪结果可以发现, 3种算法均具有一定的去噪效果。离散余弦变换在去除随机噪声的同时, 部分有效信号遭到破坏; Unet卷积神经网络算法的去噪结果中还有随机噪声存在, 并且一定程度上破坏了有效信号; 而本文提出的RUnet卷积神经网络算法在对随机噪声进行有效压制的同时, 较其它两种算法能更好地保护有效信号。另外, 从去噪效果上看, 在与训练集来自同一块数据体的测试集中, Unet卷积神经网络与RUnet卷积神经网络差别并不大, 但是测试集来自另一块数据体的测试中, Unet卷积神经网络和RUnet卷积神经网络差别就很大。在训练条件同等的情况下, Unet卷积神经网络会出现过拟合现象, 导致泛化性比较差, 而RUnet卷积神经网络的泛化性能更强, 产生该结果的原因是RUnet卷积神经网络具有更深的网络结构, 加入了残差块, 学习到的随机噪声的特征更接近随机噪声的本质特征。

3.2 叠前地震数据去噪

采用部分Mobil海上叠前数据集作为训练集, 样本量为256组数据, 数据尺寸设置为256个采样点×256道。与叠后地震数据训练过程一致。训练完成后, 应用部分PGS海上叠前数据作为测试集, 测试数据尺寸设置为256个采样点×256道。将测试结果与BM3D算法[21]和Unet卷积神经网络算法进行对比, 如图 6所示。

图 6 叠前地震数据测试结果 a 原始含噪数据; b BM3D算法去噪结果; c Unet卷积神经网络算法去噪结果; d 本文算法去噪结果; e BM3D算法去除的噪声; f Unet卷积神经网络算法去除的噪声; g 本文算法去除的噪声

对比图 6中3种算法的去噪结果可以发现, BM3D算法和Unet卷积神经网络算法保留了地震信号的主体特征, 但在去噪的过程中, 损失了地震数据的细节部分, 而本文算法在有效去除噪声的同时, 保留了地震数据的细节。与叠后地震数据去噪实验相比, 由于叠前地震数据在形态分布上相似度较高, 而叠后地震数据往往会反映不同的地下地质结构(比如在叠后地震数据去噪实验中, 本文采用的训练数据地质结构较为平坦, 而测试数据地质结构比较杂乱), 两组实验虽然都在与训练集不同的数据集中测试, 但是叠后实验的两组数据集相似度较低, 从纵向上对比, 本文算法对叠前数据去噪的效果比叠后数据去噪效果更好。

4 结论

本文提出的RUnet卷积神经网络去噪算法能够有效压制随机噪声。通过叠前和叠后数据的两组实验可以得出以下结论:

1) 相较于小波变换去噪算法、离散余弦变换去噪算法、BM3D算法和Unet卷积神经网络去噪算法, 本文算法在保护有效信号的同时, 可以更好地去除地震资料中的随机噪声。

2) 相较于小波变换、离散余弦变换和BM3D算法, RUnet卷积神经网络去噪性能的优势得益于卷积神经网络强大的特征捕获能力; 对比Unet卷积神经网络去噪算法, RUnet卷积神经网络去噪性能的优势在于引入了残差块, 对上一层所提取的随机噪声进行二次消化学习, 尽可能地保留了一次学习可能损失的随机噪声特征。上述RUnet卷积神经网络的优势结合Unet卷积神经网络多尺度融合的特点, 使得RUnet卷积神经网络对地震资料中的随机噪声的特征学习更接近噪声的本质特征。RUnet卷积神经网络的这些特点使得其在与训练集不同的另一块地震数据中具有更好的泛化性。

在对地震资料进行去噪处理时, 往往不同类型的噪声使用不同的方法, 基于深度学习强大的特征提取能力, 下一步的研究将针对地震资料中的所有类型噪声进行一次性处理。

参考文献
[1]
何潮观. F-K数字滤波器的设计和应用[J]. 石油地球物理勘探, 1985, 20(5): 474-489.
HE C G. Design and application of F-K digital filter[J]. Oil Geophysical Prospecting, 1985, 20(5): 474-489.
[2]
康冶, 于承业, 贾卧, 等. f-x域去噪方法研究[J]. 石油地球物理勘探, 2003, 38(2): 136-138.
KANG Y, YU C Y, JIA W, et al. A study on noise-supression method in f-x domain[J]. Oil Geophysical Prospecting, 2003, 38(2): 136-138.
[3]
夏洪瑞, 朱勇, 周开明. 小波变换及其在去噪中的应用[J]. 石油地球物理勘探, 1994, 29(3): 274-285.
XIA H R, ZHU Y, ZHOU K M. Wavelet transform and its application to noise elimination[J]. Oil Geophysical Prospecting, 1994, 29(3): 274-285.
[4]
闫兴, 杜启振, 朱卫星. 改进的第2代小波变换在地震资料去噪中的应用[J]. 勘探地球物理进展, 2007, 30(6): 455-458.
YAN X, DU Q Z, ZHU W X. Improved second-generation wavelet and its application in denosing of seismic data[J]. Progress in Exploration Geophysics, 2007, 30(6): 455-458.
[5]
刘鑫, 贺振华, 黄德济. 基于小波变换的地震资料去噪处理研究[J]. 油气地球物理, 2006(4): 15-18.
LIU X, HE Z H, HUANG D J. Research on denosing processing of seismic data based on wavelet transform[J]. Petroleum Geophysics, 2006(4): 15-18.
[6]
彭才, 常智, 朱仕军. 基于曲波变换的地震数据去噪方法[J]. 石油物探, 2008, 47(5): 461-464.
PENG C, CHANG Z, ZHU S J. Noise elimination method based on curvelet transform[J]. Geophysical Prospecting for Petroleum, 2008, 47(5): 461-464.
[7]
陆文凯. 基于离散余弦变换的地震随机噪声压制技术[J]. 石油地球物理勘探, 2011, 46(2): 202-206.
LU W K. Seismic random noise suppression based on the discrete cosine transform[J]. Oil Geophysical Prospecting, 2011, 46(2): 202-206.
[8]
ZHU L, LIU E, MCCLELLAN J H. Seismic data denoising through multiscale and sparsity-promoting dictionary learning[J]. Geophysics, 2015, 80(6): D45-D57.
[9]
ZHU L, LIU E, MCCLELLAN J H. Joint seismic data denoising and interpolation with double-sparsity dictionary learning[J]. Journal of Geophysics & Engineering, 2017, 14(4): 802-810.
[10]
汪金菊, 袁力, 刘婉如, 等. 地震信号随机噪声压制的双树复小波域双变量方法[J]. 地球物理学报, 2016, 59(8): 3046-3055.
WANG J J, YUAN L, LIU W R, et al. Dual-tree complex wavelet domain bivariate method for seismic signal random noise attenuation[J]. Chinese Journal of Geophysics, 2016, 59(8): 3046-3055.
[11]
ZHOU J X, LU W, HE J, et al. A data-dependent Fourier filter based on image segmentation for random seismic noise attenuation[J]. Journal of Applied Geophysics, 2015, 114: 224-231.
[12]
MAURICIO A P, TAYLOR D, CHARLIE F. Automated fault detection without seismic processing[J]. The Leading Edge, 2017, 36(3): 208-214.
[13]
XIONG W, JI X, MA Y, et al. Seismic fault detection with convolutional neural network[J]. Geophysics, 2018, 83(5): O97-O103.
[14]
WU X M, SHI Y Z, FOMEL S, et al. Convolutional neural networks for fault interpretation in seismic images[J]. Expanded Abstracts of 88th Annual Internat SEG Mtg, 2018, 1946-1950.
[15]
SI X, YUAN Y. Random noise attenuation based on residual learning of deep convolutional neural network[J]. Expanded Abstracts of 88th Annual Internat SEG Mtg, 2018, 1986-1990.
[16]
韩卫雪, 周亚同, 池越. 基于深度学习卷积神经网络的地震数据随机噪声去除[J]. 石油物探, 2018, 57(6): 862-869.
HAN W X, ZHOU Y T, CHI Y. Deep learning convolutional neural networks for random noise attenuation in seismic data[J]. Geophysical Prospecting for Petroleum, 2018, 57(6): 862-869.
[17]
王钰清, 陆文凯, 刘金林, 等. 基于数据增广和CNN的地震随机噪声压制[J]. 地球物理学报, 2019, 62(1): 421-433.
WANG Y Q, LU W K, LIU J L, et al. Random seismic noise attenuation based on data augmentation and CNN[J]. Chinese Journal of Geophysics, 2019, 62(1): 421-433.
[18]
HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[J]. Expanded Abstracts of IEEE Conference on Computer Vision and Pattern Recognition, 2016, 770-778.
[19]
ZHANG K, ZUO W, CHEN Y, et al. Beyond a Gaussian denoiser:residual learning of deep CNN for image denoising[J]. IEEE Transactions on Image Processing, 2017, 26(7): 3142-3155.
[20]
LIU X, TANAKA M, OKUTOMI M. Practical signal-dependent noise parameter estimation from a single noisy image[J]. IEEE Transactions on Image Processing, 2014, 23(10): 4361-4371.
[21]
DABOV K, FOI A, KATKOVNIK V, et al. Image denoising by sparse 3-D transform-domain collaborative filtering[J]. IEEE Transactions on Image Processing, 2007, 16(8): 2080-2095.