振动信号的模态参数识别是大型结构健康监测和结构损伤探测领域振动检测技术的核心,日益成为一种有效而实用的故障诊断和安全检测方法。目前工程中常用的环境激励下模态参数识别方法[1-4]有时域法(依式时域法(Ibrahim Time Domain,ITD)、随机子空间识别(Stochastic Subspace Identification,SSI)算法、稀疏时域法(Spare Time Domain,STD)、随机减量法等)、频域法(最小二乘圆拟合法、Levy法、正交多项式拟合法等)和时频分析法。现存的一些时域方法也存在着一定的缺点,比如在实测响应信号中常常包含噪声,所识别的模态中除了系统模态外,还包含噪声模态。如何甄别和剔除噪声模态,以及合理的模型定阶等问题,一直是时域法研究中的重要课题。随着各种现代信号处理技术的不断涌现,为研究结构模态参数识别提供了新的思路[5]。如文献[6]以流行学习为理论,从提取结构的几何或固有特征出发,以系统结构的响应数据为分析对象,提出一种利用局部线性嵌入(Locally Linear Embedding,LLE)的模态识别方法。
国内外的许多研究表明,现代信号处理技术如人工神经网络能够应用到环境激励下的结构参数识别中,文献[7]提出的基于线性神经网络的自回归滑动平均模型(Auto-Regressive and Moving Average Model,ARMA)提取模态参数方法,具有很强的抗噪性,并且具有很高识别精度,但线性神经网络在确定网络输出权重时存在稳态失调误差和收敛速度相矛盾的问题;文献[8]提出BP神经网络非参数化模型代替ARMA模型的参数化模型来进行结构物理参数抽取,但BP神经网络存在学习速度慢、易陷入极值等问题;文献[9]提出的基于连续小波变换和反向传播神经网络的模态参数辨识方法,在信号的采样时间很短的时候也能够准确识别各阶模态,实用性较强,并体现出一定的抗噪能力。由于在信号幅度的突变处延拓信号的质量较差给阻尼比的估计带来一定影响。从提取模态参数消耗的时间来看,信噪比越低,训练神经网络所需要的时间越长。
卷积神经网络(Convolutional Neural Network,CNN)是人工神经网络的一种,已成为当前语音分析[10]和图像识别领域[11-12]的热点。卷积神经网络已广泛应用于特征学习中。如谢智歌等[13]提出基于卷积-自动编码机的三维形状特征学习,根据卷积神经网络与自动编码机的两者结合,结合两者的优点,具有训练速度快、表达能力强等良好性质,自动编码机是一种无监督的神经网络,但是自动编码机的神经元可以有效地可视化,在加上卷积特征映射阶段之后,神经元的可视化方法并没有那么直接。
为了解决自动编码机与卷积神经网络过程中的结构复杂的问题,本文提出无监督学习卷积神经网络的模态参数提取方法。在原有卷积神经网络的基础上,将输入改为一维振动信号的网络,通过多核卷积运算把一维的时序信号映射到合适的高维空间,有效地去分离信号模态特征、去除时间相关性;并且为了避免模态参数定阶,在训练网络过程中将反向传播的误差改为计算输出模态参数重构相加得到的复原信号与输入信号之间的误差,使构建的卷积神经网络为无监督学习的网络,并同传统的时域方法SSI和流行学习的LLE算法进行了实验对比。
1 经典卷积神经网络CNN是一种结构简单的多层感知器,是一种为图像处理而特别设计的一种人工神经网络,卷积神经网网络的结构不同于其他网络的两大突出特点:稀疏连接和权重共享。稀疏连接和共享权重带来的直接好处是减少网络各层之间的连接,降低网络复杂度,同时又降低了过拟合的风险,主要应用于特征提取和识别研究[14-15]。网络由输入层、卷积层、采样层和输出层组成。如图 1所示。
卷积神经网络权重更新执行的是导师训练学习方法,网络的学习过程包含前向传播阶段和后向传播过程,卷积神经网络的训练过程[16]如下。
1.1 前向传播阶段1) 卷积层的前向传播。
$\mathit{\boldsymbol{y}}_j^l = f({\mathit{\boldsymbol{u}}^l}) = {\rm{sigmoid}}(\sum\limits_{i \in {M_j}} {\mathit{\boldsymbol{y}}_i^{j - 1}} *{\mathit{\boldsymbol{W}}_{ij}} + \mathit{\boldsymbol{b}}_j^l)$ | (1) |
其中:l为层数,Wij为输入为第i种特征图和输出的第j种特征图连接的卷积核,bjl为偏置,Mj表示选择的输入特征图组合,激励函数sigmoid定义:sigmoid(z)=1/(1+e-z)。
2) 采样层的前向传播。
$\mathit{\boldsymbol{y}}_j^l = f({\mathit{\boldsymbol{u}}^l}) = {\rm{sigmoid}}(\mathit{\boldsymbol{\beta }}_j^l{\rm{down}}(\mathit{\boldsymbol{y}}_i^{j - 1}) + \mathit{\boldsymbol{b}}_j^l)$ | (2) |
其中:down(yjl-1)函数是将yjl-1中像素点进行求和,βjl为网络权重,bjl为偏置。
1.2 反向传播阶段通过计算前向传播阶段得到的实际输出O与理想的输出Y之间的平均误差代价函数E,通过反向传播误差进行修正权重和偏置,分为三个步骤:反向传播求残差、梯度计算和修正权重和偏置过程,修正权重和偏置的公式:
$\left\{ \begin{array}{l} \mathit{\boldsymbol{w'}} = \mathit{\boldsymbol{w}} - \frac{{\partial \mathit{\boldsymbol{E}}}}{{\partial \mathit{\boldsymbol{w}}}}\\ \mathit{\boldsymbol{b'}} = \mathit{\boldsymbol{b}} - \frac{{\partial \mathit{\boldsymbol{E}}}}{{\partial \mathit{\boldsymbol{b}}}} \end{array} \right.$ | (3) |
其中:w为现有权重,w′为修正后的权重,b为现有偏置,b′为修正后的偏置。
1) 卷积层的反向传播。卷积层的残差计算公式为:
$\mathit{\boldsymbol{\delta }}_j^l = \mathit{\boldsymbol{\beta }}_j^{l + 1}(f\prime ({\mathit{\boldsymbol{u}}^l}) \circ {\rm{up}}(\mathit{\boldsymbol{\delta }}_j^{l + 1})$ | (4) |
其中: βjl+1为采样层的网络权重,up(·)函数为上采样函数,是将第l+1层的大小扩展为和第l层大小一样。由激励函数定义可求出:
$f'({\mathit{\boldsymbol{u}}^l}) = \frac{{\partial \mathit{\boldsymbol{y}}_j^l}}{{\partial {\mathit{\boldsymbol{u}}^l}}} = \mathit{\boldsymbol{y}}_j^l(1 - \mathit{\boldsymbol{y}}_j^l)$ | (5) |
卷积层梯度计算:
$\left\{ \begin{array}{l} \frac{{\partial \mathit{\boldsymbol{E}}}}{{\partial \mathit{\boldsymbol{W}}_{ij}^l}} = \frac{{\partial \mathit{\boldsymbol{E}}}}{{\partial {\mathit{\boldsymbol{u}}^l}}}\frac{{\partial {\mathit{\boldsymbol{u}}^l}}}{{\partial \mathit{\boldsymbol{w}}_{ij}^l}} = \sum\limits_{i \in {M_j}} {\frac{{\partial \mathit{\boldsymbol{E}}}}{{\partial {\mathit{\boldsymbol{u}}^l}}}\frac{{\partial {\mathit{\boldsymbol{u}}^l}}}{{\partial \mathit{\boldsymbol{W}}_{ij}^l}}} = \sum\limits_{i \in {M_j}} {\mathit{\boldsymbol{\delta }}_j^l\mathit{\boldsymbol{y}}_i^{l - 1}} \\ \frac{{\partial \mathit{\boldsymbol{E}}}}{{\partial \mathit{\boldsymbol{b}}_j^l}} = \frac{{\partial \mathit{\boldsymbol{E}}}}{{\partial {\mathit{\boldsymbol{u}}^l}}}\frac{{\partial {\mathit{\boldsymbol{u}}^l}}}{{\partial \mathit{\boldsymbol{b}}_j^l}} = \sum\limits_v {\frac{{\partial \mathit{\boldsymbol{E}}}}{{\partial {\mathit{\boldsymbol{u}}^l}}}\frac{{\partial {\mathit{\boldsymbol{u}}^l}}}{{\partial \mathit{\boldsymbol{b}}_j^l}}} = \sum\limits_{i \in {M_j}} {\mathit{\boldsymbol{\delta }}_j^l} \end{array} \right.$ | (6) |
2) 采样层的反向传播。采样层的残差计算公式为:
$\mathit{\boldsymbol{\delta }}_j^l = f'({\mathit{\boldsymbol{u}}^l}) \circ {\rm{conv}}2(\mathit{\boldsymbol{\delta }}_j^{l + 1},{\rm{rot}}180(\mathit{\boldsymbol{W}}_{ij}^{l + 1}),{\rm{full'}})$ | (7) |
其中:Wijl+1为卷积层的网络权重。
采样层梯度计算:
$\left\{ \begin{array}{l} \frac{{\partial \mathit{\boldsymbol{E}}}}{{\partial \mathit{\boldsymbol{\beta }}_j^l}} = \frac{{\partial \mathit{\boldsymbol{E}}}}{{\partial {\mathit{\boldsymbol{u}}^l}}}\frac{{\partial {\mathit{\boldsymbol{u}}^l}}}{{\partial \mathit{\boldsymbol{\beta }}_j^l}} = \sum\limits_{i \in {M_j}} {\frac{{\partial \mathit{\boldsymbol{E}}}}{{\partial {\mathit{\boldsymbol{u}}^l}}}\frac{{\partial {\mathit{\boldsymbol{u}}^l}}}{{\partial \mathit{\boldsymbol{\beta }}_j^l}}} = \sum\limits_{i \in {M_j}} {(\mathit{\boldsymbol{\delta }}_j^l\mathit{\boldsymbol{°d}}_j^l)} \\ \frac{{\partial \mathit{\boldsymbol{E}}}}{{\partial \mathit{\boldsymbol{b}}_j^l}} = \frac{{\partial \mathit{\boldsymbol{E}}}}{{\partial {\mathit{\boldsymbol{u}}^l}}}\frac{{\partial {u^l}}}{{\partial \mathit{\boldsymbol{b}}_j^l}} = \sum\limits_{i \in {M_j}} {\frac{{\partial \mathit{\boldsymbol{E}}}}{{\partial {\mathit{\boldsymbol{u}}^l}}}\frac{{\partial {\mathit{\boldsymbol{u}}^l}}}{{\partial \mathit{\boldsymbol{b}}_j^l}}} = \sum\limits_{i \in {M_j}} {\mathit{\boldsymbol{\delta }}_j^l} \end{array} \right.$ | (8) |
其中:djl=down(yjl-1)。
3) 输出层的残差计算公式:
${\mathit{\boldsymbol{\delta }}^L} = \frac{{\partial \mathit{\boldsymbol{E}}}}{{\partial {\mathit{\boldsymbol{b}}^L}}} = \frac{{\partial \mathit{\boldsymbol{E}}}}{{\partial {\mathit{\boldsymbol{y}}^L}}}\frac{{\partial {\mathit{\boldsymbol{y}}^L}}}{{\partial {\mathit{\boldsymbol{b}}^L}}} = ({\mathit{\boldsymbol{y}}^L} - {\mathit{\boldsymbol{t}}^L})f'({\mathit{\boldsymbol{u}}^L})$ | (9) |
其中:tL为理想输出,yL为全连接得到实际输出,将输出层部的残差δL通过式(7) 传递到采样层,再将采样层的残差经过式(4) 得到卷积层的残差,依次进行反向传递。将式(6) 和(8) 代入到式(3) 中进行权重和偏置的修正。
2 无监督学习卷积神经网络的构建一般粘性阻尼系统的多模态振动信号模型表达式为:
$f\left( t \right) = \sum\limits_{k = 1}^M {{g_k}\left( t \right)} = \sum\limits_{k = 1}^M {{a_k}{{\rm{e}}^{ - {\lambda _k}t}}} {\rm{cos}}({\omega _k}t + {\varphi _k})$ | (10) |
其中:gk(t)为单模态信号,单模态信号的表达式为:gk(t)=ake-λktcos(ωkt+φk);M为模态个数。(ak,λk,ωk,φk)为第k阶模态参数,其中ak为振型系数,λk为衰减系数,ωk为主频率,φk为初始相位。
对有阻尼结果的自由衰减振动才成立,为了提取式(10) 中的各阶模态参数{(a1,λ1,ω1,φ1),(a2,λ2,ω2,φ2),…,(aM,λM,ωM,φM)},使用卷积神经网络改进算法,如图 2所示为无监督学习卷积神经网络结构。
将原输入为二维信号的网络改成输入为一维振动信号f(t),经过CNN中的卷积层C1,C3和采样层S2,S4后得到的输出为各阶模态参数。如图 3为一维信号的卷积神经网络前向传播过程。
改进后CNN网络卷积层和采样层的前向传播过程如下。
卷积层输出为:
$y_n^l = {\rm{sigmoid}}(y_n^{l - 1} + b_n^l) = {\rm{sigmoid}}({\mathit{\boldsymbol{w}}^{\rm{T}}}y_{n:n + \left| \mathit{\boldsymbol{w}} \right| - 1}^{l - 1} + b_n^l)$ | (11) |
使用均值采样,采样层输出为:
$y_n^l = {\rm{sigmoid}}(y_n^{l - 1} + b) = {\rm{sigmoid}}(\frac{1}{m}\sum\limits_{i = 1}^{\left| m \right|} {y_{n + i - 1}^{l - 1} + b} )$ | (12) |
用各阶模态参数通过单模态振动信号公式重构各阶单模态振动信号,分别为g1(t),g2(t),…,gM(t),表达式为:
${g_k}\left( t \right) = {{a'}_k}{{\rm{e}}^{ - \lambda 'kt}}{\rm{cos}}({{\omega '}_k}t + {{\varphi '}_k})$ | (13) |
其中:k=1,2,…,M。将重构的单模态振动信号gk(t)相加得到复原振动信号F(t)为:
$F\left( t \right) = \sum\limits_{k = 1}^M {{{a'}_k}{\rm{e}}_k^{ - {\lambda ^t}}} {\rm{cos}}\left( {{{\omega '}_k}t + {{\varphi '}_k}} \right)$ | (14) |
通过计算复原信号F(t)与输入振动信号f(t)之间的误差,通过BP学习算法进行反向传播误差不断调整权值。
根据现有网络卷积层的残差计算式(4) 可得到一维振动信号的神经网络的残差计算公式为:
$\delta _j^l = \frac{1}{m}\delta _j^{l + 1}f'({u^l}) = \frac{1}{m}{\delta ^{l + 1}}y_n^l(1 - y_n^l)$ | (15) |
卷积层梯度计算:
$\left\{ \begin{array}{l} \frac{{\partial E}}{{\partial w}} = \sum\limits_{i = 1}^{\left| w \right|} {{\delta ^l}y_{n + i - 1}^{l - 1}} \\ \frac{{\partial E}}{{\partial b}} = {\delta ^l} \end{array} \right.$ | (16) |
根据式(7) 可以得到一维信号的网络采样层的残差为:
$\delta _j^l = (\delta _j^{l + 1}*W_{ij}^{l + 1})f'({u^l})$ | (17) |
采样层梯度计算公式为:
$\frac{{\partial E}}{{\partial b}} = \delta _j^l$ | (18) |
输出层误差为:
${E^n} = \frac{1}{2}\sum\limits_{t \in B} {{{\left( {F\left( t \right) - f\left( t \right)} \right)}^2}} $ | (19) |
其中B为信号采样点的集合。输出层的残差公式为:
$\begin{array}{l} {\delta ^L} = \frac{{\partial E}}{{\partial {b^L}}} = \frac{{\partial E}}{{\partial F\left( t \right)}}\frac{{\partial F\left( t \right)}}{{\partial {f_k}{{\left( t \right)}^L}}}\frac{{\partial {f_k}{{\left( t \right)}^L}}}{{\partial {y^L}}}\frac{{\partial {y^L}}}{{\partial {b^L}}} = \\ \left( {F\left( t \right) - f\left( t \right)} \right)\frac{{\partial {f_k}{{\left( t \right)}^L}}}{{\partial {y^L}}}f'({u^L}) \end{array}$ | (20) |
改进的卷积神经网络提取振动信号模态参数具体流程如图 4所示。
在实验中使用Matlab作为仿真工具进行计算,实际振动信号使用多模态振动信号,因此在仿真过程中使用多模态振动信号进行训练和测试。根据式(10) 表达式,在a=-1:0.1:2,λ=0.1:-0.001:0.001,ω=1:0.1:6,φ=0:0.05:0.5中分别自由选取组合的多模态振动信号中随机选取1 250条,其中1 000条作为训练集T1,另外250条作为测试集T2。实际振动信号测量过程中的实验仪器的频率一般为50 Hz,所以仿真过程中对振动信号的采样频率选为100 Hz。
3.2 实验结果与分析假设测试集T2中的一个三模态仿真信号x0(t),其具有较低的频率成分,与大桥斜拉索频率接近,仿真信号为:
$\begin{array}{l} {x_0}\left( t \right) = 0.5{{\rm{e}}^{ - 0.012t}}{\rm{cos}}\left( {1.8t + 0.25} \right) + \\ 1.2{{\rm{e}}^{ - 0.019t}}{\rm{cos}}\left( {1.4t + 0.1} \right) - \\ 0.6{{\rm{e}}^{ - 0.025t}}{\rm{cos}}\left( {2.6t + 0.05} \right) \end{array}$ | (21) |
由理论计算得到该振动信号的固有频率分别为w1=0.287,w2=0.223,w3=0.414;阻尼比分别为ξ1=0.041 8,ξ2=0.085 2 ,ξ3=0.060 4;模态振型分别为Ω1=0.5,Ω2=1.2,Ω3=-0.6。
为了验证本文算法的模态识别效果,先使用训练集对本文提出的卷积神经网络进行训练学习,将训练集的振动信号进行采样,采样频率为100 Hz,每条信号的采样点为500,将1 000条训练集输入到卷积神经网络中去训练网络,为了提高训练速度,使用批训练的方法,每次随机取20条网络作为输入层神经元,卷积神经网络结构分别为输入层、卷积层、采样层、卷积层、采样层、输出层,式(11) 中卷积层的参数为|w|=5,式(12) 中采样层的参数设置为m=2,经过不断的训练更新权重和偏置,当训练完成后将测试集的x0(t)信号输入到训练好的卷积神经网络中,得到的实验结果如表 1。
根据表 1可以得到结论:一维振动信号的改进卷积神经网络能准确提取振动信号的模态参数,识别精度较高。在实际信号的采集和测量过程中振动信号会出现噪声的干扰,所以为了验证本文提出的算法的实际意义,在下面仿真实验中,讨论噪声强度和网络迭代次数的取值对一维卷积神经网络提取精度的影响。
3.2.1 噪声强度对频率提取的影响在测试卷积神经网络的过程中测试集由振动信号加上白噪声组成,选取迭代次数10,训练集为1 000的网络进行实验。实验结果如图 5所示,在图中可以看到信噪比(Signal-to-Noise Ratio,SNR)在0~50 dB变化,随着SNR的变化,频率平均相对误差基本上都在0.6%附近变化。根据实验结果可以得出结论:频率的平均相对误差基本不随着噪声强度的变化而变化,所以卷积神经网络的抗噪性强,提取出的模态参数准确,受噪声的影响小。
在卷积神经网络的训练过程中,实验结果会受迭代次数的影响,所以为了保证数据的准确性,选取训练集为1 000,噪声强度SNR=20的网络进行实验。实验结果如图 6所示,通过图可以看出频率误差随着迭代次数的增加而减小,在迭代次数为10次的时候频率误差达到稳定值,在迭代次数较小的情况下,频率误差幅度较大,此时数据的随机性比较大,所以在训练卷积神经网络的过程中,要综合训练速度和准确率来选择合适的迭代次数。
综合上述实验结果,可以得出结论:训练出的卷积神经网络除了保证提取模态参数的准确性,另一方面还要保证训练速度,要选择合适的迭代次数才能得到稳定的网络,这就是本文的关键。
3.2.3 与时域识别算法对比分析将通过不断训练得到的一维信号的卷积神经网络提取模态参数法与环境振动模态参数时域识别方法中的随机子空间法(SSI)与局部线性嵌入(LLE)算法进行对比。结果如图 7所示。
由图 7可以看出:SSI算法识别频率的精度随着信噪比的增加而增加,SSI算法在信噪比在16 dB时识别频率的精度跟卷积神经网络方法识别的精度差不多,SSI方法表现出来的是对噪声敏感;同时LLE算法在噪声干扰大的时候提取精度低于本文算法;而相反的是卷积神经网络法识别的频率平均相对误差一直保持稳定值,表现出很强的抗噪性,识别精度受噪声干扰小。
3.3 实例应用用本文算法对实际采集的振动信号进行模态参数提取,工程数据来自宁波斜拉索大桥,如图 8。大桥全长67 m,由102根直径0.15 m拉索构成支撑系统;用WS-ZHT2振动设备及双传感器采集振动信号,双传感器安装在拉索和梁端的铰支部位,能有效感应索-梁耦合的拉索振动。
根据振动设备及传感器采集的振动信号,取其中一条,波形图如图 9所示,可看到采集的振动信号受噪声干扰。使用本文算法和时域法中的随机子空间识别法(SSI)、局部线性嵌入算法(LLE)分别对其进行模态参数提取。使用本文算法的实验参数设为振动信号采样频率为100 Hz,训练数为1 000的训练集,网络迭代次数为10次,通过训练网络,测试集得到的实验结果与环境振动模态参数时域识别方法中的随机子空间识别法(SSI)和LLE算法进行比较。
由表 2三种方法的模态识别结果可以看出本文算法的结果要更加接近于频率理论值(大桥管理服务有限公司提供),提取的精度要高于SSI和LLE算法。SSI和LLE受噪声的影响比较大,且SSI算法和LLE算法识别模态的时候需要定阶、消噪处理,在实际信号处理过程中比较困难,由于卷积神经网络是非线性映射,对噪声不太敏感,所以提取过程稍微简单,识别精度也高于SSI和LLE算法,在斜拉索的监测过程中进一步验证了无监督学习卷积神经网络的抗噪性。
本文算法在卷积神经网络的基础上,将原用于图像处理的神经网络改为处理一维信号的结构,在输出层引入无监督思想,不需要指定教师信号,避免模态参数提取算法中的定阶难题。将该算法用于实际斜拉索大桥桥梁振动信号的模态参数提取,将其与SSI和LLE进行对比实验。实验结果表明,本文算法具有更好的抗噪性和识别精度。针对卷积神经网络的BP方向学习存在易陷入极值的问题,使用粒子群算法进行寻优,以提高识别精度,是下一步需要深入的问题。
[1] | 曹树谦, 张文德, 萧龙翔. 振动结构模态分析理论、实验与应用[M]. M天津: 天津大学出版社, 2001 : 152 -156. ( CAO S Q, ZHANG W D, XIAO L X. The Theory, Experiment and Application of Structure Vibration Modal Analysis[M]. Tianjin: Tianjin University Press, 2001 : 152 -156. ) |
[2] | 续秀忠, 华宏星, 陈兆能. 基于环境激励的模态参数辨识方法综述[J]. 振动与冲击, 2002, 21 (3) : 1-5. ( XU X Z, HUA H X, CHEN Z N. Review of modal identification method based on ambient excitation[J]. Journal of Vibration and Shock, 2002, 21 (3) : 1-5. ) |
[3] | 秦世强, 蒲黔辉, 施洲. 环境激励下大型桥梁模态参数识别的一种方法[J]. 振动与冲击, 2012, 31 (2) : 95-100. ( QIN S Q, PU Q H, SHI Z. A method of modal parameters identification using ambient vibration measurements for a large-scale bridge[J]. Journal of Vibration and Shock, 2012, 31 (2) : 95-100. ) |
[4] | 单德山, 李乔. 桥梁结构模态参数的时频域识别[J]. 桥梁建设, 2015, 31 (2) : 26-31. ( SHAN D S, LI Q. Model parameters of bridge structure in time-frequency domain[J]. Bridge Construction, 2015, 31 (2) : 26-31. ) |
[5] | 付志超, 程伟, 李晶, 等. 一种基于神经网络的模态参数识别方法[J]. 机械强度, 2010, 32 (6) : 899-904. ( FU Z C, CHENG W, LI J, et al. Model parameters identification via an ANN-based method[J]. Journal of Mechanical Strength, 2010, 32 (6) : 899-904. ) |
[6] | 白俊卿, 闫桂荣, 王成. 利用局部线性嵌入的模态识别[J]. 西安交通大学学报, 2013, 47 (1) : 85-89. ( BAI J Q, YAN G R, WANG C. Modal identification method following locally linear embedding[J]. Journal of Xi'an Jiaotong University, 2013, 47 (1) : 85-89. ) |
[7] | 孙宗光, 高赞明, 倪一清. 基于神经网络的损伤构件及损伤程度识别[J]. 工程力学, 2006, 23 (2) : 18-22. ( SUN Z G, GAO Z M, NI Y Q. Identification of damaged members and damage extent in bridge deck by neural network[J]. Engineering Mechanics, 2006, 23 (2) : 18-22. ) |
[8] | 许斌, 龚安苏, 贺佳, 等. 基于神经网络模型的结构参数提取新方法[J]. 工程力学, 2011, 28 (4) : 35-41. ( XU B, GONG A S, HE J, et al. A novel structural parameter extraction with neural network based nonparametric model[J]. Engineering Mechanics, 2011, 28 (4) : 35-41. ) |
[9] | 代煜, 张建勋. 基于小波变换和反向传播网络的模态参数辨识[J]. 振动与冲击, 2012, 31 (3) : 55-59. ( DAI Y, ZHANG J X. Identification of modal parameters based on wavelet transform and back propagation network[J]. Journal of Vibration and Shock, 2012, 31 (3) : 55-59. ) |
[10] | 张晴晴, 刘勇, 潘接林, 等. 基于卷积神经网络的连续语音识别[J]. 工程科学学报, 2015, 37 (9) : 1212-1217. ( ZHANG Q Q, LIU Y, PAN J L, et al. Continuous speech recognition by convolutional neural networks[J]. Journal of University of Science and Technology Beijing, 2015, 37 (9) : 1212-1217. ) |
[11] | DRUKI A A, SPITSYN V G. Development of sequential optimizational algorithms for object detection in images[C]//Proceedings of the 2015 International Siberian Conference on Control and Communications. Piscataway, NJ:IEEE, 2015:21-23. |
[12] | 徐姗姗, 刘应安, 徐昇. 基于卷积神经网络的木材缺陷识别[J]. 山东大学学报(工学版), 2013, 43 (2) : 23-28. ( XU S S, LIU Y A, XU S. Wood defects recognition based on the convolutional neural network[J]. Journal of Shandong University (Engineering Science), 2013, 43 (2) : 23-28. ) |
[13] | 谢智歌, 王岳青, 窦勇, 等. 基于卷积-自动编码机的三维形状特征学习[J]. 计算机辅助设计与图形学学报, 2015, 27 (11) : 2058-2064. ( XIE Z G, WANG Y Q, DOU Y, et al. 3D feature learning via convolutional auto-encoder extreme learning machine[J]. Journal of Computer-Aided Design and Computer Graphics, 2015, 27 (11) : 2058-2064. ) |
[14] | ABDEL-HAMID O, MOHAMED A, JIANG H, et al. Convolutional neural networks for speech recognition[J]. IEEE Transactions on Audio, Speech and Language Processing, 2014, 22 (1) : 1533-1545. |
[15] | SWIETOJANSKI P, GHOSHAL A, RENALS S. Convolutional neural networks for distant speech recognition[J]. IEEE Signal Processing Letters, 2014, 21 (9) : 1120-1124. doi: 10.1109/LSP.2014.2325781 |
[16] | BOUVRIE J. Notes on convolutional neural networks[EB/OL].[2016-01-25]. https://core.ac.uk/download/pdf/86960.pdf. |