2. 广东工业大学 自动化学院,广东 广州 510006
2. School of Automation, Guangdong University of Technology, Guangzhou 510006, China
从太空卫星到社交媒体聊天,从信用卡交易业务到医疗保健记录,都得益于先进的传感技术、强大的计算平台和广泛的在线连接技术,日益增加的数据量极大地改变了现代处理和分析数据的计算和统计方法。与此同时,基于人工智能和机器学习的数据分析开始在推进科学发现和工程设计方面发挥出重要作用。过去,科学的进步是先提出假设,然后收集数据来证实或否定这些假设。然而,在大数据时代,虽然数据被收集了起来,却对其内部运作一无所知,导致形成了所谓的黑箱解决方案。这种观点根本不正确:海量数据可以使得在没有科学理解的情况下建立可操作的模型成为可能。理想情况下,将挖掘的模式信息和内在关系转化为可解释的理论和假设,从而推动科学认知的进步,这才是最重要的。因此,即使黑盒模型在特定的空间、时间和频谱情景下实现了某种程度的精确性能,但仍缺乏对底层演变过程作用机理的理解能力,也就不能可靠地成为后续科学和工程发展的基础。这一点尤其适用于当今地球物理流体动力学或热动力学领域。地球物理流体动力学,广义上说,指的是在地球和其他行星上自然发生的流动(例如熔岩流、海洋和行星大气流)的流体动力学。
在工程设计、控制和建模中,存在着各种各样的任务都需要求解基于偏微分方程(Partial Differential Equation, PDE)的多集合前向模型。例如,在顺序数据同化中,前向模型的多个集合被用来逼近协方差矩阵[1]。随着所需精度要求的提高,时空数值模拟离散化的粒度也需要适当提升。这将导致计算工作量的显著增加,并可能成为设计和预测周期的外部循环中的瓶颈。例如,在计算流体力学(Computational Fluid Dynamics, CFD)中,湍流的三维模拟[2]常被用于获得Navier-Stokes方程的精确解,但在形状优化等相关任务中却使用得较少[3]。因此,建立一个计算代价比全阶模型(Full Order Models, FOM)更低的降阶模型(Reduced Order Model, ROM),并提供足够精度水平的解决方案的研究得到了很多人的关注[4-6]。
近年来,人们对开发用于物理系统的非侵入式ROM的研究兴趣与日俱增[7-9]。“非侵入式”指的是只通过数据来构造降阶模型。非侵入式降阶模型特别适用于理想模型未知,但存在大量数据可用于模型恢复的系统。这种情况在地球物理流体中非常普遍。由于网格分辨率不足而导致的子网格尺度的近似、模型参数的不确定性或模型本身结构不正确等原因,使得地球物理系统模型可能是不完善的[10]。然而,从遥感、卫星观测和地球物理流体实验测量中已经获得了大量的实测数据。因此,为了有效地预测地球物理过程,利用这些数据已经开展了多项研究[11-12]。
在本研究中,主要使用线性降维技术并配合机器学习算法来演化隐空间[13-14]。具体来说,就是利用本征正交分解(Proper Orthogonal Decomposition, POD)来识别全阶模型的隐空间,然后利用长短期记忆(Long Short-Term Memory, LSTM)神经网络来模拟隐空间的演化过程。这种替代建模技术的主要优点之一是它由纯数据驱动,因此特别适合地球物理流体的研究数据集。利用遥感和现场观测收集的档案数据建立替代模型,然后将替代模型用于完成预测任务。当获得新数据之后,可以使用迁移学习方法[15]重新训练替代模型,从而提高预测精度。
除了ROM之外,神经网络在许多科学研究中的使用也显著增加[16-17]。神经网络的主要挑战之一是其性能过于依赖其网络结构[18]。此外,神经网络包含大量与问题相关的超参数。通常,人工神经网络是通过试错法来设计的,这一过程可能相当耗时。此外,要获得良好的性能,还需要设计者具有深刻的数据理解和丰富的神经网络领域知识。虽然有诸如“网格搜索”或“随机搜索”这样的方法来找到超参数的优化组合,但是随着搜索空间的维数增加,这些方法的可扩展性欠佳。因此,人们对神经网络结构和超参数搜索的自动化设计相关的内容越来越感兴趣,这将允许那些没有神经网络专业知识的用户可以将其应用于他们感兴趣的特定研究问题[19]。本文采用遗传算法对LSTM神经网络的结构设计和超参数进行优化。将LSTM网络用于NOAA海表温度数据集的替代模型设计。
本文其余部分的结构如下。首先,在第1节描述了非侵入式降阶模型的建模方法和数据预处理。然后,在第2节中给出了所提出算法的细节。第3节讨论了实验结果及其分析。最后,在第4节中,对本文的结论和未来的研究方向进行了展望。
1 非侵入式降阶模型 1.1 本征正交分解本文使用POD来提取表征上述非线性动力系统的主导模式。在不同的时刻收集了(动态网络的)数据快照
$ {\boldsymbol{A}}=\left[ {{{\tilde {\boldsymbol{u}}}_1}\left| {{{\tilde {\boldsymbol{u}}}_2}} \right.\left| \cdots \right.\left| {{{\tilde {\boldsymbol{u}}}_N}} \right.} \right] \in {{\bf{R}}^{M \times N}} $ | (1) |
式(1)中,去均值(异常)场的计算公式如式(2)所示。
$ {\tilde {\boldsymbol{u}}_\iota }={{\boldsymbol{u}}_i} - \bar {\boldsymbol{u}},\;\;\bar {\boldsymbol{u}}=\frac{1}{N}\sum_{i=1}^N {{{\boldsymbol{u}}_i}} $ | (2) |
式(2)中,
$ {\boldsymbol{A}}={\boldsymbol{W}}\sum {{{\boldsymbol{V}}^{\rm{T}}}} =\sum_{\kappa =1}^N {{\sigma _\kappa }{{\boldsymbol{w}}_\kappa }v_\kappa ^{\rm{T}}} $ | (3) |
式(3)中,
$ u(x,t)=\bar {\boldsymbol{u}} + \sum_{\kappa =1}^R {{a_\kappa }(t){{\boldsymbol{\phi}} _\kappa }(x)} $ | (4) |
式(4)中,
特别是在地球物理动力系统中,ROM演化的无模型预测具有广阔的应用前景。对于各种各样的任务,如数据同化和地球物理流体的不确定性量化,需要运行前向模型的集合,伴随着巨大的计算代价。可以使用基于ROM的替代模型来取代前向模型的演化过程。对于许多地球物理动力系统,由于网格分辨率颗粒度较为粗糙,动力系统的力学描述是不可用的或不足的。然而,在过去的几十年里,从局部和卫星观测中获得了大量的数据,数据驱动的方法如递归神经网络(Recursive Neural Network, RNN)在时空混沌动力系统的无模型预测中被证明是成功的[22-23]。
式(4)中的时变模态系数是通过在POD基础上的投影平均值减去场能求得的,如式(5)所示。
$ {a_\kappa }({t_i})=\left\langle {{{\tilde {\boldsymbol{u}}}_\iota },{{\boldsymbol{\phi}} _\kappa }} \right\rangle $ | (5) |
式(5)中,尖括号表示两个函数的内积。因此,如果能够对模态系数的演化进行预测,就可以重构未来的解域。一种流行的时间序列预测方法是递归神经网络,近来已被应用于物理系统非侵入式降阶模型的若干研究[13, 24-26]。这是因为RNN可以通过系统的历史信息来进行将来的状态预测,以及通过可用的历史数据来训练神经网络(参数)。LSTM神经网络是解决消失梯度问题的RNN最成功的变体之一[27]。本研究中,使用
无模型预测对于现实世界的实测数据尤其重要,因为实测数据是由多尺度过程产生的,这些过程不能用任何基于模型的方法精确地逼近。现实世界中的流体动力过程是由多个外部系统耦合控制的,而这种耦合可能是未知的或无法建模的。因此,现有模型对现实世界中的数据描述效果欠佳,非侵入式方法则非常适合这些复杂的流体。为此,本文研究了非侵入式降阶模型在NOAA最优差值海表温度数据集(第2版)上的应用。该数据集由一个分辨率为1°的网格上的每周平均海表温度数据快照组成,并结合卫星和本地测量生成。季节性波动使得该数据集的温度场具有很强的周期性结构。
沿纬度和经度以1°作为网格分辨率,数据集的每个快照的维数为180×360。利用掩模运算去除与陆地相对应的数据点,并建立了仅针对海洋表面的归一化数据的替代模型。该数据的时间跨度为1981年10月22日至2018年6月30日(即共1 914个快照)。
数据预处理完成后,利用去均值(异常)场的温度数据生成快照数据矩阵。ROM的模式数量是根据式(6)所示的相对信息含量(Relative Information Content, RIC)求得
$ {\rm{RIC}}(R)=\frac{{\displaystyle\sum_{\kappa =1}^R {\sigma _\kappa ^2} }}{{\displaystyle\sum_{\kappa =1}^N {\sigma _\kappa ^2} }} $ | (6) |
RIC表示可使用
神经网络的性能在很大程度上依赖于神经网络结构的设计和其他超参数的选择,例如激活函数、优化器、初始权重值等。类似于其他超参数优化的研究[28-34],本文使用不同类型的小型结构对整个LSTM架构进行编码。图2展示了作为LSTM主体网络组成构件的不同类型的小型体系结构。在这些小型结构中,每一个都采用了残差连接,因为它允许训练深度神经网络,而不会导致梯度消失的问题[35-36]。最终的LSTM网络是通过对这些组件进行排序来构建的。LSTM存储单元数和模块层数是与使用遗传算法优化的神经网络结构设计相关的另外两个参数。需要优化的其他超参数包括优化器的类型、优化器的学习率、权值和偏差的初始化分布以及激活函数。
算法1列出了本文所提框架的伪代码。它首先初始化指定大小的填充。根据预定义的组件构造个体的LSTM子网络,并在此基础上分配其他超参数。在训练数据集上采用三重交叉验证对神经网络进行评估。一旦计算出种群中每个个体的适应度(即,本研究中的验证均方误差),就会根据适应度值对个体进行排序。在这个种群当中,保留一定比例的精英个体(作为亲本),通过联赛选择算法竞争产生下一代个体。利用交叉和变异算子从选择的双亲中产生子代个体。新种群是由老种群中保留下来的精英个体与子代个体结合而成的。因此,新种群是由前一次迭代的精英个体和新产生的子代组成的。增加遗传代数计数器,并在给定的指定遗传代数内重复上述过程。
算法1 本文提出的遗传算法
输入: 一组预定义的构件,种群规模,最大遗传代数Ng,
训练数据集,精英保留百分比。
输出: 找到的LSTM网络结构以及其他超参数。
1.
2.
3. 从
4. 计算种群当中每个个体的适应度
5.
6.
7.
8.
9.
10. 结束循环。
11. 返回种群
使用7个整数来定义种群中的每个个体。这些数字代表了LSTM网络的超参数。这些超参数的上、下限以及用于生成这些数字的分布类型参见表1。第1个参数是网络的组块(数量),图2展示了4种不同类型的可用于设计LSTM网络的组块结构。第2和第3个参数与LSTM网络的深度(即隐藏层的数量)和宽度(即LSTM的cell单元的数量)有关。其他参数如激活函数、优化器、学习率、初始权重值等都与LSTM网络的训练有关。在评估过程中,针对每个个体对应的LSTM网络进行训练,并将验证均方误差(Mean Squared Error, MSE)作为该个体的适应度。种群根据适应度值按升序排序(MSE越低,适应度越好)。
下一步是为子代个体选择亲本。本文采用联赛选择算法来挑选亲本。算法2给出了联赛选择算法的选择过程。在联赛选择过程中,从种群中随机抽取少数个体,选出其中的最佳个体用于产生子代。
算法2 亲本选择
输入: 种群
输出: 后代种群
1.
2. 从
3. T
4.
5. 结束循环。
6. 返回选取的种群
算法3给出了生成子代的细节。子代种群的产生分为两个阶段。第一阶段是交叉运算(第2~13行),这里使用均匀交叉算子。在均匀交叉运算中,从种群当中选择两个个体。然后,针对个体的每个基因生成一个随机数,如果该随机数大于交叉概率,则交换两个个体在位置
算法3 子代生成
输入: 包含适应度的被选取种群
输出: 子代种群
1.
2. 当
3.
4. 对于
5.
6. 如果
7. 交换
8. 结束条件判断。
9.
10. 结束for循环。
11.
12.
13. 结束while循环。
14. 对于
15.
16. 如果
17.
18. 改变p的i点处的基因;
19. 结束条件判断。
20. 结束for循环。
21. 返回生成的子代种群
在本节中,给出了遗传算法在优化神经网络结构设计和超参数方面的结果。然后,展示了优化后的LSTM网络在NOAA数据集仿真和预测中的性能。
NOAA数据集的时间跨度为1981年10月22日至2018年6月30日,对应1 914个样本快照。本文利用前1500个数据快照中随机选择的70%样本数据作为训练数据集。在LSTM网络的超参数优化过程中,对种群内的个体进行了100个epoch的训练(一个epoch即是将所有训练样本训练一次的过程,epoch数为100),并采用三次交叉验证来避免过拟合。将LSTM网络的回溯时间窗口的步长设置为8,用于捕捉模态系数之间的时间相关性。每个个体的适应度是三折交叉验证数据集的MSE的平均值。一次训练所选取的样本数(Batch Size)固定为64。本实验的种群规模和遗传代数设置为20。图3展示了种群内个体适应度随遗传算法的遗传代数的演化轨迹。箱线图用于显示每一代的种群统计数据。图3还呈现了每一代种群数量的MSE的中位数和最小值。随着演化过程的进行,验证集上的均方误差也逐渐减小。矩形盒的高度表示种群在每一代的适应度的方差,可以看出,第一代之后的方差显著降低。MSE从第一代到第二代急剧下降,这可以归因于遗传算法开始时种群的随机初始化。对于本文中所研究的问题,3~10代(遗传代数)似乎就足以找到最佳的超参数集。
利用遗传算法找到最优网络结构和其他超参数后,对最优LSTM网络进行了1200个epoch(即1200次遍历整个训练数据集)的训练,批量大小(一次训练的样本数)为64。在训练后的网络部署过程中,采用自回归法对模态系数进行预测。给出了前8个时间步(等于LSTM的回溯时间窗口长度)模态系数的初始条件。该信息用于预测第9个时间步的模态系数。然后利用第2到第9个时间步的模态系数来预测第10个时间步的模态系数。重复此过程直到最后一个时间步,即第1914个时间步。由于本文自回归部署使用的是经过训练的LSTM网络,所以只需要设置LSTM回溯所对应的初始条件。在经过(初期的)几个时间步后,仅利用LSTM的预测结果作为未来(时间步)的模态系数预测值。图4展示了模态系数的真实值和预测值。可以看出,尤其对于负责捕捉大尺度波动和季节模式的前几个模态而言,它们的模态系数的真实值和预测值之间具有良好的一致性。
图5描绘了两个不同时刻的真实温度场和重建温度场。利用式(4)重建温度场,其中平均温度场是由前1500个数据快照计算所得。基于LSTM的ROM(降阶模型)能够准确地捕捉温度场中的大尺度模式,展现出数据驱动的ROM在地球物理流体分析中的应用潜力。图6展示了L2范数下的温度场真实值和预测值之平方误差。可以观察到,在最后的时间步,预测误差增加,这可能是由于模态系数预测不准确,以及POD基函数无法在外推时间域(即时间步超过1500)捕获高精度的空间模式。针对LSTM误差累积的一种补救方法是以非自回归的方式来训练和部署网络[37]。
本文提出了一种用于长短记忆神经网络结构自动搜索和超参数优化的遗传算法,可用于地球物理流体代理模型的建模任务。并且成功地证明了利用优化后的LSTM建立的代理模型能够预测海表温度场。为了便于更深层次神经网络的训练,本文采用了一种编码策略,其中LSTM网络使用了包含残差连接的更小的构件来设计。优化后的LSTM网络可以在足够长的时间内准确地预测海温场的季节变化,而不存在任何不稳定问题。
本文还观察到,真实模态系数和预测模态系数之间的差值在预测期间比训练期间的更大。这个问题可以通过使用非自回归部署或迁移学习的方法来解决,其中,LSTM网络在新数据可用时将被重新训练。在目前的研究中,本文假设每个隐藏层中的LSTM单元数目是恒定的。在未来的研究工作中,本文将消除这一约束,并对种群中的每个个体使用变长编码策略来优化LSTM网络。
[1] |
LEWIS J M, LAKSHMIVARAHAN S, DHALL S. Dynamic data assimilation: a least squares approach[M]. Cambridge: Cambridge University Press, 2006.
|
[2] |
MOIN P, MAHESH K. Direct numerical simulation: a tool in turbulence research[J].
Annual Review of Fluid Mechanics, 1998, 30(1): 539-578.
DOI: 10.1146/annurev.fluid.30.1.539. |
[3] |
POLAT O, TUNCER I H. Aerodynamic shape optimization of wind turbine blades using a parallel genetic algorithm[J].
Procedia Engineering, 2013, 61: 28-31.
DOI: 10.1016/j.proeng.2013.07.088. |
[4] |
LUCIA D J, BERAN P S, SILVA W A. Reduced-order modeling: new approaches for computational physics[J].
Progress in Aerospace Sciences, 2004, 40(1-2): 51-117.
DOI: 10.1016/j.paerosci.2003.12.001. |
[5] |
TAIRA K, BRUNTON S L, DAWSON S T M, et al. Modal analysis of fluid flows: an overview[J].
Aiaa Journal, 2017, 55(12): 4013-4041.
DOI: 10.2514/1.J056060. |
[6] |
BENNER P, GUGERCIN S, WILLCOX K. A survey of projection-based model reduction methods for parametric dynamical systems[J].
SIAM Review, 2015, 57(4): 483-531.
DOI: 10.1137/130932715. |
[7] |
XIAO D, FANG F, PAIN C, et al. Non-intrusive reduced-order modelling of the Navier-Stokes equations based on RBF interpolation[J].
International Journal for Numerical Methods in Fluids, 2015, 79(11): 580-595.
DOI: 10.1002/fld.4066. |
[8] |
HESTHAVEN J S, UBBIALI S. Non-intrusive reduced order modeling of nonlinear problems using neural networks[J].
Journal of Computational Physics, 2018, 363: 55-78.
DOI: 10.1016/j.jcp.2018.02.037. |
[9] |
PAWAR S, RAHMAN S M, VADDIREDDY H, et al. A deep learning enabler for nonintrusive reduced order modeling of fluid flows[J].
Physics of Fluids, 2019, 31(8): 085101.
DOI: 10.1063/1.5113494. |
[10] |
SCHNEIDER T, LAN S, STUART A, et al. Earth system modeling 2.0: a blueprint for models that learn from observations and targeted high-resolution simulations[J].
Geophysical Research Letters, 2017, 44(24): 12396-12417.
|
[11] |
O'GORMAN P A, DWYER J G. Using machine learning to parameterize moist convection: potential for modeling of climate, climate change, and extreme events[J].
Journal of Advances in Modeling Earth Systems, 2018, 10(10): 2548-2563.
DOI: 10.1029/2018MS001351. |
[12] |
REICHSTEIN M, CAMPS-VALLS G, STEVENS B, et al. Deep learning and process understanding for data-driven earth system science[J].
Nature, 2019, 566(7743): 195-204.
DOI: 10.1038/s41586-019-0912-1. |
[13] |
MOHAN A T, GAITONDE D V. A deep learning based approach to reduced order modeling for turbulent flow control using LSTM neural networks[EB/OL]. arXiv preprint arXiv: 1804.09269, 2018. [2021-07-02]. http://export.arxiv.org/abs/1804.09269.
|
[14] |
RAHMAN S M, PAWAR S, SAN O, et al. Nonintrusive reduced order modeling framework for quasigeostrophic turbulence[J].
Physical Review E, 2019, 100(5): 053306.
DOI: 10.1103/PhysRevE.100.053306. |
[15] |
TAN C, SUN F, KONG T, et al. A survey on deep transfer learning[C]//International Conference on Artificial Neural Networks. Switzerland: Springer, Cham, 2018: 270-279.
|
[16] |
MJOLSNESS E, DECOSTE D. Machine learning for science: state of the art and future prospects[J].
Science, 2001, 293(5537): 2051-2055.
DOI: 10.1126/science.293.5537.2051. |
[17] |
BRUNTON S L, NOACK B R, KOUMOUTSAKOS P. Machine learning for fluid mechanics[J].
Annual Review of Fluid Mechanics, 2020, 52: 477-508.
DOI: 10.1146/annurev-fluid-010719-060214. |
[18] |
KRIZHEVSKY A, SUTSKEVER I, HINTON G E. Imagenet classification with deep convolutional neural networks[J].
Advances in Neural Information Processing Systems, 2012, 25: 1097-1105.
|
[19] |
ELSKEN T, METZEN J H, HUTTER F. Neural architecture search: a survey[J].
The Journal of Machine Learning Research, 2019, 20(1): 1997-2017.
|
[20] |
HOLMES P, LUMLEY J L, BERKOOZ G, et al. Turbulence, coherent structures, dynamical systems and symmetry[M]. Cambridge: Cambridge University Press, 2012.
|
[21] |
ROWLEY C W, DAWSON S T M. Model reduction for flow analysis and control[J].
Annual Review of Fluid Mechanics, 2017, 49: 387-417.
DOI: 10.1146/annurev-fluid-010816-060042. |
[22] |
PATHAK J, HUNT B, GIRVAN M, et al. Model-free prediction of large spatiotemporally chaotic systems from data: a reservoir computing approach[J].
Physical Review Letters, 2018, 120(2): 024102.
DOI: 10.1103/PhysRevLett.120.024102. |
[23] |
VLACHAS P R, BYEON W, WAN Z Y, et al. Data-driven forecasting of high-dimensional chaotic systems with long short-term memory networks[J].
Proceedings of the Royal Society A: Mathematical, Physical and Engineering Sciences, 2018, 474(2213): 20170844.
DOI: 10.1098/rspa.2017.0844. |
[24] |
MAULIK R, MOHAN A, LUSCH B, et al. Time-series learning of latent-space dynamics for reduced-order model closure[J].
Physica D: Nonlinear Phenomena, 2020, 405: 132368.
DOI: 10.1016/j.physd.2020.132368. |
[25] |
AHMED S E, RAHMAN S M, SAN O, et al. Memory embedded non-intrusive reduced order modeling of non-ergodic flows[J].
Physics of Fluids, 2019, 31(12): 126602.
DOI: 10.1063/1.5128374. |
[26] |
WAN Z Y, VLACHAS P, KOUMOUTSAKOS P, et al. Data-assisted reduced-order modeling of extreme events in complex dynamical systems[J].
PloS One, 2018, 13(5): e0197704.
DOI: 10.1371/journal.pone.0197704. |
[27] |
HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J].
Neural Computation, 1997, 9(8): 1735-1780.
DOI: 10.1162/neco.1997.9.8.1735. |
[28] |
XIE L, YUILLE A. Genetic CNN[C]//Proceedings of the IEEE International Conference on Computer Vision.Venice: IEEE, 2017: 1379-1388.
|
[29] |
SUN Y, XUE B, ZHANG M, et al. Automatically designing CNN architectures using the genetic algorithm for image classification[J].
IEEE Transactions on Cybernetics, 2020, 50(9): 3840-3854.
DOI: 10.1109/TCYB.2020.2983860. |
[30] |
SUN Y, YEN G G, YI Z. Evolving unsupervised deep neural networks for learning meaningful representations[J].
IEEE Transactions on Evolutionary Computation, 2018, 23(1): 89-103.
|
[31] |
SUN Y, WANG H, XUE B, et al. Surrogate-assisted evolutionary deep learning using an end-to-end random forest-based performance predictor[J].
IEEE Transactions on Evolutionary Computation, 2019, 24(2): 350-364.
|
[32] |
SUN Y, XUE B, ZHANG M, et al. Evolving deep convolutional neural networks for image classification[J].
IEEE Transactions on Evolutionary Computation, 2019, 24(2): 394-407.
|
[33] |
SUN Y, XUE B, ZHANG M, et al. Completely automated CNN architecture design based on blocks[J].
IEEE Transactions on Neural Networks and Learning Systems, 2019, 31(4): 1242-1254.
|
[34] |
ZHOU Y, YEN G G, YI Z. Evolutionary compression of deep neural networks for biomedical image segmentation[J].
IEEE Transactions on Neural Networks and Learning Systems, 2019, 31(8): 2916-2929.
|
[35] |
DROZDZAL M, VORONTSOV E, CHARTRAND G, et al. The importance of skip connections in biomedical image segmentation[C]//Deep learning and data labeling for medical applications. Switzerland: Springer, 2016: 179-187.
|
[36] |
HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV: IEEE, 2016: 770-778.
|
[37] |
MAULIK R, LUSCH B, BALAPRAKASH P. Non-autoregressive time-series methods for stable parametric reduced-order models[J].
Physics of Fluids, 2020, 32(8): 087115.
DOI: 10.1063/5.0019884. |