CN110619382A - 适用于地震勘探的褶积深度网络构建方法 - Google Patents
适用于地震勘探的褶积深度网络构建方法 Download PDFInfo
- Publication number
- CN110619382A CN110619382A CN201910659263.6A CN201910659263A CN110619382A CN 110619382 A CN110619382 A CN 110619382A CN 201910659263 A CN201910659263 A CN 201910659263A CN 110619382 A CN110619382 A CN 110619382A
- Authority
- CN
- China
- Prior art keywords
- output
- input
- network
- dnse
- conv
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010276 construction Methods 0.000 title description 4
- 238000012549 training Methods 0.000 claims abstract description 42
- 238000000034 method Methods 0.000 claims abstract description 34
- 230000006870 function Effects 0.000 claims description 47
- 238000013528 artificial neural network Methods 0.000 claims description 37
- 238000013135 deep learning Methods 0.000 claims description 20
- 230000004913 activation Effects 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 4
- 239000012530 fluid Substances 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 abstract description 5
- 238000011160 research Methods 0.000 abstract description 5
- 238000013461 design Methods 0.000 abstract description 4
- 230000002349 favourable effect Effects 0.000 abstract description 3
- 239000010410 layer Substances 0.000 description 49
- 238000010801 machine learning Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 239000002356 single layer Substances 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 235000017166 Bambusa arundinacea Nutrition 0.000 description 1
- 235000017491 Bambusa tulda Nutrition 0.000 description 1
- 241001330002 Bambuseae Species 0.000 description 1
- 235000015334 Phyllostachys viridis Nutrition 0.000 description 1
- 239000011425 bamboo Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000003208 petroleum Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V1/00—Seismology; Seismic or acoustic prospecting or detecting
- G01V1/28—Processing seismic data, e.g. for interpretation or for event detection
- G01V1/282—Application of seismic models, synthetic seismograms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Remote Sensing (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Acoustics & Sound (AREA)
- Geology (AREA)
- Geophysics (AREA)
- Environmental & Geological Engineering (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Geophysics And Detection Of Objects (AREA)
Abstract
本发明提供一种适用于地震勘探的褶积深度网络构建方法,该适用于地震勘探的褶积深度网络构建方法包括:步骤1,准备输入数据,输入数据包括训练数据和实际应用数据;步骤2,确定学习规则;步骤3,训练适用于地震勘探的褶积深度网络Conv‑DNSE;步骤4,输出Conv‑DNSE的输出结果。该适用于地震勘探的褶积深度网络构建方法可提供给地球物理人员进行储层预测研究,然后再提供给地质人员进行下一步的分析,包括确定有利储层、辅助井位设计、计算储量等。
Description
技术领域
本发明涉及地震勘探技术领域,特别是涉及到一种适用于地震勘探的褶积深度网络构建方法。
背景技术
深度学习是一种机器学习方法,机器学习是人工智能的一个分支。深度学习是引领人工智能浪潮的技术,虽然深度学习最终可能会被其他技术所替代,但它现在仍然是人工智能的基石。
深度学习是一种采用深度神经网络的机器学习技术,深层神经网络是包含两个或更多隐藏层的多层神经网络,这是真正的深度学习的本质。深度学习已经成为人们关注的焦点,因为它能够很好地解决一些挑战人工智能的问题。它的性能在许多领域都是卓越的。然而,它也面临着限制。深度学习的局限性源于从其祖先机器学习继承而来的基本概念,作为机器学习的一种,深度学习不能避免机器学习所面临的基本问题。
第一代神经网络,即单层神经网络在解决机器学习所面临的实际问题时,不需要很长时间就可以揭示其基本局限性,多层神经网络将是下一个突破,然而,直到另一层被添加到单层神经网络大约花了30年时间,为什么只需要一个额外的层就需要这么长的时间,这是因为没有找到适合多层神经网络的学习规则,因为训练是神经网络存储信息的唯一途径,不可训练的神经网络是无用的。
1986年,引入了反向传播算法(Back-Propagation Algorithm,BP),最终解决了多层神经网络的训练问题,神经网络又重新登上了舞台。然而,很快又遇到了另一个问题,多层神经网络在实际问题上的表现没有达到预期,学者们尝试用各种各样的方法来克服这些限制,包括添加隐藏层和添加隐藏层中的节点,但是,都没有起到明显的作用,有时候反而使得多层神经网络的表现更差。
由于上述原因,多层神经网络被遗忘了大约20年,直到2000年代中期,深度学习被引进,打开了一扇新的大门,但是由于深部神经网络的训练困难,深部隐层需要一段时间才能产生足够的性能,不管怎么说,目前的深度学习技术产生了令人眼花缭乱的性能水平,这超过了其他机器学习技术以及其他神经网络,并在人工智能的研究中占了上风。
综上所述,多层神经网络在解决单层神经网络问题上花费了30年的时间,其原因是缺乏学习规则,最终被反向传播算法所解决。又过了20年,出现了基于深度神经网络的深度学习算法,深度学习算法较好地解决了多层神经网络存在的梯度消失、过拟合和计算效率低等问题。
目前,深度学习在油气和地震勘探领域的研究现在仍处在起步阶段,已引起行业的高度关注,深度学习方面的研究成果也如雨后春笋不断涌现,但是在应用效果上仍需要不断改进,以提高深度学习在地震勘探中的针对性。为此我们发明了一种新的适用于地震勘探的褶积深度网络构建方法,解决了以上问题。
发明内容
本发明的目的是提供一种适用于地震勘探的褶积深度网络(Convolution DepthNetwork for Seismic Exploration,Conv-DNSE)构建方法,用于石油勘探中的储层预测业务。
本发明的目的可通过如下技术措施来实现:适用于地震勘探的褶积深度网络构建方法,该适用于地震勘探的褶积深度网络构建方法包括:步骤1,准备输入数据,输入数据包括训练数据和实际应用数据;步骤2,确定学习规则;步骤3,训练适用于地震勘探的褶积深度网络Conv-DNSE;步骤4,输出Conv-DNSE的输出结果。
本发明的目的还可通过如下技术措施来实现:
在步骤1中,训练数据为用于训练Conv-DNSE的训练数据,包括训练输入、正确输出,用{InputTPOutputC}表示,包括以下几种:
{InputTPOutputC}={(小角度道集,中角度道集,大角度道集)||(速度,密度)}
{InputTPOutputC}={(纵波速度,横波速度,密度)||流体因子}
{InputTPOutputC}={地震属性集合||储层属性}。
在步骤1中,实际应用数据输入用{InputR}表示,该类数据需要输入到训练好的Conv-DNSE网络,从而得到最终的输出结果;在实际的储层预测应用中,{InputR}包括以下几种:
{InputR}={小角度道集,中角度道集,大角度道集}
{InputR}={纵波速度,横波速度,密度}
{InputR}={地震属性集合}。
在步骤2中,采用正数线性化激活函数PLU函数和互熵损失函数作为确定的学习规则。
在步骤2中,PLU函数定义如下:
其中,y表示神经网络节点的输出值。
在步骤2中,采用互熵损失函数来作为深度学习的学习规则,如下所示:
其中,J为损失函数,yi是输出节点的输出,di是训练数据的正确输出,m是输出节点的数量。
参数预测网络的最后一层为输出层,输出层在经过如下所示的指数均值函数后,即为Conv-DNSE最终稿的输出结果:
其中,y为某一节点的输出结果,vk表示第k个输出节点的加权和,vi表示第i个输出节点的加权和,m表示输出层节点个数。
步骤3包括:
3.1定义Conv-DNSE的层数,用适当的值初始化神经网络所有层、所有节点的权重;
3.2输入训练数据{InputT}到特征提取网络的褶积层、稀疏层,然后输入到参数预测网络的PLU激活函数,然后再输入到指数均值函数后,最终获得输出d,将该输出与正确的输出进行比较,计算误差e,并计算输出节点的δ
其中,y表示OutputC,d表示由InputT输入Conv-DNSE计算得到的输出;δ为输出节点的误差。
3.3向后传播输出节点的δ,并计算后续隐藏节点的增量
其中,k表示网络的第k层,WT表示权重系数矩阵,v(k)表示神经元节点和的输出,表示PLU激活函数的输出,表示表示PLU激活函数的输出的导数;e(k)表示第k个节点的误差。
3.4重复步骤3.3,直到到达输入层旁边的隐藏层;
3.5使用以下学习规则调整神经网络的权重
其中,Wij表示网络某一层的第i个节点与其上一层的第j个节点之间的权重系数,ΔWij表示其增量,α为权系数,0≤α≤1,x表示InputT;
3.6对每个训练数据点{InputTPOutputC}重复步骤3.2~3.5;
3.7重复步骤3.2~3.6,直到整个Conv-DNSE得到充分训练。
在步骤4中,将实际应用数据{InputR}输入到训练好的Conv-DNSE,得到Conv-DNSE的输出结果。
本发明的适用于地震勘探的褶积深度网络构建方法,Conv-DNSE由特征提取网络和参数预测网络串联组成,每个网络层都有各自的权重系数,所有的权重都由训练过程来确定,增强了网络的客观稳定性。地震数据输入特征提取网络,提取的特征信号进入参数预测网络,参数预测网络根据输入数据的特征进行操作,并最终得到输出结果,该结果可提供给地球物理人员进行储层预测研究,然后再提供给地质人员进行下一步的分析,包括确定有利储层、辅助井位设计、计算储量等。
附图说明
图1为本发明的适用于地震勘探的褶积深度网络构建方法的一具体实施例的流程图;
图2为本发明的一具体实施例中地震勘探褶积深度网络结构的示意图;
图3为本发明的一具体实施例中正数线性化激活函数的示意图。
具体实施方式
为使本发明的上述和其他目的、特征和优点能更明显易懂,下文特举出具体的实施方式,并配合附图所示,作详细说明如下。
如图1所示,图1为本发明的适用于地震勘探的褶积深度网络构建方法的流程图。
步骤1:输入数据的准备
输入数据主要包括两类,一类是用于训练Conv-DNSE的训练数据,它包括训练输入、正确输出,用{训练输入P正确输出}表示,为简化起见,用{InputTPOutputC}表示,这类数据主要用于训练网络。在实际的储层预测应用中,{InputTPOutputC}可以是但不限于以下几种:
{InputTPOutputC}={(小角度道集,中角度道集,大角度道集)||(速度,密度)}
{InputTPOutputC}={(纵波速度,横波速度,密度)||流体因子}
{InputTPOutputC}={地震属性集合||储层属性}
另一类是实际应用数据输入,用{InputR}表示,该类数据需要输入到训练好的Conv-DNSE网络,从而得到最终的输出结果。在实际的储层预测应用中,{InputR}可以是但不限于以下几种:
{InputR}={小角度道集,中角度道集,大角度道集}
{InputR}={纵波速度,横波速度,密度}
{InputR}={地震属性集合}
步骤2:确定学习规则
机器学习中的学习规则通常是指语义明确、能描述数据分布所隐含的客观规律或领域概念的逻辑规则,规则学习是从训练数据中学习出一组能用于对未见示例进行判别的规则。神经网络训练或者优化的过程就是最小化损失函数的过程,损失函数越小,说明模型的预测值就越接近真实值,模型的准确性也就越好。损失函数主要有平方损失函数、对数损失函数、互熵损失函数等不同形式。这里使用的是互熵的损失函数,同时应用正数线性化激活函数。
参数预测网络为一深度网络,采用了正数线性化(Positive LinearizationUnit,PLU)激活函数和互熵(Cross Entropy,CE)学习规则,极大地改善了梯度消失的问题,并通过正则化方法提高网络的泛化能力,最后通过的梯度下降法来实现网络权重系数的更新。
同时,参数预测网络也采用了深度学习的策略,深度学习是使用了更深层次的神经网络,尽管深度学习有着较为突出的应用,但是深度学习实际上并没有任何高深的、关键的技术,只是运用了一些小的技术改进。
2.1正数线性化激活函数
对于目前的神经网络训练算法来说,梯度下降是调节权重系数的关键环节之一,但是在经典的反传播算法的训练过程中,当输出误差很可能无法到达更远的节点时,会出现消失梯度,反向传播算法训练神经网络将输出误差反向传播到隐藏层,但是,由于误差很难到达第一个隐藏层,因此无法调整权重,因此,靠近输入层的隐藏层没有得到适当的训练。
本专利中使用消失梯度的典型解是使用正数线性化(Positive LinearizationUnit,PLU)激活函数,PLU激活函数比sigmoid函数的功能更好,PLU激活函数如图3所示,PLU函数定义如下:
其中,y表示神经网络节点的输出值。
2.2互熵学习规则
神经网络的有监督学习是一个调整权值以减少训练数据误差的过程,在这种情况下,神经网络误差的测量是损失函数,神经网络的误差越大,损失函数值越高。采用互熵损失函数来作为深度学习的学习规则,如下所示:
其中,yi是输出节点的输出,di是训练数据的正确输出,m是输出节点的数量。
互熵损失函数与经典的最小二乘损失函数的主要区别在于其几何变化的特征,换句话说,互熵损失函数对误差更敏感,因此,从互熵损失函数派生的学习规则通常被认为可以产生更好的性能。
参数预测网络的最后一层为输出层,输出层在经过如下所示的指数均值函数后,即为Conv-DNSE最终稿的输出结果。
其中,vi表示第i个输出节点的加权和,m表示输出层节点个数。
步骤3:训练Conv-DNSE
Conv-DNSE由特征提取网络和参数预测网络串联组成,如图2所示,由输入输出训练对、特征提取网络以及参数预测网络组成。每个网络层都有各自的权重系数,所有的权重都由训练过程来确定。Conv-DNSE在训练过程中包含了特性提取器。Conv-DNSE的特征提取网络是由各种特殊的神经网络组成,其权重由训练过程确定,而不是手动设计它。Conv-DNSE将人工特征提取设计转化为自动化过程是其主要特点和优势。
特征提取网络包括褶积层和稀疏层,用于储层参数特征的提取,通过褶积层来提取储层参数不同的特征,通过稀疏层对储层参数进行抽希处理,这种特殊类型的网络结构,可有效提高机器学习的储层参数特征提取功能。使用褶积操作转换地震数据,它可以被看作是数字滤波器的集合,稀疏层将相邻数据进行抽希合并,因此,稀疏层减少了地震数据的长度。
地震数据输入进入特征提取网络,提取的特征信号进入参数预测网络,参数预测网络根据输入数据的特征进行操作,并最终生成储层预测的输出结果。
3.1定义Conv-DNSE的层数,用适当的值初始化神经网络所有层、所有节点的权重
3.2输入训练数据{InputT}到特征提取网络的褶积层、稀疏层,然后输入到参数预测网络的PLU激活函数,然后再输入到指数均值函数后,最终获得输出d。将该输出与正确的输出进行比较,计算误差e,并计算输出节点的δ
其中,y表示OutputC,d表示由InputT输入Conv-DNSE计算得到的输出。
3.3向后传播输出节点的δ,并计算后续隐藏节点的增量
其中,k表示网络的第k层,WT表示权重系数矩阵,v(k)表示神经元节点和的输出,表示PLU激活函数的输出,表示表示PLU激活函数的输出的导数。
3.4重复步骤3.3,直到到达输入层旁边的隐藏层
3.5使用以下学习规则调整神经网络的权重
其中,Wij表示网络某一层的第i个节点与其上一层的第j个节点之间的权重系数,ΔWij表示其增量,α为权系数,0≤α≤1,x表示InputT。
3.6对每个训练数据点{InputTPOutputC}重复步骤3.2~3.5
3.7重复步骤3.2~3.6,直到整个Conv-DNSE得到充分训练
步骤4:结果输出
将实际应用数据{InputR}输入到训练好的Conv-DNSE,就可以得到Conv-DNSE的输出结果,该结果可提供给地球物理人员进行储层预测,然后再提供给地质人员进行下一步的分析,包括确定有利储层、辅助井位设计、计算储量等。
Claims (8)
1.适用于地震勘探的褶积深度网络构建方法,其特征在于,该适用于地震勘探的褶积深度网络构建方法包括:
步骤1,准备输入数据,输入数据包括训练数据和实际应用数据;
步骤2,确定学习规则;
步骤3,训练适用于地震勘探的褶积深度网络Conv-DNSE;
步骤4,输出Conv-DNSE的输出结果。
2.根据权利要求1所述的适用于地震勘探的褶积深度网络构建方法,其特征在于,在步骤1中,训练数据为用于训练Conv-DNSE的训练数据,包括训练输入、正确输出,用{InputTPOutputC}表示,包括以下几种:
{InputT POutputC}={(小角度道集,中角度道集,大角度道集)||(速度,密度)}
{InputT POutputC}={(纵波速度,横波速度,密度)||流体因子}
{InputT POutputC}={地震属性集合||储层属性}。
3.根据权利要求1所述的适用于地震勘探的褶积深度网络构建方法,其特征在于,在步骤1中,实际应用数据输入用{InputR}表示,该类数据需要输入到训练好的Conv-DNSE网络,从而得到最终的输出结果;在实际的储层预测应用中,{InputR}包括以下几种:
{InputR}={小角度道集,中角度道集,大角度道集}
{InputR}={纵波速度,横波速度,密度}
{InputR}={地震属性集合}。
4.根据权利要求1所述的适用于地震勘探的褶积深度网络构建方法,其特征在于,在步骤2中,采用正数线性化激活函数PLU函数和互熵损失函数作为确定的学习规则。
5.根据权利要求4所述的适用于地震勘探的褶积深度网络构建方法,其特征在于,在步骤2中,PLU函数定义如下:
其中,y表示神经网络节点的输出值。
6.根据权利要求4所述的适用于地震勘探的褶积深度网络构建方法,其特征在于,在步骤2中,采用互熵损失函数来作为深度学习的学习规则,如下所示:
其中,J为损失函数,yi是输出节点的输出,di是训练数据的正确输出,m是输出节点的数量;
参数预测网络的最后一层为输出层,输出层在经过如下所示的指数均值函数后,即为Conv-DNSE最终的输出结果:
其中,y为输出结果,vk表示第k个输出节点的加权和,vi表示第i个输出节点的加权和,m表示输出层节点个数。
7.根据权利要求4所述的适用于地震勘探的褶积深度网络构建方法,其特征在于,步骤3包括:
3.1定义Conv-DNSE的层数,用适当的值初始化神经网络所有层、所有节点的权重;
3.2输入训练数据{InputT}到特征提取网络的褶积层、稀疏层,然后输入到参数预测网络的PLU激活函数,然后再输入到指数均值函数后,最终获得输出d,将该输出与正确的输出进行比较,计算误差e,并计算输出节点的δ
其中,y表示OutputC,d表示由InputT输入Conv-DNSE计算得到的输出;δ为输出节点的误差;
3.3向后传播输出节点的δ,并计算后续隐藏节点的增量
其中,k表示网络的第k层,WT表示权重系数矩阵,v(k)表示神经元节点和的输出,表示PLU激活函数的输出,表示表示PLU激活函数的输出的导数;e(k)表示第k个节点的误差;
3.4重复步骤3.3,直到到达输入层旁边的隐藏层;
3.5使用以下学习规则调整神经网络的权重
其中,Wij表示网络某一层的第i个节点与其上一层的第j个节点之间的权重系数,ΔWij表示其增量,α为权系数,0≤α≤1,x表示InputT;
3.6对每个训练数据点{InputT POutputC}重复步骤3.2~3.5;
3.7重复步骤3.2~3.6,直到整个Conv-DNSE得到充分训练。
8.根据权利要求1所述的适用于地震勘探的褶积深度网络构建方法,其特征在于,在步骤4中,将实际应用数据{InputR}输入到训练好的Conv-DNSE,得到Conv-DNSE的输出结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910659263.6A CN110619382A (zh) | 2019-07-22 | 2019-07-22 | 适用于地震勘探的褶积深度网络构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910659263.6A CN110619382A (zh) | 2019-07-22 | 2019-07-22 | 适用于地震勘探的褶积深度网络构建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110619382A true CN110619382A (zh) | 2019-12-27 |
Family
ID=68921575
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910659263.6A Pending CN110619382A (zh) | 2019-07-22 | 2019-07-22 | 适用于地震勘探的褶积深度网络构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110619382A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113608264A (zh) * | 2021-07-30 | 2021-11-05 | 成都理工大学 | 联合叠前弹性反演参数及深度网络目标反演技术 |
CN113884844A (zh) * | 2021-11-18 | 2022-01-04 | 国网山东省电力公司电力科学研究院 | 一种变压器局部放电类型识别方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629072A (zh) * | 2018-03-12 | 2018-10-09 | 山东科技大学 | 面向地震油气储层分布的卷积神经网络学习与预测方法 |
CN108693558A (zh) * | 2018-05-18 | 2018-10-23 | 中国石油天然气集团有限公司 | 地震数据处理方法和装置 |
-
2019
- 2019-07-22 CN CN201910659263.6A patent/CN110619382A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629072A (zh) * | 2018-03-12 | 2018-10-09 | 山东科技大学 | 面向地震油气储层分布的卷积神经网络学习与预测方法 |
CN108693558A (zh) * | 2018-05-18 | 2018-10-23 | 中国石油天然气集团有限公司 | 地震数据处理方法和装置 |
Non-Patent Citations (2)
Title |
---|
刘力辉等: "基于深度学习的地震岩相反演方法", 《石油物探》 * |
孟祥宾: "HPC 和AI技术在地震勘探领域中的应用案例分析", 《2019年华东区高性能计算研讨会》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113608264A (zh) * | 2021-07-30 | 2021-11-05 | 成都理工大学 | 联合叠前弹性反演参数及深度网络目标反演技术 |
CN113884844A (zh) * | 2021-11-18 | 2022-01-04 | 国网山东省电力公司电力科学研究院 | 一种变压器局部放电类型识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108764540B (zh) | 基于并行lstm串联dnn的供水管网压力预测方法 | |
CN111292525B (zh) | 基于神经网络的交通流预测方法 | |
Maschio et al. | Bayesian history matching using artificial neural network and Markov Chain Monte Carlo | |
CN112541572B (zh) | 基于卷积编码器-解码器网络的剩余油分布预测方法 | |
CN108846199A (zh) | 基于时空一体化的特高拱坝变形时空序列预测方法 | |
Karkevandi-Talkhooncheh et al. | Application of hybrid adaptive neuro-fuzzy inference system in well placement optimization | |
CN110807544B (zh) | 一种基于机器学习的油田剩余油饱和度分布的预测方法 | |
CN112255095B (zh) | 一种土体应力应变关系确定方法 | |
Abdullayeva et al. | Development of oil production forecasting method based on deep learning | |
CN108596327A (zh) | 一种基于深度学习的地震速度谱人工智能拾取方法 | |
CN106886798A (zh) | 基于矩阵变量的高斯分布受限玻尔兹曼机的图像识别方法 | |
CN114693005B (zh) | 基于卷积傅里叶神经网络的三维地下油藏动态预测方法 | |
CN110580727B (zh) | 信息流与梯度流增加的深度v型密集网络成像方法 | |
CN110619382A (zh) | 适用于地震勘探的褶积深度网络构建方法 | |
CN111860787A (zh) | 一种含有缺失数据的耦合有向图结构流量数据的短期预测方法及装置 | |
CN114662414B (zh) | 一种基于图小波神经网络模型的油藏生产预测方法 | |
CN114282443A (zh) | 基于mlp-lstm有监督联合模型的剩余使用寿命预测方法 | |
CN115374903A (zh) | 一种基于高速公路传感网布设的长期路面监测数据增强方法 | |
CN114548482A (zh) | 一种基于蠕变型滑坡动能变化率临滑预警方法 | |
Li et al. | A comprehensive review of seismic inversion based on neural networks | |
CN115660221B (zh) | 基于混合神经网络的油气藏经济可采储量评估方法及系统 | |
CN112906760B (zh) | 一种水平井压裂段分段方法、系统、设备及存储介质 | |
CN114896228B (zh) | 基于过滤规则多级组合优化的工业数据流清洗模型和方法 | |
CN114330089B (zh) | 一种稀土元素含量变化预测方法及系统 | |
CN114810008A (zh) | 一种油田分层注水量预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20191227 |
|
WD01 | Invention patent application deemed withdrawn after publication |