CN112444850B - 地震资料速度建模方法、存储介质及计算设备 - Google Patents
地震资料速度建模方法、存储介质及计算设备 Download PDFInfo
- Publication number
- CN112444850B CN112444850B CN201910810584.1A CN201910810584A CN112444850B CN 112444850 B CN112444850 B CN 112444850B CN 201910810584 A CN201910810584 A CN 201910810584A CN 112444850 B CN112444850 B CN 112444850B
- Authority
- CN
- China
- Prior art keywords
- convolution
- self
- model
- encoder model
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000003860 storage Methods 0.000 title claims abstract description 9
- 238000012549 training Methods 0.000 claims abstract description 46
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 18
- 238000011478 gradient descent method Methods 0.000 claims abstract description 17
- 238000011176 pooling Methods 0.000 claims description 79
- 230000006870 function Effects 0.000 claims description 52
- 238000004422 calculation algorithm Methods 0.000 claims description 32
- 239000011159 matrix material Substances 0.000 claims description 13
- 238000009795 derivation Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 claims description 2
- 238000003475 lamination Methods 0.000 claims 1
- 238000005096 rolling process Methods 0.000 claims 1
- 230000004913 activation Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 238000013507 mapping Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 7
- 230000005284 excitation Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 6
- 230000009467 reduction Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000005422 blasting Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000003325 tomography Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005137 deposition process Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V1/00—Seismology; Seismic or acoustic prospecting or detecting
- G01V1/28—Processing seismic data, e.g. for interpretation or for event detection
- G01V1/282—Application of seismic models, synthetic seismograms
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V1/00—Seismology; Seismic or acoustic prospecting or detecting
- G01V1/28—Processing seismic data, e.g. for interpretation or for event detection
- G01V1/30—Analysis
- G01V1/303—Analysis for determining velocity profiles or travel times
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Environmental & Geological Engineering (AREA)
- Geology (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Geophysics (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Complex Calculations (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及地震资料速度建模方法、存储介质及计算设备,该方法包括以下步骤:S1:随机生成一定数量的地震资料的速度模型;S2:对每个速度模型进行正演模拟,获得与其对应的单炮记录;S3:基于卷积神经网络构建用于速度建模的卷积自编码器模型;S4:将获得的单炮记录和速度模型分别作为所述卷积自编码器模型的输入和期望输出,并利用随机梯度下降法对所述卷积自编码器模型进行训练更新,直至训练结束;S5:采集实际的单炮记录作为训练后的所述卷积自编码器模型的输入,并将训练后的所述卷积自编码器模型的输出作为速度模型。
Description
技术领域
本发明涉及地震勘探技术领域,尤其涉及一种基于卷积神经网络的地震资料速度建模方法、存储介质及计算设备。
背景技术
速度建模是地震勘探的关键技术,其目的是为了获得对地下介质的地震速度的准确描述。在地震数据处理工作的诸多阶段,速度都是至关重要的影响因素,速度模型的精度直接决定了成像结果的好坏,应用准确的速度模型可以得到精确的偏移成像结果。
速度建模过程通常是一个迭代过程,更精确的描述需要更多的迭代次数,也就意味着需要更多的时间和人力投入,所以对于生产而言,并不是越精细越好。速度建模应该精细到什么程度,主要由以下因素决定:首先地震资料有其分辨率的限制,地震数据的时间分辨率决定了对纵向速度变化描述的最大能力。其次,速度模型中低波数成分控制着宏观地质构造轮廓的成像精度,高波数成分对于小构造精细化成像更加重要。因此,在速度建模中首先要保证中低波数的反演精度,再追求更为精确的高波数成分。
目前,常规速度建模方法是基于速度谱的速度分析,通常需假设地下结构为平层,该假设有很大局限性的。地层成层沉积过程中,区域应力的差异会导致速度出现剧烈的横向速度变化,这是导致速度分析方法失败的主要原因,特别是地下地质结构非常复杂的情况下,应用常规速度分析会使速度建模结果相距实际情况甚远,最终影响叠加或者偏移成像的效果。
层析反演技术的出现提高了速度建模的精度,该方法主要是以地震波走势作为反演的数据空间,寻找与其相容度尽可能好的模型。这其中,反射层析是最经典的层析成像方法,通过射线追踪建立速度场与反射波走时的层析反演矩阵,从而达到精确速度建模的目的。但是,基于射线追踪的速度建模技术难以模拟真正的波传播,所建速度模型往往是低波数分量,因此最近几年又提出了高斯束速度建模技术和全波形速度反演技术用于提高速度建模的中高波数分量。虽然高斯束速度建模技术和全波形速度反演技术能够提高速度建模的精度,但是由于计算方法复杂,计算效率低下,所耗费的人力和物力较大,且过多的输入参数也使得计算结果的精度依赖于操作人员的经验及主观判断力。
发明内容
本发明所要解决的技术问题是:现有的地震资料速度建模方法获得的速度模型与实际结果相差大,计算过程复杂,建模精度低且依赖于操作人员的经验及主观判断力。
为了解决上述技术问题,本发明提供了一种基于卷积神经网络的地震资料速度建模方法、存储介质及计算设备。
根据本发明的一个方面,提供了一种地震资料速度建模方法,该方法包括以下步骤:
S1:随机生成一定数量的地震资料的速度模型;
S2:对每个速度模型进行正演模拟,获得与其对应的单炮记录;
S3:基于卷积神经网络构建用于速度建模的卷积自编码器模型;
S4:将获得的单炮记录和速度模型分别作为所述卷积自编码器模型的输入和期望输出,并利用随机梯度下降法对所述卷积自编码器模型进行训练更新,直至训练结束;以及
S5:采集实际的单炮记录作为训练后的所述卷积自编码器模型的输入,并将训练后的所述卷积自编码器模型的输出作为速度模型。
优选地,所述卷积自编码器模型包括编码架构和解码架构;
其中,编码架构包括:卷积层、池化层和全连接层;
其中,解码架构包括:全连接层、反池化层和反卷积层。
优选地,步骤S4包括:
步骤S41:对输入的单炮记录进行编码,以生成深层特征图谱;
步骤S42:对所述深层特征图谱进行解码,以得到所述卷积自编码器模型的实际输出;
步骤S43:确定用于判断所述卷积自编码器模型的实际输出和期望输出的误差的价值函数;
步骤S44:利用所述价值函数对卷积核的权重W进行求导,并得到求导结果;以及
步骤S45:利用随机梯度下降法和所述求导结果更新卷积核的权重W,以实现所述卷积自编码器模型的训练更新。
优选地,步骤S41包括:
卷积层利用二维卷积算法提取出每个单炮记录的特征图;
池化层按照最大池化原则对提取出的特征图进行池化操作;
全连接层通过权值矩阵将池化后的特征图进行连接,形成深层特征图谱。
优选地,步骤S42包括:
全连接层读取所述深层特征图谱;
反池化层利用双线性内插算法对所述深层特征图谱进行反池化操作;
反卷积层基于反池化层的结果通过反卷积操作获得所述卷积自编码器模型的实际输出。
优选地,步骤S43包括:
将最小均方差函数作为用于判断所述卷积自编码器模型的实际输出和期望输出的误差的价值函数,所述价值函数满足:
其中,E(W)表示所述卷积自编码器模型的实际输出和期望输出的误差,i表示第i个数据样本,n表示样本总数,yw,i(x)表示第i个数据样本的卷积自编码器模型的实际输出,yi表示i个数据样本的卷积自编码器模型的期望输出,W表示卷积操作中的卷积核的权重,表示Frobenius-范数。
优选地,步骤S44包括:
确定所述价值函数后,利用所述价值函数对卷积核的权重W进行求导,并得到求导结果;
其中,对所述价值函数进行求导满足:
优选地,步骤S45包括:
利用随机梯度下降法和所述求导结果更新卷积核的权重W,以实现所述卷积自编码器模型的训练更新,训练更新的表达式为:
其中,α表示梯度下降步长,Wn-1表示更新前的卷积核的权重,Wn表示更新后的卷积核的权重。
根据本发明的另一个方面,提供了一种存储介质,其上存储有可执行代码,所述可执行代码在被处理器执行时实现上述的地震资料速度建模方法。
根据本发明的又一个方面,提供了一种计算设备,包括:
处理器;以及
存储器,其上存储有可执行代码,所述可执行代码在被所述处理器执行时实现上述的地震资料速度建模方法。
与现有技术相比,上述方案中的一个或多个实施例可以具有如下优点或有益效果:
应用本发明实施例提供的地震资料速度建模方法,本方法将深度学习算法中的卷积神经网络应用到地震资料速度建模之中,搭建适合于速度建模的卷积自编码器模型。并且,本方法采用自监督学习方式,利用大量数据训练卷积自编码器模型,通过所得卷积自编码器模型实现了地震资料速度建模。通过对训练后的卷积自编码器模型进行测试,实验结果表明,该模型能够实现速度建模,且具有较强的建模能力。
此外,相比于现有技术,本发明实施例还具有如下优点或有益效果:
1)本方法利用二维卷积算法,挖掘地震单炮记录的特征信息;
2)本方法利用最大池化准则作为池化层,减少卷积自编码器模型的权重数量,实现数据的低秩降维;
3)本方法将ReLU函数作为模型的激活函数,提高了卷积自编码器模型的非线性表达能力;
4)本方法利用全连接层将提取的地震数据特征联系到一起,形成深层特征图谱;
5)本方法将双线性内插算法引入卷积自编码器模型中,用于数据尺寸的恢复,实现单炮记录对速度模型的映射关系;
6)更新模型方面,本方法采用随机梯度下降法实现了模型的训练更新。
本发明的其它特征和优点将在随后的说明书中阐述,并且部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在说明书、权利要求书以及说明书附图中所特别指出的结构来实现和获得。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例共同用于解释本发明,并不构成对本发明的限制。
图1为根据本发明实施例的地震资料速度建模方法的流程图。
图2示出了根据本发明实施例的卷积自编码器模型。
图3示出了根据本发明实施例随机生成的一个速度模型。
图4示出了根据本发明实施例的图3所示的速度模型生成的单炮记录。
图5示出了根据本发明实施例的卷积自编码器模型训练阶段的收敛曲线。
图6a示出了测试数据集中某个单炮记录的期望输出,图6b示出了该单炮记录通过训练后的卷积自编码器模型得到的速度模型。
图7为根据本发明实施例的地震资料速度建模方法得到的速度模型与期望输出的单道对比图。
具体实施方式
以下将结合附图及实施例来详细说明本发明的实施方式,借此对本发明如何应用技术手段来解决技术问题,并达成技术效果的实现过程能充分理解并据以实施。需要说明的是,只要不构成冲突,本发明中的各个实施例以及各实施例中的各个特征可以相互结合,所形成的技术方案均在本发明的保护范围之内。
卷积神经网络算法的出现推动了深度学习在各个领域的应用。随着地震勘探进度的不断深入,地震采集积累了大量的数据。深度学习算法能够充分利用冗余数据进行数据挖掘,通过提取的特征不断地训练模型,实现模型进化,从而达到智能化的目的。
为了解决现有技术中地震资料速度建模方法获得的速度模型与实际结果相差大、计算过程复杂以及建模精度低且依赖于操作人员的经验及主观判断力的技术问题,本发明实施例提供了一种基于卷积神经网络的地震资料速度建模方法、存储介质及计算设备。
具体而言,本发明实施例以地震单炮记录作为输入,通过二维卷积算法提取出地震单炮记录的特征信息,采用最大池化准则作为池化层,实现数据的压缩降维,然后利用全连接层将所有的提取特征连接到一起,再通过双线性内插算法实现反池化操作,实现数据尺寸还原,完成数据-数据的模型映射。
相比于现有技术,本发明实施例将基于深度学习的算法引入到地震速度建模中。通过搭建卷积神经网络模型,利用海量数据训练更新,从而提高速度建模的效率,减少人为干预对结果造成的影响,所得结果更加客观,实现真正意义上的“智能化”速度建模。
实施例一
图1为根据本发明实施例的地震资料速度建模方法的流程图。如图1所示,该方法包括:
S1:随机生成一定数量的地震资料的速度模型;
S2:对每个速度模型进行正演模拟,获得与其对应的单炮记录;
S3:基于卷积神经网络构建用于速度建模的卷积自编码器模型;
S4:将获得的单炮记录和速度模型分别作为所述卷积自编码器模型的输入和期望输出,并利用随机梯度下降法对所述卷积自编码器模型进行训练更新,直至训练结束;以及
S5:采集实际的单炮记录作为训练后的所述卷积自编码器模型的输入,并将训练后的所述卷积自编码器模型的输出作为速度模型。
在步骤S1中,速度模型可通过实验随机生成,或者也可以通过在历史的勘探资料中随机挑选获得,本发明不限于此。在本发明实施例中,速度模型的层位数量、地层倾角和层速度均为随机产生。此外,速度模型的数量可根据实际情况灵活调整,本发明亦不限于此。需要说明的是,为了使得训练阶段的数据多样化、随机性强,速度模型的数量最好不低于1000个。
在步骤S2中,将步骤S1随机生成的速度模型进行正演模拟,对应生成单炮记录。其中,单炮记录与速度模型之间一一对应。具体的激发方式可以采用中间放炮、两边接收的激发方式,也可以采用单侧放炮、单侧接收的激发方式,当然也可以采用其他的激发方式,本发明不限于此。
在步骤S3中,基于卷积神经网络构建用于速度建模的卷积自编码器模型。在本发明实施例中,所构建的卷积自编码器模型包括:编码架构和解码架构。在实际中,也可以称为编码过程和解码过程。其中,编码架构包括:卷积层、池化层和全连接层。其中,解码架构包括:全连接层、反池化层和反卷积层。
图2示出了根据本发明实施例的卷积自编码器模型。如图2所示,编码架构包括三个卷积层、三个池化层和一个全连接层。解码架构包括三个反卷积层、三个反池化层和一个全连接层。其中,三个卷积层与三个池化层交替排列,三个反卷积层与三个反池化层交替排列。需要说明的是,卷积自编码器模型中卷积层、池化层、全连接层、反池化层和反卷积层的数量可根据实际情况灵活设定,本发明不限于此。
在本发明实施例中,优选地,利用二维卷积算法作为卷积层的核心算法,用于提取特征信息;利用最大池化准则作为池化层,用于减少卷积自编码器模型的权重数量,实现数据的低秩降维;利用双线性内插算法作为反池化层的核心算法,用于数据尺寸的恢复,实现数据与数据的映射。
需要说明的是,步骤S3也可以在步骤S1之前执行,本发明不限于此。
在步骤S4中,对步骤S3构建的卷积自编码器模型进行训练更新。具体地,将步骤S2获得的单炮记录作为卷积自编码器模型的输入,对应地,将步骤S1获得的速度模型作为卷积自编码器模型的期望输出,对卷积自编码器模型进行训练。
具体地,步骤S4包括:
步骤S41:对输入的单炮记录进行编码,以生成深层特征图谱;
步骤S42:对所述深层特征图谱进行解码,以得到所述卷积自编码器模型的实际输出;
步骤S43:确定用于判断所述卷积自编码器模型的实际输出和期望输出的误差的价值函数;
步骤S44:利用所述价值函数对卷积核的权重W进行求导,并得到求导结果;以及
步骤S45:利用随机梯度下降法和所述求导结果更新卷积核的权重W,以实现所述卷积自编码器模型的训练更新。
如图2所示,在输入单炮记录之后,首先,进入解码过程,即执行步骤S41:对输入的单炮记录进行编码,以生成深层特征图谱。具体地,步骤S41包括:
首先,卷积层通过卷积操作提取出每个单炮记录的特征图。具体地,卷积操作为二维卷积算法,在卷积操作中:初始化k个卷积核W’,并且每个卷积核搭配一个偏置b,与模型输入x卷积后生成k个特征图h,其公式如下:
hk=σ(x·W'k+bk)
其中,hk表示第k个特征图;x表示卷积自编码器模型的输入,即单炮记录;W'k表示第k个卷积核,bk表示第k个偏置。
其中,上述公式中σ表示激活函数,优选采用ReLU函数,其定义为:
其中,a表示激活函数的输入,f表示激活函数的输出。激活函数的作用是用来加入非线性因素,提高神经网络对模型的表达能力,解决线性模型所不能解决的问题。有了这样的非线性激活函数后,神经网络的表达能力更加强大。
接下来,池化层按照最大池化原则对提取出的特征图进行池化操作。具体地,池化层分为多个池化区域,每个池化区域对应每个特征图中的一部分(特征图局部),最大池化原则便是获取每个池化区域中的最大值作为区域池化结果,其公式如下:
φ=max-pooling(m1,m2,…,mn)
其中,m1,m2,…,mn表示池化区域中的每一个单元,最大池化准则即从每个池化区域中选出最大值赋给φ作为区域池化结果。
接下来,全连接层进行全连接操作,将提取的所有局部特征重新通过权值矩阵组装成完整的数据。具体地,全连接层通过权值矩阵将池化后的特征图进行连接,形成深层特征图谱,其公式如下:
其中,(a1,a2,…,aj)表示全连接层生成的深层特征图谱,
其中,表示卷积自编码器模型的权值矩阵,/>表示全连接层的数据扰动项,xj表示通过三层卷积神经网络后提取到的第j个特征图谱。
接下来,进入解码过程,即执行步骤S42:对深层特征图谱进行解码,以得到卷积自编码器模型的实际输出。具体地,步骤S42包括:
首先,全连接层读入深层特征图谱。
接下来,反池化层对深层特征图谱进行反池化操作。具体地,反池化层利用双线性内插算法将深层特征图谱中的数据还原到原始大小的矩阵的相应位置,也可以理解为利用双线性内插算法将深层特征图谱中的数据还原到与池化前的特征图同样大小的矩阵(特征图)中,并且将数据放置在之前应有的位置上,得到反池化后的特征图h’,并实现单炮记录对速度模型的映射关系。
接下来,反卷积层基于反池化层的结果通过反卷积操作获得卷积自编码器模型的实际输出。具体地,对反池化后的特征图h’和与其对应的卷积核W’的转置进行卷积操作并将结果求和后再加上偏置c,以得到卷积自编码器模型的实际输出,其公式如下:
其中,y表示卷积自编码器模型的实际输出;W”k表示第k个卷积核W’的转置。
在得到卷积自编码器模型的实际输出之后,执行步骤S43,将最小均方差函数作为用于判断所述卷积自编码器模型的实际输出和期望输出的误差的价值函数或称训练误差函数,表达式如下:
其中,E(W)表示所述卷积自编码器模型的实际输出和期望输出的误差,i表示第i个数据样本,n表示样本总数,yw,i(x)表示第i个数据样本的卷积自编码器模型的实际输出,yi表示i个数据样本的卷积自编码器模型的期望输出,W表示卷积操作中的卷积核的权重,表示Frobenius-范数。
在本发明实施例中,数据样本指的是单炮记录,即一个单炮记录就是一个数据样本。
确定完价值函数后,接下来,执行步骤S44,利用该价值函数对卷积核的权重W进行求导,并得到求导结果。其中,对所述价值函数进行求导满足:
再接下来,执行步骤S45,利用随机梯度下降法和求导结果更新卷积核的权重W,实现卷积自编码器模型的训练更新,其依据如下表达式:
其中,α表示梯度下降步长,Wn-1表示更新前的卷积核的权重,Wn表示更新后的卷积核的权重。
通过不断地对卷积核的权重W进行迭代计算,实现模型的训练进化更新,直到完成所有样本的训练为止。
在步骤S5中,在卷积自编码器模型训练完成后,采集实际的单炮记录作为训练后的卷积自编码器模型的输入,并将训练后的卷积自编码器模型的输出作为速度模型,即基于训练后的卷积自编码器模型就可以实现单炮记录到速度模型的转换,达到地震资料速度建模的目的。
综上所述,本发明实施例提供了一种地震资料速度建模方法,本方法将深度学习算法中的卷积神经网络应用到地震资料速度建模之中,搭建适合于速度建模的卷积自编码器模型。并且,本方法采用自监督学习方式,利用大量数据训练卷积自编码器模型,通过所得卷积自编码器模型实现了地震资料速度建模。通过对训练后的卷积自编码器模型进行测试,实验结果表明,该模型能够实现速度建模,且具有较强的建模能力。
此外,相比于现有技术,本方法还具有如下优点或有益效果:
1)本方法利用二维卷积算法,挖掘地震单炮记录的特征信息;
2)本方法利用最大池化准则作为池化层,减少卷积自编码器模型的权重数量,实现数据的低秩降维;
3)本方法将ReLU函数作为模型的激活函数,提高了卷积自编码器模型的非线性表达能力;
4)本方法利用全连接层将提取的地震数据特征联系到一起,形成深层特征图谱;
5)本方法将双线性内插算法引入卷积自编码器模型中,用于数据尺寸的恢复,实现单炮记录对速度模型的映射关系;
6)更新模型方面,本方法采用随机梯度下降法实现了模型的训练更新。
实施例二
为了便于本发明的理解和说明,本发明实施例二结合速度建模实验对实施例一提供的地震资料速度建模方法作出进一步说明。本发明实施例二提供了一种地震资料速度建模方法,如图1所示,该方法包括:
S1:随机生成一定数量的地震资料的速度模型;
S2:对每个速度模型进行正演模拟,获得与其对应的单炮记录;
S3:基于卷积神经网络构建用于速度建模的卷积自编码器模型;
S4:将获得的单炮记录和速度模型分别作为所述卷积自编码器模型的输入和期望输出,并利用随机梯度下降法对所述卷积自编码器模型进行训练更新,直至训练结束;以及
S5:采集实际的单炮记录作为训练后的所述卷积自编码器模型的输入,并将训练后的所述卷积自编码器模型的输出作为速度模型。
为了获得适用性强的卷积自编码器模型,使得训练阶段的数据多样化、随机性强。
在步骤S1中,通过实验随机生成11000个速度模型,并将其中的10000个用于模型训练,1000个用于模型测试。其中,速度模型的层位数量在2~11层之间随机生成,地层倾角在-60°~60°之间随机生成,层速度在2500~6500m/s随机生成,以确保生成样本的随机性。
图3示出了根据本发明实施例随机生成的一个速度模型。如图3所示,该速度模型为训练集中随机生成的10000个速度模型之一。其中,速度模型中的层位数量、层速度和构造特征均为随机产生,以保证样本的随机性。
在步骤S2中,利用各速度模型进行正演模拟,每个速度模型对应生成一个单炮记录。
图4示出了根据本发明实施例的图3所示的速度模型生成的单炮记录。如图4所示,本次所采用的激发方式为:采用中间放炮,两边接收的观测系统,左右两边各放置64个检波器,共128道接收,偏移距为50m,纵向采样点为1000,采样间隔为4ms。
其中,单炮记录大小为128x1000,该尺寸可根据实际资料的需求调整。11000个单炮记录中10000个用于模型训练,1000个用于模型测试。
在步骤S3中,基于卷积神经网络构建用于速度建模的卷积自编码器模型。在本发明实施例中,所构建的卷积自编码器模型包括:编码架构和解码架构。在实际中,也可以称为编码过程和解码过程。其中,编码架构包括:卷积层、池化层和全连接层。其中,解码架构包括:全连接层、反池化层和反卷积层。
图2示出了根据本发明实施例的卷积自编码器模型。如图2所示,编码架构包括三个卷积层、三个池化层和一个全连接层。解码架构包括三个反卷积层、三个反池化层和一个全连接层。其中,三个卷积层与三个池化层交替排列,三个反卷积层与三个反池化层交替排列。需要说明的是,卷积自编码器模型中卷积层、池化层、全连接层、反池化层和反卷积层的数量可根据实际情况灵活设定,本发明不限于此。
在本发明实施例中,优选地,利用二维卷积算法作为卷积层的核心算法,用于提取特征信息;利用最大池化准则作为池化层,用于减少卷积自编码器模型的权重数量,实现数据的低秩降维;利用双线性内插算法作为反池化层的核心算法,用于数据尺寸的恢复,实现数据与数据的映射。
需要说明的是,步骤S3也可以在步骤S1之前执行,本发明不限于此。
在步骤S4中,对步骤S3构建的卷积自编码器模型进行训练更新。具体地,将步骤S2获得的10000个单炮记录作为卷积自编码器模型的输入,对应地,将步骤S1获得的10000个速度模型作为卷积自编码器模型的期望输出,对卷积自编码器模型进行训练。
具体地,步骤S4包括:
步骤S41:对输入的单炮记录进行编码,以生成深层特征图谱;
步骤S42:对所述深层特征图谱进行解码,以得到所述卷积自编码器模型的实际输出;
步骤S43:确定用于判断所述卷积自编码器模型的实际输出和期望输出的误差的价值函数;
步骤S44:利用所述价值函数对卷积核的权重W进行求导,并得到求导结果;以及
步骤S45:利用随机梯度下降法和所述求导结果更新卷积核的权重W,以实现所述卷积自编码器模型的训练更新。
如图2所示,在输入单炮记录之后,首先,进入解码过程,即执行步骤S41:对输入的单炮记录进行编码,以生成深层特征图谱。具体地,步骤S41包括:
首先,卷积层通过卷积操作提取出每个单炮记录的特征图。具体地,卷积操作为二维卷积算法,在卷积操作中:初始化k个卷积核W’,并且每个卷积核搭配一个偏置b,与模型输入x卷积后生成k个特征图h,其公式如下:
hk=σ(x·W'k+bk)
其中,hk表示第k个特征图;x表示卷积自编码器模型的输入,即单炮记录;W'k表示第k个卷积核,bk表示第k个偏置。
其中,上述公式中σ表示激活函数,优选采用ReLU函数,其定义为:
其中,a表示激活函数的输入,f表示激活函数的输出。激活函数的作用是用来加入非线性因素,提高神经网络对模型的表达能力,解决线性模型所不能解决的问题。有了这样的非线性激活函数后,神经网络的表达能力更加强大。
接下来,池化层按照最大池化原则对提取出的特征图进行池化操作。具体地,池化层分为多个池化区域,每个池化区域对应每个特征图中的一部分(特征图局部),最大池化原则便是获取每个池化区域中的最大值作为区域池化结果,其公式如下:
φ=max-pooling(m1,m2,…,mn)
其中,m1,m2,…,mn表示池化区域中的每一个单元,最大池化准则即从每个池化区域中选出最大值赋给φ作为区域池化结果。
接下来,全连接层进行全连接操作,将提取的所有局部特征重新通过权值矩阵组装成完整的数据。具体地,全连接层通过权值矩阵将池化后的特征图进行连接,形成深层特征图谱,其公式如下:
其中,(a1,a2,…,aj)表示全连接层生成的深层特征图谱,
其中,表示卷积自编码器模型的权值矩阵,/>表示全连接层的数据扰动项,xj表示通过三层卷积神经网络后提取到的第j个特征图谱。
接下来,进入解码过程,即执行步骤S42:对深层特征图谱进行解码,以得到卷积自编码器模型的实际输出。具体地,步骤S42包括:
首先,全连接层读入深层特征图谱。
接下来,反池化层对深层特征图谱进行反池化操作。具体地,反池化层利用双线性内插算法将深层特征图谱中的数据还原到原始大小的矩阵的相应位置,也可以理解为利用双线性内插算法将深层特征图谱中的数据还原到与池化前的特征图同样大小的矩阵(特征图)中,并且将数据放置在之前应有的位置上,得到反池化后的特征图h’,并实现单炮记录对速度模型的映射关系。
接下来,反卷积层基于反池化层的结果通过反卷积操作获得卷积自编码器模型的实际输出。具体地,对反池化后的特征图h’和与其对应的卷积核W’的转置进行卷积操作并将结果求和后再加上偏置c,以得到卷积自编码器模型的实际输出,其公式如下:
其中,y表示卷积自编码器模型的实际输出;W”k表示第k个卷积核W’的转置。
在得到卷积自编码器模型的实际输出之后,执行步骤S43,将最小均方差函数作为用于判断所述卷积自编码器模型的实际输出和期望输出的误差的价值函数或称训练误差函数,表达式如下:
其中,E(W)表示所述卷积自编码器模型的实际输出和期望输出的误差,i表示第i个数据样本,n表示样本总数,yw,i(x)表示第i个数据样本的卷积自编码器模型的实际输出,yi表示i个数据样本的卷积自编码器模型的期望输出,W表示卷积操作中的卷积核的权重,表示Frobenius-范数。
在本发明实施例中,数据样本指的是单炮记录,即一个单炮记录就是一个数据样本。
确定完价值函数后,接下来,执行步骤S44,利用该价值函数对卷积核的权重W进行求导,并得到求导结果。其中,对所述价值函数进行求导满足:
再接下来,执行步骤S45,利用随机梯度下降法和求导结果更新卷积核的权重W,实现卷积自编码器模型的训练更新,其依据如下表达式:
其中,α表示梯度下降步长,Wn-1表示更新前的卷积核的权重,Wn表示更新后的卷积核的权重。
通过不断地对卷积核的权重W进行迭代计算,实现模型的训练进化更新,直到完成所有样本的训练为止。
在步骤S5中,在卷积自编码器模型训练完成后,采集实际的单炮记录作为训练后的卷积自编码器模型的输入,并将训练后的卷积自编码器模型的输出作为速度模型,即基于训练后的卷积自编码器模型就可以实现单炮记录到速度模型的转换,达到地震资料速度建模的目的。
图5示出了根据本发明实施例的卷积自编码器模型训练阶段的收敛曲线。其中,横坐标为迭代次数,纵坐标为训练误差(%)。如图5所示,该卷积自编码器模型在训练时收敛迅速,在迭代600次时,训练误差便可降到10%。
图6a示出了测试数据集中某个单炮记录的期望输出,图6b示出了该单炮记录通过训练后的卷积自编码器模型得到的速度模型。如图6a和图6b所示,该单炮记录通过训练后的卷积自编码器模型得到的速度模型相对于期望值(实际结果)而言,误差小且整体效果良好。
图7为根据本发明实施例的地震资料速度建模方法得到的速度模型与期望输出的单道对比图。其中,横坐标表示时间(ms),纵坐标表示速度(m/s)。如图7所示,通过对比单道(第60道)的利用地震资料速度建模方法得到的速度模型与期望输出,可以看出,利用本方法获得的训练后的卷积自编码器模型能够实现速度建模,且建模效果良好。
综上所述,本发明实施例提供了一种地震资料速度建模方法,本方法将深度学习算法中的卷积神经网络应用到地震资料速度建模之中,搭建适合于速度建模的卷积自编码器模型。并且,本方法采用自监督学习方式,利用大量数据训练卷积自编码器模型,通过所得卷积自编码器模型实现了地震资料速度建模。通过对训练后的卷积自编码器模型进行测试,实验结果表明,该模型能够实现速度建模,且具有较强的建模能力。
此外,相比于现有技术,本方法还具有如下优点或有益效果:
1)本方法利用二维卷积算法,挖掘地震单炮记录的特征信息;
2)本方法利用最大池化准则作为池化层,减少卷积自编码器模型的权重数量,实现数据的低秩降维;
3)本方法将ReLU函数作为模型的激活函数,提高了卷积自编码器模型的非线性表达能力;
4)本方法利用全连接层将提取的地震数据特征联系到一起,形成深层特征图谱;
5)本方法将双线性内插算法引入卷积自编码器模型中,用于数据尺寸的恢复,实现单炮记录对速度模型的映射关系;
6)更新模型方面,本方法采用随机梯度下降法实现了模型的训练更新。
实施例三
本实施例还提供了一种计算机可读存储介质,如闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘、服务器、App应用商城等等,其上存储有计算机程序,所述计算机程序被处理器执行时可以实现如下方法步骤:
S1:随机生成一定数量的地震资料的速度模型;
S2:对每个速度模型进行正演模拟,获得与其对应的单炮记录;
S3:基于卷积神经网络构建用于速度建模的卷积自编码器模型;
S4:将获得的单炮记录和速度模型分别作为所述卷积自编码器模型的输入和期望输出,并利用随机梯度下降法对所述卷积自编码器模型进行训练更新,直至训练结束;以及
S5:采集实际的单炮记录作为训练后的所述卷积自编码器模型的输入,并将训练后的所述卷积自编码器模型的输出作为速度模型。
上述方法步骤的具体实施例过程可参见实施例一,本实施例在此不再重复赘述。
相应地,本发明实施例还提供一种计算设备,包括:
处理器;以及
存储器,其上存储有可执行代码,所述可执行代码在被所述处理器执行时实现上述实施例一或实施例二提供的的地震资料速度建模方法。
本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
虽然本发明所公开的实施方式如上,但所述的内容只是为了便于理解本发明而采用的实施方式,并非用以限定本发明。任何本发明所属技术领域内的技术人员,在不脱离本发明所公开的精神和范围的前提下,可以在实施的形式上及细节上作任何的修改与变化,但本发明的保护范围,仍须以所附的权利要求书所界定的范围为准。
Claims (6)
1.一种地震资料速度建模方法,其特征在于,包括以下步骤:
S1:随机生成一定数量的地震资料的速度模型;
S2:对每个速度模型进行正演模拟,获得与其对应的单炮记录;
S3:基于卷积神经网络构建用于速度建模的卷积自编码器模型;所述卷积自编码器模型包括编码架构和解码架构;其中,编码架构包括:卷积层、池化层和全连接层;其中,解码架构包括:全连接层、反池化层和反卷积层;
S4:将获得的单炮记录和速度模型分别作为所述卷积自编码器模型的输入和期望输出,并利用随机梯度下降法对所述卷积自编码器模型进行训练更新,直至训练结束;以及
S5:采集实际的单炮记录作为训练后的所述卷积自编码器模型的输入,并将训练后的所述卷积自编码器模型的输出作为速度模型;
步骤S4包括:
步骤S41:对输入的单炮记录进行编码,以生成深层特征图谱;
步骤S42:对所述深层特征图谱进行解码,以得到所述卷积自编码器模型的实际输出;
步骤S43:确定用于判断所述卷积自编码器模型的实际输出和期望输出的误差的价值函数;
步骤S44:利用所述价值函数对卷积核的权重W进行求导,并得到求导结果;以及
步骤S45:利用随机梯度下降法和所述求导结果更新卷积核的权重W,以实现所述卷积自编码器模型的训练更新;
步骤S41包括:
卷积层利用二维卷积算法提取出每个单炮记录的特征图;
池化层按照最大池化原则对提取出的特征图进行池化操作;
全连接层通过权值矩阵将池化后的特征图进行连接,形成深层特征图谱;
步骤S42包括:
全连接层读取所述深层特征图谱;
反池化层利用双线性内插算法对所述深层特征图谱进行反池化操作;
反卷积层基于反池化层的结果通过反卷积操作获得所述卷积自编码器模型的实际输出。
2.根据权利要求1所述的方法,其特征在于,步骤S43包括:
将最小均方差函数作为用于判断所述卷积自编码器模型的实际输出和期望输出的误差的价值函数,所述价值函数满足:
其中,E(W)表示所述卷积自编码器模型的实际输出和期望输出的误差,i表示第i个数据样本,n表示样本总数,yw,i(x)表示第i个数据样本的卷积自编码器模型的实际输出,yi表示第i个数据样本的卷积自编码器模型的期望输出,W表示卷积操作中的卷积核的权重,表示Frobenius-范数。
3.根据权利要求2所述的方法,其特征在于,步骤S44包括:
确定所述价值函数后,利用所述价值函数对卷积核的权重W进行求导,并得到求导结果;
其中,对所述价值函数进行求导满足:
4.根据权利要求3所述的方法,其特征在于,步骤S45包括:
利用随机梯度下降法和所述求导结果更新卷积核的权重W,以实现所述卷积自编码器模型的训练更新,训练更新的表达式为:
其中,α表示梯度下降步长,Wn-1表示更新前的卷积核的权重,Wn表示更新后的卷积核的权重。
5.一种存储介质,其上存储有可执行代码,所述可执行代码在被处理器执行时实现根据权利要求1至4中任一项所述的地震资料速度建模方法。
6.一种计算设备,包括:
处理器;以及
存储器,其上存储有可执行代码,所述可执行代码在被所述处理器执行时实现根据权利要求1至4中任一项所述的地震资料速度建模方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910810584.1A CN112444850B (zh) | 2019-08-29 | 2019-08-29 | 地震资料速度建模方法、存储介质及计算设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910810584.1A CN112444850B (zh) | 2019-08-29 | 2019-08-29 | 地震资料速度建模方法、存储介质及计算设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112444850A CN112444850A (zh) | 2021-03-05 |
CN112444850B true CN112444850B (zh) | 2024-01-26 |
Family
ID=74741453
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910810584.1A Active CN112444850B (zh) | 2019-08-29 | 2019-08-29 | 地震资料速度建模方法、存储介质及计算设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112444850B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113406695B (zh) * | 2021-05-31 | 2022-12-13 | 长江大学 | 基于层速度地震地质模型的地震反演方法及系统 |
CN114117906B (zh) * | 2021-11-19 | 2024-05-10 | 山东大学 | 基于观测数据自编码的多尺度无监督地震波速反演方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018067258A1 (en) * | 2016-10-06 | 2018-04-12 | Qualcomm Incorporated | Neural network for image processing |
CN109087259A (zh) * | 2018-08-01 | 2018-12-25 | 中国石油大学(北京) | 基于卷积自编码器的叠前数据去噪方法及系统 |
CN110007347A (zh) * | 2019-04-09 | 2019-07-12 | 西南石油大学 | 一种深度学习地震资料去噪方法 |
CN110045419A (zh) * | 2019-05-21 | 2019-07-23 | 西南石油大学 | 一种感知器残差自编码网络地震资料去噪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7974824B2 (en) * | 2007-06-29 | 2011-07-05 | Westerngeco L. L. C. | Seismic inversion of data containing surface-related multiples |
-
2019
- 2019-08-29 CN CN201910810584.1A patent/CN112444850B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018067258A1 (en) * | 2016-10-06 | 2018-04-12 | Qualcomm Incorporated | Neural network for image processing |
CN109087259A (zh) * | 2018-08-01 | 2018-12-25 | 中国石油大学(北京) | 基于卷积自编码器的叠前数据去噪方法及系统 |
CN110007347A (zh) * | 2019-04-09 | 2019-07-12 | 西南石油大学 | 一种深度学习地震资料去噪方法 |
CN110045419A (zh) * | 2019-05-21 | 2019-07-23 | 西南石油大学 | 一种感知器残差自编码网络地震资料去噪方法 |
Non-Patent Citations (2)
Title |
---|
"基于一维卷积自编码器—高斯混合模型的间歇过程故障检测";王硕;《信息与控制》;第48卷(第3期);全文 * |
Velocity model building with a modified fully convolutional network;Wenlong Wang et al.;SEG International Exposition and 88th Annual Meeting;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112444850A (zh) | 2021-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hong et al. | Rapid estimation of permeability from digital rock using 3D convolutional neural network | |
CN112541572B (zh) | 基于卷积编码器-解码器网络的剩余油分布预测方法 | |
Bi et al. | Deep relative geologic time: A deep learning method for simultaneously interpreting 3‐D seismic horizons and faults | |
CN111832227B (zh) | 基于深度学习的页岩气饱和度确定方法、装置和设备 | |
CN112444850B (zh) | 地震资料速度建模方法、存储介质及计算设备 | |
Wang et al. | Seismic velocity inversion transformer | |
CN113359212A (zh) | 一种基于深度学习的储层特征预测方法及模型 | |
CN114154427A (zh) | 基于深度学习的体积压裂裂缝扩展预测方法和系统 | |
Li et al. | Reconstructing the 3D digital core with a fully convolutional neural network | |
CN117635444A (zh) | 基于辐射差和空间距离的深度补全方法、装置和设备 | |
CN117250667A (zh) | 基于U-Net增强网络对地下密度快速成像方法及系统 | |
CN116224265A (zh) | 探地雷达数据反演方法、装置、计算机设备及存储介质 | |
CN116011338A (zh) | 一种基于自编码器和深度神经网络的全波形反演方法 | |
CN113419278B (zh) | 一种基于状态空间模型与支持向量回归的井震联合多目标同时反演方法 | |
CN114841892A (zh) | 一种基于全连接网络的稀疏导波数据恢复方法 | |
Li et al. | Seismic full-waveform inversion based on superresolution for high-precision prediction of reservoir parameters | |
CN117492079B (zh) | 基于TDS-Unet网络的地震速度模型重构方法、介质和设备 | |
CN115480306B (zh) | 一种基于深度学习的隧道全波形反演优化方法及系统 | |
CN113705770B (zh) | 一种神经网络系统、叠前弹性阻抗反演方法及存储介质 | |
Xie et al. | Lithofacies prediction from core images using Bayesian neural networks | |
CN114185090B (zh) | 岩相和弹性参数同步反演方法、装置、电子设备及介质 | |
CN118033732B (zh) | 一种基于空域频域融合架构的地震数据重建方法 | |
CN113159136B (zh) | 一种孔内数据融合的地层划分方法、装置、设备和存储介质 | |
CN113341460B (zh) | 一种基于连续算子分裂的循环式极小化地震数据重建方法 | |
CN114820329B (zh) | 基于高斯过程大核注意力装置引导的曲面测量方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |