CN110490219B - 一种基于纹理约束的U-net网络进行地震数据重建的方法 - Google Patents
一种基于纹理约束的U-net网络进行地震数据重建的方法 Download PDFInfo
- Publication number
- CN110490219B CN110490219B CN201910591075.4A CN201910591075A CN110490219B CN 110490219 B CN110490219 B CN 110490219B CN 201910591075 A CN201910591075 A CN 201910591075A CN 110490219 B CN110490219 B CN 110490219B
- Authority
- CN
- China
- Prior art keywords
- texture
- network
- reconstruction
- data
- seismic data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000012549 training Methods 0.000 claims abstract description 35
- 238000005457 optimization Methods 0.000 claims abstract description 5
- 238000012360 testing method Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000005728 strengthening Methods 0.000 abstract 1
- 238000013135 deep learning Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000012217 deletion Methods 0.000 description 8
- 230000037430 deletion Effects 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- RZVAJINKPMORJF-UHFFFAOYSA-N Acetaminophen Chemical compound CC(=O)NC1=CC=C(O)C=C1 RZVAJINKPMORJF-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005755 formation reaction Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 229910052704 radon Inorganic materials 0.000 description 1
- SYUHGPGVQRZVTB-UHFFFAOYSA-N radon atom Chemical compound [Rn] SYUHGPGVQRZVTB-UHFFFAOYSA-N 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/10—Pre-processing; Data cleansing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Geophysics And Detection Of Objects (AREA)
Abstract
本发明公开了一种基于纹理约束的U‑net网络进行地震数据重建的方法,包括:S1、利用K‑means算法对训练数据集进行分割,获得训练数据的纹理标签;S2、通过训练数据集和纹理标签训练U‑net网络作为纹理提取器,得到优化的纹理提取器参数;S3、将训练好的纹理提取器与重建网络串联,采用优化的纹理提取器参数,提取重建标签和重建地震数据的纹理信息,获得纹理损失;S4、通过纹理损失优化重建网络后进行地震数据重建。本发明结合地震数据具有丰富的纹理信息这一特点,通过强化对纹理的学习可以在有限样本的情况下提高地震同相轴的重建准确度和连续性。
Description
技术领域
本发明属于人工智能用于地震数据处理技术领域,涉及一种地震数据重建的方法,具体涉及一种基于纹理约束的U-net网络进行地震数据重建的方法。
背景技术
地震勘探是研究地下地质构造的重要方法。然而,由于地表障碍、山川河流等地形限制以及采集过程中的坏道、废道等原因,采集的地震数据沿空间方向通常都是欠采样的,这直接影响后续的偏移成像、反演以及地质构造的解释和描述。因此,对缺失的地震数据进行插值重建,获取高信噪比、高分辨率和高保真度的数据具有重要的实际意义。
目前,地震数据重建方法主要分为:基于预测滤波的重建方法、基于波动方程的重建方法、基于变换域的重建方法以及基于低秩理论的重建方法。基于预测滤波的方法将待重建的地震数据与滤波器进行褶积,包括反假频的f-x域地震道插值方法和t-x域的预测误差滤波技术。基于波动方程的重建方法利用波的传播,通过正演算子和反演算子的迭代求解来实现地震数据的重建。基于变换域的重建方法包括Radon变换、Fourier变换和Curvelet变换,由最小二乘法反演得到变换域系数,然后通过反变换得到理想规则网络上的数据。基于低秩理论的地震数据重建方法基于一个假设:同相轴数量有限的无缺失地震数据在f-x域是低秩的,缺失的数据和随机噪声的存在会增加矩阵或张量的秩。这样,地震数据重建问题就可以转化为矩阵或张量降秩问题。
深度学习(Deep Learning,DL)是人工智能领域新的研究方向,其动机是建立模拟人脑进行分析学习的深度神经网络,已经成功地应用于语音识别、人脸识别、视频分类以及纹理识别等,正推动着人工智能和人机交互大踏步前进。深度学习网络在训练完成后不需要调参,在GPU的环境下可以快速重建大规模数据,这是许多传统算法难以做到的。关于DL运用于地震数据重建方面,主要工作有:Wang等人运用残差网络解决规则缺失的地震数据重建。该方法首先用三次样条对缺失数据做预插值,进一步使用残差网络优化插值结果。研究取得了优于f-x方法的效果,但同时论文也指出该方法的局限性:与训练数据相似度不高的数据,重建效果不好。Dario AB Oliveira等人使用条件生成对抗网络对叠后数据的gap缺失进行研究。文章针对不同缺失宽度(different widths of missing traces)建立了一个网络池,在相关性评价指标上优于单个网络。然而这种网络池方法带来的庞大的数据量与计算量(原样本量为100000个大小256×256个数据,针对6种缺失宽度数据量增加到600000)也是不可忽视的缺点。Sara等人将U-net网络应用在地震数据随机缺失插值问题中,取得了优于SSA算法的效果。
这些研究结果展示了DL在地震数据插值领域的巨大潜力,同时也暴露出一个重要的问题:庞大的训练样本要求与网络难以泛化的问题。即若要网络测试效果好,就需要有大量带标签训练数据,如果训练数据规模不够大,传统的DL网络则不能取得好的泛化性能。
发明内容
本发明的一个目的是解决上述问题,并提供后面将说明的优点。
本发明还有一个目的是提供一种基于纹理约束的U-net网络进行地震数据重建的方法,本发明提供了一种添加纹理约束的U-net网络算法,将其命名为TLUR算法。该算法结合地震数据具有丰富的纹理信息这一特点,通过对纹理的强化学习可以在有限样本的情况下提高地震同相轴的重建准确度和连续性。本发明所提出的算法在叠后数据和叠前数据上的实验结果证明算法具有较高的重建信噪比和泛化能力。
为了实现根据本发明的这些目的和其它优点,提供了一种基于纹理约束的U-net网络进行地震数据重建的方法,其特征在于,包括以下步骤:
步骤1:使用滑动窗口的方式,将某工区采集到的现场数据切分成N×N大小的子块作为训练数据集,通过人为随机缺失50%道获取输入的缺失数据Sinput,完整不缺的数据记Sgt为重建标签;
步骤2:选取3个聚类中心,利用K-means算法对重建标签进行分割,获得重建标签Sgt的纹理Stexture;
步骤3:通过Sgt和Stexture训练U-net网络作为纹理提取器,得到优化后的纹理提取器参数θG;
步骤4:使用U-net网络作为重建网络与训练好的纹理提取器串联,利用重建网络对缺失数据进行重建,获得重建损失,并通过纹理提取器分别提取重建网络的输出结果和重建标签的纹理信息,获得纹理损失;
步骤5:通过所述重建损失和纹理损失优化重建网络后进行地震数据重建。
作为优选,步骤3中所述优化的纹理提取器参数θG通过如下公式获得:
其中,G为纹理提取器,Sgt为纹理提取器的输入数据,x∈Ω,为二维数据每个像素点所对应的位置;函数l(x),x∈Ω,Ω→{1,2,...,K}表示每个位置数据点的真实类别,包括波峰、波谷和背景;为纹理提取器的输出结果,表示x处数据点属于第k类的概率。
作为优选,步骤4中所述纹理损失为重建标签和重建网络的交叉熵损失函数。
作为优选,步骤4中,分别提取重建标签Sgt和重建网络的输出结果的纹理,从而得到所述纹理损失Lt,Lt满足如下公式:
其中,F为重建网络,θF为重建网络的网络参数,Sinput为对训练数据集随机缺失的地震数据,F(Sinput,θF)为重建网络的输出结果。
作为优选,步骤5中,优化重建网络的方式为:
先通过下式计算最终损失L:
L(Sinput,Sgt,θF)=λLr(Sinput,θF)+Lt(Sinput,Sgt,θG,θF)
其中,Lr为重建网络的损失函数,其为重建网络的输出与重建标签的均方误差,λ表示权重;
作为优选,步骤5中,获得优化网络参数θF后,在测试集上评估网络性能,以测试集上的平均信噪比S/R评价网络性能,公式如下:
其中,Sgt为重建标签,Srecon为重建网络的输出结果,且以信噪比最高的模型为最终网络。
作为优选,步骤2中,聚类中心选择3个,每一个通道的分割结果P(k)见公式:
其中,Ωk,k=1,2,3分别表示背景、波峰区域和波谷区域;
本发明至少包括以下有益效果:
本发明的基于纹理约束的U-net网络的地震数据重建方法,使用深度学习的方法,同时考虑了地震数据丰富的纹理特征,通过对纹理的强化学习可以提高地震同相轴的重建准确度和连续性,进而提高重建信噪比。本发明所提出的算法及实现过程可以应用在小样本数据训练上,GPU环境下可以快速准确的完成地震数据的缺失重建,在叠后数据和叠前数据上的实验结果证明算法具有较高的重建信噪比和泛化能力。
本发明的其它优点、目标和特征将部分通过下面的说明体现,部分还将通过对本发明的研究和实践而为本领域的技术人员所理解。
附图说明
图1为本发明的基于纹理约束的U-net网络的地震数据重建方法的TLUR算法框架示意图;
图2为本发明的训练过程中测试集上重建信噪比的对比结果图;
图3为本发明的训练过程中测试集上有无纹理损失Lt的纹理重建效果比较示意图;
图4为叠后数据测试结果对比图,其中(a)为叠后完整数据;(b)为缺失50%的情况;(c)为TLUR重建结果,相应的残差图为(d);(e)为U-net重建结果,相应的残差图为(f);(g)为LMaFit算法的重建结果,相应的残差图为(h);
图5叠后数据频谱对比图,其中(a)为完整数据,(b)为缺失50%数据,(c)为TLUR重建结果,(d)为U-net重建结果,(e)为LMaFit重建结果。
具体实施方式
下面结合附图和实施例对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字能够据以实施。
如图1所示,本发明的TLUR算法由两个U-net网络(F和G)串联组成,其中F网络用来重建地震数据,损失函数为网络的输出与标签的均方误差损失函数Lr,G网络称为纹理提取器,用来提取地震数据的纹理信息,在最终的训练过程中参数固定,作用为提取纹理产生纹理损失Lt辅助优化F网络。本发明首先使用K-means算法提取地震数据的纹理特征,然后使用这些纹理特征作为标签训练纹理提取器G。如图中虚线框所示,G网络在训练好后参数固定,在此处仅仅用作提取纹理产生纹理损失Lt辅助优化F网络。
本发明为解决其技术问题所采用的技术方案是:提供了一种添加纹理约束的U-net网络算法,用于地震数据的缺失重建,包括以下步骤:
利用图像分割算法K-means算法对地震数据进行纹理提取。聚类中心选择3个,最终得到三通道分割图P,每一个通道的分割结果P(k)见公式:
利用K-means的结果作为数据集训练一个U-net网络作为纹理提取器G。损失函数选用输出结果与标签的交叉熵损失,按照如下公式优化网络参数:
其中θG为G网络参数,x∈Ω,表示二维数据的位置坐标。函数l:Ω→{1,2,...,K}表示每个位置数据点x的真实类别。为网络输出(softmax函数将输出表示为分类概率),表示x处数据点属于第k类的概率。优化θG,目标使网络预测x处数据点属于真实类别l(x)的概率接近于1。
将训练好的纹理提取器G串接在重建网络F的后面,分别提取重建标签和F网络的重建结果的纹理信息,为F网络提供纹理损失。其中,参数θG固定。纹理损失Lt表示重建结果与标签在纹理上的差异,表达式如下:
其中,θF为F的网络参数,F(Sinput,θF)为重建网络的输出结果。最终损失为Lr与Lt的加权和,公式如下:
L(Sinput,Sgt,θF)=λLr(Sinput,θF)+Lt(Sinput,Sgt,θG,θF)
λ表示权重,λ值越大则Lr权重越大。其中,θG为已知参数,最终通过求解如下优化问题优化模型参数θF。
使用训练好的网络F进行地震数据重建。
本发明提供了一种基于深度学习的地震数据重建方法,用于对缺失的地震数据进行重建,网络的训练包括以下步骤:
实验使用某一工区的叠后数据训练网络,2501道,每道1011个时间采样点,将其切割成782块128×128大小的小块作为训练数据集Ω:{S1,S2,...,S782}。测试数据为另一工区叠后数据,共包含512道,每道512个时间采样点,同样将其切割成109个128×128大小的小块作为验证集;
(1)使用K-means算法对训练数据集Ω:{S1,S2,...,S782}进行分割,聚类中心选择3个获得训练数据的纹理标签P:{P1,P2,...,P782};
(2)使用数据集Ω:{S1,S2,...,S782}和纹理标签P:{P1,P2,...,P782}训练纹理提取器G,损失函数选用交叉熵损失函数,公式如下:
(3)将训练好的纹理提取器G与F串联,分别提取重建标签Ω:{S1,S2,...,S782}和F网络的重建结果F(Sinput,θF)的纹理信息,为F网络提供纹理损失。F网络的输入为对Ω:{S1,S2,...,S782}进行随机缺失的地震数据maskk为训练过程中第k次迭代的采样算子。训练过程中,参数θG固定。纹理损失Lt表示重建结果与标签在纹理上的差异,表达式如下:
θF为F的网络参数,F(Sinput,θF)为重建网络的输出结果。最终损失为Lr与Lt的加权和,公式如下:
L(Sinput,Sgt,θF)=λLr(Sinput,θF)+Lt(Sinput,Sgt,θG,θF)
λ表示权重,λ值越大则Lr权重越大。其中,θG为已知参数,最终通过求解如下优化问题优化模型参数θF。
训练数据共训练150轮,每轮训练结束后在测试集上评估当前模型性能。以测试集上的平均信噪比(S/R)评价模型性能,公式如下:
其中,Sgt为重建标签,Srecon为重建网络的输出结果,选取信噪比最高的模型为最终模型。
(4)使用训练好的网络F对缺失的地震数据进行重建;
本发明的添加纹理约束的U-net网络以经典的U-net网络作为基础网络,同时考虑了地震数据丰富的纹理信息,相对于经典的U-net网络,可以提高地震同相轴的重建准确度和连续性,进而提高重建信噪比。
图2为训练过程中测试集上平均信噪比,图中虚线为U-net算法结果,实线为TLUR算法结果。从图中可以看出,随着迭代次数的增加,两种算法在测试集上重建信噪比逐渐增加,迭代100轮后趋近收敛。U-net网络在测试集上最优模型信噪比为24.74dB,TLUR模型在测试集上最优模型信噪比为27.76dB,相比U-net网络模型约提高3dB左右。
TLUR提出的纹理损失主要约束重建结果的纹理信息,使得重建结果中地震同相轴连续性更强。实验监控了不同迭代次数下某一块测试数据的重建结果,如图3所示。图中第一行为有纹理损失即TLUR的重建结果,第二行为无纹理损失即U-net的重建结果。从虚线框标识的区域可以看到,迭代10轮的时候TLUR和U-net对纹理的重建均不准确,连续性不强,随着迭代次数的增加TLUR对纹理细节的重建逐渐变得准确,大约在100轮左右得到较好的重建结果,而U-net网络不能解决这个问题。
使用训练好的网络F对叠后数据进行重建,将本发明提出的添加纹理约束的U-net网络与经典的U-net网络以及基于低秩理论的LMaFit(low-rank matrix fitting)地震数据重建方法进行比较。验证本发明提出的添加纹理约束的U-net网络的有效性。
分别使用TLUR,U-net训练好的网络和LMaFit算法对验证集所用的真实叠后数据Spostack进行随机缺失重建。该数据共包含512道,每道512个时间采样点,如图4所示,图4(b)为随机缺失50%的数据,图4(c)和4(d)分别为TLUR算法重建结果和对应的残差图,重建信噪比为33.47dB。图4(e)和4(f)分别为U-net重建结果及残差图,重建信噪比为29.93dB,可以看出U-net重建结果纹理连续性比TLUR差,且会产生少量的噪声和伪影。图4(g)和(h)为分别为LMaFit算法重建结果和相应的残差图。图中虚线框为实线框区域的局部放大图,可以看出:深度学习方法相比LMaFit算法重建结果更加平滑,而本发明TLUR方法重建结果纹理细节更加准确,能够更好的还原地震数据的原貌。图5为f-k谱图,横坐标表示归一化波数,纵坐标表示频率。图5(a)为未缺失数据的f-k谱,(b)为缺失率为50%时缺失数据的f-k谱,此时会出现频散现象。图5(c)、(d)和(e)分别为TLUR、U-net和LMaFit重建结果的f-k谱。从图中可以看出深度学习方法的重建结果的f-k谱与图5(a)几乎一致,相较于低秩算法LMaFit,深度学习方法的重建结果能量更集中,具有较好的抗假频能力。
为了验证不同缺失率下三种方法的性能,表1给出了三种方法在数据缺失率分别从10%-50%的重建信噪。从表中可以看出,在30%和50%缺失率下,本发明TLUR重建信噪比比U-net分别提高3.90dB、3.54dB,比LMaFit算法高12.30dB、9.70dB。
表1不同缺失率下叠后数据重建信噪比
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。
Claims (7)
1.一种基于纹理约束的U-net网络进行地震数据重建的方法,其特征在于,包括以下步骤:
步骤1:使用滑动窗口的方式,将某工区采集到的现场数据切分成N×N大小的子块作为训练数据集,通过人为随机缺失50%道获取输入的缺失数据Sinput,完整不缺的数据记Sgt为重建标签;
步骤2:选取3个聚类中心,利用K-means算法对重建标签进行分割,获得重建标签Sgt的纹理Stexture;
步骤3:通过Sgt和Stexture训练U-net网络作为纹理提取器,得到优化后的纹理提取器参数θG;
步骤3中所述优化的纹理提取器参数θG通过如下公式获得:
其中,G为纹理提取器,Sgt为纹理提取器的输入数据,x∈Ω,为二维数据每个像素点所对应的位置;函数l(x),x∈Ω,Ω→{1,2,...,K},l(x)表示每个位置数据点的真实类别,包括波峰、波谷和背景;为纹理提取器的输出结果,表示x处数据点属于第k类的概率;
步骤4:使用U-net网络作为重建网络与训练好的纹理提取器串联,利用重建网络对缺失数据进行重建,获得重建损失,并通过纹理提取器分别提取重建网络的输出结果和重建标签的纹理信息,获得纹理损失;
步骤5:通过所述重建损失和纹理损失优化重建网络后进行地震数据重建。
2.如权利要求1所述的基于纹理约束的U-net网络进行地震数据重建的方法,其特征在于:步骤4中所述纹理损失为重建标签和重建网络的交叉熵损失函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910591075.4A CN110490219B (zh) | 2019-07-02 | 2019-07-02 | 一种基于纹理约束的U-net网络进行地震数据重建的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910591075.4A CN110490219B (zh) | 2019-07-02 | 2019-07-02 | 一种基于纹理约束的U-net网络进行地震数据重建的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110490219A CN110490219A (zh) | 2019-11-22 |
CN110490219B true CN110490219B (zh) | 2022-03-11 |
Family
ID=68546591
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910591075.4A Expired - Fee Related CN110490219B (zh) | 2019-07-02 | 2019-07-02 | 一种基于纹理约束的U-net网络进行地震数据重建的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110490219B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113009560B (zh) * | 2021-03-23 | 2022-03-29 | 中国地质大学(武汉) | 一种地震数据重建方法、装置、设备及存储介质 |
CN113269818B (zh) * | 2021-06-09 | 2023-07-25 | 河北工业大学 | 一种基于深度学习的地震数据纹理特征重建方法 |
CN113945974B (zh) * | 2021-06-10 | 2022-05-24 | 中国矿业大学(北京) | 一种地震数据重建方法、装置、设备及介质 |
CN114047548B (zh) * | 2021-07-07 | 2023-03-14 | 清华大学 | 一种基于闭环网络的地震波阻抗反演不确定性的预测方法 |
CN113688869B (zh) * | 2021-07-21 | 2022-05-27 | 广东工业大学 | 一种基于生成对抗网络的光伏数据缺失重构方法 |
CN115932959A (zh) * | 2022-11-11 | 2023-04-07 | 电子科技大学长三角研究院(湖州) | 一种基于UNet的面波频散质量快速评估方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014083402A2 (en) * | 2012-11-08 | 2014-06-05 | Total Sa | Method and device to process a three dimensional seismic image |
CN107121701A (zh) * | 2017-05-05 | 2017-09-01 | 吉林大学 | 基于Shearlet变换的多分量地震数据Corssline方向波场重建方法 |
CN108510458A (zh) * | 2018-03-29 | 2018-09-07 | 中国海洋大学 | 基于深度学习方法和非参数化采样的侧扫声呐图像合成方法 |
CN109447249A (zh) * | 2018-12-17 | 2019-03-08 | 中国科学院计算技术研究所 | 一种基于深度卷积的对抗神经网络测井数据重建方法 |
CN109886971A (zh) * | 2019-01-24 | 2019-06-14 | 西安交通大学 | 一种基于卷积神经网络的图像分割方法及系统 |
-
2019
- 2019-07-02 CN CN201910591075.4A patent/CN110490219B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014083402A2 (en) * | 2012-11-08 | 2014-06-05 | Total Sa | Method and device to process a three dimensional seismic image |
CN107121701A (zh) * | 2017-05-05 | 2017-09-01 | 吉林大学 | 基于Shearlet变换的多分量地震数据Corssline方向波场重建方法 |
CN108510458A (zh) * | 2018-03-29 | 2018-09-07 | 中国海洋大学 | 基于深度学习方法和非参数化采样的侧扫声呐图像合成方法 |
CN109447249A (zh) * | 2018-12-17 | 2019-03-08 | 中国科学院计算技术研究所 | 一种基于深度卷积的对抗神经网络测井数据重建方法 |
CN109886971A (zh) * | 2019-01-24 | 2019-06-14 | 西安交通大学 | 一种基于卷积神经网络的图像分割方法及系统 |
Non-Patent Citations (2)
Title |
---|
Interpolation and Denoising of Seismic Data using Convolutional Neural Networks;Sara Mandelli;《Arxiv》;20190123;第1-13页 * |
以加州San Jacinto 断层密集地震台阵为例;张雪敏 等;《地球物理学报》;20190430;第1427-1438页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110490219A (zh) | 2019-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110490219B (zh) | 一种基于纹理约束的U-net网络进行地震数据重建的方法 | |
CN109086773B (zh) | 基于全卷积神经网络的断层面识别方法 | |
Wang et al. | Seismic trace interpolation for irregularly spatial sampled data using convolutional autoencoder | |
Jiang et al. | A convolutional autoencoder method for simultaneous seismic data reconstruction and denoising | |
CN111368710B (zh) | 一种联合深度学习的地震数据随机噪声压制方法 | |
Wu et al. | Incoherent dictionary learning for reducing crosstalk noise in least-squares reverse time migration | |
CN107015274A (zh) | 一种缺失地震勘探数据恢复重构方法 | |
CN110806602A (zh) | 基于深度学习的智能化地震数据随机噪声压制方法 | |
CN113269818B (zh) | 一种基于深度学习的地震数据纹理特征重建方法 | |
CN105974468A (zh) | 一种能够同时进行五维地震数据重建和噪声压制的方法 | |
Liu et al. | Unsupervised deep learning for random noise attenuation of seismic data | |
Chang et al. | Generative adversarial networks for seismic data interpolation | |
CN111856578A (zh) | 张量深度自编码网络的宽方位叠前地震反射模式分析方法 | |
Fang et al. | Unsupervised CNN based on self-similarity for seismic data denoising | |
Fang et al. | BSnet: An unsupervised blind spot network for seismic data random noise attenuation | |
Shao et al. | Noisy2Noisy: Denoise pre-stack seismic data without paired training data with labels | |
CN111025385A (zh) | 一种基于低秩和稀疏约束的地震数据重建方法 | |
CN110837111B (zh) | 地震数据插值方法及系统 | |
Cheng et al. | Meta-Processing: A robust framework for multi-tasks seismic processing | |
CN113935240A (zh) | 基于生成式对抗网络算法的人工地震波模拟方法 | |
CN111368680B (zh) | 基于波原子变换的深度学习抗假频地震数据规则化方法 | |
CN114545494B (zh) | 基于稀疏约束的无监督地震数据重建方法及装置 | |
CN118033732B (zh) | 一种基于空域频域融合架构的地震数据重建方法 | |
CN105372707A (zh) | 一种多尺度地震资料随机噪音衰减方法 | |
Wang et al. | Self-Supervised Pre-Training Transformer for Seismic Data Denoising |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220311 |