CN113269818B - 一种基于深度学习的地震数据纹理特征重建方法 - Google Patents

一种基于深度学习的地震数据纹理特征重建方法 Download PDF

Info

Publication number
CN113269818B
CN113269818B CN202110641642.XA CN202110641642A CN113269818B CN 113269818 B CN113269818 B CN 113269818B CN 202110641642 A CN202110641642 A CN 202110641642A CN 113269818 B CN113269818 B CN 113269818B
Authority
CN
China
Prior art keywords
feature
image
texture
low
seismic data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110641642.XA
Other languages
English (en)
Other versions
CN113269818A (zh
Inventor
顾军华
李一凡
贾永娜
沈晓宁
王国伟
吴杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hebei University of Technology
Original Assignee
Hebei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hebei University of Technology filed Critical Hebei University of Technology
Priority to CN202110641642.XA priority Critical patent/CN113269818B/zh
Publication of CN113269818A publication Critical patent/CN113269818A/zh
Application granted granted Critical
Publication of CN113269818B publication Critical patent/CN113269818B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的地震数据纹理特征重建方法。本发明采用纹理提取网络,用浅层卷积网络进行训练,该纹理提取网络随着训练的过程不断更新自己的参数,使得纹理提取网络能够提取到最合适的纹理特征信息。采用归一化内积的方法分别计算上采样低分辨率图像特征图Q中的一个特征块和下上采样参考图像特征图K的一个特征块的两两特征块之间的相似度ri,j,通过分块计算相似度来进行迁移学习,用注意力机制进行纹理迁移。在损失函数部分加入了对抗损失和感知损失。本发明能够自动更新参数,不需要其他的先验信息,并且可以学习复杂的纹理特征结构,有效地避免空间假频问题,能够快速重建出清晰的高分辨率地震数据。

Description

一种基于深度学习的地震数据纹理特征重建方法
技术领域
本发明的技术方案涉及地震数据重建领域,具体是一种基于深度学习的地震数据纹理特征重建方法。
背景技术
随着科技的不断发展,油气勘探更加成熟,对石油、天然气的勘探力度越来越大。然而在勘探的数据采集过程中,会受到采集环境和采集成本等因素的限制,如山川河流、硬件仪器等问题会引起采集坏道,这样采集到的数据是非规则、不完整的。因此,对采集到的地震数据进行插值重建,获得高分辨率的地震数据,使其具有更真实的地理物理信息是具有重要的现实意义的。
传统的地震插值重建可以分为基于滤波的方法、基于波动方程的方法、基于数学变换的方法。基于滤波的方法是将地震数据当作信号进行处理,如Spitz提出在F-X域反假频插值方法和Claearbout提出T-X域预测误差滤波插值。但因为基于滤波的方法在处理不规则数据时将其当作规则数据处理,因此这种方法准确性较低。基于波动方程的方法用波的传播,通过正、反演算子迭代求解从而重建地震数据,如Ronen提出采用波动方程联合NMO与逆DMO来恢复缺失地震数据。基于波动方程的重建方法需要地下结构先验信息,且其计算量大,计算效率仍然受限。基于数学变换的方法是将地震数据做某种变换,然后在该变换域中对数据进行处理,如Radon变换、傅里叶变换、小波变换等。
深度学习近年来在医学、工业、军事等各个领域都取得优异的成绩。建立深度学习模型,然后通过自动学习大数据获得深度神经网络模型参数,获得较好的分类特征,能够拟合复杂的函数关系,具有很高的模型表示能力。图像超分辨是图像重建的一个经典方法,基于深度学习的图像超分辨方法可以重建出高分辨率的图像,恢复更多纹理细节。图像超分辨率在卫星图像、医学图像、智能手机数码变焦中应用都十分广泛。Dong等人首先将卷积神经网络引入图像超分辨,随后人们相继把残差网络、注意力机制、生成对抗网络引入图像超分辨中,从而重建出更真实的图像。其中,基于生成对抗网络重建地震数据的方法不需要多余的先验信息,通过构建深度学习模型,在生成器和判别器相互对抗中,更新优化自己的参数,生成比较好的地震重建结果。这种重建方法是基于单图像的图像超分辨,但是基于单图像的重建会存在一定的问题:在训练时,图像需要先退化再进行重建,在退化的过程中存在图像纹理被过度破坏而无法恢复的问题。
发明内容
针对现有技术的不足,本发明拟解决的技术问题是,提供一种基于深度学习的地震数据纹理特征重建方法。
本发明解决所述技术问题的技术方案是,提供一种基于深度学习的地震数据纹理特征重建方法,其特征在于,该方法包括以下步骤:
步骤1、对原始地震数据集生成尺寸统一的地震数据图像;地震数据图像包括高分辨率完整地震图像和低分辨率缺道地震图像;高分辨率完整地震图像包括低分辨率缺道地震图像各自对应的地震图像原图HR和参考图像Ref;
步骤2、将低分辨率缺道地震图像进行下采样,生成低分辨率图像LR,再将低分辨率图像LR进行相同倍数的上采样,使其变成与参考图像Ref尺寸相同的上采样低分辨率图像LR_sr;
将参考图像Ref做与低分辨率缺道地震图像相同的缺道处理,然后再依次进行相同倍数的下采样和上采样,使其变成与上采样低分辨率图像LR_sr模糊程度相近的下上采样参考图像Ref_sr;
步骤3、将低分辨率图像LR、参考图像Ref、上采样低分辨率图像LR_sr和下上采样参考图像Ref_sr输入到地震数据重建网络的纹理提取网络中,经过纹理提取网络输出特征图;
经过纹理提取网络输出的特征图分别为:
式(1)中,F为低分辨率图像特征图,表示从低分辨率图像LR中提取出的纹理特征信息;Q为上采样低分辨率图像特征图,表示从上采样低分辨率图像LR_sr中提取出的纹理特征信息;K为下上采样参考图像特征图,表示从下上采样参考图像Ref_sr中提取出的纹理特征信息;V为参考图像特征图,表示从参考图像Ref中提取出的纹理特征信息;
步骤4、先将步骤3得到的上采样低分辨率图像特征图Q、下上采样参考图像特征图K和参考图像特征图V分别提取卷积核对应的滑动窗口,将完整的特征图切割成小块,得到上采样低分辨率图像特征图的特征块qi、下上采样参考图像特征图的特征块kj和参考图像特征图的特征块vn
再对所有上采样低分辨率图像特征图的特征块qi和下上采样参考图像特征图的特征块kj采用归一化内积的方法分别计算上采样低分辨率图像特征图Q中的一个特征块和下上采样参考图像特征图K的一个特征块的两两特征块之间的相似度ri,j
计算完所有的相似度后,地震数据重建网络输出记录最大相似度值的软注意力图S和记录最大相似度所在位置的硬注意力图H;
步骤5、使用硬注意力图H作为位置索引对参考图像特征图V的特征块进行查找,提取出每个上采样低分辨率图像特征图的特征块qi在参考图像特征图V中所对应的最相关的特征块的位置,再从参考图像特征图V中迁移对应位置的特征块,组合成一个迁移纹理特征图T;
步骤6、先将迁移纹理特征图T和低分辨率图像特征图F进行连结运算得到融合特征图,再通过卷积运算对融合特征图降维,使得融合特征图的维度和低分辨率图像特征图F的维度相同;再将融合特征图乘以软注意力图S,再添加到低分辨率图像特征图F中,得到每次迭代后产生的迭代重建图像Fout
步骤7、得到该次迭代产生的迭代重建图像Fout后,再通过联合损失函数进行此次迭代的地震数据重建网络优化;
步骤8、通过联合损失函数不断优化地震数据重建网络,直至达到设定的迭代次数,得到训练后的地震数据重建网络。
与现有技术相比,本发明有益效果在于:
(1)本发明实现了端到端的图像重建方法,避免了过多的超参数和人工操作。
(2)本发明相较于传统的重建方法,深度学习能够自动更新参数,不需要其他的先验信息,并且可以学习复杂的纹理特征结构,有效地避免空间假频问题,能够在GPU的环境下快速重建出清晰的高分辨率地震数据。
(3)本发明通过纹理迁移,迁移高分辨率的参考图像中的清晰纹理特征信息来恢复低分辨率图像的纹理,以重建出更多的纹理细节,恢复因过度退化无法恢复的纹理特征信息,提高了重建的峰值信噪比和结构相似性。
(4)本发明采用纹理提取网络(Learnable Texture Extractor,LTE),较VGG网络层数少,用浅层卷积网络进行训练,该纹理提取网络随着训练的过程不断更新自己的参数,使得纹理提取网络能够提取到最合适的纹理特征信息。
(5)本方法采用归一化内积的方法分别计算上采样低分辨率图像特征图Q中的一个特征块和下上采样参考图像特征图K的一个特征块的两两特征块之间的相似度ri,j,通过分块计算相似度来进行迁移学习,用注意力机制进行纹理迁移。
(6)在损失函数部分加入了对抗损失和感知损失。
附图说明
图1为本发明的基于纹理迁移的地震数据重建网络的结构示意图;
图2为本发明的纹理提取网络的结构示意图;
图3为本发明实施例1的随机采样率为70%的低分辨率缺道地震图像;
图4为本发明实施例1的参考图像;
图5为本发明实施例1的地震图像原图;
图6为本发明实施例1得到的高分辨率重建图像;
图7为本发明实施例1的在训练阶段不同迭代次数下得到的高分辨率重建图像的PSNR和SSIM;
图8为本发明实施例1的采用联合损失函数进行优化(loss)和只采用重建损失函数进行优化(loss_rec)的高分辨率重建图像的PSNR和SSIM图;
图9为本发明实施例2的在不同采样率下高分辨率重建图像的PSNR和SSIM图。
具体实施方式
下面给出本发明的具体实施例。具体实施例仅用于进一步详细说明本发明,不限制本申请权利要求的保护范围。
本发明提供了一种基于深度学习的地震数据纹理特征重建方法(简称方法),其特征在于,该方法包括以下步骤:
步骤1、对原始地震数据集生成尺寸统一的地震数据图像,并进行可视化处理;地震数据图像包括清晰的高分辨率完整地震图像和缺道的低分辨率缺道地震图像;高分辨率完整地震图像包括低分辨率缺道地震图像各自对应的高分辨率完整地震图像原图HR(简称地震图像原图HR)和参考图像Ref;再将地震数据图像以7:2:1的比例分为训练集、验证集和测试集;
优选地,步骤1中,生成地震数据图像的过程中,通过对原始地震数据集中的地震数据进行随机翻转和旋转90°、180°、270°来进行图像增强,从而增加训练的数据量,并提高模型的鲁棒性;
步骤2、为了便于训练基于纹理迁移的地震数据重建网络(简称地震数据重建网络),先将低分辨率缺道地震图像进行下采样,生成低分辨率图像LR,再将低分辨率图像LR进行相同倍数的上采样,使其变成与参考图像Ref尺寸相同的上采样低分辨率图像LR_sr;
考虑到低分辨率图像LR和参考图像Ref的分辨率不同,所以将参考图像Ref做与低分辨率缺道地震图像相同的缺道处理,然后再依次进行相同倍数的下采样和上采样,使其变成与上采样低分辨率图像LR_sr模糊程度相近的下上采样参考图像Ref_sr;
步骤3、纹理特征信息提取:将低分辨率图像LR、参考图像Ref、上采样低分辨率图像LR_sr和下上采样参考图像Ref_sr四张图像输入到地震数据重建网络的纹理提取网络中,经过纹理提取网络输出最适合图像重建的纹理特征信息;
经过纹理提取网络输出的特征图分别为:
式(1)中,F为低分辨率图像特征图,表示从低分辨率图像LR中提取出的纹理特征信息;Q为上采样低分辨率图像特征图,表示从上采样低分辨率图像LR_sr中提取出的纹理特征信息;K为下上采样参考图像特征图,表示从下上采样参考图像Ref_sr中提取出的纹理特征信息;V为参考图像特征图,表示从参考图像Ref中提取出的纹理特征信息;
优选地,步骤3中,所述纹理提取网络包括五个卷积层和两个池化层;卷积层都是3×3的卷积核,步长为1,padding为1;第1个和第2个卷积层均有64个卷积核,第3个和第4个卷积层均有128个卷积核,第5个卷积层有256个卷积核;初始输入的图像均为3通道,通过5层卷积层提取特征之后均变成256通道,从而可以提取出更多的抽象信息;两个池化层是最大池化,池化窗口是2×2大小,步长为2,通过池化层缩小图片尺寸,增大卷积核感受野,从而提取高层次信息;同时采用ReLU作为激活函数。
由图2可以看出,输入图像依次经过第1个卷积层、一个ReLU激活函数、第2个卷积层、一个ReLU激活函数、一次最大池化、第3个卷积层、一个ReLU激活函数、第4个卷积层、一个ReLU激活函数、一次最大池化、第5个卷积层、一个ReLU激活函数,输出最终的特征图。
步骤4、先将步骤3得到的上采样低分辨率图像特征图Q、下上采样参考图像特征图K和参考图像特征图V分别进行卷积计算,这里的卷积计算不需要进行卷积核和图片值的卷积乘法操作,而是提取卷积核对应的滑动窗口,将完整的特征图切割成小块,得到上采样低分辨率图像特征图的特征块qi(即上采样低分辨率图像特征图Q提取出的特征块)、下上采样参考图像特征图的特征块kj和参考图像特征图的特征块vn
再对所有上采样低分辨率图像特征图的特征块qi和下上采样参考图像特征图的特征块kj采用归一化内积的方法分别计算上采样低分辨率图像特征图Q中的一个特征块和下上采样参考图像特征图K的一个特征块的两两特征块之间的相似度ri,j
计算完所有的相似度后,地震数据重建网络会输出两个图,分别是硬注意力图H和软注意力图S;硬注意力图H中记录了对于上采样低分辨率图像特征图Q的每个特征块在下上采样参考图像特征图K中与其最相关(即相关性最大)的特征块的位置;软注意力图S中记录了对于上采样低分辨率图像特征图Q的每个特征块在下上采样参考图像特征图K中与之最相关的特征块的相似度值;
优选地,步骤4中,再对所有的上采样低分辨率图像特征图的特征块qi和下上采样参考图像特征图的特征块kj分别进行归一化,然后将上采样低分辨率图像特征图Q中的一个特征块和下上采样参考图像特征图K的一个特征块两两之间进行内积计算,计算得出两个特征块之间的相关性即相似度ri,j
优选地,步骤4中,归一化内积的计算公式如式(3)所示:
式(2)中,||qi||和||kj||分别是qi和kj的L2范数,和/>分别是对qi和kj进行归一化,<·>表示内积运算;ri,j∈[0,1],ri,j的值越大表示两个特征块之间的相关性越大,可迁移的纹理特征信息就越多;ri,j的值越小表示两个特征块之间的相关性越小,可迁移的纹理特征信息就越少。
优选地,步骤4中,硬注意力图H如式(3)所示:
式(3)中,hi表示位置索引,其只对与上采样低分辨率图像特征图Q最相关的特征块迁移参考图像Ref的特征。
优选地,步骤4中,软注意力图S如式(4)所示:
式(4)中,si表示软注意力图S的第i个位置的值,它表示迁移纹理特征图T中每个特征块迁移纹理的置信度。
步骤5、为了从参考图像Ref中迁移出高分辨率的纹理特征信息,使用硬注意力图H作为位置索引对参考图像特征图V的特征块进行查找,提取出每个上采样低分辨率图像特征图的特征块qi在参考图像特征图V中所对应的最相关的特征块的位置(即根据索引hi找到相对应的特征块vj),再从参考图像特征图V中迁移对应位置的特征块,通过python函数组合成一个迁移纹理特征图T;
步骤6、将迁移纹理特征图T中的纹理特征信息迁移到低分辨率图像LR中生成清晰的高分辨率图像Fout:先将迁移纹理特征图T和低分辨率图像特征图F进行连结运算得到融合特征图,再通过卷积运算对融合特征图降维,使得融合特征图的维度和低分辨率图像特征图F的维度相同;再将融合特征图乘以软注意力图S,再添加到低分辨率图像特征图F中,得到每次迭代后产生的迭代重建图像Fout
将软注意力图S乘以融合特征图是为了迁移相关性强的纹理特征信息,而相关性不强的纹理特征信息则不会进行迁移,使得纹理迁移的过程中不会增加无关的纹理特征信息。
步骤6具体是:迭代重建图像Fout如式(5)所示:
Fout=F+Conv(Concat(F,T))⊙S (5)
式(5)中,Concat(·)表示连结运算,即通道融合,将两个特征图在维数上进行连接;Conv表示卷积运算;⊙表示特征图之间的元素乘法运算。
步骤7、得到该次迭代产生的迭代重建图像Fout后,再进行此次迭代的损失函数优化:采用联合损失函数来优化地震数据重建网络,网络参数自动更新,使得地震数据重建网络能够迁移到最合适的纹理特征信息;联合损失函数如式(6)所示:
Lall=λrecLrecrecLadvperLper (6)
式(6)中,联合损失函数是将重建损失、对抗损失和感知损失进行联合;Lrec、Ladv、Lper分别表示重建损失、对抗损失和感知损失;λrec、λrec、λper表示权重;
优选地,步骤7中,重建损失公式如下所示:
式(7)中,C、H和W是图片的通道、高和宽;公式(7)采用L1损失,这比使用L2损失有更清晰的表达,也更容易收敛;
优选地,步骤7中,对抗损失公式如下所示:
式(8)采用WGAN-GP损失函数,相对于WGAN损失,它加入了一个正则项进行梯度约束,通过对梯度范数的惩罚来代替权重剪切,从而获得更稳定的训练和更好的性能。
优选地,步骤7中,感知损失公式如下所示:
感知损失可以提高迭代重建图像Fout和地震图像原图HR之间的特征空间的相似性;式(9)中,感知损失包括传统感知损失和迁移纹理感知损失;传统感知损失中,φi(·)表示第i层的特征图,(Ci,Hi,Wi)表示该层特征图的形状;迁移纹理感知损失中,φj(·)表示从纹理提取网络的第j层提取的特征图,(Cj,Hj,Wj)表示该层特征图的形状;迁移纹理感知损失约束了迭代重建图像Fout具有与迁移纹理特征图T相似的纹理特征,这使得本方法可以更有效地传输参考图像Ref的纹理特征信息。
步骤8、通过联合损失函数不断优化地震数据重建网络,直至达到设定的迭代次数,得到训练后的地震数据重建网络;再将步骤1的地震数据图像中的测试集输入到训练后的地震数据重建网络中,经过纹理提取和纹理迁移即步骤3~步骤6,重建得到高分辨率重建图像SR,并使用峰值信噪比(PSNR)和结构相似性(SSIM)作为评价指标进行评价。
通过观察PSNR和SSIM来确定迭代次数。
实施例1
步骤1,本实施例中,尺寸大小为128×128;低分辨率缺道地震图像为随机缺失30%道,即随机采样率为70%的图像(如图3所示)。地震图像原图HR(如图5所示)和参考图像Ref(如图4所示)。
步骤2、为了便于训练基于纹理迁移的地震数据重建网络(简称地震数据重建网络),先将低分辨率缺道地震图像进行下采样(本实施例是4倍下采样),生成低分辨率图像LR,再将低分辨率图像LR进行相同倍数的(4倍)上采样,使其变成与参考图像Ref尺寸相同的上采样低分辨率图像LR_sr(本实施例是双三次上采样低分辨率图像);
考虑到低分辨率图像LR和参考图像Ref的分辨率不同,所以将参考图像Ref做与低分辨率缺道地震图像相同的缺道处理,然后再依次进行相同倍数(4倍)的下采样和上采样,使其变成与上采样低分辨率图像LR_sr模糊程度相近的下上采样参考图像Ref_sr(本实施例是双三次下上采样参考图像);
步骤3中,3×128×128的输入图像,在经过第1个卷积层后输出64×128×128的特征图,经过一个ReLU激活函数;再输入到第2个卷积层,输出64×128×128的特征图,经过一个ReLU激活函数,然后进行一次最大池化,特征图由64×128×128变为64×64×64;然后再输入到第3个卷积层,输出128×64×64的特征图,再经过一个ReLU激活函数;再输入到第4个卷积层,输出128×64×64的特征图,经过一个ReLU激活函数,然后进行一次最大池化,特征图由128×64×64变为128×32×32;然后再输入到第5个卷积层,输出256×32×32的特征图,再经过一个ReLU激活函数,输出最终得到256×32×32的特征图。图像由3通道变成256通道,提取出四张图像的纹理特征信息,通过计算纹理特征的相似度,将提取出来的纹理特征信息迁移到低分辨率图像中LR。
步骤7中,采用联合损失进行优化时,λrec、λrec、λper的值均为1。本发明中还采用了只使用重建损失作为优化网络的损失函数做对比实验,此时λrec、λper的值为0。重建损失初始值设置为1,对抗损失初始值设置为0.001,传统感知损失和迁移纹理感知损失初始值均设置为0.01。
步骤8中,为了得到适合的迭代次数,在训练阶段不同迭代次数下,通过验证集得到高分辨率重建图像SR并测试了PSNR和SSIM。本实施例首先使用重建损失进行10次迭代,这是为了减少优化时间,然后再使用联合损失进行迭代来优化地震数据重建网络。图7为先使用重建损失进行10次迭代,再使用联合损失迭代不同次数得到的PSNR和SSIM。由图7可以看出,首先只使用重建损失进行10次迭代,然后再使用联合损失迭代50次达到稳定且较好的重建结果。
由图3~6可以看出,输入需要重建的低分辨率缺道地震图像(图3)到地震数据重建网络中,通过迁移参考图像Ref(图4)的纹理特征,从而得到高分辨率重建图像SR(图6),对比没有缺失数据的地震图像原图HR(图5),从视觉上可以看出高分辨率重建图像SR具有较好的重建结果。
本实施例采用联合损失优化(loss)即先只使用重建损失进行10次迭代,然后再使用联合损失迭代50次;对比实验只采用重建损失进行60次迭代来进行优化(loss_rec)。由图8可以看出,采用联合损失优化(loss)比只采用重建损失优化(loss_rec)重建出的图像的峰值信噪比和结构相似性都要高,采用联合损失优化可以更有效地迁移参考纹理,提高重建结果。
实施例2
步骤1,本实施例中,尺寸大小为128×128;低分辨率缺道地震图像是随机采样率为50%、60%、80%和90%的图像。
与实施例1的步骤1~7相同。
步骤8、测试集输入到训练后的地震数据重建网络中,经过纹理提取和纹理迁移,重建得到高分辨率重建图像SR,并使用峰值信噪比(PSNR)和结构相似性(SSIM)作为评价指标进行评价。
由图9可以看出,随着采样率增大,重建得到的结果就越好。采样率越高的图像在计算和参考图像的纹理特征信息的相似性时,能找到更相似的纹理特征信息,但是采样率过大时,重建结果提高的较少。
本发明未述及之处适用于现有技术。

Claims (10)

1.一种基于深度学习的地震数据纹理特征重建方法,其特征在于,该方法包括以下步骤:
步骤1、对原始地震数据集生成尺寸统一的地震数据图像;地震数据图像包括高分辨率完整地震图像和低分辨率缺道地震图像;高分辨率完整地震图像包括低分辨率缺道地震图像各自对应的地震图像原图HR和参考图像Ref;
步骤2、将低分辨率缺道地震图像进行下采样,生成低分辨率图像LR,再将低分辨率图像LR进行相同倍数的上采样,使其变成与参考图像Ref尺寸相同的上采样低分辨率图像LR_sr;
将参考图像Ref做与低分辨率缺道地震图像相同的缺道处理,然后再依次进行相同倍数的下采样和上采样,使其变成与上采样低分辨率图像LR_sr模糊程度相近的下上采样参考图像Ref_sr;
步骤3、将低分辨率图像LR、参考图像Ref、上采样低分辨率图像LR_sr和下上采样参考图像Ref_sr输入到地震数据重建网络的纹理提取网络中,经过纹理提取网络输出特征图;
经过纹理提取网络输出的特征图分别为:
式(1)中,F为低分辨率图像特征图,表示从低分辨率图像LR中提取出的纹理特征信息;Q为上采样低分辨率图像特征图,表示从上采样低分辨率图像LR_sr中提取出的纹理特征信息;K为下上采样参考图像特征图,表示从下上采样参考图像Ref_sr中提取出的纹理特征信息;V为参考图像特征图,表示从参考图像Ref中提取出的纹理特征信息;
步骤4、先将步骤3得到的上采样低分辨率图像特征图Q、下上采样参考图像特征图K和参考图像特征图V分别提取卷积核对应的滑动窗口,将完整的特征图切割成小块,得到上采样低分辨率图像特征图的特征块qi、下上采样参考图像特征图的特征块kj和参考图像特征图的特征块vn
再对所有上采样低分辨率图像特征图的特征块qi和下上采样参考图像特征图的特征块kj采用归一化内积的方法分别计算上采样低分辨率图像特征图Q中的一个特征块和下上采样参考图像特征图K的一个特征块的两两特征块之间的相似度ri,j
计算完所有的相似度后,地震数据重建网络输出记录最大相似度值的软注意力图S和记录最大相似度所在位置的硬注意力图H;
步骤5、使用硬注意力图H作为位置索引对参考图像特征图V的特征块进行查找,提取出每个上采样低分辨率图像特征图的特征块qi在参考图像特征图V中所对应的最相关的特征块的位置,再从参考图像特征图V中迁移对应位置的特征块,组合成一个迁移纹理特征图T;
步骤6、先将迁移纹理特征图T和低分辨率图像特征图F进行连结运算得到融合特征图,再通过卷积运算对融合特征图降维,使得融合特征图的维度和低分辨率图像特征图F的维度相同;再将融合特征图乘以软注意力图S,再添加到低分辨率图像特征图F中,得到每次迭代后产生的迭代重建图像Fout
步骤7、得到该次迭代产生的迭代重建图像Fout后,再通过联合损失函数进行此次迭代的地震数据重建网络优化;
步骤8、通过联合损失函数不断优化地震数据重建网络,直至达到设定的迭代次数,得到训练后的地震数据重建网络。
2.根据权利要求1所述的基于深度学习的地震数据纹理特征重建方法,其特征在于,步骤1中,生成地震数据图像的过程中,通过对原始地震数据集中的地震数据进行随机翻转和旋转90°、180°、270°来进行图像增强。
3.根据权利要求1所述的基于深度学习的地震数据纹理特征重建方法,其特征在于,步骤3中,所述纹理提取网络包括五个卷积层和两个池化层;卷积层都是3×3的卷积核,步长为1,padding为1;第1个和第2个卷积层均有64个卷积核,第3个和第4个卷积层均有128个卷积核,第5个卷积层有256个卷积核;初始输入的图像均为3通道,通过5层卷积层提取特征之后均变成256通道;两个池化层是最大池化,池化窗口是2×2大小,步长为2,通过池化层缩小图片尺寸,增大卷积核感受野,从而提取高层次信息;采用ReLU作为激活函数;
输入图像依次经过第1个卷积层、一个ReLU激活函数、第2个卷积层、一个ReLU激活函数、一次最大池化、第3个卷积层、一个ReLU激活函数、第4个卷积层、一个ReLU激活函数、一次最大池化、第5个卷积层、一个ReLU激活函数,输出最终的特征图。
4.根据权利要求1所述的基于深度学习的地震数据纹理特征重建方法,其特征在于,步骤4中,对所有的上采样低分辨率图像特征图的特征块qi和下上采样参考图像特征图的特征块kj分别进行归一化,然后将上采样低分辨率图像特征图Q中的一个特征块和下上采样参考图像特征图K的一个特征块两两之间进行内积计算,计算得出两个特征块之间的相似度ri,j
5.根据权利要求1所述的基于深度学习的地震数据纹理特征重建方法,其特征在于,步骤4中,归一化内积的计算公式如式(3)所示:
式(2)中,‖qi‖和‖kj‖分别是qi和kj的L2范数,和/>分别是对qi和kj进行归一化,<·>表示内积运算;ri,j∈[0,1],ri,j的值越大表示两个特征块之间的相关性越大,可迁移的纹理特征信息就越多;ri,j的值越小表示两个特征块之间的相关性越小,可迁移的纹理特征信息就越少。
6.根据权利要求1所述的基于深度学习的地震数据纹理特征重建方法,其特征在于,步骤4中,硬注意力图H如式(3)所示:
式(3)中,hi表示位置索引,其只对与上采样低分辨率图像特征图Q最相关的特征块迁移参考图像Ref的特征;
软注意力图S如式(4)所示:
式(4)中,si表示软注意力图S的第i个位置的值,它表示迁移纹理特征图T中每个特征块迁移纹理的置信度。
7.根据权利要求1所述的基于深度学习的地震数据纹理特征重建方法,其特征在于,步骤6具体是:迭代重建图像Fout如式(5)所示:
Fout=F+Conv(Concat(F,T))⊙S (5)
式(5)中,Concat(·)表示连结运算,即通道融合,将两个特征图在维数上进行连接;Conv表示卷积运算;⊙表示特征图之间的元素乘法运算。
8.根据权利要求1所述的基于深度学习的地震数据纹理特征重建方法,其特征在于,步骤7中,采用联合损失函数来优化地震数据重建网络;联合损失函数如式(6)所示:
Lall=λrecLrecadvLadvperLper (6)
式(6)中,联合损失函数是将重建损失、对抗损失和感知损失进行联合;Lrec、Ladv、Lper分别表示重建损失、对抗损失和感知损失;λrec、λadv、λper表示权重。
9.根据权利要求8所述的基于深度学习的地震数据纹理特征重建方法,其特征在于,步骤7中,重建损失公式如下所示:
式(7)中,C、H和W是图片的通道、高和宽;公式(7)采用L1损失;
步骤7中,对抗损失公式如下所示:
式(8)采用WGAN-GP损失函数;
步骤7中,感知损失公式如下所示:
式(9)中,感知损失包括传统感知损失和迁移纹理感知损失;传统感知损失中,φi(·)表示第i层的特征图,(Ci,Hi,Wi)表示该层特征图的形状;迁移纹理感知损失中,φj(·)表示从纹理提取网络的第j层提取的特征图,(Cj,Hj,Wj)表示该层特征图的形状。
10.根据权利要求1所述的基于深度学习的地震数据纹理特征重建方法,其特征在于,步骤8中,将步骤1的地震数据图像中的测试集输入到训练后的地震数据重建网络中,经过步骤3~步骤6,重建得到高分辨率重建图像SR。
CN202110641642.XA 2021-06-09 2021-06-09 一种基于深度学习的地震数据纹理特征重建方法 Active CN113269818B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110641642.XA CN113269818B (zh) 2021-06-09 2021-06-09 一种基于深度学习的地震数据纹理特征重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110641642.XA CN113269818B (zh) 2021-06-09 2021-06-09 一种基于深度学习的地震数据纹理特征重建方法

Publications (2)

Publication Number Publication Date
CN113269818A CN113269818A (zh) 2021-08-17
CN113269818B true CN113269818B (zh) 2023-07-25

Family

ID=77234578

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110641642.XA Active CN113269818B (zh) 2021-06-09 2021-06-09 一种基于深度学习的地震数据纹理特征重建方法

Country Status (1)

Country Link
CN (1) CN113269818B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113744169A (zh) * 2021-09-07 2021-12-03 讯飞智元信息科技有限公司 图像增强方法、装置、电子设备和存储介质
CN114332496A (zh) * 2022-03-17 2022-04-12 之江实验室 一种静态目标分割方法和系统
CN114663318B (zh) * 2022-05-25 2022-08-30 江西财经大学 基于生成对抗网络的眼底图像生成方法与系统
CN115936990B (zh) * 2022-12-07 2023-11-17 中国科学技术大学 地震资料多尺度超分辨率与去噪同步处理方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109767386A (zh) * 2018-12-22 2019-05-17 昆明理工大学 一种基于深度学习的快速图像超分辨率重建方法
CN110490219A (zh) * 2019-07-02 2019-11-22 中国地质大学(武汉) 一种基于纹理约束的U-net网络进行地震数据重建的方法
CN111754403A (zh) * 2020-06-15 2020-10-09 南京邮电大学 一种基于残差学习的图像超分辨率重构方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018053340A1 (en) * 2016-09-15 2018-03-22 Twitter, Inc. Super resolution using a generative adversarial network
US11409011B2 (en) * 2019-08-29 2022-08-09 Advanced Geophysical Technology Inc. Methods and systems for obtaining reconstructed low-frequency seismic data for determining a subsurface feature

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109767386A (zh) * 2018-12-22 2019-05-17 昆明理工大学 一种基于深度学习的快速图像超分辨率重建方法
CN110490219A (zh) * 2019-07-02 2019-11-22 中国地质大学(武汉) 一种基于纹理约束的U-net网络进行地震数据重建的方法
CN111754403A (zh) * 2020-06-15 2020-10-09 南京邮电大学 一种基于残差学习的图像超分辨率重构方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于深度学习的地震剖面图像超分辨率重建;邓梦迪;贾瑞生;田煜;刘庆明;;计算机工程与设计(第08期);全文 *

Also Published As

Publication number Publication date
CN113269818A (zh) 2021-08-17

Similar Documents

Publication Publication Date Title
CN113269818B (zh) 一种基于深度学习的地震数据纹理特征重建方法
CN108898560B (zh) 基于三维卷积神经网络的岩心ct图像超分辨率重建方法
CN110599401A (zh) 遥感图像超分辨率重建方法、处理装置及可读存储介质
CN109035142B (zh) 一种对抗网络结合航拍图像先验的卫星图像超分辨方法
CN109214989A (zh) 基于多方向特征预测先验的单幅图像超分辨率重建方法
Liu et al. Effective image super resolution via hierarchical convolutional neural network
CN110490219B (zh) 一种基于纹理约束的U-net网络进行地震数据重建的方法
CN113538246B (zh) 基于无监督多阶段融合网络的遥感图像超分辨率重建方法
CN111028153A (zh) 图像处理和神经网络训练方法、装置及计算机设备
He et al. Remote sensing image super-resolution using deep–shallow cascaded convolutional neural networks
Zeng et al. InversionNet3D: Efficient and scalable learning for 3-D full-waveform inversion
Liu et al. Multi-filters guided low-rank tensor coding for image inpainting
CN114138919A (zh) 一种基于非局部注意力卷积神经网络的地震数据重建方法
CN116797461A (zh) 基于多级强化注意力机制的双目图像超分辨率重建方法
CN115293966A (zh) 一种人脸图像重建方法、装置以及存储介质
CN114332283A (zh) 基于双域神经网络的训练方法和光声图像重建方法
CN117575915A (zh) 一种图像超分辨率重建方法、终端设备及存储介质
CN112862684A (zh) 一种深度图超分辨率重建和去噪神经网络的数据处理方法
CN116468812A (zh) 一种基于多分支和多尺度的图像压缩感知重构方法及系统
CN116091492A (zh) 一种图像变化像素级检测方法与系统
CN116029908A (zh) 基于跨模态和跨尺度特征融合的3d磁共振超分辨率方法
CN115205136A (zh) 一种基于傅里叶先验的图像去雨方法
CN114219738A (zh) 单幅图像多尺度超分辨重建网络结构及方法
CN112686807A (zh) 一种图像超分辨率重构方法及系统
CN113538248A (zh) 一种基于数字孪生的γ光子图像超分辨率图像增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant