CN109087259A - 基于卷积自编码器的叠前数据去噪方法及系统 - Google Patents

基于卷积自编码器的叠前数据去噪方法及系统 Download PDF

Info

Publication number
CN109087259A
CN109087259A CN201810862238.3A CN201810862238A CN109087259A CN 109087259 A CN109087259 A CN 109087259A CN 201810862238 A CN201810862238 A CN 201810862238A CN 109087259 A CN109087259 A CN 109087259A
Authority
CN
China
Prior art keywords
convolutional layer
neuron
characteristic pattern
warp lamination
whole
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810862238.3A
Other languages
English (en)
Inventor
袁三
袁三一
宋卫宾
谢涛
刘颖
连世杰
邓力
王尚旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Petroleum Beijing
China Oilfield Services Ltd
Original Assignee
China University of Petroleum Beijing
China Oilfield Services Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Petroleum Beijing, China Oilfield Services Ltd filed Critical China University of Petroleum Beijing
Priority to CN201810862238.3A priority Critical patent/CN109087259A/zh
Publication of CN109087259A publication Critical patent/CN109087259A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Error Detection And Correction (AREA)

Abstract

本发明提供一种基于卷积自编码器的叠前数据去噪方法及系统。该基于卷积自编码器的叠前数据去噪方法包括:对叠前数据进行归一化,得到经过归一化的数据图像;对经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图;使用卷积层的卷积核和卷积层的卷积核偏置对卷积层输入特征图进行卷积处理,得到卷积层输出特征图;将卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图;使用反卷积层的卷积核和反卷积层的卷积核偏置对反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图;将反卷积层输出特征图进行反归一化,得到去噪数据,可提供高保真的去噪数据。

Description

基于卷积自编码器的叠前数据去噪方法及系统
技术领域
本发明涉及去噪领域,具体地,涉及一种基于卷积自编码器的叠前数据去噪方法及系统。
背景技术
在对地震数据“高信噪比、高分辨率、高保真度”的三高要求中,高信噪比是室内资料处理的基本要求,对地震数据的后续处理过程以及综合解释有着重要意义。随着油气勘探不断向地表复杂区域推进,噪声干扰越发严重。由于地震勘探中分辨率的限制以及各种噪声的存在,普通的处理技术不容易识别薄层及复杂构造,噪声压制势在必行。
现有的地震数据去噪技术基于模型驱动,均在噪声和有效信号符合某种假设的前提上进行处理,当数据和噪声不符合假设要求时,现有的去噪技术得到数据的保真度和信噪比低下。
发明内容
本发明实施例的主要目的在于提供一种基于卷积自编码器的叠前数据去噪方法及系统,以提供高保真、高信噪比的去噪数据。
为了实现上述目的,本发明实施例提供一种基于卷积自编码器的叠前数据去噪方法,包括:
对叠前数据进行归一化,得到经过归一化的数据图像;
对经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图;
使用卷积层的卷积核和卷积层的卷积核偏置对卷积层输入特征图进行卷积处理,得到卷积层输出特征图;
将卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图;
使用反卷积层的卷积核和反卷积层的卷积核偏置对反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图;
将反卷积层输出特征图进行反归一化,得到去噪数据。
本发明实施例还提供一种基于卷积自编码器的叠前数据去噪系统,包括:
归一化模块,用于对叠前数据进行归一化,得到经过归一化的数据图像;
图像分割模块,用于对经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图;
卷积层模块,用于使用卷积层的卷积核和卷积层的卷积核偏置对卷积层输入特征图进行卷积处理,得到卷积层输出特征图;
池化及反池化模块,用于将卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图;
反卷积层模块,用于使用反卷积层的卷积核和反卷积层的卷积核偏置对反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图;
反归一化模块,用于将反卷积层输出特征图进行反归一化,得到去噪数据。
本发明实施例还提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
对叠前数据进行归一化,得到经过归一化的数据图像;
对经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图;
使用卷积层的卷积核和卷积层的卷积核偏置对卷积层输入特征图进行卷积处理,得到卷积层输出特征图;
将卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图;
使用反卷积层的卷积核和反卷积层的卷积核偏置对反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图;
将反卷积层输出特征图进行反归一化,得到去噪数据。
本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
对叠前数据进行归一化,得到经过归一化的数据图像;
对经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图;
使用卷积层的卷积核和卷积层的卷积核偏置对卷积层输入特征图进行卷积处理,得到卷积层输出特征图;
将卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图;
使用反卷积层的卷积核和反卷积层的卷积核偏置对反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图;
将反卷积层输出特征图进行反归一化,得到去噪数据。
本发明实施例的基于卷积自编码器的叠前数据去噪方法及系统先对叠前数据进行归一化,得到经过归一化的数据图像,再对经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图,然后使用卷积层的卷积核和卷积层的卷积核偏置对卷积层输入特征图进行卷积处理,得到卷积层输出特征图,接着将卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图,再使用反卷积层的卷积核和反卷积层的卷积核偏置对反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图,最后将反卷积层输出特征图进行反归一化,得到去噪数据,可以无需依赖于各种假设,从源头上打破了数据保真度低的瓶颈,可提供高保真、高信噪比的去噪数据。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例中基于卷积自编码器的叠前数据去噪方法的流程图;
图2是本发明实施例中S103的具体流程图;
图3是本发明实施例中S105的具体流程图;
图4是本发明实施例中更新卷积层的卷积核和卷积核偏置的流程图;
图5是本发明实施例中更新反卷积层的卷积核和卷积核偏置的流程图;
图6A是三维模型叠前数据在Inline131的示意图。
图6B是应用本发明的三维模型去噪数据在Inline131的示意图。
图6C是三维模型叠前数据在Inline250的示意图。
图6D是应用本发明的三维模型去噪数据在Inline250的示意图。
图6E是三维模型叠前数据的某一目标层沿层振幅切片的示意图。
图6F是应用本发明的三维模型去噪数据的某一目标层沿层振幅切片的示意图。
图7A是某地区三维实际叠前数据在Inline155的示意图。
图7B是应用本发明的某地区三维实际去噪数据在Inline155的示意图。
图7C是某地区三维实际叠前数据在Inline201的示意图。
图7D是应用本发明的某地区三维实际去噪数据在Inline201的示意图。
图7E是某地区三维实际叠前数据的某一目标层沿层振幅切片的示意图。
图7F是应用本发明的某地区三维实际去噪数据的某一目标层沿层振幅切片的示意图。
图8是本发明实施例中基于卷积自编码器的叠前数据去噪系统的结构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
鉴于现有的去噪技术得到数据的保真度和信噪比低下,本发明实施例提供一种基于卷积自编码器的叠前数据去噪方法,可以提供高保真、高信噪比的去噪数据。以下结合附图对本发明进行详细说明。
图1是本发明实施例中基于卷积自编码器(CAE,Convolutional Auto-Encode)的叠前数据去噪方法的流程图。如图1所示,基于卷积自编码器的叠前数据去噪方法包括:
S101:对叠前数据进行归一化,得到经过归一化的数据图像。
S102:对经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图。
S103:使用卷积层的卷积核和卷积层的卷积核偏置对卷积层输入特征图进行卷积处理,得到卷积层输出特征图。
S104:将卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图。
S105:使用反卷积层的卷积核和反卷积层的卷积核偏置对反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图。
S106:将反卷积层输出特征图进行反归一化,得到去噪数据。
图1所示的基于卷积自编码器的叠前数据去噪方法的执行主体可以为卷积自编码器。由图1所示的流程可知,本发明实施例的基于卷积自编码器的叠前数据去噪方法先对叠前数据进行归一化,得到经过归一化的数据图像,再对经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图,然后使用卷积层的卷积核和卷积层的卷积核偏置对卷积层输入特征图进行卷积处理,得到卷积层输出特征图,接着将卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图,再使用反卷积层的卷积核和反卷积层的卷积核偏置对反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图,最后将反卷积层输出特征图进行反归一化,得到去噪数据,可以无需依赖于各种假设,从源头上打破了数据保真度低的瓶颈,可提供高保真、高信噪比的去噪数据。
其中,对叠前数据进行归一化是将叠前数据的像素值进行空间转换,将其转换为[0 1]的值域内进行处理。
图2是本发明实施例中S103的具体流程图。如图2所示,S103包括:
S201:将卷积层输入特征图作为第1个卷积层全部神经元的输出特征图。
S202:执行迭代处理:当L=2,3,……,Q时,根据第L-1个卷积层全部神经元的输出特征图、连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核,和第L个卷积层全部神经元的卷积核偏置,计算第L个卷积层全部神经元的输出特征图。
S203:将第Q个卷积层全部神经元的输出特征图作为卷积层输出特征图;其中,Q为卷积层的个数。
一实施例中,通过如下公式计算第L个卷积层全部神经元的输出特征图:
其中,为第L个卷积层第j个神经元的输出特征图,为第L-1个卷积层第i个神经元的输出特征图,为连接第L-1个卷积层第i个神经元与第L个卷积层第j个神经元的卷积核,kL-1为第L-1个卷积层神经元的个数,1≤i≤kL-1,kL为第L个卷积层神经元的个数,1≤j≤kL,k1=1,kQ=1,即第一个卷积层神经元的个数和最后一个卷积层神经元的个数均为1,为第L个卷积层第j个神经元的卷积核偏置。
其中,输出特征图的大小由卷积核的大小控制,卷积核越大则计算使用的数据越多,但并不是越大越好,当卷积核过大时会无法提取有效的局部特征。因此需要结合输入数据的大小以及地震数据特征,运算速度,内存等因素进行卷积核大小选取,一般可选取5*5或者7*7的卷积核,用卷积核对卷积层输入特征图的时窗做卷积,最终得到每个时窗通过特征空间转换得到的二维特征图作为卷积层输出特征图。
S104具体包括:在池化层中对卷积层输出特征图进行池化处理,在反池化层中对经过池化的特征图进行反池化处理。
池化层是一个特征映射层,即下采样层。池化层作用有两个,其一是对卷积层输出特征图进行压缩,使得特征图变小,简化网络计算复杂度,其二是对卷积层输出特征图进行压缩转换和高级特征的提取,并且池化对于特征图具有平移不变性。较为常用的池化有俩种,分别是平均池化和最大池化。在本发明中,时窗大小选取的缩放因子为2,卷积层和池化层的排列可以灵活选取,例如三个卷积层后面接一个池化层。反池化层即上采样层,池化和反池化是一个互逆的过程。
图3是本发明实施例中S105的具体流程图。如图3所示,S105包括:
S301:将反卷积层输入特征图作为第1个反卷积层全部神经元的输出特征图。
S302:执行迭代处理:当L=2,3,……,Q时,根据第L-1个反卷积层全部神经元的输出特征图、连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核,和第L个反卷积层全部神经元的卷积核偏置,计算第L个反卷积层全部神经元的输出特征图。
S303:将第Q个反卷积层全部神经元的输出特征图作为反卷积层输出特征图;其中,Q为反卷积层的个数。
一实施例中,通过如下公式计算第L个反卷积层全部神经元的输出特征图:
其中,为第L个反卷积层第j个神经元的输出特征图,为第L-1个反卷积层第i个神经元的输出特征图,为连接第L-1个反卷积层第i个神经元与第L个反卷积层第j个神经元的卷积核,k'L-1为第L-1个反卷积层神经元的个数,1≤i≤k'L-1,k'L为第L个反卷积层神经元的个数,1≤j≤k'L,k'1=1,k'Q=1,第一个反卷积层神经元的个数和最后一个反卷积层神经元的个数均为1,为第L个反卷积层第j个神经元的卷积核偏置。
反卷积层的计算思路与卷积层相同,不同之处在于,如果卷积层使用valid卷积,则反卷积层使用full卷积,如果卷积层使用full卷积,则反卷积层使用valid卷积,卷积和反卷积也是互逆的过程。
S106具体包括:在输出层将反卷积层输出特征图进行反归一化,得到去噪数据。输出层为解码过程的最后一层,此层接收反归一化得到的噪数据,在根据卷积层输入特征图和去噪数据进行误差计算后,将特征图误差传递到前层。
图4是本发明实施例中更新卷积层的卷积核和卷积核偏置的流程图。如图4所示,执行S106之后,还包括:
S401:根据卷积层输入特征图和去噪数据,得到第Q个卷积层的特征图误差。
S402:执行迭代处理:当L=2,3,……,Q-1时,根据第L+1个卷积层的全部特征图误差、连接第L个卷积层全部神经元与第L+1个卷积层全部神经元的卷积核的转置矩阵,和第L+1个卷积层全部神经元的输出特征图的导数,计算第L个卷积层的全部特征图误差;其中,Q为卷积层的个数。
S403:根据第L个卷积层的全部特征图误差、第L-1个卷积层全部神经元的输出特征图,对连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核进行更新。
S404:根据第L个卷积层的全部特征图误差对第L个卷积层全部神经元的卷积核偏置进行更新。
一实施例中,通过如下公式计算第Q个卷积层的特征图误差:
其中,为第Q个卷积层的第m个特征图误差,xz为第z个卷积层输入特征图,yz为第z个去噪数据,n为去噪数据的个数。其中,去噪数据的个数与选取的小数据图像的个数一致,当选取多个小数据图像时,对每个小数据图像依次进行卷积处理和反卷积处理。
通过如下公式计算第L个卷积层的全部特征图误差:
其中,为第L个卷积层的第j个特征图误差,为连接第L个卷积层第j个神经元与第L+1个卷积层第m个神经元的卷积核,为连接第L个卷积层第j个神经元与第L+1个卷积层第m个神经元的卷积核的转置矩阵,kL为第L个卷积层神经元的个数,1≤j≤kL,kL+1为第L+1个卷积层神经元的个数,1≤m≤kL+1为第L+1个卷积层的第m个特征图误差,为第L+1个卷积层第m个神经元的输出特征图,为第L+1个卷积层第m个神经元的输出特征图的导数;
通过如下公式对连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核进行更新:
其中,为经过更新的连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核,为经过更新的连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核中第u行第v列的元素,为连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核,为连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核中第u行第v列的元素,α为学习率,为第L个卷积层的第j个特征图误差中第u行第v列的元素,为第L-1个卷积层第i个神经元的输出特征图,为第L-1个卷积层第i个神经元的输出特征图中第u行第v列的元素;
通过如下公式对第L个卷积层全部神经元的卷积核偏置进行更新:
其中,为经过更新的第L个卷积层第j个神经元的卷积核偏置,为第L个卷积层第j个神经元的卷积核偏置。
图5是本发明实施例中更新反卷积层的卷积核和卷积核偏置的流程图。如图5所示,执行S106之后,还包括:
S501:根据卷积层输入特征图和去噪数据,得到第Q个反卷积层的特征图误差。
S502:执行迭代处理:当L=2,3,……,Q-1时,根据第L+1个反卷积层的全部特征图误差、连接第L个反卷积层全部神经元与第L+1个反卷积层全部神经元的卷积核的转置矩阵,和第L+1个反卷积层全部神经元的输出特征图的导数,计算第L个反卷积层的全部特征图误差;其中,Q为反卷积层的个数。
S503:根据第L个反卷积层的全部特征图误差、第L-1个反卷积层全部神经元的输出特征图,对连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核进行更新。
S504:根据第L个反卷积层的全部特征图误差对第L个反卷积层全部神经元的卷积核偏置进行更新。
一实施例中,通过如下公式计算第Q个反卷积层的特征图误差:
其中,为第Q个反卷积层的第m个特征图误差,xz为第z个卷积层输入特征图,yz为第z个去噪数据,n为去噪数据的个数;
通过如下公式计算第L个反卷积层的全部特征图误差:
其中,为第L个反卷积层的第j个特征图误差,为连接第L个反卷积层第j个神经元与第L+1个反卷积层第m个神经元的卷积核,为连接第L个反卷积层第j个神经元与第L+1个反卷积层第m个神经元的卷积核的转置矩阵,k'L为第L个反卷积层神经元的个数,1≤j≤k'L,k'L+1为第L+1个反卷积层神经元的个数,1≤m≤k'L+1为第L+1个反卷积层的第m个特征图误差,为第L+1个反卷积层第m个神经元的输出特征图,为第L+1个反卷积层第m个神经元的输出特征图的导数;
通过如下公式对连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核进行更新:
其中,为经过更新的连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核,为经过更新的连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核中第u行第v列的元素,为连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核,为连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核中第u行第v列的元素,α为学习率,为第L个反卷积层的第j个特征图误差中第u行第v列的元素,为第L-1个反卷积层第i个神经元的输出特征图,为第L-1个反卷积层第i个神经元的输出特征图中第u行第v列的元素;
通过如下公式对第L个反卷积层全部神经元的卷积核偏置进行更新:
其中,为经过更新的第L个反卷积层第j个神经元的卷积核偏置,为第L个反卷积层第j个神经元的卷积核偏置。
本发明的实施方案的流程如下:
1、在输入层中对叠前数据进行归一化,得到经过归一化的数据图像。对经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图。每个小数据图像对应一个卷积层输入特征图。
2、对每个小数据图像(卷积层输入特征图)依次进行卷积处理:在卷积层中将卷积层输入特征图作为第1个卷积层全部神经元的输出特征图。执行迭代处理:当L=2,3,……,Q时,根据第L-1个卷积层全部神经元的输出特征图、连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核,和第L个卷积层全部神经元的卷积核偏置,计算第L个卷积层全部神经元的输出特征图。将第Q个卷积层全部神经元的输出特征图作为卷积层输出特征图;其中,Q为卷积层的个数。
3、在池化层中对卷积层输出特征图进行池化处理,在反池化层中对经过池化的特征图进行反池化处理。
4、对每个卷积层输出特征图依次进行卷积处理:在反卷积层中将反卷积层输入特征图作为第1个反卷积层全部神经元的输出特征图。执行迭代处理:当L=2,3,……,Q时,根据第L-1个反卷积层全部神经元的输出特征图、连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核,和第L个反卷积层全部神经元的卷积核偏置,计算第L个反卷积层全部神经元的输出特征图。将第Q个反卷积层全部神经元的输出特征图作为反卷积层输出特征图;其中,Q为反卷积层的个数。
5、在输出层中将反卷积层输出特征图进行反归一化,得到去噪数据。
6、更新卷积层的卷积核和卷积核偏置:根据卷积层输入特征图和去噪数据,得到第Q个反卷积层的特征图误差。执行迭代处理:当L=2,3,……,Q-1时,根据第L+1个卷积层的全部特征图误差、连接第L个卷积层全部神经元与第L+1个卷积层全部神经元的卷积核的转置矩阵,和第L+1个卷积层全部神经元的输出特征图的导数,计算第L个卷积层的全部特征图误差;其中,Q为卷积层的个数。根据第L个卷积层的全部特征图误差、第L-1个卷积层全部神经元的输出特征图,对连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核进行更新。根据第L个卷积层的全部特征图误差对第L个卷积层全部神经元的卷积核偏置进行更新,可以减少下一个卷积层输出特征图的误差。
7、更新反卷积层的卷积核和卷积核偏置:根据卷积层输入特征图和去噪数据,得到第Q个反卷积层的特征图误差。执行迭代处理:当L=2,3,……,Q-1时,根据第L+1个反卷积层的全部特征图误差、连接第L个反卷积层全部神经元与第L+1个反卷积层全部神经元的卷积核的转置矩阵,和第L+1个反卷积层全部神经元的输出特征图的导数,计算第L个反卷积层的全部特征图误差;其中,Q为反卷积层的个数。根据第L个反卷积层的全部特征图误差、第L-1个反卷积层全部神经元的输出特征图,对连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核进行更新。根据第L个反卷积层的全部特征图误差对第L个反卷积层全部神经元的卷积核偏置进行更新,可以减少下一个反卷积层输出特征图的误差。
图6A是三维模型叠前数据在Inline131的示意图。图6B是应用本发明的三维模型去噪数据在Inline131的示意图。图6C是三维模型叠前数据在Inline250的示意图。图6D是应用本发明的三维模型去噪数据在Inline250的示意图。如图6A至图6D所示,图6A至图6D的横轴为crossline,纵轴为time(时间)。图6E是三维模型叠前数据的某一目标层沿层振幅切片的示意图。图6F是应用本发明的三维模型去噪数据的某一目标层沿层振幅切片的示意图。如图6E和图6F所示,图6E和图6F的横轴为inline,纵轴为crossline。
图7A是某地区三维实际叠前数据在Inline155的示意图。图7B是应用本发明的某地区三维实际去噪数据在Inline155的示意图。图7C是某地区三维实际叠前数据在Inline201的示意图。图7D是应用本发明的某地区三维实际去噪数据在Inline201的示意图。如图7A至图7D所示,图7A至图7D的横轴为crossline,纵轴为time(时间)。图7E是某地区三维实际叠前数据的某一目标层沿层振幅切片的示意图。图7F是应用本发明的某地区三维实际去噪数据的某一目标层沿层振幅切片的示意图。如图7E和图7F所示,图7E和图7F的横轴为inline,纵轴为crossline。
从图6A至图7F可以看出,本发明可提供高保真、高信噪比的去噪数据。
综上,本发明实施例的基于卷积自编码器的叠前数据去噪方法先对叠前数据进行归一化,得到经过归一化的数据图像,再对经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图,然后使用卷积层的卷积核和卷积层的卷积核偏置对卷积层输入特征图进行卷积处理,得到卷积层输出特征图,接着将卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图,再使用反卷积层的卷积核和反卷积层的卷积核偏置对反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图,最后将反卷积层输出特征图进行反归一化,得到去噪数据,可以无需依赖于各种假设,从源头上打破了数据保真度低的瓶颈,可提供高保真、高信噪比的去噪数据。
本发明实施例的基于卷积自编码器的叠前数据去噪方法还可以对卷积层的卷积核和卷积核偏置,以及反卷积层的卷积核和卷积核偏置进行更新,以减少下一个去噪数据的误差。
基于同一发明构思,本发明实施例还提供了一种基于卷积自编码器的叠前数据去噪系统,由于该系统解决问题的原理与基于卷积自编码器的叠前数据去噪方法相似,因此该系统的实施可以参见方法的实施,重复之处不再赘述。
图8是本发明实施例中基于卷积自编码器的叠前数据去噪系统的结构框图。如图8所示,基于卷积自编码器的叠前数据去噪系统包括:
归一化模块,用于对叠前数据进行归一化,得到经过归一化的数据图像;
图像分割模块,用于对经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图;
卷积层模块,用于使用卷积层的卷积核和卷积层的卷积核偏置对卷积层输入特征图进行卷积处理,得到卷积层输出特征图;
池化及反池化模块,用于将卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图;
反卷积层模块,用于使用反卷积层的卷积核和反卷积层的卷积核偏置对反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图;
反归一化模块,用于将反卷积层输出特征图进行反归一化,得到去噪数据。
在其中一种实施例中,卷积层模块具体用于:
将卷积层输入特征图作为第1个卷积层全部神经元的输出特征图;
执行迭代处理:当L=2,3,……,Q时,根据第L-1个卷积层全部神经元的输出特征图、连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核,和第L个卷积层全部神经元的卷积核偏置,计算第L个卷积层全部神经元的输出特征图;
将第Q个卷积层全部神经元的输出特征图作为卷积层输出特征图;
其中,Q为卷积层的个数。
在其中一种实施例中,反卷积层模块具体用于:
将反卷积层输入特征图作为第1个反卷积层全部神经元的输出特征图;
执行迭代处理:当L=2,3,……,Q时,根据第L-1个反卷积层全部神经元的输出特征图、连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核,和第L个反卷积层全部神经元的卷积核偏置,计算第L个反卷积层全部神经元的输出特征图;
将第Q个反卷积层全部神经元的输出特征图作为反卷积层输出特征图;
其中,Q为反卷积层的个数。
在其中一种实施例中,还包括:
特征图误差模块,用于根据卷积层输入特征图和去噪数据,得到第Q个卷积层的特征图误差;
第一迭代模块,用于执行迭代处理:当L=2,3,……,Q-1时,根据第L+1个卷积层的全部特征图误差、连接第L个卷积层全部神经元与第L+1个卷积层全部神经元的卷积核的转置矩阵,和第L+1个卷积层全部神经元的输出特征图的导数,计算第L个卷积层的全部特征图误差;其中,Q为卷积层的个数;
第一卷积核更新模块,用于根据第L个卷积层的全部特征图误差、第L-1个卷积层全部神经元的输出特征图,对连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核进行更新;
第一卷积核偏置更新模块,用于根据第L个卷积层的全部特征图误差对第L个卷积层全部神经元的卷积核偏置进行更新。
在其中一种实施例中,还包括:
特征图误差模块,用于根据卷积层输入特征图和去噪数据,得到第Q个反卷积层的特征图误差;
第二迭代模块,用于执行迭代处理:当L=2,3,……,Q-1时,根据第L+1个反卷积层的全部特征图误差、连接第L个反卷积层全部神经元与第L+1个反卷积层全部神经元的卷积核的转置矩阵,和第L+1个反卷积层全部神经元的输出特征图的导数,计算第L个反卷积层的全部特征图误差;其中,Q为反卷积层的个数;
第二卷积核更新模块,用于根据第L个反卷积层的全部特征图误差、第L-1个反卷积层全部神经元的输出特征图,对连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核进行更新;
第二卷积核偏置更新模块,用于根据第L个反卷积层的全部特征图误差对第L个反卷积层全部神经元的卷积核偏置进行更新。
综上,本发明实施例的基于卷积自编码器的叠前数据去噪系统先对叠前数据进行归一化,得到经过归一化的数据图像,再对经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图,然后使用卷积层的卷积核和卷积层的卷积核偏置对卷积层输入特征图进行卷积处理,得到卷积层输出特征图,接着将卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图,再使用反卷积层的卷积核和反卷积层的卷积核偏置对反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图,最后将反卷积层输出特征图进行反归一化,得到去噪数据,可以无需依赖于各种假设,从源头上打破了数据保真度低的瓶颈,可提供高保真、高信噪比的去噪数据。
本发明实施例的基于卷积自编码器的叠前数据去噪系统还可以对卷积层的卷积核和卷积核偏置,以及反卷积层的卷积核和卷积核偏置进行更新,以减少下一个去噪数据的误差。
本发明实施例还提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
对叠前数据进行归一化,得到经过归一化的数据图像;
对经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图;
使用卷积层的卷积核和卷积层的卷积核偏置对卷积层输入特征图进行卷积处理,得到卷积层输出特征图;
将卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图;
使用反卷积层的卷积核和反卷积层的卷积核偏置对反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图;
将反卷积层输出特征图进行反归一化,得到去噪数据。
综上,本发明实施例的计算机设备先对叠前数据进行归一化,得到经过归一化的数据图像,再对经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图,然后使用卷积层的卷积核和卷积层的卷积核偏置对卷积层输入特征图进行卷积处理,得到卷积层输出特征图,接着将卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图,再使用反卷积层的卷积核和反卷积层的卷积核偏置对反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图,最后将反卷积层输出特征图进行反归一化,得到去噪数据,可以无需依赖于各种假设,从源头上打破了数据保真度低的瓶颈,可提供高保真、高信噪比的去噪数据。
本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
对叠前数据进行归一化,得到经过归一化的数据图像;
对经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图;
使用卷积层的卷积核和卷积层的卷积核偏置对卷积层输入特征图进行卷积处理,得到卷积层输出特征图;
将卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图;
使用反卷积层的卷积核和反卷积层的卷积核偏置对反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图;
将反卷积层输出特征图进行反归一化,得到去噪数据。
综上,本发明实施例的计算机可读存储介质先对叠前数据进行归一化,得到经过归一化的数据图像,再对经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图,然后使用卷积层的卷积核和卷积层的卷积核偏置对卷积层输入特征图进行卷积处理,得到卷积层输出特征图,接着将卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图,再使用反卷积层的卷积核和反卷积层的卷积核偏置对反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图,最后将反卷积层输出特征图进行反归一化,得到去噪数据,可以无需依赖于各种假设,从源头上打破了数据保真度低的瓶颈,可提供高保真、高信噪比的去噪数据。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (16)

1.一种基于卷积自编码器的叠前数据去噪方法,其特征在于,包括:
对叠前数据进行归一化,得到经过归一化的数据图像;
对所述经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图;
使用卷积层的卷积核和卷积层的卷积核偏置对所述卷积层输入特征图进行卷积处理,得到卷积层输出特征图;
将所述卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图;
使用反卷积层的卷积核和反卷积层的卷积核偏置对所述反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图;
将所述反卷积层输出特征图进行反归一化,得到去噪数据。
2.根据权利要求1所述的基于卷积自编码器的叠前数据去噪方法,其特征在于,使用卷积层的卷积核和卷积层的卷积核偏置对所述卷积层输入特征图进行卷积处理,得到卷积层输出特征图,具体包括:
将所述卷积层输入特征图作为第1个卷积层全部神经元的输出特征图;
执行迭代处理:当L=2,3,……,Q时,根据第L-1个卷积层全部神经元的输出特征图、连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核,和第L个卷积层全部神经元的卷积核偏置,计算第L个卷积层全部神经元的输出特征图;
将第Q个卷积层全部神经元的输出特征图作为所述卷积层输出特征图;
其中,Q为卷积层的个数。
3.根据权利要求2所述的基于卷积自编码器的叠前数据去噪方法,其特征在于,
通过如下公式计算第L个卷积层全部神经元的输出特征图:
其中,为第L个卷积层第j个神经元的输出特征图,为第L-1个卷积层第i个神经元的输出特征图,为连接第L-1个卷积层第i个神经元与第L个卷积层第j个神经元的卷积核,kL-1为第L-1个卷积层神经元的个数,1≤i≤kL-1,kL为第L个卷积层神经元的个数,1≤j≤kL,k1=1,kQ=1,为第L个卷积层第j个神经元的卷积核偏置。
4.根据权利要求1所述的基于卷积自编码器的叠前数据去噪方法,其特征在于,使用反卷积层的卷积核和反卷积层的卷积核偏置对所述反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图,具体包括:
将所述反卷积层输入特征图作为第1个反卷积层全部神经元的输出特征图;
执行迭代处理:当L=2,3,……,Q时,根据第L-1个反卷积层全部神经元的输出特征图、连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核,和第L个反卷积层全部神经元的卷积核偏置,计算第L个反卷积层全部神经元的输出特征图;
将第Q个反卷积层全部神经元的输出特征图作为所述反卷积层输出特征图;
其中,Q为反卷积层的个数。
5.根据权利要求4所述的基于卷积自编码器的叠前数据去噪方法,其特征在于,
通过如下公式计算第L个反卷积层全部神经元的输出特征图:
其中,为第L个反卷积层第j个神经元的输出特征图,为第L-1个反卷积层第i个神经元的输出特征图,为连接第L-1个反卷积层第i个神经元与第L个反卷积层第j个神经元的卷积核,k'L-1为第L-1个反卷积层神经元的个数,1≤i≤k'L-1,k'L为第L个反卷积层神经元的个数,1≤j≤k'L,k'1=1,k'Q=1,为第L个反卷积层第j个神经元的卷积核偏置。
6.根据权利要求2所述的基于卷积自编码器的叠前数据去噪方法,其特征在于,得到去噪数据之后,还包括:
根据所述卷积层输入特征图和所述去噪数据,得到第Q个卷积层的特征图误差;
执行迭代处理:当L=2,3,……,Q-1时,根据第L+1个卷积层的全部特征图误差、连接第L个卷积层全部神经元与第L+1个卷积层全部神经元的卷积核的转置矩阵,和第L+1个卷积层全部神经元的输出特征图的导数,计算第L个卷积层的全部特征图误差;其中,Q为卷积层的个数;
根据第L个卷积层的全部特征图误差、第L-1个卷积层全部神经元的输出特征图,对连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核进行更新;
根据第L个卷积层的全部特征图误差对第L个卷积层全部神经元的卷积核偏置进行更新。
7.根据权利要求6所述的基于卷积自编码器的叠前数据去噪方法,其特征在于,
通过如下公式计算第Q个卷积层的特征图误差:
其中,为第Q个卷积层的第m个特征图误差,xz为第z个卷积层输入特征图,yz为第z个去噪数据,n为去噪数据的个数;
通过如下公式计算第L个卷积层的全部特征图误差:
其中,为第L个卷积层的第j个特征图误差,为连接第L个卷积层第j个神经元与第L+1个卷积层第m个神经元的卷积核,为连接第L个卷积层第j个神经元与第L+1个卷积层第m个神经元的卷积核的转置矩阵,kL为第L个卷积层神经元的个数,1≤j≤kL,kL+1为第L+1个卷积层神经元的个数,1≤m≤kL+1为第L+1个卷积层的第m个特征图误差,为第L+1个卷积层第m个神经元的输出特征图,为第L+1个卷积层第m个神经元的输出特征图的导数;
通过如下公式对连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核进行更新:
其中,为经过更新的连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核,为经过更新的连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核中第u行第v列的元素,为连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核,为连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核中第u行第v列的元素,α为学习率,为第L个卷积层的第j个特征图误差中第u行第v列的元素,为第L-1个卷积层第i个神经元的输出特征图,为第L-1个卷积层第i个神经元的输出特征图中第u行第v列的元素;
通过如下公式对第L个卷积层全部神经元的卷积核偏置进行更新:
其中,为经过更新的第L个卷积层第j个神经元的卷积核偏置,为第L个卷积层第j个神经元的卷积核偏置。
8.根据权利要求4所述的基于卷积自编码器的叠前数据去噪方法,其特征在于,得到去噪数据之后,还包括:
根据所述卷积层输入特征图和所述去噪数据,得到第Q个反卷积层的特征图误差;
执行迭代处理:当L=2,3,……,Q-1时,根据第L+1个反卷积层的全部特征图误差、连接第L个反卷积层全部神经元与第L+1个反卷积层全部神经元的卷积核的转置矩阵,和第L+1个反卷积层全部神经元的输出特征图的导数,计算第L个反卷积层的全部特征图误差;其中,Q为反卷积层的个数;
根据第L个反卷积层的全部特征图误差、第L-1个反卷积层全部神经元的输出特征图,对连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核进行更新;
根据第L个反卷积层的全部特征图误差对第L个反卷积层全部神经元的卷积核偏置进行更新。
9.根据权利要求8所述的基于卷积自编码器的叠前数据去噪方法,其特征在于,
通过如下公式计算第Q个反卷积层的特征图误差:
其中,为第Q个反卷积层的第m个特征图误差,xz为第z个卷积层输入特征图,yz为第z个去噪数据,n为去噪数据的个数;
通过如下公式计算第L个反卷积层的全部特征图误差:
其中,为第L个反卷积层的第j个特征图误差,为连接第L个反卷积层第j个神经元与第L+1个反卷积层第m个神经元的卷积核,为连接第L个反卷积层第j个神经元与第L+1个反卷积层第m个神经元的卷积核的转置矩阵,k'L为第L个反卷积层神经元的个数,1≤j≤k'L,k'L+1为第L+1个反卷积层神经元的个数,1≤m≤k'L+1为第L+1个反卷积层的第m个特征图误差,为第L+1个反卷积层第m个神经元的输出特征图,为第L+1个反卷积层第m个神经元的输出特征图的导数;
通过如下公式对连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核进行更新:
其中,为经过更新的连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核,为经过更新的连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核中第u行第v列的元素,为连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核,为连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核中第u行第v列的元素,α为学习率,为第L个反卷积层的第j个特征图误差中第u行第v列的元素,为第L-1个反卷积层第i个神经元的输出特征图,为第L-1个反卷积层第i个神经元的输出特征图中第u行第v列的元素;
通过如下公式对第L个反卷积层全部神经元的卷积核偏置进行更新:
其中,为经过更新的第L个反卷积层第j个神经元的卷积核偏置,为第L个反卷积层第j个神经元的卷积核偏置。
10.一种基于卷积自编码器的叠前数据去噪系统,其特征在于,包括:
归一化模块,用于对叠前数据进行归一化,得到经过归一化的数据图像;
图像分割模块,用于对所述经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图;
卷积层模块,用于使用卷积层的卷积核和卷积层的卷积核偏置对所述卷积层输入特征图进行卷积处理,得到卷积层输出特征图;
池化及反池化模块,用于将所述卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图;
反卷积层模块,用于使用反卷积层的卷积核和反卷积层的卷积核偏置对所述反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图;
反归一化模块,用于将所述反卷积层输出特征图进行反归一化,得到去噪数据。
11.根据权利要求10所述的基于卷积自编码器的叠前数据去噪系统,其特征在于,所述卷积层模块具体用于:
将所述卷积层输入特征图作为第1个卷积层全部神经元的输出特征图;
执行迭代处理:当L=2,3,……,Q时,根据第L-1个卷积层全部神经元的输出特征图、连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核,和第L个卷积层全部神经元的卷积核偏置,计算第L个卷积层全部神经元的输出特征图;
将第Q个卷积层全部神经元的输出特征图作为所述卷积层输出特征图;
其中,Q为卷积层的个数。
12.根据权利要求10所述的基于卷积自编码器的叠前数据去噪系统,其特征在于,所述反卷积层模块具体用于:
将所述反卷积层输入特征图作为第1个反卷积层全部神经元的输出特征图;
执行迭代处理:当L=2,3,……,Q时,根据第L-1个反卷积层全部神经元的输出特征图、连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核,和第L个反卷积层全部神经元的卷积核偏置,计算第L个反卷积层全部神经元的输出特征图;
将第Q个反卷积层全部神经元的输出特征图作为所述反卷积层输出特征图;
其中,Q为反卷积层的个数。
13.根据权利要求11所述的基于卷积自编码器的叠前数据去噪系统,其特征在于,还包括:
特征图误差模块,用于根据所述卷积层输入特征图和所述去噪数据,得到第Q个卷积层的特征图误差;
第一迭代模块,用于执行迭代处理:当L=2,3,……,Q-1时,根据第L+1个卷积层的全部特征图误差、连接第L个卷积层全部神经元与第L+1个卷积层全部神经元的卷积核的转置矩阵,和第L+1个卷积层全部神经元的输出特征图的导数,计算第L个卷积层的全部特征图误差;其中,Q为卷积层的个数;
第一卷积核更新模块,用于根据第L个卷积层的全部特征图误差、第L-1个卷积层全部神经元的输出特征图,对连接第L-1个卷积层全部神经元与第L个卷积层全部神经元的卷积核进行更新;
第一卷积核偏置更新模块,用于根据第L个卷积层的全部特征图误差对第L个卷积层全部神经元的卷积核偏置进行更新。
14.根据权利要求12所述的基于卷积自编码器的叠前数据去噪系统,其特征在于,还包括:
特征图误差模块,用于根据所述卷积层输入特征图和所述去噪数据,得到第Q个反卷积层的特征图误差;
第二迭代模块,用于执行迭代处理:当L=2,3,……,Q-1时,根据第L+1个反卷积层的全部特征图误差、连接第L个反卷积层全部神经元与第L+1个反卷积层全部神经元的卷积核的转置矩阵,和第L+1个反卷积层全部神经元的输出特征图的导数,计算第L个反卷积层的全部特征图误差;其中,Q为反卷积层的个数;
第二卷积核更新模块,用于根据第L个反卷积层的全部特征图误差、第L-1个反卷积层全部神经元的输出特征图,对连接第L-1个反卷积层全部神经元与第L个反卷积层全部神经元的卷积核进行更新;
第二卷积核偏置更新模块,用于根据第L个反卷积层的全部特征图误差对第L个反卷积层全部神经元的卷积核偏置进行更新。
15.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现以下步骤:
对叠前数据进行归一化,得到经过归一化的数据图像;
对所述经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图;
使用卷积层的卷积核和卷积层的卷积核偏置对所述卷积层输入特征图进行卷积处理,得到卷积层输出特征图;
将所述卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图;
使用反卷积层的卷积核和反卷积层的卷积核偏置对所述反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图;
将所述反卷积层输出特征图进行反归一化,得到去噪数据。
16.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现以下步骤:
对叠前数据进行归一化,得到经过归一化的数据图像;
对所述经过归一化的数据图像开辟多个大小相同的窗口,分割为多个小数据图像,选取其中一个或多个小数据图像作为卷积层输入特征图;
使用卷积层的卷积核和卷积层的卷积核偏置对所述卷积层输入特征图进行卷积处理,得到卷积层输出特征图;
将所述卷积层输出特征图进行池化处理和反池化处理,得到反卷积层输入特征图;
使用反卷积层的卷积核和反卷积层的卷积核偏置对所述反卷积层输入特征图进行反卷积处理,得到反卷积层输出特征图;
将所述反卷积层输出特征图进行反归一化,得到去噪数据。
CN201810862238.3A 2018-08-01 2018-08-01 基于卷积自编码器的叠前数据去噪方法及系统 Pending CN109087259A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810862238.3A CN109087259A (zh) 2018-08-01 2018-08-01 基于卷积自编码器的叠前数据去噪方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810862238.3A CN109087259A (zh) 2018-08-01 2018-08-01 基于卷积自编码器的叠前数据去噪方法及系统

Publications (1)

Publication Number Publication Date
CN109087259A true CN109087259A (zh) 2018-12-25

Family

ID=64831239

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810862238.3A Pending CN109087259A (zh) 2018-08-01 2018-08-01 基于卷积自编码器的叠前数据去噪方法及系统

Country Status (1)

Country Link
CN (1) CN109087259A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110007355A (zh) * 2019-04-15 2019-07-12 中国科学院电子学研究所 一种卷积自编码器及物体内部异常的检测方法和装置
CN110228673A (zh) * 2019-04-17 2019-09-13 华南师范大学 一种智能分类垃圾桶
CN110363290A (zh) * 2019-07-19 2019-10-22 广东工业大学 一种基于混合神经网络模型的图像识别方法、装置及设备
CN110874828A (zh) * 2020-01-20 2020-03-10 上海尽星生物科技有限责任公司 神经网络模型及基于神经网络模型的超声波束形成方法
CN111144303A (zh) * 2019-12-26 2020-05-12 华北电力大学(保定) 基于改进去噪自编码器的电力线信道传输特性识别方法
CN112444850A (zh) * 2019-08-29 2021-03-05 中国石油化工股份有限公司 地震资料速度建模方法、存储介质及计算设备
CN112733449A (zh) * 2021-01-11 2021-04-30 中国海洋大学 一种cnn井震联合反演方法、系统、存储介质、设备及应用

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203354A (zh) * 2016-07-14 2016-12-07 南京信息工程大学 基于混合深度结构的场景识别方法
CN107506695A (zh) * 2017-07-28 2017-12-22 武汉理工大学 视频监控设备故障自动检测方法
US20180033449A1 (en) * 2016-08-01 2018-02-01 Apple Inc. System and method for performing speech enhancement using a neural network-based combined symbol
CN107657615A (zh) * 2017-11-10 2018-02-02 西安电子科技大学 基于增量cae的高分辨sar图像变化检测方法
US20180084988A1 (en) * 2016-09-23 2018-03-29 International Business Machines Corporation Early Prediction Of Age Related Macular Degeneration By Image Reconstruction
CN108182452A (zh) * 2017-12-29 2018-06-19 哈尔滨工业大学(威海) 基于分组卷积自编码器的航空发动机故障检测方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203354A (zh) * 2016-07-14 2016-12-07 南京信息工程大学 基于混合深度结构的场景识别方法
US20180033449A1 (en) * 2016-08-01 2018-02-01 Apple Inc. System and method for performing speech enhancement using a neural network-based combined symbol
US20180084988A1 (en) * 2016-09-23 2018-03-29 International Business Machines Corporation Early Prediction Of Age Related Macular Degeneration By Image Reconstruction
CN107506695A (zh) * 2017-07-28 2017-12-22 武汉理工大学 视频监控设备故障自动检测方法
CN107657615A (zh) * 2017-11-10 2018-02-02 西安电子科技大学 基于增量cae的高分辨sar图像变化检测方法
CN108182452A (zh) * 2017-12-29 2018-06-19 哈尔滨工业大学(威海) 基于分组卷积自编码器的航空发动机故障检测方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JAKE BOUVRIE: ""Notes on Convolutional Neural Networks"", 《COGPRINTS》 *
MASCI J等: ""Stacked Convolutional Auto-Encoders for Hierarchical Feature Extraction"", 《PROCEEDINGS OF THE 21ST INTERNATIONAL CONFERENCE ON ARTIFICIAL NEURAL NETWORKS》 *
YOSHUA BENGIO等: ""Greedy Layer-Wise Training of Deep Networks"", 《PROCEEDINGS OF THE 19TH INTERNATIONAL CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS》 *
贾文娟等: ""自编码器理论与方法综述"", 《计算机系统应用》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110007355A (zh) * 2019-04-15 2019-07-12 中国科学院电子学研究所 一种卷积自编码器及物体内部异常的检测方法和装置
CN110228673A (zh) * 2019-04-17 2019-09-13 华南师范大学 一种智能分类垃圾桶
CN110363290A (zh) * 2019-07-19 2019-10-22 广东工业大学 一种基于混合神经网络模型的图像识别方法、装置及设备
CN112444850A (zh) * 2019-08-29 2021-03-05 中国石油化工股份有限公司 地震资料速度建模方法、存储介质及计算设备
CN112444850B (zh) * 2019-08-29 2024-01-26 中国石油化工股份有限公司 地震资料速度建模方法、存储介质及计算设备
CN111144303A (zh) * 2019-12-26 2020-05-12 华北电力大学(保定) 基于改进去噪自编码器的电力线信道传输特性识别方法
CN110874828A (zh) * 2020-01-20 2020-03-10 上海尽星生物科技有限责任公司 神经网络模型及基于神经网络模型的超声波束形成方法
CN110874828B (zh) * 2020-01-20 2020-04-21 上海尽星生物科技有限责任公司 神经网络模型及基于神经网络模型的超声波束形成方法
CN112733449A (zh) * 2021-01-11 2021-04-30 中国海洋大学 一种cnn井震联合反演方法、系统、存储介质、设备及应用
CN112733449B (zh) * 2021-01-11 2022-12-02 中国海洋大学 一种cnn井震联合反演方法、系统、存储介质、设备及应用

Similar Documents

Publication Publication Date Title
CN109087259A (zh) 基于卷积自编码器的叠前数据去噪方法及系统
WO2020168844A1 (en) Image processing method, apparatus, equipment, and storage medium
CN101253493B (zh) 在图形处理单元上训练卷积神经网络
CN103308942B (zh) 一种可视化地震数据的方法及系统
CN106709881A (zh) 一种基于非凸低秩矩阵分解的高光谱图像去噪方法
CN103020939B (zh) 利用多时相数据去除光学遥感影像大面积厚云的方法
CN104024890B (zh) 通过加权叠加同时采集的波场来压制4d噪音
SA516370832B1 (ar) تجميع خصائص چيوفيزيائية متعددة باستخدام تحديد كمي ممتد
CN106952341A (zh) 一种基于视觉的水下场景三维点云重建方法及其系统
CN115330643B (zh) 基于卷积神经网络和视觉变换神经网络的地震去噪方法
CN112464891B (zh) 一种高光谱图像分类方法
WO2006046154A2 (en) Method and apparatus of image processing
CN109064402B (zh) 基于增强非局部总变分模型先验的单幅图像超分辨率重建方法
CN114743189A (zh) 指针式仪表读数识别方法、装置、电子设备及存储介质
CN116309070A (zh) 一种高光谱遥感图像超分辨率重建方法、装置及计算机设备
CN110501751B (zh) 一种基于多分量梯度数据联合和深度加权的相关成像方法
CN114418886B (zh) 一种基于深度卷积自编码器的鲁棒性去噪方法
CN116563649B (zh) 基于张量映射网络的高光谱图像轻量化分类方法及装置
CN112444850B (zh) 地震资料速度建模方法、存储介质及计算设备
CN116310452B (zh) 一种多视图聚类方法及系统
Mio et al. Interpolations with elasticae in Euclidean spaces
CN109584194A (zh) 基于卷积变分概率模型的高光谱图像融合方法
CN104346780B (zh) 基于位相相异的盲去卷积图像复原方法
CN111337973B (zh) 地震数据重建方法、系统
CN112634167A (zh) 一种全变差协同范数约束迭代投影的高光谱图像滤波方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20181225

WD01 Invention patent application deemed withdrawn after publication