CN113762481A - 一种基于深度学习的层析成像方法及系统 - Google Patents

一种基于深度学习的层析成像方法及系统 Download PDF

Info

Publication number
CN113762481A
CN113762481A CN202111069267.2A CN202111069267A CN113762481A CN 113762481 A CN113762481 A CN 113762481A CN 202111069267 A CN202111069267 A CN 202111069267A CN 113762481 A CN113762481 A CN 113762481A
Authority
CN
China
Prior art keywords
travel time
neural network
deep learning
source
deep
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111069267.2A
Other languages
English (en)
Other versions
CN113762481B (zh
Inventor
于子叶
马晓娜
王伟涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
INSTITUTE OF GEOPHYSICS CHINA EARTHQUAKE ADMINISTRATION
Original Assignee
INSTITUTE OF GEOPHYSICS CHINA EARTHQUAKE ADMINISTRATION
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by INSTITUTE OF GEOPHYSICS CHINA EARTHQUAKE ADMINISTRATION filed Critical INSTITUTE OF GEOPHYSICS CHINA EARTHQUAKE ADMINISTRATION
Priority to CN202111069267.2A priority Critical patent/CN113762481B/zh
Publication of CN113762481A publication Critical patent/CN113762481A/zh
Application granted granted Critical
Publication of CN113762481B publication Critical patent/CN113762481B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于深度学习的层析成像方法及系统,方法包括:获取观测台站的观测走时;根据所述观测走时利用深度学习模型进行反演,得到速度结构;所所述深度学模型包括依次连接的输入编码层、深度神经网络编码模块和汇总输出层。本发明能够提高层析成像的效率。

Description

一种基于深度学习的层析成像方法及系统
技术领域
本发明涉及层析成像领域,特别是涉及一种基于深度学习的层析成像方法及系统。
背景技术
目前层析成像方法被广泛的应用于地球物理勘探、城市监测领域。层析成像方法通过走时信息对地下速度结构信息进行反演。在此过程中可以根据最大化后验分布即贝叶斯理论的方式对速度结构信息进行反演。在此过程中有两个关键问题:第一低射线密度的情况下需要对速度结构分布进行假设,以求解射线路径未覆盖网格速度值;第二需要对射线路径进行优化计算,在速度变化较为剧烈的地区,单纯的使用直线假设会带来误差。一些研究者为解决以上问题提出了多种方法,比如:使用速度平滑处理以解决射线路径稀疏问题;使用快速行进算法对射线路径进行计算。为解决以上问题,有必要直接对速度结构进行建模,从而避免传统方法需要迭代求解的问题。
基于贝叶斯理论的反演过程为已知不同台站观测走时t的情况下,极大化速度m分布P的过程:
Figure BDA0003259870480000011
其中,m为空间离散单元网格的速度,Z为归一化常数,p(m)称为先验,p(t|s)称为似然。为使得概率函数P取得极值,会对先验和似然函数进行假设。首先似然函数通常假设理论走时与真实走时的差符合均值为0的高斯分布:
Figure BDA0003259870480000012
其中g(m)为非线性函数,σ为数据误差的方差,其为正演算法将速度模型计算为理论走时t',极大化高斯分布假设下的似然函数等价于最小二乘法。加入速度m先验分布p(m)可以纠正数据偏差,比如传统方法使用的l2正则化等价于速度结构先验符合高斯分布,即
Figure BDA0003259870480000021
其中σ2为预设模型方差即正则化参数。极大化概率函数P的过程可以使用梯度下降法、蒙特卡洛方法等。使用以上思路的层析成像方法面临三个问题:第一,先验分布是未知的,不合理的先验分布会带来误差;第二,正演算法中射线如何追踪,简化的传播路径可能会带来误差;第三,不同初始值可能会使得模型收敛到不同极小值,即反演受初始值影响;最后,由于是迭代式算法,因此计算速度较慢,难以在较短时间完成计算。
发明内容
本发明的目的是提供一种基于深度学习的层析成像方法及系统,以提高层析成像的精度和效率。
为实现上述目的,本发明提供了如下方案:
一种基于深度学习的层析成像方法,包括:
获取观测台站的观测走时;
根据所述观测走时利用深度学习模型进行反演,得到速度结构;所述深度学模型包括依次连接的输入编码层、深度神经网络编码模块和汇总输出层。
可选的,所述深度学习模型的训练过程包括:
以理论走时为输入,以真实速度结构为输出,以所述真实速度结构和神经网络的输出的均方差为代价函数,对神经网络进行训练,得到深度学习模型。
可选的,所述根据所述观测走时利用深度学习模型进行反演,得到速度结构,具体包括:
利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个卷积循环神经网络结构;
利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
可选的,所述根据所述观测走时利用深度学习模型进行反演,得到速度结构,具体包括:
利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个多头注意力网络结构;
利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
一种基于深度学习的层析成像系统,包括:
获取模块,用于获取观测台站的观测走时;
反演模块,用于根据所述观测走时利用深度学习模型进行反演,得到速度结构;所述深度学模型包括依次连接的输入编码层、深度神经网络编码模块和汇总输出层。
可选的,所述反演模块包括深度学习模型训练单元;
所述深度学习模型训练单元,用于以理论走时为输入,以真实速度结构为输出,以所述真实速度结构和神经网络的输出的均方差为代价函数,对神经网络进行训练,得到深度学习模型。
可选的,所述反演模块,具体包括:
第一输入编码单元,用于利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
第一深度神经网络编码单元,用于利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个卷积循环神经网络结构;
第一汇总输出单元,用于利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
可选的,所述反演模块,具体包括:
第二输入编码单元,用于利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
第二深度神经网络编码单元,用于利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个多头注意力网络结构;
第二汇总输出单元,用于利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供的一种基于深度学习的层析成像方法及系统,根据所述观测走时利用深度学习模型进行反演,得到速度结构。直接深度学习模型对速度结构进行拟合,反演过程直接计算速度信息,不需要进行迭代,因此可以提高层析成像的效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的一种基于深度学习的层析成像方法流程图;
图2为本发明提供的深度学习模型结构示意图;
图3为反演实验结果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于深度学习的层析成像方法及系统,以提高层析成像的效率。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明提供你的一种基于深度学习的层析成像方法,包括:
步骤101:获取观测台站的观测走时。
步骤102:根据所述观测走时利用深度学习模型进行反演,得到速度结构;所述深度学模型包括依次连接的输入编码层、深度神经网络编码模块和汇总输出层。
在实际应用中,所述深度学习模型的训练过程包括:
以理论走时为输入,以真实速度结构为输出,以所述真实速度结构和神经网络的输出的均方差为代价函数,对神经网络进行训练,得到深度学习模型。
作为一个实例,所述根据所述观测走时利用深度学习模型进行反演,得到速度结构,具体包括:
利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征。其中输入编码层为卷积神经网络。
利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个卷积循环神经网络结构或者多个多头注意力网络结构。
利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。其中,汇总输出层包括多层反卷积网络。
本发明法使用神经网络直接对分布函数进行拟合,即P≈G(m;t,θ),其中θ为神经网络参数,G为神经网络概率模型,t为观测走时。这解决了传统走时成像的三个问题:第一,先验分布是基于数据的,而非人为设定的,因此反演结果分布符合随机给定的速度模型分布,即只要给定的随机速度模型符合真实情况即可;第二,神经网络直接基于走时进行成像,因此不需要进行射线追踪;第三,反演过程中直接计算速度信息,因此无初始值问题,最终速度分布受到训练样本约束;最后由于不需要进行迭代,因此反演时间可以压缩到10秒以内。
本发明还提供一种基于深度学习的层析成像方法更为具体的实例,充分利用深度神经网络对于数据分布的拟合能力,对速度结构进行分析,基本内容包括:
1)构建用于拟合速度后验分布的深度学习模型:
构建用于反演的深度学习模型,深度学习模型如图2所示,深度学习模型以观测走时为输入tobs,反演的速度结构作为输出sinv。其中观测走时数据单个源为一帧,单帧走时为m×n的网格,观测台站在网格内不同位置,单帧网格仅在台站位置记录走时信息,其他位置记录为-1或其他常量;不同源构成不同帧,走时数据结构为三维矩阵
Figure BDA0003259870480000061
其中k为源的个数,
Figure BDA0003259870480000062
为实数域。为处理三维走时矩阵tobs,使用了卷积神经网络对其进行处理,处理过程中不同帧的卷积神经网络的权值是共享的。在处理图像数据后,使用深度神经网络对走时特征进行处理得到与源无关的走时特征,之后通过卷积神经网络直接输出走时。其中深度神经网络结构有两种选择:第一卷积循环结构,其使用长短时记忆单元(LSTM)或门控循环单元(GRU)作为基础结构,并在循环神经网络内部计算过程中使用卷积神经网络对输入的多帧图像进行处理,其计算过程为ht,st=RNN(xt,st-1),其中t为不同帧图像编号,xt为卷积神经网络处理后的特征图像,st为状态向量,ht为与源无关的特征,RNN(·)代表卷积循环神经网络结构;第二多头注意力结构,其使用多头注意力机制模型(或称Transformer模型)对走时特征进行处理,得到与源无关的特征,其计算方式为ht=Transformer(x1,…,xn),其中n代表输入图像特征数量,Transformer代表多头注意力机制模型。
2)使用真实速度结构进行正演产生训练数据,使用训练数据对深度学习模型进行训练:
产生训练数据,并对深度学习模型进行训练。训练数据使用随机数据产生,本发明中以真实的图形作为速度结构strue,并通过快速行进算法计算理论走时ttrue。将理论走时ttrue输入神经网络,计算推断速度结构sinv。神经网网络使用均方误差作为代价函数,对模型进行训练。
Figure BDA0003259870480000071
其中,E为数据的均值。
3)训练完成后可以直接对速度结构进行反演
将训练后模型进行保存。对于观测台分布相近的区域,可以直接使用深度学习反演模型计算速度结构。
采用本发明提出的方法对检测板模型进行反演实验。图3(a)为检测板,图3(b)为神经网络直接计算的结果。其中,Grid size为网格尺寸,True velo为真实速度,Pred velo为预测速度,可以看出,神经网络方法可以很好的对速度结构进行计算。同时反演速度大大提升。
本发明提供了一种基于深度学习的层析成像系统,包括:
获取模块,用于获取观测台站的观测走时。
反演模块,用于根据所述观测走时利用深度学习模型进行反演,得到速度结构;用于根据所述观测走时利用深度学习模型进行反演,得到速度结构;所述深度学模型包括依次连接的输入编码层、深度神经网络编码模块和汇总输出层。
在实际应用中,所述反演模块包括深度学习模型训练单元。
所述深度学习模型训练单元,用于以理论走时为输入,以真实速度结构为输出,以所述真实速度结构和神经网络的输出的均方差为代价函数,对神经网络进行训练,得到深度学习模型。
作为一个实例,所述反演模块,具体包括:
第一输入编码单元,用于利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
第一深度神经网络编码单元,用于利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个卷积循环神经网络结构;
第一汇总输出单元,用于利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
作为一个实例,所述反演模块,具体包括:
第二输入编码单元,用于利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
第二深度神经网络编码单元,用于利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个多头注意力网络结构;
第二汇总输出单元,用于利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
本发明提供的方法及系统具有以下优势:1)充分利用先验信息,本方法不需要进行迭代、不需要对速度模型进行假设、不需要计算走时曲线,从而极大的简化了反演的过程。同时不会由于人工设定速度结构先验带来偏差。2)可以充分利用神经网络并行化计算能力,使得100×100网格的速度反演时间缩短到10秒以内。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (8)

1.一种基于深度学习的层析成像方法,其特征在于,包括:
获取观测台站的观测走时;
根据所述观测走时利用深度学习模型进行反演,得到速度结构;所述深度学模型包括依次连接的输入编码层、深度神经网络编码模块和汇总输出层。
2.根据权利要求1所述的基于深度学习的层析成像方法,其特征在于,所述深度学习模型的训练过程包括:
以理论走时为输入,以真实速度结构为输出,以所述真实速度结构和神经网络的输出的均方差为代价函数,对神经网络进行训练,得到深度学习模型。
3.根据权利要求1所述的基于深度学习的层析成像方法,其特征在于,所述根据所述观测走时利用深度学习模型进行反演,得到速度结构,具体包括:
利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个卷积循环神经网络结构;
利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
4.根据权利要求1所述的基于深度学习的层析成像方法,其特征在于,所述根据所述观测走时利用深度学习模型进行反演,得到速度结构,具体包括:
利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个多头注意力网络结构;
利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
5.一种基于深度学习的层析成像系统,其特征在于,包括:
获取模块,用于获取观测台站的观测走时;
反演模块,用于根据所述观测走时利用深度学习模型进行反演,得到速度结构;所述深度学模型包括依次连接的输入编码层、深度神经网络编码模块和汇总输出层。
6.根据权利要求5所述的基于深度学习的层析成像系统,其特征在于,所述反演模块包括深度学习模型训练单元;
所述深度学习模型训练单元,用于以理论走时为输入,以真实速度结构为输出,以所述真实速度结构和神经网络的输出的均方差为代价函数,对神经网络进行训练,得到深度学习模型。
7.根据权利要求5所述的基于深度学习的层析成像系统,其特征在于,所述反演模块,具体包括:
第一输入编码单元,用于利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
第一深度神经网络编码单元,用于利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个卷积循环神经网络结构;
第一汇总输出单元,用于利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
8.根据权利要求5所述的基于深度学习的层析成像系统,其特征在于,所述反演模块,具体包括:
第二输入编码单元,用于利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
第二深度神经网络编码单元,用于利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个多头注意力网络结构;
第二汇总输出单元,用于利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
CN202111069267.2A 2021-09-13 2021-09-13 一种基于深度学习的层析成像方法及系统 Active CN113762481B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111069267.2A CN113762481B (zh) 2021-09-13 2021-09-13 一种基于深度学习的层析成像方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111069267.2A CN113762481B (zh) 2021-09-13 2021-09-13 一种基于深度学习的层析成像方法及系统

Publications (2)

Publication Number Publication Date
CN113762481A true CN113762481A (zh) 2021-12-07
CN113762481B CN113762481B (zh) 2024-03-12

Family

ID=78795165

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111069267.2A Active CN113762481B (zh) 2021-09-13 2021-09-13 一种基于深度学习的层析成像方法及系统

Country Status (1)

Country Link
CN (1) CN113762481B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115951405A (zh) * 2023-03-08 2023-04-11 中国地震局地球物理研究所 一种基于稀疏化卷积和自适应矩估计的速度变化成像方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107239532A (zh) * 2017-05-31 2017-10-10 北京京东尚科信息技术有限公司 数据挖掘方法及装置
CN110414675A (zh) * 2019-09-02 2019-11-05 中北大学 一种基于深度学习的地下浅层震源定位方法
CN111079532A (zh) * 2019-11-13 2020-04-28 杭州电子科技大学 一种基于文本自编码器的视频内容描述方法
CN111144448A (zh) * 2019-12-09 2020-05-12 江南大学 基于多尺度注意力卷积编码网络的视频弹幕情感分析方法
CN111310331A (zh) * 2020-02-12 2020-06-19 成都理工大学 基于条件变分自编码的地壳模型构造方法
CN111553350A (zh) * 2020-04-26 2020-08-18 佛山市南海区广工大数控装备协同创新研究院 一种基于深度学习的注意力机制文本识别方法
CN112764024A (zh) * 2020-12-29 2021-05-07 杭州电子科技大学 基于卷积神经网络和Bert的雷达目标识别方法
CN112932502A (zh) * 2021-02-02 2021-06-11 杭州电子科技大学 结合互信息通道选择与混合神经网络的脑电情感识别方法
US20210264262A1 (en) * 2020-02-21 2021-08-26 Saudi Arabian Oil Company Physics-constrained deep learning joint inversion

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107239532A (zh) * 2017-05-31 2017-10-10 北京京东尚科信息技术有限公司 数据挖掘方法及装置
CN110414675A (zh) * 2019-09-02 2019-11-05 中北大学 一种基于深度学习的地下浅层震源定位方法
CN111079532A (zh) * 2019-11-13 2020-04-28 杭州电子科技大学 一种基于文本自编码器的视频内容描述方法
CN111144448A (zh) * 2019-12-09 2020-05-12 江南大学 基于多尺度注意力卷积编码网络的视频弹幕情感分析方法
CN111310331A (zh) * 2020-02-12 2020-06-19 成都理工大学 基于条件变分自编码的地壳模型构造方法
US20210264262A1 (en) * 2020-02-21 2021-08-26 Saudi Arabian Oil Company Physics-constrained deep learning joint inversion
CN111553350A (zh) * 2020-04-26 2020-08-18 佛山市南海区广工大数控装备协同创新研究院 一种基于深度学习的注意力机制文本识别方法
CN112764024A (zh) * 2020-12-29 2021-05-07 杭州电子科技大学 基于卷积神经网络和Bert的雷达目标识别方法
CN112932502A (zh) * 2021-02-02 2021-06-11 杭州电子科技大学 结合互信息通道选择与混合神经网络的脑电情感识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
STEPHANIE EARP等: "PROBABILISTIC NEURAL-NETWORK BASED 2D TRAVEL TIME TOMOGRAPHY", ARXIV, pages 2 - 7 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115951405A (zh) * 2023-03-08 2023-04-11 中国地震局地球物理研究所 一种基于稀疏化卷积和自适应矩估计的速度变化成像方法
CN115951405B (zh) * 2023-03-08 2023-05-09 中国地震局地球物理研究所 一种基于稀疏化卷积和自适应矩估计的速度变化成像方法

Also Published As

Publication number Publication date
CN113762481B (zh) 2024-03-12

Similar Documents

Publication Publication Date Title
CN106663316A (zh) 一种基于块稀疏压缩感知的红外图像重构方法及其系统
US11836572B2 (en) Quantum inspired convolutional kernels for convolutional neural networks
Shao et al. Branchy-GNN: A device-edge co-inference framework for efficient point cloud processing
JP7142968B2 (ja) フルウェーブフォームインバージョン方法、装置及び電子設備
CN110223509B (zh) 一种基于贝叶斯增强张量的缺失交通数据修复方法
CN105678821A (zh) 一种基于自编码器图像融合的动态pet图像重建方法
CN113159287A (zh) 一种基于梯度稀疏的分布式深度学习方法
CN111161384B (zh) 一种参与介质的路径引导方法
CN114548532A (zh) 一种基于vmd的tgcn-gru超短期负荷预测方法、装置和电子设备
Liang et al. Reproducing activation function for deep learning
CN113762481A (zh) 一种基于深度学习的层析成像方法及系统
WO2022206149A1 (zh) 基于生成对抗网络的三维频谱态势补全方法及装置
CN113194493B (zh) 基于图神经网络的无线网络数据缺失属性恢复方法及装置
Vlašić et al. Implicit neural representation for mesh-free inverse obstacle scattering
CN111310772B (zh) 用于双目视觉slam的点线特征选取方法及系统
CN116663428B (zh) 一种基于神经网络的面波成像联合反演方法
CN115860113B (zh) 一种自对抗神经网络模型的训练方法及相关装置
CN111260706A (zh) 一种基于单目相机的稠密深度图计算方法
CN116523002A (zh) 多源异构数据的动态图生成对抗网络轨迹预测方法和系统
Lin et al. A-SATMVSNet: An attention-aware multi-view stereo matching network based on satellite imagery
Zhang et al. Distributed compressive sensing via LSTM-aided sparse bayesian learning
CN113537354B (zh) 一种基于深度学习的含水层结构阶段式随机反演识别方法
Yang et al. SA-MVSNet: Self-attention-based multi-view stereo network for 3D reconstruction of images with weak texture
Zheng et al. Recovering traffic data from the corrupted noise: A doubly physics-regularized denoising diffusion model
EP4372696A1 (en) Method for training a first neural network to determine the viewpoint of an object instance in an image, and associated system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant