CN113762481A - 一种基于深度学习的层析成像方法及系统 - Google Patents
一种基于深度学习的层析成像方法及系统 Download PDFInfo
- Publication number
- CN113762481A CN113762481A CN202111069267.2A CN202111069267A CN113762481A CN 113762481 A CN113762481 A CN 113762481A CN 202111069267 A CN202111069267 A CN 202111069267A CN 113762481 A CN113762481 A CN 113762481A
- Authority
- CN
- China
- Prior art keywords
- travel time
- neural network
- deep learning
- source
- deep
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000003325 tomography Methods 0.000 title claims abstract description 33
- 238000013135 deep learning Methods 0.000 title claims abstract description 22
- 238000013528 artificial neural network Methods 0.000 claims abstract description 68
- 238000013136 deep learning model Methods 0.000 claims abstract description 36
- 238000012549 training Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 13
- 125000004122 cyclic group Chemical group 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000000342 Monte Carlo simulation Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度学习的层析成像方法及系统,方法包括:获取观测台站的观测走时;根据所述观测走时利用深度学习模型进行反演,得到速度结构;所所述深度学模型包括依次连接的输入编码层、深度神经网络编码模块和汇总输出层。本发明能够提高层析成像的效率。
Description
技术领域
本发明涉及层析成像领域,特别是涉及一种基于深度学习的层析成像方法及系统。
背景技术
目前层析成像方法被广泛的应用于地球物理勘探、城市监测领域。层析成像方法通过走时信息对地下速度结构信息进行反演。在此过程中可以根据最大化后验分布即贝叶斯理论的方式对速度结构信息进行反演。在此过程中有两个关键问题:第一低射线密度的情况下需要对速度结构分布进行假设,以求解射线路径未覆盖网格速度值;第二需要对射线路径进行优化计算,在速度变化较为剧烈的地区,单纯的使用直线假设会带来误差。一些研究者为解决以上问题提出了多种方法,比如:使用速度平滑处理以解决射线路径稀疏问题;使用快速行进算法对射线路径进行计算。为解决以上问题,有必要直接对速度结构进行建模,从而避免传统方法需要迭代求解的问题。
基于贝叶斯理论的反演过程为已知不同台站观测走时t的情况下,极大化速度m分布P的过程:
其中,m为空间离散单元网格的速度,Z为归一化常数,p(m)称为先验,p(t|s)称为似然。为使得概率函数P取得极值,会对先验和似然函数进行假设。首先似然函数通常假设理论走时与真实走时的差符合均值为0的高斯分布:其中g(m)为非线性函数,σ为数据误差的方差,其为正演算法将速度模型计算为理论走时t',极大化高斯分布假设下的似然函数等价于最小二乘法。加入速度m先验分布p(m)可以纠正数据偏差,比如传统方法使用的l2正则化等价于速度结构先验符合高斯分布,即其中σ2为预设模型方差即正则化参数。极大化概率函数P的过程可以使用梯度下降法、蒙特卡洛方法等。使用以上思路的层析成像方法面临三个问题:第一,先验分布是未知的,不合理的先验分布会带来误差;第二,正演算法中射线如何追踪,简化的传播路径可能会带来误差;第三,不同初始值可能会使得模型收敛到不同极小值,即反演受初始值影响;最后,由于是迭代式算法,因此计算速度较慢,难以在较短时间完成计算。
发明内容
本发明的目的是提供一种基于深度学习的层析成像方法及系统,以提高层析成像的精度和效率。
为实现上述目的,本发明提供了如下方案:
一种基于深度学习的层析成像方法,包括:
获取观测台站的观测走时;
根据所述观测走时利用深度学习模型进行反演,得到速度结构;所述深度学模型包括依次连接的输入编码层、深度神经网络编码模块和汇总输出层。
可选的,所述深度学习模型的训练过程包括:
以理论走时为输入,以真实速度结构为输出,以所述真实速度结构和神经网络的输出的均方差为代价函数,对神经网络进行训练,得到深度学习模型。
可选的,所述根据所述观测走时利用深度学习模型进行反演,得到速度结构,具体包括:
利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个卷积循环神经网络结构;
利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
可选的,所述根据所述观测走时利用深度学习模型进行反演,得到速度结构,具体包括:
利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个多头注意力网络结构;
利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
一种基于深度学习的层析成像系统,包括:
获取模块,用于获取观测台站的观测走时;
反演模块,用于根据所述观测走时利用深度学习模型进行反演,得到速度结构;所述深度学模型包括依次连接的输入编码层、深度神经网络编码模块和汇总输出层。
可选的,所述反演模块包括深度学习模型训练单元;
所述深度学习模型训练单元,用于以理论走时为输入,以真实速度结构为输出,以所述真实速度结构和神经网络的输出的均方差为代价函数,对神经网络进行训练,得到深度学习模型。
可选的,所述反演模块,具体包括:
第一输入编码单元,用于利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
第一深度神经网络编码单元,用于利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个卷积循环神经网络结构;
第一汇总输出单元,用于利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
可选的,所述反演模块,具体包括:
第二输入编码单元,用于利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
第二深度神经网络编码单元,用于利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个多头注意力网络结构;
第二汇总输出单元,用于利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供的一种基于深度学习的层析成像方法及系统,根据所述观测走时利用深度学习模型进行反演,得到速度结构。直接深度学习模型对速度结构进行拟合,反演过程直接计算速度信息,不需要进行迭代,因此可以提高层析成像的效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的一种基于深度学习的层析成像方法流程图;
图2为本发明提供的深度学习模型结构示意图;
图3为反演实验结果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于深度学习的层析成像方法及系统,以提高层析成像的效率。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明提供你的一种基于深度学习的层析成像方法,包括:
步骤101:获取观测台站的观测走时。
步骤102:根据所述观测走时利用深度学习模型进行反演,得到速度结构;所述深度学模型包括依次连接的输入编码层、深度神经网络编码模块和汇总输出层。
在实际应用中,所述深度学习模型的训练过程包括:
以理论走时为输入,以真实速度结构为输出,以所述真实速度结构和神经网络的输出的均方差为代价函数,对神经网络进行训练,得到深度学习模型。
作为一个实例,所述根据所述观测走时利用深度学习模型进行反演,得到速度结构,具体包括:
利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征。其中输入编码层为卷积神经网络。
利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个卷积循环神经网络结构或者多个多头注意力网络结构。
利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。其中,汇总输出层包括多层反卷积网络。
本发明法使用神经网络直接对分布函数进行拟合,即P≈G(m;t,θ),其中θ为神经网络参数,G为神经网络概率模型,t为观测走时。这解决了传统走时成像的三个问题:第一,先验分布是基于数据的,而非人为设定的,因此反演结果分布符合随机给定的速度模型分布,即只要给定的随机速度模型符合真实情况即可;第二,神经网络直接基于走时进行成像,因此不需要进行射线追踪;第三,反演过程中直接计算速度信息,因此无初始值问题,最终速度分布受到训练样本约束;最后由于不需要进行迭代,因此反演时间可以压缩到10秒以内。
本发明还提供一种基于深度学习的层析成像方法更为具体的实例,充分利用深度神经网络对于数据分布的拟合能力,对速度结构进行分析,基本内容包括:
1)构建用于拟合速度后验分布的深度学习模型:
构建用于反演的深度学习模型,深度学习模型如图2所示,深度学习模型以观测走时为输入tobs,反演的速度结构作为输出sinv。其中观测走时数据单个源为一帧,单帧走时为m×n的网格,观测台站在网格内不同位置,单帧网格仅在台站位置记录走时信息,其他位置记录为-1或其他常量;不同源构成不同帧,走时数据结构为三维矩阵其中k为源的个数,为实数域。为处理三维走时矩阵tobs,使用了卷积神经网络对其进行处理,处理过程中不同帧的卷积神经网络的权值是共享的。在处理图像数据后,使用深度神经网络对走时特征进行处理得到与源无关的走时特征,之后通过卷积神经网络直接输出走时。其中深度神经网络结构有两种选择:第一卷积循环结构,其使用长短时记忆单元(LSTM)或门控循环单元(GRU)作为基础结构,并在循环神经网络内部计算过程中使用卷积神经网络对输入的多帧图像进行处理,其计算过程为ht,st=RNN(xt,st-1),其中t为不同帧图像编号,xt为卷积神经网络处理后的特征图像,st为状态向量,ht为与源无关的特征,RNN(·)代表卷积循环神经网络结构;第二多头注意力结构,其使用多头注意力机制模型(或称Transformer模型)对走时特征进行处理,得到与源无关的特征,其计算方式为ht=Transformer(x1,…,xn),其中n代表输入图像特征数量,Transformer代表多头注意力机制模型。
2)使用真实速度结构进行正演产生训练数据,使用训练数据对深度学习模型进行训练:
产生训练数据,并对深度学习模型进行训练。训练数据使用随机数据产生,本发明中以真实的图形作为速度结构strue,并通过快速行进算法计算理论走时ttrue。将理论走时ttrue输入神经网络,计算推断速度结构sinv。神经网网络使用均方误差作为代价函数,对模型进行训练。
3)训练完成后可以直接对速度结构进行反演
将训练后模型进行保存。对于观测台分布相近的区域,可以直接使用深度学习反演模型计算速度结构。
采用本发明提出的方法对检测板模型进行反演实验。图3(a)为检测板,图3(b)为神经网络直接计算的结果。其中,Grid size为网格尺寸,True velo为真实速度,Pred velo为预测速度,可以看出,神经网络方法可以很好的对速度结构进行计算。同时反演速度大大提升。
本发明提供了一种基于深度学习的层析成像系统,包括:
获取模块,用于获取观测台站的观测走时。
反演模块,用于根据所述观测走时利用深度学习模型进行反演,得到速度结构;用于根据所述观测走时利用深度学习模型进行反演,得到速度结构;所述深度学模型包括依次连接的输入编码层、深度神经网络编码模块和汇总输出层。
在实际应用中,所述反演模块包括深度学习模型训练单元。
所述深度学习模型训练单元,用于以理论走时为输入,以真实速度结构为输出,以所述真实速度结构和神经网络的输出的均方差为代价函数,对神经网络进行训练,得到深度学习模型。
作为一个实例,所述反演模块,具体包括:
第一输入编码单元,用于利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
第一深度神经网络编码单元,用于利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个卷积循环神经网络结构;
第一汇总输出单元,用于利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
作为一个实例,所述反演模块,具体包括:
第二输入编码单元,用于利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
第二深度神经网络编码单元,用于利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个多头注意力网络结构;
第二汇总输出单元,用于利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
本发明提供的方法及系统具有以下优势:1)充分利用先验信息,本方法不需要进行迭代、不需要对速度模型进行假设、不需要计算走时曲线,从而极大的简化了反演的过程。同时不会由于人工设定速度结构先验带来偏差。2)可以充分利用神经网络并行化计算能力,使得100×100网格的速度反演时间缩短到10秒以内。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种基于深度学习的层析成像方法,其特征在于,包括:
获取观测台站的观测走时;
根据所述观测走时利用深度学习模型进行反演,得到速度结构;所述深度学模型包括依次连接的输入编码层、深度神经网络编码模块和汇总输出层。
2.根据权利要求1所述的基于深度学习的层析成像方法,其特征在于,所述深度学习模型的训练过程包括:
以理论走时为输入,以真实速度结构为输出,以所述真实速度结构和神经网络的输出的均方差为代价函数,对神经网络进行训练,得到深度学习模型。
3.根据权利要求1所述的基于深度学习的层析成像方法,其特征在于,所述根据所述观测走时利用深度学习模型进行反演,得到速度结构,具体包括:
利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个卷积循环神经网络结构;
利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
4.根据权利要求1所述的基于深度学习的层析成像方法,其特征在于,所述根据所述观测走时利用深度学习模型进行反演,得到速度结构,具体包括:
利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个多头注意力网络结构;
利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
5.一种基于深度学习的层析成像系统,其特征在于,包括:
获取模块,用于获取观测台站的观测走时;
反演模块,用于根据所述观测走时利用深度学习模型进行反演,得到速度结构;所述深度学模型包括依次连接的输入编码层、深度神经网络编码模块和汇总输出层。
6.根据权利要求5所述的基于深度学习的层析成像系统,其特征在于,所述反演模块包括深度学习模型训练单元;
所述深度学习模型训练单元,用于以理论走时为输入,以真实速度结构为输出,以所述真实速度结构和神经网络的输出的均方差为代价函数,对神经网络进行训练,得到深度学习模型。
7.根据权利要求5所述的基于深度学习的层析成像系统,其特征在于,所述反演模块,具体包括:
第一输入编码单元,用于利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
第一深度神经网络编码单元,用于利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个卷积循环神经网络结构;
第一汇总输出单元,用于利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
8.根据权利要求5所述的基于深度学习的层析成像系统,其特征在于,所述反演模块,具体包括:
第二输入编码单元,用于利用所述输入编码层级对所述观测走时进行特征提取,得到走时特征和源特征;
第二深度神经网络编码单元,用于利用所述深度神经网络编码模块对所述走时特征和所述源特征进行处理,得到与源无关的特征;所述深度神经网络编码模块包括多个多头注意力网络结构;
第二汇总输出单元,用于利用汇总输出层对所述与源无关的特征进行汇总和卷积处理,得到速度结构。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111069267.2A CN113762481B (zh) | 2021-09-13 | 2021-09-13 | 一种基于深度学习的层析成像方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111069267.2A CN113762481B (zh) | 2021-09-13 | 2021-09-13 | 一种基于深度学习的层析成像方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113762481A true CN113762481A (zh) | 2021-12-07 |
CN113762481B CN113762481B (zh) | 2024-03-12 |
Family
ID=78795165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111069267.2A Active CN113762481B (zh) | 2021-09-13 | 2021-09-13 | 一种基于深度学习的层析成像方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113762481B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115951405A (zh) * | 2023-03-08 | 2023-04-11 | 中国地震局地球物理研究所 | 一种基于稀疏化卷积和自适应矩估计的速度变化成像方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239532A (zh) * | 2017-05-31 | 2017-10-10 | 北京京东尚科信息技术有限公司 | 数据挖掘方法及装置 |
CN110414675A (zh) * | 2019-09-02 | 2019-11-05 | 中北大学 | 一种基于深度学习的地下浅层震源定位方法 |
CN111079532A (zh) * | 2019-11-13 | 2020-04-28 | 杭州电子科技大学 | 一种基于文本自编码器的视频内容描述方法 |
CN111144448A (zh) * | 2019-12-09 | 2020-05-12 | 江南大学 | 基于多尺度注意力卷积编码网络的视频弹幕情感分析方法 |
CN111310331A (zh) * | 2020-02-12 | 2020-06-19 | 成都理工大学 | 基于条件变分自编码的地壳模型构造方法 |
CN111553350A (zh) * | 2020-04-26 | 2020-08-18 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于深度学习的注意力机制文本识别方法 |
CN112764024A (zh) * | 2020-12-29 | 2021-05-07 | 杭州电子科技大学 | 基于卷积神经网络和Bert的雷达目标识别方法 |
CN112932502A (zh) * | 2021-02-02 | 2021-06-11 | 杭州电子科技大学 | 结合互信息通道选择与混合神经网络的脑电情感识别方法 |
US20210264262A1 (en) * | 2020-02-21 | 2021-08-26 | Saudi Arabian Oil Company | Physics-constrained deep learning joint inversion |
-
2021
- 2021-09-13 CN CN202111069267.2A patent/CN113762481B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239532A (zh) * | 2017-05-31 | 2017-10-10 | 北京京东尚科信息技术有限公司 | 数据挖掘方法及装置 |
CN110414675A (zh) * | 2019-09-02 | 2019-11-05 | 中北大学 | 一种基于深度学习的地下浅层震源定位方法 |
CN111079532A (zh) * | 2019-11-13 | 2020-04-28 | 杭州电子科技大学 | 一种基于文本自编码器的视频内容描述方法 |
CN111144448A (zh) * | 2019-12-09 | 2020-05-12 | 江南大学 | 基于多尺度注意力卷积编码网络的视频弹幕情感分析方法 |
CN111310331A (zh) * | 2020-02-12 | 2020-06-19 | 成都理工大学 | 基于条件变分自编码的地壳模型构造方法 |
US20210264262A1 (en) * | 2020-02-21 | 2021-08-26 | Saudi Arabian Oil Company | Physics-constrained deep learning joint inversion |
CN111553350A (zh) * | 2020-04-26 | 2020-08-18 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于深度学习的注意力机制文本识别方法 |
CN112764024A (zh) * | 2020-12-29 | 2021-05-07 | 杭州电子科技大学 | 基于卷积神经网络和Bert的雷达目标识别方法 |
CN112932502A (zh) * | 2021-02-02 | 2021-06-11 | 杭州电子科技大学 | 结合互信息通道选择与混合神经网络的脑电情感识别方法 |
Non-Patent Citations (1)
Title |
---|
STEPHANIE EARP等: "PROBABILISTIC NEURAL-NETWORK BASED 2D TRAVEL TIME TOMOGRAPHY", ARXIV, pages 2 - 7 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115951405A (zh) * | 2023-03-08 | 2023-04-11 | 中国地震局地球物理研究所 | 一种基于稀疏化卷积和自适应矩估计的速度变化成像方法 |
CN115951405B (zh) * | 2023-03-08 | 2023-05-09 | 中国地震局地球物理研究所 | 一种基于稀疏化卷积和自适应矩估计的速度变化成像方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113762481B (zh) | 2024-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106663316A (zh) | 一种基于块稀疏压缩感知的红外图像重构方法及其系统 | |
US11836572B2 (en) | Quantum inspired convolutional kernels for convolutional neural networks | |
Shao et al. | Branchy-GNN: A device-edge co-inference framework for efficient point cloud processing | |
JP7142968B2 (ja) | フルウェーブフォームインバージョン方法、装置及び電子設備 | |
CN110223509B (zh) | 一种基于贝叶斯增强张量的缺失交通数据修复方法 | |
CN105678821A (zh) | 一种基于自编码器图像融合的动态pet图像重建方法 | |
CN113159287A (zh) | 一种基于梯度稀疏的分布式深度学习方法 | |
CN111161384B (zh) | 一种参与介质的路径引导方法 | |
CN114548532A (zh) | 一种基于vmd的tgcn-gru超短期负荷预测方法、装置和电子设备 | |
Liang et al. | Reproducing activation function for deep learning | |
CN113762481A (zh) | 一种基于深度学习的层析成像方法及系统 | |
WO2022206149A1 (zh) | 基于生成对抗网络的三维频谱态势补全方法及装置 | |
CN113194493B (zh) | 基于图神经网络的无线网络数据缺失属性恢复方法及装置 | |
Vlašić et al. | Implicit neural representation for mesh-free inverse obstacle scattering | |
CN111310772B (zh) | 用于双目视觉slam的点线特征选取方法及系统 | |
CN116663428B (zh) | 一种基于神经网络的面波成像联合反演方法 | |
CN115860113B (zh) | 一种自对抗神经网络模型的训练方法及相关装置 | |
CN111260706A (zh) | 一种基于单目相机的稠密深度图计算方法 | |
CN116523002A (zh) | 多源异构数据的动态图生成对抗网络轨迹预测方法和系统 | |
Lin et al. | A-SATMVSNet: An attention-aware multi-view stereo matching network based on satellite imagery | |
Zhang et al. | Distributed compressive sensing via LSTM-aided sparse bayesian learning | |
CN113537354B (zh) | 一种基于深度学习的含水层结构阶段式随机反演识别方法 | |
Yang et al. | SA-MVSNet: Self-attention-based multi-view stereo network for 3D reconstruction of images with weak texture | |
Zheng et al. | Recovering traffic data from the corrupted noise: A doubly physics-regularized denoising diffusion model | |
EP4372696A1 (en) | Method for training a first neural network to determine the viewpoint of an object instance in an image, and associated system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |