CN117853668A - 一种基于深度学习的地壳结构模型边界融合方法及设备 - Google Patents
一种基于深度学习的地壳结构模型边界融合方法及设备 Download PDFInfo
- Publication number
- CN117853668A CN117853668A CN202311573699.6A CN202311573699A CN117853668A CN 117853668 A CN117853668 A CN 117853668A CN 202311573699 A CN202311573699 A CN 202311573699A CN 117853668 A CN117853668 A CN 117853668A
- Authority
- CN
- China
- Prior art keywords
- model
- fusion
- data
- layer
- boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 27
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 25
- 230000004927 fusion Effects 0.000 claims abstract description 97
- 238000000034 method Methods 0.000 claims abstract description 44
- 238000012545 processing Methods 0.000 claims abstract description 38
- 238000007499 fusion processing Methods 0.000 claims abstract description 11
- 238000004458 analytical method Methods 0.000 claims abstract description 6
- 238000013136 deep learning model Methods 0.000 claims abstract description 6
- 238000013528 artificial neural network Methods 0.000 claims description 26
- 238000005457 optimization Methods 0.000 claims description 24
- 230000002776 aggregation Effects 0.000 claims description 15
- 238000004220 aggregation Methods 0.000 claims description 15
- 238000003062 neural network model Methods 0.000 claims description 8
- 238000013500 data storage Methods 0.000 claims description 4
- 230000006872 improvement Effects 0.000 claims description 4
- 238000010276 construction Methods 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 30
- 238000012549 training Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 10
- 238000005070 sampling Methods 0.000 description 7
- 230000008021 deposition Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 235000002020 sage Nutrition 0.000 description 6
- 239000013598 vector Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 239000013049 sediment Substances 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000006386 neutralization reaction Methods 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Geometry (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
Abstract
一种基于深度学习的地壳结构模型边界融合方法,包括如下步骤:获取两个待融合的地壳结构模型,并且对地壳结构模型进行层解析得到多个层模型,两个地壳结构模型的层模型一一对应;对层模型进行边界处理,将层模型的边界数据转化为基础数据;基于层模型的对应关系对基础数据进行优化,得到优化数据;利用训练好的深度学习模型对相对应的优化数据进行融合处理。本发明提供一种基于深度学习的地壳结构模型边界融合方法及设备,深度学习方法结合数据融合技术进行地层边界数据融合,实现了对地质特征的融合和地壳结构融合型的构建,能够大幅提高融合效率,并且融合结果的精确度更高。
Description
技术领域
本发明涉及地壳三维结构模型融合技术领域,具体的说是一种基于深度学习的地壳结构模型边界融合方法及设备。
背景技术
地壳模型研究对于了解和定义全球地壳结构、地震断层、地壳物质流动和区域地震监测具有重要意义,地壳结构模型探测目前有主动源探测成像、接收函数成像、地震重力联合反演、层析成像等地球物理方法,不同方法获取的地壳结构模型在分辨率、深度和属性特征方面存在差异,且地壳结构模型本身具有多解性,如何构建包含多模型特征的三维地壳模型,以此反映具有区域完整性的地壳结构具有重要意义。现有技术中,融合方法众多,如中国专利文献“CN111650641A”公开的一种地壳三维结构模型融合方法及装置,以及该文献中提到的其它多种融合技术。这些技术主要基于反演矩阵的构建实现,虽然能够实现不同地壳结构模型的边界融合,但是大多精度有限,并且效率较低。
发明内容
为了解决现有技术中的不足,本发明提供一种基于深度学习的地壳结构模型边界融合方法及设备,深度学习方法结合数据融合技术进行地层边界数据融合,实现了对地质特征的融合和地壳结构融合型的构建,能够大幅提高融合效率,并且融合结果的精确度更高。
为了实现上述目的,本发明采用的具体方案为:一种基于深度学习的地壳结构模型边界融合方法,包括如下步骤:
获取两个待融合的地壳结构模型,并且对地壳结构模型进行层解析得到多个层模型,两个地壳结构模型的层模型一一对应;
对层模型进行边界处理,将层模型的边界数据转化为基础数据;
基于层模型的对应关系对基础数据进行优化,得到优化数据;
利用训练好的深度学习模型对相对应的优化数据进行融合处理。
作为上述一种基于深度学习的地壳结构模型边界融合方法的进一步优化:对层模型进行边界处理时,转化出的基础数据为基础图像;
基于层模型的对应关系对基础数据进行优化时,对基础图像进行分辨率优化,得到的优化数据为优化图像;
利用训练好的自编码神经网络图像融合模型对相对应的优化图像进行融合处理,得到融合图像。
作为上述一种基于深度学习的地壳结构模型边界融合方法的进一步优化:对基础图像进行分辨率优化的方法包括:
基于层模型的对应关系确定基础图像的分辨率差异;
对分辨率较低的基础图像进行插值处理,使相对应的基础图像具有一致的分辨率;
对基础图像进行数据增强和尺寸约束,得到优化图像。
作为上述一种基于深度学习的地壳结构模型边界融合方法的进一步优化:利用训练好的自编码神经网络图像融合模型对相对应的优化图像进行融合处理的方法包括:
将优化图像输入到自编码神经网络图像融合模型中进行编码处理,得到编码特征;
根据融合策略对编码特征进行融合得到融合特征;
对融合特征进行解码,输出融合图像。
作为上述一种基于深度学习的地壳结构模型边界融合方法的进一步优化:对层模型进行边界处理时,转化出的基础数据为图数据;
基于层模型的对应关系对基础数据进行优化时,对图数据进行权重优化,得到改进图;
利用训练好的图神经网络模型对相对应的改进图进行融合,得到融合数据。
作为上述一种基于深度学习的地壳结构模型边界融合方法的进一步优化:对层模型进行边界处理时,转化出图数据的方法包括:
选定层模型的边界点;
基于层模型的对应关系计算边界点之间的距离;
当两个边界点之间的距离小于预设的阈值时在两个边界点之间增加连接边;
将边界点和连接边组成图数据。
作为上述一种基于深度学习的地壳结构模型边界融合方法的进一步优化:对图数据进行权重优化时,为每个连接边赋予边权重。
作为上述一种基于深度学习的地壳结构模型边界融合方法的进一步优化:利用训练好的图神经网络对改进图进行融合的具体方法包括:
将改进图中的每个节点分别作为目标节点进行邻居节点采样;
对采样到的邻居节点进行特征聚合得到关联特征;
基于边权重更新关联特征,得到融合数据。
一种地壳结构模型边界融合设备,用于实现上述的一种基于深度学习的地壳结构模型边界融合方法,所述设备包括:
数据获取模块,用于获取所述地壳结构模型;
数据处理模块,用于根据所述融合方法对地壳结构模型进行处理;
数据存储模块,用于存储地壳结构模型及融合结果。
有益效果:本发明利用深度学习方法结合数据融合技术进行地层边界数据融合,实现了对地质特征的融合和地壳结构融合型的构建,能够大幅提高融合效率,并且融合结果的精确度更高。
附图说明
图1是本发明的流程图;
图2是实施例一中东部模型和西部模型的重合区域示意图;
图3是实施例一中东部模型和西部模型的优化图像中沉积层部分的结果图;
图4是实施例一中东部模型和西部模型的优化图像中康拉德面部分的结果图;
图5是实施例一中东部模型和西部模型的优化图像中莫霍面部分的结果图;
图6是实施例一中自编码神经网络图像融合模型的结构示意图;
图7是实施例一中自编码神经网络图像融合模型的训练过程示意图;
图8是实施例一中融合图像的沉积层部分的结果图;
图9是实施例一中融合图像的康拉德面部分的结果图;
图10是实施例一中融合图像的莫霍面部分的结果图;
图11是实施例二中图数据的沉积层部分的结果图;
图12是实施例二中图数据的康拉德面部分的结果图;
图13是实施例二中图数据的莫霍面部分的结果图;
图14是实施例二中图神经网络融合模型的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,一种地壳结构模型边界融合方法,包括如下步骤。
首先,获取两个待融合的地壳结构模型,并且对地壳结构模型进行层解析得到多个层模型,两个地壳结构模型的层模型一一对应。因为地壳结构具有多层的特点,为了降低融合过程的复杂度,本发明首先对地壳结构模型进行层解析得到多个层模型,进而将层模型对应融合,实现两个地壳结构模型的整体融合。
需要说明的是,当需要对多个地壳结构模型进行融合时,仍然需要通过两两融合的方式进行,即逐一将两个具有共同边界的地壳结构模型进行融合,最终得到所有地壳结构模型的融合结果。
其次,对层模型进行边界处理,将层模型的边界数据转化为基础数据。因为不同的地壳结构模型所采用的数据收集方式和数据结构等数据特性可能存在差异,因此需要先对层模型进行边界处理,提取出层模型的边界数据,进而通过数据转化得到基础数据,以便于后续融合。
然后,基于层模型的对应关系对基础数据进行优化,得到优化数据。在得到基础数据之后,受限于地壳结构模型本身的数据特性,仍然需要先进行优化处理,才能够高效地进行融合处理。
最后,利用训练好的深度学习模型对相对应的优化数据进行融合处理。基于已经训练好的深度学习模型,能够充分减少人工参与的环节和耗时,从而可以高效、快速地完成融合处理过程。
本发明提供两个具体的实施例。在两个实施例中,本发明均采用现有的地壳结构模型作为处理对象,分别是东部模型和西部模型,其中东部模型的数据来源为段永红等人于2016年对42条剖面进行网格化处理的基础上,使用克里金插值方法得到的华北克拉通中东部地区三维地壳P波速度场模型数据,西部模型的数据来源为朱日祥、郑天愉分别于2009年、2011年采用接收函数方法构建的华北克拉通西部三维地壳结构模型,两个模型均为本领域所公知的现有模型,其信息如表1所示。
表1东部模型和西部模型的信息
东部模型和西部模型都是地理坐标系数据,并且投影分区均为第37区,中心经线为111°经线,在本发明中,需要先将WGS84大地坐标系转换为UTM投影坐标系,属于本领域的现有技术,在此不再赘述。在进行层解析时,将东部模型和西部模型均解析为三个层模型,分别对应于沉积层与上地壳的分界面(沉积层面)、上地壳与下地壳的分界面(康拉德面)以及下地壳与上地幔的分界面(莫霍面)。
基于上述已有的东部模型和西部模型,本发明的两个实施例具体如下。
实施例一。在实施例一中,选择华北克拉通中部山西断陷带作为对象,选取经度112~113°、纬度36~42°范围作为待融合区域,该区域是东部模型和西部模型的重合部分,东部模型和西部模型的分辨率分别为0.25°×0.25°和0.2°×0.2°。由于东部模型在区域范围113~120°E,36~42°N的规则网格点缺少部分数据,因此重点对该部分区域进行融合处理,如图2所示红色虚线框选区域即为该区域。
在实施例一中,所采用的深度学习模型为自编码神经网络图像融合模型。在获取到东部模型和西部模型的基础上,实施例一的具体方法如下。
S11、对层模型进行边界处理时,转化出的基础数据为基础图像。自编码神经网络图像融合模型的处理对象为图像数据,因此,首先需要转化出基础图像。
S12、基于层模型的对应关系对基础数据进行优化时,对基础图像进行分辨率优化,得到的优化数据为优化图像。因为东部模型和西部模型所转化出的基础图像的分辨率是不同的,不能够直接进行融合,因此需要先进行分辨率优化,使东部模型的基础图像和西部模型的基础图像分辨率匹配,以便于后续融合。对基础图像进行分辨率优化的方法包括S111至S113。
S111、基于层模型的对应关系确定基础图像的分辨率差异。
S112、对分辨率较低的基础图像进行插值处理,使相对应的基础图像具有一致的分辨率。
由于东部模型和西部模型在分辨率方面存在差异,为了统一东西部模型的分辨率,在S11中以分辨率更高的西部模型为基准,使用克里金插值方法对东部模型数据进行插值,统一模型分辨率为0.2°×0.2°,并提取出各层边界数据。具体的处理结果如下。
表2为原始东部模型边界数据,经度范围为112~120°E,纬度范围为36~42°N。
表2原始的东部模型边界数据表
表3为原始西部模型边界数据,经度范围为104.2~129.2°E,纬度范围为34~42°N。
表3原始的西部模型边界数据表
表4为进行克里金插值后的东部模型各层边界数据,其中lon、lat代表经度和纬度,lon_ty和lat_ty为投影坐标,单位为米,m_cjc、m_kld和m_moho分别表示地壳结构的沉积层面、康拉德面和莫霍面,单位为米。
表4插值处理后的东部模型边界数据表
S113、对基础图像进行数据增强和尺寸约束,得到优化图像。在经过分辨率优化后,东部模型和西部模型的基础图像具有一致的分辨率,为了提高融合结果的精确度,本发明需要进一步对基础图像进行数据增强,可以次用插值的方式进行,经过数据增强后,基础图像的尺寸会变大,进而会导致后续处理过程的复杂度提升,因此,还需要进行尺寸约束,减少参与融合的图像尺寸,从而降低后续过程的复杂度,提升整体效率和结果的精确度。本发明中,将经过数据增强后的基础图像的尺寸统一约束为6×31,并且转化为灰度图像,得到优化图像。优化图像如图3至5所示。
S13、利用训练好的自编码神经网络图像融合模型对相对应的优化图像进行融合处理,得到融合图像。利用训练好的自编码神经网络图像融合模型对相对应的优化图像进行融合处理的方法包括S131至S133。
S131、将优化图像输入到自编码神经网络图像融合模型中进行编码处理,得到编码特征。
S132、根据融合策略对编码特征进行融合得到融合特征。
S133、对融合特征进行解码,输出融合图像。
自编码神经网络图像融合模型的网络架构包括编码器、融合层和解码器三个部分,其中编码器将输入图像压缩为低维表示,解码器将低维表示还原为图像。因为本发明主要对两个地壳结构模型进行融合,因此将自编码神经网络图像融合模型设置为双层结构,具体如图6所示。第一个自编码器用于处理第一幅输入图像,具体是东部模型的优化图像,第二个自编码器用于处理第二幅输入图像,具体是西部模型的优化图像。编码器结构中包含一个卷积层和一个密集连接块,密集块是指由多个相同结构的卷积层组成的层堆栈,其中每个卷积层的输出都会被传递到后面的所有卷积层中,这种密集连接的设计使得网络可以学习到更加复杂的特征表示,从而提高融合效果,进而提高模型的准确性和稳定性。具体来说,每个密集块包含多个卷积层,每个卷积层的输入都来自于前面所有卷积层的输出。如此,每个卷积层的输入都包含了前面所有层的特征图,从而能够更好地捕捉图像中的细节信息和语义信息。更进一步的,密集块中每个卷积层的输出都会与其它卷积层的输出进行连接,即密集连接,通过密集连接,每个卷积层都可以直接获得前面所有层的信息,从而更容易地进行梯度传递和优化,基于该密集块的,使模型可以学习到更加丰富和复杂的特征表示,从而提高了模型的性能和鲁棒性。
两个自编码器的编码器部分共享权重,聚合来自编码器的两幅图像的特征信息,共享权重可以提高模型的泛化能力;之后通过融合策略和包括四个反卷积层的解码网络重建融合图像;双层的自编码神经网络图像融合模型可以在保留两幅输入图像的特征的同时,将它们融合成一幅更清晰、更具信息量的图像,并且,由于其采用卷积层和密集块策略,其输入图像可以是任何大小,能够对经过尺寸约束后得到的6×31的优化图像进行处理,相应的,需要将模型的输入输出层图像大小设置为6×31,使其与原始数据集的图像大小一致。
考虑到本实施例中图像尺寸较小,为了能够降低模型的复杂度,进而提升模型的运行效率,对自编码神经网络图像融合模型进行改进优化。具体地说,本实施例中通过缩小卷积核的大小和解码器的层数实现降低模型复杂度的效果,将卷积核的大小缩小为2×2,解码器层数设为3,经过实验验证,该设置方式在降低模型复杂度的前提下,所产生的损失最小。改进优化后的自编码神经网络图像融合模型结构同样包含自编码器和解码器,自编码器部分由一个3×3的卷积层和三个密集块组成,在密集块中改用2×2的卷积核以提取图像的细节信息,减少解码器中的反卷积层为三层,编码器部分采用的三个密集快,通道数分别为16、32、64,解码器部分则采用了三个反卷积层,通道数分别为64、32、16。
更进一步的,需要对模型中各个参数进行调整,设置模型的批处理大小为2,设置模型的激活函数为Relu函数,设置学习率为1×10-5。结合本研究实际需求,对于融合阶段模型的融合策略设置为L1范数策略。模型通过优化器对参数进行反向传播以使损失函数L取得最小值,损失函数L为像素损失Lp和结构相似性损失Lssim的加权和。公式如下:
L=λLssim+Lp;
其中像素损失的计算公式为:
Lp=PO-IP2;
其中I为输入图像,O为输出图像,I与O之间的欧几里得距离为像素损失值。
Lssim损失公式如下:
Lssim=1-SSIM(O,I);
其中SSIM是结构相似性计算,它的值代表两个图像之间的结构相似性。
融合策略公式如下公式,其中φi m(i=1,…,k)指编码器从图像中获得的特征,fm是融合的特征:
其中为作用程度图像,由L1范数和基于块的平均算子得到,L1范数度量特征的作用程度,下式中Ci为初始作用程度图:
Ci(x,y)=||φi 1:M(x,y)||1;
其中r=1时表示一个像素由其中心3×3范围内获得。
采用改进优化后的自编码神经网络图像融合模型对东部模型的优化图像和西部模型的优化图形进行融合后,各层模型的融合结果实例如图8至10所示。
为了实现更加高效的地壳结构模型融合,改进优化的自编码神经网络图像融合模型需要经过训练后才能使用,以下对训练过程进行描述。
如图7所示,编码器(Encoder)包含一个卷积层C1,密集块(Dense block)包含3个卷积层DC1、DC2和DC3,密集块中每个卷积层的输出都级联为解码器的输入,解码器(Decoder)包含三个卷积层C2、C3、C4,解码器用来对图像特征进行降维,从而重建图像。训练阶段除了最后一层卷积层C4,其他各卷积层都包含一层卷积和激活函数。网络输入为单通道图像,是预先定义的,在模型训练前对所有训练集图像数据进行预处理操作,将所有图像大小处理为6×31的灰度图像,输入的训练图像图像表示为I1、…、Ik和k≥2。指数1,2,…,k与输入图像的类型无关。第一层卷积层包含3×3的卷积核,经过第一层卷积后输出通道数为16,此时的输出作为编码器的密集连接中的每个卷积层的输入进行下一步卷积,在密集块中所有卷积层中卷积核的大小都是2×2,卷积步长都为1。经过编码器后原始图像的通道数变为64,作为编码器的输出,经过解码器的三个反卷积层后通道数最终变为1,即为重建的图像。由于像素损失和结构相似性损失之间有两个数量级的误差,故在训练过程中分别设置损失的λ参数为10、100和1000,由于图像融合需要大量数据进行训练,且要获取最优的参数模型,此模型中的迭代次数设置为5000次。训练过程所用到的训练集可以从S11中得到的基础图像汇总选取。
实施例二。实施例二中,所采用的图神经网络模型。在获取到东部模型和西部模型的基础上,实施例二的具体方法如下。
S21、对层模型进行边界处理时,转化出的基础数据为图数据。实际上,东部模型和西部模型的边界数据均为点数据,因此可以基于点数据转化图数据,从而利用图神经网络模型进行层模型的融合,最终实现对地壳结构模型的融合。
对层模型进行边界处理时,转化出图数据的方法包括S211至S214。
S211、选定层模型的边界点。由于地壳结构模型数据范围广,且数据量庞大,如果针对所有的数据点都进行处理,则整个过程会非常复杂,耗时大幅度延长,因此,需要先选定一部分边界点作为处理对象。在本实施例中,对于东部模型的层模型和西部模型的层模型,均选定311个边界点作为处理对象。
S212、基于层模型的对应关系计算边界点之间的距离。要计算距离,需要先将边界点原本的坐标转换为投影坐标数据进行计算,地理坐标系转换为投影坐标系后,通过空间距离计算公式计算投影坐标系三维空间中点与点之间的距离,具体的计算方法属于现有技术,在此不再赘述。
S213、当两个边界点之间的距离小于预设的阈值时在两个边界点之间增加连接边。由于大部分地壳模型数据都是地理坐标数据,通过对距离矩阵的比较和观察以及对数据的合理性解释,结合东西部模型的分辨率,本实施例中,选定对地理坐标系相距经纬度范围在0.25度之内的点数据添加边连接,通过计算选定0.25度范围内两点间最大距离为21084.24作为判断是否在两个边界点之间添加连接边的阈值。选定阈值后对距离矩阵进行搜索遍历,矩阵中小于阈值距离处的两节点之间添加连接边,构建边文件。
S214、将边界点和连接边组成图数据。连接边本身为无向边,可以增加一条从源节点i指向目标节点j的边,同时增加从源节点j指向目标节点i的边进行双向连接,每组层模型所产生的图数据共有1126条边。
S22、基于层模型的对应关系对基础数据进行优化时,对图数据进行权重优化,得到改进图。对图数据进行权重优化时,为每个连接边赋予边权重。权重具体的计算方式为将两个边界点之间的距离的倒数作为连接边的权重,计算公式为weight=1/dist_matrix[i,j]。
以沉积层面为例,表5为东西部模型沉积层图节点数据,其中lon_ty和lat_ty是投影坐标数据,单位为米,cjc为沉积层的深度数据,在图数据中则是节点的属性信息,单位同样为米,num为图节点的编号,节点的编号从0开始。
表5东部模型沉积层面图数据的节点数据
表6为图数据的边信息,source为起始节点,target为起始节点指向的目标节点,两个节点连接一条无向边,edge_weight为边的权重。
表6东部模型沉积层面图数据的连接边数据
更进一步的,可以将图数据通过可视化的方式进行表达,如图11至13所示,为各层模型对应的图数据。
在图神经网络模型中,输入数据是图数据,即包含节点和边的信息。通常,图数据可以使用邻接矩阵或者邻接表来表示,其中邻接表用链表来表示每个节点的邻居节点。在邻接矩阵中,节点之间的连接关系被表示为矩阵的元素,而在邻接表中,节点之间的连接关系被表示为一组列表。这些列表中的每个元素表示一个节点,并包含该节点连接到的所有其他节点的信息。
S23、利用训练好的图神经网络模型对相对应的改进图进行融合,得到融合数据。在本实施例中,所采用的图神经网络模型为GraphSAGE模型。如图14所示,GraphSAGE模型是一种基于邻居采样和特征聚合的图神经网络模型,其目的是通过学习邻居节点的特征来产生节点的嵌入表示,利用节点特征来学习一个嵌入函数,节点特征可以为任意维度向量,例如文本属性、节点结构信息、节点度等,利用学习到的函数将其推广到不可见的节点。
利用训练好的图神经网络对改进图进行融合的具体方法包括S231至S233。
S231、将改进图中的每个节点分别作为目标节点进行邻居节点采样。采样阶段用于从每个目标节点的一阶邻居节点中对固定数量的邻居节点进行采样,可以选择不同的采样策略,例如随机采样或以度数为权重采样。
S232、对采样到的邻居节点进行特征聚合得到关联特征。特征聚合阶段用于对于每个采样得到的邻居节点的特征进行聚合,以便在产生节点表示时考虑其邻居的信息,聚合过程所使用的聚合函数可以是平均值、最大值或基于注意力的聚合函数等。
S233、基于边权重更新关联特征,得到融合数据。具体地说,将GraphSAGE模型的层数设置为2,聚合的邻居节点数设置为4,改进GraphSAGE模型嵌入生成算法为节点生成嵌入,设置聚合函数为mean,计算每个Batchsize图节点与其相邻图节点嵌入均值的均方根误差,并将其平均值定义为模型损失函数,优化函数设为Adam,由于只对数据集进行融合不进行分类,因此去掉激活函数,最后使用梯度下降算法,通过反向传播来学习优化GraphSAGE模型参数。
改进后GraphSAGE模型嵌入生成算法的流程如表7所示。
表7改进后GraphSAGE模型嵌入生成算法的伪代码流程表
如表7,改进后的GraphSAGE模型嵌入生成算法的主要流程如下。
首先,将优化图以及所有节点的特征作为输入的情况下,即提供图G=(V,E),xv,(其中xv为V节点的特征)的情况下,首先在外循环中循环遍历1到K,K表示GraphSAGE模型进行搜索卷积计算的深度,即对节点进行邻居聚合的最高阶数,也表示外循环中当前的步骤,hk表示第K深度的节点表示;然后在内循环中,从优化图的最外层节点开始,先将最最外层节点信息聚合至k层节点,表示为/>聚合为单个向量/>需要说明的是,这一聚合步骤由外循环的上一次,即k-1次迭代中生成的表示决定,并且k=0表示为输入节点特征;在聚集相邻特征向量之后,然后GraphSAGE模型将节点的上一次迭代生成的表示/>与内循环聚合的邻接节点向量/>连接起来,进行卷积运算并且乘上相应的边权重,为了表示方便,将深度K处输出的最终表示表示为Zv,/>将此结果输出并用于损失函数的计算以及反向传播梯度下降算法进行参数更新。
在实际实施时,可以基于现有的PyTorch机器学习库实现上述伪代码。具体地说,首先使用dgl.load_graphs()函数加载带有边权重的无向图,并为每个节点初始化了一个1维的特征向量h。接着,定义了一个GraphSAGE模型,该模型包含两个GraphSAGE卷积层,第一层的输入维度为1,输出维度为64。第二层输入纬度为64,输出纬度为1,在模型的forward函数中,首先使用第一层GraphSAGE对节点特征进行聚合操作,最后使用第二层GraphSAGE得到每个节点的向量表示。在模型定义完成后,为无监督学习训练算法设置损失函数,在训练过程中,使用节点嵌入与邻居节点嵌入均值的均方根误差损失函数计算模型的损失,使用PyTorch中的均方根误差MSELoss()函数,计算每个Batchsize图节点与其相邻图节点嵌入均值的均方根误差,再求均值为损失函数,使用PyTorch中的Adam优化器对模型进行优化训练,对模型参数进行反向传播。模型使用该函数在没有任务特定监督的情况下进行训练。最后,使用训练好的模型计算出每个节点的向量表示,并输出结果。
邻居定义,对固定大小的邻居集进行均匀采样,而不是使用所有的邻居集,以保持每批的计算足迹固定。也就是说,使用重载表示法,将N(v)定义为固定大小。如果没有这种采样,单个批次的内存和预期运行时间是不可预测的,在数据集较大的情况下GraphSAGE的每批空间和时间复杂度将会较高。
模型的参数学习。为了学习有用的节点表示并在完全无监督的环境中进行,定义新的损失函数来调整权重矩阵Wk和聚合器函数的参数,并对输出表示Zu,应用该函数。该损失函数通过鼓励附近的节点与目标节点具有相似的表示来优化图的表示,下式为改进的损失函数:
公式中b为Batchsize大小,Nj为邻居节点嵌入,n为邻居节点个数。在此设置中,使用局部邻域中包含的特征生成节点的表示Zv,而不是为每个节点训练唯一的嵌入。无监督损失可以通过特定任务的目标来代替或增加,以在仅在特定下游任务上使用表示的情况下进行优化。
另一方面,在聚合器架构选择方面,考虑到图数据与图像和文本数据不同,图数据中各个节点之间没有有序性,而且由于本实施例中图数据中节点特征的纬度不多,使用GraphSAGE模型自带的mean函数作为聚合函数,节点的邻居没有自然排序;如下为均值聚合函数在模型中进行聚合操作的公式:
最后,通过具体的实验对本发明的效果进行验证。在实验过程中,以中国专利文献“CN111650641A”公开的一种地壳三维结构模型融合方法及装置为对比例,该文献所公开的方案主要公开了一种利用协同克里金矩阵构建的研究区P波三维结构融合速度场模型,将该模型作为对比模型M,将实施例一所得到的自编码神经网络图像融合模型记为A模型,将实施例二所得到的图神经网络融合模型记为B模型,仍然以东部模型和西部模型作为实验对象。在此基础上,以Pearson相关系数作为评价参数,用于评价两个模型之间的相关性,取值范围为-1到1,其中数值从0向两端表示相关性越来越强,-1表示完全负相关,1表示完全正相关,0表示没有线性相关性。计算公式为:
r=Σ(x-x_mean)(y-y_mean)/sqrt(Σ(x-x_mean)2*Σ(y-y_mean)2);
其中和为两组数据的取值,在本发明中指的是同一地层边界不同模型的值,x_mean和y_mean为两组数据的均值,本发明中为同一地层边界不同模型的均值。当的值接近1或-1时,说明两组数据相关性较强,值为负表示两组数据之间负相关性较好,值为正则表示两模型之间正相关性较强,当的值接近0时,说明两组数据之间没有线性相关性。
基于上述评价参数,对上述三种融合模型和原始数据模型之间互相进行对比计算,并根据不同分层计算各组数据两两之间的指标值,模型分层计算的深度范围分别为0-1.4km、1.5-15km、16-39km、40-50km,最后再次计算模型所有深度范围的总体均方根误差和pearson相关系数。首先计算东部模型和西部模型的均方根误差和pearson相关系数,求协同克里金矩阵法融合模型M和东西部模型之间的各指标值,三组融合模型数据分别和东西部模型数据之间进行计算。经过对比计算得到各模型的均方根误差如表8所示,表中East、West为原始东部和西部模型。
表8各模型的pearson相关系数
由表8可以得出,在0-50km深度范围内,原始数据东西部模型之间相关系数为0.52,协同克里金矩阵融合模型M与东西部模型之间的相关系数为0.718和0.416,A模型与东西部模型的相关系数为0.767和0.656,B模型和东西部模型相关系数则为0.873和0.812,A和B模型与东西部模型的相关系数均高于东西部模型之间的相关系数,B模型相关系数高于M模型,证明本研究两种融合结果都有效融合了东西部模型数据,且B模型对地壳模型边界融合效果优于A模型。
一种地壳结构模型边界融合设备,用于实现上述的一种地壳结构模型边界融合方法,设备包括数据获取模块、数据处理模块和数据存储模块。
数据获取模块,用于获取地壳结构模型。数据获取模块根据需要获取的地壳结构模型的数据类型确定,当地壳结构模型以数字数据存储时,可以通过现有的数据接口获取,例如USB接口或者网络接口等。
数据处理模块,用于根据融合方法对地壳结构模型进行处理。数据处理模块可以采用现有的X86架构处理器或者ARM架构处理器的计算机。
数据存储模块,用于存储地壳结构模型及融合结果。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本发明中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本发明所示的这些实施例,而是要符合与本发明所公开的原理和新颖特点相一致的最宽的范围。
Claims (9)
1.一种基于深度学习的地壳结构模型边界融合方法,其特征在于,包括如下步骤:
获取两个待融合的地壳结构模型,并且对地壳结构模型进行层解析得到多个层模型,两个地壳结构模型的层模型一一对应;
对层模型进行边界处理,将层模型的边界数据转化为基础数据;
基于层模型的对应关系对基础数据进行优化,得到优化数据;
利用训练好的深度学习模型对相对应的优化数据进行融合处理。
2.如权利要求1所述的一种基于深度学习的地壳结构模型边界融合方法,其特征在于,对层模型进行边界处理时,转化出的基础数据为基础图像;
基于层模型的对应关系对基础数据进行优化时,对基础图像进行分辨率优化,得到的优化数据为优化图像;
利用训练好的自编码神经网络图像融合模型对相对应的优化图像进行融合处理,得到融合图像。
3.如权利要求2所述的一种基于深度学习的地壳结构模型边界融合方法,其特征在于,对基础图像进行分辨率优化的方法包括:
基于层模型的对应关系确定基础图像的分辨率差异;
对分辨率较低的基础图像进行插值处理,使相对应的基础图像具有一致的分辨率;
对基础图像进行数据增强和尺寸约束,得到优化图像。
4.如权利要求2所述的一种基于深度学习的地壳结构模型边界融合方法,其特征在于,利用训练好的自编码神经网络图像融合模型对相对应的优化图像进行融合处理的方法包括:
将优化图像输入到自编码神经网络图像融合模型中进行编码处理,得到编码特征;
根据融合策略对编码特征进行融合得到融合特征;
对融合特征进行解码,输出融合图像。
5.如权利要求1所述的一种基于深度学习的地壳结构模型边界融合方法,其特征在于,对层模型进行边界处理时,转化出的基础数据为图数据;
基于层模型的对应关系对基础数据进行优化时,对图数据进行权重优化,得到改进图;
利用训练好的图神经网络模型对相对应的改进图进行融合,得到融合数据。
6.如权利要求5所述的一种基于深度学习的地壳结构模型边界融合方法,其特征在于,对层模型进行边界处理时,转化出图数据的方法包括:
选定层模型的边界点;
基于层模型的对应关系计算边界点之间的距离;
当两个边界点之间的距离小于预设的阈值时在两个边界点之间增加连接边;
将边界点和连接边组成图数据。
7.如权利要求6所述的一种基于深度学习的地壳结构模型边界融合方法,其特征在于,对图数据进行权重优化时,为每个连接边赋予边权重。
8.如权利要求7所述的一种基于深度学习的地壳结构模型边界融合方法,其特征在于,利用训练好的图神经网络对改进图进行融合的具体方法包括:
将改进图中的每个节点分别作为目标节点进行邻居节点采样;
对采样到的邻居节点进行特征聚合得到关联特征;
基于边权重更新关联特征,得到融合数据。
9.一种地壳结构模型边界融合设备,用于实现如权利要求1所述的一种基于深度学习的地壳结构模型边界融合方法,其特征在于,所述设备包括:
数据获取模块,用于获取所述地壳结构模型;
数据处理模块,用于根据所述融合方法对地壳结构模型进行处理;
数据存储模块,用于存储地壳结构模型及融合结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311573699.6A CN117853668A (zh) | 2023-11-23 | 2023-11-23 | 一种基于深度学习的地壳结构模型边界融合方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311573699.6A CN117853668A (zh) | 2023-11-23 | 2023-11-23 | 一种基于深度学习的地壳结构模型边界融合方法及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117853668A true CN117853668A (zh) | 2024-04-09 |
Family
ID=90540811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311573699.6A Pending CN117853668A (zh) | 2023-11-23 | 2023-11-23 | 一种基于深度学习的地壳结构模型边界融合方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117853668A (zh) |
-
2023
- 2023-11-23 CN CN202311573699.6A patent/CN117853668A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Patchmatchnet: Learned multi-view patchmatch stereo | |
US8682624B2 (en) | Deterministic version of the multiple point geostatistics simulation/reconstruction method with the simulated/reconstructed values are directly taken from the training images without prior estimation of the conditional | |
CN111369442B (zh) | 基于模糊核分类与注意力机制的遥感图像超分辨重建方法 | |
CN112634429A (zh) | 基于混合深度生成模型的岩心三维图像重建方法 | |
CN116778146A (zh) | 基于多模态数据的道路信息提取方法及装置 | |
He et al. | Remote sensing image super-resolution using deep–shallow cascaded convolutional neural networks | |
CN113313180A (zh) | 一种基于深度对抗学习的遥感图像语义分割方法 | |
CN113988147A (zh) | 基于图网络的遥感图像场景多标签分类方法及装置、多标签检索方法及装置 | |
CN117315169A (zh) | 基于深度学习多视密集匹配的实景三维模型重建方法和系统 | |
CN116777745A (zh) | 一种基于稀疏自适应聚类的图像超分辨率重建方法 | |
Li et al. | Graph-guided Bayesian matrix completion for ocean sound speed field reconstruction | |
CN114529793A (zh) | 一种基于门控循环特征融合的深度图像修复系统及方法 | |
CN114022356A (zh) | 基于小波域的河道流量水位遥感图像超分辨率方法与系统 | |
Dong et al. | RETRACTED ARTICLE: Research on North Gulf distributed big data submarine 3D terrain computing system based on remote sensing and multi-beam | |
CN116758219A (zh) | 基于神经网络的区域感知多视角立体匹配三维重建方法 | |
CN117853668A (zh) | 一种基于深度学习的地壳结构模型边界融合方法及设备 | |
CN112884643A (zh) | 一种基于edsr网络的红外图像超分辨率重建方法 | |
CN116503251A (zh) | 一种结合混合专家的生成对抗网络遥感图像超分辨重建方法 | |
CN114998104A (zh) | 一种基于分层学习与特征分离的超分辨率图像重建方法及系统 | |
CN114048823A (zh) | 基于全卷积网络电阻率反演模型建立方法 | |
Wąsala et al. | AutoSR4EO: An AutoML Approach to Super-Resolution for Earth Observation Images | |
CN116524346B (zh) | 基于二值变化检测对比学习的高分辨遥感图像语义变化检测方法 | |
CN117765297B (zh) | 高光谱图像分类方法、装置、设备及存储介质 | |
CN114882292B (zh) | 基于跨样本关注机制图神经网络的遥感影像海洋目标识别方法 | |
Jing et al. | Cloud Image Super-Resolution Based on Residual Network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |