CN112862946A - 基于级联条件生成对抗网络的灰度岩心图像三维重建方法 - Google Patents

基于级联条件生成对抗网络的灰度岩心图像三维重建方法 Download PDF

Info

Publication number
CN112862946A
CN112862946A CN201911187564.XA CN201911187564A CN112862946A CN 112862946 A CN112862946 A CN 112862946A CN 201911187564 A CN201911187564 A CN 201911187564A CN 112862946 A CN112862946 A CN 112862946A
Authority
CN
China
Prior art keywords
dimensional
gray
network
image
reconstruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911187564.XA
Other languages
English (en)
Other versions
CN112862946B (zh
Inventor
滕奇志
李洋
何小海
陈洪刚
卿粼波
吴小强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN201911187564.XA priority Critical patent/CN112862946B/zh
Publication of CN112862946A publication Critical patent/CN112862946A/zh
Application granted granted Critical
Publication of CN112862946B publication Critical patent/CN112862946B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明涉及一种基于级联条件生成对抗网络的灰度岩心图像三维重建方法。即基于岩心二维灰度岩心图像的三维建模问题,而提供一种基于级联条件生成对抗网络的重建方法。该方法将维度提升的概念引入深度学习中,利用深度学习建立二维到三维更好的映射。并提出级联条件生成对抗式网络CCGAN(Cascading Conditional Generative Adversarial Network)进行灰度岩心图像的重建。同时,针对灰度岩心自身特点,我们提出基于图像像素灰度级分布的损失函数作为CCGAN网络损失函数的组成部分,更好地进行灰度岩心图像的重建;重建的三维微观结构为真实岩心微观结构提供了一个很好解释;可用于岩心微观结构及渗流特性的研究,具有实用价值。

Description

基于级联条件生成对抗网络的灰度岩心图像三维重建方法
技术领域
本发明涉及一种基于二维灰度岩心图像的三维建模方法,尤其涉及一种基于级联条件生成对抗网络的灰度岩心图像三维重建方法,属于三维图像重建技术领域。
背景技术
三维岩心CT图像中的像素的灰度值综合反映了不同材料在相应岩石单元中的衰减系数,因而三维灰度岩心图像对于岩心成分及其物理特性的研究具有重要意义。高分辨率二维灰度岩心图像容易获得且成本较低,通过对其进行三维重建,可以直接从二维岩心图像中学习材料属性并预测其三维结构,可以准确描述各种具有不同灰度级的材料和介质。基于以上原因,采用二维灰度岩心图像去重建其三维结构是很有必要的。
Tahmasebi等提出采用基于互相关函数的多点地质统计算法(CCSIM)来重建灰度岩心。该算法是通过计算待模拟模式的边缘块与训练图像各个相同大小区域之间的互相关函数大小来确定选择的模式,能够较好地解决重建时的精度和速度问题。该方法能够很好继承层与层之间的连续性,但是不易控制层与层之间的随机变化性。
相较于二维岩心的重建,如果要通过维度提升灰度岩心图像的重建,建立二维块到三维块的映射关系,其解空间是相当庞大的,远远超过二值图像。进行超维重建,模式数量级的庞大使得字典具有更高的不完备性,重建后期灰度纹理等模式信息逐渐消失。
机器学习(ML)方法通过预测具有二维图像到三维结构端到端的材料特性来加速新材料的设计,变得越来越流行。“深度学习”的最新进展使得能够从非常原始的数据表示中学习,例如,图像的像素,使得构建优于传统专家设计表示的通用模型成为可能。目前机器学习方法多被用于二值化岩心的重建。
基于此,为了更好地进行灰度岩心图像的重建,本发明潜心研究了一种基于级联条件生成对抗网络的灰度岩心图像三维重建方法;该研究项目受国家自然科学基金项目《岩石微观非均质结构三维图像重建及分辨率提升技术研究》(61372174)资助。
发明内容
本发明的目的在于为了解决上述现有技术中所存在的技术问题,而提供一种基于级联条件生成对抗网络的灰度岩心图像三维重建方法。该方法是基于岩心二维图像的三维建模问题,将超维思想中维度提升的概念引入深度学习中,利用深度学习建立二维到三维更好的映射。并提出级联条件生成对抗式网络CCGAN(Cascading Conditional GenerativeAdversarial Network)进行灰度岩心图像的重建。同时,针对灰度岩心自身特点,我们提出基于图像像素灰度级分布的损失函数作为CCGAN网络损失函数的组成部分,更好地进行灰度岩心图像的重建。
本发明是通过以下技术方案来实现上述发明目的的。
本发明提供的一种基于级联条件生成对抗网络的灰度岩心图像三维重建方法,包括以下步骤:
(1)采集并制作二维图像和对应三维图像数据集,用于网络的训练和重建;
(2)将步骤(1)中获取的每个三维样本作为训练样本。为了在信息对等的情况下建立二维到三维的映射,并采用三维卷积学习三维空间信息,对网络的Input,Target设置为两个对等结构(待重建三维空间大小)的三维体,并对每层CCGAN网络中Input,Target结构中嵌入的输入输出信息进行了设计;
(3)在步骤(2)设计好单个网络的基础上,设计针对图像三维空间像素灰度级模式分布的损失函数Lgrey level_3D,以达到更好地重建效果;
(4)在步骤(3)针对每个网络的灰度岩心图像重建的损失函数Lgrey level_3D进行设计的基础上,基于上述的数据集、网络和损失函数,完成训练,获得多层图像三维重建的模型及其中训练好的生成器及辨别器;
(5)在步骤(4)完成训练的基础上,将以上已经训练好的生成器进行级联构成进行单张二维灰度岩心图像的重建网络;
(6)在步骤(5)建立完成重建阶段的级联条件生成网络过程基础上,基于所述的模型,完成二维灰度岩心图像的三维重建。
上述方案中,步骤(1)中所述采集并制作二维图像和对应三维图像数据集,用于网络的训练和重建,即对获取的原始CT序列图进行裁剪和缩放等操作,获得1000个128×128×128大小的三维图像样本。
上述方案中,步骤(2)中所述在信息对等的情况下建立二维到三维的映射,并采用三维卷积学习三维空间信息,对每层CCGAN网络中Input,Target结构中嵌入的输入输出信息进行设计,即将Input,Target设置为两个对等结构(待重建三维空间大小)的三维体。在第一层网络中,已知信息为CT单张二维灰度参考图像,其target为CT序列中连续的下一张图像。基于此,Input三维体其内部第一层为参考图像,该三维结构其它层用灰度值127的像素进行填充,然后将这些序列在z方向上concatenate。Target三维体内部第一层为参考图像,第二层CT序列中连续的下一张图像,该三维结构其它层用灰度值127的像素进行填充,然后将这些序列在z方向上concatenate。CCGAN级联网络的第二层为CT序列中的某两张连续图像作为输入条件,它的后两张连续图像为目标的网络。以此类推。同样的CCGAN网络的其它层的训练阶段与其类似。
上述方案中,步骤(3)中所述设计针对图像三维空间像素灰度级模式分布的损失函数Lgrey level_3D,即用一个N×N×N的模板遍历三维结构得到的像素灰度级模式概率分布与目标三维结构模式概率分布的差异,量化生成器G的输出G(x,z)和目标系统y的灰度级分布的均方误差(MSE),从而保持重建过程中灰度级分布的一致性。其表达式如式1所示。
Figure BDA0002292774620000031
其中,Lgrey level_3D灰度级模式分布的损失,ygrey level目标系统y的灰度级分布,(G(x,z))grey level表示生成器G的输出的灰度级分布。具体地,通过扫描图像并获取所有的灰度级,统计0-255这256个灰度级像素出现的频率并进行归一化,从而获得灰度级的分布。然后,通过计算目标系统和重建结果灰度级分布之间的欧氏距离,得到该灰度级分布损失函数。
上述方案中,步骤(4)中所述基于上述的数据集、网络和损失函数,完成训练,获得多层图像三维重建的模型及其中训练好的生成器及辨别器,即针对上述的每层网络进行单独训练,得到训练好的生成器,为后续的级联操作做准备。
上述方案中,步骤(5)中所述将已经训练好的生成器进行级联构成进行单张二维灰度岩心图像的重建网络,即将以上已经训练好的生成器进行级联。以参考图像为第一层,其它层由127像素值填充的三维体作为输入,先送入前向第一层网络,其输出结果一起作为下一层网络的输入。以此类推,可以重建输入参考图像之后的128张图像。将这128张图像进行堆叠,即可重建出整个三维结构。
本发明基于级联条件生成对抗网络的灰度岩心图像三维重建方法的基本原理如下:
本发明的方法所述基于级联条件生成对抗网络的灰度岩心图像三维重建方法,关键在于将维度提升的概念引入深度学习中,利用深度学习建立二维到三维更好的映射。并提出CCGAN(Cascading Conditional Generative Adversarial Network)的算法进行灰度岩心图像的重建。CCGAN级联生成对抗网络在信息对等的情况下建立二维到三维的映射,并采用三维卷积学习三维空间信息。针对灰度岩心自身特点,将基于图像像素灰度级分布的损失函数作为CCGAN网络损失函数的组成部分。
本发明与现有技术相比具有以下的优点及有益的技术效果:
本发明提出的基于级联条件生成对抗网络的灰度岩心图像三维重建方法,该方法采用输入输出都为对等三维结构信息的条件下通过级联条件生成对抗网络结构对岩心进行重建,能够较好地复现二维图像中的灰度纹理等模式信息,克服传统重建方法中重建后期灰度纹理等模式信息逐渐消失的现象。
附图说明
图1是本发明实施例中给定的ccgan单个网络第一层训练过程示意图;
图2是本发明实施例中给定的ccgan单个网络第三层训练过程示意图;
图3是本发明实施例中级联条件生成网络重建过程示意图;
图4是本发明实施例中选取的128×128大小灰度岩心参考图像;
图5是本发明实施例中通过CCGAN网络重建结构;
图6是本发明实施例中的目标系统;
图7是本发明实施例中目标系统和重建结构的灰度直方图;
具体实施方式
下面用具体实施例并结合附图对本发明作进一步详细说明,但所述实施例只是对本发明的实现方法作一个具体的详细说明,而不应理解为是对本发明保护内容的任何限制。
实施例:
为了使本发明所述基于级联条件生成对抗网络的灰度岩心图像三维重建方法更加便于理解和接近于真实应用,下面对采集并制作二维图像和对应三维图像数据集,对每层CCGAN网络中Input,Target结构信息进行设计,再针对图像三维空间像素灰度级模式分布的损失函数Lgrey level_3D进行设计,将以上已经训练好的生成器进行级联进行单张二维灰度岩心图像的重建的一系列过程的操作流程作整体说明。
其具体操作步骤如下:
(1)对获取的原始CT序列图进行裁剪和缩放等操作,获得1000个128×128×128大小的三维图像样本。
(2)将步骤(1)中获取的每个三维样本作为训练样本。为了在信息对等的情况下建立二维到三维的映射,并采用三维卷积学习三维空间信息,我们将Input,Target设置为两个对等结构(待重建三维空间大小)的三维体,并对每层CCGAN网络中Input,Target结构进行了设计。如图1与图2为ccgan单个网络第一层第三层训练过程。在第一层网络中,已知信息为CT单张二维灰度参考图像,其target为CT序列中连续的下一张图像。基于此,Input三维体其内部第一层为参考图像,该三维结构其它层用灰度值127的像素进行填充,然后将这些序列在z方向上concatenate。Target三维体内部第一层为参考图像,第二层CT序列中连续的下一张图像,该三维结构其它层用灰度值127的像素进行填充,然后将这些序列在z方向上concatenate。CCGAN级联网络的第二层为CT序列中的某两张连续图像作为输入条件,它的后两张连续图像为目标的网络。以此类推。同样的CCGAN网络的其它层的训练阶段与其类似。
(3)在步骤(2)设计好单个网络的基础上,针对每个网络的灰度岩心图像重建的损失函数Lgrey level_3D进行设计。传统pixel2pixel网络采用CGAN损失函数LGAN和L1损失函数LL1的加权作为最终的损失函数。本发明提出CCGAN网络的目的是用于灰度岩心图像的重建,因而有必要提出新的针对灰度岩心图像重建的损失函数,并通过和之前的LGAN和LL1加权求和,达到更好地重建效果。提出的该损失函数是针对图像三维空间像素灰度级模式分布的损失函数,记为Lgrey level_3D
Lgrey level_3D它表示用一个N×N×N的模板遍历三维结构得到的像素灰度级模式概率分布与目标三维结构模式概率分布的差异,能够量化生成器G的输出G(x,z)和目标系统y的灰度级分布的均方误差(MSE),从而保持重建过程中灰度级分布的一致性。具体地,通过扫描图像并获取所有的灰度级,统计0-255这256个灰度级像素出现的频率并进行归一化,从而获得灰度级的分布。然后,通过计算目标系统和重建结果灰度级分布之间的欧氏距离,得到该灰度级分布损失。
(4)在步骤(3)针对每个网络的灰度岩心图像重建的损失函数Lgrey level_3D进行设计的基础上,完成训练,获得7层网络模型及其中训练好的生成器及辨别器。
(5)在步骤(4)完成训练的基础上,将以上已经训练好的7个生成器进行级联。以参考图像为第一层,其它层由127像素值填充的三维体作为输入,先送入前向第一层网络,其输出结果一起作为下一层网络的输入。以此类推,可以重建输入参考图像之后的128张图像。将这128张图像进行堆叠,即可重建出整个三维结构。级联条件生成网络重建过程示意图如图3所示。
(6)在步骤(5)建立完成重建阶段的级联条件生成网络过程基础上,选取如图4所示的128×128大小灰度岩心图像作为参考图像,送入图3所示网络进行重建,重建结构如图5所示。其目标系统如图6所示。通过视觉效果上直观比较目标系统和重建结构,它们具有相似的形态特征,说明本发明所述算法可以很好地重建灰度岩心图像。
(7)在步骤(6)进行灰度岩心重建的基础上,为了进一步对重建效果进行量化分析,我们采用灰度直方图作为重建的评价标准。灰度直方图反映了图像中灰度的分布情况,是灰度级的函数。通过灰度直方图,我们可以很直观的了解到图像中每个灰度级的占比,是图像的一个重要特征。灰度直方图的横坐标为灰度级,纵坐标为灰度级出现的频率。目标系统和重建结构的灰度直方图如图7所示。从图中可以看出,它们的灰度级分布基本一致,即成分分布较为一致。同时也说明了本发明提出的重建算法能较好地在三维重建结构中复现训练目标系统的灰度级信息。
上述实施例只是本发明的优选实施例,并不是对本发明所述技术方案的限定,只要是不经过创造性劳动即可在上述实施例的基础上实现的技术方案,均应视为落入本发明内容的保护范围内。

Claims (4)

1.一种基于级联条件生成对抗网络的灰度岩心图像三维重建方法,其特征在于包括以下步骤:
(1)采集并制作二维图像和对应三维图像数据集,用于网络的训练和重建;
(2)将步骤(1)中获取的每个三维样本作为训练样本;为了在信息对等的情况下建立二维到三维的映射,并采用三维卷积学习三维空间信息,对网络的Input,Target设置为两个对等结构(待重建三维空间大小)的三维体,并对每层CCGAN网络中Input,Target结构中嵌入的输入输出信息进行设计;
(3)在步骤(2)设计好单个网络的基础上,设计针对图像三维空间像素灰度级模式分布的损失函数Lgrey level_3D,以达到更好地重建效果;
(4)在步骤(3)针对每个网络的灰度岩心图像重建的损失函数Lgrey level_3D进行设计的基础上,基于上述的数据集、网络和损失函数,完成训练,获得多层图像三维重建的模型及其中训练好的生成器及辨别器;
(5)在步骤(4)完成训练的基础上,将以上已经训练好的生成器进行级联构成进行单张二维灰度岩心图像的重建网络;
(6)在步骤(5)建立完成重建阶段的级联条件生成网络过程基础上,基于所述的模型,完成二维灰度岩心图像的三维重建。
2.根据权利要求1所述的方法,其特征在于步骤(2)中所述在信息对等的情况下建立二维到三维的映射,并采用三维卷积学习三维空间信息,对每层CCGAN网络中Input,Target结构中嵌入的输入输出信息进行设计,即将Input,Target设置为两个对等结构(待重建三维空间大小)的三维体;在第一层网络中,已知信息为CT单张二维灰度参考图像,其target为CT序列中连续的下一张图像;基于此,Input三维体其内部第一层为参考图像,该三维结构其它层用灰度值127的像素进行填充,然后将这些序列在z方向上concatenate;Target三维体内部第一层为参考图像,第二层CT序列中连续的下一张图像,该三维结构其它层用灰度值127的像素进行填充,然后将这些序列在z方向上concatenate;CCGAN级联网络的第二层为CT序列中的某两张连续图像作为输入条件,它的后两张连续图像为目标的网络;以此类推,同样的CCGAN网络的其它层的训练阶段与其类似。
3.根据权利要求1所述的方法,其特征在于步骤(3)中所述设计针对图像三维空间像素灰度级模式分布的损失函数Lgrey level_3D,即用一个N×N×N的模板遍历三维结构得到的像素灰度级模式概率分布与目标三维结构模式概率分布的差异,量化生成器G的输出G(x,z)和目标系统y的灰度级分布的均方误差(MSE),从而保持重建过程中灰度级分布的一致性;其表达式如下式所示:
Figure FDA0002292774610000021
其中,Lgrey level_3D灰度级模式分布的损失,ygrey level目标系统y的灰度级分布,(G(x,z))grey level表示生成器G的输出的灰度级分布;具体地,通过扫描图像并获取所有的灰度级,统计0-255这256个灰度级像素出现的频率并进行归一化,从而获得灰度级的分布;然后,通过计算目标系统和重建结果灰度级分布之间的欧氏距离,得到该灰度级分布损失函数。
4.根据权利要求1所述的方法,其特征在于步骤(5)中所述将已经训练好的生成器进行级联构成进行单张二维灰度岩心图像的重建网络,即将以上已经训练好的生成器进行级联;以参考图像为第一层,其它层由127像素值填充的三维体作为输入,先送入前向第一层网络,其输出结果一起作为下一层网络的输入;以此类推,可以重建输入参考图像之后的128张图像;将这128张图像进行堆叠,即可重建出整个三维结构。
CN201911187564.XA 2019-11-28 2019-11-28 基于级联条件生成对抗网络的灰度岩心图像三维重建方法 Active CN112862946B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911187564.XA CN112862946B (zh) 2019-11-28 2019-11-28 基于级联条件生成对抗网络的灰度岩心图像三维重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911187564.XA CN112862946B (zh) 2019-11-28 2019-11-28 基于级联条件生成对抗网络的灰度岩心图像三维重建方法

Publications (2)

Publication Number Publication Date
CN112862946A true CN112862946A (zh) 2021-05-28
CN112862946B CN112862946B (zh) 2023-02-14

Family

ID=75985170

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911187564.XA Active CN112862946B (zh) 2019-11-28 2019-11-28 基于级联条件生成对抗网络的灰度岩心图像三维重建方法

Country Status (1)

Country Link
CN (1) CN112862946B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114078183A (zh) * 2021-11-01 2022-02-22 清华大学 多孔介质三维结构的重建方法、装置、设备及介质
CN115049781A (zh) * 2022-05-11 2022-09-13 西南石油大学 一种基于深度学习的页岩数字岩心三维重建方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105139444A (zh) * 2015-07-31 2015-12-09 四川大学 基于岩心二维颗粒图像的三维颗粒结构重建方法
CN108665546A (zh) * 2018-05-17 2018-10-16 四川大学 一种结合深度学习的多点地质统计三维建模方法
CN108765554A (zh) * 2018-05-21 2018-11-06 四川大学 基于超维的非均质岩心三维重建方法
CN108898560A (zh) * 2018-06-21 2018-11-27 四川大学 基于三维卷积神经网络的岩心ct图像超分辨率重建方法
CN110136063A (zh) * 2019-05-13 2019-08-16 南京信息工程大学 一种基于条件生成对抗网络的单幅图像超分辨率重建方法
CN110197517A (zh) * 2019-06-11 2019-09-03 常熟理工学院 基于多域循环一致性对抗生成网络的sar图像上色方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105139444A (zh) * 2015-07-31 2015-12-09 四川大学 基于岩心二维颗粒图像的三维颗粒结构重建方法
CN108665546A (zh) * 2018-05-17 2018-10-16 四川大学 一种结合深度学习的多点地质统计三维建模方法
CN108765554A (zh) * 2018-05-21 2018-11-06 四川大学 基于超维的非均质岩心三维重建方法
CN108898560A (zh) * 2018-06-21 2018-11-27 四川大学 基于三维卷积神经网络的岩心ct图像超分辨率重建方法
CN110136063A (zh) * 2019-05-13 2019-08-16 南京信息工程大学 一种基于条件生成对抗网络的单幅图像超分辨率重建方法
CN110197517A (zh) * 2019-06-11 2019-09-03 常熟理工学院 基于多域循环一致性对抗生成网络的sar图像上色方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DONGHYUN KIM 等: "《Illumination invariant skin texture generation using CGAN from a single image for haptic augmented palpation》", 《2019 THIRD IEEE INTERNATIONAL CONFERENCE ON ROBOTIC COMPUTING (IRC)》 *
LUKAS MOSSER等: "《Reconstruction of three-dimensional porous media using generative adversarial neural networks》", 《PHYSICAL REVIEW》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114078183A (zh) * 2021-11-01 2022-02-22 清华大学 多孔介质三维结构的重建方法、装置、设备及介质
CN114078183B (zh) * 2021-11-01 2023-06-20 清华大学 多孔介质三维结构的重建方法、装置、设备及介质
CN115049781A (zh) * 2022-05-11 2022-09-13 西南石油大学 一种基于深度学习的页岩数字岩心三维重建方法
CN115049781B (zh) * 2022-05-11 2023-05-23 西南石油大学 一种基于深度学习的页岩数字岩心三维重建方法

Also Published As

Publication number Publication date
CN112862946B (zh) 2023-02-14

Similar Documents

Publication Publication Date Title
CN109345507B (zh) 一种基于迁移学习的大坝图像裂缝检测方法
CN110675321A (zh) 一种基于渐进式的深度残差网络的超分辨率图像重建方法
CN110084181B (zh) 一种基于稀疏MobileNetV2网络的遥感图像舰船目标检测方法
CN112862946B (zh) 基于级联条件生成对抗网络的灰度岩心图像三维重建方法
CN113379601A (zh) 基于降质变分自编码器的真实世界图像超分辨方法及系统
CN111583313A (zh) 一种基于PSMNet改进的双目立体匹配方法
Li et al. Dictionary optimization and constraint neighbor embedding-based dictionary mapping for superdimension reconstruction of porous media
CN112489198A (zh) 一种基于对抗学习的三维重建系统及其方法
CN116485867A (zh) 一种面向自动驾驶的结构化场景深度估计方法
CN110288529B (zh) 一种基于递归局部合成网络的单幅图像超分辨率重建方法
CN109448039B (zh) 一种基于深度卷积神经网络的单目视觉深度估计方法
CN113096015B (zh) 基于渐进式感知和超轻量级网络的图像超分辨率重建方法
Xu et al. Wavenerf: Wavelet-based generalizable neural radiance fields
CN109272450B (zh) 一种基于卷积神经网络的图像超分方法
CN114462486A (zh) 图像处理模型的训练方法、图像处理方法及相关装置
CN112686830A (zh) 基于图像分解的单一深度图的超分辨率方法
CN117173022A (zh) 基于多路径融合和注意力的遥感图像超分辨率重建方法
CN116402874A (zh) 基于时序光学图像与激光雷达数据的航天器深度补全方法
CN113096239B (zh) 一种基于深度学习的三维点云重建方法
CN116681844A (zh) 一种基于亚米级立体像对卫星影像的建筑物白膜构建方法
CN113344110B (zh) 一种基于超分辨率重建的模糊图像分类方法
CN111833432A (zh) 一种基于岩心二维灰度图像的三维重建方法
CN114972332A (zh) 一种基于图像超分辨率重建网络的竹集成材裂纹检测方法
CN112381845A (zh) 岩心图像生成方法、模型训练方法及装置
Lv et al. Improved SRCNN for super-resolution reconstruction of retinal images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant