CN116862766A - 基于边缘生成模型的智能成图与迭代无缝拼接方法和装置 - Google Patents

基于边缘生成模型的智能成图与迭代无缝拼接方法和装置 Download PDF

Info

Publication number
CN116862766A
CN116862766A CN202310775588.7A CN202310775588A CN116862766A CN 116862766 A CN116862766 A CN 116862766A CN 202310775588 A CN202310775588 A CN 202310775588A CN 116862766 A CN116862766 A CN 116862766A
Authority
CN
China
Prior art keywords
well
map
target well
phase
deposition phase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310775588.7A
Other languages
English (en)
Inventor
矫树春
袁钢辉
黄俊锋
曹艳虹
刘志军
高锋
徐强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Goldensun Petroleum Technologies Inc
Original Assignee
Beijing Goldensun Petroleum Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Goldensun Petroleum Technologies Inc filed Critical Beijing Goldensun Petroleum Technologies Inc
Priority to CN202310775588.7A priority Critical patent/CN116862766A/zh
Publication of CN116862766A publication Critical patent/CN116862766A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明公开了一种基于边缘生成模型的智能成图与迭代无缝拼接方法和装置。方法包括:对专家绘制好的多张沉积相带图和相应多张井位图进行共享边缘信息的图像切割;将每张沉积相带图切片的边缘信息复制到相应第一井位图切片上;组成训练样本对集合;构建训练数据集;构建并训练条件约束生成对抗网络模型;利用训练得到的条件约束生成对抗网络模型,对将待拼接的n张目标井位图中每张图进行迭代预测;将得到的n张预测沉积相带图按照顺序进行拼接。本发明实现将人工经验融入到绘制过程中,能够更好地指导油田开发;可确保图像内容自然衔接,解决了由于GAN模型尺寸大小固定而导致的大范围成图过程中存在的训练样本切割后的预测相图拼接问题。

Description

基于边缘生成模型的智能成图与迭代无缝拼接方法和装置
技术领域
本申请涉及油田勘探技术领域,特别是涉及一种基于边缘生成模型的智能成图与迭代无缝拼接方法和装置。
背景技术
沉积研究是对剩余油分布情况和地下流体流动规律研究的前提。沉积相带图是从平面上的角度来反映当前区域具有的沉积规律,描述了目标范围中具体地层单元的各种沉积相的空间分布情况,为设计与规划工程建设提供主要依据。
目前,沉积相带图的自动成图通常采用三角网格法和插值方法。然而其目前的沉积相带图自动生成过程仍面临诸多难题,首先,图幅的绘制步骤复杂,数据准备繁琐,需要大量的人为干预,造成绘图效率低的问题;其次,图幅的自动绘制并没有将人工经验融入到绘制过程中,无法体现区域沉积特征,形成的沉积相带图存在着河道砂体跨井排不连通问题,无法指导油田开发,给进一步应用带来了困难。
GAN是一种非常强大的深度学习模型,它的应用领域非常广泛,包括图像生成、视频生成、语音合成、图像风格转换等等。同时,GAN的训练也非常复杂,需要考虑多个因素,如训练数据的质量、网络结构的设计、超参数的调整等。GAN是一种深度学习模型,全称为生成对抗网络(Generative AdversarialNetworks)。它由两个神经网络组成:一个生成器网络和一个判别器网络。生成器网络通过学习训练数据的分布,生成新的数据。而判别器网络则尝试区分生成器生成的数据和真实的训练数据。在训练过程中,两个网络相互对抗,生成器网络试图欺骗判别器网络,使其无法准确地区分生成的数据和真实的训练数据,而判别器网络则试图正确地识别哪些数据是真实的。通过不断地迭代训练,生成器网络逐渐学习到如何生成更逼真的数据,而判别器网络则逐渐变得更加准确。最终,生成器网络可以生成与训练数据相似的新数据,这些数据可以用于图像生成、视频生成、自然语言处理等领域。
pix2pixGAN是一类GAN模型,主要用于图像之间的转换,又称图像翻译,将一张输入的图片转变为一张对应的输出图片。如图1所示,图像翻译(ImageTranslation)是将一个物体的图像表征转换为该物体的另一个表征,例如根据皮包的轮廓图得到皮包的彩色图。也就是找到一个函数,能让域A的图像映射到域B,从而实现图像的跨域转换。此类模型的主要应用是图片上色、简笔画到实物画的转化等等。
近年来,随着人工智能技术和GAN的发展,人工智能方法在沉积相建模领域的应用越来越广泛,例如:ZHANG等使用基于沉积结构的生成对抗神经网络方法生成三维相模型。ERIC等提出基于训练图像的空间生成对抗神经网络地质统计学反演方法能够快速生成二维和三维的非条件模拟结果。但由于GAN模型尺寸大小固定而导致的大范围成图或建模过程中,必然存在的训练样本切割以及创建成果拼接问题,这就需要解决相邻相图的无缝拼接问题。目前还未有成熟的解决方案。
发明内容
基于此,针对上述技术问题,提供一种基于边缘生成模型的智能成图与迭代无缝拼接方法和装置,以解决现有沉积相带图的自动成图方案没有将人工经验融入到绘制过程中,并且缺乏解决相邻相图无缝拼接问题的解决方案的技术问题。
为了实现上述目的,本申请提供如下技术方案:
第一方面,一种基于边缘生成模型的智能成图与迭代无缝拼接方法,包括:
S1,获取专家绘制好的多张沉积相带图;
S2,根据所述专家绘制好的多张沉积相带图,生成相应多张井位图;
S3,将所述专家绘制好的多张沉积相带图和多张井位图,以预设尺寸进行共享边缘信息的图像切割,得到多张沉积相带图切片和多张第一井位图切片,所有相邻沉积相带图切片之间以及所有相邻井位图切片之间均共享一定比例的信息;
S4,将每张沉积相带图切片的边缘信息复制到相应第一井位图切片上,形成多张第二井位图切片,并将所述多张沉积相带图切片与多张第一井位图切片和多张第二井位图切片一一对应起来,组成训练样本对集合;
S5,对所述训练样本对集合进行乱序处理,并根据预设比例关系对所述训练样本对集合进行划分,构建训练数据集、验证数据集、测试数据集;
S6,构建条件约束生成对抗网络模型,并利用所述训练数据集训练所述条件约束生成对抗网络模型;所述条件约束生成对抗网络模型以所述训练数据集中的第二井位图切片为输入图像,以所述训练数据集中的沉积相带图切片为标签图像;
S7,将待拼接的n张目标井位图中的第1张目标井位图输入到所述条件约束生成对抗网络模型中,得到对应所述第1张目标井位图的第1张预测沉积相带图;在得到的所有预测沉积相带图中,将与待拼接的多张目标井位图中的第i张目标井位图相邻的预测沉积相带图的相邻侧边缘信息复制到所述第i张目标井位图上,并将得到的图像输入到所述条件约束生成对抗网络模型中,得到对应所述第i张目标井位图的第i张预测沉积相带图,i依次取2、3、...n;
S8,将得到的n张预测沉积相带图按照顺序进行拼接。
可选地,步骤S1还包括:
将所述专家绘制好的多张沉积相带图根据预设比例尺和图像输出比例进行调整。
可选地,步骤S2具体包括:
根据所述多张沉积相带图中包含的沉积相颜色创建点符号;
创建点符号模板,所述点符号模板的点符号风格与该点符号模板的相应沉积相类型相对应;
利用所述点符号模板将所述多张沉积相带图分别转换为井位图。
可选地,所述预设尺寸为512pixel*512pixel。
可选地,所述预设比例关系为6:2:2。
可选地,所述构建条件约束生成对抗网络模型,包括构建所述条件约束生成对抗网络模型的生成器模型和判别器模型;所述生成器模型采用U-Net,所述判别器模型采用PatchGAN。
可选地,步骤S4中所述将每张沉积相带图切片的边缘信息复制到相应第一井位图切片上,形成多张第二井位图切片,具体包括:
将每张沉积相带图切片的上侧边缘信息复制到相应第一井位图切片上,形成多张上条带融合的第二井位图切片;
将每张沉积相带图切片的左侧边缘信息复制到相应第一井位图切片上,形成多张左条带融合的第二井位图切片;
同时将每张沉积相带图切片的左侧边缘信息和上侧边缘信息复制到相应第一井位图切片上,形成多张左上条带融合的第二井位图切片。
进一步可选地,步骤S7具体包括:
S71,将待拼接的n张目标井位图中的第1行第1张目标井位图J11输入到所述条件约束生成对抗网络模型中,得到对应于所述第1行第1张目标井位图J11的第1行第1张预测沉积相带图C11;
将待拼接的n张目标井位图中的第1行第2张目标井位图J12与所述第1行第1张预测沉积相带图C11进行左侧边缘信息的融合,并将得到的图像输入到所述条件约束生成对抗网络模型中,得到对应于所述第1行第2张目标井位图J12的第1行第2张预测沉积相带图C12;
以此类推,得到待拼接的n张目标井位图中的第1行所有目标井位图的对应预测沉积相带图;
S72,将待拼接的n张目标井位图中的第2行第1张目标井位图J21与所述第1行第1张预测沉积相带图C11进行上侧边缘信息的融合,并将得到的图像输入到所述条件约束生成对抗网络模型中,得到对应于所述第2行第1张目标井位图J21的第2行第1张预测沉积相带图C21;
将待拼接的n张目标井位图中的第2行第2张目标井位图J22与所述第2行第1张预测沉积相带图C21进行左侧边缘信息的融合,同时将所述第2行第2张目标井位图J22与所述第1行第2张预测沉积相带图C12进行上侧边缘信息的融合,并将得到的图像输入到所述条件约束生成对抗网络模型中,得到对应于所述第2行第2张目标井位图J22的第2行第2张预测沉积相带图C22;
以此类推,得到待拼接的n张目标井位图中的第2行所有目标井位图的对应预测沉积相带图;
S73,参考步骤S72,得到待拼接的n张目标井位图中的其余每一行所有目标井位图的对应预测沉积相带图。
第二方面,一种基于边缘生成模型的智能成图与迭代无缝拼接装置,包括:
沉积相带图获取模块,用于获取专家绘制好的多张沉积相带图;
井位图生成模块,用于根据所述专家绘制好的多张沉积相带图,生成相应多张井位图;
切割模块,用于将所述专家绘制好的多张沉积相带图和多张井位图,以预设尺寸进行共享边缘信息的图像切割,得到多张沉积相带图切片和多张第一井位图切片,所有相邻沉积相带图切片之间以及所有相邻井位图切片之间均共享一定比例的信息;
训练样本对集合组成模块,用于将每张沉积相带图切片的边缘信息复制到相应第一井位图切片上,形成多张第二井位图切片,并将所述多张沉积相带图切片与多张第一井位图切片和多张第二井位图切片一一对应起来,组成训练样本对集合;
划分模块,用于对所述训练样本对集合进行乱序处理,并根据预设比例关系对所述训练样本对集合进行划分,构建训练数据集、验证数据集、测试数据集;
生成对抗网络模型训练模块,用于构建条件约束生成对抗网络模型,并利用所述训练数据集训练所述条件约束生成对抗网络模型;所述条件约束生成对抗网络模型以所述训练数据集中的第二井位图切片为输入图像,以所述训练数据集中的沉积相带图切片为标签图像;
迭代预测模块,用于将待拼接的n张目标井位图中的第1张目标井位图输入到所述条件约束生成对抗网络模型中,得到对应所述第1张目标井位图的第1张预测沉积相带图;在得到的所有预测沉积相带图中,将与待拼接的多张目标井位图中的第i张目标井位图相邻的预测沉积相带图的相邻侧边缘信息复制到所述第i张目标井位图上,并将得到的图像输入到所述条件约束生成对抗网络模型中,得到对应所述第i张目标井位图的第i张预测沉积相带图,i依次取2、3、...n;
拼接模块,用于将得到的n张预测沉积相带图按照顺序进行拼接。
第三方面,一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现第一方面中任一项所述的方法的步骤。
本发明至少具有以下有益效果:
本发明实施例提供了一种基于生成对抗网络的沉积相带图智能成图与无缝拼接解决方法,基于pix2pixGAN这类图像转化图像翻译模型,利用现有专家绘制的沉积相带图作为学习样本,构建多条件直接约束生成对抗网络,训练边缘生长模型,进而采用迭代预测拼接模式,创建图像内容自然流畅的沉积相带图;本发明实施例所提供的方法中,多条件直接约束生成对抗网络模型的输入图像为井位图像,标签图像为专家绘制好的沉积相图像,训练得到的模型能够从井位图生成沉积相图;由于模型的训练过程利用了已有的专家绘制的沉积相带图作为学习样本,实现将人工经验融入到绘制过程中,能够体现区域沉积特征,能够更好地指导油田开发;同时,该方法在分割样本时采用共享边缘信息的构建方案,使相邻样本共享一定比例的信息,然后构建边缘生长模型;在构建模型后,利用模型按照切片顺序迭代预测并拼接全图,可有效确保图像内容自然衔接;因此该方法有效地解决了由于GAN模型尺寸大小固定而导致的大范围成图过程中,必然存在的训练样本切割后的预测相图拼接问题,为沉积相自动成图领域提供了一种高质量、大范围的可确保无缝拼接的智能成图方法。
附图说明
图1为图像翻译示意图;
图2为本发明一个实施例提供的一种基于边缘生成模型的智能成图与迭代无缝拼接方法的流程示意图;
图3为本发明一个实施例中井位图和沉积相带图示意图;
图4为本发明一个实施例中共享边缘信息的图像切割示意图;
图5为本发明一个实施例中训练数据信息融合示意图;
图6为本发明一个实施例中井位图像和沉积相带图切割示意图;
图7为本发明一个实施例中FaciesMergeGAN模型结构图;
图8为本发明一个实施例中U-Net模型结构图;
图9为本发明一个实施例中模型预测效果展示图;
图10为本发明一个实施例中第一行相图预测示意图;
图11为本发明一个实施例中第二行相图预测示意图;
图12为本发明一个实施例中迭代预测拼接与专家绘制的效果对比图;
图13为本发明一个实施例中FaciesMergeGAN模型思路图;
图14为本发明一个实施例提供的一种基于边缘生成模型的智能成图与迭代无缝拼接装置的模块架构框图;
图15为本发明一个实施例提供的一种计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图2所示,提供了一种基于边缘生成模型的智能成图与迭代无缝拼接方法,包括以下步骤:
S1,获取专家绘制好的多张沉积相带图。
进一步地,步骤S1还包括:
将专家绘制好的多张沉积相带图根据预设比例尺和图像输出比例进行调整。
获取专家绘制的沉积相图像,也就是模型训练需要的标签图片。在GPTMap软件(油田现场常用的地质制图软件)中把专家绘制的沉积相带图,按照相同的比例尺和图像输出比例进行输出,共获得分辨率为9823*13430的沉积相带图9张。
S2,根据专家绘制好的多张沉积相带图,生成相应多张井位图。
进一步地,步骤S2具体包括:
根据多张沉积相带图中包含的沉积相颜色创建点符号;
创建点符号模板,点符号模板的点符号风格与该点符号模板的相应沉积相类型相对应;
利用点符号模板将多张沉积相带图分别转换为井位图。
也就是说,获取以沉积相符号标识的井位图,也就是模型训练需要的输入图片。获取沉积相带图对应的井位图,根据沉积相颜色创建以沉积相符号标识的井位图。按照相同的比例尺和图像输出比例进行输出9张井位图像,井位图像和沉积相带图如图3所示。
S3,将专家绘制好的多张沉积相带图和多张井位图,以预设尺寸进行共享边缘信息的图像切割,得到多张沉积相带图切片和多张第一井位图切片,所有相邻沉积相带图切片之间以及所有相邻井位图切片之间均共享一定比例的信息。
其中,预设尺寸为512pixel*512pixel。
也就是说,创建带有共享信息的井位切片和相图切片。由于FaciesMergeGAN模型输入数据尺寸是固定大小的,需要把沉积相带图和井位图切割为512*512大小的切片。另外,为解决无缝拼接问题,在分割样本时采用共享边缘信息的构建方案,使相邻样本共享一定比例的信息,如图4所示,使得模型能够从训练样本中有效地学习相邻信息。换句话说,共享边缘信息也就是在切割的时候,相邻的切片之间有重叠的边缘。井位切片就是输入图片,相图切片就是标签图片。本实施例共获得共计1980份训练样本图像对。
S4,将每张沉积相带图切片的边缘信息复制到相应第一井位图切片上,形成多张第二井位图切片,并将多张沉积相带图切片与多张第一井位图切片和多张第二井位图切片一一对应起来,组成训练样本对集合。
进一步地,步骤S4中将每张沉积相带图切片的边缘信息复制到相应第一井位图切片上,形成多张第二井位图切片,具体包括:
将每张沉积相带图切片的上侧边缘信息复制到相应第一井位图切片上,形成多张上条带融合的第二井位图切片;
将每张沉积相带图切片的左侧边缘信息复制到相应第一井位图切片上,形成多张左条带融合的第二井位图切片;
同时将每张沉积相带图切片的左侧边缘信息和上侧边缘信息复制到相应第一井位图切片上,形成多张左上条带融合的第二井位图切片。
也就是说,创建融合信息的训练图像对。为进一步训练模型具备边缘生长能力,以便生成相邻区域能够无缝粘合,需要构建具备以下特征的训练数据:输入图片(井位切片)边缘具备标签图片(沉积相图切片)边缘相同比例的信息,可以采用左侧、上侧、左上侧条带融合模型构建新的训练样本。由于模型预测采用的是从上到下,从左到右的模式,所以以上三类融合模式能满足实际需求。最后产生四类输入图片:无信息融合、左条带融合、上条带融合、左上条带融合图片,如图5所示。
融合方法如下:把融合位置的标签图片(沉积相图切片)边缘信息复制到对应位置的输入图片(井位切片)上,融合条带的宽度为20个像素。创建融合信息的训练图像对重要意义在于:训练模型学习输入图像和标签图像的边缘信息共享的逻辑关系,确保模型根据输入图像的边缘信息创建出的相图能够学习并复制这些边缘信息,同时由于相邻输入图像相交处,具备相同的边缘信息,所以模型预测生成的相邻沉积图带图也具备具备相同的边缘信息,进而解决了相邻相图的无缝拼接问题。
然后把切割后的沉积相带图和井位图切片一一对应起来,组成训练样对,如图6所示,完成创建样本数据集。通过上述三种信息融合方式,井位图切片训练数据从原始1980份数据,扩展三倍数据,共计构建7920份井位图切片训练数据(井位图像和沉积相图像对)。
S5,对训练样本对集合进行乱序处理,并根据预设比例关系对训练样本对集合进行划分,构建训练数据集、验证数据集、测试数据集。
其中,预设比例关系为6:2:2。
对训练样本进行乱序处理,同时根据6:2:2的比例关系对样本对数据进行划分,分别构建训练数据集、验证数据集、测试数据集。
S6,构建条件约束生成对抗网络模型,并利用训练数据集训练条件约束生成对抗网络模型;条件约束生成对抗网络模型以训练数据集中的第二井位图切片为输入图像,以训练数据集中的沉积相带图切片为标签图像;
具体地,构建条件约束生成对抗网络模型,包括构建条件约束生成对抗网络模型的生成器模型和判别器模型;生成器模型采用U-Net,判别器模型采用PatchGAN。
步骤S6进行FaciesMergeGAN模型的搭建、训练及调参。FaciesMergeGAN参考pix2piGAN模型进行搭建,模型结构如图7。FaciesMergeGAN本质上是一个CGAN(条件约束生成对抗网络),输入图片(井位切片)x作为此FaciesMergeGAN的条件,需要输入到G生成器和D判别器中。G生成器的输入是x(x是需要转换的图片),输出是生成的图片G(x)。D判别器则需要分辨出{x,G(x)}和{x,y}。图片y就是标签图片(相图切片)。
构建模型的生成器时,G生成器采用U-Net(如图8)构建,可保留图片的局部信息,U-Net对提升细节的效果非常明显。构建模型的判别器时,D判别器采用马尔科夫性的判别器(PatchGAN),PatchGAN的思想是:既然GAN只用于构建高频信息,那么就不需要将整张图片输入到判别器中,让判别器对图像的每个大小为N*N的patch做真假判别就可以了。因为不同的patch之间可以认为是相互独立的。pix2pix对一张图片切割成不同的N*N大小的patch,判别器对每一个patch做真假判别,将一张图片所有patch的结果取平均作为最终的判别器输出。
构建模型后再进行调整参数,寻找最优的训练效果。训练效果如图9所示,这6组图片重点关注每组图片右侧的预测相图和中间的标签相图的相似度,相似度越高,说明模型效果越好。从实例图片可以说明:模型中的生成对抗网络(GANs)能够很好地抽象和再现复杂的空间模式特征,进而产生非常逼真的沉积相带图。
S7,将待拼接的n张目标井位图中的第1张目标井位图输入到条件约束生成对抗网络模型中,得到对应第1张目标井位图的第1张预测沉积相带图;在得到的所有预测沉积相带图中,将与待拼接的多张目标井位图中的第i张目标井位图相邻的预测沉积相带图的相邻侧边缘信息复制到第i张目标井位图上,并将得到的图像输入到条件约束生成对抗网络模型中,得到对应第i张目标井位图的第i张预测沉积相带图,i依次取2、3、...n。
步骤S7进行迭代预测拼接创建沉积相带图,作为可选的一种方式,采用从上到下,从左到右的拼接模式,步骤S7具体包括:
S71,将待拼接的n张目标井位图中的第1行第1张目标井位图J11输入到条件约束生成对抗网络模型中,得到对应于所述第1行第1张目标井位图J11的第1行第1张预测沉积相带图C11;
将待拼接的n张目标井位图中的第1行第2张目标井位图J12与所述第1行第1张预测沉积相带图C11进行左侧边缘信息的融合,并将得到的图像输入到所述条件约束生成对抗网络模型中,得到对应于所述第1行第2张目标井位图J12的第1行第2张预测沉积相带图C12;
以此类推,得到待拼接的n张目标井位图中的第1行所有目标井位图的对应预测沉积相带图;换句话说,将待拼接的n张目标井位图中的第1行第p张目标井位图J1p与第1行第p-1张预测沉积相带图C1p-1进行左侧边缘信息的融合,并将得到的图像输入到条件约束生成对抗网络模型中,得到对应于第1行第p张目标井位图J1p的第1行第p张预测沉积相带图C1p;p≥3,p最大取到第1行的目标井位图总张数;
S72,将待拼接的n张目标井位图中的第2行第1张目标井位图J21与所述第1行第1张预测沉积相带图C11进行上侧边缘信息的融合,并将得到的图像输入到条件约束生成对抗网络模型中,得到对应于第2行第1张目标井位图J21的第2行第1张预测沉积相带图C21;
将待拼接的n张目标井位图中的第2行第2张目标井位图J22与所述第2行第1张预测沉积相带图C21进行左侧边缘信息的融合,同时将第2行第2张目标井位图J22与所述第1行第2张预测沉积相带图C12进行上侧边缘信息的融合,并将得到的图像输入到条件约束生成对抗网络模型中,得到对应于所述第2行第2张目标井位图J22的第2行第2张预测沉积相带图C22;
以此类推,得到待拼接的n张目标井位图中的第2行所有目标井位图的对应预测沉积相带图;换句话说,将待拼接的n张目标井位图中的第2行第p张目标井位图J2p与第2行第p-1张预测沉积相带图C2p-1进行左侧边缘信息的融合,同时将第2行第p张目标井位图J2p与第1行第p张预测沉积相带图C1p进行上侧边缘信息的融合,并将得到的图像输入到条件约束生成对抗网络模型中,得到对应于第2行第p张目标井位图J2p的第2行第p张预测沉积相带图C2p;p≥3,p最大取到第2行的目标井位图总张数;
S73,参考步骤S72,得到待拼接的n张目标井位图中的其余每一行所有目标井位图的对应预测沉积相带图。
换种说法,如图10所示,第一行图像预测的思路为:第一张井位图w1输入模型后创建第一张沉积相图f1,井位图w2和f1进行左条带融合后,输入模型创建沉积相图f2;当前行之后的井位图以此类推进行迭代预测创建相图。如图11所示,第二行图像预测的思路为:井位图w3和沉积相图f1进行上条带融合,输入模型创建沉积相图f3;井位图w4和沉积相图f2、f3进行左上条带融合后,输入模型创建沉积相图f4。本行后面图像以此类推。以下行图像创建和本行方法一致。
S8,将得到的n张预测沉积相带图按照顺序进行拼接。
把所有的输出图片按照顺序进行拼接。从图12看到,模型可确保图像内容自然衔接。另外,对比预测图和标签图,可发现自动创建的相图与专家相图高度类似。
本发明提供了一种基于生成对抗网络(GAN)的沉积相带图智能成图的无缝拼接解决方案。上述基于边缘生成模型的智能成图与迭代无缝拼接方法中,以目前在AI生成领域应用广泛的生成对抗网络(GAN)模型为基础,基于pix2pixGAN这类图像转化(图像翻译)模型,构建了沉积相自动成图FaciesMergeGAN模型,如图13所示。该模型利用现有专家绘制的沉积相带图作为学习样本,构建多条件直接约束生成对抗网络,训练边缘生长模型,进而采用迭代预测拼接模式,创建图像内容自然流畅的沉积相带图。
该方案有效地解决了由于GAN模型尺寸大小固定而导致的大范围成图过程中,必然存在的训练样本切割后的预测相图拼接问题。为实现相邻相图的无缝拼接问题,在分割样本时采用共享边缘信息的构建方案,使相邻样本共享一定比例的信息,然后构建边缘生长模型;在构建模型后,利用模型按照切片顺序迭代预测并拼接全图,可有效确保图像内容自然衔接,AI模块创建的相图与专家相图高度类似。本发明为沉积相自动成图领域提供了一种高质量、大范围的可确保无缝拼接的智能成图方法。
应该理解的是,虽然图2的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图14所示,提供了一种基于边缘生成模型的智能成图与迭代无缝拼接装置,包括以下程序模块:
沉积相带图获取模块101,用于获取专家绘制好的多张沉积相带图;
井位图生成模块102,用于根据所述专家绘制好的多张沉积相带图,生成相应多张井位图;
切割模块103,用于将所述专家绘制好的多张沉积相带图和多张井位图,以预设尺寸进行共享边缘信息的图像切割,得到多张沉积相带图切片和多张第一井位图切片,所有相邻沉积相带图切片之间以及所有相邻井位图切片之间均共享一定比例的信息;
训练样本对集合组成模块104,用于将每张沉积相带图切片的边缘信息复制到相应第一井位图切片上,形成多张第二井位图切片,并将所述多张沉积相带图切片与多张第一井位图切片和多张第二井位图切片一一对应起来,组成训练样本对集合;
划分模块105,用于对所述训练样本对集合进行乱序处理,并根据预设比例关系对所述训练样本对集合进行划分,构建训练数据集、验证数据集、测试数据集;
生成对抗网络模型训练模块106,用于构建条件约束生成对抗网络模型,并利用所述训练数据集训练所述条件约束生成对抗网络模型;所述条件约束生成对抗网络模型以所述训练数据集中的第二井位图切片为输入图像,以所述训练数据集中的沉积相带图切片为标签图像;
迭代预测模块107,用于将待拼接的n张目标井位图中的第1张目标井位图输入到所述条件约束生成对抗网络模型中,得到对应所述第1张目标井位图的第1张预测沉积相带图;在得到的所有预测沉积相带图中,将与待拼接的多张目标井位图中的第i张目标井位图相邻的预测沉积相带图的相邻侧边缘信息复制到所述第i张目标井位图上,并将得到的图像输入到所述条件约束生成对抗网络模型中,得到对应所述第i张目标井位图的第i张预测沉积相带图,i依次取2、3、...n;
拼接模块108,用于将得到的n张预测沉积相带图按照顺序进行拼接。
关于一种基于边缘生成模型的智能成图与迭代无缝拼接装置的具体限定可以参见上文中对于一种基于边缘生成模型的智能成图与迭代无缝拼接方法的限定,在此不再赘述。上述一种基于边缘生成模型的智能成图与迭代无缝拼接装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图15所示。该计算机设备包括通过系统总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种基于边缘生成模型的智能成图与迭代无缝拼接方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图15中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,涉及上述实施例方法中的全部或部分流程。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,涉及上述实施例方法中的全部或部分流程。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random AccessMemory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(StaticRandomAccessMemory,SRAM)或动态随机存取存储器(DynamicRandomAccessMemory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种基于边缘生成模型的智能成图与迭代无缝拼接方法,其特征在于,包括:
S1,获取专家绘制好的多张沉积相带图;
S2,根据所述专家绘制好的多张沉积相带图,生成相应多张井位图;
S3,将所述专家绘制好的多张沉积相带图和多张井位图,以预设尺寸进行共享边缘信息的图像切割,得到多张沉积相带图切片和多张第一井位图切片,所有相邻沉积相带图切片之间以及所有相邻井位图切片之间均共享一定比例的信息;
S4,将每张沉积相带图切片的边缘信息复制到相应第一井位图切片上,形成多张第二井位图切片,并将所述多张沉积相带图切片与多张第一井位图切片和多张第二井位图切片一一对应起来,组成训练样本对集合;
S5,对所述训练样本对集合进行乱序处理,并根据预设比例关系对所述训练样本对集合进行划分,构建训练数据集、验证数据集、测试数据集;
S6,构建条件约束生成对抗网络模型,并利用所述训练数据集训练所述条件约束生成对抗网络模型;所述条件约束生成对抗网络模型以所述训练数据集中的第二井位图切片为输入图像,以所述训练数据集中的沉积相带图切片为标签图像;
S7,将待拼接的n张目标井位图中的第1张目标井位图输入到所述条件约束生成对抗网络模型中,得到对应所述第1张目标井位图的第1张预测沉积相带图;在得到的所有预测沉积相带图中,将与待拼接的多张目标井位图中的第i张目标井位图相邻的预测沉积相带图的相邻侧边缘信息复制到所述第i张目标井位图上,并将得到的图像输入到所述条件约束生成对抗网络模型中,得到对应所述第i张目标井位图的第i张预测沉积相带图,i依次取2、3、...n;
S8,将得到的n张预测沉积相带图按照顺序进行拼接。
2.根据权利要求1所述的基于边缘生成模型的智能成图与迭代无缝拼接方法,其特征在于,步骤S1还包括:
将所述专家绘制好的多张沉积相带图根据预设比例尺和图像输出比例进行调整。
3.根据权利要求1所述的基于边缘生成模型的智能成图与迭代无缝拼接方法,其特征在于,步骤S2具体包括:
根据所述多张沉积相带图中包含的沉积相颜色创建点符号;
创建点符号模板,所述点符号模板的点符号风格与该点符号模板的相应沉积相类型相对应;
利用所述点符号模板将所述多张沉积相带图分别转换为井位图。
4.根据权利要求1所述的基于边缘生成模型的智能成图与迭代无缝拼接方法,其特征在于,所述预设尺寸为512pixel*512pixel。
5.根据权利要求1所述的基于边缘生成模型的智能成图与迭代无缝拼接方法,其特征在于,所述预设比例关系为6:2:2。
6.根据权利要求1所述的基于边缘生成模型的智能成图与迭代无缝拼接方法,其特征在于,所述构建条件约束生成对抗网络模型,包括构建所述条件约束生成对抗网络模型的生成器模型和判别器模型;所述生成器模型采用U-Net,所述判别器模型采用PatchGAN。
7.根据权利要求1所述的基于边缘生成模型的智能成图与迭代无缝拼接方法,其特征在于,步骤S4中所述将每张沉积相带图切片的边缘信息复制到相应第一井位图切片上,形成多张第二井位图切片,具体包括:
将每张沉积相带图切片的上侧边缘信息复制到相应第一井位图切片上,形成多张上条带融合的第二井位图切片;
将每张沉积相带图切片的左侧边缘信息复制到相应第一井位图切片上,形成多张左条带融合的第二井位图切片;
同时将每张沉积相带图切片的左侧边缘信息和上侧边缘信息复制到相应第一井位图切片上,形成多张左上条带融合的第二井位图切片。
8.根据权利要求7所述的基于边缘生成模型的智能成图与迭代无缝拼接方法,其特征在于,步骤S7具体包括:
S71,将待拼接的n张目标井位图中的第1行第1张目标井位图J11输入到所述条件约束生成对抗网络模型中,得到对应于所述第1行第1张目标井位图J11的第1行第1张预测沉积相带图C11;
将待拼接的n张目标井位图中的第1行第2张目标井位图J12与所述第1行第1张预测沉积相带图C11进行左侧边缘信息的融合,并将得到的图像输入到所述条件约束生成对抗网络模型中,得到对应于所述第1行第2张目标井位图J12的第1行第2张预测沉积相带图C12;
以此类推,得到待拼接的n张目标井位图中的第1行所有目标井位图的对应预测沉积相带图;
S72,将待拼接的n张目标井位图中的第2行第1张目标井位图J21与所述第1行第1张预测沉积相带图C11进行上侧边缘信息的融合,并将得到的图像输入到所述条件约束生成对抗网络模型中,得到对应于所述第2行第1张目标井位图J21的第2行第1张预测沉积相带图C21;
将待拼接的n张目标井位图中的第2行第2张目标井位图J22与所述第2行第1张预测沉积相带图C21进行左侧边缘信息的融合,同时将所述第2行第2张目标井位图J22与所述第1行第2张预测沉积相带图C12进行上侧边缘信息的融合,并将得到的图像输入到所述条件约束生成对抗网络模型中,得到对应于所述第2行第2张目标井位图J22的第2行第2张预测沉积相带图C22;
以此类推,得到待拼接的n张目标井位图中的第2行所有目标井位图的对应预测沉积相带图;
S73,参考步骤S72,得到待拼接的n张目标井位图中的其余每一行所有目标井位图的对应预测沉积相带图。
9.一种基于边缘生成模型的智能成图与迭代无缝拼接装置,其特征在于,包括:
沉积相带图获取模块,用于获取专家绘制好的多张沉积相带图;
井位图生成模块,用于根据所述专家绘制好的多张沉积相带图,生成相应多张井位图;
切割模块,用于将所述专家绘制好的多张沉积相带图和多张井位图,以预设尺寸进行共享边缘信息的图像切割,得到多张沉积相带图切片和多张第一井位图切片,所有相邻沉积相带图切片之间以及所有相邻井位图切片之间均共享一定比例的信息;
训练样本对集合组成模块,用于将每张沉积相带图切片的边缘信息复制到相应第一井位图切片上,形成多张第二井位图切片,并将所述多张沉积相带图切片与多张第一井位图切片和多张第二井位图切片一一对应起来,组成训练样本对集合;
划分模块,用于对所述训练样本对集合进行乱序处理,并根据预设比例关系对所述训练样本对集合进行划分,构建训练数据集、验证数据集、测试数据集;
生成对抗网络模型训练模块,用于构建条件约束生成对抗网络模型,并利用所述训练数据集训练所述条件约束生成对抗网络模型;所述条件约束生成对抗网络模型以所述训练数据集中的第二井位图切片为输入图像,以所述训练数据集中的沉积相带图切片为标签图像;
迭代预测模块,用于将待拼接的n张目标井位图中的第1张目标井位图输入到所述条件约束生成对抗网络模型中,得到对应所述第1张目标井位图的第1张预测沉积相带图;在得到的所有预测沉积相带图中,将与待拼接的多张目标井位图中的第i张目标井位图相邻的预测沉积相带图的相邻侧边缘信息复制到所述第i张目标井位图上,并将得到的图像输入到所述条件约束生成对抗网络模型中,得到对应所述第i张目标井位图的第i张预测沉积相带图,i依次取2、3、...n;
拼接模块,用于将得到的n张预测沉积相带图按照顺序进行拼接。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至8中任一项所述的方法的步骤。
CN202310775588.7A 2023-06-28 2023-06-28 基于边缘生成模型的智能成图与迭代无缝拼接方法和装置 Pending CN116862766A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310775588.7A CN116862766A (zh) 2023-06-28 2023-06-28 基于边缘生成模型的智能成图与迭代无缝拼接方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310775588.7A CN116862766A (zh) 2023-06-28 2023-06-28 基于边缘生成模型的智能成图与迭代无缝拼接方法和装置

Publications (1)

Publication Number Publication Date
CN116862766A true CN116862766A (zh) 2023-10-10

Family

ID=88227894

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310775588.7A Pending CN116862766A (zh) 2023-06-28 2023-06-28 基于边缘生成模型的智能成图与迭代无缝拼接方法和装置

Country Status (1)

Country Link
CN (1) CN116862766A (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019118658A1 (en) * 2017-12-14 2019-06-20 Schlumberger Technology Corporation System and method for simulating reservoir models
US20200183047A1 (en) * 2018-12-11 2020-06-11 Exxonmobil Upstream Research Company Automated Reservoir Modeling Using Deep Generative Networks
WO2020199478A1 (zh) * 2019-04-03 2020-10-08 平安科技(深圳)有限公司 图像生成模型训练方法、图像生成方法、装置、设备及存储介质
WO2021036471A1 (zh) * 2019-08-28 2021-03-04 腾讯科技(深圳)有限公司 样本生成方法、装置、计算机设备及存储介质
WO2021051050A1 (en) * 2019-09-12 2021-03-18 Schlumberger Technology Corporation Generating geological facies models with fidelity to the diversity and statistics of training images using improved generative adversarial networks
CN114078183A (zh) * 2021-11-01 2022-02-22 清华大学 多孔介质三维结构的重建方法、装置、设备及介质
KR20220050664A (ko) * 2020-10-16 2022-04-25 삼성전자주식회사 패턴 특성의 예측을 위한 딥 러닝 모델의 학습 방법 및 반도체 소자 제조 방법
CN114529622A (zh) * 2022-01-12 2022-05-24 华南理工大学 通过引入自监督复合任务训练生成对抗网络生成高质量图像的方法及装置
US11348017B1 (en) * 2017-11-07 2022-05-31 Synopsys, Inc. Machine learning method and framework for optimizing setups for accurate, speedy and robust TCAD simulations
CN115308799A (zh) * 2022-09-05 2022-11-08 中国地质科学院地质力学研究所 一种地震成像游离气构造识别方法及系统
CN115830165A (zh) * 2022-11-25 2023-03-21 湖南大学 基于对抗生成网络的国画绘制过程生成方法、装置和设备

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11348017B1 (en) * 2017-11-07 2022-05-31 Synopsys, Inc. Machine learning method and framework for optimizing setups for accurate, speedy and robust TCAD simulations
WO2019118658A1 (en) * 2017-12-14 2019-06-20 Schlumberger Technology Corporation System and method for simulating reservoir models
CN111712823A (zh) * 2017-12-14 2020-09-25 斯伦贝谢技术有限公司 用于模拟储层模型的系统和方法
US20200183047A1 (en) * 2018-12-11 2020-06-11 Exxonmobil Upstream Research Company Automated Reservoir Modeling Using Deep Generative Networks
WO2020199478A1 (zh) * 2019-04-03 2020-10-08 平安科技(深圳)有限公司 图像生成模型训练方法、图像生成方法、装置、设备及存储介质
WO2021036471A1 (zh) * 2019-08-28 2021-03-04 腾讯科技(深圳)有限公司 样本生成方法、装置、计算机设备及存储介质
WO2021051050A1 (en) * 2019-09-12 2021-03-18 Schlumberger Technology Corporation Generating geological facies models with fidelity to the diversity and statistics of training images using improved generative adversarial networks
KR20220050664A (ko) * 2020-10-16 2022-04-25 삼성전자주식회사 패턴 특성의 예측을 위한 딥 러닝 모델의 학습 방법 및 반도체 소자 제조 방법
CN114078183A (zh) * 2021-11-01 2022-02-22 清华大学 多孔介质三维结构的重建方法、装置、设备及介质
CN114529622A (zh) * 2022-01-12 2022-05-24 华南理工大学 通过引入自监督复合任务训练生成对抗网络生成高质量图像的方法及装置
CN115308799A (zh) * 2022-09-05 2022-11-08 中国地质科学院地质力学研究所 一种地震成像游离气构造识别方法及系统
CN115830165A (zh) * 2022-11-25 2023-03-21 湖南大学 基于对抗生成网络的国画绘制过程生成方法、装置和设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
TUAN-FENG ZHANG 等: "Generating geologically realistic 3D reservoir facies models using deep learning of sedimentary architecture with generative adversarial networks", PETROLEUM SCIENCE, 31 December 2019 (2019-12-31) *
冷佳明;曾振;刘广源;郑新阳;刘璎慧;: "基于条件生成对抗网络的图像转化方法研究", 数码世界, no. 09, 1 September 2020 (2020-09-01) *
李少华 等: "基于单一图像生成对抗神经网络方法在沉积相建模中的应用", 油气地质与采收率, 31 January 2022 (2022-01-31) *

Similar Documents

Publication Publication Date Title
US10896524B2 (en) Method and system for color representation generation
Xu et al. Collaborative virtual geographic environments: A case study of air pollution simulation
US20110310101A1 (en) Pillar grid conversion
CN103955891B (zh) 一种基于块匹配的图像修复方法
Kim et al. CityCraft: 3D virtual city creation from a single image
US10762669B2 (en) Colorization of vector images
Abdollahifard Fast multiple-point simulation using a data-driven path and an efficient gradient-based search
CN114842180B (zh) 一种点云补全方法、装置、设备及介质
Chen et al. Deep convolutional generative adversarial networks for modeling complex hydrological structures in Monte-Carlo simulation
Louw et al. Object-based land surface segmentation scale optimisation: An ill-structured problem
CN112528508A (zh) 电磁可视化方法和装置
Karimpouli et al. Multistep Super Resolution Double-U-net (SRDUN) for enhancing the resolution of Berea sandstone images
Buyukdemircioglu et al. Deep learning for 3D building reconstruction: A review
Allahverdi et al. Landscaper: A modeling system for 3D printing scale models of landscapes
Zhu et al. Seamless Satellite‐image Synthesis
CN116862766A (zh) 基于边缘生成模型的智能成图与迭代无缝拼接方法和装置
Mekni Spatial simulation using abstraction of virtual geographic environments
Olsen et al. Hinged, pseudo-grid triangulation method for long, near-linear cliff analyses
CN116777804A (zh) 基于生成对抗网络的智能相图局部更新方法、装置和设备
CN114022632A (zh) 基于深度卷积生成对抗网络的地质模型快速生成方法
Di Carlo et al. Generating 3D building volumes for a given urban context using Pix2Pix GAN
Arpat et al. Feature-based geostatistics: an application to a submarine channel reservoir
Thieling et al. Automated generation of virtual road scenarios for efficient tests of driver assistance systems
CN116844019A (zh) 一种基于生成对抗网络的智能沉积相成图方法和装置
Fricker et al. Intuitive design through information maps

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination