CN116844019A - 一种基于生成对抗网络的智能沉积相成图方法和装置 - Google Patents
一种基于生成对抗网络的智能沉积相成图方法和装置 Download PDFInfo
- Publication number
- CN116844019A CN116844019A CN202310775585.3A CN202310775585A CN116844019A CN 116844019 A CN116844019 A CN 116844019A CN 202310775585 A CN202310775585 A CN 202310775585A CN 116844019 A CN116844019 A CN 116844019A
- Authority
- CN
- China
- Prior art keywords
- phase
- countermeasure network
- data set
- well
- sedimentary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000013507 mapping Methods 0.000 title claims abstract description 13
- 238000012549 training Methods 0.000 claims abstract description 82
- 230000008021 deposition Effects 0.000 claims abstract description 71
- 238000010587 phase diagram Methods 0.000 claims abstract description 42
- 208000035126 Facies Diseases 0.000 claims abstract description 26
- 238000012360 testing method Methods 0.000 claims abstract description 21
- 238000005520 cutting process Methods 0.000 claims abstract description 9
- 238000012795 verification Methods 0.000 claims abstract description 8
- 238000010586 diagram Methods 0.000 claims description 26
- 230000008485 antagonism Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 13
- 238000000059 patterning Methods 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 9
- 238000003860 storage Methods 0.000 claims description 8
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 5
- 208000035475 disorder Diseases 0.000 claims description 5
- 239000003086 colorant Substances 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000011160 research Methods 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于生成对抗网络的智能沉积相成图方法和装置。方法包括:获取专家绘制好的多张沉积相带图,生成相应多张井位图;将专家绘制好的多张沉积相带图和多张井位图进行切割,得到多张沉积相带图切片和多张井位图切片,组成训练样本对集合,并划分训练数据集、验证数据集、测试数据集;以训练数据集中的井位图切片和沉积相带图切片分别为输入图像和标签图像,训练条件约束生成对抗网络模型;将测试数据集中的井位图切片输入到训练好的条件约束生成对抗网络模型中,生成相应多张沉积相图片。本发明利用了已有的专家绘制的沉积相带图作为学习样本,实现将人工经验融入到绘制过程中;生成的模型能够很好地抽象和再现复杂的空间模式特征。
Description
技术领域
本申请涉及沉积相技术领域,特别是涉及一种基于生成对抗网络的智能沉积相成图方法和装置。
背景技术
沉积相是河流三角洲沉积单元中的沉积环境的重要数据,沉积相的研究是剩余油分布情况和地下流体流动规律的研究的前提。沉积相研究成果重要的视觉表现形式是沉积相带图,其从平面上的角度来反映当前区域具有的沉积规律,描述了目标范围中具体地层单元的各种沉积相的空间分布情况,为设计与规划工程建设提供主要依据。
早期沉积相带图主要采用手工方式,随着手工绘制图幅效率低等问题越来越突出,国内许多油田和专业公司都开展了该方面的研究。目前,通常采用三角网格法和插值方法,实现了计算机辅助人工解释实现沉积相带图的绘制。
然而目前的沉积相带图自动生成过程仍面临诸多难题,首先,图幅的绘制步骤复杂,数据准备繁琐,需要大量的人为干预,造成绘图效率低的问题;其次,图幅的自动绘制并没有将人工经验融入到绘制过程中,无法体现区域沉积特征,形成的沉积相带图存在着河道砂体跨井排不连通问题,无法指导油田开发,给进一步应用带来了困难。
发明内容
基于此,针对上述技术问题,提供一种基于生成对抗网络的智能沉积相成图方法和装置,以解决现有沉积相带图自动生成方法没有将人工经验融入到绘制过程中的技术问题。
为了实现上述目的,本申请提供如下技术方案:
第一方面,一种基于生成对抗网络的智能沉积相成图方法,包括:
S1,获取专家绘制好的多张沉积相带图,并对所述专家绘制好的多张沉积相带图进行预处理;
S2,根据所述专家绘制好的多张沉积相带图,生成相应多张井位图;
S3,将所述专家绘制好的多张沉积相带图和多张井位图以预设尺寸进行切割,得到多张沉积相带图切片和多张井位图切片;
S4,将所述多张沉积相带图切片与多张井位图切片一一对应,组成训练样本对集合;
S5,对所述训练样本对集合进行乱序处理,并根据预设比例关系将所述训练样本对集合划分为训练数据集、验证数据集、测试数据集;
S6,构建条件约束生成对抗网络模型,并利用所述训练数据集训练所述条件约束生成对抗网络模型;所述条件约束生成对抗网络模型以所述训练数据集中的井位图切片为输入图像,以所述训练数据集中的沉积相带图切片为标签图像;
S7,将所述测试数据集中的井位图切片输入到训练好的条件约束生成对抗网络模型中,生成相应多张沉积相图片。
可选地,所述对所述专家绘制好的多张沉积相带图进行预处理,包括将所述专家绘制好的多张沉积相带图根据预设比例尺和图像输出比例进行调整。
可选地,步骤S2具体包括:
根据所述专家绘制好的多张沉积相带图中包含的沉积相颜色创建点符号;
创建点符号模板,所述点符号模板的点符号风格与该点符号模板的相应沉积相类型相对应;
利用所述点符号模板将所述多张沉积相带图分别转换为井位图。
可选地,所述预设尺寸为512pixel*512pixel。
可选地,所述预设比例关系为6:2:2。
可选地,步骤S6中所述构建条件约束生成对抗网络模型,包括构建所述条件约束生成对抗网络模型的生成器模型和判别器模型;所述生成器模型采用U-Net,所述判别器模型采用PatchGAN。
进一步可选地,步骤S7中所述将所述测试数据集中的井位图切片输入训练好的条件约束生成对抗网络模型中,具体是将所述测试数据集中的井位图切片输入训练好的生成器模型中。
第二方面,一种基于生成对抗网络的智能沉积相成图装置,其特征在于,包括:
沉积相带图获取模块,用于获取专家绘制好的多张沉积相带图,并对所述专家绘制好的多张沉积相带图进行预处理;
井位图生成模块,用于根据所述专家绘制好的多张沉积相带图,生成相应多张井位图;
切割模块,用于将所述专家绘制好的多张沉积相带图和多张井位图以预设尺寸进行切割,得到多张沉积相带图切片和多张井位图切片;
训练样本对集合组成模块,用于将所述多张沉积相带图切片与多张井位图切片一一对应,组成训练样本对集合;
划分模块,用于对所述训练样本对集合进行乱序处理,并根据预设比例关系将所述训练样本对集合划分为训练数据集、验证数据集、测试数据集;
生成对抗网络模型训练模块,用于构建条件约束生成对抗网络模型,并利用所述训练数据集训练所述条件约束生成对抗网络模型;所述条件约束生成对抗网络模型以所述训练数据集中的井位图切片为输入图像,以所述训练数据集中的沉积相带图切片为标签图像;
沉积相图片生成模块,用于将所述测试数据集中的井位图切片输入到训练好的条件约束生成对抗网络模型中,生成相应多张沉积相图片。
第三方面,一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现第一方面中任一项所述的方法的步骤。
第四方面,一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现第一方面中任一项所述的方法的步骤。
本发明至少具有以下有益效果:
本发明实施例提供了一种基于生成对抗网络的沉积相带图的智能成图方法,以pix2pix GAN这类图像转化模型为参考,基于现有专家绘制的沉积相带图作为学习样本,构建了条件约束生成对抗网络模型;该模型的输入图像为井位图像,标签图像为专家绘制的沉积相图像,训练得到的模型能够从井位图生成沉积相图;生成的模型中的生成对抗网络能够很好地抽象和再现复杂的空间模式特征,进而生成与专家绘制的相图相似的、具备地质模式知识和条件约束能力的沉积相带图,为沉积相自动成图领域提供了一种高质量的智能成图方法;由于该模型的训练过程利用了已有的专家绘制的沉积相带图作为学习样本,实现将人工经验融入到绘制过程中,能够体现区域沉积特征,能够更好地指导油田开发。
附图说明
图1为本发明一个实施例提供的一种基于生成对抗网络的智能沉积相成图方法的流程示意图;
图2为本发明一个实施例中沉积相示意图;
图3(a)为本发明一个实施例中以沉积相符号标识的井位图创建流程中根据沉积相颜色创建点符号的沉积相设置示意图;
图3(b)为本发明一个实施例中以沉积相符号标识的井位图创建流程中根据沉积相颜色创建点符号的点符号示意图;
图4为本发明一个实施例中以沉积相符号标识的井位图创建流程中创建沉积相类型的点符号风格的示意图;
图5为本发明一个实施例中以沉积相符号标识的井位图创建流程中井位图符号使用沉积相点符号风格的示意图;
图6为本发明一个实施例中井位图示意图;
图7为本发明一个实施例中井位图像和沉积相带图切割示意图;
图8为本发明一个实施例中训练样本对(井位图和沉积相带图对)示意图;
图9为本发明一个实施例中FaciesGAN模型示意图;
图10为本发明一个实施例中U-Net模型结构图;
图11为本发明一个实施例中模型训练效果图;
图12为本发明一个实施例中FaciesGAN模型主要思路示意图;
图13为本发明一个实施例提供的一种基于生成对抗网络的智能沉积相成图装置的模块架构框图;
图14为本发明一个实施例提供的一种计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
人工智能(Artificial Intelligence,简称AI)和深度学习(Deep Learning,简称DL)的浪潮正在席卷全球。深度学习善于从原始输入数据中挖掘抽象的特征表示,而这些表示具有良好的泛化能力。GAN是一种深度学习模型,全称为生成对抗网络(GenerativeAdversarial Networks)。它由两个神经网络组成:一个生成器网络和一个判别器网络。生成器网络通过学习训练数据的分布,生成新的数据。而判别器网络则尝试区分生成器生成的数据和真实的训练数据。在训练过程中,两个网络相互对抗,生成器网络试图欺骗判别器网络,使其无法准确地区分生成的数据和真实的训练数据,而判别器网络则试图正确地识别哪些数据是真实的。通过不断地迭代训练,生成器网络逐渐学习到如何生成更逼真的数据,而判别器网络则逐渐变得更加准确。最终,生成器网络可以生成与训练数据相似的新数据,这些数据可以用于图像生成、视频生成、自然语言处理等领域。GAN是一种非常强大的深度学习模型,它的应用领域非常广泛,包括图像生成、视频生成、语音合成、图像风格转换等等。同时,GAN的训练也非常复杂,需要考虑多个因素,如训练数据的质量、网络结构的设计、超参数的调整等。
pix2pix GAN是一类GAN模型,主要用于图像之间的转换,又称图像翻译,将一张输入的图片转变为一张对应的输出图片。图像翻译(Image Translation)是将一个物体的图像表征转换为该物体的另一个表征,例如根据皮包的轮廓图得到皮包的彩色图。也就是找到一个函数,能让域A的图像映射到域B,从而实现图像的跨域转换。此类模型的主要应用是图片上色、简笔画到实物画的转化等等,这时我们发现了右下角的应用实例,从物品边缘到实物的转化。
近年来,随着人工智能技术和GAN的发展,人工智能方法在油气领域的应用越来越广泛,例如以支持向量机回归和XGBoost回归算法为基础的储层裂缝开度预测,结合卡尔曼滤波和人工神经网络进行油藏井间连通性研究,基于测井的岩相自动识别,应用多次数据吸收集合平滑算法进行自动油藏历史拟合。ERIC等提出基于训练图像的空间
生成对抗神经网络地质统计学反演方法,该方法能够快速生成二维和三维的非条件模拟结果。COIFFIER等使用生成对抗神经网络将二维样本合成为三维地质图像,该方法实现简单,在标准GAN的生成器和判别器之间引入随机截取采样步骤。ZHANG等使用基于沉积结构的生成对抗神经网络方法生成逼真的三维相模型,该方法可以再现各种概念地质模型,同时具有满足约束条件(如井资料)所必需的灵活性。目前,还未见基于pix2pix GAN的沉积相带图智能成图的成熟方法及应用。
在一个实施例中,如图1所示,提供了一种基于生成对抗网络的智能沉积相成图方法,包括以下步骤:
S1,获取专家绘制好的多张沉积相带图,并对专家绘制好的多张沉积相带图进行预处理。
其中,对专家绘制好的多张沉积相带图进行预处理,包括将专家绘制好的多张沉积相带图根据预设比例尺和图像输出比例进行调整。
具体地,专家绘制好的多张沉积相带图也就是模型训练需要的标签图片。在GPTMap软件(油田现场常用的地质制图软件)中把专家绘制的沉积相带图,按照相同的比例尺和图像输出比例进行输出,共获得分辨率为9823*13430的沉积相带图9张,沉积相带图示例如图2。
S2,根据专家绘制好的多张沉积相带图,生成相应多张井位图。
进一步地,步骤S2具体包括:
根据专家绘制好的多张沉积相带图中包含的沉积相颜色创建点符号;
创建点符号模板,点符号模板的点符号风格与该点符号模板的相应沉积相类型相对应;
利用点符号模板将多张沉积相带图分别转换为井位图。
换句话说,步骤S2是获取以沉积相符号标识的井位图,也就是模型训练需要的输入图片。获取沉积相带图对应的井位图,也就是根据沉积相颜色创建以沉积相符号标识的井位图。创建流程为(可参见图3-图5依次展示的步骤):根据沉积相颜色创建点符号,创建沉积相类型和点符号风格一一对应的点符号模板,井位图应用沉积相点符号模板,创建模型需要的输入图像。输出分辨率为9823*13430的井位图9张,大小和沉积相带图一致。井位图示例如图6。
S3,将专家绘制好的多张沉积相带图和多张井位图以预设尺寸进行切割,得到多张沉积相带图切片和多张井位图切片。
其中,预设尺寸为512pixel*512pixel。
换句话说,步骤S3是切割沉积相带图和井位图。由于FaciesGan模型尺寸是固定大小的(512*512)。所以需要把沉积相带图和井位图切割为512*512大小的切片,如图7。
S4,将多张沉积相带图切片与多张井位图切片一一对应,组成训练样本对集合。
换句话说,步骤S4是创建样本数据集。把切割后的沉积相带图和井位图切片一一对应起来,组成训练样本对,如图8。
S5,对训练样本对集合进行乱序处理,并根据预设比例关系将训练样本对集合划分为训练数据集、验证数据集、测试数据集。
其中,预设比例关系为6:2:2。
也就是说,对训练样本进行乱序处理,同时根据6:2:2的比例关系对样本对数据进行划分,分别构建训练数据集、验证数据集、测试数据集。
S6,构建条件约束生成对抗网络模型(CGAN),并利用训练数据集训练条件约束生成对抗网络模型;条件约束生成对抗网络模型以训练数据集中的井位图切片为输入图像,以训练数据集中的沉积相带图切片为标签图像。
进一步地,步骤S6中构建条件约束生成对抗网络模型,包括构建条件约束生成对抗网络模型的生成器模型和判别器模型;生成器模型采用U-Net,所述判别器模型采用PatchGAN。
换句话说,步骤S6也就是进行FaciesGan模型的搭建、训练及调参,FaciesGan模型是参考pix2piGAN模型进行搭建。FaciesGan本质上是一个CGAN(条件约束生成对抗网络),模型结构如图9。图片x作为此CGAN的条件,需要输入到G(生成器)和D(判别器)中。G生成器的输入是x(x是需要转换的图片),输出是生成的图片G(x)。D判别器则需要分辨出{x,G(x)}和{x,y}。图片y就是标签图片也就是沉积相带图切片。
构建FaciesGan的G生成器时,G生成器采用U-Net(图10)构建,可保留图片的局部信息。U-Net是德国Freiburg大学模式识别和图像处理组提出的一种全卷积结构。和常见的先降采样到低维度,再升采样到原始分辨率的编解码(Encoder-Decoder)结构的网络相比,U-Net的区别是加入skip-connection,对应的feature maps和decode之后的同样大小的feature maps按通道拼(concatenate)一起,用来保留不同分辨率下像素级的细节信息。U-Net对提升细节的效果非常明显。
构建FaciesGan的D判别器时,D判别器采用马尔科夫性的判别器(PatchGAN),所谓Patch,是指无论生成的图像有多大,将其切分为多个固定大小的Patch输入进D去判断,能更好地对图像的局部做判断。构建模型并且调整参数,寻找最优的训练效果。
FaciesGan采用的策略是,用重建来解决低频成分,用GAN来解决高频成分。
一方面,使用传统的L1 loss来让生成的图片跟训练的图片尽量相似,用GAN来构建高频部分的细节。另一方面,使用PatchGAN来判别是否是生成的图片。PatchGAN的思想是,既然GAN只用于构建高频信息,那么就不需要将整张图片输入到判别器中,让判别器对图像的每个大小为N*N的patch做真假判别就可以了。因为不同的patch之间可以认为是相互独立的。pix2pix对一张图片切割成不同的N*N大小的patch,判别器对每一个patch做真假判别,将一张图片所有patch的结果取平均作为最终的判别器输出。具体实现的时候,使用的是一个N*N输入的全卷积小网络,最后一层每个像素过sigmoid输出为真的概率,然后用BCEloss计算得到最终loss。这样做的好处是因为输入的维度大大降低,所以参数量少,运算速度也比直接输入一张快,并且可以计算任意大小的图。
S7,将测试数据集中的井位图切片输入到训练好的条件约束生成对抗网络模型中,生成相应多张沉积相图片。
具体地,步骤S7中将测试数据集中的井位图切片输入训练好的条件约束生成对抗网络模型中,具体是将测试数据集中的井位图切片输入训练好的生成器模型中。
换句话说,通过训练好的FaciesGan模型,即可实现沉积相智能成图。将测试数据集中的井位图切片输入训练得到的生成器G模型中,生成沉积相图片,从图11可以看出:模型中的生成对抗网络(GANs)能够很好地抽象和再现复杂的空间模式特征,进而产生非常逼真的沉积相带图。
在本发明实施例中,提供了一种人工智能AI方法,基于生成对抗网络(GAN)的沉积相带图的智能成图方法,主要思路是以pix2pix GAN这类图像转化(图像翻译)模型为参考,构建了FaciesGAN模型,该模型利用现有专家绘制的沉积相带图作为学习样本,构建多条件直接约束的生成对抗网络。
FaciesGAN模型的输入图像为井位图像,标签图像为专家绘制的沉积相图像,训练模型从井位图生成沉积相图。本方案实例说明,模型中的生成对抗网络(GANs)能够很好地抽象和再现复杂的空间模式特征,进而产生非常逼真的沉积相带图。
本发明实施例设计的FaciesGAN模型的主要思路如图12,其以目前在AI生成领域应用广泛的生成对抗网络(GAN)模型为基础,以pix2pix GAN这类图像转化(图像翻译)模型为参考,构建了FaciesGAN模型。该模型利用现有专家绘制的沉积相带图作为学习样本,构建多条件直接约束的生成对抗网络,FaciesGAN模型的输入图像为井位图像,标签图像为专家绘制的沉积相图像,训练模型从井位图生成沉积相图。本方案实例说明,FaciesGAN模型中的生成对抗网络(GANs)能够很好地抽象和再现复杂的空间模式特征,进而生成与专家绘图的相图相似的、并具备地质模式知识和条件约束能力的沉积相带图。本发明为沉积相自动成图领域提供了一种高质量的智能成图方法。
综上,本发明搭建了以pix2pix GAN为参考的FaciesGAN模型,该模型利用现有专家绘制的沉积相带图作为学习样本,构建多条件直接约束的生成对抗网络。模型的输入图像为井位图像,标签图像为专家绘制的沉积相图像,训练模型从井位图生成沉积相图。模型很好地抽象和再现复杂的空间模式特征,进而产生非常逼真的沉积相带图。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图13所示,提供了一种基于生成对抗网络的智能沉积相成图装置,包括以下程序模块:
沉积相带图获取模块131,用于获取专家绘制好的多张沉积相带图,并对所述专家绘制好的多张沉积相带图进行预处理;
井位图生成模块132,用于根据所述专家绘制好的多张沉积相带图,生成相应多张井位图;
切割模块133,用于将所述专家绘制好的多张沉积相带图和多张井位图以预设尺寸进行切割,得到多张沉积相带图切片和多张井位图切片;
训练样本对集合组成模块134,用于将所述多张沉积相带图切片与多张井位图切片一一对应,组成训练样本对集合;
划分模块135,用于对所述训练样本对集合进行乱序处理,并根据预设比例关系将所述训练样本对集合划分为训练数据集、验证数据集、测试数据集;
生成对抗网络模型训练模块136,用于构建条件约束生成对抗网络模型,并利用所述训练数据集训练所述条件约束生成对抗网络模型;所述条件约束生成对抗网络模型以所述训练数据集中的井位图切片为输入图像,以所述训练数据集中的沉积相带图切片为标签图像;
沉积相图片生成模块137,用于将所述测试数据集中的井位图切片输入到训练好的条件约束生成对抗网络模型中,生成相应多张沉积相图片。
关于一种基于生成对抗网络的智能沉积相成图装置的具体限定可以参见上文中对于一种基于生成对抗网络的智能沉积相成图方法的限定,在此不再赘述。上述一种基于生成对抗网络的智能沉积相成图装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图14所示。该计算机设备包括通过系统总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种基于生成对抗网络的智能沉积相成图方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图14中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,涉及上述实施例方法中的全部或部分流程。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,涉及上述实施例方法中的全部或部分流程。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static RandomAccess Memory,SRAM)或动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种基于生成对抗网络的智能沉积相成图方法,其特征在于,包括:
S1,获取专家绘制好的多张沉积相带图,并对所述专家绘制好的多张沉积相带图进行预处理;
S2,根据所述专家绘制好的多张沉积相带图,生成相应多张井位图;
S3,将所述专家绘制好的多张沉积相带图和多张井位图以预设尺寸进行切割,得到多张沉积相带图切片和多张井位图切片;
S4,将所述多张沉积相带图切片与多张井位图切片一一对应,组成训练样本对集合;
S5,对所述训练样本对集合进行乱序处理,并根据预设比例关系将所述训练样本对集合划分为训练数据集、验证数据集、测试数据集;
S6,构建条件约束生成对抗网络模型,并利用所述训练数据集训练所述条件约束生成对抗网络模型;所述条件约束生成对抗网络模型以所述训练数据集中的井位图切片为输入图像,以所述训练数据集中的沉积相带图切片为标签图像;
S7,将所述测试数据集中的井位图切片输入到训练好的条件约束生成对抗网络模型中,生成相应多张沉积相图片。
2.根据权利要求1所述的基于生成对抗网络的智能沉积相成图方法,其特征在于,所述对所述专家绘制好的多张沉积相带图进行预处理,包括将所述专家绘制好的多张沉积相带图根据预设比例尺和图像输出比例进行调整。
3.根据权利要求1所述的基于生成对抗网络的智能沉积相成图方法,其特征在于,步骤S2具体包括:
根据所述专家绘制好的多张沉积相带图中包含的沉积相颜色创建点符号;
创建点符号模板,所述点符号模板的点符号风格与该点符号模板的相应沉积相类型相对应;
利用所述点符号模板将所述多张沉积相带图分别转换为井位图。
4.根据权利要求1所述的基于生成对抗网络的智能沉积相成图方法,其特征在于,所述预设尺寸为512pixel*512pixel。
5.根据权利要求1所述的基于生成对抗网络的智能沉积相成图方法,其特征在于,所述预设比例关系为6:2:2。
6.根据权利要求1所述的基于生成对抗网络的智能沉积相成图方法,其特征在于,步骤S6中所述构建条件约束生成对抗网络模型,包括构建所述条件约束生成对抗网络模型的生成器模型和判别器模型;所述生成器模型采用U-Net,所述判别器模型采用PatchGAN。
7.根据权利要求6所述的基于生成对抗网络的智能沉积相成图方法,其特征在于,步骤S7中所述将所述测试数据集中的井位图切片输入训练好的条件约束生成对抗网络模型中,具体是将所述测试数据集中的井位图切片输入训练好的生成器模型中。
8.一种基于生成对抗网络的智能沉积相成图装置,其特征在于,包括:
沉积相带图获取模块,用于获取专家绘制好的多张沉积相带图,并对所述专家绘制好的多张沉积相带图进行预处理;
井位图生成模块,用于根据所述专家绘制好的多张沉积相带图,生成相应多张井位图;
切割模块,用于将所述专家绘制好的多张沉积相带图和多张井位图以预设尺寸进行切割,得到多张沉积相带图切片和多张井位图切片;
训练样本对集合组成模块,用于将所述多张沉积相带图切片与多张井位图切片一一对应,组成训练样本对集合;
划分模块,用于对所述训练样本对集合进行乱序处理,并根据预设比例关系将所述训练样本对集合划分为训练数据集、验证数据集、测试数据集;
生成对抗网络模型训练模块,用于构建条件约束生成对抗网络模型,并利用所述训练数据集训练所述条件约束生成对抗网络模型;所述条件约束生成对抗网络模型以所述训练数据集中的井位图切片为输入图像,以所述训练数据集中的沉积相带图切片为标签图像;
沉积相图片生成模块,用于将所述测试数据集中的井位图切片输入到训练好的条件约束生成对抗网络模型中,生成相应多张沉积相图片。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310775585.3A CN116844019A (zh) | 2023-06-28 | 2023-06-28 | 一种基于生成对抗网络的智能沉积相成图方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310775585.3A CN116844019A (zh) | 2023-06-28 | 2023-06-28 | 一种基于生成对抗网络的智能沉积相成图方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116844019A true CN116844019A (zh) | 2023-10-03 |
Family
ID=88161034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310775585.3A Pending CN116844019A (zh) | 2023-06-28 | 2023-06-28 | 一种基于生成对抗网络的智能沉积相成图方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116844019A (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111724299A (zh) * | 2020-05-21 | 2020-09-29 | 同济大学 | 一种基于深度学习的超现实主义绘画图像风格迁移方法 |
CN115830165A (zh) * | 2022-11-25 | 2023-03-21 | 湖南大学 | 基于对抗生成网络的国画绘制过程生成方法、装置和设备 |
-
2023
- 2023-06-28 CN CN202310775585.3A patent/CN116844019A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111724299A (zh) * | 2020-05-21 | 2020-09-29 | 同济大学 | 一种基于深度学习的超现实主义绘画图像风格迁移方法 |
CN115830165A (zh) * | 2022-11-25 | 2023-03-21 | 湖南大学 | 基于对抗生成网络的国画绘制过程生成方法、装置和设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111723860B (zh) | 一种目标检测方法及装置 | |
CN111986099B (zh) | 基于融合残差修正的卷积神经网络的耕地监测方法及系统 | |
Tahmasebi et al. | Reconstruction of three-dimensional porous media using a single thin section | |
CN103632361B (zh) | 一种图像分割方法和系统 | |
CN109146899A (zh) | Ct图像的危及器官分割方法及装置 | |
CN109657583A (zh) | 脸部关键点检测方法、装置、计算机设备和存储介质 | |
CN104063894A (zh) | 点云三维模型重建方法及系统 | |
CN107688201A (zh) | 基于rbm地震叠前信号聚类方法 | |
Liu et al. | Multilevel strategies and geological parameterizations for history matching complex reservoir models | |
US10762669B2 (en) | Colorization of vector images | |
CN110222760A (zh) | 一种基于winograd算法的快速图像处理方法 | |
Grabli et al. | Density measure for line-drawing simplification | |
Abdollahifard | Fast multiple-point simulation using a data-driven path and an efficient gradient-based search | |
CN111402124A (zh) | 一种纹理图像和合成图像的生成方法和装置 | |
Zhang et al. | Enhanced interpreter-aided salt boundary extraction using shape deformation | |
Louw et al. | Object-based land surface segmentation scale optimisation: An ill-structured problem | |
Zhang et al. | Multi-source information fused generative adversarial network model and data assimilation based history matching for reservoir with complex geologies | |
CN109345604A (zh) | 图片处理方法、计算机设备和存储介质 | |
CN110991408B (zh) | 基于深度学习方法分割脑白质高信号的方法和装置 | |
CN109934906B (zh) | 原油饱和度的获取方法和装置、计算机设备、存储介质 | |
CN116844019A (zh) | 一种基于生成对抗网络的智能沉积相成图方法和装置 | |
CN106157284B (zh) | 图像中文字区域的定位方法及装置 | |
CN116664954A (zh) | 基于图卷积与卷积融合的高光谱地物分类方法 | |
Li et al. | Fracture extraction from FMI based on multiscale mathematical morphology | |
WO2023284670A1 (zh) | 图形码提取模型构建方法、识别方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |