CN117436350A - 基于深度卷积生成对抗网络的压裂水平井压力预测方法 - Google Patents
基于深度卷积生成对抗网络的压裂水平井压力预测方法 Download PDFInfo
- Publication number
- CN117436350A CN117436350A CN202311734131.8A CN202311734131A CN117436350A CN 117436350 A CN117436350 A CN 117436350A CN 202311734131 A CN202311734131 A CN 202311734131A CN 117436350 A CN117436350 A CN 117436350A
- Authority
- CN
- China
- Prior art keywords
- data
- convolution
- generator
- image
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000009826 distribution Methods 0.000 claims abstract description 64
- 238000012549 training Methods 0.000 claims abstract description 64
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 230000006870 function Effects 0.000 claims description 37
- 108091006146 Channels Proteins 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 20
- 230000004913 activation Effects 0.000 claims description 16
- 238000010606 normalization Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 7
- 230000008485 antagonism Effects 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 230000017105 transposition Effects 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000007476 Maximum Likelihood Methods 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 abstract description 3
- 239000003208 petroleum Substances 0.000 abstract description 2
- 238000002474 experimental method Methods 0.000 description 10
- 238000013507 mapping Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000003042 antagnostic effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000003079 shale oil Substances 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/08—Probabilistic or stochastic CAD
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2119/00—Details relating to the type or aim of the analysis or the optimisation
- G06F2119/14—Force analysis or force optimisation, e.g. static or dynamic forces
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Geometry (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于深度卷积生成对抗网络的压裂水平井压力预测方法,属于石油工程技术领域,包括如下步骤:步骤1、基于嵌入式离散裂缝模型数值模拟器生成训练数据;步骤2、对训练数据进行预处理;步骤3、构建基于U‑Net框架的深度卷积生成对抗网络模型;步骤4、训练基于U‑Net框架的深度卷积生成对抗网络模型,并输出训练完成的模型;步骤5、实时获取当前裂缝形态,输入训练完成的模型,预测得到当前压力分布图像。本发明能够快速准确地预测储层压力分布,从而更好地实现储层生产动态预测。
Description
技术领域
本发明属于石油工程技术领域,具体涉及一种基于深度卷积生成对抗网络的压裂水平井压力预测方法。
背景技术
页岩油气藏在我国分布广泛,开发潜力巨大。压裂水平井技术是一项常用的页岩油气藏开发工艺,该技术在地层中形成高导流裂缝网络,从而极大地提高油气产量。而在开发过程中,压裂水平井的压力动态研究是获取页岩储层参数的主要手段之一,但由于地层条件复杂,地质建模和数值模拟计算量极大。
发明内容
为了解决上述问题,本发明提出了一种基于深度卷积生成对抗网络的压裂水平井压力预测方法,采用基于U-Net框架的深度卷积生成对抗网络建立了生产过程中裂缝分布与储层压力分布的动态映射关系,通过输入裂缝分布数据,得到储层压力动态分布。
本发明的技术方案如下:
一种基于深度卷积生成对抗网络的压裂水平井压力预测方法,包括如下步骤:
步骤1、基于嵌入式离散裂缝模型数值模拟器生成训练数据;
步骤2、对训练数据进行预处理;
步骤3、构建基于U-Net框架的深度卷积生成对抗网络模型;
步骤4、训练基于U-Net框架的深度卷积生成对抗网络模型,并输出训练完成的模型;
步骤5、实时获取当前裂缝形态,输入训练完成的模型,预测得到当前压力分布图像。
进一步地,所述步骤1中,嵌入式离散裂缝模型数值模拟器的输入为裂缝条数、裂缝长度、裂缝方位角、裂缝间距和井斜比,其中对裂缝长度、井斜比和裂缝方位角进行随机采样,从而生成不同形状的裂缝形态图像来作为训练数据。
进一步地,所述步骤2中,预处理的具体过程为:首先,将输入图像的大小调整到指定大小,并且在输入图像的中心进行指定大小的裁剪操作,其中指定大小是训练开始时的特征图的大小;然后将范围为[0,255]、格式为高×宽×通道的图像转换为范围为[0.0,1.0]、格式为通道×高×宽的形状张量图像;最后根据平均值和标准差逐个通道对形状张量图像进行归一化处理;归一化处理采用归一化函数将数据转化为标准的高斯分布,计算公式如下所示:
(1);
其中,为输出数据的通道序列值;/>为输入数据的通道序列值;为每个通道的均值序列;/>为每个通道的标准偏差序列。
进一步地,所述步骤3中,在基于U-Net框架的深度卷积生成对抗网络模型包括生成器和判别器;其中,生成器采用U-Net框架,U-Net框架是一种编码器-解码器结构,具体包括输入层、编码器层、解码器层、输出层;输入层用于输入裂缝形态图像数据;编码器层用于提取特征,编码器层由三个串联的块组成,每个块通过两个有效卷积和一个最大池化过程来实现,卷积核大小为3×3,步长为1,填充为0;每个卷积都采用ReLU激活函数;解码器层也由三个串联的块组成,每个块通过转置卷积将图像大小放大两倍,然后在扩展路径上对对称特征图像进行复制裁剪,恢复到原始分辨率;在转置卷积过程中,将卷积得到的浅层特征图与转置卷积得到的深层信息拼接在一起;输出层使用双曲正切函数作为激活函数,输出压力分布图像数据;
判别器采用卷积神经网络,设置卷积神经网络的卷积核为4×4,步长为2;卷积神经网络依次进行的卷积、批量标准化操作和LeakyReLU激活函数处理,然后通过Sigmoid激活函数输出最终的概率。
进一步地,所述步骤4中,模型训练过程分为两部分,第一部分更新判别器,第二部分更新生成器;
生成器和判别器的损失函数如下:
(2);
其中,为生成器网络;/>为判别器网络;/>表示最大似然估计;/>为压力分布图像数据;/>为训练数据的分布;/>为裂缝形态分布的潜在向量;/>为潜在向量数据分布;表示生成器生成的图像将被判别器判断为真的概率;/>为真实压力分布数据的损失率;/>为生成器生成压力分布数据的损失率;
判别器的训练分为两个步骤:首先,从实际训练集中获取一批样本,前向传输到判别器以计算真实压力分布数据的损失率,在后向传输中计算梯度;然后让生成器生成一批假数据,并将假数据导入判别器,计算生成器生成压力分布数据的损失率,并将计算出的梯度传回;
在训练生成器时,将第一个生成器输出的相同假数据输入到判别器进行分类,然后使用真假标签计算生成器损耗和梯度,最后通过Adma优化器更新生成器中的参数。
本发明所带来的有益技术效果:本方法将改进的U-Net框架与DC-GAN的深度卷积部分相结合,建立了基于U-Net框架的深度卷积生成对抗网络模型;训练后的模型能够快速准确地预测储层压力分布,从而更好地实现储层生产动态预测;该模型具有可移植性强、计算速度快等优点。
附图说明
图1为本发明基于深度卷积生成对抗网络的压裂水平井压力预测方法的流程图。
图2为本发明生成对抗网络训练过程图。
图3为本发明生成器的损失函数曲线图。
图4为本发明判别器的损失函数曲线图。
图5为本发明实验1中输入的原始小裂缝图像图。
图6为本发明实验1中采用嵌入式离散裂缝模型数值模拟器预测得到的小裂缝第300天的压力分布图。
图7为本发明实验1中采用训练完成的基于U-Net框架的深度卷积生成对抗网络模型预测得到的小裂缝第300天的压力分布图。
图8为本发明实验1中输入的原始大裂缝图像图。
图9为本发明实验1中采用嵌入式离散裂缝模型数值模拟器预测得到的大裂缝第300天的压力分布图。
图10为本发明实验1中采用训练完成的基于U-Net框架的深度卷积生成对抗网络模型预测得到的大裂缝第300天的压力分布图。
图11为本发明实验2中100组数据的均方误差分布图。
具体实施方式
下面结合附图以及具体实施方式对本发明作进一步详细说明:
本方法旨在利用基于U-Net框架的深度卷积生成对抗网络模型建立裂缝形态与压力分布之间的映射关系,形成高效的代理模型。由于储层裂缝网络的几何特征和压力分布是整个储层尺度上的数据,导致数据的维数非常大。因此,常用的直接对数据本身进行训练的人工神经网络和深度学习方法很难获得良好的训练效果,或者需要构建的神经网络模型太大。因此,本发明的基本思路是将这两种数据转换为图像型处理,利用深度卷积提取裂缝形态的几何特征和压力分布特征,再结合生成对抗神经网络进行训练。
训练样本数据的质量关系到代理模型的准确性。本发明采用嵌入式离散裂缝模型EDFM生成这两种数据。EDFM只需要将基质划分为结构化网格,将离散裂缝嵌入到基质网格中,并将裂缝作为基质网格中的源汇项。这样既避免了非结构化网格的划分,降低了网格生成的难度,又不需要考虑裂缝的动态行为重新生成背景网格,保证了前期处理的效率。通过对裂缝长度和裂缝方位的随机采样,得到不同的裂缝网络,利用EDFM模拟裂缝网络的流动,得到不同时间的储层压力分布。
如图1所示,具体包括如下步骤:
步骤1、基于嵌入式离散裂缝模型数值模拟器生成训练数据;
EDFM是将基质通过结构化网格划分,然后将裂缝系统嵌入到基质网格中,处理复杂裂缝网络中的多相流,从而提高预处理效率。因此,本发明方法建立了内部EDFM数值模拟器,为基于U-Net框架的深度卷积生成对抗网络模型训练提供数据集。EDFM数值模拟器建立后,需要准备相应的油藏参数输入EDFM中。对于裂缝形貌,本发明用裂缝条数、裂缝长度、裂缝方位角、裂缝间距和井斜比5个参数来表征裂缝的几何形状。此外,本发明对裂缝长度、井斜比和裂缝方位角进行随机采样,从而生成不同形状的裂缝形态图像,保证了训练数据的差异性和模型的通用性。
步骤2、对训练数据进行预处理;
训练数据是通过EDFM获得的图像数据,图像类型的数据集不能直接放入基于U-Net框架的深度卷积生成对抗网络模型进行训练,需要进行一些预处理才能转换成该模型所要求的指定格式。首先,将输入图像的大小调整到指定大小,即图像内容可以加长或缩短。并且在输入图像的中心进行指定大小的裁剪操作,其中指定大小是训练开始时的特征图的大小。然后将范围为[0,255]、格式为高×宽×通道的图像转换为范围为[0.0,1.0]、格式为通道×高×宽的形状张量图像。最后根据平均值和标准差逐个通道对形状张量图像进行归一化处理。归一化处理采用归一化函数将数据转化为标准的高斯分布,加速了模型的收敛,计算公式如式(1)所示,然后可以将数据集输入到模型中进行批量训练。还需要注意的是,在设置放缩和中心裁剪的指定大小时,设置的值将直接影响训练结果的质量,因此程序员需要依靠经验来调整到合适的大小。
(1);
其中,为输出数据的通道序列值;/>为输入数据的通道序列值;为每个通道的均值序列;/>为每个通道的标准偏差序列。
步骤3、构建基于U-Net框架的深度卷积生成对抗网络模型DC-GAN;
首先,生成对抗网络GAN是一个深度学习框架,它可以捕捉训练数据的分布情况,从而可以根据相同的分布产生新的数据,它由生成器和判别器两种不同的模型组成。生成器的工作是产生与训练图像数据相似的假图像,而判别器的工作是接受图像,然后输出图像来自训练数据或是生成器的结果。
生成对抗网络训练过程的工作流程如图2所示为:首先将裂缝形态数据输入生成器网络得到假的压力分布图像数据,再将真压力分布图像数据和假压力分布图像数据输入判别器网络,将判别器网络的输出结果通过损失函数计算得到反向传播参数,最后将反向传播参数传递给生成器网络和判别器网络更新网络梯度参数。在整个训练过程中,生成器试图通过不断生成更好的假图像来欺骗判别器,而判别器不断努力成为更好的分类器,以准确地区分真实图像和假图像。最终训练的平衡点是,当生成器生成与训练数据类似的假压力分布图像数据,判别器输出的概率稳定在50%左右。生成器和判别器的损失函数如式(2)所示:
(2);
其中,为生成器网络,表示输入图像和输出图像之间的映射关系;/>为判别器网络,/>的值越低表示数据来自生成器,越高表示来自训练数据,这与传统的二值分类器有些相似;/>表示最大似然估计;/>为压力分布图像数据;/>为训练数据的分布;/>为裂缝形态分布的潜在向量;/>为潜在向量数据分布;/>表示生成器生成的图像将被判别器判断为真的概率;/>为真实压力分布数据的损失率,用来表示判别器试图最大限度地提高区分真实图像和虚假图像的精度;/>为生成器生成压力分布数据的损失率,用来表示生成器试图最小化由其生成的图像被判定为假图像的可能性。
本发明采用的深度卷积生成对抗网络DC-GAN是GAN的直接延伸,不同之处在于DC-GAN在判别器和生成器中用卷积和转置卷积代替了原来的非线性映射。
本发明基于U-Net框架的深度卷积生成对抗网络模型包括生成器和判别器;
其中,生成器的设计采用U-Net框架,U-Net框架是一种编码器-解码器结构,具体包括输入层、编码器层、解码器层、输出层。输入层用于输入裂缝形态图像数据。编码器层用于提取特征,编码器层由三个串联的块组成,每个块通过两个有效卷积和一个最大池化过程来实现,卷积的卷积核大小为3×3,步长为1,填充为设置0。每个卷积都采用ReLU激活函数。ReLU激活函数的特点是没有负值,因为函数的负半轴是0,具体计算公式如式(3)所示。解码器层也由三个串联的块组成,用于图像大小的恢复,每个块通过转置卷积将图像大小放大两倍,然后在扩展路径上对对称特征图像进行复制裁剪,恢复到原始分辨率。整个生成器网络设计的最大通道数达到512个,用于捕捉尺寸为32×32图像的特征。在转置卷积过程中,将卷积得到的浅层特征图与转置卷积得到的深层信息拼接在一起,以保留更多的空间和维度信息,以便后面的卷积可以在浅层和深层信息之间自由选择。输出层使用双曲正切函数Tanh作为激活函数,公式如式(4)所示,以保持输出图像像素的连续性,使输出图像的每个像素之间的差值不会太大,否则图像会出现严重的噪声,最终模型输出的图像与输入图像大小相同。输入图像首先经过三层卷积,再经过三次转置卷积得到真实图像的信息。其中转置卷积的卷积核大小为3×3,步长为2;输入的填充和输出的填充均设置为1,保证了转置卷积后的特征图与对应的池化前的特征图一致。DC-GAN模型由输入层输入裂缝形态图像数据,输出层输出压力分布图像数据,从而形成两种图像之间的映射关系。
(3);
(4);
其中,为ReLU激活函数;/>为压力分布图像数据;/>为ReLU激活函数的导数;/>为双曲正切函数;/>为双曲正切函数的导数;
判别器是一个分类器,用于输出图像的真实概率。判别器的设计基于卷积神经网络CNN。卷积神经网络的卷积核为4×4,步长为2,填充设置为0。它经过一系列的卷积、批量标准化操作和LeakyReLU激活函数处理,然后通过Sigmoid激活函数输出最终的概率;其中,卷积采用Conv2d函数,批量标准化操作采用BatchNorm2d函数。用卷积代替池化进行下采样,可以训练网络的池化能力。批量标准化操作和LeakyReLU激活函数功能也可以促进健康的梯度流。LeakyReLU激活函数尝试解决死角问题。不是将饱和度设置为0,而是将其设置为一个非常小的值,如0.01。LeakyReLU和ReLU之间的区别在于,LeakyReLU为所有负值提供非零斜率,而不是0。
步骤4、训练基于U-Net框架的深度卷积生成对抗网络模型,输出训练完成的模型;
在训练过程中,主要分为两部分。第一部分更新判别器,第二部分更新生成器。
判别器的训练分为两个步骤:首先,从实际训练集中获取一批样本,前向传输到判别器以计算真实压力分布数据的损失率,在后向传输中计算梯度。然后让生成器生成一批假数据,并将假数据导入判别器,计算生成器生成压力分布数据的损失率,并将计算出的梯度传回。上述两步得到的判别器的变换过程是对判别器的优化。
在训练生成器时,将第一个生成器输出的相同假数据输入到判别器进行分类,然后使用真假标签计算生成器损耗和梯度,最后通过Adma优化器更新生成器中的参数。理想的情况应该是从接近1开始,然后在生成器变得更好的过程中收敛到0.5。/>在训练中产生两个数据,第一个在判别器更新之前,第二个在判别器更新之后,它们都应该从0收敛到0.5。在训练的早期阶段,后者的值往往小于前者的值,这是因为正确更新后,判别器更容易识别图像的真实性。/>的值代表图像的真假程度,越接近0,图片越虚假,越接近1,图片越真实。图3和图4分别显示了生成器和判别器的损失函数在训练过程中的变化过程,横坐标迭代次数的单位为次,纵坐标损失值为无量纲,即损失值没有单位。为了更好地观察损失函数从迭代开始到最终的变化,将最大迭代次数设置为近1000次。每一次迭代都是生成器和判别器的升级。当生成器和判别器的损失函数图像开始彼此相交时,即LOSS_D和LOSS_G的值接近时,则表明生成器和判别器开始有效地对抗竞争。在这段时间的训练中,模型的精度将不断提高,模型训练效果较好。
步骤5、实时获取当前裂缝形态,输入训练完成的模型,预测得到当前压力分布图像。
为了证明本发明的可行性与优越性,进行了如下实验:
实验1:使用100张未参加训练的裂缝形态图像对训练后的DC-GAN模型进行效果评估。并从100张图像中选出了1张大裂缝图像和1张小裂缝图像。在相同的条件下,将它们输入EDFM数值模拟器和训练完成的DC-GAN模型预测第300天的压力分布图像,并进行比较,图5为输入的原始小裂缝图像,图6为采用EDFM数值模拟器预测得到的小裂缝第300天的压力分布图像,图7为采用训练完成的基于U-Net框架的深度卷积生成对抗网络模型预测得到的小裂缝第300天的压力分布图像。图8为输入的原始大裂缝图像,图9为采用EDFM数值模拟器预测得到的大裂缝第300天的压力分布图像,图10为采用训练完成的基于U-Net框架的深度卷积生成对抗网络模型预测得到的大裂缝第300天的压力分布图像。从图5-图10可以看出,数值模拟器预测的压力分布图像与本发明模型预测的压力分布图像大致相同。特别是在裂缝较大的情况下,EDFM数值模拟器和训练完成基于U-Net框架的深度卷积生成对抗网络模型预测的压降扩散范围和形状基本一致。可以证明,本发明基于U-Net框架的深度卷积生成对抗网络模型的预测的压力分布的可靠性。
实验2:均方误差(Mean Square Error,MSE)是计算输出图像与原始图像之间误差的常用指标,因此,用MSE来计算代理模型和验证数据集的均方误差,并从具体的数值角度验证代理模型的准确性。其计算公式如式(5)所示:
(5);
其中,为均方误差值;/>为真实数据样本序号,/>为真实数据样本数;/>为模型生成数据序号,/>为模型生成数据数;/>为真实数据在给定点的像素;/>为预测数据在给定点的像素。
图11显示了用于验证的100组数据的均方误差分布,横坐标样本数量的单位为个,纵坐标均方误差为无量纲,即均方误差没有单位。可以看出,整个样本数据集的均方误差都低于0.1,计算得到的平均均方误差值为0.078。证明了代理模型与EDFM预测的误差较小,即代理模型具有较高的精度。
上述实验结果表明,基于U-Net框架的深度卷积生成对抗网络模型在裂缝网络几何特征提取、划分和拼接方面具有显著的能力,代理模型预测的压力扩散范围与数值模拟结果基本一致,均方误差在0.1以内。相比于传统数值模拟器,代理模型可极大的提升压力预测效率。
当然,上述说明并非是对本发明的限制,本发明也并不仅限于上述举例,本技术领域的技术人员在本发明的实质范围内所做出的变化、改型、添加或替换,也应属于本发明的保护范围。
Claims (5)
1.一种基于深度卷积生成对抗网络的压裂水平井压力预测方法,其特征在于,包括如下步骤:
步骤1、基于嵌入式离散裂缝模型数值模拟器生成训练数据;
步骤2、对训练数据进行预处理;
步骤3、构建基于U-Net框架的深度卷积生成对抗网络模型;
步骤4、训练基于U-Net框架的深度卷积生成对抗网络模型,并输出训练完成的模型;
步骤5、实时获取当前裂缝形态,输入训练完成的模型,预测得到当前压力分布图像。
2.根据权利要求1所述基于深度卷积生成对抗网络的压裂水平井压力预测方法,其特征在于,所述步骤1中,嵌入式离散裂缝模型数值模拟器的输入为裂缝条数、裂缝长度、裂缝方位角、裂缝间距和井斜比,其中对裂缝长度、井斜比和裂缝方位角进行随机采样,从而生成不同形状的裂缝形态图像来作为训练数据。
3.根据权利要求1所述基于深度卷积生成对抗网络的压裂水平井压力预测方法,其特征在于,所述步骤2中,预处理的具体过程为:首先,将输入图像的大小调整到指定大小,并且在输入图像的中心进行指定大小的裁剪操作,其中指定大小是训练开始时的特征图的大小;然后将范围为[0,255]、格式为高×宽×通道的图像转换为范围为[0.0,1.0]、格式为通道×高×宽的形状张量图像;最后根据平均值和标准差逐个通道对形状张量图像进行归一化处理;归一化处理采用归一化函数将数据转化为标准的高斯分布,计算公式如下所示:
(1);
其中,为输出数据的通道序列值;/>为输入数据的通道序列值;为每个通道的均值序列;/>为每个通道的标准偏差序列。
4.根据权利要求1所述基于深度卷积生成对抗网络的压裂水平井压力预测方法,其特征在于,所述步骤3中,在基于U-Net框架的深度卷积生成对抗网络模型包括生成器和判别器;其中,生成器采用U-Net框架,U-Net框架是一种编码器-解码器结构,具体包括输入层、编码器层、解码器层、输出层;输入层用于输入裂缝形态图像数据;编码器层用于提取特征,编码器层由三个串联的块组成,每个块通过两个有效卷积和一个最大池化过程来实现,卷积核大小为3×3,步长为1,填充为0;每个卷积都采用ReLU激活函数;解码器层也由三个串联的块组成,每个块通过转置卷积将图像大小放大两倍,然后在扩展路径上对对称特征图像进行复制裁剪,恢复到原始分辨率;在转置卷积过程中,将卷积得到的浅层特征图与转置卷积得到的深层信息拼接在一起;输出层使用双曲正切函数作为激活函数,输出压力分布图像数据;
判别器采用卷积神经网络,设置卷积神经网络的卷积核为4×4,步长为2;卷积神经网络依次进行的卷积、批量标准化操作和LeakyReLU激活函数处理,然后通过Sigmoid激活函数输出最终的概率。
5.根据权利要求1所述基于深度卷积生成对抗网络的压裂水平井压力预测方法,其特征在于,所述步骤4中,模型训练过程分为两部分,第一部分更新判别器,第二部分更新生成器;
生成器和判别器的损失函数如下:
(2);
其中,为生成器网络;/>为判别器网络;/>表示最大似然估计;/>为压力分布图像数据;/>为训练数据的分布;/>为裂缝形态分布的潜在向量;/>为潜在向量数据分布;表示生成器生成的图像将被判别器判断为真的概率;/>为真实压力分布数据的损失率;/>为生成器生成压力分布数据的损失率;
判别器的训练分为两个步骤:首先,从实际训练集中获取一批样本,前向传输到判别器以计算真实压力分布数据的损失率,在后向传输中计算梯度;然后让生成器生成一批假数据,并将假数据导入判别器,计算生成器生成压力分布数据的损失率/>,并将计算出的梯度传回;
在训练生成器时,将第一个生成器输出的相同假数据输入到判别器进行分类,然后使用真假标签计算生成器损耗和梯度,最后通过Adma优化器更新生成器中的参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311734131.8A CN117436350B (zh) | 2023-12-18 | 2023-12-18 | 基于深度卷积生成对抗网络的压裂水平井压力预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311734131.8A CN117436350B (zh) | 2023-12-18 | 2023-12-18 | 基于深度卷积生成对抗网络的压裂水平井压力预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117436350A true CN117436350A (zh) | 2024-01-23 |
CN117436350B CN117436350B (zh) | 2024-03-08 |
Family
ID=89546420
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311734131.8A Active CN117436350B (zh) | 2023-12-18 | 2023-12-18 | 基于深度卷积生成对抗网络的压裂水平井压力预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117436350B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109255364A (zh) * | 2018-07-12 | 2019-01-22 | 杭州电子科技大学 | 一种基于深度卷积生成对抗网络的场景识别方法 |
CN111223087A (zh) * | 2020-01-15 | 2020-06-02 | 东南大学 | 一种基于生成对抗网络的桥梁裂缝自动检测方法 |
AU2020101836A4 (en) * | 2020-08-14 | 2020-09-24 | Xi'an university of posts and telecommunications | A method for generating femoral x-ray films based on deep learning and digital reconstruction of radiological image |
CN112949783A (zh) * | 2021-04-29 | 2021-06-11 | 南京信息工程大学滨江学院 | 一种基于改进U-Net神经网络的道路裂缝检测方法 |
CN113592000A (zh) * | 2021-08-03 | 2021-11-02 | 成都理工大学 | 基于卷积对抗神经网络的裂缝识别技术 |
CN114118362A (zh) * | 2021-11-04 | 2022-03-01 | 同济大学 | 基于生成式对抗网络的小样本下结构表面裂缝检测方法 |
US20220309674A1 (en) * | 2021-03-26 | 2022-09-29 | Nanjing University Of Posts And Telecommunications | Medical image segmentation method based on u-net |
CN116307015A (zh) * | 2022-09-07 | 2023-06-23 | 同济大学 | 一种基于pix2pix的环境性能预测方法及装置 |
CN116754654A (zh) * | 2023-08-21 | 2023-09-15 | 成都中弘轨道交通环保产业股份有限公司 | 一种基于图像分析模型的声音屏障检测方法及装置 |
-
2023
- 2023-12-18 CN CN202311734131.8A patent/CN117436350B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109255364A (zh) * | 2018-07-12 | 2019-01-22 | 杭州电子科技大学 | 一种基于深度卷积生成对抗网络的场景识别方法 |
CN111223087A (zh) * | 2020-01-15 | 2020-06-02 | 东南大学 | 一种基于生成对抗网络的桥梁裂缝自动检测方法 |
AU2020101836A4 (en) * | 2020-08-14 | 2020-09-24 | Xi'an university of posts and telecommunications | A method for generating femoral x-ray films based on deep learning and digital reconstruction of radiological image |
US20220309674A1 (en) * | 2021-03-26 | 2022-09-29 | Nanjing University Of Posts And Telecommunications | Medical image segmentation method based on u-net |
CN112949783A (zh) * | 2021-04-29 | 2021-06-11 | 南京信息工程大学滨江学院 | 一种基于改进U-Net神经网络的道路裂缝检测方法 |
CN113592000A (zh) * | 2021-08-03 | 2021-11-02 | 成都理工大学 | 基于卷积对抗神经网络的裂缝识别技术 |
CN114118362A (zh) * | 2021-11-04 | 2022-03-01 | 同济大学 | 基于生成式对抗网络的小样本下结构表面裂缝检测方法 |
CN116307015A (zh) * | 2022-09-07 | 2023-06-23 | 同济大学 | 一种基于pix2pix的环境性能预测方法及装置 |
CN116754654A (zh) * | 2023-08-21 | 2023-09-15 | 成都中弘轨道交通环保产业股份有限公司 | 一种基于图像分析模型的声音屏障检测方法及装置 |
Non-Patent Citations (4)
Title |
---|
ZHIZHONG HUANG.ETC: "DU-GAN: Generative Adversarial Networks With Dual-Domain U-Net-Based Discriminators for Low-Dose CT Denoising", 《IEEE》, 31 December 2022 (2022-12-31) * |
刘恋秋;: "基于深度卷积生成对抗网络的图像识别算法", 液晶与显示, no. 04, 15 April 2020 (2020-04-15) * |
袁彬: "致密低渗气藏水平井体积压裂增产潜力研究", 《中国优秀硕士学位论文全文数据库(电子期刊)工程科技Ⅰ辑》, 15 July 2016 (2016-07-15), pages 2 * |
马乐;陈峰;李敏;: "基于改进生成对抗网络的红外图像超分辨率重建", 激光与红外, no. 02, 20 February 2020 (2020-02-20) * |
Also Published As
Publication number | Publication date |
---|---|
CN117436350B (zh) | 2024-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110210551B (zh) | 一种基于自适应主体敏感的视觉目标跟踪方法 | |
CN110008915A (zh) | 基于掩码-rcnn进行稠密人体姿态估计的系统及方法 | |
CN108520503A (zh) | 一种基于自编码器和生成对抗网络修复人脸缺损图像的方法 | |
US10909281B2 (en) | History matching of hydrocarbon production from heterogenous reservoirs | |
CN113140018B (zh) | 训练对抗网络模型的方法、建立字库的方法、装置和设备 | |
CN109218134B (zh) | 一种基于神经风格迁移的测试用例生成系统 | |
CN111612906B (zh) | 一种三维地质模型的生成方法、系统及计算机存储介质 | |
CN116129326A (zh) | 基于局部和全局注意力机制的视频动作识别方法 | |
CN117454495B (zh) | 一种基于建筑草图轮廓序列的cad矢量模型生成方法及装置 | |
CN113935240A (zh) | 基于生成式对抗网络算法的人工地震波模拟方法 | |
CN114818548B (zh) | 一种基于卷积生成对抗网络的含水层参数场反演方法 | |
CN114926734B (zh) | 基于特征聚合和注意融合的固体废弃物检测装置及方法 | |
CN116402719A (zh) | 一种基于潜在扩散模型的人盲脸图像恢复系统及其方法 | |
CN115184998A (zh) | 一种基于改进U-net神经网络的瑞利波频散曲线自动提取方法 | |
CN116819615A (zh) | 一种地震数据重建方法 | |
CN118072034A (zh) | 一种基于神经网络的孔喉特征提取方法及系统 | |
CN111815526A (zh) | 基于图像滤波和cnn的有雨图像雨条纹去除方法及系统 | |
CN117436350B (zh) | 基于深度卷积生成对抗网络的压裂水平井压力预测方法 | |
CN116306780B (zh) | 一种动态图链接生成方法 | |
CN104794750A (zh) | 一种基于空间殖民算法的树点云三维重建方法 | |
CN112862946A (zh) | 基于级联条件生成对抗网络的灰度岩心图像三维重建方法 | |
CN116416161A (zh) | 一种改进生成对抗网络的图像修复方法 | |
CN112991398B (zh) | 基于协同深度神经网络的运动边界指导的光流滤波方法 | |
CN111209674B (zh) | 一种河道砂建模方法、设备及可读存储介质 | |
CN114694065A (zh) | 视频处理方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |