CN112685979A - 一种基于深度学习的流体密度场生成方法和装置 - Google Patents

一种基于深度学习的流体密度场生成方法和装置 Download PDF

Info

Publication number
CN112685979A
CN112685979A CN202110266245.9A CN202110266245A CN112685979A CN 112685979 A CN112685979 A CN 112685979A CN 202110266245 A CN202110266245 A CN 202110266245A CN 112685979 A CN112685979 A CN 112685979A
Authority
CN
China
Prior art keywords
density field
background
density
uniform density
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110266245.9A
Other languages
English (en)
Other versions
CN112685979B (zh
Inventor
高琪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202110266245.9A priority Critical patent/CN112685979B/zh
Publication of CN112685979A publication Critical patent/CN112685979A/zh
Application granted granted Critical
Publication of CN112685979B publication Critical patent/CN112685979B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的流体密度场生成方法和装置。构建均匀密度场和非均匀密度场;分别模拟穿过背景图案的光线在均匀密度场和非均匀密度场的折射光路,在不同相机位置采集图像组成图像集,以图像集作为输入,以非均匀密度场作为标签,组成训练样本;不同情况下不断重复上述步骤构建训练数据集;建立和训练计算密度场的神经网络;对待测背景图像输入神经网络模型获得最终结果。本发明利用了背景图案和三维密度场的双重信息得到结果,精度高,分辨率高,能有效的消除噪音的影响,算法鲁棒性强,并解决了神经网络训练过程中训练数据量不足的问题。

Description

一种基于深度学习的流体密度场生成方法和装置
技术领域
本发明涉及流体实验的流动测量与显示领域的一种流体数据处理方法和装置,特别涉及一种基于深度学习的流体密度场生成方法与装置。
背景技术
目前,用于密度场测量的技术主要包括:纹影法、阴影法、干涉法三种技术手段。
阴影法记录的是偏折位置差,反应的是折射率梯度的变化,即折射率的二阶导数,阴影法常用于密度梯度变化很大的地方,适合大尺度,相对的材料要求较低,成本最低。
纹影法记录的是偏折角度差,反应的是折射率的梯度,即折射率的一阶导数。纹影系统相对来说布置比较简单,对环境震动不太敏感,成本较低,并且有比较精确的结果。
干涉法记录的是光波相位差,反应的是折射率本身,干涉系统通常对环境震动比较敏感,安装复杂,可以提供定量信息,但是成本较高,只能测量较小的物体。
近年来,Meier GEA等人将流场测量的粒子图像测速技术(PIV)纹影技术结合起来创造了一种流场测量的全新技术——背景纹影(Background Oriented Schlieren,BOS),它结合PIV的粒子示踪、粒子图像处理和传统纹影技术的基本原理,可以像PIV一样进行较大视场的流场测量,但是又不需要使用传统纹影技术中的大量精密的光学仪器,能更好的满足实际需要。
背景纹影技术测量系统如图1和图2所示,测量系统主要包括LED阵列光源,背景图案,CCD相机、被测流场4个部分,图1中的被测流场由相同大小的黑点组成,表示密度均匀的流场,图2中的被测流场由大小不同的黑点组成,表示存在密度不均的流场。测量时打开背投式LED阵列光源对背景图案板进行均匀照明,首先如图1所示关闭火焰灯使得测量区域空气密度保持均匀,通过CCD相机拍摄光线穿过没有密度梯度的测量流场的背景图案,然后如图2所示打开火焰,由于火焰的加热,测量区域的空气密度发生畸变,产生密度梯度并通过CCD相机拍摄光线穿过有密度梯度的测量流场的背景图案。根据光的折射规律可知,当一束光线入射进一种存在折射率梯度的介质时,光线会向着折射率偏大的方向进行偏转,由格拉斯通-戴尔定律可知,气体折射率与密度的关系可用下式表示:
(n-1)/𝜌= 𝐾𝐺−𝐷
式中,𝑛为气体折射率,𝜌为气体密度,𝐾𝐺−𝐷 为格拉斯通-戴尔常数。
当光线在非均匀介质中传输时,根据费马原理,如果光线偏移量远远小于流场宽度,则有:
∂n/∂x=C·∆𝑥(x,y)
∂n/∂y=C·∆y(x,y)
其中,𝐶为常数,与实验配置相关;∆𝑥、∆𝑦为测量获得的不同方向的斑点位移量,该偏移量可利用PIV测速技术中的互相关算法从上述测量过程中拍摄的两种背景图案中获得,x和y表示二维图像的两个坐标,图像的横向是x坐标,竖直方向是y坐标。
对整个位移矢量场的x和y方向求偏导,则可获得如下的泊松方程:
2n = ∂2n/∂x2+∂2n/∂y2=C· (∂∆𝑥/∂x+∂∆y /∂y)
其中,∇表示梯度算子,二维时∇=∂/∂x+∂/∂y,三维时∇=∂/∂x+∂/∂y+∂/∂z,倒三角的平方表示拉普拉斯算子,二维时 ∇2=∂2/∂x2+∂2/∂y2,三维时∇2=∂2/∂x2+∂2/∂y2+∂2/∂z2 ,∇2n表示将拉普拉斯算子作用到变量n上;
对于给定的位移矢量场,以及给定的边界条件,上式可通过有限差分、有限体积或有限元方法求解,进而获得测量区域的投影积分效果的定量折射率场分布,并通过格拉斯通-戴尔公式,计算求出定量密度场。
通过上述分析可以看出,背景纹理法有以下不足:
(1)由于位移矢量场利用互相关算法通过求取迭代窗口的互相关系数来获得整个窗口的位移变化量,窗口选择过大,会降低偏移量的精度,窗口选择过小,又导致窗口的特征值过少,可能会产生多个相似的峰值,得不到正确的结果,另外,互相关算法还会大幅度的降低最终结果的空间分辨率,难以满足实际的需要。
(2)在求解折射率的偏微分方程时采用了数据离散近似处理,不可避免地引入误差,并且有可能造成峰值丢失造成最终的结果不够精确。
(3)整个计算过程包括复杂的多个步骤,每个步骤产生的误差均会传递到下一步,由于没有误差的抑制机制,误差不断地累计放大,造成算法的鲁棒性和稳定性变差。
发明内容
为了解决背景技术中存在的问题,本发明的目的是提供一种从背景纹影图像计算得到密度场的方法及装置,解决目前计算密度场中存在的计算精度不高和分辨率低及噪音敏感等问题。
本发明所采用的技术方案如下:
一、一种基于深度学习的流体密度场生成方法:
方法主要包括以下几个步骤:
本发明具体实施是可以利用zemax光学软件模拟生成训练数据集。
步骤S101:生成训练数据集:
(1)构建均匀密度场和非均匀密度场;
(2)采用光学软件对背景图案光线分别穿过均匀密度场和非均匀密度场的光路进行模拟,并在不同相机位置采集接收背景纹理图像,由不同相机位置的背景纹理图像组成图像集,分别获得了均匀密度背景纹理图像集和非均匀密度背景纹理图像集;
所述的非均匀密度场是对于流场进行不同形式的热源加热、压缩等改变密度的操作,然后采用计算流体力学(CFD)模拟计算方式算得到。
所述的背景图案是指一种带有图案的二维灰度图像,具体可以为背景斑点图案、背景纹理图案的图像。
(3)以均匀密度背景纹理图像集、非均匀密度背景纹理图像集作为输入数据,并且以非均匀密度场作为标签label,组成一个训练样本;
非均匀密度场是存在密度梯度的,是高分辨率的。
(4)采用不同的背景图案,并构建不同的非均匀密度场,不断重复上述步骤(1)~(3),构建获得不同的训练样本,进而构造获得样本丰富的训练数据集,由训练样本组成了训练数据集;
所述的初始的三维密度场和待测背景图像的初始三维密度场均是采用倍增代数重构法(Multiplicative Algebraic Reconstruction Technique, MART)算法进行处理获得。
由此实施获得了丰富的密度场重构所需的数据集。
步骤S102:构造并采用步骤S101获得的训练数据集训练计算密度场的神经网络;利用步骤S101生成的训练数据集对上述神经网路模型进行训练,得到可从背景图像预测密度场的神经网络模型;
步骤S103:实际应用
在实际实验中采集相机拍摄的待测背景图像,将待测背景图像输入至训练后的神经网络模型获得最终的更高精度和更高分辨率的密度场。
所述的步骤S102中:
神经网络包含有一个输入层和一个输出层,输入层后设置连接一组卷积层进行不同尺度的特征提取,之后再连接一组反卷积层进行特征放大和信息还原,最后经输出层得到密度场。
所述的步骤S102中:
神经网络包含有两个输入层和一个输出层,第一个输入层后设置一组CNN卷积层对拼接之后的图像进行特征提取;第二个输入层后设置一组CNN卷积层进行特征提取;然后设置一层合并层将两个输入层提取的两类特征进行拼接构成完整的特征,之后再设置连接一个反卷积层进行特征放大,经输出层还原出密度场。
所述(3)中加入背景图案作为输入数据。
所述(3)前进行以下处理获得三维密度场:对均匀密度背景纹理图像集和非均匀密度背景纹理图像集,均采用基于互相关算法的背景纹理处理方法计算得到图像集中不同相机位置的二维密度场,再利用不同相机位置的二维密度场计算得到初始的更低分辨率和更低精度的三维密度场;然后在(3)中加入三维密度场作为输入数据;并在步骤S103中针对待测背景图像进行相同处理获得其初始的更低精度和更低分辨率的密度场,将待测背景图像的初始三维密度场也输入至训练后的神经网络模型。
所述(3)前进行以下处理获得三维密度场:对于均匀密度背景纹理图像集和非均匀密度背景纹理图像集,均采用基于互相关算法的背景纹理处理方法计算得到图像集中不同相机位置的二维密度场,再利用不同相机位置的二维密度场计算得到初始的低分辨率和低精度的三维密度场;然后在(3)中加入背景图案、三维密度场、均匀密度场作为输入数据;并在步骤S103中,针对待测背景图像进行相同处理获得其初始的更低精度和更低分辨率的密度场,将待测背景图像的初始三维密度场、背景图案和均匀密度场也输入至训练后的神经网络模型。
二、一种基于深度学习的流体密度场生成装置:
具体实施的装置如图9所示,其包含以下模块:
图像采集模块,用是直接从实验系统获取生成的背景图案;
标准输入输出模块,从外接设备中输入所需的背景图案数据,还将该装置生成的数据对外输出至其他设备;
存储介质模块,存储图像采集模块和标准输入输出模块的数据,还存储装置运行过程产出的任何中间数据和结果数据,另外存储实现方法的计算机程序;
处理器模块,用于执行存储介质模块中存储的计算机程序和读取运行程序所需的数据,以实现密度场生成方法;
数据传出模块,将上述各个模块相电连接在一起,实现上述各个模块之间的通信和数据传输。
本发明基于步骤S101提供的丰富的密度场重构所需的数据集,从图4中的均匀密度背景纹理图像集和非均匀密度背景纹理图像集构成的多幅背景纹理图像计算出三维密度场,再结合AI的超分辨率计算得到高精度和高分辨率的密度场,构建一套从均匀密度背景纹理图像集和非均匀密度背景纹理图像集构成的多幅背景纹理图像映射到最终高分辨率密度场的神经网络。
本发明的流体通常为空气,密度场通常是测量空间中各个空间点处的流体密度的分布场。
本申请相对现有技术而言所具有的优点和效果:
(1)本发明提出的生成方法是利用了背景图案和三维密度场的双重信息计算得到最终的密度场,精度高,分辨率高。
(2)实际拍摄的图像不可避免引入各种噪音,但是由于有初始三维密度场提供的信息指导,神经网络可以有效的消除噪音的影响,算法鲁棒性强。
(3)本发明提出的数据集生成方法首先基于CFD模拟生成类型丰富的密度场,然后通过zemax等光学模拟生成训练所需的背景图案和三维密度场,在此基础上变换LED阵列后的背景图案可以生成种类丰富,数量庞大的数据集,解决神经网络训练过程中的数据量不足的问题。
附图说明
图1为无火焰拍摄背景图像示意图;
图2为有火焰拍摄背景图像示意图;
图3为密度场重构流程图;
图4为数据集生成原理图;
图5为实施例一的神经网络结构;
图6为实施例二的神经网络结构;
图7为实施例三的神经网络结构;
图8为实施例四的神经网络结构;
图9为实现本发明方法的装置。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
通过背景纹理技术从不同角度拍摄采集的多幅背景纹理中计算得到一个初始三维密度场,但由于该密度场精度和分辨率均较低不满足实际需要。
目前AI技术已经在图像识别和超分辨率计算领域均取得了重要的进展,并取得了非常良好的效果,本发明提出的密度场重构技术基于深度神经网络学习技术实现高精度改分辨率的密度场重构。
本发明创新方法主要包括如图3所示的以下几个步骤:
步骤S101:生成训练数据集:
(1)构建均匀密度场302和非均匀密度场306;
(2)采用zemax等光学软件对背景图案301光线分别穿过均匀密度场302和非均匀密度场306的光路进行模拟,如图2所示,具体是灯发出光线经背景图案301照射到均匀密度场302和非均匀密度场306进而被CCD相机接收获得图像。并在不同预设的相机位置采集接收背景纹理图像,不同相机位置代表了不同的拍摄视角,由不同相机位置的背景纹理图像组成图像集,分别获得了均匀密度背景纹理图像集303和非均匀密度背景纹理图像集305;相机位置数目N≥2。
具体实施在不同的视角进行拍摄获得的各个非均匀密度场306组成了非均匀密度场序列,非均匀密度场序列是由一系列非均匀密度场构成。
背景图案301是指一种带有图案的二维灰度图像,具体可以为背景斑点图案、背景纹理图案的图像。
进一步地,对于均匀密度背景纹理图像集303和非均匀密度背景纹理图像集305,均采用基于互相关算法的背景纹理处理方法计算得到图像集中不同相机位置的二维密度场,再利用不同相机位置的二维密度场计算得到初始的更低分辨率和更低精度的三维密度场304;
(3)以均匀密度背景纹理图像集303、非均匀密度背景纹理图像集305作为输入数据,并且以CFD模拟计算得到的非均匀密度场306作为标签label,组成一个训练样本,进而构建第一数据集;
以均匀密度背景纹理图像集303、非均匀密度背景纹理图像集305、背景图案301作为输入数据,并且以CFD模拟计算得到的非均匀密度场306作为标签label,组成一个训练样本,进而构建第二数据集;
以均匀密度背景纹理图像集303、非均匀密度背景纹理图像集305、三维密度场304作为输入数据,并且以CFD模拟计算得到的非均匀密度场306作为标签label,组成一个训练样本,进而构建第三数据集;
以均匀密度背景纹理图像集303、非均匀密度背景纹理图像集305、背景图案301、三维密度场304、均匀密度场302作为输入数据,并且以CFD模拟计算得到的非均匀密度场306作为标签label,组成一个训练样本,进而构建第四数据集。
(4)采用不同的背景图案,并构建不同的非均匀密度场,不断重复上述步骤(1)~(3),构建获得不同的训练样本,进而构造获得样本丰富的训练数据集,由训练样本组成了训练数据集;
初始的三维密度场304是 MART算法进行处理获得。
由此实施获得了丰富的密度场重构所需的数据集。
步骤S102:构造并采用步骤S101获得的训练数据集训练计算密度场的神经网络;利用步骤S101生成的训练数据集选用Adam优化器和MSE损失函数对上述神经网路模型进行训练,得到可从背景文案图像预测密度场的神经网络模型;
步骤S103:实际应用
在实际实验中采集相机拍摄的待测背景图像,将待测背景图像输入至训练后的神经网络模型获得最终的更高精度和更高分辨率的密度场。待测背景图像为背景图案未知的所需检测的图像。
除此之外,步骤S101中还有其余数据如背景图案301、均匀密度场302、三维密度场304可供神经网络计算使用,基于不同的输入数据的类型,构建出如下几种神经网络结构:
第一网络结构:
以均匀密度背景纹理图像集303和非均匀密度背景纹理图像集305为输入,以非均匀密度场306的高分辨率密度场为输出标签label,构建神经网络结构如图5所示,神经网络包含有一个输入层和一个输出层,输入层输入的是均匀密度场302和非均匀密度场306组成的图像,输入层后设置连接一组卷积层进行不同尺度的特征提取,之后再连接一组反卷积层进行特征放大和信息还原,最后经输出层得到高分辨率高精度的密度场;
第二网络结构:
以均匀密度背景纹理图像集303和非均匀密度背景纹理图像集305为输入,以非均匀密度场306的高分辨率密度场为输出标签label,构建神经网络结构如图6所示,神经网络包含有一个输入层和一个输出层,输入层输入的是均匀密度背景纹理图像集303和非均匀密度背景纹理图像集305组成的图像序列以及背景图案301组成的图像,输入层后设置连接一组卷积层进行不同尺度的特征提取,之后再连接一组反卷积层进行特征放大和信息还原,最后经输出层得到高分辨率高精度的密度场;
第三网络结构:
以均匀密度背景纹理图像集303和非均匀密度背景纹理图像集305以及三维密度场304为输入,以非均匀密度场306的高分辨率密度场为输出标签label,构建神经网络结构如图7所示,神经网络包含有两个输入层和一个输出层,第一个输入层输入的是均匀密度背景纹理图像集303和非均匀密度背景纹理图像集305,先将均匀密度背景纹理图像集303和非均匀密度背景纹理图像集305进行合并拼接,第一个输入层后设置一组CNN卷积层对拼接之后的图像进行特征提取;第二个输入层输入的是三维密度场304,第二个输入层后设置一组CNN卷积层进行特征提取;然后设置一层合并层将两个输入层提取的两类特征进行拼接构成完整的特征,之后再设置连接一个反卷积层进行特征放大,经输出层还原出高分辨率高精度的密度场;
第四网络结构:
以均匀密度背景纹理图像集303和非均匀密度背景纹理图像集305以及背景图案301、三维密度场304和均匀密度场302为输入,以非均匀密度场306的高分辨率密度场为输出标签label,构建神经网络结构如图8所示,神经网络包含有两个输入层和一个输出层:第一个输入层输入的是均匀密度背景纹理图像集303、非均匀密度背景纹理图像集305、背景图案301,先将均匀密度背景纹理图像集303和非均匀密度背景纹理图像集305进行合并拼接,第一个输入层后设置一组CNN卷积层对拼接之后的图像进行特征提取;第二个输入层输入的是三维密度场304和均匀密度场302,首先将均匀密度场302插值到和三维密度场304相同大小,然后将两个密度场再进行拼接,第二个输入层后设置一组CNN卷积层进行特征提取;然后设置一层合并层将两个输入层提取的两类特征进行拼接构成完整的特征,之后再设置连接一个反卷积层进行特征放大,经输出层还原出高分辨率高精度的密度场;
针对第一数据集和第二数据集,步骤S102中,分别采用第一网络结构和第二网络结构:
神经网络包含有一个输入层和一个输出层,输入层后设置连接一组卷积层进行不同尺度的特征提取,之后再连接一组反卷积层进行特征放大和信息还原,最后经输出层得到密度场。
针对第三数据集和第四数据集,步骤S102中,分别采用第三网络结构和第四网络结构:
神经网络包含有两个输入层和一个输出层,第一个输入层后设置一组CNN卷积层对拼接之后的图像进行特征提取;第二个输入层后设置一组CNN卷积层进行特征提取;然后设置一层合并层将两个输入层提取的两类特征进行拼接构成完整的特征,之后再设置连接一个反卷积层进行特征放大,经输出层还原出密度场。
本发明的实施例的实施情况如下:
实施例一
1、生成数据集
数据生成原理如图4所示
(1)预先构建均匀密度场302,并且对于一定工况的流场进行不同形式的热源加热改变密度的操作,然后采用CFD模拟计算等方式算得到一系列的非均匀密度场306;
(2)采用zemax等光学软件对背景图案301光线分别穿过均匀密度场302和上述存在密度梯度的非均匀密度场306的光路进行模拟,如图2所示,并在预设的相机位置(采集位置数目N≥2)由不同相机位置的背景纹理图像组成图像集,分别获得了均匀密度背景纹理图像集303和非均匀密度背景纹理图像集305;
(3)以上述的均匀密度背景纹理图像集303和非均匀密度背景纹理图像集305作为输入,CFD模拟计算得到的加热后的存在密度梯度的密度场306作为标签label,构成一个训练样本;
(4)采用不同的背景图案301和不同的非均匀密度场306执行上述操作构造样本丰富的训练数据集。作为第一数据集。
2、构造并训练神经网络模型
神经网络结构如图5所示,网络具有一个输入层和一个输出层,输入层输入的均匀密度背景纹理图像集303和非均匀密度背景纹理图像集305拼接之后的图像,其维度为(256,256,6,1),之后设置一组3D卷积层对拼接之后的图像进行特征提取;之后再设置一组反卷积层进行特征放大,最终经输出层还原出更高分辨和更高精度的三维密度场。
采用训练数据集,选用Adam优化器和MSE损失函数对上述神经网路模型进行训练,得到实际可用的计算三维密度场的神经网络模型。以训练后的神经网络模型对待测场景和对象进行处理,获得高分辨和高精度的密度场。
3、实际应用
采集实际实验中相机拍摄的待测情况的两种背景纹理图像集303和305,然后将其输入至神经网络得到最终的高精度和高分辨率的密度场。
实施例二
实施例二与实施例一的不同之处主要神经网络的输入和数据集生成不同。
数据集采用第二数据集生成方式,在步骤(3)中额外添加加入背景图案301作为输入,构成第二数据集。
实施例二的网络结构如图6所示,具有一个输入层和一个输出层,输入层输入的图像集303和305和背景图案301拼接之后的图像,其维度为(256,256,7,1),之后设置一组3D卷积层对拼接之后的图像进行特征提取;之后再设置一组反卷积层进行特征放大,最终经输出层还原出高分辨和高精度的密度场。
实际应用中将实验室拍摄的待测情况的两种背景纹理图像集303、305和背景图案301输入至神经网络得到最终的高精度和高分辨率的密度场。
其余部分与实施例一相同,在此不再赘述。
实施例三
1、生成数据集
数据生成原理如图4所示。
(1)预先构建均匀密度场302,并且对于一定工况的流场进行不同形式的热源加热改变密度的操作,然后采用CFD模拟计算等方式算得到一系列的非均匀密度场306;
(2)采用zemax等光学软件对背景图案301光线分别穿过均匀密度场302和上述存在密度梯度的非均匀密度场306的光路进行模拟,如图2所示,并在预设的相机位置(采集位置数目N≥2)由不同相机位置的背景纹理图像组成图像集,分别获得了均匀密度背景纹理图像集303和非均匀密度背景纹理图像集305;
(3)对于均匀密度背景纹理图像集303和非均匀密度背景纹理图像集305,均采用基于互相关算法的背景纹理处理方法计算得到图像集中不同相机位置的二维密度场,然后采用 MART算法利用上述不同方向的二维密度场计算得到初始的较低分辨率和较低精度的三维密度场304;
(4)以上述的均匀密度背景纹理图像集303、非均匀密度背景纹理图像集305、三维密度场304作为输入,以CFD模拟计算得到的加热后存在密度梯度的非均匀密度场306作为标签label,构成一个训练样本;
(5)采用不同的背景图案301和不同的非均匀密度场306执行上述操作构造样本丰富的训练数据集。作为第三数据集。
2、构造并训练神经网络模型
实施例三的网络结构如图7所示,具有两个输入层和一个输出层,第一个输入层输入的图像集303和305拼接之后的图像,其维度为(256,256,6,1),之后设置一组3D卷积层对拼接之后的图像进行特征提取,第二个输入层输入的是三维密度场304,其维度为(32,32,32,1),之后设置一组3D卷积层对三维密度进行特征提取,然后设置层合并层,将从图像提取的特征和从三维密度场提取的特征进行合并,之后再设置一组反卷积层进行特征放大,最终经输出层还原出高分辨和高精度的密度场。
其余部分与实施例一相同,在此不再赘述。
3、实际应用
采集实际实验中相机拍摄的待测情况的两种背景纹理图像集303和305,并按步骤(3)的方式计算其初始的更低精度和更低分辨率的三维密度场304,然后将背景纹理图案集303、305和三维密度场304输入至神经网络得到最终的高精度和高分辨率的密度场。
实施例四
实施例四与实施例三的不同之处主要是数据集生成方式和神经网络的结构不同。
数据集采用第四数据集生成方式,在步骤(3)中额外添加加入背景图案301、均匀密度场302作为输入,构成第四数据集。
实施例四的网络结构如图8所示,具有两个输入层和一个输出层,第一个输入层输入的图像集303、305和背景图案301拼接之后的图像,其维度为(256,256,7,1),之后设置一组3D卷积层对拼接之后的图像进行特征提取,第二个输入层输入的是三维密度场304和均匀密度场302,输入层维度为(32,32,32,2),训练时首先将均匀密度场302的维度插值到(32,32,32)然后与三维密度场304合并得到维度为(32,32,32,2)的数组再将其输入至第二个输入层,输入层之后设置一组3D卷积层对初始密度进行特征提取,然后设置层合并层,将从图像提取的特征和从三维密度场提取的特征进行合并,之后再设置一组反卷积层进行特征放大,最终经输出层还原出高分辨和高精度的密度场。
实际应用中将待测情况的两种背景纹理图像集303、305、背景图案301、三维密度长度304和均匀密度场输入至神经网络得到最终的高精度和高分辨率的密度场。
其余部分与实施例三相同,在此不再赘述。

Claims (9)

1.一种基于深度学习的流体密度场生成方法,其特征在于:方法主要包括以下几个步骤:
步骤S101:生成训练数据集:
(1)构建均匀密度场(302)和非均匀密度场(306);
(2)采用光学软件对背景图案(301)光线分别穿过均匀密度场(302)和非均匀密度场(306)的光路进行模拟,并在不同相机位置采集接收背景纹理图像,由不同相机位置的背景纹理图像组成图像集,分别获得了均匀密度背景纹理图像集(303)和非均匀密度背景纹理图像集(305);
(3)以均匀密度背景纹理图像集(303)、非均匀密度背景纹理图像集(305)作为输入数据,并且以非均匀密度场(306)作为标签label,组成一个训练样本;
(4)采用不同的背景图案,并构建不同的非均匀密度场,不断重复上述步骤(1)~(3),构建获得不同的训练样本,进而构造获得样本丰富的训练数据集;
步骤S102:构造并采用步骤S101获得的训练数据集训练计算密度场的神经网络;利用步骤S101生成的训练数据集对上述神经网络模型进行训练,得到可从背景图像预测密度场的神经网络模型;
步骤S103:实际应用:
在实际实验中采集相机拍摄的待测背景图像,将待测背景图像输入至训练后的神经网络模型获得最终的更高精度和更高分辨率的密度场。
2.根据权利要求1所述的一种基于深度学习的流体密度场生成方法,其特征在于:所述的步骤S102中:神经网络包含有一个输入层和一个输出层,输入层后设置连接一组卷积层进行不同尺度的特征提取,之后再连接一组反卷积层进行特征放大和信息还原,最后经输出层得到密度场。
3.根据权利要求1所述的一种基于深度学习的流体密度场生成方法,其特征在于:所述的步骤S102中:神经网络包含有两个输入层和一个输出层,第一个输入层后设置一组CNN卷积层对拼接之后的图像进行特征提取;第二个输入层后设置一组CNN卷积层进行特征提取;然后设置一层合并层将两个输入层提取的两类特征进行拼接构成完整的特征,之后再设置连接一个反卷积层进行特征放大,经输出层还原出密度场。
4.根据权利要求1所述的一种基于深度学习的流体密度场生成方法,其特征在于:所述(3)中加入背景图案(301)作为输入数据。
5.根据权利要求1所述的一种基于深度学习的流体密度场生成方法,其特征在于:所述(3)前进行以下处理获得三维密度场(304):对均匀密度背景纹理图像集(303)和非均匀密度背景纹理图像集(305),均采用基于互相关算法的背景纹理处理方法计算得到图像集中不同相机位置的二维密度场,再利用不同相机位置的二维密度场计算得到初始的三维密度场(304);
然后在(3)中加入三维密度场(304)作为输入数据;
在步骤S103中针对待测背景图像进行相同处理获得其初始的更低精度和更低分辨率的密度场,将待测背景图像的初始三维密度场也输入至训练后的神经网络模型。
6.根据权利要求1所述的一种基于深度学习的流体密度场生成方法,其特征在于:所述(3)前进行以下处理获得三维密度场(304):对均匀密度背景纹理图像集(303)和非均匀密度背景纹理图像集(305),均采用基于互相关算法的背景纹理处理方法计算得到图像集中不同相机位置的二维密度场,再利用不同相机位置的二维密度场计算得到初始的三维密度场(304);
然后在(3)中加入背景图案(301)、三维密度场(304)、均匀密度场(302)作为输入数据;
在步骤S103中,针对待测背景图像进行相同处理获得其初始的更低精度和更低分辨率的密度场,将待测背景图像的初始三维密度场、背景图案(301)和均匀密度场(302)也输入至训练后的神经网络模型。
7.根据权利要求1所述的一种基于深度学习的流体密度场生成方法,其特征在于:所述的非均匀密度场(306)是对于流场进行不同形式的热源加热、压缩等改变密度的操作,然后采用CFD模拟计算方式算得到。
8.根据权利要求1所述的一种基于深度学习的流体密度场生成方法,其特征在于:所述的初始的三维密度场(304)和待测背景图像的初始三维密度场均是采用倍增代数重构法(Multiplicative Algebraic Reconstruction Technique, MART)算法进行处理获得。
9.应用于权利要求1-8任一所述方法的一种基于深度学习的流体密度场生成装置,其特征在于:包含以下模块:
图像采集模块(401),用是直接从实验系统获取生成的背景图案;
标准输入输出模块(402),从外接设备中输入所需的背景图案数据,还将该装置生成的数据对外输出至其他设备;
存储介质模块(403),存储图像采集模块(401)和标准输入输出模块(402)的数据,还存储装置运行过程产出的任何中间数据和结果数据,另外存储实现方法的计算机程序;
处理器模块(404),用于执行存储介质模块(403)中存储的计算机程序和读取运行程序所需的数据,以实现密度场生成方法;
数据传出模块(405),将上述各个模块相电连接在一起,实现上述各个模块之间的通信和数据传输。
CN202110266245.9A 2021-03-11 2021-03-11 一种基于深度学习的流体密度场生成方法和装置 Active CN112685979B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110266245.9A CN112685979B (zh) 2021-03-11 2021-03-11 一种基于深度学习的流体密度场生成方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110266245.9A CN112685979B (zh) 2021-03-11 2021-03-11 一种基于深度学习的流体密度场生成方法和装置

Publications (2)

Publication Number Publication Date
CN112685979A true CN112685979A (zh) 2021-04-20
CN112685979B CN112685979B (zh) 2021-07-30

Family

ID=75455484

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110266245.9A Active CN112685979B (zh) 2021-03-11 2021-03-11 一种基于深度学习的流体密度场生成方法和装置

Country Status (1)

Country Link
CN (1) CN112685979B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114119747A (zh) * 2021-11-23 2022-03-01 四川大学 一种基于pmd波前检测的三维流场流动显示方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140002617A1 (en) * 2012-06-27 2014-01-02 The Board Of Trustees Of The University Of Illinois Particle tracking system and method
CN108983605A (zh) * 2018-07-09 2018-12-11 南开大学 一种基于深度强化学习进行流体导向的刚体控制的方法
CN109669049A (zh) * 2019-02-01 2019-04-23 浙江大学 一种基于卷积神经网络的粒子图像测速方法
CN110187143A (zh) * 2019-05-28 2019-08-30 浙江大学 一种基于深度神经网络的层析piv重构方法和装置
CN111832204A (zh) * 2020-07-02 2020-10-27 西安交通大学 一种热流耦合结构的非迭代式拓扑优化方法
CN112288875A (zh) * 2020-10-30 2021-01-29 中国有色金属长沙勘察设计研究院有限公司 一种面向无人机矿山巡检场景的快速三维重建方法
CN112380764A (zh) * 2020-11-06 2021-02-19 华东师范大学 一种在有限视图下的气体场景端到端快速重建方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140002617A1 (en) * 2012-06-27 2014-01-02 The Board Of Trustees Of The University Of Illinois Particle tracking system and method
CN108983605A (zh) * 2018-07-09 2018-12-11 南开大学 一种基于深度强化学习进行流体导向的刚体控制的方法
CN109669049A (zh) * 2019-02-01 2019-04-23 浙江大学 一种基于卷积神经网络的粒子图像测速方法
CN110187143A (zh) * 2019-05-28 2019-08-30 浙江大学 一种基于深度神经网络的层析piv重构方法和装置
CN111832204A (zh) * 2020-07-02 2020-10-27 西安交通大学 一种热流耦合结构的非迭代式拓扑优化方法
CN112288875A (zh) * 2020-10-30 2021-01-29 中国有色金属长沙勘察设计研究院有限公司 一种面向无人机矿山巡检场景的快速三维重建方法
CN112380764A (zh) * 2020-11-06 2021-02-19 华东师范大学 一种在有限视图下的气体场景端到端快速重建方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
SHENGZE CAI 等: "Dense motion estimation of particle images via a convolutional neural network", 《EXPERIMENTS IN FLUIDS》 *
SHENGZE CAI 等: "Particle Image Velocimetry Based on a Deep Learning Motion Estimator", 《IEEE TRANSACTIONS ON INSTRUMENTATION AND MEASUREMENT》 *
张正贺: "基于投影式背景纹影技术的火焰温度场测量仪设计", 《激光与光电子学进展》 *
蔡声泽 等: "基于深度神经网络的粒子图像测速算法", 《空气动力学学报》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114119747A (zh) * 2021-11-23 2022-03-01 四川大学 一种基于pmd波前检测的三维流场流动显示方法

Also Published As

Publication number Publication date
CN112685979B (zh) 2021-07-30

Similar Documents

Publication Publication Date Title
Guo et al. Tackling 3d tof artifacts through learning and the flat dataset
Zhang et al. A novel calibration approach to structured light 3D vision inspection
CN102239426B (zh) 图像数据的提供
CN102033314B (zh) 影像采集装置和影像显示方法
Psarakis et al. An enhanced correlation-based method for stereo correspondence with subpixel accuracy
CN111047681B (zh) 基于深度学习的单像素三维端到端重建方法及装置
Fahringer et al. Tomographic reconstruction of a 3-D flow field using a plenoptic camera
Rajendran et al. Dot tracking methodology for background-oriented schlieren (BOS)
Lynch Development of a 3-D fluid velocimetry technique based on light field imaging
CN108225537A (zh) 一种非接触式的基于高速摄影的微小物体振动测量方法
Kawahara et al. A pixel-wise varifocal camera model for efficient forward projection and linear extrinsic calibration of underwater cameras with flat housings
Loaiza et al. Multi-camera calibration based on an invariant pattern
CN112685979B (zh) 一种基于深度学习的流体密度场生成方法和装置
CN106651941A (zh) 一种深度信息的采集方法以及深度测量系统
Shi et al. 3D surface pressure measurement with single light-field camera and pressure-sensitive paint
Paolillo et al. Perspective camera model with refraction correction for optical velocimetry measurements in complex geometries
CN112985258B (zh) 一种三维测量系统的标定方法及测量方法
CN112525085B (zh) 基于三角形网格化图像技术的节点位移与应变测量方法
Kent et al. Photogrammetric calibration for improved three-dimensional particle velocimetry (3D PTV)
Liu et al. A method of camera calibration based on Kriging interpolation
CN101762209A (zh) 微光产品零位检测仪
CN113687099B (zh) 一种基于激光线阵的piv图像标定装置及方法
CN113724371B (zh) 同轴照明光场的三维成像方法、系统、电子装置及存储介质
CN114065650A (zh) 基于深度学习的材料裂纹尖端多尺度应变场测量跟踪方法
CN104729404B (zh) 高速3d工业数字显微镜

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant