CN113238076B - 一种基于深度学习的复杂流场测量方法 - Google Patents

一种基于深度学习的复杂流场测量方法 Download PDF

Info

Publication number
CN113238076B
CN113238076B CN202110506788.3A CN202110506788A CN113238076B CN 113238076 B CN113238076 B CN 113238076B CN 202110506788 A CN202110506788 A CN 202110506788A CN 113238076 B CN113238076 B CN 113238076B
Authority
CN
China
Prior art keywords
flow field
image
neural network
loss function
complex
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110506788.3A
Other languages
English (en)
Other versions
CN113238076A (zh
Inventor
邸江磊
唐雎
吴计
韩文宣
许星星
张佳伟
赵建林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202110506788.3A priority Critical patent/CN113238076B/zh
Publication of CN113238076A publication Critical patent/CN113238076A/zh
Application granted granted Critical
Publication of CN113238076B publication Critical patent/CN113238076B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P5/00Measuring speed of fluids, e.g. of air stream; Measuring speed of bodies relative to fluids, e.g. of ship, of aircraft
    • G01P5/26Measuring speed of fluids, e.g. of air stream; Measuring speed of bodies relative to fluids, e.g. of ship, of aircraft by measuring the direct influence of the streaming fluid on the properties of a detecting optical wave
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Holo Graphy (AREA)

Abstract

本发明公开了一种基于深度学习的复杂流场测量方法与系统,利用数字全息光路获取数据对神经网络进行训练,训练完的神经网络可以直接从经过动态流场后畸变的物体图像测量出复杂流场的实时相位图,通过测量复杂流场的实时相位图,分析相位的幅值和变化频率来测量流场,能够完成复杂流场的测量。该方法用于测量流场的光路简单(只在制作训练样本时用到的光路复杂),神经网络一经训练完成,就可以直接使用,计算快,可以完全脱离全息技术等干涉测量方法。

Description

一种基于深度学习的复杂流场测量方法
技术领域
本发明涉及光学领域和流场测量领域。
背景技术
PIV技术因为其非接触性已经广泛应用于流场流速的测量。但是PIV技术依赖多台相机的同步控制,要求精确标定,难度较大。且现有的PIV技术多用来直接测量流体流速,不能够完整反映复杂流场的变化。数字全息术非破坏性、非侵入性、全场测量等优点使其应用于流场测量。但是数字全息方法需要复杂和大量的计算,整个系统结构复杂,对于测量环境要求高,无法满足测量任意环境下复杂流场的需求。
发明内容
为克服现有技术的上述问题,本发明提出一种基于深度学习的复杂流场测量方法,利用深度学习技术,通过神经网络的训练,实现对复杂流场的实时测量。
为实现上述目的,本发明采用的技术方案如下:一种基于深度学习的复杂流场测量方法,其特征在于包含以下步骤:
S1.调整光路,使得携带动态流场信息的物光束与参考光束干涉,使用相机在物光束与参考光束的干涉平面采集全息图样,标记为Hi,i=1,2,3,4…N,N为所获取的全息图样的数量,同时使用相机在物光束像方空间采集畸变的物体图像Mi,i=1,2,3,4…N;
S2.使用数字全息重建算法从Hi中重建出训练样本的相位图Pi,i=1,2,3,4…N;
S3.建立神经网络模型,初始化网络模型参数,将物体图像Mi作为网络的输入,相位图Pi作为网络的黄金标准,计算网络的输出与黄金标准的损失函数值,并将损失函数值的梯度反向传播以更新网络模型的参数,直至损失函数值小于设定条件,则停止更新网络模型参数,得到训练完备的神经网络FlowNet;
S4.调整光路,采集受待测流场扰动的物体图像M;
S5.受待测流场扰动的物体图像M作为FlowNet的输入,即可计算待测流场的二维相位图P。
所述步骤S1的动态流场可以是任意流场,如大气湍流、血管、风洞等可以动态变化的流场。
所述步骤S1的物体可以是网格、白板、棋盘格等任意物体。
所述步骤S1中的N可取10000。
所述步骤S1的全息图像和畸变物体图像是同时采集的。
所述步骤S3的神经网络是可用于图像转换的任何神经网络模型,包含但不限于:基于卷积神经网络的U-net结构模型,C-GAN结构模型等。
所述步骤S3中的损失函数可选MSE损失函数,与之对应的网络模型参数停止更新的标准为MSE损失函数值小于0.002。
本发明解决其技术问题所采用的技术方案是:包括一个激光器,一扩束准直装置,一流场,一待测流场,一反射镜,三非偏振分光棱镜,两空间光调制器,三相机和一计算机。其中,所述激光器发出的光经过所述准直装置准直后被所述非偏振分光棱镜分成两束,其中一束光穿过流场后携带流场信息作为物光束,另一束光作为参考光束,两束光经所述反射镜反射后通过非偏振分光棱镜汇合,形成全息图样。利用所述相机将全息图记录在一张图片上。由所述计算机从所记录的全息图样中数值重建流场的相位图。所述空间光调制器加载物体图像后发出的光经非偏振分光棱镜反射后,穿过流场,在非偏振分光棱镜后形成畸变的图像。利用所述相机将畸变图像记录在一张图片上。畸变图像和全息图样是同时记录的。利用数值重建的流场相位图和采集的畸变图像对神经网络进行训练,即可得到训练好的神经网络。所述空间光调制器加载物体图像后发出的光经非偏振分光棱镜反射后,穿过待测流场,在非偏振分光棱镜后形成畸变的图像。利用所述相机将畸变图像记录在一张图片上。利用训练好的神经网络即可从畸变图像中采集待测流场的相位信息。
本发明的有益效果在于将深度学习技术与流场测量问题结合,提出了一种基于深度学习的复杂流场测量方法。该方法无标定要求,且只需解决最多两台相机的同步控制。该方法通过测量复杂流场的实时相位图,分析相位的幅值和变化频率来测量流场,能够完成复杂流场的测量。该方法用于测量流场的光路简单(只在制作训练样本时用到的光路复杂),神经网络一经训练完成,就可以直接使用,计算快。
附图说明
图1为基于深度学习的复杂流场测量方法的流程图;
图2为实施例1中使用的基于卷积神经网络的U-net结构示意图;
图3为利用全息干涉获取神经网络训练数据的原理光路;
图4为利用马赫曾德光路进行数据采集和流场测量的基于深度学习的复杂流场测量系统;
图3中:1-物光束,2-空间光调制器,3-非偏振分光棱镜,4-流场,5-相机,6-非偏振分光棱镜,7-参考光束,8-相机;
图4中:1-激光器,2-透镜组,3-空间光调制器,4-非偏振分光棱镜,5-非偏振分光棱镜,6-流场,7-相机,8-非偏振分光棱镜,9-反射镜,10-相机,11-空间光调制器,12-待测复杂流场,13-相机,14-计算机。
具体实施方式
现结合实施例、附图对本发明作进一步描述:
实施例1:本发明设计的一种基于深度学习的复杂流场测量系统如图4所示,工作流程如下:
激光器1发出532.8nm的激光,经透镜组2准直扩束后穿过非偏振分光棱镜5。非偏振分光棱镜5将扩束后的激光分为两束:透射光和反射光。透射光沿原方向传播,经非偏振分光棱镜4反射后穿过复杂流场6,然后,透射过非偏振分光棱镜8;反射光经反射后沿与原路径垂直方向传播,经反射镜9反射后与透射光相遇发生干涉。干涉图像由相机10拍摄保存。空间光调制器3加载网格图像发出强度被调制的平行光。平行光先后经非偏振分光棱镜5反射后穿过复杂流场6、经非偏振分光棱镜8反射后,进入相机7成像。可利用相机7拍摄的畸变目标图像作为网络输入,利用相机10拍摄的干涉图像,运用数字全息算法解算出复杂流场的相位图作为网络标签,以此获得所述神经网络的训练集。搭建如图2所示的神经网络。每层图像变换都包括卷积、批量归一化和激活函数激活操作。其中在下采样阶段,采用的卷积核为3x3,最大值池化核为2x2;在上采样阶段,采用的卷积核为3x3,反卷积核为2x2。在下采样阶段与上采样阶段之间,添加了残差结构。初始化网络模型参数,将物体图像Mi作为网络的输入,相位图Pi作为网络的黄金标准,计算网络的输出与黄金标准的MSE损失函数值,并将MSE损失函数值的梯度反向传播以更新网络模型的参数,直至损失函数值小于0.002,则停止更新网络模型参数,得到训练完备的神经网络FlowNet。
空间光调制器11加载网格图像发出强度被调制的平行光。平行光透过待测复杂流场12,进入相机13成像。可利用相机13拍摄的畸变目标图像作为网络输入,可得到待测流场的二维相位图。

Claims (7)

1.一种基于深度学习的复杂流场测量方法,包括一个激光器,一扩束准直装置,一流场,一待测流场,一反射镜,三非偏振分光棱镜,两空间光调制器,三相机和一计算机;其中,所述激光器发出的光经过所述准直装置准直后被所述非偏振分光棱镜分成两束,其中一束光穿过流场后携带流场信息作为物光束,另一束光作为参考光束,两束光经所述反射镜反射后通过非偏振分光棱镜汇合,形成全息图样;利用所述相机将全息图记录在一张图片上;由所述计算机从所记录的全息图样中数值重建流场的相位图;所述空间光调制器加载物体图像后发出的光经非偏振分光棱镜反射后,穿过流场,在非偏振分光棱镜后形成畸变的图像;利用所述相机将畸变图像记录在一张图片上;畸变图像和全息图样是同时记录的;利用数值重建的流场相位图和采集的畸变图像对神经网络进行训练,即可得到训练好的神经网络;所述空间光调制器加载物体图像后发出的光经非偏振分光棱镜反射后,穿过待测流场,在非偏振分光棱镜后形成畸变的图像;利用所述相机将畸变图像记录在一张图片上;利用训练好的神经网络即可从畸变图像中采集待测流场的相位信息,其特征在于包含以下步骤:
S1.调整光路,使得携带动态流场信息的物光束与参考光束干涉,使用相机在物光束与参考光束的干涉平面采集全息图样,标记为Hi,i=1,2,3,4…N,N为所获取的全息图样的数量,同时使用相机在物光束像方空间采集畸变的物体图像Mi,i=1,2,3,4…N;
S2.使用数字全息重建算法从Hi中重建出训练样本的相位图Pi,i=1,2,3,4…N;
S3.建立神经网络模型,初始化网络模型参数,将物体图像Mi作为网络的输入,相位图Pi作为网络的黄金标准,计算网络的输出与黄金标准的损失函数值,并将损失函数值的梯度反向传播以更新网络模型的参数,直至损失函数值小于设定条件,则停止更新网络模型参数,得到训练完备的神经网络FlowNet;
S4.调整光路,采集受待测流场扰动的物体图像M;
S5.受待测流场扰动的物体图像M作为FlowNet的输入,即可计算待测流场的二维相位图P。
2.根据权利要求1所述的基于深度学习的复杂流场测量方法,其特征在于,所述的动态流场可以是任意流场,如大气湍流、血管、风洞等可以动态变化的流场。
3.根据权利要求1所述的基于深度学习的复杂流场测量方法,其特征在于,所述的物体可以是网格、白板、棋盘格等任意物体。
4.根据权利要求1所述的基于深度学习的复杂流场测量方法,其特征在于,所述的N取值范围可以从1到1000000。
5.根据权利要求1所述的基于深度学习的复杂流场测量方法,其特征在于,所述的全息图像和畸变物体图像是同时采集的。
6.根据权利要求1所述的基于深度学习的复杂流场测量方法,其特征在于,所述的神经网络是可用于图像转换的任何神经网络模型,包含但不限于:基于卷积神经网络的U-net结构模型,C-GAN结构模型等。
7.根据权利要求1所述的基于深度学习的复杂流场测量方法,其特征在于,所述的损失函数可选用MSE损失函数等两幅图片差异性的损失函数,与之对应的网络模型参数停止更新的设定条件为MSE损失函数值小于0.002或者损失函数值不再下降。
CN202110506788.3A 2021-05-10 2021-05-10 一种基于深度学习的复杂流场测量方法 Active CN113238076B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110506788.3A CN113238076B (zh) 2021-05-10 2021-05-10 一种基于深度学习的复杂流场测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110506788.3A CN113238076B (zh) 2021-05-10 2021-05-10 一种基于深度学习的复杂流场测量方法

Publications (2)

Publication Number Publication Date
CN113238076A CN113238076A (zh) 2021-08-10
CN113238076B true CN113238076B (zh) 2022-12-06

Family

ID=77132971

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110506788.3A Active CN113238076B (zh) 2021-05-10 2021-05-10 一种基于深度学习的复杂流场测量方法

Country Status (1)

Country Link
CN (1) CN113238076B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114051273B (zh) * 2021-11-08 2023-10-13 南京大学 一种基于深度学习的大规模网络动态自适应路径规划方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014044095A (ja) * 2012-08-24 2014-03-13 Ushio Inc 三次元位置測定方法、速度測定方法、三次元位置測定装置及び速度測定装置
CN108763718A (zh) * 2018-05-23 2018-11-06 西安交通大学 绕流物体和工况改变时流场特征量的快速预测方法
CN111456840A (zh) * 2020-05-18 2020-07-28 江苏隆信德科技有限公司 一种基于rbf神经网络的内燃机冷却水流量智能控制方法
CN112229822A (zh) * 2020-08-25 2021-01-15 西安电子科技大学 对流动液体内多目标的反射式单帧散射成像装置及方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1172712A1 (en) * 2000-07-14 2002-01-16 Universite Libre De Bruxelles Method for measuring the velocity of particles in a fluid medium in motion
JP2007263864A (ja) * 2006-03-29 2007-10-11 Kyoto Institute Of Technology ディジタルホログラフィ計測装置及び方法
CN201382849Y (zh) * 2009-03-17 2010-01-13 西北工业大学 一种基于数字全息术的流场显示装置
KR102083875B1 (ko) * 2014-08-11 2020-03-03 한국전자통신연구원 홀로그래픽 영상에 대한 품질 측정 장치 및 방법
CN107991242B (zh) * 2017-11-20 2021-01-15 西北工业大学 一种基于偏振分光棱镜的测量样品偏振态的方法与系统
CN109459923B (zh) * 2019-01-02 2020-10-27 西北工业大学 一种基于深度学习的全息重建算法
EP3751580B1 (en) * 2019-06-11 2024-04-03 Siemens Healthineers AG Hemodynamic analysis of vessels using recurrent neural network
CN110632342B (zh) * 2019-08-29 2021-05-28 昆明理工大学 一种红外全息用于风速风向测量的装置
CN111723848A (zh) * 2020-05-26 2020-09-29 浙江工业大学 一种基于卷积神经网络和数字全息的海洋浮游生物自动分类方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014044095A (ja) * 2012-08-24 2014-03-13 Ushio Inc 三次元位置測定方法、速度測定方法、三次元位置測定装置及び速度測定装置
CN108763718A (zh) * 2018-05-23 2018-11-06 西安交通大学 绕流物体和工况改变时流场特征量的快速预测方法
CN111456840A (zh) * 2020-05-18 2020-07-28 江苏隆信德科技有限公司 一种基于rbf神经网络的内燃机冷却水流量智能控制方法
CN112229822A (zh) * 2020-08-25 2021-01-15 西安电子科技大学 对流动液体内多目标的反射式单帧散射成像装置及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Particle-Aggregation Based Virus Sensor Using Deep Learning and Lensless Digital Holography;Yichen Wu;《2019 Conference on Lasers and Electro-Optics (CLEO)》;20190510;1-6 *
基于U_net网络的单幅全息图重建方法研究;李菊等;《激光杂志》;20200131(第01期);1-5 *

Also Published As

Publication number Publication date
CN113238076A (zh) 2021-08-10

Similar Documents

Publication Publication Date Title
Su et al. Reliability-guided phase unwrapping algorithm: a review
CN102183214B (zh) 一种大口径非球面镜结构光检测方法
CN111047681B (zh) 基于深度学习的单像素三维端到端重建方法及装置
CN111366557A (zh) 一种基于薄散射介质的相位成像方法
CN103592108A (zh) Ccd芯片调制传递函数测试装置及方法
KR20190137733A (ko) 결함 검출 방법 및 장치
CN115775303B (zh) 一种基于深度学习与光照模型的高反光物体三维重建方法
CN113238076B (zh) 一种基于深度学习的复杂流场测量方法
CN111856478B (zh) 一种免成像的运动物体探测与三维追踪装置及方法
CN107515253A (zh) 基于卷积神经网络的梁结构缺陷非接触定量诊断方法
Lyu et al. Structured light-based underwater 3-D reconstruction techniques: A comparative study
CN112525097B (zh) 一种基于多传感器测量物体三维形变的方法
JPH0599610A (ja) ビームの波面を検出する方法およびこの方法を実施するための装置
CN109799672A (zh) 非完善成像镜头的检测装置和方法
CN115541602B (zh) 产品缺陷检测方法
CN116147531B (zh) 基于深度学习的光学自干涉数字全息重构方法及系统
KR20190072020A (ko) 결함 검출 방법 및 장치
CN110632342B (zh) 一种红外全息用于风速风向测量的装置
CN113252292A (zh) 一种基于卷积神经网络的复杂流场测量方法与系统
Yu Image processing methods based on physical models
CN113805454A (zh) 散射光场全息三维位移测量装置、方法及介质
JP3233723B2 (ja) 位相パターン差判別装置
CN113252605A (zh) 一种基于多步相移的相衬显微方法与系统
CN113432731A (zh) 一种光栅横向剪切干涉波前重建过程中的补偿方法
CN112393694A (zh) 一种基于像素频域标定提高光电自准直仪精度的测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant