CN114859072A - 一种体视粒子追踪测速方法 - Google Patents
一种体视粒子追踪测速方法 Download PDFInfo
- Publication number
- CN114859072A CN114859072A CN202210510203.XA CN202210510203A CN114859072A CN 114859072 A CN114859072 A CN 114859072A CN 202210510203 A CN202210510203 A CN 202210510203A CN 114859072 A CN114859072 A CN 114859072A
- Authority
- CN
- China
- Prior art keywords
- particle
- matching
- neural network
- particles
- tracer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P5/00—Measuring speed of fluids, e.g. of air stream; Measuring speed of bodies relative to fluids, e.g. of ship, of aircraft
- G01P5/18—Measuring speed of fluids, e.g. of air stream; Measuring speed of bodies relative to fluids, e.g. of ship, of aircraft by measuring the time taken to traverse a fixed distance
- G01P5/20—Measuring speed of fluids, e.g. of air stream; Measuring speed of bodies relative to fluids, e.g. of ship, of aircraft by measuring the time taken to traverse a fixed distance using particles entrained by a fluid stream
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种体视粒子追踪测速方法,属于非接触式流场测量领域,对不同视角中拍摄到的粒子采用弹着点粗匹配方法获得任意视角的图像中每个示踪粒子在同帧图像的弹着点区域,利用判断神经网络进行同帧匹配,以便直接还原粒子在物理空间中的坐标,后续对粒子进行跨帧匹配最终得到三维速度场。本发明通过神经网络作为载体,直接判断示踪粒子与弹着点区域中的像素点所代表的是否是同一个空间中的示踪粒子,实现多相机高粒子浓度的粒子同帧匹配,且相比于传统SPTV,本发明由于不需要进行平面内速度场插值,减少误差的引入,实现对复杂的三维速度场进行精确测量。
Description
技术领域
本发明涉及非接触式流场测量领域,特别是涉及一种体视粒子追踪测速方法。
背景技术
SPTV(Stereo Particle Tracking Velocimetry,体视粒子追踪测速)技术是一种非接触的光学流场测量技术,该技术通过捕捉和重构由激光照明、由数字相机拍摄得到的测量平面内的示踪粒子,通过同帧匹配方法将各个相机的图像中示踪粒子像素坐标进行配对,将配对后的像素坐标组输入空间重构算法,将像素坐标组转化为示踪粒子在物理空间中的坐标点。并通过跨帧匹配算法获得测量区域中示踪粒子的帧间匹配关系,并计算出帧间位移,实现对示踪粒子所表征的三维流场运动速度的测量。由于该技术对单一示踪粒子的运动进行追踪,因此速度场测量的空间分辨率可达像素级。该技术的核心是确定各相机同帧图像中的粒子匹配关系。传统的做法包括:三角定位法(Triangulation)和迭代重构法(IPR,Iterative Particle Reconstruction),前者是通过小孔模型找到相机上粒子的视线,并通过视线是否相交判断粒子是否匹配的方法;后者是对前者的一个改进,通过增加其他限制因素和进行迭代计算提高匹配准确率。两种方法在高粒子浓度(PPP,Particle PerPixel)下匹配准确率都较低。这里,PPP定义为平均每个像素上的粒子数量,用以表征示踪粒子的浓度。通常认为为了保证匹配的准确率,SPTV的PPP应该小于0.05。而对于复杂流动来说,PPP为0.05不足以很好的解析流场。并且目前的SPTV的速度场计算需先在像平面计算二维速度场,再由两个二维速度场插值计算得出三维速度场,而由二维速度场计算三维速度场的过程可能引入新的误差。
发明内容
本发明的目的是提供一种体视粒子追踪测速方法,以在高粒子浓度下实现同帧粒子的准确匹配,并实现对复杂的三维速度场进行精确测量。
为实现上述目的,本发明提供了如下方案:
一种体视粒子追踪测速方法,所述方法包括:
训练判断神经网络;
获取多个相机从不同拍摄角度同步拍摄的同一流场的图像,通过PTV粒子识别算法得到示踪粒子在各个视角的图像中的像素坐标;
采用弹着点粗匹配方法获得任意视角的图像中每个示踪粒子在其他同帧图像中的弹着点区域;
利用判断神经网络匹配示踪粒子与各自弹着点区域中的示踪粒子;
将匹配成功的示踪粒子像素坐标组进行三维重构,获得三维粒子云;
利用PTV帧间匹配算法匹配跨帧三维粒子云,并确定流场的三维速度场。
可选的,判断神经网络的训练过程为:
通过空间标定的标定点像素坐标和标定点空间坐标训练相机映射神经网络和相机间映射网络;
在测量空间中生成虚拟粒子,并利用相机映射神经网络获得空间中虚拟粒子在每个相机下的像素坐标;
基于弹着点粗匹配方法,利用相机间映射网络获得任一虚拟粒子在其他相机下的弹着点区域;
对每个虚拟粒子与各自对应的弹着点区域中虚拟粒子的匹配关系赋予标签,构成训练数据集;
利用训练数据集训练判断神经网络。
可选的,弹着点区域的确定方法为:
利用相机间映射网络获得一相机中一示踪粒子分别在最大和最小Z坐标下在其余相机中的极限像素坐标,将两个极限像素坐标之间的区域作为弹着点区域。
可选的,判断神经网络的匹配过程为:
将任一示踪粒子与各自弹着点区域中每个示踪粒子的像素坐标组合为像素坐标组后输入判断神经网络,输出各个像素坐标组的匹配值,并令最大匹配值对应的像素坐标组作为该示踪粒子的像素坐标组。
可选的,三维重构的方法为:
合并示踪粒子与匹配点的像素坐标后输入空间重构神经网络,输出示踪粒子的空间坐标。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明公开一种体视粒子追踪测速方法,对不同视角中拍摄到的粒子采用弹着点粗匹配方法获得任意视角的图像中每个示踪粒子在同帧图像的弹着点区域,利用判断神经网络进行同帧匹配,以便直接还原粒子在物理空间中的坐标,后续通过跨帧匹配算法对粒子进行跨帧匹配最终得到三维速度场。本发明通过神经网络作为载体,直接判断从不同相机中提取的示踪粒子像素坐标代表的是否是同一个空间中的示踪粒子,实现多相机高粒子浓度的粒子同帧匹配。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的体视粒子追踪测速方法的流程图;
图2为本发明提供的体视粒子追踪测速装置的结构示意图。
图3为本发明提供的体视粒子追踪测速方法中使用的神经网络结构示意图。
符号说明:1-水洞,2-示踪粒子,3-双脉冲激光器,4-扩束装置,5-CCD相机,6-控制系统。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种体视粒子追踪测速方法,以在高粒子浓度下实现同帧粒子的准确匹配,并实现对复杂的三维速度场进行精确测量。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
本发明提供了一种体视粒子追踪测速方法,如图1所示,包括:
步骤一,训练判断神经网络。
示例性的,判断神经网络的训练过程为:
步骤1:通过标定信息获取判断神经网络NN-PD的训练数据。
步骤1.1:通过标定数据使用贝叶斯正则化算法训练一个相机映射神经网络NN1,其输入为某点的空间坐标(X,Y,Z),输出为该点在各个相机上的投影坐标(u1,v1,u2,v2,u3,v3)。
步骤1.2:通过标定数据训练三个相机间映射神经网络NN2和NN3,对于NN2,其输入为1相机中某点的像素坐标及其空间空间坐标(u1,v1,Z),输出该点在2相机中的像素坐标(u2,v2),NN2的实质是建立一组关于空间位置变化的1和2相机间的相平面对应关系,该组对应关系用于估算1相机中某个粒子在2相机可能出现的位置。NN3是1相机到3相机的映射,其形式与NN2类似。NN2和NN3为相机间映射网络,用于进行弹着点粗匹配。
步骤1.3:通过NN1、NN2和NN3生成NN-PD的训练数据
步骤1.3.1:在物理空间中随机生成虚拟粒子,通过NN1将物理空间中的虚拟粒子映射至各个相机的像素空间,记录它们在物理空间和像素空间的坐标。这组虚拟粒子的物理空间坐标和像素空间的坐标满足真实的成像规律,而且由于是人工生成的,所以已知虚拟粒子在各个像素空间中坐标的对应关系,因此该组坐标可以为生成NN-PD训练数据的原始数据集,该数据集中的每一对像素空间坐标都是匹配的,后续需要生成符合真实实验中规律的包含错误匹配的数据集。
步骤1.3.2:在步骤1.3.1的原始数据集中1相机的像素空间中取一个点,并使用NN2和NN3找到该点可能出现的最大和最小Z坐标(实验中测量体在深度方向的两个极限位置,为实验时设定的参数)下在2和3相机中的对应点,这两个极限位置之间的区域为该点的“弹着点”区域。在实际实验和计算中,也会采用相同的弹着点粗匹配方法减小计算量,因此,在生成数据时只需要考虑在弹着点粗匹配范围内的可能性即可。
步骤1.3.3:与1相机中粒子匹配的点必然落在1.3.2中找到的弹着点范围内,先将其选出,并给这对坐标赋予一个标签,记为“1”。同时在2和3的弹着点区域内还应该有其他的不匹配的粒子在像平面的投影,根据实际实验中的粒子浓度可以估算出一个弹着点区域内大概有多少种可能的组合,随机从其中选取相应数量的组合,并赋予标签“0”。此时得到的带标签的数据列表即为该点邻域的训练数据。
步骤1.3.4:对1相机中的点重复此操作,直至遍历1相机中所有点,并将所得的训练数据合并,得到NN-PD的训练集。
步骤2:使用步骤1获得的训练集按照常规的神经网络训练方法训练NN-PD,其输入为三台相机的像素空间坐标,输出为0到1之间的数值,其中1代表该组坐标完全匹配,0代表完全不匹配,数值越接近1说明匹配的可能性越大。该神经网络的内在逻辑是根据输入的三个相机中粒子的像素坐标判断其视线是否在空间中某点相交,若相交则说明三个相机中粒子的光来源于空间中的同一个点。此时即可认为它们是相匹配的。
步骤二,获取多个相机从不同拍摄角度同步拍摄的同一流场的图像,通过PTV粒子识别算法得到示踪粒子在各个视角的图像中的像素坐标。
示例性的,为测量水洞1中复杂流动的三维速度场,本发明提出的硬件测量系统的具体实现如图2所示。在多功能水洞1中均匀混入示踪粒子2,双脉冲激光器3使用Nd-YAG双腔激光器和透镜组发出双脉冲激光照明待测试平面;将三台跨帧CCD一字布置或者品字形布置,从不同角度对同一区域内被双曝光激光照亮的示踪粒子2进行跨帧拍照,相机和激光器的同步工作由专用的同步器控制,对于每个时刻,可得三张来自不同相机的图像,并传入计算机存储。其中,水洞1用以产生均匀且稳定的水流,示踪粒子2在测量区域上游均匀散布于水中;Nd-YAG双腔激光器用以产生跨帧时间满足需求的、波长为532nm的两次激光脉冲,并经过配套的扩束装置4产生具有一定厚度的片光;三台CCD相机5以不同角度同时对观测区域进行拍照,在每一曝光时刻产生三张图片;用一个专用的同步控制器连接中控计算机、激光器和三台相机,以确保激光器和相机可以在同一时刻协同工作;相机采集的照片由数据线传输到中控计算机中。中控计算机和同步器共同构成控制系统6。
步骤三,采用弹着点粗匹配方法获得任意视角的图像中每个示踪粒子在其他同帧图像中的弹着点区域。
示例性的,弹着点区域的确定方法为:利用相机间映射网络获得一相机中一示踪粒子分别在最大和最小Z坐标下在其余每个相机中的极限像素坐标,将两个极限像素坐标之间的区域作为弹着点区域。
步骤四,利用判断神经网络匹配示踪粒子与各自弹着点区域中的示踪粒子。
示例性的,使用NN-PD进行同帧粒子匹配的过程为:
步骤4.1:利用PTV粒子识别得到各个相机中的粒子坐标信息;
步骤4.2:从步骤4.1得到的粒子坐标中的1相机粒子中选取一个粒子,使用NN2和NN3找到其“弹着点”范围(具体方法与步骤三相同),找到“弹着点”范围内可能匹配的点,列出其所有可能的组合,将所有可能组合的像素空间坐标输入NN-PD,得到每个组合的输出,找出其中最有可能匹配的组合,将其标记为正确匹配,如果输出的数值都小于提前设定的阈值,则认为1相机中该点在2和3相机中没有匹配的点,并将其作为坏点进行剔除。
步骤4.3:重复步骤4.2直至遍历相机1中所有的粒子,完成匹配过程。
步骤五,将匹配成功的示踪粒子像素坐标组进行三维重构,获得三维粒子云。
示例性的,重构过程为:
步骤5.1:使用空间标定的信息和误差反向传播方法训练一个空间重构神经网络NN4,NN4的输入为相机1、2和3的像素坐标(u1,v1,u2,v2,u3,v3),输出为对应点的空间坐标(X,Y,Z)。相比于传统的多项式标定方法,神经网络标定方法在多相机场景下的标定和重构精度更高。
步骤5.2:将步骤四中匹配的粒子像素坐标输入NN4,得到粒子在空间中的三维坐标完成该时刻点云的三维重构。
步骤六,利用PTV帧间匹配算法匹配跨帧三维粒子云,并确定流场的速度场。
图3示出NN1、NN2、NN3、NN4、NN-PD神经网络的结构示意图,具体神经网络结构和训练数据如表1所示。
表1神经网络结构和训练数据
本发明提出的三维粒子匹配算法的实质是使用神经网络对所有可能的粒子组合进行判断,找出正确的匹配方式。该算法可分为训练网络NN-PD和使用网络NN-PD两个部分。
将三台相机在同一时刻获得的平面粒子图片使用标准PTV粒子识别算法获取粒子在像素空间的坐标,使用弹着点-神经网络PTV同帧匹配算法进行粒子的同帧匹配,并重构出三维粒子云,进一步使用标准PTV帧间匹配算法完成跨帧三维粒子云的匹配和速度场的计算。PTV粒子识别算法将传输到计算机的数字化粒子图像使用基于高斯分布模版的标准粒子识别算法进行处理,获得每一个粒子的质心。三台相机中均可以识别出同一个粒子的二维质心位置。空间标定方式为SPTV标定方法,即各个相机拍摄同一标定靶在不同已知的深度的图像,通过提取算法获得标定点在物理空间和像素空间的信息。将空间标定信息和每个图像中粒子的二维质心位置作为输入,经过弹着点-神经网络PTV同帧匹配算法,即可获得该时刻的各个相机中的粒子坐标的匹配关系,通过匹配的坐标和空间标定信息可计算粒子的空间位置坐标。再通过PTV帧间匹配算法即可得到测量平面内的三分量速度场。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (5)
1.一种体视粒子追踪测速方法,其特征在于,所述方法包括:
训练判断神经网络;
获取多个相机从不同拍摄角度同步拍摄的同一流场的图像,通过PTV粒子识别算法得到示踪粒子在各个视角的图像中的像素坐标;
采用弹着点粗匹配方法获得任意视角的图像中每个示踪粒子在其他同帧图像中的弹着点区域;
利用判断神经网络匹配示踪粒子与各自弹着点区域中的示踪粒子;
将匹配成功的示踪粒子像素坐标组进行三维重构,获得三维粒子云;
利用PTV帧间匹配算法匹配跨帧三维粒子云,并确定流场的三维速度场。
2.根据权利要求1所述的方法,其特征在于,判断神经网络的训练过程为:
通过空间标定的标定点像素坐标和标定点空间坐标训练相机映射神经网络和相机间映射网络;
在测量空间中生成虚拟粒子,并利用相机映射神经网络获得空间中虚拟粒子在每个相机下的像素坐标;
基于弹着点粗匹配方法,利用相机间映射网络获得任一虚拟粒子在其他相机下的弹着点区域;
对每个虚拟粒子与各自对应的弹着点区域中虚拟粒子的匹配关系赋予标签,构成训练数据集;
利用训练数据集训练判断神经网络。
3.根据权利要求2所述的方法,其特征在于,弹着点区域的确定方法为:
利用相机间映射网络获得一相机中一示踪粒子分别在最大和最小Z坐标下其余每个相机中的极限像素坐标,将两个极限像素坐标之间的区域作为弹着点区域。
4.根据权利要求1所述的方法,其特征在于,判断神经网络的匹配过程为:
将任一示踪粒子与各自弹着点区域中每个示踪粒子的像素坐标组合为像素坐标组后输入判断神经网络,输出各像素坐标组的匹配值,并令最大匹配值对应的像素坐标组作为该示踪粒子的像素坐标组。
5.根据权利要求4所述的方法,其特征在于,三维重构的方法为:
合并示踪粒子与匹配点的像素坐标后输入空间重构神经网络,输出示踪粒子的空间坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210510203.XA CN114859072B (zh) | 2022-05-11 | 2022-05-11 | 一种体视粒子追踪测速方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210510203.XA CN114859072B (zh) | 2022-05-11 | 2022-05-11 | 一种体视粒子追踪测速方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114859072A true CN114859072A (zh) | 2022-08-05 |
CN114859072B CN114859072B (zh) | 2023-05-23 |
Family
ID=82636955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210510203.XA Active CN114859072B (zh) | 2022-05-11 | 2022-05-11 | 一种体视粒子追踪测速方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114859072B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5905568A (en) * | 1997-12-15 | 1999-05-18 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Stereo imaging velocimetry |
CN106771343A (zh) * | 2016-12-20 | 2017-05-31 | 北京尚水信息技术股份有限公司 | 粒子成像测速的立体三维流速计算方法 |
CN107525945A (zh) * | 2017-08-23 | 2017-12-29 | 南京理工大学 | 基于集成成像技术的3d‑3c粒子图像测速系统及方法 |
CN107561311A (zh) * | 2017-07-11 | 2018-01-09 | 上海交通大学 | 基于双光场相机的三维流场测试方法 |
CN109669049A (zh) * | 2019-02-01 | 2019-04-23 | 浙江大学 | 一种基于卷积神经网络的粒子图像测速方法 |
CN110187143A (zh) * | 2019-05-28 | 2019-08-30 | 浙江大学 | 一种基于深度神经网络的层析piv重构方法和装置 |
CN110223377A (zh) * | 2019-05-28 | 2019-09-10 | 上海工程技术大学 | 一种基于立体视觉系统高精度的三维重建方法 |
CN110599588A (zh) * | 2019-08-12 | 2019-12-20 | 北京立方天地科技发展有限责任公司 | 三维流场内粒子重构方法及装置、电子设备及存储介质 |
CN112036072A (zh) * | 2020-07-10 | 2020-12-04 | 北京航空航天大学 | 一种三维示踪粒子匹配方法及速度场测量装置 |
CN113446957A (zh) * | 2021-05-08 | 2021-09-28 | 北京航空航天大学 | 基于神经网络标定和散斑追踪的三维轮廓测量方法及装置 |
CN113706582A (zh) * | 2021-08-26 | 2021-11-26 | 北京航空航天大学宁波创新研究院 | 速度、速度场测量方法、系统、设备、装置及存储介质 |
-
2022
- 2022-05-11 CN CN202210510203.XA patent/CN114859072B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5905568A (en) * | 1997-12-15 | 1999-05-18 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Stereo imaging velocimetry |
CN106771343A (zh) * | 2016-12-20 | 2017-05-31 | 北京尚水信息技术股份有限公司 | 粒子成像测速的立体三维流速计算方法 |
CN107561311A (zh) * | 2017-07-11 | 2018-01-09 | 上海交通大学 | 基于双光场相机的三维流场测试方法 |
CN107525945A (zh) * | 2017-08-23 | 2017-12-29 | 南京理工大学 | 基于集成成像技术的3d‑3c粒子图像测速系统及方法 |
CN109669049A (zh) * | 2019-02-01 | 2019-04-23 | 浙江大学 | 一种基于卷积神经网络的粒子图像测速方法 |
CN110187143A (zh) * | 2019-05-28 | 2019-08-30 | 浙江大学 | 一种基于深度神经网络的层析piv重构方法和装置 |
CN110223377A (zh) * | 2019-05-28 | 2019-09-10 | 上海工程技术大学 | 一种基于立体视觉系统高精度的三维重建方法 |
CN110599588A (zh) * | 2019-08-12 | 2019-12-20 | 北京立方天地科技发展有限责任公司 | 三维流场内粒子重构方法及装置、电子设备及存储介质 |
CN112036072A (zh) * | 2020-07-10 | 2020-12-04 | 北京航空航天大学 | 一种三维示踪粒子匹配方法及速度场测量装置 |
CN113446957A (zh) * | 2021-05-08 | 2021-09-28 | 北京航空航天大学 | 基于神经网络标定和散斑追踪的三维轮廓测量方法及装置 |
CN113706582A (zh) * | 2021-08-26 | 2021-11-26 | 北京航空航天大学宁波创新研究院 | 速度、速度场测量方法、系统、设备、装置及存储介质 |
Non-Patent Citations (5)
Title |
---|
QI GAO ET AL.: "Particle reconstruction of volumetric particle image velocimetry with the strategy of machine learning", 《ADVANCES IN AERODYNAMICS》 * |
李洋洋等: "基于卷积神经网络的三维物体检测方法", 《上海交通大学学报》 * |
窦建宇等: "基于神经网络的体视PIV空间标定模型", 《航空学报》 * |
陈启刚等: "体视粒子图像测速技术研究进展", 《水力发电学报》 * |
韩雨坤等: "基于多目立体视觉和神经网络标定的表面形貌测量方法研究", 《实验流体力学》 * |
Also Published As
Publication number | Publication date |
---|---|
CN114859072B (zh) | 2023-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109816703B (zh) | 一种基于相机标定和icp算法的点云配准方法 | |
KR100776649B1 (ko) | 깊이 정보 기반 스테레오/다시점 영상 정합 장치 및 방법 | |
CN112785702A (zh) | 一种基于2d激光雷达和双目相机紧耦合的slam方法 | |
KR100513055B1 (ko) | 변이지도 및 깊이지도의 융합을 통한 3차원 장면 모델생성 장치 및 그 방법 | |
CN105654547B (zh) | 三维重建方法 | |
CN111563952B (zh) | 基于相位信息与空间纹理特征实现立体匹配方法及系统 | |
CN111080776B (zh) | 人体动作三维数据采集和复现的处理方法及系统 | |
CN105184857A (zh) | 基于点结构光测距的单目视觉重建中尺度因子确定方法 | |
CN106033614B (zh) | 一种强视差下的移动相机运动目标检测方法 | |
CN111028273B (zh) | 一种基于多流卷积神经网络的光场深度估计方法及其实现系统 | |
KR20140074201A (ko) | 추적 장치 | |
KR20160081775A (ko) | 3차원 이미지 생성 방법 및 장치 | |
Ann et al. | Study on 3D scene reconstruction in robot navigation using stereo vision | |
CN109724537A (zh) | 一种双目三维成像方法及系统 | |
Schraml et al. | An event-driven stereo system for real-time 3-D 360 panoramic vision | |
CN113160416B (zh) | 一种用于煤流检测的散斑成像装置及方法 | |
JP2007025863A (ja) | 撮影システム、撮影方法及び画像処理プログラム | |
CN112036072B (zh) | 一种三维示踪粒子匹配方法及速度场测量装置 | |
JP2015019346A (ja) | 視差画像生成装置 | |
CN114859072B (zh) | 一种体视粒子追踪测速方法 | |
CN114935316B (zh) | 基于光学跟踪与单目视觉的标准深度图像生成方法 | |
KR20210141922A (ko) | 객체의 3d 재구성 방법 | |
LU502375B1 (en) | Stereo particle tracking method for velocity measurement | |
CN107845108A (zh) | 一种光流值计算方法、装置及电子设备 | |
KR20220078447A (ko) | 저밀도 영역을 복원하는 이미지 복원 장치의 동작 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |