CN113496499A - 一种基于卷积神经网络的低质量粒子速度场图像修正方法 - Google Patents

一种基于卷积神经网络的低质量粒子速度场图像修正方法 Download PDF

Info

Publication number
CN113496499A
CN113496499A CN202110451904.6A CN202110451904A CN113496499A CN 113496499 A CN113496499 A CN 113496499A CN 202110451904 A CN202110451904 A CN 202110451904A CN 113496499 A CN113496499 A CN 113496499A
Authority
CN
China
Prior art keywords
velocity field
particle
neural network
label
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110451904.6A
Other languages
English (en)
Other versions
CN113496499B (zh
Inventor
李然
曾强
杨晖
陈泉
徐悦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN202110451904.6A priority Critical patent/CN113496499B/zh
Publication of CN113496499A publication Critical patent/CN113496499A/zh
Application granted granted Critical
Publication of CN113496499B publication Critical patent/CN113496499B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/36Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
    • G01P3/38Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light using photographic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积神经网络的低质量粒子速度场图像修正方法,包括以下步骤:S1、获取粒子图像;S2、对图像遮挡处理,并用PIV计算;S3、通过步骤S2计算得到微观的速度矢量;S4、将得到的数据集作为网络输入;进行步骤S1‑S4同时进行如下的步骤:S5、定义流场域;S6、进行无遮挡处理且用PIV计算;S7、计算得到准确的粒子速度场的Slabel;S8、通过步骤S7作为网络训练的标签;S9、通过步骤S1‑S4与S5‑S8搭建网络且建立训练模型;S10、进行网络模型应用。根据本发明,有效解决了PIV测量技术中的低质量粒子速度场图像修正问题和在遮挡限制情况下的粒子速度场测量问题。

Description

一种基于卷积神经网络的低质量粒子速度场图像修正方法
技术领域
本发明涉及粒子图像测速的技术领域,特别涉及一种基于卷积神经网络 的低质量粒子速度场图像修正方法。
背景技术
粒子图像测速(particle image velocimetry,PIV)技术是基于计算机图像处 理和流动显示的一项无干扰、非接触式流场测试技术,目前PIV技术已经被 广泛用于流体力学、空气动力学以及生命科学等领域,且新的应用领域仍在 不断扩展,成为现代流体测量的重要方法。然而,由于采集粒子图像过程不 可避免地受到不均匀光照、颗粒飞溅、视野盲区等不利因素影响,所获取的 粒子图像会模糊不清、目标难以辨识,造成测量盲区,从而影响颗粒速度场 分布的准确性,给科研实验人员带来难以避免的误差干扰。目前的PIV技术只能用于非剧烈运动的、高质量颗粒流场图像的速度分布测量。因此,在此 类低质量图像中修正粒子速度场尤为重要。
随着人工智能技术的发展,基于深度学习的粒子图像分析技术是新的研究 领域,设计用于粒子图像测速的深度学习技术具有广泛的应用前景和研究价 值。卷积神经网络是深度学习的关键技术,利用卷积神经网络可以从大量训 练数据中有效获取复杂非线性的映射模型,从而较为理想地实现对被干扰粒 子产生的低质量速度场图像的修正,为解决在较大面积遮挡或模糊的低质量 粒子速度场图像测量问题成为可能。目前,神经网络在低质量图像中多用于 图像增强、低质量文本、指纹、人脸识别和医疗图像分析处理等方面,而应 用于粒子被干扰情况下的低质量速度场图像的测量和修正较为少见。
由于采集粒子图像过程不可避免地受到不均匀光照、颗粒飞溅、视野盲区 等不利因素影响,所获取的粒子图像会模糊不清、目标难以辨识,造成测量 盲区,从而影响颗粒速度场分布的准确性,给科研实验人员带来难以避免的 误差干扰。目前的PIV技术只能用于非剧烈运动的、高质量颗粒流场图像的 速度分布测量。
发明内容
针对现有技术中存在的不足之处,本发明的目的是提供一种基于卷积神经 网络的低质量粒子速度场图像修正方法,有效解决了PIV测量技术中的低质 量粒子速度场图像修正问题和在遮挡限制情况下的粒子速度场测量问题。为 了实现根据本发明的上述目的和其他优点,提供了一种基于卷积神经网络的 低质量粒子速度场图像修正方法,包括以下步骤:
S1、获取粒子图像;
S2、对图像遮挡处理,并用PIV计算;
S3、通过步骤S2计算得到微观的速度矢量;
S4、将得到的数据集作为网络输入;
进行步骤S1-S4同时进行如下的步骤:
S5、定义流场域;
S6、进行无遮挡处理且用PIV计算;
S7、计算得到准确的粒子速度场的Slabel
S8、通过步骤S7作为网络训练的标签;
S9、通过步骤S1-S4与S5-S8搭建网络且建立训练模型;
S10、进行网络模型应用。
优选的,所述步骤S5中定义全域颗粒的速度场集合为S,未被遮挡的颗 粒的速度场集合为S1,被遮挡的颗粒的速度场集合为S2,S为S1和S2的叠 加。
优选的,所述步骤S3包括对连续帧的图像进行时间标记t1,t2,...,tn,每一 张图像的时间间隔为Δt,用PIV技术对图像处理,获得每两帧的一个速度场 S,速度场S包含两帧图像中的每一个颗粒m的速度矢量
Figure BDA0003039029570000031
其中分解为x 轴方向和y轴方向上的速度分量vx和vy,则有微观速度矢量
Figure BDA0003039029570000032
优选的,还包括对全域速度场S和与S对应的连续两帧图像做遮挡处理, 得到只剩下未被遮挡的颗粒的速度场S1和与S1对应的连续两帧图像I1,I2。
优选的,所述步骤S6包括选取步骤S1中获得的无遮挡的、清晰的粒子 图像,用PIV技术处理得到准确的粒子速度场集合Slabel,把Slabel作为神经 网络训练时的标签;并将由步骤3获得的连续两帧图像I1,I2作为卷积神经 网络训练时的输入。
优选的,所述步骤S9包括搭建卷积神经网络,设置网络训练的目标函数, 采用上述的数据集对所述的卷积神经网络进行训练,从而得到训练好的卷积 神经网络模型。
优选的,还包括以下步骤:
S91、获取网络模型Slabel=F(I1,I2),I1,I2表示连续两帧二维图像,Slabel表示为输入图像之间准确的全域速度矢量场集合,F表示深度神经网络的映 射函数关系;
S92、设置网络训练的目标函数:该目标函数为输出的速度场与标签速度 场的误差,按以下公式进行:
L=∑λiei
其中,i代表不同层级,e为每一层输出的速度场与标签速度场的误差,λ 是每一层误差的权重;
S93、采用自适应动量优化算法训练参数,从而得到可用于粒子图像测速 的卷积神经网络模型。
优选的,所述步骤10包括将获取的图像中包含但不限于颗粒飞溅等因素 遮挡其他粒子而产生的测量盲区进行标记处理为S1和与之对应的连续两帧 图像I1,I2,将I1,I2输入到训练好的卷积神经网络模型中,用训练好的模 型计算/预测被遮挡的粒子速度场S2,再把S1与S2叠加,输出被修正的全域 速度场S。
本发明与现有技术相比,其有益效果是:解决了实验过程中包含但不限 于颗粒飞溅等因素遮挡其他粒子而产生的测量盲区的低质量粒子速度场图像 分布问题,提高了低质量粒子图像在盲区测速的准确性,完善了PIV速度场 测量技术。通过卷积神经网络训练部分,二使网络模型应用部分。网络模型 是采用卷积神经网络,通过训练参数得到卷积神经网络模型,其输入是两幅 图像,输出是被修正的全域速度场。应用本发明,可以提高低质量粒子图像 测速的准确性,同时能完善PIV速度场测量技术。
附图说明
图1为根据本发明的基于卷积神经网络的低质量粒子速度场图像修正方 法的原理框图;
图2为根据本发明的基于卷积神经网络的低质量粒子速度场图像修正方 法的图像采集装置结构示意图;
图3为根据本发明的基于卷积神经网络的低质量粒子速度场图像修正方 法的全域速度场S产生过程示意图;
图4为根据本发明的基于卷积神经网络的低质量粒子速度场图像修正方 法的速度场修正过程示意图;
图5为根据本发明的基于卷积神经网络的低质量粒子速度场图像修正方 法的卷积神经网络的输入与输出结果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行 清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而 不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做 出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1-5,一种基于卷积神经网络的低质量粒子速度场图像修正方法, 包括以下步骤:S1、获取粒子图像;
S2、对图像遮挡处理,并用PIV计算;
S3、通过步骤S2计算得到微观的速度矢量;
S4、将得到的数据集作为网络输入;
进行步骤S1-S4同时进行如下的步骤:
S5、定义流场域;
S6、进行无遮挡处理且用PIV计算;
S7、计算得到准确的粒子速度场的Slabel
S8、通过步骤S7作为网络训练的标签;
S9、通过步骤S1-S4与S5-S8搭建网络且建立训练模型;
S10、进行网络模型应用。
进一步的,所述步骤S5中定义全域颗粒的速度场集合为S,未被遮挡的 颗粒的速度场集合为S1,被遮挡的颗粒的速度场集合为S2,S为S1和S2的 叠加。
进一步的,所述步骤S3包括对连续帧的图像进行时间标记t1,t2,...,tn,每 一张图像的时间间隔为Δt,用PIV技术对图像处理,获得每两帧的一个速度 场S,速度场S包含两帧图像中的每一个颗粒m的速度矢量
Figure BDA0003039029570000051
其中分解为 x轴方向和y轴方向上的速度分量vx和vy,则有微观速度矢量
Figure BDA0003039029570000061
进一步的,还包括对全域速度场S和与S对应的连续两帧图像做遮挡处 理,得到只剩下未被遮挡的颗粒的速度场S1和与S1对应的连续两帧图像I1, I2。
进一步的,所述步骤S6包括选取步骤S1中获得的无遮挡的、清晰的粒 子图像,用PIV技术处理得到准确的粒子速度场集合Slabel,把Slabel作为神 经网络训练时的标签;并将由步骤3获得的连续两帧图像I1,I2作为卷积神 经网络训练时的输入。
进一步的,所述步骤S9包括搭建卷积神经网络,设置网络训练的目标函 数,采用上述的数据集对所述的卷积神经网络进行训练,从而得到训练好的 卷积神经网络模型。
进一步的,还包括以下步骤:
S91、获取网络模型Slabel=F(I1,I2),I1,I2表示连续两帧二维图像,Slabel表示为输入图像之间准确的全域速度矢量场集合,F表示深度神经网络的映 射函数关系;
S92、设置网络训练的目标函数:该目标函数为输出的速度场与标签速度 场的误差,按以下公式进行:
L=∑λiei
其中,i代表不同层级,e为每一层输出的速度场与标签速度场的误差,λ 是每一层误差的权重;
S93、采用自适应动量优化算法训练参数,从而得到可用于粒子图像测速 的卷积神经网络模型。
进一步的,所述步骤10包括将获取的图像中包含但不限于颗粒飞溅等因 素遮挡其他粒子而产生的测量盲区进行标记处理为S1和与之对应的连续两 帧图像I1,I2,将I1,I2输入到训练好的卷积神经网络模型中,用训练好的 模型计算/预测被遮挡的粒子速度场S2,再把S1与S2叠加,输出被修正的全 域速度场S。
实验中采集粒子图像,选取无颗粒遮挡的图像进行无遮挡和遮挡处理, 分别用PIV技术进行计算其粒子速度场Slabel和S1,将上述速度场分别作为 标签和输入用于神经网络的训练,得到训练好的卷积神经网络模型,将颗粒 飞溅而造成遮挡的具有干扰因素的低质量粒子图像输入到训练好的卷积神经 网络模型中,从而输出被修正的粒子速度场S。
实施例1
1)获取粒子图像,对颗粒进行实验包括但不限于斜面颗粒崩塌实验、小 球冲击颗粒层实验时,如图2,由高速摄像机采集崩塌、冲击的过程图像(图 像中包含可能的飞溅颗粒等因素造成的测量盲区,降低了粒子速度场图像的 质量);
2)定义全域颗粒的速度场集合为S(全为已知/可准确计算的速度场), 未被遮挡的颗粒的速度场集合为S1,被遮挡的颗粒的速度场集合为S2,S为 S1和S2的叠加,具有如下关系:
S=S1+S2
其中,如图3所示,第一图为速度场S1,4处云状为被遮挡区域, 第二张图为被遮挡区域的速度场S2,第三张图为S1和S2叠加后的 全域速度场S;
3)对连续帧的图像进行时间标记t1,t2,...,tn,每一张图像的时间间隔为Δt,用PIV技术对图像处理,获得每两帧的一个速度场S,速度场S包含两帧图 像中的每一个颗粒m的速度矢量
Figure BDA0003039029570000071
其中分解为x轴方向和y轴方向上的速 度分量vx和vy,则有微观速度矢量
Figure BDA0003039029570000072
对全域速度场S和与S 对应的连续两帧图像做遮挡处理,得到只剩下未被遮挡的颗粒的速度场S1和 与S1对应的连续两帧图像I1,I2;
4)选取步骤1中获得的无遮挡的、清晰的粒子图像,用PIV技术处理得 到准确的粒子速度场集合Slabel,把Slabel作为神经网络训练时的标签;并将由 步骤3获得的连续两帧图像I1,I2作为卷积神经网络训练时的输入;
5)搭建卷积神经网络,设置网络训练的目标函数,采用上述的数据集对 所述的卷积神经网络进行训练,从而得到训练好的卷积神经网络模型,其中,
(5.1)获取网络模型Slabel=F(I1,I2),I1,I2表示连续两帧二维图像,Slabel表示为输入图像之间准确的全域速度矢量场集合,F表示深度神经网络的映 射函数关系;
本实例采用的卷积神经网络具有全卷积神经网络结构,即输出的粒子图 像速度场的尺寸与输入图像尺寸相同;
(5.2)设置网络训练的目标函数:该目标函数为输出的速度场与标签速度 场的误差,按以下公式进行:
L=∑λiei
其中,i代表不同层级,e为每一层输出的速度场与标签速度场的误差,λ 是每一层误差的权重;
(5.3)本实施例用步骤4产生的PIV数据集,采用自适应动量优化算法训 练参数,从而得到可用于粒子图像测速的卷积神经网络模型。
6)将获取的图像中包含但不限于颗粒飞溅等因素遮挡其他粒子而产生的 测量盲区进行标记处理为S1和与之对应的连续两帧图像I1,I2;
7)将I1,I2输入到训练好的卷积神经网络模型中,用训练好的模型计算/ 预测被遮挡的粒子速度场S2,再把S1与S2叠加,输出被修正的全域速度场 S;
本实施例如图4所示,(a),(b),(c)分别是t1,t2,t3时刻的粒子图像, 其中,t2时刻粒子图中云状为遮挡的测速盲区,直接用PIV计算得到的粒子 速度矢量方向为m1粒子从t1到t3的直线方向,(d)是修正后的粒子速度场。
实例:试验采用图2所示装置采集粒子图像,电磁铁吸合钢珠静止在拍 摄平面的正上方高度H=50cm处,钢珠直径3.0cm,断电后钢珠由静止开始 自由落体运动,对流体区域的粒子层撞击,粒子层厚度为1.2cm,粒子直径 在0.8mm-1.0mm之间,粒子被撞击后发生运动,高速相机以586帧/秒的帧 频拍摄粒子图像。图像采集后选取清晰的粒子图做无遮挡和遮挡处理,每帧 图像的时间间隔t=1.7065ms,用PIV技术进行计算得到其粒子速度场Slabel和 S1,将速度场Slabel和S1分别作为标签和网络输入训练神经网络,调整并优 化参数后得到符合本试验的卷积神经网络模型;神经网络模型训练好后,如 图5所示,I1和I2分别是连续拍摄的两张粒子图像,时间间隔t=1.7065ms, I1和I2中存在许多由于撞击而飞溅的颗粒,给图像中被测粒子造成测量盲区 或粒子模糊,将之输入到训练好的卷积神经网络模型中,最后得到被修正的 全域的速度场S。
这里说明的设备数量和处理规模是用来简化本发明的说明的,对本发明 的应用、修改和变化对本领域的技术人员来说是显而易见的。
尽管本发明的实施方案已公开如上,但其并不仅限于说明书和实施方式 中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域 的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围 所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。

Claims (8)

1.一种基于卷积神经网络的低质量粒子速度场图像修正方法,其特征在于,包括以下步骤:
S1、获取粒子图像;
S2、对图像遮挡处理,并用PIV计算;
S3、通过步骤S2计算得到微观的速度矢量;
S4、将得到的数据集作为网络输入;
进行步骤S1-S4同时进行如下的步骤:
S5、定义流场域;
S6、进行无遮挡处理且用PIV计算;
S7、计算得到准确的粒子速度场的Slabel
S8、通过步骤S7作为网络训练的标签;
S9、通过步骤S1-S4与S5-S8搭建网络且建立训练模型;
S10、进行网络模型应用。
2.如权利要求1所述的一种基于卷积神经网络的低质量粒子速度场图像修正方法,其特征在于,所述步骤S5中定义全域颗粒的速度场集合为S,未被遮挡的颗粒的速度场集合为S1,被遮挡的颗粒的速度场集合为S2,S为S1和S2的叠加。
3.如权利要求1所述的一种基于卷积神经网络的低质量粒子速度场图像修正方法,其特征在于,所述步骤S3包括对连续帧的图像进行时间标记t1,t2,...,tn,每一张图像的时间间隔为Δt,用PIV技术对图像处理,获得每两帧的一个速度场S,速度场S包含两帧图像中的每一个颗粒m的速度矢量
Figure FDA0003039029560000011
其中分解为x轴方向和y轴方向上的速度分量vx和vy,则有微观速度矢量
Figure FDA0003039029560000012
4.如权利要求3所述的一种基于卷积神经网络的低质量粒子速度场图像修正方法,其特征在于,还包括对全域速度场S和与S对应的连续两帧图像做遮挡处理,得到只剩下未被遮挡的颗粒的速度场S1和与S1对应的连续两帧图像I1,I2。
5.如权利要求1所述的一种基于卷积神经网络的低质量粒子速度场图像修正方法,其特征在于,所述步骤S6包括选取步骤S1中获得的无遮挡的、清晰的粒子图像,用PIV技术处理得到准确的粒子速度场集合Slabel,把Slabel作为神经网络训练时的标签;并将由步骤3获得的连续两帧图像I1,I2作为卷积神经网络训练时的输入。
6.如权利要求1所述的一种基于卷积神经网络的低质量粒子速度场图像修正方法,其特征在于,所述步骤S9包括搭建卷积神经网络,设置网络训练的目标函数,采用上述的数据集对所述的卷积神经网络进行训练,从而得到训练好的卷积神经网络模型。
7.如权利要求6所述的一种基于卷积神经网络的低质量粒子速度场图像修正方法,其特征在于,还包括以下步骤:
S91、获取网络模型Slabel=F(I1,I2),11,I2表示连续两帧二维图像,Slabel表示为输入图像之间准确的全域速度矢量场集合,F表示深度神经网络的映射函数关系;
S92、设置网络训练的目标函数:该目标函数为输出的速度场与标签速度场的误差,按以下公式进行:
L=Σλiei
其中,i代表不同层级,e为每一层输出的速度场与标签速度场的误差,λ是每一层误差的权重;
S93、采用自适应动量优化算法训练参数,从而得到可用于粒子图像测速的卷积神经网络模型。
8.如权利要求1所述的一种基于卷积神经网络的低质量粒子速度场图像修正方法,其特征在于,所述步骤10包括将获取的图像中包含但不限于颗粒飞溅等因素遮挡其他粒子而产生的测量盲区进行标记处理为S1和与之对应的连续两帧图像I1,I2,将I1,I2输入到训练好的卷积神经网络模型中,用训练好的模型计算/预测被遮挡的粒子速度场S2,再把S1与S2叠加,输出被修正的全域速度场S。
CN202110451904.6A 2021-04-26 2021-04-26 一种基于卷积神经网络的低质量粒子速度场图像修正方法 Active CN113496499B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110451904.6A CN113496499B (zh) 2021-04-26 2021-04-26 一种基于卷积神经网络的低质量粒子速度场图像修正方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110451904.6A CN113496499B (zh) 2021-04-26 2021-04-26 一种基于卷积神经网络的低质量粒子速度场图像修正方法

Publications (2)

Publication Number Publication Date
CN113496499A true CN113496499A (zh) 2021-10-12
CN113496499B CN113496499B (zh) 2022-10-11

Family

ID=77997671

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110451904.6A Active CN113496499B (zh) 2021-04-26 2021-04-26 一种基于卷积神经网络的低质量粒子速度场图像修正方法

Country Status (1)

Country Link
CN (1) CN113496499B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114723608A (zh) * 2022-04-14 2022-07-08 西安电子科技大学 基于流体粒子网络的图像超分辨率重建方法
CN117825743A (zh) * 2024-03-04 2024-04-05 浙江大学 基于傅里叶特征增强和全局匹配的piv测速方法与装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180253854A1 (en) * 2014-11-14 2018-09-06 The Regents Of The University Of California Ultrasound-based volumetric particle tracking method
CN109669049A (zh) * 2019-02-01 2019-04-23 浙江大学 一种基于卷积神经网络的粒子图像测速方法
CN110274749A (zh) * 2019-07-19 2019-09-24 太原理工大学 基于2维piv的旋流器内部流场测量方法和系统
CN111024980A (zh) * 2019-12-18 2020-04-17 北京大学 自由界面附近层析粒子图像测速方法
CN111177882A (zh) * 2019-12-05 2020-05-19 西安交通大学 一种基于深度迁移学习的piv流场恢复方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180253854A1 (en) * 2014-11-14 2018-09-06 The Regents Of The University Of California Ultrasound-based volumetric particle tracking method
CN109669049A (zh) * 2019-02-01 2019-04-23 浙江大学 一种基于卷积神经网络的粒子图像测速方法
CN110274749A (zh) * 2019-07-19 2019-09-24 太原理工大学 基于2维piv的旋流器内部流场测量方法和系统
CN111177882A (zh) * 2019-12-05 2020-05-19 西安交通大学 一种基于深度迁移学习的piv流场恢复方法
CN111024980A (zh) * 2019-12-18 2020-04-17 北京大学 自由界面附近层析粒子图像测速方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YONG LEE ET AL.: "《PIV-DCNN cascaded deep convolutional neural networks for particle image velocimetry》", 《EXPERIMENTS IN FLUIDS》 *
蔡声泽 等: "基于深度神经网络的粒子图像测速算法", 《空气动力学学报》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114723608A (zh) * 2022-04-14 2022-07-08 西安电子科技大学 基于流体粒子网络的图像超分辨率重建方法
CN114723608B (zh) * 2022-04-14 2023-04-07 西安电子科技大学 基于流体粒子网络的图像超分辨率重建方法
CN117825743A (zh) * 2024-03-04 2024-04-05 浙江大学 基于傅里叶特征增强和全局匹配的piv测速方法与装置
CN117825743B (zh) * 2024-03-04 2024-06-11 浙江大学 基于傅里叶特征增强和全局匹配的piv测速方法与装置

Also Published As

Publication number Publication date
CN113496499B (zh) 2022-10-11

Similar Documents

Publication Publication Date Title
CN105550678B (zh) 基于全局显著边缘区域的人体动作特征提取方法
CN106462976B (zh) 在异步传感器观测到的场景中追踪形状的方法
CN106204638B (zh) 一种基于尺度自适应和遮挡处理的航拍目标跟踪方法
CN113496499B (zh) 一种基于卷积神经网络的低质量粒子速度场图像修正方法
Zhang et al. Motion analysis
CN110555870B (zh) 基于神经网络的dcf跟踪置信度评价与分类器更新方法
CN104050685B (zh) 基于粒子滤波视觉注意力模型的运动目标检测方法
KR20020037660A (ko) 객체 활동 모델링 방법
CN107832716B (zh) 基于主动被动高斯在线学习的异常检测方法
CN117094999B (zh) 一种跨尺度缺陷检测方法
Charouh et al. Improved background subtraction-based moving vehicle detection by optimizing morphological operations using machine learning
Setyawan et al. Object detection of omnidirectional vision using PSO-neural network for soccer robot
US9886768B2 (en) Visual tracking of an object
CN109858326A (zh) 基于类别语义弱监督的在线视觉跟踪方法及系统
Zakaria et al. Particle swarm optimization and support vector machine for vehicle type classification in video stream
Morsi et al. Efficient hardware implementation of PSO-based object tracking system
Yau et al. Construction of an Online Machine Tool Wear Prediction System by Using a Time-Delay Phase Space Reconstruction-Based Dilation Convolutional Neural Network
Tao et al. Measurement algorithm of notch length of plastic parts based on video
Zhou et al. Co-occurrence Background Model with Hypothesis on Degradation Modification for Robust Object Detection.
Sharma et al. Lightweight image classifier for CIFAR-10
Cai et al. A target tracking method based on adaptive occlusion judgment and model updating strategy
Kalirajan et al. Deep learning for moving object detection and tracking
Alzahrani et al. Robust approach of edge detection in videos using spatial-temporal features
Song et al. Subsampling-based HOG for Multi-scale real-time Pedestrian Detection
Liu et al. Real-time fabric defect detection based on lightweight convolutional neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant