CN111539881A - 一种基于深度学习的航空零部件点云去噪方法 - Google Patents

一种基于深度学习的航空零部件点云去噪方法 Download PDF

Info

Publication number
CN111539881A
CN111539881A CN202010299670.3A CN202010299670A CN111539881A CN 111539881 A CN111539881 A CN 111539881A CN 202010299670 A CN202010299670 A CN 202010299670A CN 111539881 A CN111539881 A CN 111539881A
Authority
CN
China
Prior art keywords
point
deep learning
point cloud
local neighborhood
cloud data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010299670.3A
Other languages
English (en)
Other versions
CN111539881B (zh
Inventor
汪俊
鲁德宁
李大伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Yuntong Technology Co ltd
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202010299670.3A priority Critical patent/CN111539881B/zh
Publication of CN111539881A publication Critical patent/CN111539881A/zh
Priority to US17/169,534 priority patent/US11514555B2/en
Application granted granted Critical
Publication of CN111539881B publication Critical patent/CN111539881B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于深度学习的航空零部件点云去噪方法,包括:基于航空零部件的理论数据模型,人为增加不同程度的高斯噪声,并为所述模型中每个点生成高度图,构建深度学习训练集;基于构建的深度学习训练集,训练所述深度学习网络,得到深度学习网络模型,用于预测点云数据中每个点的法线信息;由激光扫描仪对真实航空零部件进行扫描,获取实测点云数据,并基于训练好的深度学习网络模型,预测所述实测点云的法线信息;基于所述预测的法线信息,进一步对所述点云中每个点进行位置更新,从而实现实测点云的去噪。本发明解决了现有技术中无法准确高效去除航空零部件扫描点云的噪声的问题,进一步提高了航空零部件检测分析的效率和准确度。

Description

一种基于深度学习的航空零部件点云去噪方法
技术领域
本发明属于航空检测技术领域,特别涉及一种基于深度学习的航空零部件点云去噪方法。
背景技术
近年来,随着国内航空新研项目在飞行速度、隐身、机动性等技术战斗指标上的不断提高,飞机自身的结构呈现出明显的整体化、轻量化、紧凑化和精密化的趋势,具有复杂结构与型面特征的航空结构件开始被大量采用,航空结构件的精度要求也日益提升,装配的要求逐渐提高,使得对航空零部件制造加工质量的控制和检测显得尤为重要。同时,随着航空器使用时间增加,各零部件的磨损、形变等会大大影响航空器的性能,甚至会威胁人民生命财产安全,通过对零部件的检测,及时发现存在的隐患,从而保证航空器的安全健康运行。
对于航空零部件的检测技术,目前仍以传统的测量方式为主,如手工测量法,三坐标机测量法等,由于航空零部件形状复杂、结构多样,传统的测量方法往往达不到要求的精度,且效率较低,无法满足目前航空零部件的检测需求。
由于三维激光扫描技术实时性强、精度高、无损检测等优点,其在航空领域的应用越来越广泛。利用三维激光扫描技术对航空零部件进行测量分析,是航空领域高精度测量的趋势。然而,由于测量环境等因素影响,获取的三维点云往往存在一定的噪声,而目前针对航空零部件三维点云噪声的处理仍处于起步阶段,无法满足航空业高效率高精度的要求。
发明内容
本发明的目的在于针对现有技术中无法对航空零部件点云进行准确高效去噪的问题,提供一种基于深度学习的航空零部件点云去噪方法。
本发明是通过以下技术方案实现的:
一种基于深度学习的航空零部件点云去噪方法,包括如下步骤:
S1:基于航空零部件的理论数据模型,增加不同程度的高斯噪声,并为模型中每个点生成高度图,构建深度学习训练集;
S2:基于步骤S1构建的深度学习训练集,训练深度学习网络,得到深度学习网络模型;
S3:由激光扫描仪对真实航空零部件进行扫描,获取实测点云数据,并基于步骤S2训练好的深度学习网络模型,预测实测点云的法线信息;
S4:基于步骤S3预测的法线信息,进一步对实测点云数据中每个点进行位置更新,实现对实测点云数据的去噪。
为优化上述技术方案,采取的具体措施还包括:
上述步骤S1中的为模型中每个点生成高度图,包括以下步骤:
S11:从理论数据模型中,给定点云数据中的一点pi,采用循环神经网络构建该点的局部邻域;
S12:据公式(7)计算协方差矩阵Cpi
Figure BDA0002453501890000021
其中,pi表示点云数据中的任一点,pi=(xi,yi,zi),(xi,yi,zi)表示pi的坐标;pj表示局部邻域中的任一点;Ψ表示pi点的局部邻域;|Ψ|表示局部邻域中点的个数;
S13:记Cpi的三个特征值和特征向量分别为λ1,λ2,λ3和u1、u2、u3,其中,λ1≥λ2≥λ3,u3=(R,S,T);
S14:以向量u3作为投影平面法向量,据公式(8)构建投影平面P,;
R(x-xi)+S(y-yi)+T(z-zi)=0; (8)
其中,(x,y,z)是平面P的任意一个点的坐标,(xi,yi,zi)表示pi的坐标;
S15:基于步骤S14构建的投影平面P,将局部邻域中的所有点沿向量u3向平面P进行投影,获得pi的高度图。
上述步骤S2中的训练深度学习网络得到深度学习网络模型,包括以下步骤:
S21:选择ResNet18作为深度学习网络,构建深度学习网络的损失函数;
Figure BDA0002453501890000022
其中,pi表示点云数据中的任一点,Q表示深度学习训练集中的所有点构成的点集,npi为网络预测的pi点的法线,
Figure BDA0002453501890000023
为pi点的理论法线;
S22:将步骤S1生成的高度图输入至ResNet18网络中,采用随机梯度下降法及反向传播算法进行ResNet18网络的权重更新,直到网络损失值区域收敛,则停止训练,得到深度学习网络模型。
上述步骤S22中,初始学习率为0.001,预设最大迭代训练次数为200次。
上述步骤S3具体包括以下步骤:
S31:给定实测点云数据中的一点pm,采用循环神经网络构建该点的局部邻域;
S32:据公式(10)计算协方差矩阵Cpm
Figure BDA0002453501890000031
其中,pm表示实测点云数据中的任一点;pn表示局部邻域中的任一点;Γ表示pm点的局部邻域;|Γ|表示局部邻域中点的个数;
S33:记Cpm的三个特征值和特征向量分别为λ’1,λ’2,λ’3和u’1、u’2、u’3,其中,λ’1≥λ’2≥λ’3,u’3=(R’,S’,T’);
S34:以向量u’3作为投影平面法向量,据公式(11)构建投影平面P’;
R’(x’-x’m)+S’(y’-y’m)+T’(z’-z’m)=0; (11)
其中,(x’,y’,z’)是平面P’的任意一个点的坐标,(x’m,y’m,z’m)表示pm的坐标;
S35:基于步骤S34构建的投影平面P’,将局部邻域中的所有点沿向量u’3向平面P’进行投影,获得pm的高度图;
S36:将步骤S35生成的高度图输入至步骤S2得到的深度学习网络模型中,得到实pm的法向量。
上述步骤S4中,根据公式(12)对实测点云数据中每个点进行位置更新;
Figure BDA0002453501890000032
其中,pm表示实测点云数据中的任一点;pn表示局部邻域中的任一点;αm表示权重参数;Γ表示pm点的局部邻域;nn表示pn点的法向量;nm表示pm点的法向量。
本发明的有益效果为:
本发明的方法能够准确地实现航空零部件实测点云数据的去噪处理,并保留零部件的结构特征,有效解决了传统检测手段精度低,效率低等问题,从而保证后续的航空零部件结构检测分析的效率和准确度。
附图说明
图1是本发明方法的流程图。
图2是本发明航空零部件原始实测数据图。
图3是本发明航空零部件点云高度图。
图4是本发明航空零部件点云去噪后结果图。
图5是本发明航空零部件点云法线结果图。
具体实施方式
下面结合附图和实施例对本发明的发明内容作进一步地说明。
参见图1,该方法可以直接应用至各种航空零部件扫描数据处理装置上,具体实现时,可以通过在写入航空零部件扫描数据处理装置控制器相应的程序的方式来实现。参见图2,为航空零部件扫描装置及所获取的三维点云数据,获取的三维点云数据中存在噪声干扰等问题,这对于航空零部件的检测分析造成很大的影响。本发明提供了一种基于深度学习的航空零部件点云去噪方法,包括以下步骤:
步骤一、基于航空零部件的理论数据模型,增加不同程度的高斯噪声,并为模型中每个点生成高度图,构建深度学习训练集;本实施例中,所述的为模型中每个点生成高度图,包括以下步骤:
1)从理论数据模型中,给定点云数据中的一点pi,采用循环神经网络构建该点的局部邻域,优选地,邻域半径具体取点云模型平均距离的5倍;
2)据公式(13)计算协方差矩阵Cpi
Figure BDA0002453501890000041
其中,pi表示点云数据中的任一点,pi=(xi,yi,zi),(xi,yi,zi)表示pi的坐标;pj表示局部邻域中的任一点;Ψ表示pi点的局部邻域;|Ψ|表示局部邻域中点的个数;
3)记Cpi的三个特征值和特征向量分别为λ1,λ2,λ3和u1、u2、u3,其中,λ1≥λ2≥λ3,u3=(R,S,T);
4)以向量u3作为投影平面法向量,据公式(14)构建投影平面P,;
R(x-xi)+S(y-yi)+T(z-zi)=0; (14)
其中,(x,y,z)是平面P的任意一个点的坐标,(xi,yi,zi)表示pi的坐标;
5)基于构建的投影平面P,将局部邻域中的所有点沿向量u3向平面P进行投影,获得pi的高度图,高度图分辨率设置为48×48,具体可参见图3。
步骤二、基于步骤一构建的深度学习训练集,训练深度学习网络,得到深度学习网络模型;本实施例中,选择ResNet18作为深度学习网络,构建深度学习网络的损失函数;
Figure BDA0002453501890000042
其中,pi表示点云数据中的任一点,Q表示深度学习训练集中的所有点构成的点集,npi为网络预测的pi点的法线,
Figure BDA0002453501890000043
为pi点的理论法线;
将步骤一生成的高度图输入至ResNet18网络中,采用随机梯度下降法及反向传播算法进行ResNet18网络的权重更新,初始学习率为0.001,预设最大迭代训练次数为200次,直到网络损失值区域收敛,则停止训练,得到深度学习网络模型。
步骤三、由激光扫描仪对真实航空零部件进行扫描,获取实测点云数据,并基于步骤二训练好的深度学习网络模型,预测实测点云的法线信息;
1)给定实测点云数据中的一点pm,采用循环神经网络构建该点的局部邻域,邻域半径具体取点云模型平均距离的3倍;
2)据公式(16)计算协方差矩阵Cpm
Figure BDA0002453501890000051
其中,pm表示实测点云数据中的任一点;pn表示局部邻域中的任一点;Γ表示pm点的局部邻域;|Γ|表示局部邻域中点的个数;
3)记Cpm的三个特征值和特征向量分别为λ’1,λ’2,λ’3和u’1、u’2、u’3,其中,λ’1≥λ’2≥λ’3,u’3=(R’,S’,T’);
4)以向量u’3作为投影平面法向量,据公式(17)构建投影平面P’;
R’(x’-x’m)+S’(y’-y’m)+T’(z’-z’m)=0; (17)
其中,(x’,y’,z’)是平面P’的任意一个点的坐标,(x’m,y’m,z’m)表示pm的坐标;
5)基于构建的投影平面P’,将局部邻域中的所有点沿向量u’3向平面P’进行投影,获得pm的高度图;
6)将上述生成的高度图输入至步骤二得到的深度学习网络模型中,得到实pm的法向量。
步骤四、基于步骤三预测的法线信息,进一步对实测点云数据中每个点进行位置更新,设计点位更新函数,获取更新后的点云,即为去噪后的点云模型,实现对实测点云数据的去噪。根据公式(18)对实测点云数据中每个点进行位置更新;
Figure BDA0002453501890000052
其中,pm表示实测点云数据中的任一点;pn表示局部邻域中的任一点;αm表示权重参数,控制点位更新的步长,具体取
Figure BDA0002453501890000053
Γ表示pm点的局部邻域;nn表示pn点的法向量;nm表示pm点的法向量。
图4和图5分别为经过点位更新后的点云模型(即去噪后的模型)及其经过深度学习预测的法线结果。与图2相比,点云数据的噪声问题已解决,而零部件结构等特征没有发生任何变化。基于此,能够准确地实现航空零部件实测点云数据的去噪处理,并保留零部件的结构特征,有效解决了传统检测手段精度低,效率低等问题,从而保证后续的航空零部件结构检测分析的效率和准确度。
以上所述的仅是本发明的优选实施方式,应当指出,对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (6)

1.一种基于深度学习的航空零部件点云去噪方法,其特征在于,包括如下步骤:
S1:基于航空零部件的理论数据模型,增加不同程度的高斯噪声,并为模型中每个点生成高度图,构建深度学习训练集;
S2:基于步骤S1构建的深度学习训练集,训练深度学习网络,得到深度学习网络模型;
S3:由激光扫描仪对真实航空零部件进行扫描,获取实测点云数据,并基于步骤S2训练好的深度学习网络模型,预测实测点云的法线信息;
S4:基于步骤S3预测的法线信息,进一步对实测点云数据中每个点进行位置更新,实现对实测点云数据的去噪。
2.根据权利要求1所述的一种基于深度学习的航空零部件点云去噪方法,其特征在于,所述步骤S1中的为模型中每个点生成高度图,包括以下步骤:
S11:从理论数据模型中,给定点云数据中的一点pi,采用循环神经网络构建该点的局部邻域;
S12:据公式(1)计算协方差矩阵Cpi
Figure FDA0002453501880000011
其中,pi表示点云数据中的任一点,pi=(xi,yi,zi),(xi,yi,zi)表示pi的坐标;pj表示局部邻域中的任一点;Ψ表示pi点的局部邻域;|Ψ|表示局部邻域中点的个数;
S13:记Cpi的三个特征值和特征向量分别为λ1,λ2,λ3和u1、u2、u3,其中,λ1≥λ2≥λ3,u3=(R,S,T);
S14:以向量u3作为投影平面法向量,据公式(2)构建投影平面P,;
R(x-xi)+S(y-yi)+T(z-zi)=0; (2)
其中,(x,y,z)是平面P的任意一个点的坐标,(xi,yi,zi)表示pi的坐标;
S15:基于步骤S14构建的投影平面P,将局部邻域中的所有点沿向量u3向平面P进行投影,获得pi的高度图。
3.根据权利要求1所述的一种基于深度学习的航空零部件点云去噪方法,其特征在于,所述步骤S2中的训练深度学习网络得到深度学习网络模型,包括以下步骤:
S21:选择ResNet18作为深度学习网络,构建深度学习网络的损失函数;
Figure FDA0002453501880000012
其中,pi表示点云数据中的任一点,Q表示深度学习训练集中的所有点构成的点集,npi为网络预测的pi点的法线,
Figure FDA0002453501880000021
为pi点的理论法线;
S22:将步骤S1生成的高度图输入至ResNet18网络中,采用随机梯度下降法及反向传播算法进行ResNet18网络的权重更新,直到网络损失值区域收敛,则停止训练,得到深度学习网络模型。
4.根据权利要求3所述的一种基于深度学习的航空零部件点云去噪方法,其特征在于,所述步骤S22中,初始学习率为0.001,预设最大迭代训练次数为200次。
5.根据权利要求1所述的一种基于深度学习的航空零部件点云去噪方法,其特征在于,所述步骤S3具体包括以下步骤:
S31:给定实测点云数据中的一点pm,采用循环神经网络构建该点的局部邻域;
S32:据公式(4)计算协方差矩阵Cpm
Figure FDA0002453501880000022
其中,pm表示实测点云数据中的任一点;pn表示局部邻域中的任一点;Γ表示pm点的局部邻域;|Γ|表示局部邻域中点的个数;
S33:记Cpm的三个特征值和特征向量分别为λ’1,λ’2,λ’3和u’1、u’2、u’3,其中,λ’1≥λ’2≥λ’3,u’3=(R’,S’,T’);
S34:以向量u’3作为投影平面法向量,据公式(5)构建投影平面P’;
R’(x’-x’m)+S’(y’-y’m)+T’(z’-z’m)=0; (5)
其中,(x’,y’,z’)是平面P’的任意一个点的坐标,(x’m,y’m,z’m)表示pm的坐标;
S35:基于步骤S34构建的投影平面P’,将局部邻域中的所有点沿向量u’3向平面P’进行投影,获得pm的高度图;
S36:将步骤S35生成的高度图输入至步骤S2得到的深度学习网络模型中,得到实pm的法向量。
6.根据权利要求1所述的一种基于深度学习的航空零部件点云去噪方法,其特征在于,所述步骤S4中,根据公式(6)对实测点云数据中每个点进行位置更新;
Figure FDA0002453501880000023
其中,pm表示实测点云数据中的任一点;pn表示局部邻域中的任一点;αm表示权重参数;Γ表示pm点的局部邻域;nn表示pn点的法向量;nm表示pm点的法向量。
CN202010299670.3A 2020-04-16 2020-04-16 一种基于深度学习的航空零部件点云去噪方法 Active CN111539881B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010299670.3A CN111539881B (zh) 2020-04-16 2020-04-16 一种基于深度学习的航空零部件点云去噪方法
US17/169,534 US11514555B2 (en) 2020-04-16 2021-02-07 Point cloud denoising method based on deep learning for aircraft part

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010299670.3A CN111539881B (zh) 2020-04-16 2020-04-16 一种基于深度学习的航空零部件点云去噪方法

Publications (2)

Publication Number Publication Date
CN111539881A true CN111539881A (zh) 2020-08-14
CN111539881B CN111539881B (zh) 2021-07-13

Family

ID=71976797

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010299670.3A Active CN111539881B (zh) 2020-04-16 2020-04-16 一种基于深度学习的航空零部件点云去噪方法

Country Status (2)

Country Link
US (1) US11514555B2 (zh)
CN (1) CN111539881B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112435193A (zh) * 2020-11-30 2021-03-02 中国科学院深圳先进技术研究院 一种点云数据去噪的方法、装置、存储介质和电子设备
CN114295048A (zh) * 2021-12-21 2022-04-08 北京紫微宇通科技有限公司 基于激光扫描仪的航天器结构数字化检测方法
CN114627017A (zh) * 2022-03-17 2022-06-14 南京航空航天大学 一种基于多层次注意力感知的点云去噪方法
CN116817771A (zh) * 2023-08-28 2023-09-29 南京航空航天大学 一种基于圆柱体素特征的航天零件涂层厚度测量方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116051427B (zh) * 2023-03-31 2023-07-04 季华实验室 点云去噪模型获取方法、点云融合方法及其相关设备
CN117237902B (zh) * 2023-11-15 2024-01-26 山东飞宏工程机械有限公司 基于深度学习的机器人物体识别系统
CN118015284B (zh) * 2024-04-09 2024-06-25 中国空气动力研究与发展中心低速空气动力研究所 基于生成对抗网络的点云分割方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110346808A (zh) * 2019-07-15 2019-10-18 上海点积实业有限公司 一种激光雷达的点云数据处理方法和系统
CN110533603A (zh) * 2019-07-24 2019-12-03 宁德市公路局 一种基于熵与卷积神经网络的点云降噪方法
CN110930334A (zh) * 2019-11-26 2020-03-27 浙江大学 一种基于神经网络的网格去噪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3637386A1 (en) * 2018-10-12 2020-04-15 Thales Machine learning on big data in avionics

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110346808A (zh) * 2019-07-15 2019-10-18 上海点积实业有限公司 一种激光雷达的点云数据处理方法和系统
CN110533603A (zh) * 2019-07-24 2019-12-03 宁德市公路局 一种基于熵与卷积神经网络的点云降噪方法
CN110930334A (zh) * 2019-11-26 2020-03-27 浙江大学 一种基于神经网络的网格去噪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ALEXANDRE BOULCH ET AL.: "Deep Learning for Robust Normal Estimation in Unstructured Point Clouds", 《EUROGRAPHICS SYMPOSIUM ON GEOMETRY PROCESSING 2016》 *
王醒策 等: "局部表面拟合的点云模型法向估计及重定向算法", 《计算机辅助设计与图形学学报》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112435193A (zh) * 2020-11-30 2021-03-02 中国科学院深圳先进技术研究院 一种点云数据去噪的方法、装置、存储介质和电子设备
CN112435193B (zh) * 2020-11-30 2024-05-24 中国科学院深圳先进技术研究院 一种点云数据去噪的方法、装置、存储介质和电子设备
CN114295048A (zh) * 2021-12-21 2022-04-08 北京紫微宇通科技有限公司 基于激光扫描仪的航天器结构数字化检测方法
CN114627017A (zh) * 2022-03-17 2022-06-14 南京航空航天大学 一种基于多层次注意力感知的点云去噪方法
CN114627017B (zh) * 2022-03-17 2022-12-13 南京航空航天大学 一种基于多层次注意力感知的点云去噪方法
CN116817771A (zh) * 2023-08-28 2023-09-29 南京航空航天大学 一种基于圆柱体素特征的航天零件涂层厚度测量方法
CN116817771B (zh) * 2023-08-28 2023-11-17 南京航空航天大学 一种基于圆柱体素特征的航天零件涂层厚度测量方法

Also Published As

Publication number Publication date
US11514555B2 (en) 2022-11-29
CN111539881B (zh) 2021-07-13
US20210327032A1 (en) 2021-10-21

Similar Documents

Publication Publication Date Title
CN111539881B (zh) 一种基于深度学习的航空零部件点云去噪方法
CN107703480B (zh) 基于机器学习的混合核函数室内定位方法
CN110263429B (zh) 基于机器学习的索网反射面天线形面精度调整方法
JP7351029B2 (ja) 複雑地形においてLiDARで風の流れの乱流を測定するためのシステムおよび方法
JP7403690B2 (ja) 複雑地形においてLiDARで高速の風の流れを測定するためのシステムおよび方法
CN110162823B (zh) 考虑气动面曲面效应和法向运动的非定常气动力计算方法
CN110231620B (zh) 一种噪声相关系统跟踪滤波方法
CN113168729B (zh) 一种基于局部参考坐标系的3d形状匹配方法及装置
CN110942077B (zh) 基于权重局部变化度和l1中值优化的特征线提取方法
CN113777931A (zh) 结冰翼型气动模型构造方法、装置、设备及介质
CN112388628A (zh) 用于训练高斯过程回归模型的设备和方法
CN116468767A (zh) 基于局部几何特征和隐式距离场的飞机表面重建方法
CN113204909B (zh) 基于地基观测光度信号的卫星几何特征与姿态估计方法
CN110297221A (zh) 一种基于高斯混合模型的数据关联方法
CN114565020B (zh) 一种基于深度置信网络和扩展卡尔曼滤波的飞行器传感器信号融合方法
Dong et al. Pressure-sensitive paint integrated with digital image correlation for instantaneous measurement on rotating blades
Fischer et al. Cross validation of the aerodynamic and acoustic measurements in two Kevlar-walled wind tunnels
CN110595470A (zh) 一种基于外定界椭球集员估计的纯方位目标跟踪方法
Zhuang et al. Accurate statistical modeling method for dynamic RCs
CN108106634A (zh) 一种直接观星的星敏感器内参数标定方法
CN114092545A (zh) 一种适用于球形靶标拟合的自适应栅格搜索方法
CN117784114B (zh) 异常噪声下基于混合熵的不规则扩展目标跟踪方法
Chen et al. Kalman filter tracking algorithm simulation based on angle expansion
CN114577213B (zh) 一种分布式多平台水下多目标关联与被动定位方法
CN111414801B (zh) 不确定性外形的电大非合作目标分类识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220414

Address after: 211106 room 1003-1005, No. 1698, Shuanglong Avenue, Jiangning District, Nanjing, Jiangsu Province (Jiangning Development Zone)

Patentee after: Nanjing Yuntong Technology Co.,Ltd.

Address before: No. 29, Qinhuai District, Qinhuai District, Nanjing, Jiangsu

Patentee before: Nanjing University of Aeronautics and Astronautics