CN115578408A - 点云配准的叶片轮廓光学检测方法、系统、设备及终端 - Google Patents
点云配准的叶片轮廓光学检测方法、系统、设备及终端 Download PDFInfo
- Publication number
- CN115578408A CN115578408A CN202210900026.6A CN202210900026A CN115578408A CN 115578408 A CN115578408 A CN 115578408A CN 202210900026 A CN202210900026 A CN 202210900026A CN 115578408 A CN115578408 A CN 115578408A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- features
- point
- matching
- local
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 33
- 230000003287 optical effect Effects 0.000 title claims abstract description 30
- 238000000034 method Methods 0.000 claims abstract description 46
- 238000000605 extraction Methods 0.000 claims abstract description 37
- 230000003993 interaction Effects 0.000 claims abstract description 25
- 230000007246 mechanism Effects 0.000 claims abstract description 12
- 230000002452 interceptive effect Effects 0.000 claims abstract description 6
- 230000002708 enhancing effect Effects 0.000 claims abstract description 4
- 238000005259 measurement Methods 0.000 claims description 22
- 239000011159 matrix material Substances 0.000 claims description 21
- 230000009466 transformation Effects 0.000 claims description 18
- 239000000284 extract Substances 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000000137 annealing Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 238000000354 decomposition reaction Methods 0.000 claims description 2
- 230000001788 irregular Effects 0.000 claims description 2
- 238000012886 linear function Methods 0.000 claims description 2
- 238000003860 storage Methods 0.000 claims description 2
- 239000013589 supplement Substances 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 abstract description 40
- 238000013135 deep learning Methods 0.000 abstract description 7
- 238000004891 communication Methods 0.000 abstract description 2
- 238000012360 testing method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000002679 ablation Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000000691 measurement method Methods 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000008092 positive effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241001422033 Thestylus Species 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013400 design of experiment Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明属于叶片轮廓的光学检测技术领域,公开了一种点云配准的叶片轮廓光学检测方法、系统、设备及终端,构建用于多视场数据精配准的深度特征交互网络DFInet,在深度特征交互网络中设计双分支结构,用于整合全局特征和局部特征来编码点云特征;设计特征交互模块,用于在特征提取过程中增强两点云之间的信息关联;利用注意力机制融合基于全局特征和局部特征的两个匹配矩阵之间的匹配信息。本发明新的基于深度学习的点云配准算法,减少了所开发的多视场系统的几何精度和运动稳定性的影响,提高了叶片轮廓的配准精度,利用特征交互模块加强源点云与目标点云之间的特征通信。对标记数据和实测数据的实验结果表明本发明方法的有效性。
Description
技术领域
本发明属于叶片轮廓的光学检测技术领域,尤其涉及一种点云配准的叶片轮廓光学检测方法、系统、设备及终端。
背景技术
目前,叶片是航空发动机的关键部件,它决定了航空发动机的能量转换效率、运行安全和使用寿命。叶片的制造过程异常复杂,要求较高的尺寸精度和较高的表面完整性。因此,准确测量叶片轮廓对于保证加工质量和工作可靠性具有重要意义。目前,基于三坐标测量机(CMM)的叶片轮廓检测方法因其精度高而得到了广泛的应用。然而,该方法属于接触式测量,并且由于触头半径补偿的影响,在测量高曲率变化的曲面时具有固有的局限性。此外,测量过程复杂和效率低的问题与敏捷制造相冲突。因此,许多学者致力于对光学测量方法的研究来克服这些问题。
目前,叶片轮廓的光学测量方法,根据光源的类型和相应的数据采集形式,通常分为点光源法、线光源法和面光源法。基于光学检测方法的系统实施涉及到视场规划、传感器定位和叶片轮廓配准等几个常见步骤。其中,叶片轮廓配准是最具挑战性的问题。目前,对叶片轮廓配准方法的研究主要集中在引入外部标定物,例如:标准球、标定板和量块等。据我们所能了解到的来看,Wang 等首先提出基于叶片自特征使用激光传感器实现叶片轮廓测量而不用引入外部标定物,从而提高了配准精度,减小了累积误差。然而,这些方法都存在一个共同的问题,即测量精度仍然受所开发的多视场系统的几何精度和运动稳定性的影响。
最具代表性的点云配准方法是迭代距离最近点(Iterative Closest Point,ICP),它被认为是求解点云配准的标准方法。随后,根据ICP的基本概念提出了许多变体。然而,ICP类型的方法采用的是一对一的硬对应关系,并且由于非凸性,很容易陷入局部极小值中。为了对两点云间的对应进行“软分配”,研究者们提出了概率模型,以提高对不确定数据的适应性。其中,相干点漂移 (Coherent Point Drift,CPD)是最著名的方法。但是概率模型更多地关注点之间的对应关系,而忽略了点云的几何特征。因此,基于特征的方法被设计出来,以解决点云配准问题。一般来说,基于特征的方法可分为两类:基于全局特征的方法和基于局部特征的方法,其主要区别在于它们使用的特征。全局特征描述了整个模型的形状,但不能完全表达重叠区域的特征。因此,这些算法识别能力有限,只适用于从特征突出的区域中提取特征。局部特征仅对邻域点进行编码。对于几乎是平面或球面的局部区域,很难建立局部参考坐标系。因此,对于具有特殊几何特征的叶片,这类算法提取有用信息以进行精配准的能力有限。最近,Yang等人将点云配准重新表述为截断最小二乘估计(Trunceted Least Squares Estimation,TEASER)。虽然它对点之间错误的对应关系都有较强的鲁棒性,但它仍然不能解决提取合适特征的问题。
近年来,能够从给定数据中提取抽象信息的深度学习在点云配准方面有着特殊的应用前景。Elbaz等人提出了一种利用深度自动编码神经网络实现大规模点云与近距离扫描点云之间的三维点云配准算法。Aoki等人对Lucas&Kanade (LK)算法进行了改进,并将PointNet和LK算法扩展为一个可训练的深度神经网络。Wang等人提出了深度最近邻点(Deep Closest Point,DCP)),通过计算各点特征的匹配概率来解决坐标变换问题。随后,Wang等人还设计了从点云局部到局部配准的部分配准网络(Partial RegistrationNetwork,PRNet),并利用L2正则化得到了匹配的关键点。Yew和Lee提出了鲁棒点匹配(Robust Point Matching,RPM),它利用可微的Sinkhorn层和退火参数得到点之间对应关系的“软分配”。Li等人提出了迭代距离感知的相似度矩阵卷积(Iterative Distance-Aware Similarity Matrix Convolution,IDAM),它通过使用卷积神经网络计算匹配矩阵。Zhu等人使用具有差异特征的代表性重叠点 (Representative overlapping points,ROPNet)进行匹配,将局部到局部匹配转化为局部到全局的匹配。然而,这些工作只关注点云的局部特征或全局特征,不能从具有薄壁和扭曲空间表面的叶片提取到有效的特征。此外,这些研究并没有给出一个明确的方法来关联源点云和目标点云之间的信息,而只是在特征提取之后融合特征,来不及获取到足够的偏好知识。
此外,对于具有特殊几何特征的叶片,设计一种高效的精配准算法更具有挑战性。首先,为了提高效率,应该使用尽可能少的视场对叶片轮廓进行测量,而使得只有一小部分数据在两个相邻视场之间是重叠的。因此,叶片轮廓配准问题成为一个局部对局部的配准问题。其次,叶片表面为薄壁扭曲的外形,导致局部特征与全局特征之间存在很大差距。因此,它增加了算法提取包含局部信息和全局信息的显著特征的难度。再者,由于视场的差异,叶片轮廓同一部分在不同视场下的测量数据的点密度是不同的。因此,在不同视场的测量数据之间找到合适的匹配点是很困难的,故亟须设计一种新的点云配准的叶片轮廓光学检测方法及系统。
通过上述分析,现有技术存在的问题及缺陷为:
(1)现有的叶片轮廓的光学测量方法的测量精度仍然受所开发的多视场系统的几何精度和运动稳定性的影响;ICP类型的方法容易陷入局部极小值中;基于概率模型的CPD方法更多关注点之间的对应关系,忽略点云的几何特征。 TEASER将点云配准重新表述为截断最小二乘估计,仍然不能解决提取合适特征的问题。
(2)基于全局特征的方法不能完全表达重叠区域的特征,识别能力有限,只适用于从特征突出区域中提取特征;基于局部特征的方法仅对邻域点进行编码,对于具有特殊几何特征的叶片,提取有用信息进行精配准的能力有限。同时,基于深度学习的现有技术只关注点云的局部特征或全局特征,不能从具有薄壁和扭曲空间表面的叶片提取到有效的特征。
(3)现有技术没有给出一个明确的方法来关联源点云和目标点云之间的信息,而只是在特征提取之后融合特征,来不及获取到足够的偏好知识。
发明内容
针对现有技术存在的问题,本发明提供了一种点云配准的叶片轮廓光学检测方法、系统、设备及终端,尤其涉及一种基于深度特征交互网络进行点云配准的叶片轮廓光学检测方法、系统、介质、设备及终端。
本发明是这样实现的,一种点云配准的叶片轮廓光学检测方法包括:
构建用于多视场数据精配准的深度特征交互网络,在所述深度特征交互网络中利用双分支结构整合全局特征和局部特征并进行点云特征编码;利用特征交互模块在特征提取过程中增强源点云与目标点云之间的信息关联;利用注意力机制融合基于全局特征和局部特征的两个匹配矩阵之间的匹配信息。
进一步,所述点云配准的叶片轮廓光学检测方法包括以下步骤:
步骤一,在每次迭代i中,源点云X通过上一次迭代i-1中获得的刚性变换[Ri-1,Ti -1]进行转换;局部特征提取模块分别从变换后的源点云X和原始目标点云Y中提取局部特征FlX和FlY;
步骤二,全局特征提取模块从两点云中提取全局特征FgX和FgY,并利用结构相同、共享参数不同的两个附加多层感知机分别预测4个参数;其中,所述参数包括外点参数αl和αg、退火参数βl和βg;
步骤三,提取的特征FlX、FlY、FgX、FgY和参数αl、βl、αg、βg分别用于计算两个匹配矩阵Ml和Mg;利用注意力机制融合局部特征空间和全局特征空间的匹配矩阵之间的信息,得到最终的匹配矩阵M;
本发明的另一目的在于提供一种应用所述的点云配准的叶片轮廓光学检测方法的点云配准的叶片轮廓光学检测系统,所述点云配准的叶片轮廓光学检测系统由三个平移轴X/Y/Z和一个旋转轴R组成,用于获取特定叶片截面的点云数据,同时记录运动参数,包括平移轴的线性位移X/Y和旋转轴的角度R。
本发明的另一目的在于提供一种计算机设备,所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行所述的点云配准的叶片轮廓光学检测方法。
本发明的另一目的在于提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行所述的点云配准的叶片轮廓光学检测方法。
本发明的另一目的在于提供一种信息数据处理终端,所述信息数据处理终端用于实现所述的点云配准的叶片轮廓光学检测系统。
结合上述的技术方案和解决的技术问题,请从以下几方面分析本发明所要保护的技术方案所具备的优点及积极效果为:
本发明提供的用于多视场数据精配准的深度特征交互网络(DFInet)。在本发明提供的深度特征交互网络中,设计了一个双分支结构,用于整合全局特征和局部特征来编码点云特征。此外,本发明还提出了一个特征交互模块,在特征提取过程中增强两点云之间的信息关联。接着,本发明利用注意力机制融合基于全局特征和局部特征的两个匹配矩阵之间的匹配信息。实验结果证明了本发明方法的可行性以及良好的实际应用前景。
本发明提出了一种新的基于深度学习的点云配准算法,以减少所开发的多视场系统的几何精度和运动稳定性的影响。首先,本发明提出了基于局部特征提取和全局特征提取的叶片轮廓点云配准算法,提高了叶片轮廓的配准精度。此外,本发明还设计了一个特征交互模块,以加强源点云与目标点云之间的特征通信。在此基础之上,本发明设计了一个简单而有效的注意力机制模块来融合局部特征空间与全局特征空间的匹配矩阵之间的匹配信息。对标记数据和实测数据的大量实验结果表明了本发明方法的有效性。
本发明提供的基于学习的叶片轮廓配准算法,即深度特征交互网络 (DFInet),该算法主要由四个部分组成:局部特征提取模块(LFE),全局特征提取模块(GFE),特征交互模块(FI)以及匹配矩阵生成模块(MMG)。
因此,本发明的主要贡献可归纳如下:
(1)本发明提出了一种新的基于深度学习体系的叶片轮廓配准方法。局部特征提取模块侧重于球半径r邻域空间(r-RN)中的局部几何特征,用于将所有点嵌入局部特征空间,而全局特征提取模块则是并行设计的,用于将所有点嵌入全局特征空间。
(2)本发明提出了一个特征交互模块,以促进源点云和目标点云之间的特征交互,从而为后续模块提供更多的鉴别特征。
(3)本发明提出了一种简单而有效的注意力机制,能够融合从局部特征空间与全局特征空间得到的匹配矩阵之间的信息。
本发明提供的精配准算法,以降低所开发的多视场系统的几何精度和运动稳定性的影响,进一步提高叶片轮廓测量的精度。
附图说明
为了更清楚地说明本发明实施条例的技术方案,下面将对本发明实施例中所需要使用的附图做简单的介绍,显而易见地,下面所描述的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的点云配准的叶片轮廓光学检测方法流程图;
图2是本发明实施例提供的点云配准的叶片轮廓光学检测系统结构示意图;
图3是本发明实施例提供的DFInet的总体架构示意图;
图4(b)是本发明实施例提供的最大池化操作;Max-pooling的输出是通过汇聚与中心点相连接的所有点的特征来计算的;
图5是本发明实施例提供的网络结构中特征交互模块(FI)示意图;
图6是本发明实施例提供的三种不同的叶片示意图;
图7(a)是本发明实施例提供的三个视场,展示了检测系统获取的截面1的整体概况;
图7(b)是本发明实施例提供的基于现有技术进行的粗配准方法示意图;
图7(c)是本发明实施例提供的根据匹配算法进行精配准的示意图;
图8是本发明实施例提供的重构的叶片截面以及与CMM的检测结果比较示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
针对现有技术存在的问题,本发明提供了一种点云配准的叶片轮廓光学检测方法、系统、设备及终端,下面结合附图对本发明作详细的描述。
一、解释说明实施例。为了使本领域技术人员充分了解本发明如何具体实现,该部分是对权利要求技术方案进行展开说明的解释说明实施例。
如图1所示,本发明实施例提供的点云配准的叶片轮廓光学检测方法包括:
S101,构建用于多视场数据精配准的深度特征交互网络DFInet;
S102,在深度特征交互网络中设计双分支结构,用于整合全局特征和局部特征来编码点云特征;
S103,设计特征交互模块,在特征提取过程中增强两点云之间的信息关联;
S104,利用注意力机制融合基于全局特征和局部特征的两个匹配矩阵之间的匹配信息。
为了精确测量叶片轮廓,本发明开发了一个四轴检测系统,该系统由三个平移轴(X/Y/Z)和一个旋转轴(R)组成,如图2所示。在现有基于三坐标测量机(CMM)的测量标准中,叶片的几何精度是由行业定义的几个特定截面来评估的。三坐标测量机的测量基准首先由基准面A和特定截面的高度S来确定。然后,CMM通过逐点接触测量得到叶片轮廓的点云数据。因此,在进行数据采集之前,有必要对传感器和叶片姿态进行精确标定,并建立测量基准。在此基础上,所开发的系统能够准确地获取特定叶片截面的点云数据。同时,可以记录运动参数(即平移轴的线性位移(X/Y)和旋转轴的角度(R))。
本发明实施例提供的深度特征交互网络包括:
为了减少多视场四轴检测系统的几何精度和运动稳定性的影响,本发明将在这一部分中详细阐述所提出的点云精配准算法。以下符号将在本发明中使用。假设本发明表示源点云和目标点云它们是由激光扫描传感器从两个不同的相邻视场收集的。n和m分别表示源点云和目标点云中的点数。对于每一点,其维数为 2。对于点云配准算法,它的目标是恢复X对齐Y的刚性变换[R,T]。
实施例
本发明实施例提出的DFInet总体架构如图3所示。DFInet主要由四个部分组成:局部特征提取模块(LFE)、全局特征提取模块(GFE)、特征交互模块(FI) 和匹配矩阵生成模块(MMG)。在每次迭代i中,源点云X首先通过上一次迭代 i-1中获得的刚性变换[Ri-1,Ti-1]进行转换。然后,局部特征提取模块分别从变换后的源点云X和原始目标点云Y中提取局部特征FlX和FlY。同时,全局特征提取模块从两点云中提取全局特征FgX和FgY,并利用结构相同、共享参数不同的两个附加多层感知机(MLP)分别预测4个参数,即外点参数αl和αg、退火参数βl和βg。提取的特征(FlX、FlY、FgX和FgY)和参数(αl、βl、αg和βg)分别用于计算两个匹配矩阵Ml和Mg。然后,利用注意力机制(AM)融合局部特征空间和全局特征空间的匹配矩阵之间的信息,得到最终的匹配矩阵。最后,从源点云X 和匹配平均点(由匹配矩阵M和目标点云Y生成)得到刚性变换[Ri,Ti],并用于下一次迭代i+1。表1给出了更详细的设置。
表1 DFInet的详细设置
C和K分别代表通道数和k近邻的数,N表示源点云或目标点云中的点数,即n或m。对于Conv1d和Conv2d,核大小均为1×1。
在本发明实施例中,提供的局部特征提取模块包括:
叶片轮廓点云配准是一个局部对局部配准问题。因此,专注于局部几何特征是非常重要的。
本发明实施例首先引入了一个局部特征提取分支,它将被测点云X和Y嵌入到度量特征空间中,以提取向量形式概括的点的局部几何特征。
接着,本发明实施例描述了源点云X的局部特征提取分支。目标点云Y的局部特征提取分支是相同的。由于K-NN在非均匀采样条件下是不具有鲁棒性的,本发明的卷积方法在球半径r邻域空间中使不同密度点云的鲁棒性得到了保证。特别地,对于源点云X中的一个点xi,半径为r的圆以xi这一点为圆心。点xi的邻域可以用半径r来确定。除xi外的圆内点是xi的近邻,其表示为为了有效地计算,任意点的近邻数必须是一致的。如果一个点的邻域内包含的点数目小于k,则将重复一个固定点或随机采样点作为补充。相反,如果一个点的邻域包含的点数目多于k,则随机采样 k个点。在此基础上,本发明首先将每个相邻点的原始坐标输入到一系列全连接层中,如图4所示。在第l层的特征表示为:
其中,fθ:R2→RF是具有一组可学习参数的非线性函数。由于点云排列不变性,本发明使用一个简单的对称函数来汇聚局部几何特征:
其中,是一个最大池化层,它能够将任意数量的无序点和不规则点汇集到一个描述符中,如图4(b)所示。然后,将在第l层两个相邻的点云获得的特征和发送到FI模块进行信息交互。最后,将描述符发送到一维卷积层中,进行l2规范化以获得局部特征向量FlX。
在本发明实施例中,提供的全局特征提取模块包括:
点云独特的几何结构有利于提取突出的特征。然而,点云的全局信息仍未被考虑。为此,本发明引入了全局特征提取分支来补充这部分信息。首先,对于源点云X中的一个点xi,全局特征提取分支从点的坐标中提取点的全局特征,即:
换句话说,本发明不需要定义r-RN空间的,就可以单独提取点的全局特征。除此之外,本发明按照局部特征提取分支进行其余的操作,即FI和l2规范化,就可以获得全局特征向量FgX。
在本发明实施例中,提供的特征交互模块包括:
点云得两两配准是一个局部对局部的问题,这意味着只有从重叠部分中提取的特征才有利于两两配准。因此,加强源点云与目标点云之间的特征交互,可以使设计的网络提取更有效地特征,更好地理解偏好感知。如图5所示,介绍了特征交互模块。
本发明提出了一种新的特征算子,用于在第l层、相邻点云获得的特征和之间交换丰富的信息。在本次操作中,首先最大池化操作应用在特征矩阵的通道轴上,以汇聚特征。聚集的特征随后进行广播操作。最后,将一个点云的广播特征与另一个点云的特征在同一层次上拼接起来。简而言之,在(l+1)层中,源点云X中的特征可以更新为:
其中max(·)表示求最大值,broadcast(a,NZ)表示在通道方向轴上重复a向量NZ次,NZ表示点云Z中的点数。
在本发明实施例中,提供的匹配矩阵生成模块包括:
由于很难找到点之间的一对一的对应关系,本发明提出了一种软分配方法。为了在局部特征和全局特征之间取得平衡,本发明提出了一种新的注意力机制来融合从局部特征空间和全局特征空间获得的匹配矩阵之间的匹配信息。
具体来说,如图3所示。本发明首先对Ml和Mg这两个匹配矩阵执行拼接操作。然后,本发明提取Ml和Mg每一行的最大值。在此基础上,本发明使用Softmax 操作来获得匹配的可信度评分,其中值越高就意味着可信度越高。特别地,本发明定义了操作符。
在本发明实施例中,提供的奇异值分解(SVD)和损失函数包括:
获得匹配矩阵M后,本发明使用它为源点云X中的每个点生成目标点云Y 中的匹配平均点:
在这种情况下,通过最小化以下误差,两两配准问题可以被描述计算其刚性转换:
本发明使用SVD求解方程(8)。在这部分中,本发明只需要解决2×2特征问题,这是使用简单算法很容易解决的问题。在进入下一个迭代i之前,使用 [Ri-1,Ti-1]将源点云X转换到一个新位置。
局部特征提取模块和全局特征提取模块是具有一组可学习参数的神经网络,它们必须在训练阶段进行优化。本发明使用以下损失函数来最小化源点云X 与目标Y点云之间重叠部分的距离:
其中,[Rg,Tg]表示真实的刚性变换,[Rp,Tp]表示预测的刚性变换。
二、实施例相关效果的证据。本发明实施例在研发或者使用过程中取得了一些积极效果,和现有技术相比的确具备很大的优势,下面内容结合试验过程的数据、图表等进行描述。
A.实验设计
为了验证该算法的有效性,本发明对标记数据和测量数据进行了实验。从叶片轮廓的数值模型中获取标记数据,并利用所开发的四轴检测系统,从叶片轮廓的三维实体中获取测量数据。本发明将标记的数据划分为训练集、验证集和测试集。将本发明提出的算法与七种点云配准算法进行了比较,包括三种传统算法:ICP、CPD和TEASER,以及四种基于深度学习的算法:PointNetLK、DCP、 IDAM和ROPNet。由于基于深度学习的算法是数据驱动的,它们首先在训练集上进行训练,然后在验证集上验证。此外,为了保证基于学习的算法在每次训练中的输出稳定,本发明设置了一个随机种子。本发明在测试集上对上述的八种点云配准算法进行了比较,并对叶片轮廓的测量数据重建结果进行了比较。
B.标记数据和测量数据
为了生成标记数据,本发明首先从叶片的数值模型中截取整个目标截面轮廓。然后,在轮廓上取0.02mm间隔的点。本发明在实际测量过程中重叠部分随机截取256个连续点作为源点云X,在X附近偏离±16个点的点云作为目标点云,即目标点云Y包含272个连续点。这样,标记数据就可以从两个相邻的角度模拟真实测量数据的重叠部分。最后,本发明对目标点云Y在任意轴上进行旋转角[-3,3]度、平移[-0.2,0.2]mm的随机变换。重复上述操作,共获得72000 个样本,其中48000个样本作为训练集,12000个样本作为验证集,其余样本作为测试集。
对于实际测量数据,首先通过标定的四轴检测系统获取目标截面的多个原始视场。这些视场应该包含目标截面的整个截面,相邻的视场重叠部分也应该超过(272*0.02)mm。然后对整个截面数据进行粗配准。对原始视场数据进行插值,并在0.02mm间隔内取点,得到新的视场数据。最后,本发明将新的相邻视场的重叠部分作为源点云X和目标点云Y。通过算法在新视场数据下得到的刚性变换应用于原始视场数据,得到完整的轮廓。
C.测试集上的方法比较
首先,本发明在标记数据的测试集上进行实验。所有算法都运行在带有 Inteli7-6700K CPU、NVIDIA GTX 1080 GPU和32G内存的台式计算机上。本发明引入了均方误差(MSE)和平均绝对误差(MAE)来表示预测的刚性变换与真实的刚性变换之间的差异。如表2所示,本发明所提算法的MSE和MAE均小于其他算法。这表明,与其他算法相比,本算法具有更高的配准性能。另外,通过分析该算法的计算时间,虽然本发明的算法比DCP算法慢一些,但还是验证了本算法的效率。
表2在测试集上的实验结果
D.叶片轮廓重构的结果
考虑到标记数据和实际应用场景之间的差异,本发明对实际测量数据的重建结果进行了比较。为了保证实验的可靠性,本发明选取了三种不同的叶片作为实验对象。如图6所示,工业上这些叶片定义的三个目标截面被标记为灰线。
本发明以叶片1的截面1为例,展示相邻视场中重叠部分的精配准。如图7(a)所示,检测系统获得了包含截面1全部轮廓的三个视场,VAB表示视场A与视场B的重叠部分。由于激光器X轴的固定分辨率,同一部分的不同视场(VAB和VBA)点密度是不同的。图7(b)显示了整个截面的点云粗配准结果。由于开发的多视场系统的几何精度和运动稳定性的误差的存在,在一定程度上会造成了重叠部分的配准误差。本发明根据第B节截取相邻视场中突出特征的重叠部分,生成测量数据样本,并按点云配准算法完成精配准,如图7(c)所示。
由于CMM是当前一种专业的、高精度的接触式检测方法,因此本发明以CMM 的检测结果作为重构的参考结果。将八种算法的重构结果与参考结果进行匹配,并进行偏差比较。由于页面限制,本发明只显示每个叶片截面1的偏差比较结果,如图8所示。明显地,DFInet的偏差小于其他方法。为了定量比较本方法与三坐标测量机(CMM)的测量结果之间的偏差程度,如表3所示,本发明将偏差的均值、标准差、偏差范围和均方根值(RMS)作为四种评价指标。如表3所示,本发明提出的算法性能几乎最好,并且比其他算法更强。
此外,ICP在某些情况下也表现出良好的性能。这是因为在对整个轮廓数据进行粗配准后,采集到的数据具有良好的初始位置。然而,ICP采用的是一种一对一的对应搜索策略,并且容易陷入局部最小值。对于CPD,虽然它可以点的对应关系进行软分配,但忽略了点云的特征。对于TEASER、PointNetLK、DCP、IDAM 和ROPNet,它们都是基于特征的算法。它们只关注点云的局部特征或全局特征,没有将源点云和目标点云之间的信息进行交互起来。因此,对于具有薄壁、扭曲曲面的叶片,它们不能有效地提取特征。
表3该方法的测量结果与CMM的测量值比较的偏差
最佳结果以粗体显示,次佳结果以粗体和下划线显示。
E.消融实验
在这一部分中,本发明在标记数据上进行了消融实验,以验证本发明提出的DFInet中各部分的重要性。消融研究用于测试四个主要部分,即是否进行LFE、 GFE、FI和AM的操作。实验结果如表4所示,“√”表示要进行的操作。模型1 和2表明,当只使用LFE或GFE时,配准性能并不能令人满意。模型3和模型4 表明,FI在特征提取过程中为源点云和目标点云之间的信息交互,提高了配准性能。模型5和模型7表明,LFE和GFE的特征相互补充,这也可以提高配准性能。另外,AM融合了从局部特征空间和全局特征空间获得的匹配矩阵之间的信息,从而在局部特征和全局特征之间取得了平衡,进一步提高了配准性能。总之,以上分析证明了DFInet各部分的有效性。
表4在测试集上进行的消融实验
应当注意,本发明的实施方式可以通过硬件、软件或者软件和硬件的结合来实现。硬件部分可以利用专用逻辑来实现;软件部分可以存储在存储器中,由适当的指令执行系统,例如微处理器或者专用设计硬件来执行。本领域的普通技术人员可以理解上述的设备和方法可以使用计算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、CD或DVD-ROM的载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据载体上提供了这样的代码。本发明的设备及其模块可以由诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用由各种类型的处理器执行的软件实现,也可以由上述硬件电路和软件的结合例如固件来实现。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,凡在本发明的精神和原则之内所做的任何修改、等同替换和改进等,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种点云配准的叶片轮廓光学检测方法,其特征在于,所述点云配准的叶片轮廓光学检测方法包括:构建用于多视场数据精配准的深度特征交互网络,在所述深度特征交互网络中利用双分支结构整合全局特征和局部特征并进行点云特征编码;利用特征交互模块在特征提取过程中增强源点云与目标点云之间的信息关联;利用注意力机制融合基于全局特征和局部特征的两个匹配矩阵之间的匹配信息。
2.如权利要求1所述的点云配准的叶片轮廓光学检测方法,其特征在于,所述点云配准的叶片轮廓光学检测方法包括以下步骤:
步骤一,在每次迭代i中,源点云X通过上一次迭代i-1中获得的刚性变换[Ri-1,Ti-1]进行转换;局部特征提取模块分别从变换后的源点云X和原始目标点云Y中提取局部特征FlX和FlY;
步骤二,全局特征提取模块从两点云中提取全局特征FgX和FgY,并利用结构相同、共享参数不同的两个附加多层感知机分别预测4个参数;其中,所述参数包括外点参数αl和αg、退火参数βl和βg;
步骤三,提取的特征FlX、FlY、FgX、FgY和参数αl、βl、αg、βg分别用于计算两个匹配矩阵Ml和Mg;利用注意力机制融合局部特征空间和全局特征空间的匹配矩阵之间的信息,得到最终的匹配矩阵M;
3.如权利要求2所述的点云配准的叶片轮廓光学检测方法,其特征在于,所述步骤一中的局部特征提取包括:
引入局部特征提取分支,并将点云X和Y嵌入到度量特征空间中,用于提取向量形式概括的点的局部几何特征;
对于源点云X中的一个点xi,半径为r的圆以xi点为圆心;点xi的邻域用半径r确定;除xi外的圆内点是xi的近邻,表示为 如果一个点的邻域内包含的点数目小于k,则将重复一个固定点或随机采样点作为补充;如果一个点的邻域包含的点数目多于k,则随机采样k个点;将每个相邻点的原始坐标输入到一系列全连接层中,在第l层的特征表示为:
其中,fθ:R2→RF是具有一组可学习参数的非线性函数;由于点云排列不变性,使用对称函数汇聚局部几何特征:
4.如权利要求2所述的点云配准的叶片轮廓光学检测方法,其特征在于,所述步骤二中的全局特征提取包括:
引入全局特征提取分支,对于源点云X中的一个点xi,全局特征提取分支从点的坐标中提取点的全局特征:
按照局部特征提取分支进行FI和l2规范化,获得全局特征向量FgX;
提出新的特征算子,用于在第l层、相邻点云获得的特征和之间交换丰富的信息;最大池化操作应用在特征矩阵的通道轴上,用于汇聚特征;聚集的特征随后进行广播操作;将一个点云的广播特征与另一个点云的特征在同一层次上进行拼接;在(l+1)层中,源点云X中的特征更新为:
其中,max(·)表示求最大值,broadcast(a,NZ)表示在通道方向轴上重复a向量NZ次,NZ表示点云Z中的点数。
7.一种应用如权利要求1~6任意一项所述的点云配准的叶片轮廓光学检测方法的点云配准的叶片轮廓光学检测系统,其特征在于,所述点云配准的叶片轮廓光学检测系统由三个平移轴X/Y/Z和一个旋转轴R组成,用于获取特定叶片截面的点云数据,同时记录运动参数,包括平移轴的线性位移X/Y和旋转轴的角度R。
8.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行权利要求1~6任意一项所述的点云配准的叶片轮廓光学检测方法。
9.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行权利要求1~6任意一项所述的点云配准的叶片轮廓光学检测方法。
10.一种信息数据处理终端,其特征在于,所述信息数据处理终端用于实现如权利要求7所述的点云配准的叶片轮廓光学检测系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210900026.6A CN115578408A (zh) | 2022-07-28 | 2022-07-28 | 点云配准的叶片轮廓光学检测方法、系统、设备及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210900026.6A CN115578408A (zh) | 2022-07-28 | 2022-07-28 | 点云配准的叶片轮廓光学检测方法、系统、设备及终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115578408A true CN115578408A (zh) | 2023-01-06 |
Family
ID=84580113
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210900026.6A Pending CN115578408A (zh) | 2022-07-28 | 2022-07-28 | 点云配准的叶片轮廓光学检测方法、系统、设备及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115578408A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116401794A (zh) * | 2023-06-09 | 2023-07-07 | 四川大学 | 基于注意力引导的深度点云配准的叶片三维精确重建方法 |
CN116434221A (zh) * | 2023-06-13 | 2023-07-14 | 中科航迈数控软件(深圳)有限公司 | 工件形状识别方法、装置、终端设备以及计算机存储介质 |
CN116580069A (zh) * | 2023-07-12 | 2023-08-11 | 四川大学 | 一种由粗到精的叶片型面多视场数据配准方法 |
CN116664645A (zh) * | 2023-07-28 | 2023-08-29 | 之江实验室 | 一种点云匹配方法、装置、电子装置和存储介质 |
CN117475170A (zh) * | 2023-12-22 | 2024-01-30 | 南京理工大学 | 基于fpp的由局部到全局结构引导的高精度点云配准方法 |
CN117726673A (zh) * | 2024-02-07 | 2024-03-19 | 法奥意威(苏州)机器人系统有限公司 | 焊缝位置获得方法、装置及电子设备 |
CN118279363A (zh) * | 2024-05-29 | 2024-07-02 | 西北工业大学 | 薄壁复杂构件在线测量点云的处理及质量评估方法 |
CN118447205A (zh) * | 2024-07-08 | 2024-08-06 | 四川大学 | 基于深度学习的航发叶片多视场点云型线数据拼合方法 |
-
2022
- 2022-07-28 CN CN202210900026.6A patent/CN115578408A/zh active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116401794A (zh) * | 2023-06-09 | 2023-07-07 | 四川大学 | 基于注意力引导的深度点云配准的叶片三维精确重建方法 |
CN116401794B (zh) * | 2023-06-09 | 2023-08-15 | 四川大学 | 基于注意力引导的深度点云配准的叶片三维精确重建方法 |
CN116434221B (zh) * | 2023-06-13 | 2023-09-01 | 中科航迈数控软件(深圳)有限公司 | 工件形状识别方法、装置、终端设备以及计算机存储介质 |
CN116434221A (zh) * | 2023-06-13 | 2023-07-14 | 中科航迈数控软件(深圳)有限公司 | 工件形状识别方法、装置、终端设备以及计算机存储介质 |
CN116580069B (zh) * | 2023-07-12 | 2023-09-19 | 四川大学 | 一种由粗到精的叶片型面多视场数据配准方法 |
CN116580069A (zh) * | 2023-07-12 | 2023-08-11 | 四川大学 | 一种由粗到精的叶片型面多视场数据配准方法 |
CN116664645A (zh) * | 2023-07-28 | 2023-08-29 | 之江实验室 | 一种点云匹配方法、装置、电子装置和存储介质 |
CN116664645B (zh) * | 2023-07-28 | 2023-10-20 | 之江实验室 | 一种点云匹配方法、装置、电子装置和存储介质 |
CN117475170A (zh) * | 2023-12-22 | 2024-01-30 | 南京理工大学 | 基于fpp的由局部到全局结构引导的高精度点云配准方法 |
CN117475170B (zh) * | 2023-12-22 | 2024-03-22 | 南京理工大学 | 基于fpp的由局部到全局结构引导的高精度点云配准方法 |
CN117726673A (zh) * | 2024-02-07 | 2024-03-19 | 法奥意威(苏州)机器人系统有限公司 | 焊缝位置获得方法、装置及电子设备 |
CN117726673B (zh) * | 2024-02-07 | 2024-05-24 | 法奥意威(苏州)机器人系统有限公司 | 焊缝位置获得方法、装置及电子设备 |
CN118279363A (zh) * | 2024-05-29 | 2024-07-02 | 西北工业大学 | 薄壁复杂构件在线测量点云的处理及质量评估方法 |
CN118447205A (zh) * | 2024-07-08 | 2024-08-06 | 四川大学 | 基于深度学习的航发叶片多视场点云型线数据拼合方法 |
CN118447205B (zh) * | 2024-07-08 | 2024-09-24 | 四川大学 | 基于深度学习的航发叶片多视场点云型线数据拼合方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115578408A (zh) | 点云配准的叶片轮廓光学检测方法、系统、设备及终端 | |
Gao et al. | PRS-Net: Planar reflective symmetry detection net for 3D models | |
CN108764048A (zh) | 人脸关键点检测方法及装置 | |
US11727584B2 (en) | Shape supplementation device, shape supplementation learning device, method, and program | |
CN111145227B (zh) | 一种地下隧道空间多视点云的可迭代整体配准方法 | |
CN116401794B (zh) | 基于注意力引导的深度点云配准的叶片三维精确重建方法 | |
Yin et al. | Deep feature interaction network for point cloud registration, with applications to optical measurement of blade profiles | |
CN113223068A (zh) | 一种基于深度全局特征的多模态图像配准方法及系统 | |
CN104899852A (zh) | 一种基于遗传算法及支持向量机的微小颗粒检测系统标定方法 | |
CN114626470A (zh) | 基于多类型几何特征算子的飞机蒙皮关键特征检测方法 | |
Xu et al. | GLORN: Strong generalization fully convolutional network for low-overlap point cloud registration | |
Li et al. | Differential evolution algorithm-based range image registration for free-form surface parts quality inspection | |
Hou et al. | A pointer meter reading recognition method based on YOLOX and semantic segmentation technology | |
Gao et al. | Vision‐based fatigue crack automatic perception and geometric updating of finite element model for welded joint in steel structures | |
Guo et al. | Machine vision-based intelligent manufacturing using a novel dual-template matching: a case study for lithium battery positioning | |
Qin et al. | Optical measurement and 3D reconstruction of blade profiles with attention-guided deep point cloud registration network | |
Sa et al. | Depth grid-based local description for 3D point clouds | |
US20230104839A1 (en) | Partial planar point cloud matching using machine learning with applications in biometric systems | |
CN112990373B (zh) | 基于多尺度特征融合的卷积孪生点网络叶片轮廓拼接系统 | |
CN115311553A (zh) | 目标检测方法、装置、电子设备及存储介质 | |
Du et al. | Grid-based matching for full-field large-area deformation measurement | |
CN112991187A (zh) | 基于多空间相似度的卷积双胞胎点网络叶片轮廓拼接系统 | |
Sun et al. | Automatic Meter Pointer Reading Based on Knowledge Distillation | |
CN118334094B (zh) | 一种基于三维点云的模型配准方法 | |
CN118196033B (zh) | 基于机器视觉融合的非接触高精密测量方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |