CN117710304A - 一种轨道磨耗测量方法、装置、介质及设备 - Google Patents
一种轨道磨耗测量方法、装置、介质及设备 Download PDFInfo
- Publication number
- CN117710304A CN117710304A CN202311697947.8A CN202311697947A CN117710304A CN 117710304 A CN117710304 A CN 117710304A CN 202311697947 A CN202311697947 A CN 202311697947A CN 117710304 A CN117710304 A CN 117710304A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- cloud data
- track
- contour
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005299 abrasion Methods 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000005259 measurement Methods 0.000 claims abstract description 43
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 36
- 230000011218 segmentation Effects 0.000 claims description 35
- 238000012549 training Methods 0.000 claims description 20
- 238000000691 measurement method Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 7
- 238000003860 storage Methods 0.000 claims description 6
- 238000012795 verification Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims description 4
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 230000002776 aggregation Effects 0.000 claims description 3
- 238000004220 aggregation Methods 0.000 claims description 3
- 238000009826 distribution Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 5
- 229910000831 Steel Inorganic materials 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 210000001624 hip Anatomy 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 239000010959 steel Substances 0.000 description 4
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000012535 impurity Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B61—RAILWAYS
- B61K—AUXILIARY EQUIPMENT SPECIALLY ADAPTED FOR RAILWAYS, NOT OTHERWISE PROVIDED FOR
- B61K9/00—Railway vehicle profile gauges; Detecting or indicating overheating of components; Apparatus on locomotives or cars to indicate bad track sections; General design of track recording vehicles
- B61K9/08—Measuring installations for surveying permanent way
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Mechanical Engineering (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种轨道磨耗测量方法、装置、介质及设备,方法包括:获取待测轨道的点云数据和标准轨道的点云数据;待测轨道的点云数据包括第一轮廓点云数据和第二轮廓点云数据;将轮廓点云数据输入预先训练的PointNet++网络,得到轨腰点云数据;从标准轨道的点云数据中选取一个标准点,利用ICP算法进行点云配准,得到标准点的第一对应点和第二对应点;基于第一对应点和第二对应点创建投影平面,轮廓点云数据投影到投影平面,得到投影轨道的点云数据;将标准轨道的点云数据和投影轨道的点云数据进行ICP算法配准,得到待测轨道磨耗的测量结果。本发明能够得到轨道磨耗的测量值,提高了轨道测量的稳定性和准确性。
Description
技术领域
本发明涉及一种轨道磨耗测量方法、装置、介质及设备,属于轨道磨耗检测技术领域。
背景技术
随着我国经济的高速发展,物流运输的需求日益增加,对运输列车的需求也同比增长,承载列车的轨道的磨耗也逐渐加剧,对轨道磨耗量的检测需求也日益增加,快速而精确的测量出轨道的磨耗量是十分重要。
目前,由于深度学习技术的飞速发展,尤其是在部件分割和场景分割的工作中,其稳定性好、分割效率高、分割精度高、对环境的适应性更强,深度学习技术在轨道交通行业得到广泛的应用。
近年来深度学习技术在钢轨磨损测量上的应用方案逐年递增,但是常规的方法,通过结构光产生轨道点云数据,利用半径值滤波(Radius Filter)算法去噪、直通滤波(Pass Through)算法获取轨腰,采用迭代最近点(Iterative Closet Point)算法对轨腰进行配准,从而实现对钢轨的轨头磨损量进行测量。
由于轨道所处环境为自然光环境,结构光相机采集到的点云数据杂质较多,点云数据的背景复杂,容易导致数据的稳定性不好;且会导致在轨道的轨腰和轨头部分所分割数据的不稳定,造成迭代最近点(Iterative Closet Point)算法对轨腰的配准不准确,另外由于点云数据的背景中存在弹条、螺钉和螺母等干扰,导致轨道数据分割难度增加,轨腰的迭代最近点(Iterative Closet Point)算法稳定性降低,会导致轨头的磨损测量误差增大;同样,当采集设备存在抖动或者激光器存在倾斜的情况,生成的轨道点云数据存在变形,直通滤波(Pass Through)算法提取的轨腰目标区域发生改变,导致轨腰的迭代最近点(Iterative Closet Point)算法失效,最终导致轨头的磨损测量结果不准确,无法满足轨道磨损检测的测量要求。
发明内容
本发明的目的在于克服现有技术中的不足,提供一种轨道磨耗测量方法、装置、介质及设备,解决了现有技术中存在的轨道分割稳定性差、轨道磨耗测量精度低的问题,能够得到轨道磨耗的测量值,提高了轨道测量的稳定性和准确性。为达到上述目的,本发明是采用下述技术方案实现的:
第一方面,本发明提供了一种轨道磨耗测量方法,包括:
获取待测轨道的点云数据和标准轨道的点云数据;其中,待测轨道的点云数据包括第一道激光线生成的第一轮廓点云数据和第二道激光线生成的第二轮廓点云数据;
将第一轮廓点云数据和第二轮廓点云数据分别输入预先训练的PointNet++网络,得到第一轮廓轨腰点云数据和第二轮廓轨腰点云数据;
从标准轨道的点云数据中选取一个标准点,利用ICP算法对标准轨道的点云数据中的标准轨腰点云数据与第一轮廓轨腰点云数据、第二轮廓轨腰点云数据进行点云配准,在第一轮廓轨腰点云数据和第二轮廓轨腰点云数据中分别得到标准点的第一对应点和第二对应点;基于标准点的第一对应点和第二对应点创建投影平面,将第一轮廓点云数据和第二轮廓点云数据投影到投影平面,得到投影轨道的点云数据;
将标准轨道的点云数据和投影轨道的点云数据进行ICP算法配准,得到待测轨道磨耗的测量结果。
结合第一方面,可选地,所述预先训练的PointNet++网络,通过以下步骤训练:
获取现场轨道的点云数据;
利用语义分割标签对生成的轨道的点云数据进行分类标注,轨腰点云数据的语义分割标签的标签值为“1”,其余部分的语义分割标签的标签值为“0”,得到用于训练PointNet++网络的点云数据集;
将点云数据集划分为训练集、验证集和测试集;
将训练集输入预先建立的PointNet++网络,对预先建立的PointNet++网络进行训练,得到预先训练PointNet++网络,所述预先训练PointNet++网络学习轨腰的分布特征,设置损失函数的参数,输出权重文件;
将验证集和测试集分别输入预先训练PointNet++网络,对预先训练PointNet++网络输出的权重文件进行优化和评估,得到轨道基于PointNet++网络的权重文件,所述轨道基于PointNet++网络的权重文件用于在待测轨道的点云数据输入预先训练PointNet++网络时,基于所述轨道基于PointNet++网络的权重文件中每个点的权重,输出轨腰点云数据。
结合第一方面,可选地,获取轨道的点云数据,包括:
利用设于轨道前后的两个激光器,得到轨道的第一激光平面的数据和第二激光平面的数据;
利用设于轨道上方的相机,得到轨道的实时图像;
采用张正友标定法对相机的内外参数标定,进行结构光标定获取到相机坐标系下的结构光平面方程;
将第一激光平面的数据和第二激光平面的数据转换到到相机坐标系中,生成轨道的点云数据,所述轨道的点云数据包括两个激光器的激光线生成的第一轮廓点云数据和第二轮廓点云数据。
结合第一方面,可选地,所述预先建立的PointNet++网络,包括以下模块:
采样操作模块:用于通过随机采样或者均匀采样的方式,将原始的点云数据集降采样到一个较小的子集上;
提取特征模块:由点云特征网络和局部特征网络组成,用于从点云数据集中提取局部特征和全局特征;
层次特征编码模块:用于利用递归层次结构,将局部特征和全局特征进行编码整合;
聚合模块:用于将多个层次特征编码模块的输出进行聚合,得到整个点云的全局特征表达;
分割模块:用于将轨腰点云数据从原始数据中分割出来。
结合第一方面,可选地,所述预先建立的PointNet++网络的损失函数,通过下式表示:
L_seg=-∑(y_seg*log(y_pred_seg))/N_seg (1)
式(1)中,L_seg为PointNet++网络的损失函数,y_seg为真实的语义分割标签的标签值,y_pred_seg为预测的语义分割标签的标签值,N_seg为点云中的点数。
结合第一方面,可选地,所述将标准轨道的点云数据和投影轨道的点云数据进行ICP算法配准,得到轨道磨耗的测量结果,包括:
将标准轨道的点云数据和投影轨道的点云数据进行迭代ICP算法配准,得到点云对;
测量轨头上方的点云对中点云之间的距离,得到轨头上方磨耗的测量结果;测量轨头内侧的点云对中点云之间的距离,得到轨头上方磨耗的测量结果;
根据轨头上方磨耗的测量结果和轨头上方磨耗的测量结果,得到轨道磨耗的测量结果。
结合第一方面,可选地,所述点云对中点云之间的距离,通过下式计算:
式(2)中,d为点云对中点云之间的距离,P1(x1,y1,z1)为点云对中标准轨道中的点云的坐标,P2(x2,y2,z2)为点云对中投影轨道中的点云的坐标。
第二方面,本发明提供了一种轨道磨耗测量装置,包括:
获取模块:用于获取待测轨道的点云数据和标准轨道的点云数据;其中,待测轨道的点云数据包括第一道激光线生成的第一轮廓点云数据和第二道激光线生成的第二轮廓点云数据;
轨腰分割模块:用于将第一轮廓点云数据和第二轮廓点云数据分别输入预先训练的PointNet++网络,得到第一轮廓轨腰点云数据和第二轮廓轨腰点云数据;
轮廓矫正模块:用于从标准轨道的点云数据中选取一个标准点,利用ICP算法对标准轨道的点云数据中的标准轨腰点云数据与第一轮廓轨腰点云数据、第二轮廓轨腰点云数据进行点云配准,在第一轮廓轨腰点云数据和第二轮廓轨腰点云数据中分别得到标准点的第一对应点和第二对应点;基于标准点的第一对应点和第二对应点创建投影平面,将第一轮廓点云数据和第二轮廓点云数据投影到投影平面,得到投影轨道的点云数据;
输出模块:用于将标准轨道的点云数据和投影轨道的点云数据进行ICP算法配准,得到待测轨道磨耗的测量结果。
第三方面,本发明提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时,实现如第一方面所述的面向算法交易的绩效归因计算方法。
第四方面,本发明提供了一种设备,包括:
存储器,用于存储指令;
处理器,用于执行所述指令,使得所述设备执行实现如第一方面所述的面向算法交易的绩效归因计算方法的操作。
与现有技术相比,本发明实施例所提供的一种轨道磨耗测量方法、装置、介质及设备所达到的有益效果包括:
本发明获取待测轨道的点云数据和标准轨道的点云数据;待测轨道的点云数据包括第一道激光线生成的第一轮廓点云数据和第二道激光线生成的第二轮廓点云数据;将第一轮廓点云数据和第二轮廓点云数据分别输入预先训练的PointNet++网络,得到第一轮廓轨腰点云数据和第二轮廓轨腰点云数据;本发明通过预先训练的PointNet++网络,得到分割后的轨腰点云数据,提高了将轨道从复杂背景中分割的稳定性和准确性,提高了轨道分割的稳定性和环境的适应性;本发明通过深度学习的方法对轨道点云数据的提取,不仅提高了轨道的分割精度,同时也提高了钢轨磨耗测量算法对不同工况的适应性;
本发明通过第一轮廓点云数据和第二轮廓点云数据创建投影平面,将发生变形的点云数据进行轮廓矫正,解决了因采集设备存在抖动或者激光器存在倾斜的情况,生成的轨道点云数据存在变形的问题,提高了轨道磨耗测量精度;
本发明对矫正后的投影轨道和模板轨道进行匹配,然后得到钢轨磨耗的测量值,提高了轨道测量的稳定性和准确性;
本发明通过两次对标准轨道点云数据和轨道点云数据进行ICP算法配准,提高了轨道磨耗测量的精度。
附图说明
图1是本发明实施例一提供的一种轨道磨耗测量方法的流程图;
图2是本发明实施例一提供的一种轨道磨耗测量方法中获取轨道的点云数据的装置的示意图;
图3是本发明实施例一提供的一种轨道磨耗测量方法中预先训练的PointNet++网络分割得到轨腰点云数据的分割结果图。
图4是本发明实施例一提供的一种轨道磨耗测量方法中投影轨道的投影平面结果图;
图5是本发明实施例一提供的一种轨道磨耗测量方法中轨道磨耗匹配结果图。
图中:1、第一激光器;2、第二激光器;3、相机;4、轨道。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
实施例一:
如图1所示,本实施例提供了一种轨道磨耗测量方法,包括:
获取待测轨道的点云数据和标准轨道的点云数据;其中,待测轨道的点云数据包括第一道激光线生成的第一轮廓点云数据和第二道激光线生成的第二轮廓点云数据;
将第一轮廓点云数据和第二轮廓点云数据分别输入预先训练的PointNet++网络,得到第一轮廓轨腰点云数据和第二轮廓轨腰点云数据;
从标准轨道的点云数据中选取一个标准点,利用ICP算法对标准轨道的点云数据中的标准轨腰点云数据与第一轮廓轨腰点云数据、第二轮廓轨腰点云数据进行点云配准,在第一轮廓轨腰点云数据和第二轮廓轨腰点云数据中分别得到标准点的第一对应点和第二对应点;基于标准点的第一对应点和第二对应点创建投影平面,将第一轮廓点云数据和第二轮廓点云数据投影到投影平面,得到投影轨道的点云数据;
将标准轨道的点云数据和投影轨道的点云数据进行ICP算法配准,得到待测轨道磨耗的测量结果。
其中预先训练的PointNet++网络,通过以下步骤训练:
步骤1:获取现场轨道的点云数据。
利用如图2所示的获取轨道的点云数据的装置,在轨道的一前一后设置两个激光器,两个激光器扥别发射第一道激光线和第二道激光线。轨道上方设置相机。
步骤1.1:利用设于轨道前后的两个激光器,得到轨道的第一激光平面的数据和第二激光平面的数据。
步骤1.2:利用设于轨道上方的相机,得到轨道的实时图像。
在本实施例中,相机的帧率为60fps。
步骤1.3:采用张正友标定法对相机的内外参数标定,进行结构光标定获取到相机坐标系下的结构光平面方程。
步骤1.4:将第一激光平面的数据和第二激光平面的数据转换到到相机坐标系中,生成轨道的点云数据,所述轨道的点云数据包括第一道激光线生成的第一轮廓点云数据和第二道激光线生成的第二轮廓点云数据。
优选地,针对采集的点云数据进行筛选、分割、标注等预处理操作,形成轨道磨耗测量的点云数据集。
步骤2:利用语义分割标签对生成的轨道的点云数据进行分类标注,轨腰点云数据的语义分割标签的标签值为“1”,其余部分的语义分割标签的标签值为“0”,得到用于训练PointNet++网络的点云数据集。
本实施例中,采用labelcloud工具对轨道的点云数据进行标注工作,生成标签文件和原始点云数据。
步骤3:将点云数据集划分为训练集、验证集和测试集。
在本实施例中,点云数据集共3000个点云数据,按照7:2:1的比例划分为训练集、验证集和测试集。
步骤4:将训练集输入预先建立的PointNet++网络,对预先建立的PointNet++网络进行训练,得到预先训练PointNet++网络。所述预先训练PointNet++网络学习轨腰的分布特征,设置损失函数的参数,输出权重文件。
具体的,预先建立的PointNet++网络,包括以下模块:
采样操作模块:用于通过随机采样或者均匀采样的方式,将原始的点云数据集降采样到一个较小的子集上;
提取特征模块:由点云特征网络和局部特征网络组成,用于从点云数据集中提取局部特征和全局特征;
层次特征编码模块:用于利用递归层次结构,将局部特征和全局特征进行编码整合;
聚合模块:用于将多个层次特征编码模块的输出进行聚合,得到整个点云的全局特征表达;
分割模块:用于将轨腰点云数据从原始数据中分割出来。
具体的,预先建立的PointNet++网络的损失函数,通过下式表示:
L_seg=-∑(y_seg*log(y_pred_seg))/N_seg (1)
式(1)中,L_seg为PointNet++网络的损失函数,y_seg为真实的语义分割标签的标签值,y_pred_seg为预测的语义分割标签的标签值,N_seg为点云中的点数。
步骤5:将验证集和测试集分别输入预先训练PointNet++网络,对预先训练PointNet++网络输出的权重文件进行优化和评估,得到轨道基于PointNet++网络的权重文件。所述轨道基于PointNet++网络的权重文件用于在待测轨道的点云数据输入预先训练PointNet++网络时,基于所述轨道基于PointNet++网络的权重文件中每个点的权重,输出轨腰点云数据。
本实施例预先训练的PointNet++网络,得到分割后的轨腰点云数据,提高了将轨道从复杂背景中分割的稳定性和准确性,提高了轨道分割的稳定性和环境的适应性。
本实施例通过深度学习的方法对轨道点云数据的提取,不仅提高了轨道的分割精度,同时也提高了钢轨磨耗测量算法对不同工况的适应性。
如图1所示的一种轨道磨耗测量方法具体步骤包括:
步骤1:获取待测轨道的点云数据和标准轨道的点云数据。
利用如图2所示的获取轨道的点云数据的装置,在轨道的一前一后设置两个激光器,两个激光器扥别发射第一道激光线和第二道激光线。轨道上方设置相机。
步骤1.1:利用设于轨道前后的两个激光器,得到轨道的第一激光平面的数据和第二激光平面的数据。
步骤1.2:利用设于轨道上方的相机,得到轨道的实时图像。
步骤1.3:采用张正友标定法对相机的内外参数标定,进行结构光标定获取到相机坐标系下的结构光平面方程。
步骤1.4:将第一激光平面的数据和第二激光平面的数据转换到到相机坐标系中,生成轨道的点云数据,所述轨道的点云数据包括第一道激光线生成的第一轮廓点云数据和第二道激光线生成的第二轮廓点云数据。
步骤2:将第一轮廓点云数据和第二轮廓点云数据分别输入预先训练的PointNet++网络,得到第一轮廓轨腰点云数据和第二轮廓轨腰点云数据。
利用预先训练的PointNet++网络的分割模块将轨腰点云数据从点云数据中分割出来,得到如图3所示的轨腰点云数据的分割结果图,图中分别为第一轮廓轨腰点云数据和第二轮廓轨腰点云数据。
步骤3.1:从标准轨道的点云数据中选取一个标准点。
在本实施例中,在PCL库中进行选取一个标准点,选取标准轨道的轨腰的曲率变化最大的点作为标准点。
步骤3.2:利用ICP算法对标准轨道的点云数据中的标准轨腰点云数据与第一轮廓轨腰点云数据、第二轮廓轨腰点云数据进行点云配准,在第一轮廓轨腰点云数据和第二轮廓轨腰点云数据中分别得到标准点的第一对应点和第二对应点。
步骤3.3:基于标准点的第一对应点和第二对应点创建投影平面,将第一轮廓点云数据和第二轮廓点云数据投影到投影平面,如图4所示,得到投影轨道的点云数据。
在本实施例中,创建的投影平面垂直于第一对应点和第二对应点的连线。
本实施例中,在PCL库采用投影滤波(Project Inliers)算法实现将第一轮廓点云数据和第二轮廓点云数据投影到投影平面。
本实施例通过第一轮廓点云数据和第二轮廓点云数据创建投影平面,将发生变形的点云数据进行轮廓矫正,解决了因采集设备存在抖动或者激光器存在倾斜的情况,生成的轨道点云数据存在变形的问题,提高了轨道磨耗测量精度。
步骤4:将标准轨道的点云数据和投影轨道的点云数据进行ICP算法配准,得到待测轨道磨耗的测量结果。
步骤4.1:将标准轨道的点云数据和投影轨道的点云数据进行迭代ICP算法配准,得到点云对。
本实施例中,在PCL库中进行迭代ICP算法配准,配准结果如图5所示。
本实施例对矫正后的投影轨道和模板轨道进行匹配,然后得到钢轨磨耗的测量值,提高了轨道测量的稳定性和准确性。
步骤4.2:测量轨头上方的点云对中点云之间的距离,得到轨头上方磨耗的测量结果;测量轨头内侧的点云对中点云之间的距离,得到轨头上方磨耗的测量结果;
具体的,点云对中点云之间的距离,通过下式计算:
式(2)中,d为点云对中点云之间的距离,P1(x1,y1,z1)为点云对中标准轨道中的点云的坐标,P2(x2,y2,z2)为点云对中投影轨道中的点云的坐标。
步骤4.3:根据轨头上方磨耗的测量结果和轨头上方磨耗的测量结果,得到轨道磨耗的测量结果。
本发明实施例通过两次对标准轨道点云数据和轨道点云数据进行ICP算法配准,提高了轨道磨耗测量的精度。
实施例二:
本发明实施例提供一种轨道磨耗测量装置,包括:
获取模块:用于获取待测轨道的点云数据和标准轨道的点云数据;其中,待测轨道的点云数据包括第一道激光线生成的第一轮廓点云数据和第二道激光线生成的第二轮廓点云数据;
轨腰分割模块:用于将第一轮廓点云数据和第二轮廓点云数据分别输入预先训练的PointNet++网络,得到第一轮廓轨腰点云数据和第二轮廓轨腰点云数据;
轮廓矫正模块:用于从标准轨道的点云数据中选取一个标准点,利用ICP算法对标准轨道的点云数据中的标准轨腰点云数据与第一轮廓轨腰点云数据、第二轮廓轨腰点云数据进行点云配准,在第一轮廓轨腰点云数据和第二轮廓轨腰点云数据中分别得到标准点的第一对应点和第二对应点;基于标准点的第一对应点和第二对应点创建投影平面,将第一轮廓点云数据和第二轮廓点云数据投影到投影平面,得到投影轨道的点云数据;
输出模块:用于将标准轨道的点云数据和投影轨道的点云数据进行ICP算法配准,得到待测轨道磨耗的测量结果。
实施例三:
本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时,实现如实施例一所述的面向算法交易的绩效归因计算方法。
实施例四:
本发明实施例还提供一种设备,包括:
存储器,用于存储指令;
处理器,用于执行所述指令,使得所述设备执行实现如实施例一所述的面向算法交易的绩效归因计算方法的操作。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (10)
1.一种轨道磨耗测量方法,其特征在于,包括:
获取待测轨道的点云数据和标准轨道的点云数据;其中,待测轨道的点云数据包括第一道激光线生成的第一轮廓点云数据和第二道激光线生成的第二轮廓点云数据;
将第一轮廓点云数据和第二轮廓点云数据分别输入预先训练的PointNet++网络,得到第一轮廓轨腰点云数据和第二轮廓轨腰点云数据;
从标准轨道的点云数据中选取一个标准点,利用ICP算法对标准轨道的点云数据中的标准轨腰点云数据与第一轮廓轨腰点云数据、第二轮廓轨腰点云数据进行点云配准,在第一轮廓轨腰点云数据和第二轮廓轨腰点云数据中分别得到标准点的第一对应点和第二对应点;基于标准点的第一对应点和第二对应点创建投影平面,将第一轮廓点云数据和第二轮廓点云数据投影到投影平面,得到投影轨道的点云数据;
将标准轨道的点云数据和投影轨道的点云数据进行ICP算法配准,得到待测轨道磨耗的测量结果。
2.根据权利要求1所述的轨道磨耗测量方法,其特征在于,所述预先训练的PointNet++网络,通过以下步骤训练:
获取现场轨道的点云数据;
利用语义分割标签对生成的轨道的点云数据进行分类标注,轨腰点云数据的语义分割标签的标签值为“1”,其余部分的语义分割标签的标签值为“0”,得到用于训练PointNet++网络的点云数据集;
将点云数据集划分为训练集、验证集和测试集;
将训练集输入预先建立的PointNet++网络,对预先建立的PointNet++网络进行训练,得到预先训练PointNet++网络,所述预先训练PointNet++网络学习轨腰的分布特征,设置损失函数的参数,输出权重文件;
将验证集和测试集分别输入预先训练PointNet++网络,对预先训练PointNet++网络输出的权重文件进行优化和评估,得到轨道基于PointNet++网络的权重文件,所述轨道基于PointNet++网络的权重文件用于在待测轨道的点云数据输入预先训练PointNet++网络时,基于所述轨道基于PointNet++网络的权重文件中每个点的权重,输出轨腰点云数据。
3.根据权利要求1或2所述的轨道磨耗测量方法,其特征在于,获取轨道的点云数据,包括:
利用设于轨道前后的两个激光器,得到轨道的第一激光平面的数据和第二激光平面的数据;
利用设于轨道上方的相机,得到轨道的实时图像;
采用张正友标定法对相机的内外参数标定,进行结构光标定获取到相机坐标系下的结构光平面方程;
将第一激光平面的数据和第二激光平面的数据转换到到相机坐标系中,生成轨道的点云数据,所述轨道的点云数据包括两个激光器的激光线生成的第一轮廓点云数据和第二轮廓点云数据。
4.根据权利要求2所述的轨道磨耗测量方法,其特征在于,所述预先建立的PointNet++网络,包括以下模块:
采样操作模块:用于通过随机采样或者均匀采样的方式,将原始的点云数据集降采样到一个较小的子集上;
提取特征模块:由点云特征网络和局部特征网络组成,用于从点云数据集中提取局部特征和全局特征;
层次特征编码模块:用于利用递归层次结构,将局部特征和全局特征进行编码整合;
聚合模块:用于将多个层次特征编码模块的输出进行聚合,得到整个点云的全局特征表达;
分割模块:用于将轨腰点云数据从原始数据中分割出来。
5.根据权利要求2所述的轨道磨耗测量方法,其特征在于,所述预先建立的PointNet++网络的损失函数,通过下式表示:
L_seg=-∑(y_seg*log(y_pred_seg))/N_seg (1)
式(1)中,L_seg为PointNet++网络的损失函数,y_seg为真实的语义分割标签的标签值,y_pred_seg为预测的语义分割标签的标签值,N_seg为点云中的点数。
6.根据权利要求1所述的轨道磨耗测量方法,其特征在于,所述将标准轨道的点云数据和投影轨道的点云数据进行ICP算法配准,得到轨道磨耗的测量结果,包括:
将标准轨道的点云数据和投影轨道的点云数据进行迭代ICP算法配准,得到点云对;
测量轨头上方的点云对中点云之间的距离,得到轨头上方磨耗的测量结果;测量轨头内侧的点云对中点云之间的距离,得到轨头上方磨耗的测量结果;
根据轨头上方磨耗的测量结果和轨头上方磨耗的测量结果,得到轨道磨耗的测量结果。
7.根据权利要求6所述的轨道磨耗测量方法,其特征在于,所述点云对中点云之间的距离,通过下式计算:
式(2)中,d为点云对中点云之间的距离,P1(x1,y1,z1)为点云对中标准轨道中的点云的坐标,P2(x2,y2,z2)为点云对中投影轨道中的点云的坐标。
8.一种轨道磨耗测量装置,其特征在于,包括:
获取模块:用于获取待测轨道的点云数据和标准轨道的点云数据;其中,待测轨道的点云数据包括第一道激光线生成的第一轮廓点云数据和第二道激光线生成的第二轮廓点云数据;
轨腰分割模块:用于将第一轮廓点云数据和第二轮廓点云数据分别输入预先训练的PointNet++网络,得到第一轮廓轨腰点云数据和第二轮廓轨腰点云数据;
轮廓矫正模块:用于从标准轨道的点云数据中选取一个标准点,利用ICP算法对标准轨道的点云数据中的标准轨腰点云数据与第一轮廓轨腰点云数据、第二轮廓轨腰点云数据进行点云配准,在第一轮廓轨腰点云数据和第二轮廓轨腰点云数据中分别得到标准点的第一对应点和第二对应点;基于标准点的第一对应点和第二对应点创建投影平面,将第一轮廓点云数据和第二轮廓点云数据投影到投影平面,得到投影轨道的点云数据;
输出模块:用于将标准轨道的点云数据和投影轨道的点云数据进行ICP算法配准,得到待测轨道磨耗的测量结果。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时,实现如权利要求1-7中任一所述的面向算法交易的绩效归因计算方法。
10.一种设备,其特征在于,包括:
存储器,用于存储指令;
处理器,用于执行所述指令,使得所述设备执行实现如权利要求1-7任一项所述的面向算法交易的绩效归因计算方法的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311697947.8A CN117710304A (zh) | 2023-12-12 | 2023-12-12 | 一种轨道磨耗测量方法、装置、介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311697947.8A CN117710304A (zh) | 2023-12-12 | 2023-12-12 | 一种轨道磨耗测量方法、装置、介质及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117710304A true CN117710304A (zh) | 2024-03-15 |
Family
ID=90152709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311697947.8A Pending CN117710304A (zh) | 2023-12-12 | 2023-12-12 | 一种轨道磨耗测量方法、装置、介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117710304A (zh) |
-
2023
- 2023-12-12 CN CN202311697947.8A patent/CN117710304A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111340797B (zh) | 一种激光雷达与双目相机数据融合检测方法及系统 | |
CN106934800B (zh) | 一种基于yolo9000网络的金属板带表面缺陷检测方法及装置 | |
CN112734691B (zh) | 一种工业制品缺陷检测方法、装置、终端设备及存储介质 | |
CN111062915A (zh) | 一种基于改进YOLOv3模型的实时钢管缺陷检测方法 | |
CN110992349A (zh) | 一种基于深度学习的地下管道异常自动化定位与识别方法 | |
CN110260795B (zh) | 一种基于增量绝对光栅尺的绝对位移检测方法 | |
CN112200163B (zh) | 水下底栖生物检测方法及系统 | |
CN115147363A (zh) | 一种基于深度学习算法的影像缺陷检测和分类方法及系统 | |
CN117078927A (zh) | 一种联合目标标注方法、装置、设备及存储介质 | |
CN117372433A (zh) | 厚度参数的控制方法、装置、设备及存储介质 | |
CN107292039B (zh) | 一种基于小波聚类的uuv巡岸轮廓构建方法 | |
CN117495891B (zh) | 点云边缘检测方法、装置和电子设备 | |
CN115759033A (zh) | 一种轨迹数据的处理方法、装置及设备 | |
CN115546223A (zh) | 一种列车车下设备紧固螺栓的缺失检测方法和系统 | |
Lehr et al. | Automated optical inspection using anomaly detection and unsupervised defect clustering | |
CN117710802A (zh) | 一种基于图像纹理特征的重力场方向适配性分析方法 | |
CN114882083B (zh) | 复杂异形截面薄壁环型件型面轮廓点云预处理方法及装置 | |
CN117710304A (zh) | 一种轨道磨耗测量方法、装置、介质及设备 | |
CN116823748A (zh) | 一种基于深度学习和Halcon的螺栓拧紧工业检测方法和装置 | |
CN116079498A (zh) | 一种刀具异常信号的识别方法 | |
CN109785261A (zh) | 一种基于灰度体元模型的机载lidar三维滤波方法 | |
CN115393172A (zh) | 基于gpu实时提取光条纹中心的方法及设备 | |
JP2019053597A (ja) | 選別装置、方法及びプログラム | |
CN113111948A (zh) | 一种基于特征重校准机制的时序数据分类方法及系统 | |
CN102143378B (zh) | 一种图像品质的判断方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |