CN117058357B - 基于视觉辅助的转向架落车对位校正方法 - Google Patents

基于视觉辅助的转向架落车对位校正方法 Download PDF

Info

Publication number
CN117058357B
CN117058357B CN202311309105.0A CN202311309105A CN117058357B CN 117058357 B CN117058357 B CN 117058357B CN 202311309105 A CN202311309105 A CN 202311309105A CN 117058357 B CN117058357 B CN 117058357B
Authority
CN
China
Prior art keywords
bogie
pixel point
edge
image
pixel points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311309105.0A
Other languages
English (en)
Other versions
CN117058357A (zh
Inventor
孙先锋
李春宇
闫壮
邬猛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Crrc Urban Transportation Planning Design And Research Institute Co ltd
Original Assignee
Crrc Urban Transportation Planning Design And Research Institute Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Crrc Urban Transportation Planning Design And Research Institute Co ltd filed Critical Crrc Urban Transportation Planning Design And Research Institute Co ltd
Priority to CN202311309105.0A priority Critical patent/CN117058357B/zh
Publication of CN117058357A publication Critical patent/CN117058357A/zh
Application granted granted Critical
Publication of CN117058357B publication Critical patent/CN117058357B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像处理技术领域,提出了基于视觉辅助的转向架落车对位校正方法,包括:根据需要进行对位的转向架的实时图像获取转向架单侧图像和转向架对比图像;划分出图像中的一、二级边缘像素点和一、二级像素点;获取一、二级边缘像素点的边缘方向特征值和相似度衡量序列,进而获取边缘相似度;获取一、二级像素点对应的特征序列,进而获取相似度;根据边缘相似度和相似度对转向架单侧图像和转向架对比图像中的各像素点进行匹配,获得匹配结果;根据匹配结果对转向架落车对位进行校正。本发明旨在解决转向架落车对位过程中转向架受到灰尘附着的影响使对位校正的效果不佳的问题。

Description

基于视觉辅助的转向架落车对位校正方法
技术领域
本发明涉及图像处理技术领域,具体涉及基于视觉辅助的转向架落车对位校正方法。
背景技术
随着我国轨道交通行业的大力发展,对跨坐式单轨等轨道车辆的检修效率及检修能力的要求越来越高。转向架落车对位可确保车辆安全、便捷地进行维修保养,将转向架落在正确的位置可以使工人更加容易得进行维修,并且可以确保车辆的平衡和稳定,防止意外发生。因此,亟需一种适应时代发展的用于跨坐式单轨车辆重点修、全面修的架车落车技术。
但是在转向架落车对位的过程中,由于车辆移动过程中的晃动、车架的形变、地台水平面的不平等因素,往往使得车辆难以准确对位。同时,为防止车体与落架装置移出转向架作业干涉,落架装置往往体积较小,车辆与落架装置对位均采用人力推动,对位难度高,作业强度大,作业效率低。所以,需要一种针对转向架落车对位校正的基于视觉的对位校正方法。
由于转向架的对称性,可以在落架装置正中位置获取的转向架图像,对转向架图像的左右两侧进行图像匹配,当可以匹配成功,则认为转向架落车对位正确。但是,大部分匹配算法为根据像素点之间的灰度值的相似性进行匹配,而转向架位于跨坐式单轨等轨道车辆的底部,转向架表面往往附着大量灰尘,灰尘的附着遮挡导致不同位置的灰度特征较为相似,所以现有的图像匹配算法在进行匹配时,受到附着在转向架表面的灰尘等杂质的影响较大,对转向架落车对位校正的效果不佳。
发明内容
本发明提供基于视觉辅助的转向架落车对位校正方法,以解决现有的传统匹配算法在进行图像匹配时仅基于像素点周围的灰度特征进行匹配,而转向架表面附着的灰尘会导致像素点周围的灰度特征趋于一致,导致匹配效果不佳、转向架落车对位校正不准确的问题,所采用的技术方案具体如下:
本发明一个实施例提供了基于视觉辅助的转向架落车对位校正方法,该方法包括以下步骤:
根据需要进行对位的转向架的实时图像获取转向架单侧图像和转向架对比图像;
根据转向架单侧图像获取一级边缘像素点和一级像素点,根据转向架对比图像获取二级边缘像素点和二级像素点;
获取每个一级边缘像素点和二级边缘像素点的边缘方向特征值,根据边缘方向特征值获取相似度衡量序列;
根据一级像素点与一级边缘像素点的位置关系、二级像素点与二级边缘像素点的位置关系,获取每个一级像素点和每个二级像素点对应的特征序列;
根据转向架单侧图像中每个一级边缘像素点和转向架对比图像中每个二级边缘像素点对应的相似度衡量序列获取任意一个一级边缘像素点与任意一个二级边缘像素点之间的边缘相似度,根据转向架单侧图像中一级像素点和转向架对比图像中二级像素点对应的特征序列获取两个像素点之间的相似度,根据边缘相似度和相似度对转向架单侧图像和转向架对比图像中的各像素点进行匹配,获得匹配结果;
根据转向架单侧图像和转向架对比图像中的各像素点的匹配结果,对转向架落车对位进行校正。
进一步,所述根据需要进行对位的转向架的实时图像获取转向架单侧图像和转向架对比图像,包括的具体方法为:
分别取所述需要进行对位的转向架的实时图像第一行和最后一行像素点的中点,根据两个中点确定中位线,中位线会将转向架图像划分为左右两个部分;
将左侧部分对应的图像记为转向架单侧图像;
取右侧部分对应的图像的左右镜像,将该图像记为转向架对比图像。
进一步,所述根据转向架单侧图像获取一级边缘像素点和一级像素点,根据转向架对比图像获取二级边缘像素点和二级像素点,包括的具体方法为:
将所述转向架单侧图像转换为灰度图像,记为转向架单侧灰度图像;
对所述转向架单侧灰度图像使用预设边缘检测算子,获取转向架单侧边缘图像;
将所述转向架单侧边缘图像中包含的所有像素值为255的像素点标记为一级边缘像素点,将所述转向架单侧图像中非所述一级边缘像素点的各个像素点标记为一级像素点;
将所述转向架对比图像转换为灰度图像,记为转向架对比灰度图像;
对所述转向架对比灰度图像使用预设边缘检测算子,获取转向架对比边缘图像;
将所述转向架对比边缘图像中包含的所有像素值为255的像素点标记为二级边缘像素点,将转向架对比图像中非所述一级边缘像素点的各个像素点标记为二级像素点。
进一步,所述获取每个一级边缘像素点和二级边缘像素点的边缘方向特征值,包括的具体方法为:
获取所述一级边缘像素点对应的海森矩阵;
以所述一级边缘像素点为中心像素点建立预设大小的窗口,获取所述窗口包含的各一级边缘像素点,将这些一级边缘像素点记为所述一级边缘像素点的待比较像素点;
对所述一级边缘像素点与其对应的待比较像素点使用预设拟合算法与直线进行拟合,获得拟合直线和拟合直线的拟合优度;
统计拟合直线上包含的所述一级边缘像素点与其对应的所述待比较像素点的个数;
根据所述一级边缘像素点和其待比较像素点对应的海森矩阵、在拟合直线上的像素点个数、拟合优度,获取所述一级边缘像素点的边缘方向特征值;
获取所述二级边缘像素点对应的边缘方向特征值。
进一步,所述根据边缘方向特征值获取相似度衡量序列,包括的具体方法为:
获取以所述一级边缘像素点为中心的预设大小的窗口,按照预设顺序,根据所述窗口内像素点的灰度值获取所述一级边缘像素点对应的灰度值序列;
根据所述一级边缘像素点对应的灰度值序列和边缘方向特征值获取所述一级边缘像素点对应的相似度衡量序列;
获取所述二级边缘像素点对应的相似度衡量序列。
进一步,所述边缘方向特征值的具体获取方法为:
式中,为一级边缘像素点/>对应的边缘方向特征值;/>为一级边缘像素点/>对应的海森矩阵中第/>行第/>列的数值,其中,/>;/>为一级边缘像素点/>对应的第/>个待比较像素点对应的海森矩阵中第/>行第/>列的数值,其中,/>;/>为一级边缘像素点/>对应的待比较像素点的个数;/>为一级边缘像素点/>与其对应的待比较像素点与直线进行拟合的拟合优度;/>为一级边缘像素点与其对应的待比较像素点在拟合直线上的个数;/>为以自然常数为底数的指数函数。
进一步,所述根据一级像素点与一级边缘像素点的位置关系、二级像素点与二级边缘像素点的位置关系,获取每个一级像素点和每个二级像素点对应的特征序列,包括的具体方法为:
获取所述一级像素点的预设数量个近邻像素点,所述近邻像素点即与所述一级像素点欧氏距离最近的预设数量个一级边缘像素点;
获取所述每个近邻像素点与所述一级像素点之间的欧式距离和近邻角度;
获取以所述一级像素点为中心的预设大小的窗口,按照预设顺序,根据所述窗口内像素点的灰度值获取所述一级像素点对应的灰度值序列;
根据所述一级像素点与近邻像素点之间的欧式距离、近邻角度和所述一级像素点对应的灰度值序列获取所述一级像素点对应的特征序列;
获取所述每个二级像素点的特征序列。
进一步,所述根据转向架单侧图像中每个一级边缘像素点和转向架对比图像中每个二级边缘像素点对应的相似度衡量序列获取任意一个一级边缘像素点与任意一个二级边缘像素点之间的边缘相似度,根据转向架单侧图像中一级像素点和转向架对比图像中二级像素点对应的特征序列获取两个像素点之间的相似度,获取的具体方法为:
式中,为一级边缘像素点/>和二级边缘像素点/>之间的边缘相似度;/>为一级像素点/>和二级像素点/>之间的相似度;/>为取括号内两个序列之间的皮尔逊相关系数;/>分别为一级像素点/>和二级像素点/>对应的相似度衡量序列;/>一级边缘像素点/>和二级边缘像素点/>对应的特征序列;/>为取括号内两个像素点对应的坐标点之间的欧氏距离。
进一步,所述根据边缘相似度和相似度对转向架单侧图像和转向架对比图像中的各像素点进行匹配,获得匹配结果,包括的具体方法为:
取所述一级边缘像素点与所述二级边缘像素点之间的边缘相似度的最大值,当所述最大值大于等于预设阈值时,则取所述最大值对应的所述二级边缘像素点作为所述一级边缘像素点的匹配点,否则,没有对应的匹配点;
取所述一级像素点与所述二级像素点之间的相似度的最大值,当所述最大值大于等于预设阈值时,则取所述最大值对应的所述二级像素点作为所述一级像素点的匹配点,否则,没有对应的匹配点。
进一步,所述根据转向架单侧图像和转向架对比图像中的各像素点的匹配结果,对转向架落车对位进行校正,包括的具体方法为:
当所述转向架单侧图像中找到匹配点的像素点的数量占比大于等于预设阈值,同时,所述转向架对比图像中所述匹配点的像素点数量占比大于等于预设阈值时,则认为所述转向架单侧图像与所述转向架对比图像匹配成功,不需要继续进行转向架落车对位校正,否则,认为应将转向架向所述数量占比较少的图像一侧进行移动,直至满足校正条件。
本发明的有益效果是:本发明在需要对位的落架装置中心位置设置工业相机,获取需要进行对位的转向架的图像,并对图像进行处理,得到转向架单侧图像和转向架对比图像,即两个待匹配图像;其次,根据灰尘附着在落架装置表面后,边缘位置的边缘特征仍保持不变且较为明显,而非边缘位置的灰度特征趋于一致的特点,对像素点进行分类,提取转向架单侧图像中的一级边缘像素点和一级像素点,提取转向架对比图像中的二级边缘像素点和二级像素点,方便下述对不同种类的像素点提取特征,提升像素点匹配的精度;然后,根据一级边缘像素点和二级边缘像素点位置处的方向以及近邻像素点间的规整成都提取边缘方向特征值,结合像素点处的灰度值特征得到这些像素点对应的相似度衡量序列;同时,根据一级像素点和二级像素点的灰度值特征和与边缘像素点之间的位置关系得到这些像素点对应的特征序列,在保留考察灰度值的分布特征的基础上添加更为明显、特征更为突出的边缘方向和规整程度特征,解决灰尘的附着使灰度特征趋于一致导致的匹配效果不佳的问题;最后,基于相似度衡量序列间的相关度和特征序列的相关度实现同种类像素点的匹配,并根据匹配结果对转向架落车对位进行校正,提升对位校正的效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一个实施例所提供的基于视觉辅助的转向架落车对位校正方法流程示意图;
图2为转向架图像中位线划分示意图;
图3为近邻像素点对应的近邻角度示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,其示出了本发明一个实施例所提供的基于视觉辅助的转向架落车对位校正方法流程图,该方法包括以下步骤:
步骤S001、根据需要进行对位的转向架的实时图像获取转向架单侧图像和转向架对比图像。
本实施例的目的是根据实时的转向架图像对转向架落车对位进行校正,因此,首先需要获取实时的转向架图像。在需要对位的落架装置中心位置设置工业相机和环形光圈,工业相机用于仰拍需要进行对位的转向架,环形光圈用于拍摄时的补光。在对转向架进行对位的过程中,每间隔秒,使用相机获取一次图像,将获取的图像记为转向架图像,转向架图像为RGB图像。其中,/>为常数,经验值为0.1,实施者可根据实际需要自行设定。转向架图像即为需要进行对位的转向架的实时图像。
车辆和转向架左右两侧均呈对称分布,所以,当转向架在落车装置上方对位正确的位置时,处于落架装置中心位置的工业相机获取的转向架图像应左右对称分布,即转向架图像左右两侧对称。
如图2所示,分别取转向架图像第一行和最后一行像素点的中点,根据两个中点确定中位线,中位线会将转向架图像划分为左右两个部分。将左侧部分对应的图像记为转向架单侧图像;取右侧部分对应的图像的左右镜像,将该图像记为转向架对比图像。转向架单侧图像和转向架对比图像均为RGB图像。
对转向架单侧图像和转向架对比图像进行图像匹配,当匹配效果良好时,则转向架与落架装置的对位正确,不需要对对位进行校正,否则,需要进行校正。
步骤S002、根据转向架单侧图像获取一级边缘像素点和一级像素点,根据转向架对比图像获取二级边缘像素点和二级像素点。
归一化的互相关匹配算法NCC是基于图像的灰度信息进行匹配的算法,而转向架位于跨坐式单轨等轨道车辆的底部,转向架表面附着灰尘后,不同位置的灰度特征较为相似,所以,需要对灰度信息的相似性评价进行改进,减少因灰尘存在导致的不同位置的灰度特征相似,进而引起匹配错误使转向架的落车对位校正效果不佳的问题。
辆架结构复杂,即使灰尘覆盖,不同结构边缘的位置仍较为明显,所以从图像中选取边缘位置的各个像素点,以此为重点依据进行匹配。
将转向架单侧图像转换为灰度图像,记为转向架单侧灰度图像。对转向架单侧灰度图像使用canny边缘检测算子,获取转向架单侧边缘图像,将转向架单侧边缘图像中包含的所有像素值为255的像素点标记为一级边缘像素点,将转向架单侧图像中非一级边缘像素点的各个像素点标记为一级像素点。同理,将转向架对比图像转换为灰度图像,记为转向架对比灰度图像。对转向架对比灰度图像使用canny边缘检测算子,获取转向架对比边缘图像,将转向架对比边缘图像中包含的所有像素值为255的像素点标记为二级边缘像素点,将转向架对比图像中非二级边缘像素点的各个像素点标记为二级像素点。
步骤S003、获取每个一级边缘像素点和二级边缘像素点的边缘方向特征值,根据边缘方向特征值获取相似度衡量序列。
获取每个一级边缘像素点对应的海森矩阵。分别以每个一级边缘像素点为中心像素点建立窗口,获取该窗口包含的各一级边缘像素点,将这些一级边缘像素点记为该一级边缘像素点的待比较像素点。其中,/>为常数,经验值为11,实施者可根据实际需要自行设定。
对一级边缘像素点与其对应的待比较像素点使用最小二乘法与直线进行拟合,获得拟合直线和拟合直线的拟合优度。拟合优度为这些像素点的位置分布与直线的相似程度,相似程度越大,则拟合优度越大。根据拟合直线包含的像素点,统计一级边缘像素点与其对应的待比较像素点在拟合直线上的个数,当该个数占一级边缘像素点与其对应的待比较像素点的总数之比越高时,则这些像素点分布越为规整。
根据每个一级边缘像素点及其对应的各个待比较像素点,获取每个一级边缘像素点的边缘方向特征值。
式中,为一级边缘像素点/>对应的边缘方向特征值;/>为一级边缘像素点/>对应的海森矩阵中第/>行第/>列的数值,其中,/>;/>为一级边缘像素点/>对应的第/>个待比较像素点对应的海森矩阵中第/>行第/>列的数值,其中,/>;/>为一级边缘像素点/>对应的待比较像素点的个数;/>为一级边缘像素点/>与其对应的待比较像素点与直线进行拟合的拟合优度;/>为一级边缘像素点与其对应的待比较像素点在拟合直线上的个数;/>为以自然常数为底数的指数函数。
当该一级边缘像素点与相邻的待比较像素点对应的边缘方向特征越为一致时,则一级边缘像素点与相邻的待比较像素点对应的海森矩阵内相同位置对应的数值越为接近,即越小。/>为取与/>呈负相关的归一化函数值,并不限定为该函数。
当一级边缘像素点与相邻的待比较像素点对应的边缘方向特征越为一致、分布位置越为规则时,则该一级边缘像素点对应的边缘方向特征值越大。
以每个一级边缘像素点为中心建立窗口,将窗口内各像素点对应的灰度值按照从左到右、从上到下的顺序进行排序,得到每个一级边缘像素点对应的灰度值序列。其中,/>为常数,经验值为5,实施者可根据实际需要自行设定。将每个一级边缘像素点对应的边缘方向特征值和灰度值序列按顺序排列,得到其对应的相似度衡量序列。将一级边缘像素点/>对应的相似度衡量序列记为/>
同理,获得每个二级边缘像素点对应的相似度衡量序列。
至此,获取每个一级边缘像素点和二级边缘像素点的边缘方向特征值,根据边缘方向特征值获取相似度衡量序列。
步骤S004、根据一级像素点与一级边缘像素点的位置关系、二级像素点与二级边缘像素点的位置关系,获取每个一级像素点和每个二级像素点对应的特征序列。
对每个一级像素点分别进行分析。
取与每个一级像素点欧氏距离最近的个一级边缘像素点,将这些像素点记为该一级像素点的近邻像素点。其中,/>的经验值为5,实施者可根据实际需要自行设定。获取这个近邻像素点与所分析的一级像素点之间的欧氏距离。以该一级像素点指向水平正方向为始边,以该一级像素点指向每个近邻像素点为终边,将组成的角记为该近邻像素点对应的近邻角度,如图3所示。
当选取与每个一级像素点欧氏距离最近的个一级边缘像素点时,若存在个多一级边缘像素点与某一级像素点对应的欧氏距离相同,导致有大于/>个与该一级像素点最近的一级边缘像素点的情况出现。此时,则将这些一级边缘像素点均作为该一级像素点的近邻像素点,获取每个近邻像素点对应的近邻角度,取欧氏距离相同的这些近邻像素点对应的近邻角度较小的各个近邻像素点作为保留的近邻像素点,直至选取出与每个一级像素点欧氏距离最近的/>个一级边缘像素点,舍去其余的近邻像素点。
以每个一级边缘像素点为中心建立窗口,将窗口内各像素点对应的灰度值按照从左到右、从上到下的顺序进行排序,得到每个一级像素点对应的灰度值序列。
根据每个一级像素点的上述分析,获取其对应的特征序列。将一级像素点对应的特征序列记为/>,/>。其中,/>分别为一级像素点对应的与其欧氏距离第/>近的近邻像素点与/>之间的欧式距离和近邻角度,其中,;/>为与一级像素点/>欧氏距离最近的近邻像素点对应的边缘方向特征值;/>为一级像素点/>对应的灰度值序列。
同理,获得每个二级像素点对应的特征序列。
至此,获取每个一级像素点与二级像素点对应的特征序列。
步骤S005、根据转向架单侧图像中每个一级边缘像素点和转向架对比图像中每个二级边缘像素点对应的相似度衡量序列获取任意一个一级边缘像素点与任意一个二级边缘像素点之间的边缘相似度,根据转向架单侧图像中一级像素点和转向架对比图像中二级像素点对应的特征序列获取两个像素点之间的相似度,根据边缘相似度和相似度对转向架单侧图像和转向架对比图像中的各像素点进行匹配,获得匹配结果。
根据转向架单侧图像中每个一级边缘像素点和转向架对比图像中每个二级边缘像素点对应的相似度衡量序列获取任意一个一级边缘像素点与任意一个二级边缘像素点之间的边缘相似度,根据转向架单侧图像中一级像素点和转向架对比图像中二级像素点对应的特征序列获取两个像素点之间的相似度,边缘相似度和相似度的定义如下。
式中,为一级像素点/>和二级像素点/>之间的相似度;/>为一级边缘像素点/>和二级边缘像素点/>之间的边缘相似度;/>为取括号内两个序列之间的皮尔逊相关系数;/>分别为一级像素点/>和二级像素点/>对应的相似度衡量序列;/>一级边缘像素点/>和二级边缘像素点/>对应的特征序列;/>为取括号内两个像素点对应的坐标点之间的欧氏距离。
当一级像素点和二级像素点对应的相似度衡量序列相关性越大、两个像素点对应的坐标点之间的欧氏距离越小时,则这两个像素点之间的相似度越大,这两个像素点越可能对应相匹配的两个像素点。当一级边缘像素点和二级边缘像素点对应的特征序列越大、两个像素点对应的坐标点之间的欧氏距离越小时,则这两个像素点之间的边缘相似度越大,这两个像素点越可能对应相匹配的两个像素点。
至此,获取转向架单侧图像中各一级边缘像素点与转向架对比图像中各二级边缘像素点之间的边缘相似度。
取每个一级边缘像素点与转向架对比图像中各二级边缘像素点之间的边缘相似度的最大值,当该最大值大于等于阈值时,则取该最大值对应的二级边缘像素点作为该一级边缘像素点的匹配点,否则,没有对应的匹配点。其中,/>的经验值为0.9,实施者可根据实际需要自行设定。
获取转向架单侧图像中各一级像素点与转向架对比图像中各二级像素点之间的相似度,取每个一级像素点与转向架对比图像中各二级像素点之间的相似度的最大值,当该最大值大于等于阈值时,则取该最大值对应的二级像素点作为该一级像素点的匹配点,否则,没有对应的匹配点。
同理,将每个一级像素点与二级像素点进行匹配,获取各二级像素点的匹配点。
步骤S006、根据转向架单侧图像和转向架对比图像中的各像素点的匹配结果,对转向架落车对位进行校正。
当转向架单侧图像中找到匹配点的像素点的数量占比大于等于且转向架对比图像中匹配点的像素点数量占比大于等于/>时,则认为转向架单侧图像和转向架对比图像匹配成功,不需要继续进行转向架落车对位校正;否则,认为应将转向架向数量占比较少的图像一侧进行移动,直至满足上述不需要继续进行转向架落车对位校正的条件。其中,/>的经验值为99.5%,实施者可根据实际需要自行设定。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.基于视觉辅助的转向架落车对位校正方法,其特征在于,该方法包括以下步骤:
在需要对位的落架装置中心位置设置工业相机,获取需要进行对位的转向架的图像;根据需要进行对位的转向架的实时图像获取转向架单侧图像和转向架对比图像;
根据转向架单侧图像获取一级边缘像素点和一级像素点,根据转向架对比图像获取二级边缘像素点和二级像素点;
获取每个一级边缘像素点和二级边缘像素点的边缘方向特征值,根据边缘方向特征值获取相似度衡量序列;
根据一级像素点与一级边缘像素点的位置关系、二级像素点与二级边缘像素点的位置关系,获取每个一级像素点和每个二级像素点对应的特征序列;
根据转向架单侧图像中每个一级边缘像素点和转向架对比图像中每个二级边缘像素点对应的相似度衡量序列获取任意一个一级边缘像素点与任意一个二级边缘像素点之间的边缘相似度,根据转向架单侧图像中一级像素点和转向架对比图像中二级像素点对应的特征序列获取两个像素点之间的相似度,根据边缘相似度和相似度对转向架单侧图像和转向架对比图像中的各像素点进行匹配,获得匹配结果;
根据转向架单侧图像和转向架对比图像中的各像素点的匹配结果,对转向架落车对位进行校正;
所述根据需要进行对位的转向架的实时图像获取转向架单侧图像和转向架对比图像,包括的具体方法为:
分别取所述需要进行对位的转向架的实时图像第一行和最后一行像素点的中点,根据两个中点确定中位线,中位线会将转向架图像划分为左右两个部分;
将左侧部分对应的图像记为转向架单侧图像;
取右侧部分对应的图像的左右镜像,将该图像记为转向架对比图像。
2.根据权利要求1所述的基于视觉辅助的转向架落车对位校正方法,其特征在于,所述根据转向架单侧图像获取一级边缘像素点和一级像素点,根据转向架对比图像获取二级边缘像素点和二级像素点,包括的具体方法为:
将所述转向架单侧图像转换为灰度图像,记为转向架单侧灰度图像;
对所述转向架单侧灰度图像使用预设边缘检测算子,获取转向架单侧边缘图像;
将所述转向架单侧边缘图像中包含的所有像素值为255的像素点标记为一级边缘像素点,将所述转向架单侧图像中非所述一级边缘像素点的各个像素点标记为一级像素点;
将所述转向架对比图像转换为灰度图像,记为转向架对比灰度图像;
对所述转向架对比灰度图像使用预设边缘检测算子,获取转向架对比边缘图像;
将所述转向架对比边缘图像中包含的所有像素值为255的像素点标记为二级边缘像素点,将转向架对比图像中非所述一级边缘像素点的各个像素点标记为二级像素点。
3.根据权利要求1所述的基于视觉辅助的转向架落车对位校正方法,其特征在于,所述获取每个一级边缘像素点和二级边缘像素点的边缘方向特征值,包括的具体方法为:
获取所述一级边缘像素点对应的海森矩阵;
以所述一级边缘像素点为中心像素点建立预设大小的窗口,获取所述窗口包含的各一级边缘像素点,将这些一级边缘像素点记为所述一级边缘像素点的待比较像素点;
对所述一级边缘像素点与其对应的待比较像素点使用预设拟合算法与直线进行拟合,获得拟合直线和拟合直线的拟合优度;
统计拟合直线上包含的所述一级边缘像素点与其对应的所述待比较像素点的个数;
根据所述一级边缘像素点和其待比较像素点对应的海森矩阵、在拟合直线上的像素点个数、拟合优度,获取所述一级边缘像素点的边缘方向特征值;
获取所述二级边缘像素点对应的边缘方向特征值。
4.根据权利要求1所述的基于视觉辅助的转向架落车对位校正方法,其特征在于,所述根据边缘方向特征值获取相似度衡量序列,包括的具体方法为:
获取以所述一级边缘像素点为中心的预设大小的窗口,按照预设顺序,根据所述窗口内像素点的灰度值获取所述一级边缘像素点对应的灰度值序列;
根据所述一级边缘像素点对应的灰度值序列和边缘方向特征值获取所述一级边缘像素点对应的相似度衡量序列;
获取所述二级边缘像素点对应的相似度衡量序列。
5.根据权利要求3所述的基于视觉辅助的转向架落车对位校正方法,其特征在于,所述边缘方向特征值的具体获取方法为:
式中,为一级边缘像素点/>对应的边缘方向特征值;/>为一级边缘像素点/>对应的海森矩阵中第/>行第/>列的数值,其中,/>;/>为一级边缘像素点/>对应的第/>个待比较像素点对应的海森矩阵中第/>行第/>列的数值,其中,/>;/>为一级边缘像素点/>对应的待比较像素点的个数;/>为一级边缘像素点/>与其对应的待比较像素点与直线进行拟合的拟合优度;/>为一级边缘像素点与其对应的待比较像素点在拟合直线上的个数;/>为以自然常数为底数的指数函数。
6.根据权利要求1所述的基于视觉辅助的转向架落车对位校正方法,其特征在于,所述根据一级像素点与一级边缘像素点的位置关系、二级像素点与二级边缘像素点的位置关系,获取每个一级像素点和每个二级像素点对应的特征序列,包括的具体方法为:
获取所述一级像素点的预设数量个近邻像素点,所述近邻像素点即与所述一级像素点欧氏距离最近的预设数量个一级边缘像素点;
获取所述每个近邻像素点与所述一级像素点之间的欧式距离和近邻角度;
获取以所述一级像素点为中心的预设大小的窗口,按照预设顺序,根据所述窗口内像素点的灰度值获取所述一级像素点对应的灰度值序列;
根据所述一级像素点与近邻像素点之间的欧式距离、近邻角度和所述一级像素点对应的灰度值序列获取所述一级像素点对应的特征序列;
获取所述每个二级像素点的特征序列。
7.根据权利要求1所述的基于视觉辅助的转向架落车对位校正方法,其特征在于,所述根据转向架单侧图像中每个一级边缘像素点和转向架对比图像中每个二级边缘像素点对应的相似度衡量序列获取任意一个一级边缘像素点与任意一个二级边缘像素点之间的边缘相似度,根据转向架单侧图像中一级像素点和转向架对比图像中二级像素点对应的特征序列获取两个像素点之间的相似度,获取的具体方法为:
式中,为一级边缘像素点/>和二级边缘像素点/>之间的边缘相似度;/>为一级像素点/>和二级像素点/>之间的相似度;/>为取括号内两个序列之间的皮尔逊相关系数;分别为一级像素点/>和二级像素点/>对应的相似度衡量序列;/>一级边缘像素点/>和二级边缘像素点/>对应的特征序列;/>为取括号内两个像素点对应的坐标点之间的欧氏距离。
8.根据权利要求1所述的基于视觉辅助的转向架落车对位校正方法,其特征在于,所述根据边缘相似度和相似度对转向架单侧图像和转向架对比图像中的各像素点进行匹配,获得匹配结果,包括的具体方法为:
取所述一级边缘像素点与所述二级边缘像素点之间的边缘相似度的最大值,当所述最大值大于等于预设阈值时,则取所述最大值对应的所述二级边缘像素点作为所述一级边缘像素点的匹配点,否则,没有对应的匹配点;
取所述一级像素点与所述二级像素点之间的相似度的最大值,当所述最大值大于等于预设阈值时,则取所述最大值对应的所述二级像素点作为所述一级像素点的匹配点,否则,没有对应的匹配点。
9.根据权利要求1所述的基于视觉辅助的转向架落车对位校正方法,其特征在于,所述根据转向架单侧图像和转向架对比图像中的各像素点的匹配结果,对转向架落车对位进行校正,包括的具体方法为:
当所述转向架单侧图像中找到匹配点的像素点的数量占比大于等于预设阈值,同时,所述转向架对比图像中所述匹配点的像素点数量占比大于等于预设阈值时,则认为所述转向架单侧图像与所述转向架对比图像匹配成功,不需要继续进行转向架落车对位校正,否则,认为应将转向架向所述数量占比较少的图像一侧进行移动,直至满足校正条件。
CN202311309105.0A 2023-10-11 2023-10-11 基于视觉辅助的转向架落车对位校正方法 Active CN117058357B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311309105.0A CN117058357B (zh) 2023-10-11 2023-10-11 基于视觉辅助的转向架落车对位校正方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311309105.0A CN117058357B (zh) 2023-10-11 2023-10-11 基于视觉辅助的转向架落车对位校正方法

Publications (2)

Publication Number Publication Date
CN117058357A CN117058357A (zh) 2023-11-14
CN117058357B true CN117058357B (zh) 2024-01-23

Family

ID=88657514

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311309105.0A Active CN117058357B (zh) 2023-10-11 2023-10-11 基于视觉辅助的转向架落车对位校正方法

Country Status (1)

Country Link
CN (1) CN117058357B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100068119A (ko) * 2008-12-12 2010-06-22 한국철도기술연구원 카메라 영상을 이용한 철도차량의 차륜과 레일의 상대변위 계측 시스템 및 방법
CN110378376A (zh) * 2019-06-12 2019-10-25 西安交通大学 一种基于机器视觉的加油口目标识别定位方法
CN110686622A (zh) * 2019-10-08 2020-01-14 华南理工大学 一种列车车轮冲角的测量方法
CN113537331A (zh) * 2021-07-09 2021-10-22 东莞市科研世智能科技有限公司 列车轮对的定位方法、装置及存储介质
CN116843757A (zh) * 2023-08-29 2023-10-03 山东千颐科技有限公司 基于计算机视觉的贴标机智能定位方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105488791B (zh) * 2015-11-25 2018-02-13 北京奇虎科技有限公司 自然背景中图像边缘的定位方法及装置
JP2023017510A (ja) * 2021-07-26 2023-02-07 株式会社東芝 位置観測システム及び位置観測プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100068119A (ko) * 2008-12-12 2010-06-22 한국철도기술연구원 카메라 영상을 이용한 철도차량의 차륜과 레일의 상대변위 계측 시스템 및 방법
CN110378376A (zh) * 2019-06-12 2019-10-25 西安交通大学 一种基于机器视觉的加油口目标识别定位方法
CN110686622A (zh) * 2019-10-08 2020-01-14 华南理工大学 一种列车车轮冲角的测量方法
CN113537331A (zh) * 2021-07-09 2021-10-22 东莞市科研世智能科技有限公司 列车轮对的定位方法、装置及存储介质
CN116843757A (zh) * 2023-08-29 2023-10-03 山东千颐科技有限公司 基于计算机视觉的贴标机智能定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Research on Localization Algorithm of Bogie Based on Machine Vision;Bo Liao等;《Research on Localization Algorithm of Bogie Based on Machine Vision》;1851–1856 *

Also Published As

Publication number Publication date
CN117058357A (zh) 2023-11-14

Similar Documents

Publication Publication Date Title
CN108982508B (zh) 一种基于特征模板匹配和深度学习的塑封体ic芯片缺陷检测方法
CN107203990B (zh) 一种基于模板匹配与图像质量评估的标贴破损检测方法
CN110378950B (zh) 一种基于灰度和梯度融合的隧道结构裂缝识别方法
CN107145905B (zh) 电梯紧固螺帽松动的图像识别检测方法
CN107389693B (zh) 一种基于机器视觉的印刷品缺陷自动检测方法
CN114820773B (zh) 基于计算机视觉的筒仓运输车辆车厢位置检测方法
CN106290394B (zh) 一种cpu散热器铝挤成型缺陷检测系统及检测方法
CN108960237B (zh) 一种指针式油位计读数识别方法
CN111080582A (zh) 工件内外表面缺陷检测方法
CN110570422B (zh) 一种基于矩阵分析的胶囊缺陷视觉检测方法
WO2021135675A1 (zh) 一种棒材自动计数方法及装置
CN110674812B (zh) 一种面向复杂背景的民用车牌定位与字符分割方法
CN114881915A (zh) 一种基于对称性的手机玻璃盖板视窗区缺陷检测方法
CN111192326B (zh) 一种用于视觉识别电动汽车直流充电插口的方法及系统
CN111398287A (zh) 一种电池极片划痕检测系统及检测方法
CN114331986A (zh) 一种基于无人机视觉的坝体裂纹识别与测量方法
CN115841633A (zh) 一种电力塔和电力线关联矫正的电力塔和电力线检测方法
TWI625174B (zh) 鋼帶尾端破損的偵測方法
CN113252103A (zh) 一种基于matlab图像识别技术计算物料堆体积及质量的方法
CN115049667A (zh) 一种齿轮缺陷检测方法
CN117058357B (zh) 基于视觉辅助的转向架落车对位校正方法
CN114359251A (zh) 一种混凝土表面破损的自动识别方法
CN110899147B (zh) 一种基于激光扫描的传输带石头在线分拣方法
CN115063375B (zh) 一种对排卵试纸检测结果进行自动分析的图像识别方法
CN114821512B (zh) 一种基于计算机视觉的工作路面异常检测及路径优化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant