CN113936152A - 一种基于全局—局部双摄图像的丝束匹配定位方法 - Google Patents
一种基于全局—局部双摄图像的丝束匹配定位方法 Download PDFInfo
- Publication number
- CN113936152A CN113936152A CN202111127934.8A CN202111127934A CN113936152A CN 113936152 A CN113936152 A CN 113936152A CN 202111127934 A CN202111127934 A CN 202111127934A CN 113936152 A CN113936152 A CN 113936152A
- Authority
- CN
- China
- Prior art keywords
- tow
- matched
- image
- tows
- global
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000001514 detection method Methods 0.000 claims abstract description 126
- 239000013598 vector Substances 0.000 claims description 35
- 238000005452 bending Methods 0.000 claims description 22
- 238000013519 translation Methods 0.000 claims description 3
- 241000287196 Asthenes Species 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 abstract description 6
- 238000002474 experimental method Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
一种基于全局—局部双摄图像的丝束匹配定位方法,包括依次进行的装置设置步骤与匹配定位步骤,其中,装置设置步骤包括在检测区、丝束的上方设置检测横杆,丝束的行进方向与检测横杆相垂直,检测横杆上设置有一个沿检测横杆作横向往返运动的横移座,横移座的正下方设置一个与横移座一并运动的局部摄像头,检测横杆上或其旁侧设置一个全局摄像头;匹配定位步骤包括检测操作与匹配操作,而匹配操作主要包括五种特征,即S面、D距、F轮、H弯、G灰的计算以及与阈值的比较。本设计不仅精确度较高,而且适合于丝束定位。
Description
技术领域
本发明涉及一种丝束的定位方法,属于丝束的检测领域,尤其涉及一种基于全局—局部双摄图像的丝束匹配定位方法。
背景技术
在短纤集束丝束的张力检测过程中,需要对多束丝束进行张力检测,但由于丝束的数量为多根,且每根丝束都在不断的行进中,丝束的状态时刻发生变化,此时,若要对丝束进行张力检测,难度较大,其最大障碍在于丝束的精确定位。
现有技术中虽然存在很多的定位方法,如基于全局特征和局部特征的图像分级匹配算法,即对输入图像提取全局特征随后在图像库中进行遍历粗匹配,找到与当前图像匹配度最高的三幅图像,然后提取图像的局部特征与三幅图像的局部特征进行精确匹配,但此法需要要求图像库中的图像具有较大形状差异,而丝束图像形状差异较小,难以在丝束定位中应用该技术。此外,丝束在进行定位与检测时,还不能影响正常的生产运行,进一步提升了难度。
公开该背景技术部分的信息仅仅旨在增加对本专利申请的总体背景的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域一般技术人员所公知的现有技术。
发明内容
本发明的目的是克服现有技术中存在的精确度较低,不适合于丝束定位的缺陷与问题,提供一种精确度较高,适合于丝束定位的基于全局—局部双摄图像的丝束匹配定位方法。
为实现以上目的,本发明的技术解决方案是:一种基于全局—局部双摄图像的丝束匹配定位方法,所述定位方法包括依次进行的装置设置步骤与匹配定位步骤;
所述装置设置步骤是指:先在检测区的正上方设置一根检测横杆,所述检测区由多根并排行进的丝束构成,丝束的行进方向与检测横杆相垂直,所述检测横杆上设置有一个沿检测横杆作横向往返运动的横移座,该横移座的正下方设置一个与横移座一并运动的局部摄像头,该摄像头的拍摄范围为其下方,所述检测横杆上或其旁侧设置一个全局摄像头,该全局摄像头的拍摄范围为检测区;
所述匹配定位步骤包括:在丝束不断行进的过程中,全局摄像头、局部摄像头均不断的拍摄全局图像、局部图像,同时,横移座带动局部摄像头一同作横向移动,每当移动到某根丝束正上方时,横移座停止以进行检测操作,该检测操作结束后,横移座带动局部摄像头继续一同作横向移动,朝待检测的下一根丝束的正上方移动,直至移动到下一根丝束的正上方,再进行检测操作,依次重复,直至所有丝束的检测操作结束;
在横移座朝待检测的下一根丝束的正上方移动的过程中,将拍摄到待检测的下一根丝束全貌的局部图像与拍摄到待检测的下一根丝束全貌的全局图像不断的进行匹配,直至局部图像、全局图像相互匹配,再以匹配时的全局图像为基准,计算该全局图像中待检测的下一根丝束的中心检测点与上一个被检测的丝束的中心检测点之间的横坐标间距,再按照该横坐标间距移动横移座,以使横移座移动到待检测的下一根丝束的正上方,然后进行检测操作。
所述上一个被检测的丝束的中心检测点是以下任意一种:
若上一个被检测的丝束的中心检测点也经历了局部图像、全局图像的匹配,则上一个被检测的丝束的中心检测点就是上一次匹配后全局图像中被检测丝束的中心检测点;
若上一个被检测的丝束的中心检测点未经历局部图像、全局图像的匹配,而是所述匹配定位步骤的起始阶段,该起始阶段是指一开始时,横移座就位于第一根丝束的正上方以进行检测,此时,上一个被检测的丝束的中心检测点就为第一根丝束的中心检测点。
所述计算该全局图像中待检测的下一根丝束的中心检测点与上一个被检测的丝束的中心检测点之间的横坐标间距是指:先计算两个中心检测点之间像素点的数量,再代入单个像素点的面积,以及相邻像素点的间距,从而得出两个中心检测点之间的横坐标间距。
所述匹配定位步骤中,所述局部图像、全局图像相互匹配是指局部图像、全局图像中待检测的下一根丝束的五种丝束特征向量都大于各自的设定阈值,此时,待检测的下一根丝束为待匹配丝束;所述五种丝束特征向量是指:
S面:待匹配丝束的面积特征向量;
D距:待匹配丝束的左、右相邻丝束中心检测点之间的欧式距离特征向量,即左、右相邻丝束中心检测点之间的横坐标的差值;
F轮:待匹配丝束的轮廓特征向量;
H弯:待匹配丝束的边缘弯曲程度的特征向量;
G灰:待匹配丝束的灰度特征向量。
所述S面依据以下公式取得:
其中,S全是指全局图像中待匹配丝束的真实面积,S局是指局部图像中待匹配丝束的真实面积;所述S全、S局都依据待匹配线束在标准面积版中的像素含量以及标准面积版面积计算而得;
S代表待匹配丝束的面积,R代表标准面积版面积,Sn代表标准面积版中的待匹配丝束所包括的像素数,Gn代表标准面积版中待匹配丝束之外的背景所包括像素数;
所述标准面积版面积是指在局部图像或全局图像中选定一个能够包含待匹配丝束的版面,再依据该版面中每个像素点所代表的真实面积以计算出标准面积版面积。
所述D距依据以下公式取得:
Di=|pxi+1-pxi_1|;
其中,D全代表全局图像中待匹配丝束的左、右相邻丝束中心检测点之间的横坐标的差值,D局代表局部图像中待匹配丝束的左、右相邻丝束中心检测点之间的横坐标的差值,Di代表第i条丝束的左、右相邻丝束中心检测点之间的横坐标的差值;
pxi+1代表第i+1条丝束中心检测点的横坐标,pxi-1代表第i-1条丝束中心检测点的横坐标。
所述F轮依据以下公式取得:
其中,FD全代表全局图像中待匹配丝束的轮廓形状的特征向量,FD局代表局部图像中待匹配丝束的轮廓形状的特征向量;
将待匹配丝束的轮廓视为曲线c(t),a代表cos,b代表sin,曲线c(t)的第k个系数axk,bxk,ayk和byk的组合构成具有平移、旋转和尺度不变性的傅里叶描述子如下:
FD代表丝束轮廓经傅里叶变换以后,采用N个傅里叶描述子描述丝束轮廓特征,即丝束的轮廓形状的特征向量如下:
FD=[FD1,FD2,...,FDN]。
所述H弯依据以下公式取得:
H左=|xmax-xmin|
H右=|Xmax-xmin|.
其中,待匹配丝束的边缘由多个边缘点组成,边缘点的像素横坐标记为X i,则每根丝束左边缘像素点构成集合[X 1,X 2,…,X n],取min[X 1,X 2,…,X n]记为X min,取max[X 1,X 2,…,X n]记为X max,然后,取H左=|X max-X min|,H右=|X max-X min|,H左、H右分别代表待匹配丝束的左、右边缘弯曲程度;
H全左代表全局图像中待匹配丝束的左边缘弯曲程度,H全右代表全局图像中待匹配丝束的右边缘弯曲程度,H局左代表局部图像中待匹配丝束的左边缘弯曲程度,H局右代表局部图像中待匹配丝束的右边缘弯曲程度。
所述G灰依据以下公式取得:
操作时,先在全局图像中圈定一个模板,该模板包括待匹配丝束的图像,再将模板的中心像素灰度记为gA,将模板的平均像素灰度记为然后在局部图像中建立一个与模板形状一致的窗口,该窗口包括待匹配丝束的图像,再将窗口的中心像素记为gB,将窗口的平均像素灰度记为然后计算G灰。
在将局部图像与全局图像进行匹配之前,先在局部图像、全局图像上确定待匹配丝束的中心检测点,该确定方法包括以下步骤:
先以起始时的待匹配丝束的图像为0°,再记录此时待匹配丝束的外接矩形的长度、宽度与面积,然后将待匹配丝束的图像旋转一个角度,再计算旋转之后的待匹配丝束的外接矩形的长度、宽度与面积,依次操作,直至旋转360°,以得到多个外接矩形的面积,然后选择最小面积所对应的外接矩形为最小外接矩形,再求出最小外接矩形的质心,取其横坐标,以作为中心检测点。
与现有技术相比,本发明的有益效果为:
1、本发明一种基于全局-局部双摄图像的丝束匹配定位方法中,通过全局摄像头、局部摄像头分别对同一处丝束场景拍摄丝束图像,随后从双摄图像中提取丝束的五种特征,进行相关性计算,以在两种图像中对同一丝束(待匹配丝束)的图像进行匹配,最终实现待匹配丝束图像的精准匹配定位,以利于后续的丝束检测。经过实验验证,本方法不仅具有实时性、高准确性、高效率的特点,而且在噪声、强光弱光条件下表现更优于传统匹配算法。因此,本发明不仅精确度较高,而且适合于丝束定位。
2、本发明一种基于全局-局部双摄图像的丝束匹配定位方法中,当对全局图像、局部图像进行匹配时,需要考虑五种特征,分别为S面(待匹配丝束的面积特征向量)、D距(待匹配丝束的左、右相邻丝束中心检测点之间的欧式距离特征向量)、F轮(待匹配丝束的轮廓特征向量)、H弯(待匹配丝束的边缘弯曲程度的特征向量)、G灰(待匹配丝束的灰度特征向量),只有五种特征都大于各自设定的阈值,才能判定全局图像、局部图像相匹配,再以此为基础确定需要移动的横坐标的间距,从而确保横移座更够精准的移动到待检测的下一根丝束的正上方,进而确保后续检测的高精度。因此,本发明不仅匹配精准,而且检测的精确度较高。
3、本发明一种基于全局—局部双摄图像的丝束匹配定位方法中,五种匹配特征,即S面、D距、F轮、H弯、G灰在进行获取时,都配有各自专门的计算公式与计算方法,且计算公式、计算方法都结合待匹配的丝束的各种特征而定,如面积、间距、轮廓、弯曲、灰度等,以真实、精准的反馈丝束的特征,从而最终确保匹配的高精度。因此,本发明与待处理对象,即丝束的贴合性较强,匹配精度较高。
附图说明
图1是本发明的结构示意图。
图2是图1中丝束与局部摄像头的相对位置示意图。
图3是本发明中预处理之后的丝束图像示意图。
图4是本发明中确定中心检测点之后的丝束图像示意图。
具体实施方式
以下结合附图说明和具体实施方式对本发明作进一步详细的说明。
参见图1—图4,一种基于全局—局部双摄图像的丝束匹配定位方法,所述定位方法包括依次进行的装置设置步骤与匹配定位步骤;
所述装置设置步骤是指:先在检测区的正上方设置一根检测横杆,所述检测区由多根并排行进的丝束构成,丝束的行进方向与检测横杆相垂直,所述检测横杆上设置有一个沿检测横杆作横向往返运动的横移座,该横移座的正下方设置一个与横移座一并运动的局部摄像头,该摄像头的拍摄范围为其下方,所述检测横杆上或其旁侧设置一个全局摄像头,该全局摄像头的拍摄范围为检测区;
所述匹配定位步骤包括:在丝束不断行进的过程中,全局摄像头、局部摄像头均不断的拍摄全局图像、局部图像,同时,横移座带动局部摄像头一同作横向移动,每当移动到某根丝束正上方时,横移座停止以进行检测操作,该检测操作结束后,横移座带动局部摄像头继续一同作横向移动,朝待检测的下一根丝束的正上方移动,直至移动到下一根丝束的正上方,再进行检测操作,依次重复,直至所有丝束的检测操作结束;
在横移座朝待检测的下一根丝束的正上方移动的过程中,将拍摄到待检测的下一根丝束全貌的局部图像与拍摄到待检测的下一根丝束全貌的全局图像不断的进行匹配,直至局部图像、全局图像相互匹配,再以匹配时的全局图像为基准,计算该全局图像中待检测的下一根丝束的中心检测点与上一个被检测的丝束的中心检测点之间的横坐标间距,再按照该横坐标间距移动横移座,以使横移座移动到待检测的下一根丝束的正上方,然后进行检测操作。
所述上一个被检测的丝束的中心检测点是以下任意一种:
若上一个被检测的丝束的中心检测点也经历了局部图像、全局图像的匹配,则上一个被检测的丝束的中心检测点就是上一次匹配后全局图像中被检测丝束的中心检测点;
若上一个被检测的丝束的中心检测点未经历局部图像、全局图像的匹配,而是所述匹配定位步骤的起始阶段,该起始阶段是指一开始时,横移座就位于第一根丝束的正上方以进行检测,此时,上一个被检测的丝束的中心检测点就为第一根丝束的中心检测点。
所述计算该全局图像中待检测的下一根丝束的中心检测点与上一个被检测的丝束的中心检测点之间的横坐标间距是指:先计算两个中心检测点之间像素点的数量,再代入单个像素点的面积,以及相邻像素点的间距,从而得出两个中心检测点之间的横坐标间距。
所述匹配定位步骤中,所述局部图像、全局图像相互匹配是指局部图像、全局图像中待检测的下一根丝束的五种丝束特征向量都大于各自的设定阈值,此时,待检测的下一根丝束为待匹配丝束;所述五种丝束特征向量是指:
S面:待匹配丝束的面积特征向量;
D距:待匹配丝束的左、右相邻丝束中心检测点之间的欧式距离特征向量,即左、右相邻丝束中心检测点之间的横坐标的差值;
F轮:待匹配丝束的轮廓特征向量;
H弯:待匹配丝束的边缘弯曲程度的特征向量;
G灰:待匹配丝束的灰度特征向量。
所述S面依据以下公式取得:
其中,S全是指全局图像中待匹配丝束的真实面积,S局是指局部图像中待匹配丝束的真实面积;所述S全、S局都依据待匹配线束在标准面积版中的像素含量以及标准面积版面积计算而得;
S代表待匹配丝束的面积,R代表标准面积版面积,Sn代表标准面积版中的待匹配丝束所包括的像素数,Gn代表标准面积版中待匹配丝束之外的背景所包括像素数;
所述标准面积版面积是指在局部图像或全局图像中选定一个能够包含待匹配丝束的版面,再依据该版面中每个像素点所代表的真实面积以计算出标准面积版面积。
所述D距依据以下公式取得:
Di=|pxi+1-pxi_1|;
其中,D全代表全局图像中待匹配丝束的左、右相邻丝束中心检测点之间的横坐标的差值,D局代表局部图像中待匹配丝束的左、右相邻丝束中心检测点之间的横坐标的差值,Di代表第i条丝束的左、右相邻丝束中心检测点之间的横坐标的差值;
pxi+1代表第i+1条丝束中心检测点的横坐标,pxi-1代表第i-1条丝束中心检测点的横坐标。
所述F轮依据以下公式取得:
其中,FD全代表全局图像中待匹配丝束的轮廓形状的特征向量,FD局代表局部图像中待匹配丝束的轮廓形状的特征向量;
将待匹配丝束的轮廓视为曲线c(t),a代表cos,b代表sin,曲线c(t)的第k个系数axk,bxk,ayk和byk的组合构成具有平移、旋转和尺度不变性的傅里叶描述子如下:
FD代表丝束轮廓经傅里叶变换以后,采用N个傅里叶描述子描述丝束轮廓特征,即丝束的轮廓形状的特征向量如下:
FD=[FD1,FD2,...,FDN]。
所述H弯依据以下公式取得:
H左=|xmax-xmin|
H右=|xmax-xmin|.
其中,待匹配丝束的边缘由多个边缘点组成,边缘点的像素横坐标记为X i,则每根丝束左边缘像素点构成集合[X 1,X 2,…,X n],取min[X 1,X 2,…,X n]记为X min,取max[X 1,X 2,…,X n]记为X max,然后,取H左=|X max-X min|,H右=|X max-X min|,H左、H右分别代表待匹配丝束的左、右边缘弯曲程度;
H全左代表全局图像中待匹配丝束的左边缘弯曲程度,H全右代表全局图像中待匹配丝束的右边缘弯曲程度,H局左代表局部图像中待匹配丝束的左边缘弯曲程度,H局右代表局部图像中待匹配丝束的右边缘弯曲程度。
所述G灰依据以下公式取得:
操作时,先在全局图像中圈定一个模板,该模板包括待匹配丝束的图像,再将模板的中心像素灰度记为gA,将模板的平均像素灰度记为然后在局部图像中建立一个与模板形状一致的窗口,该窗口包括待匹配丝束的图像,再将窗口的中心像素记为gB,将窗口的平均像素灰度记为然后计算G灰。
在将局部图像与全局图像进行匹配之前,先在局部图像、全局图像上确定待匹配丝束的中心检测点,该确定方法包括以下步骤:
先以起始时的待匹配丝束的图像为0°,再记录此时待匹配丝束的外接矩形的长度、宽度与面积,然后将待匹配丝束的图像旋转一个角度,再计算旋转之后的待匹配丝束的外接矩形的长度、宽度与面积,依次操作,直至旋转360°,以得到多个外接矩形的面积,然后选择最小面积所对应的外接矩形为最小外接矩形,再求出最小外接矩形的质心,取其横坐标,以作为中心检测点。
本发明的原理说明如下:
本发明中的全局图像、局部图像在匹配之前,优选进行图像预处理,即对全局图像、局部图像先进行灰度处理,再进行去噪滤波处理,尤其采用中值滤波效果最好(如图3所示)。上述图像经过预处理后优选采用Canny算子对丝束边缘进行检测。
参见图1与图2,所述“按照该横坐标间距移动横移座,以使横移座移动到待检测的下一根丝束的正上方,然后进行检测操作”是指:横向电机按照该横坐标间距移动横移座,直至横移座移动至待检测丝束的正上方时停止移动,再由纵向电机驱动张力检测压头下压待检测的丝束,以检测该丝束的张力,检测结束之后,先由纵向电机驱动张力检测压头上升复位,再由横向电机驱动横移座沿横向继续运动,以朝下一个待检测的丝束运行。
实施例1:
本实施例是比较不同高斯白噪声下两种不同匹配算法的表现(NCC代表灰度模板匹配算法,DMA代表本发明),对原始图像添加不同方差的高斯白噪声,本次实验对图像不添加高斯白噪声(σ表示标准差);本次实验采用不添加高斯白噪声,添加σ为10、40、80的高斯白噪声,用两种不同的图像匹配算法分别进行匹配,不同算法的匹配结果见表1所示。
表1不同噪声下各算法表现
、
在表1中,NCC代表灰度模板匹配算法,DMA代表本发明,ML代表匹配对数,MLC代表正确匹配对数,AR代表匹配正确率,T代表匹配所耗时间。从表中数据可知,添加的高斯白噪声标准差越大,算法的匹配成功率和准确率都会下降,但是DMA算法无论在匹配对数还是匹配正确率都要优于NCC匹配算法,所耗时间和NCC算法比较接近。
实施例2:
本实施例主要是比较光照条件下两种算法的表现,本实施例采用强光和弱光两种实验条件,在光线强度一致的条件下采集图片,表2为不同光照条件下各匹配算法的表现。
表2不同光照强度下各算法表现
从表2中可看出,NCC算法和DMA算法在不同光照条件下都表现良好,但无论是匹配对数还是匹配正确率,DMA算法相较于NCC算法都更具优势。
以上所述仅为本发明的较佳实施方式,本发明的保护范围并不以上述实施方式为限,但凡本领域普通技术人员根据本发明所揭示内容所作的等效修饰或变化,皆应纳入权利要求书中记载的保护范围内。
Claims (10)
1.一种基于全局—局部双摄图像的丝束匹配定位方法,其特征在于:所述定位方法包括依次进行的装置设置步骤与匹配定位步骤;
所述装置设置步骤是指:先在检测区的正上方设置一根检测横杆,所述检测区由多根并排行进的丝束构成,丝束的行进方向与检测横杆相垂直,所述检测横杆上设置有一个沿检测横杆作横向往返运动的横移座,该横移座的正下方设置一个与横移座一并运动的局部摄像头,该摄像头的拍摄范围为其下方,所述检测横杆上或其旁侧设置一个全局摄像头,该全局摄像头的拍摄范围为检测区;
所述匹配定位步骤包括:在丝束不断行进的过程中,全局摄像头、局部摄像头均不断的拍摄全局图像、局部图像,同时,横移座带动局部摄像头一同作横向移动,每当移动到某根丝束正上方时,横移座停止以进行检测操作,该检测操作结束后,横移座带动局部摄像头继续一同作横向移动,朝待检测的下一根丝束的正上方移动,直至移动到下一根丝束的正上方,再进行检测操作,依次重复,直至所有丝束的检测操作结束;
在横移座朝待检测的下一根丝束的正上方移动的过程中,将拍摄到待检测的下一根丝束全貌的局部图像与拍摄到待检测的下一根丝束全貌的全局图像不断的进行匹配,直至局部图像、全局图像相互匹配,再以匹配时的全局图像为基准,计算该全局图像中待检测的下一根丝束的中心检测点与上一个被检测的丝束的中心检测点之间的横坐标间距,再按照该横坐标间距移动横移座,以使横移座移动到待检测的下一根丝束的正上方,然后进行检测操作。
2.根据权利要求1所述的一种基于全局—局部双摄图像的丝束匹配定位方法,其特征在于:所述上一个被检测的丝束的中心检测点是以下任意一种:
若上一个被检测的丝束的中心检测点也经历了局部图像、全局图像的匹配,则上一个被检测的丝束的中心检测点就是上一次匹配后全局图像中被检测丝束的中心检测点;
若上一个被检测的丝束的中心检测点未经历局部图像、全局图像的匹配,而是所述匹配定位步骤的起始阶段,该起始阶段是指一开始时,横移座就位于第一根丝束的正上方以进行检测,此时,上一个被检测的丝束的中心检测点就为第一根丝束的中心检测点。
3.根据权利要求1或2所述的一种基于全局—局部双摄图像的丝束匹配定位方法,其特征在于:所述计算该全局图像中待检测的下一根丝束的中心检测点与上一个被检测的丝束的中心检测点之间的横坐标间距是指:先计算两个中心检测点之间像素点的数量,再代入单个像素点的面积,以及相邻像素点的间距,从而得出两个中心检测点之间的横坐标间距。
4.根据权利要求1或2所述的一种基于全局—局部双摄图像的丝束匹配定位方法,其特征在于:所述匹配定位步骤中,所述局部图像、全局图像相互匹配是指局部图像、全局图像中待检测的下一根丝束的五种丝束特征向量都大于各自的设定阈值,此时,待检测的下一根丝束为待匹配丝束;所述五种丝束特征向量是指:
S面:待匹配丝束的面积特征向量;
D距:待匹配丝束的左、右相邻丝束中心检测点之间的欧式距离特征向量,即左、右相邻丝束中心检测点之间的横坐标的差值;
F轮:待匹配丝束的轮廓特征向量;
H弯:待匹配丝束的边缘弯曲程度的特征向量;
G灰:待匹配丝束的灰度特征向量。
8.根据权利要求4所述的一种基于全局-局部双摄图像的丝束匹配定位方法,其特征在于:所述H弯依据以下公式取得:
H左=|xmax-xmin|
H右=|xmax-xmin|;
其中,待匹配丝束的边缘由多个边缘点组成,边缘点的像素横坐标记为Xi,则每根丝束左边缘像素点构成集合[X1,X2,…,Xn],取min[X1,X2,…,Xn]记为Xmin,取max[X1,X2,…,Xn]记为Xmax,然后,取H左=|Xmax-Xmin|,H右=|Xmax-Xmin|,H左、H右分别代表待匹配丝束的左、右边缘弯曲程度;
H全左代表全局图像中待匹配丝束的左边缘弯曲程度,H全右代表全局图像中待匹配丝束的右边缘弯曲程度,H局左代表局部图像中待匹配丝束的左边缘弯曲程度,H局右代表局部图像中待匹配丝束的右边缘弯曲程度。
10.根据权利要求1或2所述的一种基于全局—局部双摄图像的丝束匹配定位方法,其特征在于:在将局部图像与全局图像进行匹配之前,先在局部图像、全局图像上确定待匹配丝束的中心检测点,该确定方法包括以下步骤:
先以起始时的待匹配丝束的图像为0°,再记录此时待匹配丝束的外接矩形的长度、宽度与面积,然后将待匹配丝束的图像旋转一个角度,再计算旋转之后的待匹配丝束的外接矩形的长度、宽度与面积,依次操作,直至旋转360°,以得到多个外接矩形的面积,然后选择最小面积所对应的外接矩形为最小外接矩形,再求出最小外接矩形的质心,取其横坐标,以作为中心检测点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111127934.8A CN113936152B (zh) | 2021-09-26 | 2021-09-26 | 一种基于全局—局部双摄图像的丝束匹配定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111127934.8A CN113936152B (zh) | 2021-09-26 | 2021-09-26 | 一种基于全局—局部双摄图像的丝束匹配定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113936152A true CN113936152A (zh) | 2022-01-14 |
CN113936152B CN113936152B (zh) | 2024-04-12 |
Family
ID=79276687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111127934.8A Active CN113936152B (zh) | 2021-09-26 | 2021-09-26 | 一种基于全局—局部双摄图像的丝束匹配定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113936152B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106548147A (zh) * | 2016-11-02 | 2017-03-29 | 南京鑫和汇通电子科技有限公司 | 一种快速的噪声鲁棒性图像异物检测方法及teds系统 |
CN106841209A (zh) * | 2016-12-28 | 2017-06-13 | 杭州慧芯智能科技有限公司 | 一种基于大数据自学习化纤丝锭智能外观检测系统及方法 |
US20180015571A1 (en) * | 2014-12-30 | 2018-01-18 | Jiangsu University Of Science And Technology | Infrared vision sensing detection method and device for narrow-gap weld seam deviation |
US20190318444A1 (en) * | 2017-04-17 | 2019-10-17 | Untited States of America as represented by the Administrator of NASA | Method and means to analyze thermographic data acquired during automated fiber placement |
-
2021
- 2021-09-26 CN CN202111127934.8A patent/CN113936152B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180015571A1 (en) * | 2014-12-30 | 2018-01-18 | Jiangsu University Of Science And Technology | Infrared vision sensing detection method and device for narrow-gap weld seam deviation |
CN106548147A (zh) * | 2016-11-02 | 2017-03-29 | 南京鑫和汇通电子科技有限公司 | 一种快速的噪声鲁棒性图像异物检测方法及teds系统 |
CN106841209A (zh) * | 2016-12-28 | 2017-06-13 | 杭州慧芯智能科技有限公司 | 一种基于大数据自学习化纤丝锭智能外观检测系统及方法 |
US20190318444A1 (en) * | 2017-04-17 | 2019-10-17 | Untited States of America as represented by the Administrator of NASA | Method and means to analyze thermographic data acquired during automated fiber placement |
Non-Patent Citations (1)
Title |
---|
胡正平;杨苏;: "基于关键角点引导约束的广义Hough变换两层目标定位算法", 燕山大学学报, no. 03, 31 May 2010 (2010-05-31) * |
Also Published As
Publication number | Publication date |
---|---|
CN113936152B (zh) | 2024-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103577793B (zh) | 手势识别方法及装置 | |
Lee et al. | Depth-assisted real-time 3D object detection for augmented reality | |
Bak et al. | Improving person re-identification by viewpoint cues | |
CN108256394A (zh) | 一种基于轮廓梯度的目标跟踪方法 | |
CN106991690A (zh) | 一种基于运动目标时序信息的视频序列同步方法 | |
CN110222661B (zh) | 一种用于运动目标识别及跟踪的特征提取方法 | |
CN111738211B (zh) | 基于动态背景补偿与深度学习的ptz摄像机运动目标检测与识别方法 | |
CN111739064B (zh) | 用于视频中目标跟踪的方法及存储设备和控制设备 | |
CN109063774B (zh) | 图像追踪效果评价方法、装置、设备及可读存储介质 | |
CN116012579A (zh) | 一种基于列车车辆智能巡检机器人拍摄图像检测零部件异常状态的方法 | |
CN116051820A (zh) | 基于多模板的单目标检测方法 | |
CN110555867A (zh) | 一种融合物体捕获识别技术的多目标物体跟踪方法 | |
Guo et al. | Vehicle fingerprinting for reacquisition & tracking in videos | |
CN106446832B (zh) | 一种基于视频的实时检测行人的方法 | |
CN110111368B (zh) | 一种基于人体姿态识别的相似移动目标的检测跟踪方法 | |
CN116665097A (zh) | 一种结合上下文感知的自适应目标跟踪方法 | |
CN113936152A (zh) | 一种基于全局—局部双摄图像的丝束匹配定位方法 | |
CN111145216A (zh) | 一种视频图像目标的跟踪方法 | |
CN109886265B (zh) | 一种基于Adaboost和模板匹配的车门限位器检测方法 | |
CN111127311B (zh) | 基于微重合区域的图像配准方法 | |
Yuan et al. | Realtime CNN-based keypoint detector with Sobel filter and CNN-based descriptor trained with keypoint candidates | |
CN107451574B (zh) | 一种基于类Haar视觉特征感知的运动估计方法 | |
Jelača et al. | Real-time vehicle matching for multi-camera tunnel surveillance | |
CN110781769A (zh) | 一种快速行人检测与跟踪的方法 | |
Aladem et al. | Image Preprocessing for Stereoscopic Visual Odometry at Night |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |