CN105224941A - 对象辨识与定位方法 - Google Patents
对象辨识与定位方法 Download PDFInfo
- Publication number
- CN105224941A CN105224941A CN201410273163.7A CN201410273163A CN105224941A CN 105224941 A CN105224941 A CN 105224941A CN 201410273163 A CN201410273163 A CN 201410273163A CN 105224941 A CN105224941 A CN 105224941A
- Authority
- CN
- China
- Prior art keywords
- marginal point
- affinity score
- gravity place
- time imaging
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本案关于一种对象辨识与定位方法,包括:执行脱机模式,取得对象的标准影像的多个取样边缘点及其梯度方向角度与重心;依据多个取样边缘点及设定的侦测距离范围与设定的侦测梯度方向角度差异范围计算多个相似分数窗体;执行在线模式,取得实时影像的多个边缘点及其梯度方向角度;以及对应实时影像的多个边缘点计算多个预测重心位置,依照多个相似分数窗体的多个相似分数,加总多个预测重心位置相对应的相似分数,且以分数高在用户设定阀值的区域最大值的预测重心位置判别为相对在标准影像的该重心位置,从而辨识与定位对象。该方案有效解决了现有技术在对对象辨识与定位时的准确性和效率性差的技术问题。
Description
技术领域
本案是关于一种对象辨识与定位方法,尤指一种可提升辨识准确率且降低计算复杂度的对象辨识与定位方法。
背景技术
对象辨识与定位在机器视觉(MachineVision)上扮演非常重要的角色。产在线待测的料件在进行量测、检测的工作之前,一般都需要先通过定位以补偿料件摆放的位置的误差。此外如机器人在产线对料件的夹取、组装,都需要对料件进行辨识与定位。
早期对象辨识与定位是通过连通组件分析(ConnectedComponentAnalysis),影像经由二值化后分出前景物件群,再通过分析主轴长度、面积、周长等特征来辨识对象。如果对象本身有破损或是被遮蔽的情形,连通组件分析的辨识率会大幅降低,以及如果环境光源变化很大,二值化后也难以将对象清楚的分割出来。
绝对误差和方法(SumofAbsoluteDifference,SAD)也广泛的用于对象的定位,虽然此方法不需要通过二值化,且实作上可以通过Salari,W.LiandE.等人所提出的三角不等式的概念大量减少计算量,但是此方法无法克服线性的光源变化。而LuigiDiStefano,StefanoMattocciaandMartinoMola等人所提出的正规化相关匹配法(NormalizedCrossCorrelation,NCC)可以克服线性的光源变化,是目前最广泛运用的定位方法之一,但是遇到对象被遮蔽、非线性光源变化的情况下,其相似分数会大幅下降,进而造成定位不稳定的现象。
前述的习用方法都是利用像素值作为定位使用的特征,而D.H.Ballard所提出的广义霍夫转换法(GeneralizingHoughTransform,GHT)是从灰阶影像中提取边缘(Edge)作为特征,此方法可以克服非线性光源变化,对象被遮蔽的情形,不过此方法在影像背景复杂,不属于对象的边缘很多的情况下,投票时会有大量的错误肯定(FalsePositive),造成检测结果不稳定。Thayananthan,A.,Stenger,B.,Torr,P.H.S.andCipolla,R.等人所提出的距离转换法(ChamferTransform)也是利用边缘作为特征进行定位,此方法可以实做的较快,但是此方法对于对象被遮蔽,产生许多非对象的边缘时,其定位效果便非常不稳定。
因此,如何发展一种可改进上述公知技术缺陷的对象辨识与定位方法,实为相关技术领域目前所迫切需要解决的问题。
发明内容
本案的目的为提供一种对象辨识与定位方法,其可在二维实时影像中辨识与定位出用户所定义的对象,以及在对象被部分遮蔽的情况下,在有复杂背景的情况下和/或在非线性的光源变化下,皆可辨识与定位对象。
本案的另目的在于提供一种对象辨识与定位方法,其可提升辨识准确率及降低计算复杂度。
为达上述目的,本案的优先实施例为提供一种对象辨识与定位方法,包含步骤:执行脱机模式,对对象的标准影像进行分析以获得该标准影像的多个取样边缘点以及该多个取样边缘点的各梯度方向角度与重心;依据所述多个取样边缘点以及设定的侦测距离范围与设定的侦测梯度方向角度差异范围计算多个相似分数窗体;执行在线模式,对实时影像进行分析以获得该实时影像的多个边缘点以及所述多个边缘点的各梯度方向角度;以及对应该实时影像的所述多个边缘点计算多个预测重心位置,依照所述多个相似分数窗体的多个相似分数,加总所述多个预测重心位置相对应的相似分数,且以分数高于用户设定阀值的区域最大值的所述预测重心位置判别为相对在所述标准影像的所述重心位置,从而辨识与定位所述对象。
如上所述的对象辨识与定位方法,其中所述步骤(a)进一步的包括步骤:
(a1)输入所述标准影像的灰阶影像,同时利用特定边缘点撷取算法取得所述标准影像的多个边缘点;
(a2)取得所述多个边缘点的各梯度方向角度;以及
(a3)对所述多个边缘点均匀取样,以取得所述多个取样边缘点,其中所述多个取样边缘点是少在或等在所述多个边缘点;以及
(a4)根据所述多个取样边缘点计算出所述重心,且取得所述标准影像的取样边缘点集合。
如上所述的对象辨识与定位方法,其中所述步骤(b)进一步的包括步骤:
(b1)依据所述多个取样边缘点以及所述设定的侦测梯度方向角度差异范围计算出多个空白相似分数窗体;以及
(b2)依据所述多个取样边缘点以及所述设定的侦测距离范围以及所述设定的侦测梯度方向角度差异范围计算出所述多个相似分数,同时将其填入所述多个空白相似分数窗体,以取得所述多个相似分数窗体。
如上所述的对象辨识与定位方法,其中所述设定的侦测距离范围以及所述设定的侦测梯度方向角度差异范围为可调整设定的参数值。
如上所述的对象辨识与定位方法,其中所述步骤(c)进一步的包括步骤:
(c1)输入所述实时影像的灰阶影像,并利用特定边缘点撷取算法取得所述实时影像的所述多个边缘点;以及
(c2)依据所述实时影像的所述多个边缘点,计算取得所述实时影像的所述多个边缘点的各梯度方向角度。
如上所述的对象辨识与定位方法,其中所述步骤(d)进一步的包括步骤(d1)根据所述设定的侦测梯度方向角度差异范围对所述实时影像的所述多个边缘点进行筛选,以取得所述实时影像的多个筛选边缘点。
如上所述的对象辨识与定位方法,其中在所述步骤(d1)中,若所述实时影像的所述多个边缘点与所述标准影像的所述多个取样边缘点的梯度方向角度差小于或等于所述设定的侦测梯度方向角度差异范围,则将所述实时影像的所述多个边缘点视为所述实时影像的所述多个筛选边缘点。
如上所述的对象辨识与定位方法,其中所述步骤(d1)的后进一步的包括步骤(d2)将所述实时影像的所述多个筛选边缘点分别与所述标准影像的所述多个取样边缘点进行比对,以计算出所述多个预测重心位置。
如上所述的对象辨识与定位方法,其中在步骤(d2)的后还包括步骤(d3)依据所述实时影像的所述多个筛选边缘点与所述标准影像的所述多个取样边缘点的梯度方向角度差选出所述多个预测重心位置相对应的相似分数窗体。
如上所述的对象辨识与定位方法,其中在所述步骤(d3)的后还包括步骤(d4)利用所述相对应的相似分数窗体计算出所述多个预测重心位置的相似分数值。
如上所述的对象辨识与定位方法,其中在所述步骤(d4)中,计算所述多个预测重心位置的相似分数值时,若所述预测重心位置同时有多个相似分数窗体的相似分数,则以产生所述预测重心位置时作为基准的所述取样边缘点是否相同来决定计算方式。
如上所述的对象辨识与定位方法,其中在所述步骤(d4)中,若产生所述预测重心位置时作为基准的所述取样边缘点相同,则以择优取代的方式,判断所述预测重心位置的相似分数为所述多个相似分数窗体中相对应的相似分数最高。
如上所述的对象辨识与定位方法,其中在所述步骤(d4)中,若产生所述预测重心位置时作为基准的所述取样边缘点相异,则以累加的方式,将所述多个相似分数窗体相对应在所述预测重心位置的相似分数累加,而所述预测重心位置的相似分数即为累加后的相似分数。
如上所述的对象辨识与定位方法,其中所述使用设定阀值是呈可调整设定的分数门坎,而判别为相对在所述标准影像的所述重心位置的预测重心位置是以分数高于用户设定阀值的区域最大值为判别依据。
本发明提供的对象辨识与定位方法,通过(a)执行脱机模式,对对象的标准影像进行分析以取得所述标准影像的多个取样边缘点以及所述多个取样边缘点的各梯度方向角度与重心;(b)依据所述多个取样边缘点以及设定的侦测距离范围与设定的侦测梯度方向角度差异范围计算多个相似分数窗体;(c)执行在线模式,对实时影像进行分析以取得所述实时影像的多个边缘点以及所述多个边缘点的各梯度方向角度;以及(d)对所述实时影像的所述多个边缘点计算多个预测重心位置,依照所述多个相似分数窗体的多个相似分数,加总所述多个预测重心位置相对应的相似分数,且以分数高于用户设定阀值的所述预测重心位置判别为相对在所述标准影像的所述重心位置,从而辨识与定位所述对象,该方案可提高对对象辨识与定位的准确性和效率性。
附图说明
图1为本案优选实施例的对象辨识与定位方法的流程步骤图;
图2为本案的对象辨识与定位方法的脱机模式阶段的部分流程步骤图;
图3A、图3B至图3C为实施图2所示步骤的示范性实施例的示意图;
图4为本案的对象辨识与定位方法的脱机模式阶段的另一部分流程步骤图;
图5为示范性地显示各预测重心加总后的分数高低波形图;
图6A、图6B至图6C为实施图4所示步骤的示范性实施例的示意图;
图7为本案的对象辨识与定位方法的在线模式阶段的部分流程步骤图;
图8为本案的对象辨识与定位方法的在线模式阶段的另一部分流程步骤图;
图9至图12为实施第8图所示步骤的示范性实施例的示意图。
具体实施方式
体现本案特征与优点的些典型实施例将在后段的说明中详细叙述。应理解的是本案能够在不同的态样上具有各种的变化,其皆不脱离本案的范围,且其中的说明及图式在本质上是当作说明之用,而非架构在限制本案。
请参阅图1,其为本案优选实施例的对象辨识与定位方法的流程步骤图。本案的对象辨识与定位方法可在二维实时影像中辨识与定位出用户所定义的对象。如图1所示,本案的对象辨识与定位方法主要可分为两个阶段步骤,包括如步骤S1所示的脱机模式阶段(Offlinephasestage)以及如步骤S2所示的在线模式阶段(Onlinephasestage)。脱机模式阶段包括下列步骤:首先,如步骤S11所示,将用户所选定的对象的影像定义为标准影像(Templateimage),且对该对象的该标准影像进行分析以计算出或取得该标准影像的多个取样边缘点以及多个取样边缘点的各梯度方向与重心。接着,如步骤S12所示,依据前述多个取样边缘点以及设定的侦测距离范围与设定的侦测梯度方向角度差异范围计算出多个相似分数窗体。在脱机模式阶段的后,接着执行在线模式阶段。在线模式阶段包括下列步骤:首先,如步骤S21所示,对实时影像进行分析以计算出或取得该实时影像的多个边缘点以及多个边缘点的各梯度方向。之后,如步骤S22所示,对该实时影像的多个边缘点计算多个预测重心位置,接着依照多个相似分数窗体的多个相似分数,加总多个预测重心位置相对应的相似分数,且以分数高于用户设定阀值的区域最大值的预测重心位置判别为相对在标准影像的重心位置,从而辨识与定位该对象。
图2为本案的对象辨识与定位方法的脱机模式阶段的部分流程步骤图。如图1及图2所示,前述步骤S11包括下列步骤:首先,如步骤S111所示,提供图像处理单元,其中该图像处理单元包括边缘点撷取模块。接着,如步骤S112所示,将用户选定或定义的对象的灰阶影像(即标准影像)输入该边缘点撷取模块,且该边缘点撷取模块执行特定边缘点撷取算法以取得标准影像的多个边缘点,例如N个边缘点,其中N为正整数。在本实施例中,该特定边缘点撷取算法可为肯尼算法(Cannyalgorithm),但并不以此为限,其中肯尼算法为本领域具有通常知识者所知悉之现有技术,故在此不再赘述。接着,如步骤S113所示,计算该多个边缘点的各梯度方向,以得到标准影像的边缘点集合E。接着,如步骤S114所示,对该边缘点集合E的多个边缘点进行均匀取样,以取得多个取样边缘点,例如M个取样边缘点,其中M为正整数,且M小在N。在此步骤中,进行均匀取样的方法为本领域具有通常知识者所知悉之现有常识,故在此不再赘述。之后,如步骤S115所示,计算该多个取样边缘点的重心(或称质心)以作为中心点,即计算该M个取样边缘点的重心,同时记录每个取样边缘点与该重心的距离及各梯度方向,以取得代表用户所选定的对象的标准影像的取样边缘点集合F。
图3A、图3B至图3C为实施图2所示步骤的示范性实施例的示意图。在前述步骤S112中,如图3A所示,输入该边缘点撷取模块的标准影像为O(x,y),其中(x,y)为数字影像的像素值,一般的范围是介于0至255之间,x与y的范围分别为0~Mw-1与0~Mh-1,其中Mw与Mh为用户选定的对象的标准影像的长与宽,例如Mw与MH可分别为7与6。在前述步骤S113中,如图3B所示,撷取到的边缘点集合为E={xi,yi,gi|i=0~N-1},其中N为边缘点个数,(xi,yi)为边缘点的影像坐标,gi为每个边缘点的梯度方向角度,其中梯度方向角度g定义为g=arctan(My/Mx),以度为度量表示同时可四舍五入至整数字,Mx,My分别是边缘点X,Y方向的微分,可通过索贝尔运算符(SobelOperator)运算而得,而通过索贝尔运算符运算而得梯度方向角度为本领域具有通常知识者所知悉之公知常识,故在此不再赘述。此外,在步骤S114及步骤S115中,如图3C所示,根据M个取样边缘点计算出标准影像的重心位置是为(Cx,Cy),其中标准影像的重心位置(Cx,Cy)定义为
每个取样边缘点(xi,yi)与重心位置(Cx,Cy)的距离dxi=xi-Cx,dyi=yi-Cy,最后得到代表用户所定义的标准影像的取样边缘点集合F={xi,yi,gi|i=0~M-1}。
图4是为本案的对象辨识与定位方法的脱机模式阶段的另一部分流程步骤图。如图1及图4所示,前述步骤S12包括下列步骤:首先,如步骤S121所示,依据标准影像的多个取样边缘点的梯度方向角度与假设实时影像的多个边缘点梯度方向角度间的差异且配合设定的侦测梯度方向角度差异范围计算出多个空白相似分数窗体。接着,如步骤S122所示,依据标准影像的多个取样边缘点与假设实时影像的多个边缘点间的距离以及梯度方向角度差异且配合设定的侦测距离范围与设定的侦测梯度方向角度差异范围计算出多个相似分数,同时将其填入多个空白相似分数窗体,以取得多个相似分数窗体Jpsf,其中,设定的侦测距离范围与设定的侦测梯度方向角度差异范围的值为使用者依据实际使用需求而可调整设定的参数值。在前述步骤中,若假设实时影像的边缘点集合为S={xj,yj,gj|j=0~P-1},其中(xj,yj)为该假设实时影像的边缘点影像坐标,gj为该假设实时影像的每个边缘点的梯度方向角度,P为该假设实时影像的边缘点个数,(xj,yj)的范围分别为0~Sw-1与0~Sh-1,其中Sw与Sh为该假设实时影像的灰阶影像的长与宽。此外,重心预测位置C加总后的相似分数是依下列方程式定义与计算取得:
Hi={(xj,yj,gj)|(xj,yj,gj)∈S,j=0~P-1,dxi+u-R≤xj≤dxi+u+R,dyi+v-R≤
(3)
yj≤dyi+v+R,|gi-gj|≤T}
其中,式(1)是计算各预测重心位置加总后的相似分数,如果在每个可能的重心位置以式(1)计算相似分数,其相似分数的分布如图5所示呈波浪图,其高于阈值的区域最大值即为所侦测的对象位置,而式(2)是以标准影像的多个取样边缘点与实时影像的多个边缘点间的距离与梯度方向角度的差异作为相似分数的依据,其中,R与T分别为设定的侦测距离范围与设定的侦测梯度方向角度差异范围。如果在每个可能重心位置计算相似分数以产生相似分数分布图,其计算量过于庞大,本案是以对象边缘点与实时影像边缘点的距离与梯度方向差异来累加相似分数分布图,所产生的相似分数分布图与前述方法产生的相似分数分布图等价,但是计算量大幅减少。
通过上述式(1)至式(3)可知,当用户定义的标准影像的重心在坐标(u,v)上时,每个标准影像的取样边缘点会在半径为R的范围内且与实时影像的边缘点的梯度方向角度差异小于或等于T度的实时影像边缘点子集合中,寻找距离最近且梯度方向角度差异最小的边缘点,除了距离最近外,本案方法进一步的将梯度方向角度纳入相似分数定义与计算,如此可大幅提升辨识能力,举例而言,当R=2,T=2时,标准影像的取样边缘点与实时影像的边缘点间的梯度方向角度差异可能包括|gi-gj|=0、1及2的情况,其中当梯度方向角度差异|gi-gj|=0时,相似分数窗体Jpsf0可如图6A所示,窗体中每个位置的相似分数可通过式(2)计算得出,式(2)中的
表示标准影像的取样边缘点与实时影像的筛选边缘点的距离,由于R与T为已知,边缘点的坐标与梯度方向均为整数,所以式(2)的计算值可在脱机阶段计算后储存在窗体中,举例而言,将窗体的中心位置视为标准影像的取样边缘点与实时影像的筛选边缘点的X方向与Y方向距离均为0
的位置,则可得下列算式
以此类推;当梯度方向角度差异|gi-gj|=1时,相似分数窗体Jpsf1可如图6B所示;以及当梯度方向角度差异|gi-gj|=2时,相似分数窗体Jpsf2可如图6C所示。
图7为本案的对象辨识与定位方法的在线模式阶段的部分流程步骤图。如图1及图7所示,前述步骤S21包括下列步骤:首先,如步骤S211所示,提供影像捕获设备,且利用该影像捕获设备撷取实时影像并传送至该图像处理单元的该边缘点撷取模块。接着,如步骤S212所示,在该实时影像的灰阶影像输入该边缘点撷取模块后,该边缘点撷取模块执行特定边缘点撷取算法以取得实时影像的多个边缘点,例如P个边缘点,其中P为正整数。在本实施例中,该特定边缘点撷取算法可为肯尼算法(Cannyalgorithm),但并不以此为限。接着,如步骤S213所示,计算该多个边缘点的各梯度方向,以得到实时影像的边缘点集合。在此步骤中,撷取到的实时影像的边缘点集合是对应前述假设的实时影像的边缘点集合,即为S={xj,yj,gj|j=0~P-1},其中(xj,yj)为实时影像的边缘点影像坐标,gj为实时影像的每个边缘点的梯度方向角度,P为实时影像的边缘点个数,(xj,yj)的范围分别为0~Sw-1与0~Sh-1,其中Sw与Sh为实时影像的灰阶影像的长与宽。其中,梯度方向角度g定义为g=arctan(My/Mx),以度为度量表示同时四舍五入至整数字,Mx,My分别是边缘点X,Y方向的微分,可通过索贝尔运算符(SobelOperator)运算而得。
图8是为本案的对象辨识与定位方法的在线模式阶段的另部分流程步骤图。如图1及图8所示,前述步骤S22包括下列步骤:首先,如步骤S221所示,将实时影像的边缘点集合S以梯度方向角度做为索引得到360个子集合,其中该360个子集合表示如下:
S0={(xj,yj,gj)|(xj,yj,gj)∈S,J=0~P-1,gj=0},(4)
S1={(xj,yj,gj)|(xj,yj,gj)∈S,J=0~P-1,gj=1}…,(5)
S359={(xj,yj,gj)|(xj,yj,gj)∈S,J=0~P-1,gj=359}(6)。
接着,如步骤S222所示,依序以每个标准影像的取样边缘点作为基准,再根据设定的侦测梯度方向角度差异范围T选取出实时影像的多个筛选边缘点K,而筛选边缘点K为实时影像的边缘点的子集合K={Sk||k-gi|≤T},其中i为依序处理的标准影像的取样边缘点索引值,然为方便说明,在此皆以筛选边缘点K称之。其中,在依序处理标准影像边缘点前,先产生两个二维数组Vprev与V,并将其内容设为零,Vprev与V的大小为(Sw,Sh),V为加总至第i个标准影像的边缘点的相似分数数组,Vprev为加总至第i-1个标准影像的边缘点的相似分数数组。在依序处理标准影像的取样边缘点F时,以R=2,T=2为例,当加总至第i个标准影像的边缘点(dxi,dyi,gi),假设gi=45,则挑选S43,S44,S45,S46,S47这5个子集合,其中S43,S47因为边缘点方向角度差异为2度所以使用Jpsf2,S44,S46因为边缘点方向角度差异为1度所以使用Jpsf1,S45因为边缘点方向角度差异为0度所以使用Jpsf0来加总分数。之后,如步骤S223所示,接着每个依序处理的标准影像边缘点Fi与其选取的实时影像边缘点子集合K,配合相似分数窗体Jpsf可以计算出Fi与K所贡献的相似分数并累加在相似分数数组中。
然后,如步骤S224所示,利用该相对应的相似分数窗体计算或加总出该多个预测重心位置G的相对应的相似分数。在此步骤中,计算多个预测重心位置G的相似分数值时,若该预测重心位置同时有多个相似分数窗体Jpsf的相似分数J,则以产生该预测重心位置G时作为基准的该取样边缘点F是否相同来决定计算方式,若产生该预测重心位置G时作为基准的该取样边缘点F相同,则以择优取代的方式,判断该预测重心位置G的相似分数为该多个相似分数窗体Jpsf中相对应的相似分数最高。若产生该预测重心位置G时作为基准的该取样边缘点F相异,则以累加的方式,将多个相似分数窗体Jpsf相对应在该预测重心位置G的相似分数累加,而预测重心位置G的相似分数J即为累加后的相似分数。在此步骤中,以前述的示范例为例,对在子集合S43~S47中每个边缘点xj,yj,计算其假使与标准影像的多个边缘点dxi,dyi重合时,对象的重心位置(xj-dxi,dyi-yj),便以此点为预测重心位置G,使用相似分数窗体Jpsf加总V(如第12图所示):
v=V(xj-dxi+p,yj-dyi+q)
vp=Vprev(xj-dxi+p,yj-dyi+q)+Jpsf(R+p,R+q)
通过以上可知,上式是一个取代的过程,而非无条件累加的过程,换言之,在V的某一个元素中,对于一个(dxi,dyi)来说,只会有一个最好的(xj,yj)贡献其分数,所以不会有错误肯定(FalsePositive),也因此对于有复杂背景的影像,本案依然具有稳定的辨识能力,且最后输出的V完全与先前定义的相似分数等价,若是对于相异的(dxi,dyi)来说,则是以累加的方式,也因此进一步的可根据相异的(dxi,dyi)加强最后判定的预测重心位置G的准确性。
最后,如步骤S225所示,以分数高于用户设定阀值的区域最大值的预测重心位置G判别为相对在标准影像的该重心位置,从而实现对象辨识与定位,其中该使用设定阀值是呈可通过使用根据实际需求而可调整地设定的分数门坎,且判别为相对在标准影像的该重心位置的预测重心位置G是取分数高于用户设定阀值的区域最大值。
图9至图12为实施图8所示步骤的示范性实施例的示意图。在本实施例中,如图9及图10所示,假设标准影像具有两个取样边缘点F,分别为F1与F2,且实时影像具有三个筛选边缘点K,分别为K1,K2与K3。当以标准影像的取样边缘点F1作为基准时,可通过实时影像的筛选边缘点K1,K2与K3以及标准影像的重心相对于取样边缘点F1的位置关是,预测实时影像的预测重心位置可为G1~G3。当以标准影像的取样边缘点F2作为基准时,可通过实时影像的筛选边缘点K1,K2与K3以及标准影像的重心相对于取样边缘点F2的位置关是,预测实时影像的预测重心位置可为G4~G6。如此一来,便可在实时影像的灰阶影像上预测多个预测重心位置G1~G6。其中,假设标准影像的取样边缘点F1与实时影像的筛选边缘点K1,K2与K3的梯度方向角度差异分别为1,1,2,故实时影像的筛选边缘点K1,K2与K3相对在标准影像的取样边缘点F1应分别填入相似分数窗体Jpsf1、Jpsf1以及Jpsf2,标准影像的取样边缘点F2与实时影像的筛选边缘点K1,K2与K3的梯度方向角度差异分别为0,1,0,故实时影像的筛选边缘点K1,K2与K3相对在标准影像的取样边缘点F2应分别填入相似分数窗体Jpsf0、Jpsf1以及Jpsf0。接着,通过第11图可知,预测重心位置G1与G2虽并非重迭在同一点,但当G1填入相似分数窗体Jpsf1以及G2填入相似分数窗体Jpsf1时,将会有部分的相似分数窗体重迭,即为图11中斜线标示的部分,由于重迭的相似分数皆是来自于筛选边缘点K1、K2以取样边缘点F1为基准而产生的相似分数窗体,即产生预测重心位置时作为基准的取样边缘点相同,因此可以择优取代的方式,在相似分数窗体重迭的点,取最高的相似分数作为该点的相似分数。此外,通过图12可知,预测重心位置G2与G6重迭在同一点,故当预测重心位置G2填入相对应的相似分数窗体Jpsf2以及预测重心位置G6填入相对应的相似分数窗体Jpsf0时,由于两张重迭的相似分数窗体是以相异的取样边缘点作为基准,即第图12中斜线标示的部分,预测重心位置G2是筛选边缘点K2以取样边缘点F1作为基准,而预测重心位置G6则是筛选边缘点K3以取样边缘点F2作为基准,两者作为基准的取样边缘点相异,故此两张相似分数窗体重迭的相似分数是以累加的方式,将同一点上重迭的两相似分数相加总,以得该点的相似分数,通过此方式可有效地避免公知技术中容易发生大量的错误肯定(FalsePositive),造成检测结果不稳定的情况。最后,便可以分数高于用户设定阀值的区域最大值的分数最高的预测重心位置判别为相对在标准影像的重心位置,从而达成对象辨识与定位。
综上所述,本案提供一种对象辨识与定位方法,本案的对象辨识与定位方法是利用边缘点及边缘点的梯度方向角度为特征,且以标准影像的取样边缘点与实时影像的边缘点间的距离以及梯度方向角度的差异作为对象辨识与定位的相似分数的依据,因此可在对象被部分遮蔽的情况下,在有复杂背景的情况下和/或在非线性的光源变化下,皆可辨识与定位对象,此外也可大幅提升对象辨识与定位的准确率,且可有效地避免习用技术中容易发生大量的错误肯定(FalsePositive),造成检测结果不稳定的情况。除此之外,常用技术中,对象辨识与定位的技术往往是针对每一可能的重心位置进行比对,故计算复杂度可表示为Sw·Sh·M(2R+1)2,然而本案所提出的对象辨识与定位方法是对标准影像的取样边缘点以及实时影像的边缘点进行比对,故计算复杂度可降低为(P·M(2R+1)2),而实时影像的边缘点个数P是远小于实时影像的像素总和,故本案所提出的对象辨识与定位方法不仅可有效地提升辨识定位的准确率,更可大幅降低对象辨识与定位的计算复杂度。
本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (14)
1.一种对象辨识与定位方法,其特征在在,包括:
(a)执行脱机模式,对对象的标准影像进行分析以取得所述标准影像的多个取样边缘点以及所述多个取样边缘点的各梯度方向角度与重心;
(b)依据所述多个取样边缘点以及设定的侦测距离范围与设定的侦测梯度方向角度差异范围计算多个相似分数窗体;
(c)执行在线模式,对实时影像进行分析以取得所述实时影像的多个边缘点以及所述多个边缘点的各梯度方向角度;以及
(d)对所述实时影像的所述多个边缘点计算多个预测重心位置,依照所述多个相似分数窗体的多个相似分数,加总所述多个预测重心位置相对应的相似分数,且以分数高于用户设定阀值的所述预测重心位置判别为相对在所述标准影像的所述重心位置,从而辨识与定位所述对象。
2.如权利要求1所述的对象辨识与定位方法,其中所述步骤(a)进一步的包括步骤:
(a1)输入所述标准影像的灰阶影像,同时利用特定边缘点撷取算法取得所述标准影像的多个边缘点;
(a2)取得所述多个边缘点的各梯度方向角度;以及
(a3)对所述多个边缘点均匀取样,以取得所述多个取样边缘点,其中所述多个取样边缘点是少在或等在所述多个边缘点;以及
(a4)根据所述多个取样边缘点计算出所述重心,且取得所述标准影像的取样边缘点集合。
3.如权利要求1所述的对象辨识与定位方法,其中所述步骤(b)进一步的包括步骤:
(b1)依据所述多个取样边缘点以及所述设定的侦测梯度方向角度差异范围计算出多个空白相似分数窗体;以及
(b2)依据所述多个取样边缘点以及所述设定的侦测距离范围以及所述设定的侦测梯度方向角度差异范围计算出所述多个相似分数,同时将其填入所述多个空白相似分数窗体,以取得所述多个相似分数窗体。
4.如权利要求1所述的对象辨识与定位方法,其中所述设定的侦测距离范围以及所述设定的侦测梯度方向角度差异范围为可调整设定的参数值。
5.如权利要求1所述的对象辨识与定位方法,其中所述步骤(c)进一步的包括步骤:
(c1)输入所述实时影像的灰阶影像,并利用特定边缘点撷取算法取得所述实时影像的所述多个边缘点;以及
(c2)依据所述实时影像的所述多个边缘点,计算取得所述实时影像的所述多个边缘点的各梯度方向角度。
6.如权利要求1所述的对象辨识与定位方法,其中所述步骤(d)进一步的包括步骤(d1)根据所述设定的侦测梯度方向角度差异范围对所述实时影像的所述多个边缘点进行筛选,以取得所述实时影像的多个筛选边缘点。
7.如权利要求6所述的对象辨识与定位方法,其中在所述步骤(d1)中,若所述实时影像的所述多个边缘点与所述标准影像的所述多个取样边缘点的梯度方向角度差小于或等于所述设定的侦测梯度方向角度差异范围,则将所述实时影像的所述多个边缘点视为所述实时影像的所述多个筛选边缘点。
8.如权利要求6所述的对象辨识与定位方法,其中所述步骤(d1)的后进一步的包括步骤(d2)将所述实时影像的所述多个筛选边缘点分别与所述标准影像的所述多个取样边缘点进行比对,以计算出所述多个预测重心位置。
9.如权利要求8所述的对象辨识与定位方法,其中在步骤(d2)的后还包括步骤(d3)依据所述实时影像的所述多个筛选边缘点与所述标准影像的所述多个取样边缘点的梯度方向角度差选出所述多个预测重心位置相对应的相似分数窗体。
10.如权利要求9所述的对象辨识与定位方法,其中在所述步骤(d3)的后还包括步骤(d4)利用所述相对应的相似分数窗体计算出所述多个预测重心位置的相似分数值。
11.如权利要求10所述的对象辨识与定位方法,其中在所述步骤(d4)中,计算所述多个预测重心位置的相似分数值时,若所述预测重心位置同时有多个相似分数窗体的相似分数,则以产生所述预测重心位置时作为基准的所述取样边缘点是否相同来决定计算方式。
12.如权利要求11所述的对象辨识与定位方法,其中在所述步骤(d4)中,若产生所述预测重心位置时作为基准的所述取样边缘点相同,则以择优取代的方式,判断所述预测重心位置的相似分数为所述多个相似分数窗体中相对应的相似分数最高。
13.如权利要求11所述的对象辨识与定位方法,其中在所述步骤(d4)中,若产生所述预测重心位置时作为基准的所述取样边缘点相异,则以累加的方式,将所述多个相似分数窗体相对应在所述预测重心位置的相似分数累加,而所述预测重心位置的相似分数即为累加后的相似分数。
14.如权利要求1所述的对象辨识与定位方法,其中所述使用设定阀值是呈可调整设定的分数门坎,而判别为相对在所述标准影像的所述重心位置的预测重心位置是以分数高于用户设定阀值的区域最大值为判别依据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410273163.7A CN105224941B (zh) | 2014-06-18 | 2014-06-18 | 对象辨识与定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410273163.7A CN105224941B (zh) | 2014-06-18 | 2014-06-18 | 对象辨识与定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105224941A true CN105224941A (zh) | 2016-01-06 |
CN105224941B CN105224941B (zh) | 2018-11-20 |
Family
ID=54993901
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410273163.7A Active CN105224941B (zh) | 2014-06-18 | 2014-06-18 | 对象辨识与定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105224941B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106423913A (zh) * | 2016-09-09 | 2017-02-22 | 华侨大学 | 一种建筑垃圾的分选方法和系统 |
CN108573251A (zh) * | 2017-03-15 | 2018-09-25 | 北京京东尚科信息技术有限公司 | 文字区域定位方法和装置 |
CN109190457A (zh) * | 2018-07-19 | 2019-01-11 | 北京市遥感信息研究所 | 一种基于大幅面遥感图像的油库集群目标快速检测方法 |
CN110827307A (zh) * | 2019-11-04 | 2020-02-21 | 深圳技术大学 | 电子雕刻机高精度图像像素测距方法 |
WO2023065792A1 (zh) * | 2021-10-22 | 2023-04-27 | 杭州睿胜软件有限公司 | 图像处理方法、装置、电子设备和计算机可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101424972A (zh) * | 2007-11-02 | 2009-05-06 | 财团法人工业技术研究院 | 在连续影像中计算非结构化物体位置的方法 |
CN101939191A (zh) * | 2008-02-08 | 2011-01-05 | Tk控股公司 | 对象检测与辨识系统 |
US20130272548A1 (en) * | 2012-04-13 | 2013-10-17 | Qualcomm Incorporated | Object recognition using multi-modal matching scheme |
-
2014
- 2014-06-18 CN CN201410273163.7A patent/CN105224941B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101424972A (zh) * | 2007-11-02 | 2009-05-06 | 财团法人工业技术研究院 | 在连续影像中计算非结构化物体位置的方法 |
CN101939191A (zh) * | 2008-02-08 | 2011-01-05 | Tk控股公司 | 对象检测与辨识系统 |
US20130272548A1 (en) * | 2012-04-13 | 2013-10-17 | Qualcomm Incorporated | Object recognition using multi-modal matching scheme |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106423913A (zh) * | 2016-09-09 | 2017-02-22 | 华侨大学 | 一种建筑垃圾的分选方法和系统 |
CN108573251A (zh) * | 2017-03-15 | 2018-09-25 | 北京京东尚科信息技术有限公司 | 文字区域定位方法和装置 |
US11017260B2 (en) | 2017-03-15 | 2021-05-25 | Beijing Jingdong Shangke Information Technology Co., Ltd. | Text region positioning method and device, and computer readable storage medium |
CN108573251B (zh) * | 2017-03-15 | 2021-09-07 | 北京京东尚科信息技术有限公司 | 文字区域定位方法和装置 |
CN109190457A (zh) * | 2018-07-19 | 2019-01-11 | 北京市遥感信息研究所 | 一种基于大幅面遥感图像的油库集群目标快速检测方法 |
CN109190457B (zh) * | 2018-07-19 | 2021-12-03 | 北京市遥感信息研究所 | 一种基于大幅面遥感图像的油库集群目标快速检测方法 |
CN110827307A (zh) * | 2019-11-04 | 2020-02-21 | 深圳技术大学 | 电子雕刻机高精度图像像素测距方法 |
CN110827307B (zh) * | 2019-11-04 | 2022-04-15 | 深圳技术大学 | 电子雕刻机高精度图像像素测距方法 |
WO2023065792A1 (zh) * | 2021-10-22 | 2023-04-27 | 杭州睿胜软件有限公司 | 图像处理方法、装置、电子设备和计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN105224941B (zh) | 2018-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111340797B (zh) | 一种激光雷达与双目相机数据融合检测方法及系统 | |
WO2022213879A1 (zh) | 目标对象检测方法、装置、计算机设备和存储介质 | |
Li et al. | Automatic pavement crack detection by multi-scale image fusion | |
CN106875381B (zh) | 一种基于深度学习的手机外壳缺陷检测方法 | |
CN111062915B (zh) | 一种基于改进YOLOv3模型的实时钢管缺陷检测方法 | |
CN103324937B (zh) | 标注目标的方法和装置 | |
CN104778474B (zh) | 一种用于目标检测的分类器构建方法及目标检测方法 | |
WO2020047420A1 (en) | Method and system for facilitating recognition of vehicle parts based on a neural network | |
CN105224941A (zh) | 对象辨识与定位方法 | |
CN110969166A (zh) | 一种巡检场景下小目标识别方法和系统 | |
CN111008576B (zh) | 行人检测及其模型训练、更新方法、设备及可读存储介质 | |
WO2016045215A1 (zh) | 指纹图像质量的判断方法和装置 | |
CN103530590A (zh) | Dpm二维码识别系统 | |
CN110059765B (zh) | 一种矿物智能识别分类系统与方法 | |
CN111310737A (zh) | 一种车道线检测方法及装置 | |
CN111259710B (zh) | 采用停车位框线、端点的停车位结构检测模型训练方法 | |
CN115439458A (zh) | 基于深度图注意力的工业图像缺陷目标检测算法 | |
CN115049821A (zh) | 一种基于多传感器融合的三维环境目标检测方法 | |
CN104680185A (zh) | 基于边界点重分类的高光谱图像分类方法 | |
CN109656808A (zh) | 一种基于混合式主动学习策略的软件缺陷预测方法 | |
CN113947714A (zh) | 一种视频监控和遥感的多模态协同优化方法及系统 | |
CN117314901A (zh) | 一种尺度自适应的芯片检测神经网络系统 | |
CN115511798A (zh) | 一种基于人工智能技术的肺炎分类方法及装置 | |
CN115424000A (zh) | 一种指针式仪表识别方法、系统、设备及存储介质 | |
CN111415384B (zh) | 一种基于深度学习的工业图像组件精准定位系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |