CN109410281A - 一种定位控制方法、装置、存储介质及物流系统 - Google Patents
一种定位控制方法、装置、存储介质及物流系统 Download PDFInfo
- Publication number
- CN109410281A CN109410281A CN201811309179.3A CN201811309179A CN109410281A CN 109410281 A CN109410281 A CN 109410281A CN 201811309179 A CN201811309179 A CN 201811309179A CN 109410281 A CN109410281 A CN 109410281A
- Authority
- CN
- China
- Prior art keywords
- current scene
- scene information
- edge
- angle point
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Robotics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种定位控制方法、装置、存储介质及物流系统,该方法包括:获取待定位的当前场景中的当前场景信息;根据所述当前场景信息确定所述当前场景中是否存在设定的目标场景;若所述当前场景中存在所述目标场景,则通过对所述当前场景信息进行hausdorff匹配处理,确定所述目标场景在所述当前场景中的定位位置。本发明的方案,可以解决基于图像处理的目标定位方法大部分都是模板匹配存在误差大的问题,达到减小误差的效果。
Description
技术领域
本发明属于定位控制技术领域,具体涉及一种定位控制方法、装置、存储介质及物流系统,尤其涉及一种基于hausdorff(即豪斯多夫距离)距离匹配的物流快递定点投放方法、装置、存储介质及物流系统。
背景技术
传统的物流快递从总仓往中转站运送一般使用货车进行人力派送,总仓的货物一般需要跨省运输才能到中转站,这样运输时间很长,驾驶人也容易疲乏。随着现代智能技术的发展,物流快递正在往无人机派送方向发展,用无人机将物资从总仓送到中转站,这样既能省去大量人力,也能更快得将快递物件送到中转站。但是,无人机必须要确定中转站的位置,才能做到定点投放快件到中转站物件。
要做到定点投放,首先得确定需投放位置的水平坐标位置,这就需要用到目标定位方法,目标定位就是在一幅大场景图像中找到感兴趣的目标,并检测出它的位置,用图像处理的方法实现目标定位,需要用到图像匹配技术。而传统的方法存在复杂度与误差之间的平衡,算法复杂度低的易在工程中实现,但误差较大,算法复杂度高的虽然误差小但难以在工程上实现。
其中,现有的基于图像处理的目标定位方法大部分都是模板匹配。一方面,现有的一些非hausdorff距离的匹配方法在受到景物遮挡、光照变化、噪声时匹配误差很大,并且匹配速度也很难满足实际要求,因此很难以应用到目标定位上。
另一方面,现有的一些基于hausdorff距离的匹配方法特征信息过于单一,鲁棒性不高,运用到目标定位中容易导致定位误差较大,难以应用到工程上。由于hausdorff距离作为度量具有极强的干扰性和准确性,学者专家提出了许多基于hausdorff距离的匹配方法,但依旧存在一些问题,如:
(1)运用传统hausdorff距离(HD)和边缘特征点进行模板匹配,算法复杂度低但是误差会很大,这是因为:当要匹配的物体有遮挡或者存在噪声时,传统方法求得的hausdorff距离有很大偏差;特征信息过于单一。
(2)运用部分hausdorff距离(PHD)和边缘特征点进行模板匹配,算法复杂度低,虽然克服了物体有遮挡或者存在噪声的情况,但是在一些情况下误差也会很大,鲁棒性不高,这是因为:当图像中有伪边缘时,极易造成错误匹配;当图像存在出格点或者较强的噪声时,极易造成错误匹配;特征信息过于单一。
(3)运用平均hausdorff距离(MHD)或者加权hausdorff距离和边缘特征点进行模板匹配,算法复杂度低,误差也会大,这是因为:特征信息过于单一。
可见,现有的一些非hausdorff距离的匹配方法在受到景物遮挡、光照变化、噪声时匹配效果很差,并且匹配速度也很难满足实际要求。而现有的基于hausdorff距离的匹配方法存在一个问题:特征信息过于单一,这是因为现有的hausdorff距离只是利用了特征点集的平面信息,并没有利用特征点集的空间信息,因此导致鲁棒性不高、误差大。
发明内容
本发明的目的在于,针对上述缺陷,提供一种定位控制方法、装置、存储介质及物流系统,以解决现有技术中基于图像处理的目标定位方法大部分都是模板匹配存在误差大的问题,达到减小误差的效果。
本发明提供一种定位控制方法,包括:获取待定位的当前场景中的当前场景信息;根据所述当前场景信息确定所述当前场景中是否存在设定的目标场景;若所述当前场景中存在所述目标场景,则通过对所述当前场景信息进行hausdorff匹配处理,确定所述目标场景在所述当前场景中的定位位置。
可选地,其中,获取待定位的当前场景中的当前场景信息,包括:获取由物流无人机加载的摄像头实时或定时采集到的所述当前场景中的当前场景信息;所述当前场景信息,包括:图像信息、视频信息中的至少之一;和/或,根据所述当前场景信息确定所述当前场景中是否存在设定的目标场景,包括:确定所述当前场景信息与设定的所述目标场景的目标场景信息是否匹配;若所述当前场景信息与所述目标场景信息匹配,则确定所述当前场景中存在所述目标场景。
可选地,对所述当前场景信息进行hausdorff匹配处理,包括:对所述当前场景信息进行预处理,得到预处理场景信息;提取所述预处理场景信息的边缘和角点;基于所述边缘和所述角点构造hausdorff距离度量;基于设定的仿射变换模型,使用遗传算法搜索策略搜索所述当前场景中能够使所述hausdorff距离度量取得设定范围内的最小值时的位置,以将该位置作为所述定位位置。
可选地,其中,对所述当前场景信息进行预处理,包括:对所述当前场景信息进行灰度化处理和中值滤波去燥处理,得到所述预处理场景信息;和/或,提取所述预处理场景信息的边缘和角点,包括:使用Canny算子提取所述预处理场景信息的边缘;以及,使用CSS角点提取方法提取所述预处理场景信息的角点。
可选地,基于所述边缘和所述角点构造hausdorff距离度量,包括:确定所述当前场景信息与所述目标场景信息之间的方向差异响应,并确定所述边缘的边缘权值和所述角点的角点权值;基于所述方向差异响应和所述边缘权值,对所述边缘进行加权处理,得到边缘加权hausdorff距离;并基于所述方向差异响应和所述角点权值,对所述角点进行加权处理,得到角点加权hausdorff距离;将所述边缘加权hausdorff距离和所述角点加权hausdorff距离之和,确定为hausdorff距离度量。
可选地,其中,确定所述当前场景信息与所述目标场景信息之间的方向差异响应,包括:按设定的边缘斜率角,确定所述当前场景信息与所述目标场景信息的特征点集之间的方向差异响应;和/或,确定所述边缘的边缘权值和所述角点的角点权值,包括:对所述边缘和所述角点进行hausdorff距离的大小排序,排除所述边缘和所述角点中的设定干扰点,得到所述边缘中剩下的剩余边缘点和所述角点中剩下的剩余角点;根据所述剩余边缘点和所述剩余角点对所述当前场景信息的设定特性的贡献大小,分别赋予所述剩余边缘点和所述剩余角点以边缘权值和所述角点权值;所述边缘权值小于所述角点权值。
可选地,还包括:预存设定的目标场景的目标场景信息;和/或,实时或定时更新设定的目标场景的目标场景信息;和/或,根据所述目标场景在所述当前场景中的定位位置,将待投放物投放至所述定位位置处。
与上述方法相匹配,本发明另一方面提供一种定位控制装置,包括:获取单元,用于获取待定位的当前场景中的当前场景信息;控制单元,用于根据所述当前场景信息确定所述当前场景中是否存在设定的目标场景;所述控制单元,还用于若所述当前场景中存在所述目标场景,则通过对所述当前场景信息进行hausdorff匹配处理,确定所述目标场景在所述当前场景中的定位位置。
可选地,其中,所述获取单元获取待定位的当前场景中的当前场景信息,包括:获取由物流无人机加载的摄像头实时或定时采集到的所述当前场景中的当前场景信息;所述当前场景信息,包括:图像信息、视频信息中的至少之一;和/或,所述控制单元根据所述当前场景信息确定所述当前场景中是否存在设定的目标场景,包括:确定所述当前场景信息与设定的所述目标场景的目标场景信息是否匹配;若所述当前场景信息与所述目标场景信息匹配,则确定所述当前场景中存在所述目标场景。
可选地,所述控制单元对所述当前场景信息进行hausdorff匹配处理,包括:对所述当前场景信息进行预处理,得到预处理场景信息;提取所述预处理场景信息的边缘和角点;基于所述边缘和所述角点构造hausdorff距离度量;基于设定的仿射变换模型,使用遗传算法搜索策略搜索所述当前场景中能够使所述hausdorff距离度量取得设定范围内的最小值时的位置,以将该位置作为所述定位位置。
可选地,其中,所述控制单元对所述当前场景信息进行预处理,包括:对所述当前场景信息进行灰度化处理和中值滤波去燥处理,得到所述预处理场景信息;和/或,所述控制单元提取所述预处理场景信息的边缘和角点,包括:使用Canny算子提取所述预处理场景信息的边缘;以及,使用CSS角点提取装置提取所述预处理场景信息的角点。
可选地,所述控制单元基于所述边缘和所述角点构造hausdorff距离度量,包括:确定所述当前场景信息与所述目标场景信息之间的方向差异响应,并确定所述边缘的边缘权值和所述角点的角点权值;基于所述方向差异响应和所述边缘权值,对所述边缘进行加权处理,得到边缘加权hausdorff距离;并基于所述方向差异响应和所述角点权值,对所述角点进行加权处理,得到角点加权hausdorff距离;将所述边缘加权hausdorff距离和所述角点加权hausdorff距离之和,确定为hausdorff距离度量。
可选地,其中,所述控制单元确定所述当前场景信息与所述目标场景信息之间的方向差异响应,包括:按设定的边缘斜率角,确定所述当前场景信息与所述目标场景信息的特征点集之间的方向差异响应;和/或,所述控制单元确定所述边缘的边缘权值和所述角点的角点权值,包括:对所述边缘和所述角点进行hausdorff距离的大小排序,排除所述边缘和所述角点中的设定干扰点,得到所述边缘中剩下的剩余边缘点和所述角点中剩下的剩余角点;根据所述剩余边缘点和所述剩余角点对所述当前场景信息的设定特性的贡献大小,分别赋予所述剩余边缘点和所述剩余角点以边缘权值和所述角点权值;所述边缘权值小于所述角点权值。
可选地,还包括:存储单元,用于预存设定的目标场景的目标场景信息;和/或,存储单元,还用于实时或定时更新设定的目标场景的目标场景信息;和/或,执行单元,用于根据所述目标场景在所述当前场景中的定位位置,将待投放物投放至所述定位位置处。
与上述装置相匹配,本发明再一方面提供一种物流系统,包括:以上所述的定位控制装置。
与上述方法相匹配,本发明再一方面提供一种存储介质,包括:所述存储介质中存储有多条指令;所述多条指令,用于由处理器加载并执行以上所述的定位控制方法。
与上述方法相匹配,本发明再一方面提供一种物流系统,包括:处理器,用于执行多条指令;存储器,用于存储多条指令;其中,所述多条指令,用于由所述存储器存储,并由所述处理器加载并执行以上所述的定位控制方法。
本发明的方案,通过在传统hausdorff距离的基础上,采用一种新的鲁棒性更高的hausdorff匹配度量方案,能够对场景目标(物流快递中转站的标志物)进行精确定位,实现场景目标精确定位,定位方法不仅精度高,误差小,且复杂度小。
进一步,本发明的方案,通过在传统hausdorff距离的基础上,采用添加以边缘斜率角定义的方向差异响应、构造角点和边缘点混合加权的方式,应用在物流无人机上,可以让物流无人机学会定位各种需投放的中转站的平面位置信息,实现对场景目标(如物流快递中转站的标志物)的精确定位,误差小,且复杂度低、鲁棒性好。
进一步,本发明的方案,通过构造一个以边缘斜率角定义的方向差异响应,并将其加入到有向hausdorff距离中,匹配点集是由Canny边缘提取以及CSS角点提取得到的一般边缘点和角点,使得边缘点和角点的提取精准性好,有利于提升定位精度。
进一步,本发明的方案,通过在对基于场景图像提取的边缘点和角点与最终的匹配度量上,构造一个以一般边缘点以及角点分别进行加权得到各自新的加权hausdorff距离,最后将两者相加得到最终的hausdorff距离匹配度量,可实现对场景目标(物流中转站的标志物)进行精确定位,目标定位精度较高,误差小。
进一步,本发明的方案,通过构造一个以边缘斜率角定义的方向差异响应,并将其加入到有向hausdorff距离中,匹配点集是由Canny边缘提取以及CSS角点提取得到的一般边缘点和角点;在最终的匹配度量上,构造一个以一般边缘点以及角点分别进行加权得到各自新的加权hausdorff距离,最后将两者相加得到最终的hausdorff距离匹配度量,可实现对场景目标(物流中转站的标志物)进行精确定位,目标定位精度较高。
由此,本发明的方案,通过在传统hausdorff距离的基础上,采用添加以边缘斜率角定义的方向差异响应、构造角点和边缘点混合加权的方式,实现对场景目标(如物流快递中转站的标志物)的精确定位;解决现有技术中基于图像处理的目标定位方法大部分都是模板匹配存在误差大的问题,从而,克服现有技术中误差大、复杂度大和鲁棒性差的缺陷,实现误差小、复杂度小和鲁棒性好的有益效果。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明的定位控制方法的一实施例的流程示意图;
图2为本发明的方法中根据所述当前场景信息确定所述当前场景中是否存在设定的目标场景的一实施例的流程示意图;
图3为本发明的方法中对所述当前场景信息进行hausdorff匹配处理的一实施例的流程示意图;
图4为本发明的方法中提取所述预处理场景信息的边缘和角点的一实施例的流程示意图;
图5为本发明的方法中基于所述边缘和所述角点构造hausdorff距离度量的一实施例的流程示意图;
图6为本发明的方法中确定所述边缘的边缘权值和所述角点的角点权值的一实施例的流程示意图;
图7为本发明的定位控制装置的一实施例的结构示意图;
图8为本发明的物流系统的一实施例的系统整体流程示意图;
图9为本发明的物流系统的一实施例的定位示意图;
图10为本发明的物流系统的一实施例的定位方法流程示意图;
图11为本发明的物流系统的一实施例的点集A与点集B的hausdorff距离的具体图示一;
图12为本发明的物流系统的一实施例的点集A与点集B的hausdorff距离的具体图示二;
图13为本发明的物流系统的一实施例的点集A与点集B的hausdorff距离的具体图示三。
结合附图,本发明实施例中附图标记如下:
102-获取单元;104-控制单元;106-存储单元;108-执行单元。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明具体实施例及相应的附图对本发明技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
根据本发明的实施例,提供了一种定位控制方法,如图1所示本发明的方法的一实施例的流程示意图。该定位控制方法可以包括:步骤S110至步骤S130。
在步骤S110处,获取待定位的当前场景中的当前场景信息。
可选地,步骤S110中获取待定位的当前场景中的当前场景信息,可以包括:获取由物流无人机加载的摄像头实时或定时采集到的所述当前场景中的当前场景信息。所述当前场景信息,可以包括:图像信息、视频信息中的至少之一。
由此,通过获取物流无人机加载的摄像头采集到的当前场景中的当前场景信息,使得对当前场景中当前场景信息的获取方式简便,且获取结果精准、实时性也好。
在步骤S120处,根据所述当前场景信息确定所述当前场景中是否存在设定的目标场景。
可选地,可以结合图2所示本发明的方法中根据所述当前场景信息确定所述当前场景中是否存在设定的目标场景的一实施例流程示意图,进一步说明步骤S120中根据所述当前场景信息确定所述当前场景中是否存在设定的目标场景的具体过程,可以包括:步骤S210和步骤S220。
步骤S210,确定所述当前场景信息与设定的所述目标场景的目标场景信息是否匹配。
步骤S220,若所述当前场景信息与所述目标场景信息匹配,则确定所述当前场景中存在所述目标场景。其中,所述当前场景信息与所述目标场景信息匹配,可以包括:所述当前场景信息与所述目标场景信息的相同度或相似度达到设定比例,或者所述当前场景信息与设定的目标场景信息范围中的某个或某些目标场景信息的相同度或相似度达到设定比例。具体使用过程中,若所述当前场景信息与所述目标场景信息不匹配,则确定所述当前场景中不存在所述目标场景。
由此,通过在当前场景信息与设定的目标场景信息匹配的情况下,确定当前场景中存在目标场景,使得对当前场景中是否存在目标场景的确定更加简便、也更加精准。
在步骤S130处,若所述当前场景中存在所述目标场景,则通过对所述当前场景信息进行hausdorff匹配处理,确定所述目标场景在所述当前场景中的定位位置(即以实现在所述当前场景中对所述目标场景的定位处理)。具体使用过程中,若所述当前场景中不存在所述目标场景,则继续获取待定位的当前场景中的其它场景信息。
例如:在传统hausdorff距离的基础上,不仅添加了以边缘斜率角定义的方向差异响应方法,而且构造了角点和边缘点混合加权的方法,它能够对场景目标(物流快递中转站的标志物)进行精确定位,从而,能够实现场景目标精确定位,定位方法不仅精度高,误差小,而且复杂度一般,能在工程上实现。
例如:定位,可以包括:在无人机实时采集的图像中确定中转站标志物的位置(如坐标),中转站标志物的图像信息是预存在无人机系统中的。其中,无人机实时采集的图像是标准图像,中转站标志物的图像是模板图像(它是标准图像中的一部分),定位就是在标准图像中找到模板图像所在的区域位置(坐标),由图2所示的例子可以看出。
例如:构造了一个以边缘斜率角定义的方向差异响应,并将其加入到有向hausdorff距离中,匹配点集是由Canny边缘提取以及CSS角点提取得到的一般边缘点和角点;在最终的匹配度量上,本发明的方案构造了一个以一般边缘点以及角点分别进行加权得到各自新的加权hausdorff距离,最后将两者相加得到最终的hausdorff距离匹配度量,可实现对场景目标(物流中转站的标志物)进行精确定位,目标定位精度较高,误差小,有效解决无人机物流配送定位的应用问题。
由此,通过根据待定位的当前场景信息确定当前场景中存在设定的目标场景的情况下,通过对当前场景信息进行hausdorff匹配处理来确定目标场景在当前场景中的定位位置,实现目标场景在当前场景中的定位,定位的精准性好,且定位过程的复杂度低、鲁棒性好。
可选地,可以结合图3所示本发明的方法中对所述当前场景信息进行hausdorff匹配处理的一实施例流程示意图,进一步说明步骤S130中对所述当前场景信息进行hausdorff匹配处理的具体过程,可以包括:步骤S310至步骤S340。
步骤S310,对所述当前场景信息进行预处理,得到预处理场景信息。
更可选地,步骤S310中对所述当前场景信息进行预处理,可以包括:对所述当前场景信息进行灰度化处理和中值滤波去燥处理,得到所述预处理场景信息。
由此,通过多种形式的预处理,预处理方式灵活,且可以提升对当前场景信息进行后续处理的精准性和可靠性。
步骤S320,提取所述预处理场景信息的边缘和角点。例如:自所述预处理场景信息中提取所述当前场景的边缘和角点。
更可选地,可以结合图4所示本发明的方法中提取所述预处理场景信息的边缘和角点的一实施例流程示意图,进一步说明步骤S320中提取所述预处理场景信息的边缘和角点的具体过程,可以包括:步骤S410和步骤S420。
步骤S410,使用Canny算子提取所述预处理场景信息的边缘。以及,
步骤S420,使用CSS角点提取方法提取所述预处理场景信息的角点。
由此,通过使用Canny算子提取对当前场景信息进行预处理后得到的预处理场景信息的边缘,并使用CSS角点提取方法提取对当前场景信息进行预处理后得到的预处理场景信息的角点,使得对预处理场景信息的边缘和角点的提取更加简便、也更加精准。
步骤S330,基于所述边缘和所述角点构造hausdorff距离度量。
更可选地,可以结合图5所示本发明的方法中基于所述边缘和所述角点构造hausdorff距离度量的一实施例流程示意图,进一步说明步骤S330中基于所述边缘和所述角点构造hausdorff距离度量的具体过程,可以包括:步骤S510至步骤S530。
步骤S510,确定所述当前场景信息与所述目标场景信息之间的方向差异响应,并确定所述边缘的边缘权值和所述角点的角点权值。
具体地,步骤S510中确定所述当前场景信息与所述目标场景信息之间的方向差异响应,可以包括:按设定的边缘斜率角,确定所述当前场景信息与所述目标场景信息的特征点集之间的方向差异响应,以将所述方向差异响应加入到基于所述边缘和所述角点的有向hausdorff距离中,并结合所述边缘权值和所述角点权值分别对所述边缘和所述角点进行加权处理,从而分别得到所述边缘加权hausdorff距离和所述角点加权hausdorff距离。
例如:方向差异响应Δλ的确定,可以如下:
传统的hausdorff距离只是利用了特征点集的平面信息,并没有利用特征点集的空间信息,因此,本发明的方案定义一个能表征空间信息的因子:方向差异响应。为了结合特征点的方向差异构造匹配度量,我们将特征点的方向定义为边缘轮廓切线方向,假设轮廓曲线上某一点的A(i)的坐标为(xi,yi),距其距离为α(很小)的两点分别为A(i-α),A(i+α),将方向角定义为:
在模板图像与参考图像完全匹配时,匹配边缘点之间不仅有最小的haudorff距离,而且对应边缘上的点的方向角也应该有最小的方向差异响应,为此,定义参考图与模板图特征点集之间的方向差异响应如下:
Δλ=1-cos(λa-λb)+c (15)。
其中,λa,λb分别为点集A,B中某点的方向角,c是一个防止Δλ等于零的极小数。
由此,通过按设定的边缘斜率角确定当前场景信息与目标场景信息的特征点集之间的方向差异响应,确定方式简便、且确定结果精准。
具体地,可以结合图6所示本发明的方法中确定所述边缘的边缘权值和所述角点的角点权值的一实施例流程示意图,进一步说明步骤S510中确定所述边缘的边缘权值和所述角点的角点权值的具体过程,可以包括:步骤S610和步骤S620。
步骤S610,对所述边缘和所述角点进行hausdorff距离的大小排序,排除所述边缘和所述角点中的设定干扰点,得到所述边缘中剩下的剩余边缘点和所述角点中剩下的剩余角点。
步骤S620,根据所述剩余边缘点和所述剩余角点对所述当前场景信息的设定特性的贡献大小,分别赋予所述剩余边缘点和所述剩余角点以边缘权值和所述角点权值。所述边缘权值小于所述角点权值。
例如:权值的确定,可以如下:
运用部分hausdorff距离的思想进行hausdorff距离大小排序,排除干扰点,那么边缘上的点就只剩下普通边缘点和角点,角点是边缘上的显著特性,贡献大,赋予大的权值w2,普通边缘点则相对贡献小,权值w1相对较小,权值如下:
w1=1 (12);
公式(13)中,N0是提取出的角点个数,k是经过部分hausdorff距离排序之后的前k个边缘特征点(角点在其中)的个数。
由此,通过排出所述边缘和所述角点中的设定干扰点后得到剩余边缘点和剩余角点,进而根据剩余边缘点和剩余角点对当前场景信息的设定特性的贡献大小分别赋予剩余边缘点和剩余角点以边缘权值和角点权值,使得对边缘和角点的权值的确定更加简便和可靠。
步骤S520,基于所述方向差异响应和所述边缘权值,对所述边缘进行加权处理,得到边缘加权hausdorff距离;并基于所述方向差异响应和所述角点权值,对所述角点进行加权处理,得到角点加权hausdorff距离。
步骤S530,将所述边缘加权hausdorff距离和所述角点加权hausdorff距离之和,确定为hausdorff距离度量。
例如:在有向hausdorff距离里面添加了综合了特征点方向差异响应,并将普通边缘点与边缘上的角点赋予不同的权值,然后将两者的hausdorff距离相加得到最终的hausdorff距离。
最终的hausdorff距离如下:
Hw(A,B)=Hedge(A,B)+Hcorner(A,B) (7);
Hedge(A,B)=max{hedge(A,B),hedge(B,A)} (8);
Hcorner(A,B)=max{hcorner(A,B),hcorner(B,A)} (9)。
其中,公式(8)、(9)中:
hedge(B,A),hcorner(B,A)计算依次类推。公式(10)、(11)中,Na表示点集A中点的个数,w1,w2分别代表普通边缘点与边缘上的角点的权值,Δλ为方向差异响应。
由此,通过确定当前场景信息与目标场景信息之间的方向差异响应,并确定边缘的边缘权值和角点的角点权值,进而基于该方向差异响应、边缘权值和角点权值确定边缘加权hausdorff距离和角点加权hausdorff距离,再将该边缘加权hausdorff距离和角点加权hausdorff距离之和作为所需的hausdorff距离度量,使得对该hausdorff距离度量的确定精准、可靠。
步骤S340,基于设定的仿射变换模型,使用遗传算法搜索策略搜索所述当前场景中能够使所述hausdorff距离度量取得设定范围内的最小值时的位置,以将该位置作为所述定位位置。例如:基于所述hausdorff距离变量搜索所述当前场景中符合设定定位精度的当前位置,以将该当前位置作为所述定位位置。其中,该当前位置,可以包括:所述当前场景中符合设定定位精度的当前位置中定位精度最高的位置即最优位置。
例如:选择仿射变换模型和遗传算法搜索策略,找到使hausdorff距离取得最小的位置,即目标(中转站的标志物)在实时图像中的定位的位置(二维信息),然后将快递从无人机投放到中转站,从而实现了精确投放的目的。图3可以表示的是基于hausdorff匹配方法的目标定位方法流程图,具体可以如下:
本发明的方案主要是提出一种改进的hausdorff匹配方法,对目标进行定位,实验表明定位精度较高,比较适合移植到一些嵌入式系统中,具体的方法如下:
步骤21、先将实时采集的图像灰度化,然后去除一些噪声的影响,将模板(目标)图像以及实时采集的图像进行中值滤波预处理:
F(x,y)=mid{fxy} (1)。
这里fxy是原始图像像素值,F(x,y)是滤波后的图像像素值,在8邻域之内滤波处理。
步骤22、用Canny算子提取模板(如目标)图像以及实时采集的图像的边缘(edge)。
其中,Canny边缘检测算子是John F.Canny于1986年开发出来的一个多级边缘检测算法。
步骤23、用优化的CSS角点(即corner)提取方法对模板(目标)图像以及实时采集的图像进行角点提取。
步骤24、构造本发明的方案提出的改进的hausdorff距离匹配度量,选定一定的仿射变换模型以适应一些仿射畸变,最后用遗传算法搜索策略搜索到使hausdorff距离取得最小值所对应的位置,即实现模板(目标)图像在实时采集的图像中精确定位的目的。
由此,通过对当前场景信息进行预处理后,提取边缘和角点并构造hausdorff距离度量;进而,基于该hausdorff距离度量进行仿射变换和搜索处理,确定当前场景中能够使该hausdorff距离度量取得最小值的位置即定位位置,实现在当前场景中对目标场景的精准定位,且处理的复杂度低、可靠性高。
在一个可选实施方式中,还可以包括以下任一种处理过程。
第一处理过程:预存设定的目标场景的目标场景信息。
由此,通过预存目标场景的目标场景信息,有利于提升在当前场景中对目标场景定位的高效性和可靠性。
第二处理过程:实时或定时更新设定的目标场景的目标场景信息。
由此,通过对目标场景的目标场景信息进行实时或定时更新,有利于提升在当前场景中对目标场景定位的精准性和可靠性。
第三处理过程:根据所述目标场景在所述当前场景中的定位位置,将待投放物投放至所述定位位置处。
例如:将本发明的方案应用在物流无人机上,可以让物流无人机学会定位各种需投放的中转站的平面位置信息,将这些位置信息存入物流无人机的系统中,让系统(如物流无人机的系统)进行分析做出投放策略,从而达到精确投放物流快递的目的。
例如:分析和投放策略,可以包括:物流无人机首次采集到的图像(如标准图像,可以比模板图像大很多)包含中转站标志物后,系统控制无人机减速,在减速飞行过程中进行定位操作,然后根据定位到的中转站标志物的坐标进行物资的精确投放。
例如:图1可以表示的是整个系统的流程图,具体步骤可以如下:
步骤11、首先预存一些目标(中转站标志物)的模板,将其作为检测的目标,预存到物流无人机系统中,以便后来定位使用。
步骤12、用物流无人机底部的摄像头实时采集地面的场景信息,当采集到的场景信息中没有目标时,继续采集。
步骤13、当采集到的场景图像中存在目标时,用基于hausdorff匹配的方法进行目标定位,得到目标在实时图像中的平面坐标位置,反馈到物流无人机系统中,让物流无人机系统做出一定的投放决策。
例如:该定位控制的方案,可以适用于物流快递的投放,也可以适用于其它目标定位的领域,如:运动目标检测,无人机定位打击等一些计算机视觉领域。
由此,通过基于在当前场景中对目标场景的定位处理,进行基于该定位处理得到的定位位置将待投放物投放至该定位位置处,可以实现定位投放的精准性和可靠性,且操作复杂度低、鲁棒性好。
经大量的试验验证,采用本实施例的技术方案,通过在传统hausdorff距离的基础上,采用一种新的鲁棒性更高的hausdorff匹配度量方案,能够对场景目标(物流快递中转站的标志物)进行精确定位,实现场景目标精确定位,定位方法不仅精度高,误差小,且复杂度小。
根据本发明的实施例,还提供了对应于定位控制方法的一种定位控制装置。参见图7所示本发明的装置的一实施例的结构示意图。该定位控制装置可以包括:获取单元102和控制单元104。
在一个可选例子中,获取单元102,可以用于获取待定位的当前场景中的当前场景信息。该获取单元102的具体功能及处理参见步骤S110。
可选地,所述获取单元102获取待定位的当前场景中的当前场景信息,可以包括:所述获取单元102,具体还可以用于获取由物流无人机加载的摄像头实时或定时采集到的所述当前场景中的当前场景信息。所述当前场景信息,可以包括:图像信息、视频信息中的至少之一。
由此,通过获取物流无人机加载的摄像头采集到的当前场景中的当前场景信息,使得对当前场景中当前场景信息的获取方式简便,且获取结果精准、实时性也好。
在一个可选例子中,控制单元104,可以用于根据所述当前场景信息确定所述当前场景中是否存在设定的目标场景。该控制单元104的具体功能及处理参见步骤S120。
可选地,所述控制单元104根据所述当前场景信息确定所述当前场景中是否存在设定的目标场景,可以包括:
所述控制单元104,具体还可以用于确定所述当前场景信息与设定的所述目标场景的目标场景信息是否匹配。该控制单元104的具体功能及处理还参见步骤S210。
所述控制单元104,具体还可以用于若所述当前场景信息与所述目标场景信息匹配,则确定所述当前场景中存在所述目标场景。其中,所述当前场景信息与所述目标场景信息匹配,可以包括:所述当前场景信息与所述目标场景信息的相同度或相似度达到设定比例,或者所述当前场景信息与设定的目标场景信息范围中的某个或某些目标场景信息的相同度或相似度达到设定比例。具体使用过程中,若所述当前场景信息与所述目标场景信息不匹配,则确定所述当前场景中不存在所述目标场景。该控制单元104的具体功能及处理还参见步骤S220。
由此,通过在当前场景信息与设定的目标场景信息匹配的情况下,确定当前场景中存在目标场景,使得对当前场景中是否存在目标场景的确定更加简便、也更加精准。
在一个可选例子中,所述控制单元104,还可以用于若所述当前场景中存在所述目标场景,则通过对所述当前场景信息进行hausdorff匹配处理,确定所述目标场景在所述当前场景中的定位位置(即以实现在所述当前场景中对所述目标场景的定位处理)。具体使用过程中,所述控制单元104,还可以用于若所述当前场景中不存在所述目标场景,则继续获取待定位的当前场景中的其它场景信息。该控制单元104的具体功能及处理还参见步骤S130。
例如:在传统hausdorff距离的基础上,不仅添加了以边缘斜率角定义的方向差异响应方法,而且构造了角点和边缘点混合加权的方法,它能够对场景目标(物流快递中转站的标志物)进行精确定位,从而,能够实现场景目标精确定位,定位方法不仅精度高,误差小,而且复杂度一般,能在工程上实现。
例如:定位,可以包括:在无人机实时采集的图像中确定中转站标志物的位置(如坐标),中转站标志物的图像信息是预存在无人机系统中的。其中,无人机实时采集的图像是标准图像,中转站标志物的图像是模板图像(它是标准图像中的一部分),定位就是在标准图像中找到模板图像所在的区域位置(坐标),由图2所示的例子可以看出。
例如:构造了一个以边缘斜率角定义的方向差异响应,并将其加入到有向hausdorff距离中,匹配点集是由Canny边缘提取以及CSS角点提取得到的一般边缘点和角点;在最终的匹配度量上,本发明的方案构造了一个以一般边缘点以及角点分别进行加权得到各自新的加权hausdorff距离,最后将两者相加得到最终的hausdorff距离匹配度量,可实现对场景目标(物流中转站的标志物)进行精确定位,目标定位精度较高,误差小,有效解决无人机物流配送定位的应用问题。
由此,通过根据待定位的当前场景信息确定当前场景中存在设定的目标场景的情况下,通过对当前场景信息进行hausdorff匹配处理来确定目标场景在当前场景中的定位位置,实现目标场景在当前场景中的定位,定位的精准性好,且定位过程的复杂度低、鲁棒性好。
可选地,所述控制单元104对所述当前场景信息进行hausdorff匹配处理,可以包括:
所述控制单元104,具体还可以用于对所述当前场景信息进行预处理,得到预处理场景信息。该控制单元104的具体功能及处理还参见步骤S310。
更可选地,所述控制单元104对所述当前场景信息进行预处理,可以包括:所述控制单元104,具体还可以用于对所述当前场景信息进行灰度化处理和中值滤波去燥处理,得到所述预处理场景信息。
由此,通过多种形式的预处理,预处理方式灵活,且可以提升对当前场景信息进行后续处理的精准性和可靠性。
所述控制单元104,具体还可以用于提取所述预处理场景信息的边缘和角点。例如:自所述预处理场景信息中提取所述当前场景的边缘和角点。该控制单元104的具体功能及处理还参见步骤S320。
更可选地,所述控制单元104提取所述预处理场景信息的边缘和角点,可以包括:
所述控制单元104,具体还可以用于使用Canny算子提取所述预处理场景信息的边缘。该控制单元104的具体功能及处理还参见步骤S410。以及,
所述控制单元104,具体还可以用于使用CSS角点提取装置提取所述预处理场景信息的角点。该控制单元104的具体功能及处理还参见步骤S420。
由此,通过使用Canny算子提取对当前场景信息进行预处理后得到的预处理场景信息的边缘,并使用CSS角点提取方法提取对当前场景信息进行预处理后得到的预处理场景信息的角点,使得对预处理场景信息的边缘和角点的提取更加简便、也更加精准。
所述控制单元104,具体还可以用于基于所述边缘和所述角点构造hausdorff距离度量。该控制单元104的具体功能及处理还参见步骤S330。
更可选地,所述控制单元104基于所述边缘和所述角点构造hausdorff距离度量,可以包括:
所述控制单元104,具体还可以用于确定所述当前场景信息与所述目标场景信息之间的方向差异响应,并确定所述边缘的边缘权值和所述角点的角点权值。该控制单元104的具体功能及处理还参见步骤S510。
具体地,所述控制单元104确定所述当前场景信息与所述目标场景信息之间的方向差异响应,可以包括:所述控制单元104,具体还可以用于按设定的边缘斜率角,确定所述当前场景信息与所述目标场景信息的特征点集之间的方向差异响应,以将所述方向差异响应加入到基于所述边缘和所述角点的有向hausdorff距离中,并结合所述边缘权值和所述角点权值分别对所述边缘和所述角点进行加权处理,从而分别得到所述边缘加权hausdorff距离和所述角点加权hausdorff距离。
例如:方向差异响应Δλ的确定,可以如下:
传统的hausdorff距离只是利用了特征点集的平面信息,并没有利用特征点集的空间信息,因此,本发明的方案定义一个能表征空间信息的因子:方向差异响应。为了结合特征点的方向差异构造匹配度量,我们将特征点的方向定义为边缘轮廓切线方向,假设轮廓曲线上某一点的A(i)的坐标为(xi,yi),距其距离为α(很小)的两点分别为A(i-α),A(i+α),将方向角定义为:
在模板图像与参考图像完全匹配时,匹配边缘点之间不仅有最小的haudorff距离,而且对应边缘上的点的方向角也应该有最小的方向差异响应,为此,定义参考图与模板图特征点集之间的方向差异响应如下:
Δλ=1-cos(λa-λb)+c (15)。
其中,λa,λb分别为点集A,B中某点的方向角,c是一个防止Δλ等于零的极小数。
由此,通过按设定的边缘斜率角确定当前场景信息与目标场景信息的特征点集之间的方向差异响应,确定方式简便、且确定结果精准。
具体地,所述控制单元104确定所述边缘的边缘权值和所述角点的角点权值,可以包括:
所述控制单元104,具体还可以用于对所述边缘和所述角点进行hausdorff距离的大小排序,排除所述边缘和所述角点中的设定干扰点,得到所述边缘中剩下的剩余边缘点和所述角点中剩下的剩余角点。该控制单元104的具体功能及处理还参见步骤S610。
所述控制单元104,具体还可以用于根据所述剩余边缘点和所述剩余角点对所述当前场景信息的设定特性的贡献大小,分别赋予所述剩余边缘点和所述剩余角点以边缘权值和所述角点权值。所述边缘权值小于所述角点权值。该控制单元104的具体功能及处理还参见步骤S620。
例如:权值的确定,可以如下:
运用部分hausdorff距离的思想进行hausdorff距离大小排序,排除干扰点,那么边缘上的点就只剩下普通边缘点和角点,角点是边缘上的显著特性,贡献大,赋予大的权值w2,普通边缘点则相对贡献小,权值w1相对较小,权值如下:
w1=1 (12);
公式(13)中,N0是提取出的角点个数,k是经过部分hausdorff距离排序之后的前k个边缘特征点(角点在其中)的个数。
由此,通过排出所述边缘和所述角点中的设定干扰点后得到剩余边缘点和剩余角点,进而根据剩余边缘点和剩余角点对当前场景信息的设定特性的贡献大小分别赋予剩余边缘点和剩余角点以边缘权值和角点权值,使得对边缘和角点的权值的确定更加简便和可靠。
所述控制单元104,具体还可以用于基于所述方向差异响应和所述边缘权值,对所述边缘进行加权处理,得到边缘加权hausdorff距离;并基于所述方向差异响应和所述角点权值,对所述角点进行加权处理,得到角点加权hausdorff距离。该控制单元104的具体功能及处理还参见步骤S520。
所述控制单元104,具体还可以用于将所述边缘加权hausdorff距离和所述角点加权hausdorff距离之和,确定为hausdorff距离度量。该控制单元104的具体功能及处理还参见步骤S530。
例如:在有向hausdorff距离里面添加了综合了特征点方向差异响应,并将普通边缘点与边缘上的角点赋予不同的权值,然后将两者的hausdorff距离相加得到最终的hausdorff距离。
最终的hausdorff距离如下:
Hw(A,B)=Hedge(A,B)+Hcorner(A,B) (7);
Hedge(A,B)=max{hedge(A,B),hedge(B,A)} (8);
Hcorner(A,B)=max{hcorner(A,B),hcorner(B,A)} (9)。
其中,公式(8)、(9)中:
hedge(B,A),hcorner(B,A)计算依次类推。公式(10)、(11)中,Na表示点集A中点的个数,w1,w2分别代表普通边缘点与边缘上的角点的权值,Δλ为方向差异响应。
由此,通过确定当前场景信息与目标场景信息之间的方向差异响应,并确定边缘的边缘权值和角点的角点权值,进而基于该方向差异响应、边缘权值和角点权值确定边缘加权hausdorff距离和角点加权hausdorff距离,再将该边缘加权hausdorff距离和角点加权hausdorff距离之和作为所需的hausdorff距离度量,使得对该hausdorff距离度量的确定精准、可靠。
所述控制单元104,具体还可以用于基于设定的仿射变换模型,使用遗传算法搜索策略搜索所述当前场景中能够使所述hausdorff距离度量取得设定范围内的最小值时的位置,以将该位置作为所述定位位置。例如:基于所述hausdorff距离变量搜索所述当前场景中符合设定定位精度的当前位置,以将该当前位置作为所述定位位置。其中,该当前位置,可以包括:所述当前场景中符合设定定位精度的当前位置中定位精度最高的位置即最优位置。该控制单元104的具体功能及处理还参见步骤S340。
例如:选择仿射变换模型和遗传算法搜索策略,找到使hausdorff距离取得最小的位置,即目标(中转站的标志物)在实时图像中的定位的位置(二维信息),然后将快递从无人机投放到中转站,从而实现了精确投放的目的。图3可以表示的是基于hausdorff匹配方法的目标定位方法流程图,具体可以如下:
本发明的方案主要是提出一种改进的hausdorff匹配方法,对目标进行定位,实验表明定位精度较高,比较适合移植到一些嵌入式系统中,具体的方法如下:
步骤21、先将实时采集的图像灰度化,然后去除一些噪声的影响,将模板(目标)图像以及实时采集的图像进行中值滤波预处理:
F(x,y)=mid{fxy} (1)。
这里fxy是原始图像像素值,F(x,y)是滤波后的图像像素值,在8邻域之内滤波处理。
步骤22、用Canny算子提取模板(如目标)图像以及实时采集的图像的边缘(edge)。
其中,Canny边缘检测算子是John F.Canny于1986年开发出来的一个多级边缘检测算法。
步骤23、用优化的CSS角点(即corner)提取方法对模板(目标)图像以及实时采集的图像进行角点提取。
步骤24、构造本发明的方案提出的改进的hausdorff距离匹配度量,选定一定的仿射变换模型以适应一些仿射畸变,最后用遗传算法搜索策略搜索到使hausdorff距离取得最小值所对应的位置,即实现模板(目标)图像在实时采集的图像中精确定位的目的。
由此,通过对当前场景信息进行预处理后,提取边缘和角点并构造hausdorff距离度量;进而,基于该hausdorff距离度量进行仿射变换和搜索处理,确定当前场景中能够使该hausdorff距离度量取得最小值的位置即定位位置,实现在当前场景中对目标场景的精准定位,且处理的复杂度低、可靠性高。
在一个可选实施方式中,还可以包括以下任一种处理过程。
第一处理过程:存储单元106,可以用于预存设定的目标场景的目标场景信息。
由此,通过预存目标场景的目标场景信息,有利于提升在当前场景中对目标场景定位的高效性和可靠性。
第二处理过程:存储单元106,还可以用于实时或定时更新设定的目标场景的目标场景信息。
由此,通过对目标场景的目标场景信息进行实时或定时更新,有利于提升在当前场景中对目标场景定位的精准性和可靠性。
第三处理过程:执行单元108,可以用于根据所述目标场景在所述当前场景中的定位位置,将待投放物投放至所述定位位置处。
例如:将本发明的方案应用在物流无人机上,可以让物流无人机学会定位各种需投放的中转站的平面位置信息,将这些位置信息存入物流无人机的系统中,让系统(如物流无人机的系统)进行分析做出投放策略,从而达到精确投放物流快递的目的。
例如:分析和投放策略,可以包括:物流无人机首次采集到的图像(如标准图像,可以比模板图像大很多)包含中转站标志物后,系统控制无人机减速,在减速飞行过程中进行定位操作,然后根据定位到的中转站标志物的坐标进行物资的精确投放。
例如:图1可以表示的是整个系统的流程图,具体步骤可以如下:
步骤11、首先预存一些目标(中转站标志物)的模板,将其作为检测的目标,预存到物流无人机系统中,以便后来定位使用。
步骤12、用物流无人机底部的摄像头实时采集地面的场景信息,当采集到的场景信息中没有目标时,继续采集。
步骤13、当采集到的场景图像中存在目标时,用基于hausdorff匹配的方法进行目标定位,得到目标在实时图像中的平面坐标位置,反馈到物流无人机系统中,让物流无人机系统做出一定的投放决策。
例如:该定位控制的方案,可以适用于物流快递的投放,也可以适用于其它目标定位的领域,如:运动目标检测,无人机定位打击等一些计算机视觉领域。
由此,通过基于在当前场景中对目标场景的定位处理,进行基于该定位处理得到的定位位置将待投放物投放至该定位位置处,可以实现定位投放的精准性和可靠性,且操作复杂度低、鲁棒性好。
由于本实施例的装置所实现的处理及功能基本相应于前述图1至图6所示的方法的实施例、原理和实例,故本实施例的描述中未详尽之处,可以参见前述实施例中的相关说明,在此不做赘述。
经大量的试验验证,采用本发明的技术方案,通过在传统hausdorff距离的基础上,采用添加以边缘斜率角定义的方向差异响应、构造角点和边缘点混合加权的方式,应用在物流无人机上,可以让物流无人机学会定位各种需投放的中转站的平面位置信息,实现对场景目标(如物流快递中转站的标志物)的精确定位,误差小,且复杂度低、鲁棒性好。
根据本发明的实施例,还提供了对应于定位控制装置的一种物流系统。该物流系统可以包括:以上所述的定位控制装置。
在一个可选实施方式中,本发明提出一种新的鲁棒性更高的hausdorff匹配度量方案,即提出了一个改进的基于hausdorff距离的定位方法,它能够对场景目标(物流快递中转站的标志物)进行精确定位,从而,能够实现场景目标精确定位,定位方法不仅精度高,误差小,而且复杂度一般,能在工程上实现。
其中,hausdorff距离是描述两组点集之间相似程度的一种量度(距离越大两组点集越不相似),它是拓扑学中的一个距离,它描述的是一组点集到另一组点集中的最近点距离值中的最大值。例如:存在两个点集A和点集B,则点集A到点集B的hausdorff距离(A到B的单向距离)是一个极大极小函数,定义为:
点集A与点集B的hausdorff距离定义为:
H(A,B)=max{h(A,B),h(B,A)}。
点集A与点集B的hausdorff距离可以用具体图示来说明,具体如下:
(1)如图4所示的例子,A点集中有两个点a1和a2,B点集中有三个点b1、b2和b3。
(2)如图5所示的例子,计算点a1到b1、b2和b3的距离,并取其中的最小距离值d11。
(3)如图6所示的例子,计算点a2到b1、b2和b3的距离,并取其中的最小距离值d23。
(4)比较d11、d23取其中的较大值,得到单向hausdorff距离h(A,B)。
(5)同理求出另一个单向hausdorff距离h(B,A)。
(6)最终的hausdorff距离H(A,B)为h(A,B)和h(B,A)之间的较大值。
在一个可选例子中,针对传统基于hausdorff距离的定位方法鲁棒性差、精度低、误差大的缺点,本发明的方案,提出了一个改进的基于hausdorff距离的定位方法,该方法在传统hausdorff距离的基础上,不仅添加了以边缘斜率角定义的方向差异响应方法,而且构造了角点和边缘点混合加权的方法。
可选地,将本发明的方案应用在物流无人机上,可以让物流无人机学会定位各种需投放的中转站的平面位置信息,将这些位置信息存入物流无人机的系统中,让系统(如物流无人机的系统)进行分析做出投放策略,从而达到精确投放物流快递的目的。
具体地,定位,可以包括:在无人机实时采集的图像中确定中转站标志物的位置(如坐标),中转站标志物的图像信息是预存在无人机系统中的。
其中,无人机实时采集的图像是标准图像,中转站标志物的图像是模板图像(它是标准图像中的一部分),定位就是在标准图像中找到模板图像所在的区域位置(坐标),由图2所示的例子可以看出。
具体地,分析和投放策略,可以包括:物流无人机首次采集到的图像(如标准图像,可以比模板图像大很多)包含中转站标志物后,系统控制无人机减速,在减速飞行过程中进行定位操作,然后根据定位到的中转站标志物的坐标进行物资的精确投放。
在一个可选具体实施方式中,可以参见图1至图3所示的例子,对本发明的方案的具体实现过程进行示例性说明。
图1可以表示的是整个系统的流程图,具体步骤可以如下:
步骤11、首先预存一些目标(中转站标志物)的模板,将其作为检测的目标,预存到物流无人机系统中,以便后来定位使用。
步骤12、用物流无人机底部的摄像头实时采集地面的场景信息,当采集到的场景信息中没有目标时,继续采集。
步骤13、当采集到的场景图像中存在目标时,用基于hausdorff匹配的方法进行目标定位,得到目标在实时图像中的平面坐标位置,反馈到物流无人机系统中,让物流无人机系统做出一定的投放决策。
图2可以表示的是本发明的方案所表示的物流无人机目标定位的示意图。
图3可以表示的是基于hausdorff匹配方法的目标定位方法流程图,具体可以如下:
本发明的方案主要是提出一种改进的hausdorff匹配方法,对目标进行定位,实验表明定位精度较高,比较适合移植到一些嵌入式系统中,具体的方法如下:
步骤21、先将实时采集的图像灰度化,然后去除一些噪声的影响,将模板(目标)图像以及实时采集的图像进行中值滤波预处理:
F(x,y)=mid{fxy} (1)。
这里fxy是原始图像像素值,F(x,y)是滤波后的图像像素值,在8邻域之内滤波处理。
步骤22、用Canny算子提取模板(如目标)图像以及实时采集的图像的边缘(edge)。
其中,Canny边缘检测算子是John F.Canny于1986年开发出来的一个多级边缘检测算法。
步骤23、用优化的CSS角点(即corner)提取方法对模板(目标)图像以及实时采集的图像进行角点提取。
步骤24、构造本发明的方案提出的改进的hausdorff距离匹配度量,选定一定的仿射变换模型以适应一些仿射畸变,最后用遗传算法搜索策略搜索到使hausdorff距离取得最小值所对应的位置,即实现模板(目标)图像在实时采集的图像中精确定位的目的。
下面对hausdorff距离进行更为具体地示例性说明,即对原始的hausdorff距离以及有向hausdorff距离的定义进行介绍性说明。
其中,hausdorff距离是描述两个点集相似性的度量,本发明的方案中的点集为边缘点集和角点点集。假设有两个有限点集A、B,他们之间的原始的hausdorff距离定义:
H(A,B)=max{h(A,B),h(B,A)} (2)。
这里,h(A,B),h(B,A)为A→B以及B→A的有向hausdorff距离:
这里的a代表的是点集A中的一个点,b代表的是点集B中的一个点。
其中的范数取2范数,用dB(a),dA(b)分别代替和
在一个具体可选例子中,本发明的方案的方法提出了一个新的加权hausdorff距离,它的重要改进点在于:
在有向hausdorff距离里面添加了综合了特征点方向差异响应,并将普通边缘点与边缘上的角点赋予不同的权值,然后将两者的hausdorff距离相加得到最终的hausdorff距离。
最终的hausdorff距离如下:
Hw(A,B)=Hedge(A,B)+Hcorner(A,B) (7);
Hedge(A,B)=max{hedge(A,B),hedge(B,A)} (8);
Hcorner(A,B)=max{hcorner(A,B),hcorner(B,A)} (9)。
其中,公式(8)、(9)中:
hedge(B,A),hcorner(B,A)计算依次类推。公式(10)、(11)中,Na表示点集A中点的个数,w1,w2分别代表普通边缘点与边缘上的角点的权值,Δλ为方向差异响应。
可选地,权值的确定,可以如下:
运用部分hausdorff距离的思想进行hausdorff距离大小排序,排除干扰点,那么边缘上的点就只剩下普通边缘点和角点,角点是边缘上的显著特性,贡献大,赋予大的权值w2,普通边缘点则相对贡献小,权值w1相对较小,权值如下:
w1=1 (12);
公式(13)中,N0是提取出的角点个数,k是经过部分hausdorff距离排序之后的前k个边缘特征点(角点在其中)的个数。
可选地,方向差异响应Δλ的确定,可以如下:
传统的hausdorff距离只是利用了特征点集的平面信息,并没有利用特征点集的空间信息,因此,本发明的方案定义一个能表征空间信息的因子:方向差异响应。为了结合特征点的方向差异构造匹配度量,我们将特征点的方向定义为边缘轮廓切线方向,假设轮廓曲线上某一点的A(i)的坐标为(xi,yi),距其距离为α(很小)的两点分别为A(i-α),A(i+α),将方向角定义为:
在模板图像与参考图像完全匹配时,匹配边缘点之间不仅有最小的haudorff距离,而且对应边缘上的点的方向角也应该有最小的方向差异响应,为此,定义参考图与模板图特征点集之间的方向差异响应如下:
Δλ=1-cos(λa-λb)+c (15)。
其中,λa,λb分别为点集A,B中某点的方向角,c是一个防止Δλ等于零的极小数。
经过上面的提出的新的hausdorff距离,选择仿射变换模型和遗传算法搜索策略,找到使hausdorff距离取得最小的位置,即目标(中转站的标志物)在实时图像中的定位的位置(二维信息),然后将快递从无人机投放到中转站,从而实现了精确投放的目的。
可见,本发明的方案,构造了一个以边缘斜率角定义的方向差异响应,并将其加入到有向hausdorff距离中,匹配点集是由Canny边缘提取以及CSS角点提取得到的一般边缘点和角点;在最终的匹配度量上,本发明的方案构造了一个以一般边缘点以及角点分别进行加权得到各自新的加权hausdorff距离,最后将两者相加得到最终的hausdorff距离匹配度量,可实现对场景目标(物流中转站的标志物)进行精确定位,目标定位精度较高,误差小,有效解决无人机物流配送定位的应用问题。
另外,本发明的方案保护范围不仅仅限于物流快递的投放,也可以适用于其它目标定位的领域,如:运动目标检测,无人机定位打击等一些计算机视觉领域。
由于本实施例的物流系统所实现的处理及功能基本相应于前述图7所示的装置的实施例、原理和实例,故本实施例的描述中未详尽之处,可以参见前述实施例中的相关说明,在此不做赘述。
经大量的试验验证,采用本发明的技术方案,通过构造一个以边缘斜率角定义的方向差异响应,并将其加入到有向hausdorff距离中,匹配点集是由Canny边缘提取以及CSS角点提取得到的一般边缘点和角点,使得边缘点和角点的提取精准性好,有利于提升定位精度。
根据本发明的实施例,还提供了对应于定位控制方法的一种存储介质。该存储介质,可以包括:所述存储介质中存储有多条指令;所述多条指令,用于由处理器加载并执行以上所述的定位控制方法。
由于本实施例的存储介质所实现的处理及功能基本相应于前述图1至图6所示的方法的实施例、原理和实例,故本实施例的描述中未详尽之处,可以参见前述实施例中的相关说明,在此不做赘述。
经大量的试验验证,采用本发明的技术方案,通过在对基于场景图像提取的边缘点和角点与最终的匹配度量上,构造一个以一般边缘点以及角点分别进行加权得到各自新的加权hausdorff距离,最后将两者相加得到最终的hausdorff距离匹配度量,可实现对场景目标(物流中转站的标志物)进行精确定位,目标定位精度较高,误差小。
根据本发明的实施例,还提供了对应于定位控制方法的一种物流系统。该物流系统,可以包括:处理器,用于执行多条指令;存储器,用于存储多条指令;其中,所述多条指令,用于由所述存储器存储,并由所述处理器加载并执行以上所述的定位控制方法。
由于本实施例的物流系统所实现的处理及功能基本相应于前述图1至图6所示的方法的实施例、原理和实例,故本实施例的描述中未详尽之处,可以参见前述实施例中的相关说明,在此不做赘述。
经大量的试验验证,采用本发明的技术方案,通过构造一个以边缘斜率角定义的方向差异响应,并将其加入到有向hausdorff距离中,匹配点集是由Canny边缘提取以及CSS角点提取得到的一般边缘点和角点;在最终的匹配度量上,构造一个以一般边缘点以及角点分别进行加权得到各自新的加权hausdorff距离,最后将两者相加得到最终的hausdorff距离匹配度量,可实现对场景目标(物流中转站的标志物)进行精确定位,目标定位精度较高。
综上,本领域技术人员容易理解的是,在不冲突的前提下,上述各有利方式可以自由地组合、叠加。
以上所述仅为本发明的实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。
Claims (17)
1.一种定位控制方法,其特征在于,包括:
获取待定位的当前场景中的当前场景信息;
根据所述当前场景信息确定所述当前场景中是否存在设定的目标场景;
若所述当前场景中存在所述目标场景,则通过对所述当前场景信息进行hausdorff匹配处理,确定所述目标场景在所述当前场景中的定位位置。
2.根据权利要求1所述的方法,其特征在于,其中,
获取待定位的当前场景中的当前场景信息,包括:
获取由物流无人机加载的摄像头实时或定时采集到的所述当前场景中的当前场景信息;所述当前场景信息,包括:图像信息、视频信息中的至少之一;
和/或,
根据所述当前场景信息确定所述当前场景中是否存在设定的目标场景,包括:
确定所述当前场景信息与设定的所述目标场景的目标场景信息是否匹配;
若所述当前场景信息与所述目标场景信息匹配,则确定所述当前场景中存在所述目标场景。
3.根据权利要求1或2所述的方法,其特征在于,对所述当前场景信息进行hausdorff匹配处理,包括:
对所述当前场景信息进行预处理,得到预处理场景信息;
提取所述预处理场景信息的边缘和角点;
基于所述边缘和所述角点构造hausdorff距离度量;
基于设定的仿射变换模型,使用遗传算法搜索策略搜索所述当前场景中能够使所述hausdorff距离度量取得设定范围内的最小值时的位置,以将该位置作为所述定位位置。
4.根据权利要求3所述的方法,其特征在于,其中,
对所述当前场景信息进行预处理,包括:
对所述当前场景信息进行灰度化处理和中值滤波去燥处理,得到所述预处理场景信息;
和/或,
提取所述预处理场景信息的边缘和角点,包括:
使用Canny算子提取所述预处理场景信息的边缘;以及,
使用CSS角点提取方法提取所述预处理场景信息的角点。
5.根据权利要求3或4所述的方法,其特征在于,基于所述边缘和所述角点构造hausdorff距离度量,包括:
确定所述当前场景信息与所述目标场景信息之间的方向差异响应,并确定所述边缘的边缘权值和所述角点的角点权值;
基于所述方向差异响应和所述边缘权值,对所述边缘进行加权处理,得到边缘加权hausdorff距离;并基于所述方向差异响应和所述角点权值,对所述角点进行加权处理,得到角点加权hausdorff距离;
将所述边缘加权hausdorff距离和所述角点加权hausdorff距离之和,确定为hausdorff距离度量。
6.根据权利要求5所述的方法,其特征在于,其中,
确定所述当前场景信息与所述目标场景信息之间的方向差异响应,包括:
按设定的边缘斜率角,确定所述当前场景信息与所述目标场景信息的特征点集之间的方向差异响应;
和/或,
确定所述边缘的边缘权值和所述角点的角点权值,包括:
对所述边缘和所述角点进行hausdorff距离的大小排序,排除所述边缘和所述角点中的设定干扰点,得到所述边缘中剩下的剩余边缘点和所述角点中剩下的剩余角点;
根据所述剩余边缘点和所述剩余角点对所述当前场景信息的设定特性的贡献大小,分别赋予所述剩余边缘点和所述剩余角点以边缘权值和所述角点权值;所述边缘权值小于所述角点权值。
7.根据权利要求1-6之一所述的方法,其特征在于,还包括:
预存设定的目标场景的目标场景信息;和/或,
实时或定时更新设定的目标场景的目标场景信息;
和/或,
根据所述目标场景在所述当前场景中的定位位置,将待投放物投放至所述定位位置处。
8.一种定位控制装置,其特征在于,包括:
获取单元,用于获取待定位的当前场景中的当前场景信息;
控制单元,用于根据所述当前场景信息确定所述当前场景中是否存在设定的目标场景;
所述控制单元,还用于若所述当前场景中存在所述目标场景,则通过对所述当前场景信息进行hausdorff匹配处理,确定所述目标场景在所述当前场景中的定位位置。
9.根据权利要求8所述的装置,其特征在于,其中,
所述获取单元获取待定位的当前场景中的当前场景信息,包括:
获取由物流无人机加载的摄像头实时或定时采集到的所述当前场景中的当前场景信息;所述当前场景信息,包括:图像信息、视频信息中的至少之一;
和/或,
所述控制单元根据所述当前场景信息确定所述当前场景中是否存在设定的目标场景,包括:
确定所述当前场景信息与设定的所述目标场景的目标场景信息是否匹配;
若所述当前场景信息与所述目标场景信息匹配,则确定所述当前场景中存在所述目标场景。
10.根据权利要求8或9所述的装置,其特征在于,所述控制单元对所述当前场景信息进行hausdorff匹配处理,包括:
对所述当前场景信息进行预处理,得到预处理场景信息;
提取所述预处理场景信息的边缘和角点;
基于所述边缘和所述角点构造hausdorff距离度量;
基于设定的仿射变换模型,使用遗传算法搜索策略搜索所述当前场景中能够使所述hausdorff距离度量取得设定范围内的最小值时的位置,以将该位置作为所述定位位置。
11.根据权利要求10所述的装置,其特征在于,其中,
所述控制单元对所述当前场景信息进行预处理,包括:
对所述当前场景信息进行灰度化处理和中值滤波去燥处理,得到所述预处理场景信息;
和/或,
所述控制单元提取所述预处理场景信息的边缘和角点,包括:
使用Canny算子提取所述预处理场景信息的边缘;以及,
使用CSS角点提取装置提取所述预处理场景信息的角点。
12.根据权利要求10或11所述的装置,其特征在于,所述控制单元基于所述边缘和所述角点构造hausdorff距离度量,包括:
确定所述当前场景信息与所述目标场景信息之间的方向差异响应,并确定所述边缘的边缘权值和所述角点的角点权值;
基于所述方向差异响应和所述边缘权值,对所述边缘进行加权处理,得到边缘加权hausdorff距离;并基于所述方向差异响应和所述角点权值,对所述角点进行加权处理,得到角点加权hausdorff距离;
将所述边缘加权hausdorff距离和所述角点加权hausdorff距离之和,确定为hausdorff距离度量。
13.根据权利要求12所述的装置,其特征在于,其中,
所述控制单元确定所述当前场景信息与所述目标场景信息之间的方向差异响应,包括:
按设定的边缘斜率角,确定所述当前场景信息与所述目标场景信息的特征点集之间的方向差异响应;
和/或,
所述控制单元确定所述边缘的边缘权值和所述角点的角点权值,包括:
对所述边缘和所述角点进行hausdorff距离的大小排序,排除所述边缘和所述角点中的设定干扰点,得到所述边缘中剩下的剩余边缘点和所述角点中剩下的剩余角点;
根据所述剩余边缘点和所述剩余角点对所述当前场景信息的设定特性的贡献大小,分别赋予所述剩余边缘点和所述剩余角点以边缘权值和所述角点权值;所述边缘权值小于所述角点权值。
14.根据权利要求8-13之一所述的装置,其特征在于,还包括:
存储单元,用于预存设定的目标场景的目标场景信息;和/或,
存储单元,还用于实时或定时更新设定的目标场景的目标场景信息;
和/或,
执行单元,用于根据所述目标场景在所述当前场景中的定位位置,将待投放物投放至所述定位位置处。
15.一种物流系统,其特征在于,包括:如权利要求8-14任一所述的定位控制装置。
16.一种存储介质,其特征在于,所述存储介质中存储有多条指令;所述多条指令,用于由处理器加载并执行如权利要求1-7任一所述的定位控制方法。
17.一种物流系统,其特征在于,包括:
处理器,用于执行多条指令;
存储器,用于存储多条指令;
其中,所述多条指令,用于由所述存储器存储,并由所述处理器加载并执行如权利要求1-7任一所述的定位控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811309179.3A CN109410281A (zh) | 2018-11-05 | 2018-11-05 | 一种定位控制方法、装置、存储介质及物流系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811309179.3A CN109410281A (zh) | 2018-11-05 | 2018-11-05 | 一种定位控制方法、装置、存储介质及物流系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109410281A true CN109410281A (zh) | 2019-03-01 |
Family
ID=65471836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811309179.3A Pending CN109410281A (zh) | 2018-11-05 | 2018-11-05 | 一种定位控制方法、装置、存储介质及物流系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109410281A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113256715A (zh) * | 2020-02-12 | 2021-08-13 | 北京京东乾石科技有限公司 | 机器人的定位方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101673403A (zh) * | 2009-10-10 | 2010-03-17 | 安防制造(中国)有限公司 | 复杂干扰场景下的目标跟踪方法 |
CN105718895A (zh) * | 2016-01-22 | 2016-06-29 | 张健敏 | 一种基于视觉特征的无人机 |
CN106054931A (zh) * | 2016-07-29 | 2016-10-26 | 北方工业大学 | 一种基于视觉定位的无人机定点飞行控制系统 |
CN106225787A (zh) * | 2016-07-29 | 2016-12-14 | 北方工业大学 | 一种无人机视觉定位方法 |
CN107065895A (zh) * | 2017-01-05 | 2017-08-18 | 南京航空航天大学 | 一种植保无人机定高技术 |
-
2018
- 2018-11-05 CN CN201811309179.3A patent/CN109410281A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101673403A (zh) * | 2009-10-10 | 2010-03-17 | 安防制造(中国)有限公司 | 复杂干扰场景下的目标跟踪方法 |
CN105718895A (zh) * | 2016-01-22 | 2016-06-29 | 张健敏 | 一种基于视觉特征的无人机 |
CN106054931A (zh) * | 2016-07-29 | 2016-10-26 | 北方工业大学 | 一种基于视觉定位的无人机定点飞行控制系统 |
CN106225787A (zh) * | 2016-07-29 | 2016-12-14 | 北方工业大学 | 一种无人机视觉定位方法 |
CN107065895A (zh) * | 2017-01-05 | 2017-08-18 | 南京航空航天大学 | 一种植保无人机定高技术 |
Non-Patent Citations (2)
Title |
---|
何博: "图像匹配系统的研究", 《中国优秀硕士学位论文全文数据库(信息科技辑)》 * |
苏松志等: "《行人检测 理论与实践》", 31 March 2016 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113256715A (zh) * | 2020-02-12 | 2021-08-13 | 北京京东乾石科技有限公司 | 机器人的定位方法和装置 |
CN113256715B (zh) * | 2020-02-12 | 2024-04-05 | 北京京东乾石科技有限公司 | 机器人的定位方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | The Comparison and Application of Corner Detection Algorithms. | |
CN102110228B (zh) | 确定在光学对象初始化追踪过程中使用的参考特征的方法以及对象初始化追踪方法 | |
Verucchi et al. | Real-Time clustering and LiDAR-camera fusion on embedded platforms for self-driving cars | |
CN111369495B (zh) | 一种基于视频的全景图像的变化检测方法 | |
CN104063711B (zh) | 一种基于K‑means方法的走廊消失点快速检测算法 | |
CN108764456B (zh) | 机载目标识别模型构建平台、机载目标识别方法及设备 | |
Fan et al. | Satellite image matching method based on deep convolutional neural network | |
CN106709500B (zh) | 一种图像特征匹配的方法 | |
CN102915444A (zh) | 图像配准 | |
CN113191174B (zh) | 物品定位方法和装置、机器人及计算机可读存储介质 | |
CN109389156B (zh) | 一种图像定位模型的训练方法、装置及图像定位方法 | |
CN113361645B (zh) | 基于元学习及知识记忆的目标检测模型构建方法及系统 | |
WO2009082719A1 (en) | Invariant visual scene and object recognition | |
CN109376208A (zh) | 一种基于智能终端的定位方法、系统、存储介质及设备 | |
CN111967337A (zh) | 一种基于深度学习和无人机影像的管道线变化检测方法 | |
CN111767908A (zh) | 字符检测方法、装置、检测设备及存储介质 | |
Seib et al. | Object recognition using hough-transform clustering of surf features | |
CN110147837B (zh) | 基于特征聚焦的任意方向密集目标检测方法、系统及设备 | |
Bharadhwaj et al. | Detecting vehicles on the edge: Knowledge distillation to improve performance in heterogeneous road traffic | |
CN109410281A (zh) | 一种定位控制方法、装置、存储介质及物流系统 | |
Garcia-D'Urso et al. | Efficient instance segmentation using deep learning for species identification in fish markets | |
CN112101113B (zh) | 一种轻量化的无人机图像小目标检测方法 | |
CN109815763A (zh) | 二维码的检测方法、装置和存储介质 | |
JP3251840B2 (ja) | 画像認識装置 | |
EP3371543A1 (en) | Improvements in and relating to missile targeting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |