CN109443345A - 用于监控导航的定位方法及系统 - Google Patents
用于监控导航的定位方法及系统 Download PDFInfo
- Publication number
- CN109443345A CN109443345A CN201811268394.3A CN201811268394A CN109443345A CN 109443345 A CN109443345 A CN 109443345A CN 201811268394 A CN201811268394 A CN 201811268394A CN 109443345 A CN109443345 A CN 109443345A
- Authority
- CN
- China
- Prior art keywords
- target
- target machine
- scene
- machine
- monitoring camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 85
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000004807 localization Effects 0.000 title claims abstract description 17
- 238000013507 mapping Methods 0.000 claims abstract description 45
- 230000004888 barrier function Effects 0.000 claims description 18
- 238000012937 correction Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 11
- 210000003128 head Anatomy 0.000 description 7
- 230000005389 magnetism Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 231100000572 poisoning Toxicity 0.000 description 2
- 230000000607 poisoning effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
Abstract
本发明实施例提供用于监控导航的定位方法及系统,方法包括:获取目标机器当前目标场景中的第一位置;基于第一位置选取目标机器当前所处位置所对应的监控摄像头;控制监控摄像头基于第一位置获取包含目标机器处于目标场景中的实时图像;基于实时图像,计算目标机器当前处于目标场景中的第二位置;其中,从实时图像计算场景地图中的位置关系为预先构建,其实为目标机器在当前场景中各个位置与目标机器置于目标场景中的样本图像间的映射关系。本发明起到目标机器精确定位的技术效果。
Description
技术领域
本发明实施例涉及计算机导航技术领域,尤其涉及一种用于监控导航的定位方法及系统。
背景技术
机器的导航系统是机器的“眼睛”,多技术结合是未来发展的方向。导航系统负责向机器提供参考坐标系的位置、速度、移动姿态等矢量信息,引导机器按照指定航线移动,相当于有人机系统中的领航员。
现有技术,机器的精确导航是目前许多机器应用场景中的技术难点,无论是室内应用还是室外应用,又无论是基于激光、视觉(双目/单目)、惯性、编码器、GPS、地磁、wifi等技术的机器导航都存在各自的缺陷。例如:基于激光技术的机器导航成本太高;基于视觉(双目/单目)技术的机器导航无法处理无光或暗光场景下的导航需求;基于惯性技术的机器导航坐标飘移得太厉害;基于编码器或GPS技术的机器导航精度低,GPS在森林、楼宇间有误差大,室内无信号;基于地磁或wifi技术的机器导航不准确等等。
发明内容
本发明实施例提供定位方法及系统,用以解决现有技术中现有技术机器导航定位不准确的问题,以起到更好进行机器导航的有益效果。
根据本发明实施例的第一个方面,提供一种定位方法,包括:
获取目标机器在当前目标场景中的第一位置;
基于第一位置选取目标机器当前所处目标场景中位置所对应的监控摄像头;
控制监控摄像头基于第一位置获取包含目标机器置于目标场景中的实时图像;
基于实时图像和定位映射关系,计算目标机器当前于处目标场景中的第二位置;所述定位映射关系为预先构建,其实为目标机器在当前场景中各个位置与目标机器置于目标场景中的样本图像间的映射关系。
进一步,所述方法还包括:
基于第二位置信息、第二姿态信息和第二速度信息校正机载导航系统。
进一步,所述方法还包括:
基于精度高于预设阈值的激光雷达建立目标场景的第一场景地图;
基于第一场景地图和目标场所的模型图,生成目标场景地图;
基于控制监控摄像头获取目标机器置于目标场景中样本位置的样本图像;基于激光雷达获取目标机器样本位置;
基于目标机器置于目标场景中各个样本位置所对应的样本图像,构建定位映射关系。
进一步,所述方法还包括:
若第一位置不在任一监控摄像头的拍摄范围内,则控制目标机器移动到任一监控摄像头的拍摄范围内;选取所述任一监控摄像头获取包含目标机器置于目标场景中的实时图像。
根据本发明的第二个方面,提供一种定位系统,包括控制中心和至少一个监控摄像头:
控制中心获取目标机器当前目标场景中的第一位置;
控制中心基于第一位置选取目标机器当前所处目标场景中位置所对应的监控摄像头;
控制中心控制监控摄像头基于第一位置获取包含目标机器置于目标场景中的实时图像;
控制中心基于实时图像和定位映射关系,计算目标机器当前于处目标场景中的第二位置;所述定位映射关系为预先构建,其实为目标机器在当前场景中各个位置与目标机器置于目标场景中的样本图像间的映射关系。
进一步,控制中心还用于:
基于第二位置、目标机器当前姿态信息和速度信息实现目标机器机载导航系统的校正。
进一步,控制中心还用于:
基于激光雷达建立目标场景的第一场景地图;
基于第一场景地图和目标场所的模型图,生成目标场景地图;
基于控制监控摄像头获取目标机器置于目标场景中样本位置的样本图像;基于激光雷达获取目标机器样本位置;
基于目标机器置于目标场景中各个样本位置所对应的样本图像,构建定位映射关系。
进一步,所述控制中心还用于:
若第一位置不在任一监控摄像头的拍摄范围内,则控制目标机器移动到任一监控摄像头的拍摄范围内;选取所述任一监控摄像头获取包含目标机器置于目标场景中的实时图像。
进一步,所述控制中心还用于:获取当目标机器按照当前导航路径继续移动可能会遇到的障碍物的俯视轮廓信息;
控制中心将障碍物的俯视轮廓信息发送给目标机器,目标机器获取障碍物的具体信息;控制中心基于障碍物的具体信息修改目标机器导航路径。
进一步,当监控摄像头为多个时;控制中心还用于:优先选择多个监控摄像头视场中心连线作为目标机器导航路径。
本发明实施例提供定位方法及系统,所述方法包括:获取目标机器在当前目标场景中的第一位置;基于第一位置选取目标机器当前所处目标场景中位置所对应的监控摄像头;控制监控摄像头基于第一位置获取包含目标机器置于目标场景中的实时图像;基于实时图像和定位映射关系,目标机器当前于处目标场景中的第二位置;所述定位映射关系为预先构建,其实为目标机器在当前场景中各个位置与目标机器置于目标场景中的样本图像间的映射关系。起到目标机器精定位的技术效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明定位方法的一实施例流程示意图;
图2为本发明定位方法的一执行实例示意图;
图3为本发明定位方法的另一执行实例示意图;
图4为本发明电子设备的实施例实体结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
机器导航是指机器在移动过程中确定其位置、姿态和速度的方法或过程,涉及数学、力学、光学、电子学、自动控制及计算机等多个学科。导航系统的性能直接决定了机器是否能完成任务,因为机器只能依靠导航信号实现自动移动。
但是,机器的精确导航是目前许多机器应用中的技术难点,无论是室内应用还是室外应用,又无论是基于激光、视觉(双目/单目)、惯性、编码器、GPS、地磁、wifi等技术,这些方式都存在各自的缺陷。由于机器定位的不准确,以及能准确定位的部件太昂贵,使得导航性能往往不能满足作业要求。
为解决上述至少一个技术问题,本发明提供一种定位方法及系统,所述方法结合监控摄像头实现对于目标机器的导航。解决现有技术中现有技术机器导航定位不准确的问题,具有更好进行机器导航的有益效果。
如图1,示出本发明具体实施例定位方法整体流程示意图。整体上,包括:
S1,获取目标机器在当前目标场景中的第一位置;
S2,基于第一位置选取目标机器当前所处目标场景中位置所对应的监控摄像头;
S3,控制监控摄像头基于第一位置获取包含目标机器置于目标场景中的实时图像;
S4,基于实时图像和定位映射关系,计算目标机器当前于处目标场景中的第二位置;所述定位映射关系为预先构建,其实为目标机器在当前场景中各个位置与目标机器置于目标场景中的样本图像间的映射关系。
该实施例中定位方法是为在进行机器定位,考虑到机器自身定位不准确的问题,基于预先构建的定位映射关系实现对于目标机器的精准定位。
本发明与其它类似视觉导航的最大不同点在于:导航所依赖的摄像头没放在移动的机器上,而是利用固定在环境中、已有的监控,摄像头不随机器而动,因此每个摄像头的位置固定,已经有了位置在摄像头里面。
进一步地,对于目标机器当前第一位置的获取是为了定位能够预先设置、且能够获取到目标机器的相应目标机器;目标机器当前第一位置的获取既可以为目标机器主动上报、也可以为控制中心或服务器主动获取;具体存储方式本发明实施例不作具体限定。
又进一步地,控制中心或服务器基于第一位置,选取目标机器当前所处位置所对应的监控摄像头。
再进一步的,控制监控摄像头基于第一位置,获取包含目标机器置于目标场景中的实时图像,基于所述实时图像从预先构建的定位映射关系中寻找目标机器的第二位置。其中,定位映射关系为预先构建,其中包含目标机器在当前场景中各个位置,与目标机器在当前场景中各个位置时目标机器置于目标场景中的样本图像的映射关系。映射关系其实是仿射变换,每个摄像头都不同,与摄像头的内外参数有关,可以简化成表/神经网络/非线性函数,本发明实施例不作具体限定。
在本发明任一上述具体实施例的基础上,提供一种定位方法,所述方法还包括:
基于第二位置信息、第二姿态信息和第二速度信息校正机载导航系统。
在本发明任一上述具体实施例的基础上,提供一种定位方法,所述方法还包括:
基于精度高于预设阈值的激光雷达建立目标场景的第一场景地图;
基于第一场景地图和目标场所的模型图,生成目标场景地图;
基于控制监控摄像头获取目标机器置于目标场景中样本位置的样本图像;基于激光雷达获取目标机器样本位置;
基于目标机器置于目标场景中各个样本位置所对应的样本图像,构建定位映射关系。
首先,采用高于要求导航精度一个等级的激雷达装置提供标定信息,以充电室中心为坐标原点:
(1)建立高于要求导航精度一个等级的地图:提供目标场景的模型图;用激光雷达建立目标场景的第一场景地图;基于第一场景地图和目标场所的模型图,生成目标场景地图;
(2)用定位目标机器遍历场景:(2.1)从监控摄像头图像中定位出目标机器(目标机器顶上设置显著特征,例如十字,有助于检测和定位);(2.2)同时激光雷达定位;(2.3)建立监控摄像头图像中位置与在整个场景中位置的映射关系(映射关系可以是表,也可以是神经网络,或者函数)。
(3)在进行目标机器定位时,用地磁/wifi/惯性/编码器提供的第一位置作全局定位,获取目标机器的大致位置;如果目标在某监控摄像头监视范围内,从监控摄像头图像中定位出目标,根据图像位置可以映射成场景位置,因此可以确定目标在整个场景中的位置。
如图2所示,C1至C8代表至于不同位置的监控摄像头,灰色方块代表用于定位的目标机器,黑色区域代表“黑区”。
在本发明任一上述具体实施例的基础上,提供一种定位方法,所述方法还包括:
若第一位置不在任一监控摄像头的拍摄范围内,则控制目标机器移动到任一监控摄像头的拍摄范围内;选取所述任一监控摄像头获取包含目标机器置于目标场景中的实时图像。
其中,目标机器的定位精度与监控摄像头摄像范围对目标场景的覆盖有关系。如果没有全覆盖,覆盖区域(“白区”)一定是关键区域,则需要地磁/wifi/惯性/编码器提供的信息辅助,帮助“黑区”里的目标机器先到达“白区”;如果有全覆盖,可以提供较为准确的定位信息;如果多重覆盖,可以提供更为准确的定位信息。如果目标被遮挡,则视同处于“黑区”。
其次,根据白区做运动规划,计算目标机器的运动方向、速度信息,将导航信息发送给目标机器。
然后,目标机器也有局部运动规划能力,控制目标机器到达白区。
最后,一般而言,目标机器的机载传感器定位精度比摄像头低,在黑区时间越长,目标机器的自定位误差就越大。目标机器从黑区进入白区后,位置/姿态/速度的误差会立即减小,如图3所示。
在本发明上述任一实施例的基础上,提供一种本发明具体实施定位系统整体结构示意图。整体上,包括控制中心和至少一个监控摄像头:
控制中心获取目标机器当前目标场景中的第一位置;
控制中心基于第一位置选取目标机器当前所处目标场景中位置所对应的监控摄像头;
控制中心控制监控摄像头基于第一位置获取包含目标机器置于目标场景中的实时图像;
控制中心基于实时图像和定位映射关系,计算目标机器当前于处目标场景中的第二位置;所述定位映射关系为预先构建,其实为目标机器在当前场景中各个位置与目标机器置于目标场景中的样本图像间的映射关系。
该实施例中定位系统是为在进行机器定位,考虑到机器自身定位不准确的问题,基于预先构建的定位映射关系实现对于目标机器的精准定位。
进一步地,对于目标机器当前第一位置的获取是为了定位能够预先设置、且能够获取到目标机器的相应目标机器;目标机器当前第一位置的获取既可以为目标机器主动上报、也可以为控制中心或服务器主动获取;具体存储方式本发明实施例不作具体限定。
又进一步地,控制中心或服务器基于第一位置,选取目标机器当前所处位置所对应的监控摄像头。
再进一步的,控制监控摄像头基于第一位置,获取包含目标机器置于目标场景中的实时图像,基于所述实时图像从预先构建的数据库中寻找目标机器的第二位置。其中,定位映射关系为预先构建,其中包含目标机器在当前场景中各个位置,与目标机器在当前场景中各个位置时目标机器置于目标场景中的样本图像的映射关系。映射关系其实是仿射变换,每个摄像头都不同,与摄像头的内外参数有关,可以简化成表/神经网络/非线性函数,本发明实施例不作具体限定。
在本发明上述任一具体实施例的基础上,提供一种定位系统,控制中心还用于:
基于第二位置、目标机器当前姿态信息和速度信息实现目标机器机载导航系统的校正。
在本发明上述任一具体实施例的基础上,提供一种定位系统,控制中心还用于:
基于激光雷达建立目标场景的第一场景地图;
基于第一场景地图和目标场所的模型图,生成目标场景地图;
基于控制监控摄像头获取目标机器置于目标场景中样本位置的样本图像;基于激光雷达获取目标机器样本位置;
基于目标机器置于目标场景中各个样本位置所对应的样本图像,构建定位映射关系。
首先,采用高于要求导航精度一个等级的激雷达装置提供标定信息,以充电室中心为坐标原点:
(1)建立高于要求导航精度一个等级的地图:提供目标场景的模型图;用激光雷达建立目标场景的第一场景地图;基于第一场景地图和目标场所的模型图,生成目标场景地图;
(2)用定位目标机器遍历场景:(2.1)从监控摄像头图像中定位出目标机器(目标机器顶上设置显著特征,例如十字,有助于检测和定位);(2.2)同时激光雷达定位;(2.3)建立监控摄像头图像中位置与在整个场景中位置的映射关系(映射关系可以是表,也可以是神经网络,或者函数)。
(3)在进行目标机器定位时,用地磁/wifi/惯性/编码器提供的第一位置作全局定位,获取目标机器的大致位置;如果目标在某监控摄像头监视范围内,从监控摄像头图像中定位出目标,根据图像位置可以映射成场景位置,因此可以确定目标在整个场景中的位置。
如图2所示,C1至C8代表至于不同位置的监控摄像头,灰色方块代表用于定位的目标机器,黑色区域代表“黑区”。
在本发明上述任一具体实施例的基础上,提供一种定位系统,控制中心还用于:若第一位置不在任一监控摄像头的拍摄范围内,则控制目标机器移动到任一监控摄像头的拍摄范围内;选取所述任一监控摄像头获取包含目标机器置于目标场景中的实时图像。
其中,目标机器的定位精度与监控摄像头摄像范围对目标场景的覆盖有关系。如果没有全覆盖,覆盖区域(“白区”)一定是关键区域,则需要地磁/wifi/惯性/编码器提供的信息辅助,帮助“黑区”里的目标机器先到达“白区”;如果有全覆盖,可以提供较为准确的定位信息;如果多重覆盖,可以提供更为准确的定位信息。如果目标被遮挡,则视同处于“黑区”。
其次,根据白区做运动规划,计算目标机器的运动方向、速度信息,将导航信息发送给目标机器。
然后,目标机器也有局部运动规划能力,控制目标机器到达白区。
最后,一般而言,目标机器的机载传感器定位精度比摄像头低,在黑区时间越长,目标机器的自定位误差就越大。目标机器从黑区进入白区后,位置/姿态/速度的误差会立即减小,如图3所示。
在本发明上述任一具体实施例的基础上,提供一种定位系统,监控摄像头还用于获取当目标机器按照当前导航路径继续移动会遇到的障碍物的粗略信息;
控制中心将障碍物的粗略信息发送给目标机器,目标机器获取障碍物的具体信息;控制中心基于障碍物的具体信息修改目标机器导航路径。
其中,当目标机器按照当前的导航路径进行前进时,如果将要遇到障碍物,因为监控摄像头视野更大,能够预先获得障碍物的粗略信息,将障碍物的粗略信息发送给目标机器,目标机器基于自身的传感器(例如超声波传感器、红外线传感器、雷达传感器和摄像头中的一种或多种的组合)获取障碍物具体的具体信息。其中所述障碍物粗略信息和具体信息中可以包括位置、高度信息、体积信息等等,本发明实施例不作具体限定。
在本发明上述任一具体实施例的基础上,提供一种定位系统,当监控摄像头为多个时;控制中心还用于:优先靠近多个监控摄像头连线所构成的路径,生成或修改目标机器导航路径。
在本发明上述任一具体实施例的基础上,提供一种定位系统,控制中心生成或修改目标机器导航路径时优先在白区内。
在本发明上述任一具体实施例的基础上,提供一种定位系统,控制中心生成的导航路径,目标机器可以根据障碍自主修改局部导航路径。
在本发明上述任一具体实施例的基础上,提供一种定位系统,所述控制中心还用于:
当目标机器处于白区内时,基于第一位置,选取目标机器当前所处位置所对应的监控摄像头;
当目标机器处于黑区内时,基于目标机器历史位置、历史姿态信息和历史速度信息计算目标机器当前大致位置,基于大致位置选取目标机器当前所处位置所对应的监控摄像头。
在本发明上述任一具体实施例的基础上,提供一种定位系统,所述控制中心还用于:将大致位置发送给大致位置周边的各个监控摄像头;以供各个监控摄像头基于大致位置进行对目标机器信息的获取。
在本发明上述任一具体实施例的基础上,提供一种定位系统,目标机器上设置有避障传感器,用于获取障碍物的具体信息;避障传感器为超声波传感器、红外线传感器、雷达传感器和摄像头中的一种或多种的组合。
在本发明上述任一具体实施例的基础上,提供一种定位系统,所述控制中心和机器处于一个通过的无线网络中,外部无权限设备无法访问无线网络的内容;控制中心能够跨到外网,与其余业务对接。
在本发明上述任一具体实施例的基础上,提供一种定位系统,机器的机身上有用于图像识别且与机器编码一一对应的标签图案,以供监控摄像头识别。
在本发明上述任一具体实施例的基础上,提供一种定位系统,控制中心用于:
定时与每个机器通讯,告诉机器其任务路径、位置、姿态和速度:
启动时:(a)通知每个机器,控制中心启动,要每个机器上报位置、姿态和速度;(b)得到每个机器位置、姿态和速度后,精确计算机器的位置、姿态和速度;
作业时:(a)对处于白区的机器,按位置及误差定位所在摄像头进行目标检测;(b)对处于黑区的机器,估计位置、姿态、速度和误差,通报其最近的摄像头。
在本发明上述任一具体实施例的基础上,提供一种定位系统,机器用于:
启动时:(a)通知控制中心本机器启动,上报机器编码、位置、姿态;(b)获取最近摄像头;
任务时:定时与控制中心通讯,告诉其当前位置、姿态和速度。
在本发明上述任一具体实施例的基础上,给出一种监控导航实例。采用监控摄像头进行导航。监控摄像头作为上帝之眼,为目标机器定位,对目标机器提供位置、姿态和速度信息。作业流程如下。
(1)用户按按键发出机器作业任务要求;
(2)业务中心按业务规定允许/拒绝此项作业任务;
(3)如果要发物资,选择空余并且有足够电量的机器,控制中心向机器发出任务通知;
(4)机器前往物资发放处;
(5)发放物资,控制中心向机器给出出发信号;
(6)控制中心给出全局路径;
(7)机器按全局路径前往目的地;
(8)路途中发现障碍,修改局部路径;
(9)机器到达目的地,向控制中心发出通知;
(10)物资处理完毕,向控制中心给出信号;
(11)结束本次任务。
图4为本发明实施例提供的电子设备的实体结构示意图,该电子设备可以包括:处理器(processor)310、通信接口(Communications Interface)320、存储器(memory)330和通信总线340,其中,处理器310,通信接口320,存储器330通过通信总线340完成相互间的通信。处理器310可以调用存储在存储器330上并可在处理器310上运行的计算机程序,以执行上述各实施例提供的传输方法,例如包括:获取目标机器当前目标场景中的第一位置;基于第一位置选取目标机器当前所处目标场景中位置所对应的监控摄像头;控制监控摄像头基于第一位置获取包含目标机器置于目标场景中的实时图像;基于实时图像和定位映射关系,计算目标机器当前于处目标场景中的第二位置;所述定位映射关系为预先构建,其实为目标机器在当前场景中各个位置与目标机器置于目标场景中的样本图像间的映射关系。
此外,上述的存储器330中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的传输方法,例如包括:获取目标机器当前目标场景中的第一位置;基于第一位置选取目标机器当前所处目标场景中位置所对应的监控摄像头;控制监控摄像头基于第一位置获取包含目标机器置于目标场景中的实时图像;基于实时图像,从定位图像数据库中获取目标机器当前处目标场景中的第二位置;其中,定位图像数据库为预先构建,其中包含目标机器在当前场景中各个位置,与目标机器在当前场景中各个位置时目标机器置于目标场景中的样本图像的映射关系。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种定位方法,其特征在于,包括:
获取目标机器在当前目标场景中的第一位置;
基于第一位置选取目标机器当前所处目标场景中位置所对应的监控摄像头;
控制监控摄像头基于第一位置获取包含目标机器置于目标场景中的实时图像;
基于实时图像和定位映射关系,计算目标机器当前于处目标场景中的第二位置;所述定位映射关系为预先构建,其实为目标机器在当前场景中各个位置与目标机器置于目标场景中的样本图像间的映射关系。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
基于第二位置信息、第二姿态信息和第二速度信息校正机载导航系统。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
基于精度高于预设阈值的激光雷达建立目标场景的第一场景地图;
基于第一场景地图和目标场所的模型图,生成目标场景地图;
基于控制监控摄像头获取目标机器置于目标场景中样本位置的样本图像;基于激光雷达获取目标机器样本位置;
基于目标机器置于目标场景中各个样本位置所对应的样本图像,构建定位映射关系。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
若第一位置不在任一监控摄像头的拍摄范围内,则控制目标机器移动到任一监控摄像头的拍摄范围内;选取所述任一监控摄像头获取包含目标机器置于目标场景中的实时图像。
5.一种定位系统,其特征在于,包括控制中心和至少一个监控摄像头:
控制中心获取目标机器当前目标场景中的第一位置;
控制中心基于第一位置选取目标机器当前所处目标场景中位置所对应的监控摄像头;
控制中心控制监控摄像头基于第一位置获取包含目标机器置于目标场景中的实时图像;
控制中心基于实时图像和定位映射关系,计算目标机器当前于处目标场景中的第二位置;所述定位映射关系为预先构建,其实为目标机器在当前场景中各个位置与目标机器置于目标场景中的样本图像间的映射关系。
6.根据权利要求5所述的系统,其特征在于,控制中心还用于:
基于第二位置、目标机器当前姿态信息和速度信息实现目标机器机载导航系统的校正。
7.根据权利要求5所述的系统,其特征在于,控制中心还用于:
基于激光雷达建立目标场景的第一场景地图;
基于第一场景地图和目标场所的模型图,生成目标场景地图;
基于控制监控摄像头获取目标机器置于目标场景中样本位置的样本图像;基于激光雷达获取目标机器样本位置;
基于目标机器置于目标场景中各个样本位置所对应的样本图像,构建定位映射关系。
8.根据权利要求5所述的系统,其特征在于,控制中心还用于:若第一位置不在任一监控摄像头的拍摄范围内,则控制目标机器移动到任一监控摄像头的拍摄范围内;选取所述任一监控摄像头获取包含目标机器置于目标场景中的实时图像。
9.根据权利要求5所述的系统,其特征在于,监控摄像头还用于:获取当目标机器按照当前导航路径继续移动可能会遇到的障碍物的俯视轮廓信息;
控制中心将障碍物的俯视轮廓信息发送给目标机器,目标机器获取障碍物的具体信息;控制中心基于障碍物的具体信息修改目标机器导航路径。
10.根据权利要求5所述的系统,其特征在于,当监控摄像头为多个时;控制中心还用于:优先选择多个监控摄像头视场中心连线作为目标机器导航路径。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811268394.3A CN109443345B (zh) | 2018-10-29 | 2018-10-29 | 用于监控导航的定位方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811268394.3A CN109443345B (zh) | 2018-10-29 | 2018-10-29 | 用于监控导航的定位方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109443345A true CN109443345A (zh) | 2019-03-08 |
CN109443345B CN109443345B (zh) | 2023-12-26 |
Family
ID=65549819
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811268394.3A Active CN109443345B (zh) | 2018-10-29 | 2018-10-29 | 用于监控导航的定位方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109443345B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110298269A (zh) * | 2019-06-13 | 2019-10-01 | 北京百度网讯科技有限公司 | 场景图像定位方法、装置、设备及可读存储介质 |
CN110702078A (zh) * | 2019-10-25 | 2020-01-17 | 中山大学 | 一种基于视觉的室内外一体化地图构建系统及其构建方法 |
CN111148033A (zh) * | 2019-12-19 | 2020-05-12 | 广州赛特智能科技有限公司 | 一种自移动设备的辅助导航方法 |
CN111522020A (zh) * | 2020-06-23 | 2020-08-11 | 山东亦贝数据技术有限公司 | 一种园区活动要素混合定位系统及方法 |
CN111829510A (zh) * | 2019-04-15 | 2020-10-27 | 富华科精密工业(深圳)有限公司 | 自动导航方法、服务器及存储介质 |
CN114474035A (zh) * | 2020-11-11 | 2022-05-13 | 北京极智嘉科技股份有限公司 | 机器人位置确定方法、装置以及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8295547B1 (en) * | 2010-05-26 | 2012-10-23 | Exelis, Inc | Model-based feature tracking in 3-D and 2-D imagery |
CN104299236A (zh) * | 2014-10-20 | 2015-01-21 | 中国科学技术大学先进技术研究院 | 一种基于场景标定结合插值的目标定位方法 |
CN104700408A (zh) * | 2015-03-11 | 2015-06-10 | 中国电子科技集团公司第二十八研究所 | 一种基于摄像机网络的室内单目标定位方法 |
CN106382930A (zh) * | 2016-08-18 | 2017-02-08 | 广东工业大学 | 一种室内agv无线导航方法及装置 |
CN106931945A (zh) * | 2017-03-10 | 2017-07-07 | 上海木爷机器人技术有限公司 | 机器人导航方法和系统 |
CN106931961A (zh) * | 2017-03-20 | 2017-07-07 | 成都通甲优博科技有限责任公司 | 一种自动导航方法及装置 |
US20170252925A1 (en) * | 2016-03-02 | 2017-09-07 | Gachon University Of Industry-Academic Cooperation Foundation | Method and system for localizing mobile robot using external surveillance cameras |
-
2018
- 2018-10-29 CN CN201811268394.3A patent/CN109443345B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8295547B1 (en) * | 2010-05-26 | 2012-10-23 | Exelis, Inc | Model-based feature tracking in 3-D and 2-D imagery |
CN104299236A (zh) * | 2014-10-20 | 2015-01-21 | 中国科学技术大学先进技术研究院 | 一种基于场景标定结合插值的目标定位方法 |
CN104700408A (zh) * | 2015-03-11 | 2015-06-10 | 中国电子科技集团公司第二十八研究所 | 一种基于摄像机网络的室内单目标定位方法 |
US20170252925A1 (en) * | 2016-03-02 | 2017-09-07 | Gachon University Of Industry-Academic Cooperation Foundation | Method and system for localizing mobile robot using external surveillance cameras |
CN106382930A (zh) * | 2016-08-18 | 2017-02-08 | 广东工业大学 | 一种室内agv无线导航方法及装置 |
CN106931945A (zh) * | 2017-03-10 | 2017-07-07 | 上海木爷机器人技术有限公司 | 机器人导航方法和系统 |
CN106931961A (zh) * | 2017-03-20 | 2017-07-07 | 成都通甲优博科技有限责任公司 | 一种自动导航方法及装置 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111829510A (zh) * | 2019-04-15 | 2020-10-27 | 富华科精密工业(深圳)有限公司 | 自动导航方法、服务器及存储介质 |
CN110298269A (zh) * | 2019-06-13 | 2019-10-01 | 北京百度网讯科技有限公司 | 场景图像定位方法、装置、设备及可读存储介质 |
CN110702078A (zh) * | 2019-10-25 | 2020-01-17 | 中山大学 | 一种基于视觉的室内外一体化地图构建系统及其构建方法 |
CN110702078B (zh) * | 2019-10-25 | 2021-04-09 | 中山大学 | 一种基于视觉的室内外一体化地图构建方法 |
CN111148033A (zh) * | 2019-12-19 | 2020-05-12 | 广州赛特智能科技有限公司 | 一种自移动设备的辅助导航方法 |
CN111522020A (zh) * | 2020-06-23 | 2020-08-11 | 山东亦贝数据技术有限公司 | 一种园区活动要素混合定位系统及方法 |
CN114474035A (zh) * | 2020-11-11 | 2022-05-13 | 北京极智嘉科技股份有限公司 | 机器人位置确定方法、装置以及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109443345B (zh) | 2023-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109443345A (zh) | 用于监控导航的定位方法及系统 | |
CN106292697B (zh) | 一种移动设备的室内路径规划与导航方法 | |
Zhang et al. | Localization and navigation using QR code for mobile robot in indoor environment | |
CN110377015B (zh) | 机器人定位方法和机器人定位装置 | |
CN104932515B (zh) | 一种自主巡航方法以及巡航设备 | |
JP2019521401A (ja) | ロボットの経路計画システム、方法、ロボット及び媒体 | |
US10061486B2 (en) | Area monitoring system implementing a virtual environment | |
JP2020106513A (ja) | 工業用拡張現実アプリケーションのためのドリフト補正 | |
CN103034247B (zh) | 远程监控系统的控制方法和控制装置 | |
CN105955273A (zh) | 室内机器人导航系统及方法 | |
CN105928498A (zh) | 通过基于模板的uav控制来确定对象数据 | |
EP2863177A1 (en) | Method of calculation a path for use in a vehicle | |
US11726501B2 (en) | System and method for perceptive navigation of automated vehicles | |
CN106541404A (zh) | 一种机器人视觉定位导航方法 | |
CN109300155A (zh) | 一种避障路径规划方法、装置、设备和介质 | |
CN106501829A (zh) | 一种无人机导航方法和装置 | |
CN106647738A (zh) | 一种无人搬运车的对接路径确定方法及系统及无人搬运车 | |
CN111338382A (zh) | 一种安全态势引导的无人机路径规划方法 | |
CN107972027B (zh) | 机器人的定位方法和装置、机器人 | |
US20220363519A1 (en) | Systems and methods for remote control and automation of a tower crane | |
CA3074462A1 (en) | Systems and methods to apply markings | |
EP4141474A1 (en) | System for 3d surveying by an autonomous robotic vehicle using lidar-slam and an estimated point distribution map for path planning | |
CN115597659A (zh) | 一种变电站智能安全管控方法 | |
CN109443346A (zh) | 监控导航方法及系统 | |
CN113848561A (zh) | 深度视觉相机与激光雷达融合的导航方法、系统及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |