CN108170166A - 机器人的跟随控制方法及其智能装置 - Google Patents
机器人的跟随控制方法及其智能装置 Download PDFInfo
- Publication number
- CN108170166A CN108170166A CN201711161348.9A CN201711161348A CN108170166A CN 108170166 A CN108170166 A CN 108170166A CN 201711161348 A CN201711161348 A CN 201711161348A CN 108170166 A CN108170166 A CN 108170166A
- Authority
- CN
- China
- Prior art keywords
- followed
- image
- information
- human body
- dimensional coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 210000000988 bone and bone Anatomy 0.000 claims abstract description 54
- 230000004888 barrier function Effects 0.000 claims description 10
- 230000011218 segmentation Effects 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 abstract description 9
- 230000000694 effects Effects 0.000 abstract description 5
- 230000003111 delayed effect Effects 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 239000000700 radioactive tracer Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0094—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/12—Target-seeking control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
Abstract
本申请公开了一种机器人的跟随控制方法及其智能装置,采集被跟随对象的图像;对所述被跟随对象的图像进行识别,得到所述被跟随对象的骨骼信息,其中,所述骨骼信息是所述被跟随对象人体各个部位的二维坐标;获取所述机器人与被跟随对象的距离信息;将所述骨骼信息与所述距离信息运算获得所述被跟随对象的三维坐标;以及根据所述被跟随对象的三维坐标对被跟随对象进行跟随。采用将被跟随对象的图像中人体各个部位的二维坐标以剥离的方式,通过与距离信息的结合,达到了获得被跟随对象三维坐标的目的,从而实现了缩小运算量的技术效果,进而解决了相关技术中运算量过大产生延时的技术问题。
Description
技术领域
本申请涉及人工智能领域,具体而言,涉及一种机器人的跟随控制方法及其智能装置。
背景技术
对于相关技术中,机器人的跟随技术已经是日益成熟,对于其中的跟随方法多采用捕捉目标的基本方式,即便后台采用一定的算法进行计算,但都是对采集的图像整体进行定位,由于捕捉的图像为二维图像,在实际生成三维坐标时,算法中经常采用图像的整体运算,运算量巨大。在跟随过程中,甚至会产生运算延时。所以急需一种跟随方法及其智能装置,来解决相关技术中运算量过大产生延时的技术问题。
发明内容
本申请的主要目的在于提供一种机器人的跟随控制方法,以解决相关技术中运算量过大产生延时的技术问题。
为了实现上述目的,根据本申请的一个方面,提供了一种机器人的跟随控制方法,包括:
采集被跟随对象的图像;
对所述被跟随对象的图像进行识别,得到所述被跟随对象的骨骼信息,其中,所述骨骼信息是所述被跟随对象人体各个部位的二维坐标;
获取所述机器人与被跟随对象的距离信息,其中,所述的距离信息为所述机器人与所述人体图像二维坐标平面相互垂直的一维距离;
将所述骨骼信息与所述距离信息运算获得所述被跟随对象的三维坐标;以及
根据所述被跟随对象的三维坐标对被跟随对象进行跟随。
进一步的,所述被跟随图像包括被跟随对象的人体图像和所述被跟随对象所处背景的背景图像;
对所述被跟随的图像进行分割,得到所述人体图像;
根据所述人体图像获得所述的骨骼信息。
进一步的,通过相机对所述被跟随对象的图像进行采集。
进一步的,所述被跟随对象的图像采用分割遮罩分割得到所述人体图像。
进一步的,通过Open NITE与Open CV2的结合来实现对所述人体图像进行识别获得所述骨骼信息。
进一步的,所述的骨骼信息包括头部、身体、四肢的识别并获取具体每个人体部位的二维坐标。
进一步的,将所述被跟随对象的图像通过kinect进行分割,所述的骨骼信息通过kinect进行识别。
进一步的,将所述被跟随对象的三维坐标发送至导航模块进行导航;
通过激光雷达接收前方各个障碍点的间隔信息;
所述背景图像通过所述距离信息生成代价地图;
将所述间隔信息添加到所述代价地图中;
所述导航模块根据添加有间隔信息的所述代价地图进行导航。
为了实现上述目的,根据本申请的另一方面,提供了一种智能装置包括:
采集模块,采集被跟随对象的图像;
识别模块,用于对所述被跟随对象的图像进行识别,得到所述被跟随对象的骨骼信息,其中,所述骨骼信息是所述被跟随对象人体各个部位的二维坐标;
获取模块,用于获取所述机器人与被跟随对象的距离信息,其中,所述的距离信息为所述机器人与所述人体图像二维坐标平面相互垂直的一维距离;
运算模块,用于将所述骨骼信息与所述距离信息运算获得所述被跟随对象的三维坐标;
跟随模块,用于根据所述被跟随对象的三维坐标对被跟随对象进行跟随。
进一步的,发送模块,用于将所述被跟随对象的三维坐标发送至导航模块;
接收模块,用于通过激光雷达接收前方各个障碍点的间隔信息;
生成模块,用于所述背景图像通过所述距离信息生成代价地图;
添加模块,用于将所述间隔信息添加到所述代价地图中;
导航模块,用于根据添加有间隔信息的所述代价地图进行导航。
在本申请实施例中,采用将被跟随对象的图像中人体各个部位的二维坐标以剥离的方式,通过与距离信息的结合,达到了获得被跟随对象三维坐标的目的,从而实现了缩小运算量的技术效果,进而解决了相关技术中运算量过大产生延时的技术问题。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的跟随控制方法流程图示意图;以及
图2是根据本申请实施例的智能装置架构图示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
如图1所示,该方法包括如下的步骤S至步骤S:
S101,采集被跟随对象的图像;
S102,对所述被跟随对象的图像进行识别,得到所述被跟随对象的骨骼信息,其中,所述骨骼信息是所述被跟随对象人体各个部位的二维坐标;
S103,获取所述机器人与被跟随对象的距离信息,其中,所述的距离信息为所述机器人与所述人体图像二维坐标平面相互垂直的一维距离;
S104,将所述骨骼信息与所述距离信息运算获得所述被跟随对象的三维坐标;以及
S105,根据所述被跟随对象的三维坐标对被跟随对象进行跟随。
首先,采集被跟随对象的图像,这里所提及的被跟随对象是在所述机器人前方行走的目标人,之后对所述被跟随对象的图像其中人体各个部位的二维坐标进行提取得到所述的骨骼信息。因为,运算的内容为二维坐标所以大幅削减了运算量。另一方面,根据所述距离信息将上述的二维坐标相结合还原所述被跟随对象的三维坐标,根据获得的三维坐标进行跟随。实现了被跟随的对象位置信息的获取,在此过程中大幅削减了运算量。将获取的位置信息作为依据进行跟.随。
本申请的另一可选实施例中,该方法还包括:
步骤a:所述被跟随图像包括被跟随对象的人体图像和所述被跟随对象所处背景的背景图像;
步骤b:对所述被跟随的图像进行分割,得到所述人体图像;
步骤c:根据所述人体图像获得所述的骨骼信息。
其次,针对上述的识别所述骨骼信息的步骤中,将采集的所述被跟随图像进行分割,分割为所述的人体图像和背景图像有利于下一步的获取运算。也减小了识别人体图像中所述骨骼信息的运算量。
本申请的另一可选实施例中,该方法还包括:
通过相机对所述被跟随对象的图像进行采集。
采用所述的相机进行所述被跟随对象的图像进行采集,另外一方面所述的相机为深度相机,除了采集图像外,还采集深度信息为了后面的跟随甚至导航作相应的基础。
本申请的另一可选实施例中,该方法还包括:
所述被跟随对象的图像采用分割遮罩分割得到所述人体图像。
具体的分割方法是采用分割遮罩的方式进行分割所述被跟随对象的图像,获得所述的人体图像和背景图像。
本申请的另一可选实施例中,该方法还包括:
通过Open NITE与Open CV2的结合来实现对所述人体图像进行识别获得所述骨骼信息。
具体的获取所述骨骼信息的方式则是通过Open NITE与Open CV2的结合来实现。
本申请的另一可选实施例中,该方法还包括:
所述的骨骼信息包括头部、身体、四肢的识别并获取具体每个人体部位的二维坐标。
将人体分为头部、身体、四肢进行识别其每个部位的二维坐标。
本申请的另一可选实施例中,该方法还包括:
将所述被跟随对象的图像通过kinect进行分割,所述的骨骼信息通过 kinect进行识别。
分割图像采用的硬件及是kinect,同时所述的kinect还负责骨骼信息的获取。
本申请的另一可选实施例中,该方法还包括:
进一步的,将所述被跟随对象的三维坐标发送至导航模块;
通过激光雷达接收前方各个障碍点的间隔信息;
所述背景图像通过所述距离信息生成代价地图;
将所述间隔信息添加到所述代价地图中;
所述导航模块根据添加有间隔信息的所述代价地图进行导航。
将三维坐标发送至导航模块,导航模块完成路径的规划,驱动所述机器人完成跟随任务。其更重要的是,将障碍点的间隔信息也添加到由所述背景图像生成的代价地图中,形成完整的环境信息。
具体实施方式如下:
所谓的跟随是指通过传感器感知到人的位置后,所述机器人向人所在的位置移动。若人移动到了新的位置,则所述机器人也移动到新的位置。
为了实现上述技术效果,跟随的第一步即为确定人的位置:首先,采集被跟随对象的图像。对该图像中的人体特征进行识别,获取所述被跟随对象的骨骼信息,所谓的骨骼信息是就是人体的轮廓信息,其特点在于该信息是人体图像的二维坐标。另外,还需要将二维的平面坐标转化为三维坐标才能使机器人实现在三维环境下的跟随任务。因此,需要获取机器人与所述人体图像之间的距离信息。将所述人体图像中获取的二维轮廓信息转化为三维的空间实体坐标信息。
而在相关技术中,是直接获取三维的所述人体图像坐标与环境的三维坐标,将两个坐标进行结合叠加,其运算量成指数形式增长。造成运算量巨大,并进而经常产生延时。延时过程过长,就会跟丢被跟随对象。
根据上述的被跟随对象进行导航,完成跟随任务。
进一步的,对本申请技术方案的具体实施方式进行阐述,机器人在接到跟随指令后,即开启骨骼识别。骨骼识别通过Open NITE结合Open CV2实现。所述骨骼信息即人体各个关节节点的位置信息,骨骼追踪技术通过处理深度数据来建立人体各个关节的坐标,骨骼追踪能够确定人体的各个部分,如那部分是手,头部,以及身体,还能确定他们所在的位置。
骨骼识别的流程如下:首先Kinect采用分隔策略将所述人体图像从复杂的背景中区分出来,在这个阶段,为每个跟随的人在深度图像中创建所谓的分割遮罩(分割遮罩为了排除人体以外背景图像,采取的图像分割的方法),在后面的处理流程中仅仅转送人体图像即可,以减轻体感计算量。接下来kinect 会对人体图像进行评估,来判别人体的不同部位,最终得到骨骼信息。
根据骨骼识别的结果可以得到骨骼在图像上的位置,根据当前图像的深度信息可以得到得到目标相对于相机的距离信息(一维深度),结合目标在图像上的位置(二维坐标)即可得到目标位置;
将目标位置传递到导航模块,目标位置是一个三维坐标,形如(x,y,z);
开始跟随后,Kinect深度相机传回机器人前方具有深度信息的图像,通过 OpenNITE中的骨骼识别算法能得到目标在图像上的像素坐标,再结合深度信息通过三角函数可以计算出目标相对于相机的坐标;再结合深度信息通过三角函数可以计算出目标相对于相机的坐标,同时激光雷达返回前方各个障碍点的距离信息,然后将这些点的距离信息添加到代价地图中,此处的代价地图是由所。
如图所示,在跟随过程中,Kinect深度相机负责采集图像和深度信息,当画面中有人时,通过骨骼识别技术得到人的位置,配合深度信息可以得到人相对于机器人的位置。与此同时,通过激光雷达得到了机器人周围的环境信息(即机器人前方不同角度各个障碍点到机器人的距离信息),周围并将这些距离信息加入到代价地图中,最后将跟随目标的位置信息作为导航算法的目标位置添加到代价地图中。
从以上的描述中,可以看出,本发明实现了如下技术效果:
采用将被跟随对象的图像中人体各个部位的二维坐标以剥离的方式,通过与距离信息的结合,达到了获得被跟随对象三维坐标的目的,从而实现了缩小运算量的技术效果,进而解决了相关技术中运算量过大产生延时的技术问题。
并且还将障碍物的坐标也加载到所述的代价地图中,完成完整环境信息的架构,为后面的跟随操作铺平道路。
根据本发明实施例,提供了一种智能装置,如图2所示,该装置包括:
采集模块,采集被跟随对象的图像;
识别模块,用于对所述被跟随对象的图像进行识别,得到所述被跟随对象的骨骼信息,其中,所述骨骼信息是所述被跟随对象人体各个部位的二维坐标;
获取模块,用于获取所述机器人与被跟随对象的距离信息,其中,所述的距离信息为所述机器人与所述人体图像二维坐标平面相互垂直的一维距离;
运算模块,用于将所述骨骼信息与所述距离信息运算获得所述被跟随对象的三维坐标;
跟随模块,用于根据所述被跟随对象的三维坐标对被跟随对象进行跟随。
进一步的,发送模块,用于将所述被跟随对象的三维坐标发送至导航模块;
接收模块,用于通过激光雷达接收前方各个障碍点的间隔信息;
生成模块,用于所述背景图像通过所述距离信息生成代价地图;
添加模块,用于将所述间隔信息添加到所述代价地图中;
导航模块,用于根据添加有间隔信息的所述代价地图进行导航。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种机器人的跟随控制方法,其特征在于,包括:
采集被跟随对象的图像;
对所述被跟随对象的图像进行识别,得到所述被跟随对象的骨骼信息,其中,所述骨骼信息是所述被跟随对象人体各个部位的二维坐标;
获取所述机器人与被跟随对象的距离信息,其中,所述的距离信息为所述机器人与所述人体图像二维坐标平面相互垂直的一维距离;
将所述骨骼信息与所述距离信息运算获得所述被跟随对象的三维坐标;以及
根据所述被跟随对象的三维坐标对被跟随对象进行跟随。
2.根据权利要求1所述的机器人的跟随控制方法,其特征在于,对所述被跟随对象的图像进行识别,得到所述被跟随对象的骨骼信息包括:
所述被跟随图像包括被跟随对象的人体图像和所述被跟随对象所处背景的背景图像;
对所述被跟随的图像进行分割,得到所述人体图像;
根据所述人体图像获得所述的骨骼信息。
3.根据权利要求1所述的机器人的跟随控制方法,采集被跟随对象的图像,其特征在于,包括:
通过相机对所述被跟随对象的图像进行采集。
4.根据权利要求2所述的机器人的跟随控制方法,其特征在于,对所述被跟随的图像进行分割,得到所述人体图像包括:
所述被跟随对象的图像采用分割遮罩分割得到所述人体图像。
5.根据权利要求2所述的机器人的跟随控制方法,其特征在于,对人体图像进行识别获得骨骼信息包括:
通过Open NITE与Open CV2的结合来实现对所述人体图像进行识别获得所述骨骼信息。
6.根据权利要求5所述的机器人的跟随控制方法,其特征在于,包括:
所述的骨骼信息包括头部、身体、四肢的识别并获取具体每个人体部位的二维坐标。
7.根据权利要求4所述的机器人的跟随控制方法,其特征在于,包括:
将所述被跟随对象的图像通过kinect进行分割,所述的骨骼信息通过kinect进行识别。
8.根据权利要求2所述的机器人的跟随控制方法,其特征在于,包括:
将所述被跟随对象的三维坐标发送至导航模块;
通过激光雷达接收前方各个障碍点的间隔信息;
所述背景图像通过所述距离信息生成代价地图;
将所述间隔信息添加到所述代价地图中;
所述导航模块根据添加有间隔信息的所述代价地图进行导航。
9.一种智能装置,其特征在于,包括:
采集模块,采集被跟随对象的图像;
识别模块,用于对所述被跟随对象的图像进行识别,得到所述被跟随对象的骨骼信息,其中,所述骨骼信息是所述被跟随对象人体各个部位的二维坐标;
获取模块,用于获取所述机器人与被跟随对象的距离信息,其中,所述的距离信息为所述机器人与所述人体图像二维坐标平面相互垂直的一维距离;
运算模块,用于将所述骨骼信息与所述距离信息运算获得所述被跟随对象的三维坐标;
跟随模块,用于根据所述被跟随对象的三维坐标对被跟随对象进行跟随。
10.根据权利要求9所述的智能装置,其特征在于,包括:
发送模块,用于将所述被跟随对象的三维坐标发送至导航模块;
接收模块,用于通过激光雷达接收前方各个障碍点的间隔信息;
生成模块,用于所述背景图像通过所述距离信息生成代价地图;
添加模块,用于将所述间隔信息添加到所述代价地图中;
导航模块,用于根据添加有间隔信息的所述代价地图进行导航。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711161348.9A CN108170166A (zh) | 2017-11-20 | 2017-11-20 | 机器人的跟随控制方法及其智能装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711161348.9A CN108170166A (zh) | 2017-11-20 | 2017-11-20 | 机器人的跟随控制方法及其智能装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108170166A true CN108170166A (zh) | 2018-06-15 |
Family
ID=62527109
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711161348.9A Pending CN108170166A (zh) | 2017-11-20 | 2017-11-20 | 机器人的跟随控制方法及其智能装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108170166A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108582117A (zh) * | 2018-07-12 | 2018-09-28 | 朱明来 | 基于Kinect传感器的跟随机器人 |
CN109492521A (zh) * | 2018-09-13 | 2019-03-19 | 北京米文动力科技有限公司 | 一种人脸定位方法及机器人 |
CN110109479A (zh) * | 2019-04-24 | 2019-08-09 | 北京百度网讯科技有限公司 | 导航处理方法、装置、智能机器人及计算机可读存储介质 |
CN110244791A (zh) * | 2019-07-11 | 2019-09-17 | 北京理工大学 | 一种双足机器人足部力和力矩跟随控制方法 |
WO2020207190A1 (zh) * | 2019-04-12 | 2020-10-15 | Oppo广东移动通信有限公司 | 一种三维信息确定方法、三维信息确定装置及终端设备 |
CN114326732A (zh) * | 2021-12-28 | 2022-04-12 | 无锡笠泽智能科技有限公司 | 一种机器人自主跟随系统及自主跟随控制方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007280251A (ja) * | 2006-04-11 | 2007-10-25 | Yaskawa Electric Corp | 移動ロボット |
CN103991492A (zh) * | 2014-06-11 | 2014-08-20 | 重庆大学 | 一种基于Kinect技术的智能小车 |
CN105425795A (zh) * | 2015-11-26 | 2016-03-23 | 纳恩博(北京)科技有限公司 | 规划最优跟随路径的方法及装置 |
CN105549597A (zh) * | 2016-02-04 | 2016-05-04 | 同济大学 | 一种基于环境不确定性的无人车动态路径规划方法 |
CN105856243A (zh) * | 2016-06-28 | 2016-08-17 | 湖南科瑞特科技股份有限公司 | 一种移动智能机器人 |
CN105955251A (zh) * | 2016-03-11 | 2016-09-21 | 北京克路德人工智能科技有限公司 | 一种机器人的视觉跟随控制方法及机器人 |
CN106114095A (zh) * | 2016-06-27 | 2016-11-16 | 中国石油大学(华东) | 一种水陆两栖探测机器人 |
CN106354161A (zh) * | 2016-09-26 | 2017-01-25 | 湖南晖龙股份有限公司 | 机器人运动路径规划方法 |
CN106774301A (zh) * | 2016-10-25 | 2017-05-31 | 纳恩博(北京)科技有限公司 | 一种避障跟随方法和电子设备 |
CN107145153A (zh) * | 2017-07-03 | 2017-09-08 | 北京海风智能科技有限责任公司 | 一种基于ros的服务机器人及其室内导航方法 |
CN107272680A (zh) * | 2017-06-16 | 2017-10-20 | 华南理工大学 | 一种基于ros机器人操作系统的机器人自动跟随方法 |
-
2017
- 2017-11-20 CN CN201711161348.9A patent/CN108170166A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007280251A (ja) * | 2006-04-11 | 2007-10-25 | Yaskawa Electric Corp | 移動ロボット |
CN103991492A (zh) * | 2014-06-11 | 2014-08-20 | 重庆大学 | 一种基于Kinect技术的智能小车 |
CN105425795A (zh) * | 2015-11-26 | 2016-03-23 | 纳恩博(北京)科技有限公司 | 规划最优跟随路径的方法及装置 |
CN105549597A (zh) * | 2016-02-04 | 2016-05-04 | 同济大学 | 一种基于环境不确定性的无人车动态路径规划方法 |
CN105955251A (zh) * | 2016-03-11 | 2016-09-21 | 北京克路德人工智能科技有限公司 | 一种机器人的视觉跟随控制方法及机器人 |
CN106114095A (zh) * | 2016-06-27 | 2016-11-16 | 中国石油大学(华东) | 一种水陆两栖探测机器人 |
CN105856243A (zh) * | 2016-06-28 | 2016-08-17 | 湖南科瑞特科技股份有限公司 | 一种移动智能机器人 |
CN106354161A (zh) * | 2016-09-26 | 2017-01-25 | 湖南晖龙股份有限公司 | 机器人运动路径规划方法 |
CN106774301A (zh) * | 2016-10-25 | 2017-05-31 | 纳恩博(北京)科技有限公司 | 一种避障跟随方法和电子设备 |
CN107272680A (zh) * | 2017-06-16 | 2017-10-20 | 华南理工大学 | 一种基于ros机器人操作系统的机器人自动跟随方法 |
CN107145153A (zh) * | 2017-07-03 | 2017-09-08 | 北京海风智能科技有限责任公司 | 一种基于ros的服务机器人及其室内导航方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108582117A (zh) * | 2018-07-12 | 2018-09-28 | 朱明来 | 基于Kinect传感器的跟随机器人 |
CN109492521A (zh) * | 2018-09-13 | 2019-03-19 | 北京米文动力科技有限公司 | 一种人脸定位方法及机器人 |
CN109492521B (zh) * | 2018-09-13 | 2022-05-13 | 北京米文动力科技有限公司 | 一种人脸定位方法及机器人 |
WO2020207190A1 (zh) * | 2019-04-12 | 2020-10-15 | Oppo广东移动通信有限公司 | 一种三维信息确定方法、三维信息确定装置及终端设备 |
CN110109479A (zh) * | 2019-04-24 | 2019-08-09 | 北京百度网讯科技有限公司 | 导航处理方法、装置、智能机器人及计算机可读存储介质 |
CN110244791A (zh) * | 2019-07-11 | 2019-09-17 | 北京理工大学 | 一种双足机器人足部力和力矩跟随控制方法 |
CN110244791B (zh) * | 2019-07-11 | 2020-05-15 | 北京理工大学 | 一种双足机器人足部力和力矩跟随控制方法 |
CN114326732A (zh) * | 2021-12-28 | 2022-04-12 | 无锡笠泽智能科技有限公司 | 一种机器人自主跟随系统及自主跟随控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108170166A (zh) | 机器人的跟随控制方法及其智能装置 | |
KR101865655B1 (ko) | 증강현실 상호 작용 서비스 제공 장치 및 방법 | |
CN106845515B (zh) | 基于虚拟样本深度学习的机器人目标识别和位姿重构方法 | |
CN103389699B (zh) | 基于分布式智能监测控制节点的机器人监控及自主移动系统的运行方法 | |
KR101711736B1 (ko) | 영상에서 동작 인식을 위한 특징점 추출 방법 및 골격 정보를 이용한 사용자 동작 인식 방법 | |
CN104317391A (zh) | 一种基于立体视觉的三维手掌姿态识别交互方法和系统 | |
CN106020201A (zh) | 移动机器人3d导航定位系统及导航定位方法 | |
US10197399B2 (en) | Method for localizing a robot in a localization plane | |
CN103578135A (zh) | 虚拟影像与真实场景相结合的舞台交互集成系统及实现方法 | |
CN102368810A (zh) | 一种半自动化对齐的视频融合系统和方法 | |
Gratal et al. | Visual servoing on unknown objects | |
CN114347033A (zh) | 机器人物品抓取方法、装置、机器人及存储介质 | |
CN203630822U (zh) | 虚拟影像与真实场景相结合的舞台交互集成系统 | |
Knoop et al. | Fusion of 2D and 3D sensor data for articulated body tracking | |
Xin et al. | 3D augmented reality teleoperated robot system based on dual vision | |
CN108107884A (zh) | 机器人跟随导航的数据处理方法及其智能装置 | |
CN105225270B (zh) | 一种信息处理方法及电子设备 | |
Lin et al. | The implementation of augmented reality in a robotic teleoperation system | |
CN110445982A (zh) | 一种基于六自由度设备的追踪拍摄方法 | |
CN103942814A (zh) | 一种面向异步双目视觉系统的快速运动物体轨迹估计方法 | |
Wang et al. | A survey of simultaneous localization and mapping on unstructured lunar complex environment | |
Gans et al. | Visual servoing to an arbitrary pose with respect to an object given a single known length | |
CN203630717U (zh) | 基于轻型惯导传感输入设备的交互系统 | |
CN108151742A (zh) | 机器人导航的数据处理方法及其智能装置 | |
Zogopoulos et al. | Image-based state tracking in augmented reality supported assembly operations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180615 |
|
RJ01 | Rejection of invention patent application after publication |