CN108334098B - 一种基于多传感器的人体跟随方法 - Google Patents
一种基于多传感器的人体跟随方法 Download PDFInfo
- Publication number
- CN108334098B CN108334098B CN201810658285.6A CN201810658285A CN108334098B CN 108334098 B CN108334098 B CN 108334098B CN 201810658285 A CN201810658285 A CN 201810658285A CN 108334098 B CN108334098 B CN 108334098B
- Authority
- CN
- China
- Prior art keywords
- human body
- tracking target
- image
- tracking
- multisensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000002156 mixing Methods 0.000 claims abstract description 29
- 238000001514 detection method Methods 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 9
- 230000000694 effects Effects 0.000 abstract description 2
- 230000004927 fusion Effects 0.000 description 4
- 238000005352 clarification Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Acoustics & Sound (AREA)
- Optics & Photonics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多传感器的人体跟随方法,其属于机器人领域的技术,包括:步骤S1,通过图像采集模块获得环境图像,以及通过激光雷达获得激光数据点;步骤S2,判断融合图像中是否存在人体;步骤S3,判断人体是否为跟踪目标;步骤S4,判断环境图像中是否存在所述跟踪目标;步骤S5,判断所述环境图像中是否存在所述人体;步骤S6,获得所述跟踪目标的当前位置;步骤S7,判断跟踪目标是否满足第一跟踪条件;步骤S8,判断环境图像中的所述人体是否满足第二跟踪条件;步骤S9,所述移动机器人跟随所述跟踪目标。该技术方案的有益效果是:本发明根据多种传感器来识别跟踪目标,并能够对跟踪目标进行精确的定位,从而根据跟踪目标的位置进行跟随。
Description
技术领域
本发明涉及的是一种机器人领域的技术,具体是一种基于多传感器的人体跟随方法。
背景技术
移动机器人的研究始于20世纪60年代末期,移动机器人是迅速发展起来的一种综合技术,集成了计算机、电子、自动控制以及人工智能等多学科的最新研究成果。
移动机器人主要是利用多传感器融合技术获取机器人自身及其所处环境中的各种信息,并将这些信息综合起来进行融合分析处理,从而使得机器人能够实时了解当前的自身及外部环境,并实时做出运动控制决策,实现躲避障碍物和寻找最优路径,进行自主移动和路径跟踪等基本功能。根据移动机器人从环境感知到行为控制过程的特点,可以把系统分为感知、数据处理、路径规划与运动控制四部分,这四部分又可分为多个相互协调的子模块。
随着传感器技术的不断突破和信息科技的高速发展,机器人相关技术被广泛而深入的研究。机器人已经被广泛应用于各行各业,并开始走入寻常百姓家。在很多场景中,例如家庭环境,希望机器人具有自主跟随人体的能力,既省去了控制机器人的繁琐,也可以体现机器人与人的交流互动。
目前人体跟随技术主要分两种,一种是依靠人体佩戴信号发射装置,机器人通过定位信号源来定位人体位置;另一种是通过传感器直接检测人体。
使用佩戴式信号发射装置的人体跟随方案虽然技术简单,但需要被跟随的人佩戴一个额外的装置,比较不方便,跟随其他人时需要重新佩戴该装置,不具有通用性。
现有的使用传感器进行人体跟随的方案主要通过检测人脸、头肩或人体骨骼等,计算出人体的方向和距离,进而控制机器人移动跟随。这种方案有两个缺点:首先,单一传感器往往有很多限制,例如深度相机的视野角很小,当机器人离目标人体很近时,人体的横向走动或转弯很容易超出相机的视野;激光雷达的有效检测距离与角分辨率有关,角分辨率越小,打到人体或人腿的激光点越多,有效检测距离越远,但激光雷达也越昂贵,而且激光检测人体的准确度远不及视觉,很容易将障碍杂物等检测成人体;所以使用单一的传感器易导致机器人跟丢或跟错。
其次,现有的方案往往只是通过传感器计算出人体的位置,然后控制机器人到达预定位置,这种方式对于同时有多个人体时往往会失效或极易跟错,对于人体被短暂遮挡、检测丢失、多个人体交叉等情况亦无法处理。
发明内容
本发明针对现有技术存在的上述不足,提出一种基于多传感器的人体跟随方法。本发明根据多种传感器来识别跟踪目标,并能够对跟踪目标进行精确的定位,从而根据跟踪目标的位置进行跟随。
本发明是通过以下技术方案实现的:
本发明涉及一种基于多传感器的人体跟随方法,其中,应用于移动机器人,所述移动机器人设有一图像采集模块和一激光雷达;
还包括以下步骤:
步骤S1,通过所述图像采集模块获得当前时刻的环境图像,以及通过所述激光雷达获得当前时刻的激光数据点;
步骤S2,获得根据所述环境图像和所述激光数据点融合形成的一融合图像,并判断所述融合图像中是否存在人体:
若存在所述人体,则进行步骤S3;
若不存在所述人体,则返回步骤S1;
步骤S3,根据所述融合图像判断所述人体是否为跟踪目标:
若是,则转向步骤S4;
若否,则转向步骤S5;
步骤S4,判断所述环境图像中是否存在所述跟踪目标:
若是,则转向步骤S6;
若否,则转向步骤S7;
步骤S5,判断所述环境图像中是否存在所述人体:
若是,则转向步骤S8;
若否,则返回步骤S1;
步骤S6,根据所述融合图像获得所述跟踪目标的当前位置,随后转向步骤S9;
步骤S7,判断所述跟踪目标是否满足第一跟踪条件:
若是,根据所述融合图像获得所述跟踪目标的当前位置,随后转向步骤S9;
若否,则返回步骤S1;
步骤S8,判断所述环境图像中的所述人体是否满足第二跟踪条件:
若是,则以所述融合图像中的所述人体作为跟踪目标,并根据所述融合图像获得所述跟踪目标的当前位置,随后转向步骤S9;
若否,则返回步骤S1;
步骤S9,所述移动机器人根据所述跟踪目标的当前位置跟随所述跟踪目标。
优选的,该基于多传感器的人体跟随方法,其中,所述每一所述跟踪目标赋予一唯一的识别ID。
优选的,该基于多传感器的人体跟随方法,其中,在所述步骤S7中,当所述跟踪目标不满足所述第一跟踪条件时,在返回步骤S1之前释放所述跟踪目标并删除所述跟踪目标的所述识别ID。
优选的,该基于多传感器的人体跟随方法,其中,在所述步骤S7中,所述第一跟踪条件为:所述跟踪目标的当前位置与所述跟踪目标在上一时刻的位置之间的距离小于一预设值。
优选的,该基于多传感器的人体跟随方法,其中,在所述步骤S8中,所述第二跟踪条件为:在所述当前时刻之前的一预设时段内的所述环境图像中均存在所述人体。
优选的,该基于多传感器的人体跟随方法,其中,获得所述跟踪目标的所述当前位置后通过一卡尔曼滤波器对所述当前位置进行校正。
优选的,该基于多传感器的人体跟随方法,其中,在所述步骤S5中,根据一图像识别模型识别所述环境图像中的所述人体。
优选的,该基于多传感器的人体跟随方法,其中,所述图像识别模型为人脸检测模型、头肩模型或卷积神经网络模型。
上述技术方案的有益效果是:
本发明根据多种传感器来识别跟踪目标,并能够对跟踪目标进行精确的定位,从而根据跟踪目标的位置进行跟随。
附图说明
图1为本发明的较佳的实施例中,一种基于多传感器的人体跟随方法流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
本实施例涉及一种基于多传感器的人体跟随方法,通过多个传感器来识别所要跟随的人体。
人体跟随方法应用于移动机器人,移动机器人中设有图像采集模块以及激光雷达,图像采集模块用于采集当前环境的环境图像,激光雷达用于获得当前环境的激光数据点。
图像采集模块可以为普通的相机,也可以为深度相机。
如图1所示,本实施例中的人体跟随方法,包括以下步骤:
步骤S1,通过所述图像采集模块获得当前时刻的环境图像,以及通过所述激光雷达获得当前时刻的激光数据点。
通过移动机器人上设有的图像采集模块采集当前环境的当前时刻的环境图像。
通过移动机器人上设有的激光雷达采集当前环境的当前时刻的激光数据点,当前时刻的环境图像和激光数据点相对应。
步骤S2,获得根据所述环境图像和所述激光数据点融合形成的一融合图像,并判断所述融合图像中是否存在人体:
若存在所述人体,则进行步骤S3;
若不存在所述人体,则返回步骤S1。
只要环境图像和激光数据点中一者存在人体,则融合图像中也必然存在人体。
对环境图像和激光数据点进行融合,通过一融合图像识别模型来识别所述融合图像中是否存在所述人体。若存在所述人体则进行步骤S3,即判断所述人体是否为跟踪目标。若不存在所述人体,说明移动机器人的环境中不存在人体,则回到步骤S1进行重新 的检测。
步骤S3,根据所述融合图像判断所述人体是否为跟踪目标:
若是,则转向步骤S4;
若否,则转向步骤S5。
所述移动机器人中储存有跟踪目标的特征以及跟踪目标的识别ID。提取融合图像中的人体的特征,并与存储的跟踪目标的特征进行对比,对比成功则融合图像中的人体为跟踪目标,即融合图像中的人体正在被跟踪。
步骤S4,判断所述环境图像中是否存在所述跟踪目标:
若是,则转向步骤S6;
若否,则转向步骤S7。
通过图像识别模型来提取环境图像中的人体,并将环境图像中的人体的特征与跟踪目标的特征进行对比,对比成功则环境图像中存在跟踪目标。环境图像中存在跟踪目标则转向步骤S6。环境图像中不存在跟踪目标则转向步骤S7。
在返回步骤S1之前释放所述跟踪目标并删除所述跟踪目标的所述识别ID。
步骤S5,判断所述环境图像中是否存在所述人体:
若是,则转向步骤S8;
若否,则返回步骤S1。
通过图像识别模型来识别环境图像中的人体,若环境图像中存在人体则转向步骤S8,若在环境图像中不存在人体则返回步骤S1。
所述图像识别模型为人脸检测模型、头肩模型或卷积神经网络模型,可以根据实际情况来选择不同类型的图像识别模型。
步骤S6,根据所述融合图像获得所述跟踪目标的当前位置。
在融合图像中存在跟踪目标,而在环境图像中也存在跟踪目标,则直接输出融合图像中的跟踪目标的位置,即作为跟踪目标的当前位置。
步骤S7,判断所述跟踪目标是否满足第一跟踪条件:
若是,根据所述融合图像获得所述跟踪目标的当前位置;
若否,则返回步骤S1。
所述第一跟踪条件为:所述跟踪目标的当前位置与所述跟踪目标在上一时刻的位置之间的距离小于一预设值,且当前时刻与上一时刻之间的时间间隔小于一预设阈值,该预设阈值可以为0.5s或2s,该预设值可以为 20cm或30cm。
融合位置图像中的跟踪目标满足第一跟踪条件时,则获得跟踪目标的当前位置并输出。融合位置图像中的跟踪目标不满足第一跟踪条件时,则返回步骤S1。
步骤S8,判断所述环境图像中的所述人体是否满足第二跟踪条件:
若是,则以所述融合图像中的所述人体作为跟踪目标,并根据所述融合图像获得所述跟踪目标的当前位置;
若否,则返回步骤S1。
所述第二跟踪条件为:在所述当前时刻之前的一预设时段内的所述环境图像中均存在所述人体。该预设时段可以为0.5s或0.6s。
融合图像中不存在跟踪目标,且在环境图像中也未检测到人体,则返回步骤S1,进行下一时刻的检测。
步骤S9,所述移动机器人根据所述跟踪目标的当前位置跟随所述跟踪目标。
确定了跟踪目标,并获得了跟踪目标的当前位置,移动机器人向当前位置进行移动,实现对跟踪目标的跟随。
较佳的实施例中,跟踪目标的当前位置通过以下步骤获得:
步骤S11,根据所述环境图像获得所述跟踪目标相对所述移动机器人的方向角;
步骤S12,根据所述激光数据点获得所述跟踪目标与所述移动机器人的相对距离;
步骤S13,根据所述方向角和所述相对距离获得所述跟踪目标的图像位置;
步骤S14,通过一预先训练获得的激光筛选模型对所述激光数据点进行筛选,获得表征所述跟踪目标的双腿的第一分组和第二分组;
步骤S15,获得所述第一分组和所述第二分组之间的中点的位置,并以所述中点的位置作为所述跟踪目标的激光位置;
步骤S16,将所述激光位置和所述图像位置进行融合得到所述跟踪目标的当前位置。
较佳的实施例中,通过一卡尔曼滤波器对所述当前位置进行校正。移动机器人根据校正位置进行跟随。
较佳的实施例中,移动机器人的前方、侧方以及后方均设有超声波传感器,获得当前时刻的跟踪目标的当前位置后,移动机器人需要移动到当前位置,移动机器人根据超声波传感器和激光雷达来侦测路线中的障碍物,并进行及时的避障。
本发明的基于多传感器的人体跟随方法,与现有技术相比:
本发明根据多种传感器来识别跟踪目标,并能够对跟踪目标进行精确的定位,从而根据跟踪目标的位置进行跟随。
以上所述仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。
Claims (8)
1.一种基于多传感器的人体跟随方法,应用于移动机器人,其特征在于,所述移动机器人设有一图像采集模块和一激光雷达;
还包括以下步骤:
步骤S1,通过所述图像采集模块获得当前时刻的环境图像,以及通过所述激光雷达获得当前时刻的激光数据点;
步骤S2,获得根据所述环境图像和所述激光数据点融合形成的一融合图像,并判断所述融合图像中是否存在人体:
若存在所述人体,则进行步骤S3;
若不存在所述人体,则返回步骤S1;
步骤S3,根据所述融合图像判断所述人体是否为跟踪目标:
若是,则转向步骤S4;
若否,则转向步骤S5;
步骤S4,判断所述环境图像中是否存在所述跟踪目标:
若是,则转向步骤S6;
若否,则转向步骤S7;
步骤S5,判断所述环境图像中是否存在所述人体:
若是,则转向步骤S8;
若否,则返回步骤S1;
步骤S6,根据所述融合图像获得所述跟踪目标的当前位置,随后转向步骤S9;
步骤S7,判断所述跟踪目标是否满足第一跟踪条件:
若是,根据所述融合图像获得所述跟踪目标的当前位置,随后转向步骤S9;
若否,则返回步骤S1;
步骤S8,判断所述环境图像中的所述人体是否满足第二跟踪条件:
若是,则以所述融合图像中的所述人体作为跟踪目标,并根据所述融合图像获得所述跟踪目标的当前位置,随后转向步骤S9;
若否,则返回步骤S1;
步骤S9,所述移动机器人根据所述跟踪目标的当前位置跟随所述跟踪目标。
2.根据权利要求1所述的基于多传感器的人体跟随方法,其特征在于,每一所述跟踪目标赋予一唯一的识别ID。
3.根据权利要求2所述的基于多传感器的人体跟随方法,其特征在于,在所述步骤S7中,当所述跟踪目标不满足所述第一跟踪条件时,在返回步骤S1之前释放所述跟踪目标并删除所述跟踪目标的所述识别ID。
4.根据权利要求1所述的基于多传感器的人体跟随方法,其特征在于,在所述步骤S7中,所述第一跟踪条件为:所述跟踪目标的当前位置与所述跟踪目标在上一时刻的位置之间的距离小于一预设值。
5.根据权利要求1所述的基于多传感器的人体跟随方法,其特征在于,在所述步骤S8中,所述第二跟踪条件为:在所述当前时刻之前的一预设时段内的所述环境图像中均存在所述人体。
6.根据权利要求1所述的基于多传感器的人体跟随方法,其特征在于,获得所述跟踪目标的所述当前位置后通过一卡尔曼滤波器对所述当前位置进行校正。
7.根据权利要求1所述的基于多传感器的人体跟随方法,其特征在于,在所述步骤S5中,根据一图像识别模型识别所述环境图像中的所述人体。
8.根据权利要求7所述的基于多传感器的人体跟随方法,其特征在于,所述图像识别模型为人脸检测模型、头肩模型或卷积神经网络模型。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2018101692898 | 2018-02-28 | ||
CN201810169289 | 2018-02-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108334098A CN108334098A (zh) | 2018-07-27 |
CN108334098B true CN108334098B (zh) | 2018-09-25 |
Family
ID=62934974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810658285.6A Active CN108334098B (zh) | 2018-02-28 | 2018-06-25 | 一种基于多传感器的人体跟随方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108334098B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109740464B (zh) * | 2018-12-21 | 2021-01-26 | 北京智行者科技有限公司 | 目标的识别跟随方法 |
US20220350342A1 (en) * | 2021-04-25 | 2022-11-03 | Ubtech North America Research And Development Center Corp | Moving target following method, robot and computer-readable storage medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102411371A (zh) * | 2011-11-18 | 2012-04-11 | 浙江大学 | 一种基于多传感器服务机器人跟随系统和方法 |
CN103268616A (zh) * | 2013-04-18 | 2013-08-28 | 北京工业大学 | 多特征多传感器的移动机器人运动人体跟踪方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4394602B2 (ja) * | 2005-04-20 | 2010-01-06 | 富士通株式会社 | サービスロボット |
US9321173B2 (en) * | 2012-06-22 | 2016-04-26 | Microsoft Technology Licensing, Llc | Tracking and following people with a mobile robotic device |
KR20140049152A (ko) * | 2012-10-16 | 2014-04-25 | 한국전자통신연구원 | 사람 추종 방법 및 로봇 장치 |
-
2018
- 2018-06-25 CN CN201810658285.6A patent/CN108334098B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102411371A (zh) * | 2011-11-18 | 2012-04-11 | 浙江大学 | 一种基于多传感器服务机器人跟随系统和方法 |
CN103268616A (zh) * | 2013-04-18 | 2013-08-28 | 北京工业大学 | 多特征多传感器的移动机器人运动人体跟踪方法 |
Non-Patent Citations (1)
Title |
---|
多传感器信息融合伺服的移动机器人快速跟随;周霞等;《计算机工程与设计》;20130630;第34卷(第6期);期刊第2250页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108334098A (zh) | 2018-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109947119B (zh) | 一种基于多传感器融合的移动机器人自主跟随方法 | |
US11481024B2 (en) | Six degree of freedom tracking with scale recovery and obstacle avoidance | |
CN105711597B (zh) | 前方局部行驶环境感知系统及方法 | |
CN101976079B (zh) | 智能导航控制系统及方法 | |
Taylor et al. | A real-time approach to stereopsis and lane-finding | |
Molton et al. | A stereo vision-based aid for the visually impaired | |
JP5157067B2 (ja) | 自動走行用マップ作成装置、及び自動走行装置。 | |
WO2018068771A1 (zh) | 目标跟踪方法、系统、电子设备和计算机存储介质 | |
CN114603559A (zh) | 移动机器人的控制方法、装置、移动机器人及存储介质 | |
CN106228110A (zh) | 一种基于车载双目相机的障碍物及可行驶区域检测方法 | |
CN103699908B (zh) | 基于联合推理的视频多目标跟踪方法 | |
CN110488811B (zh) | 一种基于社交网络模型的机器人对行人轨迹预测的方法 | |
KR20180112090A (ko) | 카메라의 포즈를 판단하기 위한 장치 및 방법 | |
CN106168805A (zh) | 基于云计算的机器人自主行走的方法 | |
CN109544990A (zh) | 一种基于实时电子地图识别可用泊车位的方法及系统 | |
CN106485233A (zh) | 可行驶区域检测方法、装置和电子设备 | |
CN208953962U (zh) | 一种机器人感知系统及机器人 | |
US20140156125A1 (en) | Autonomous electronic apparatus and navigation method thereof | |
CN108334098B (zh) | 一种基于多传感器的人体跟随方法 | |
CN109100738B (zh) | 一种基于多传感器信息融合的可靠定位系统及方法 | |
CN105116886B (zh) | 一种机器人自主行走的方法 | |
CN107659790A (zh) | 一种球机自动跟踪目标的方法 | |
CN109857112A (zh) | 机器人避障方法及装置 | |
CN108304834A (zh) | 一种物体跟随方法 | |
CN107402578A (zh) | 无人机全景障碍感知方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |