CN106203361A - 一种机器人跟踪方法和装置 - Google Patents
一种机器人跟踪方法和装置 Download PDFInfo
- Publication number
- CN106203361A CN106203361A CN201610559513.5A CN201610559513A CN106203361A CN 106203361 A CN106203361 A CN 106203361A CN 201610559513 A CN201610559513 A CN 201610559513A CN 106203361 A CN106203361 A CN 106203361A
- Authority
- CN
- China
- Prior art keywords
- lower limb
- gray level
- level image
- image
- people
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本申请公开了一种机器人跟踪方法和装置。该方法首先获取目标的深度图像,并将该深度图像转换为灰度图像。进而,提取该灰度图像的HOG特征,并采用预先建立的人腿HOG特征检测模型对该灰度图像进行检测,以确定该灰度图像中是否含有目标人腿。当确定灰度图像中包含目标人腿时,进一步确定目标人腿在该灰度图像中的图像位置坐标,并按照预设算法,将目标人腿的图像位置坐标转换为实际位置坐标,以实现机器人对目标的跟踪。与现有技术相比,本发明基于人腿的HOG特征实现对目标的实时跟踪,无需采集目标的整体图像。
Description
技术领域
本申请涉及机器人制造领域,更具体地说,涉及一种机器人跟踪方法和装置。
背景技术
在家庭服务机器人的应用场景中,很重要的一项是机器人对人的实时检测和跟踪,即实现机器人自主跟随人的功能。
当前机器人在对人进行跟踪时需要机器人自身携带的摄像头拍摄到人体的整体图像,完成对人的跟踪。因而,在现有技术中如果机器人拍摄到的人体照片只是人体的小部分部位,比如人腿时,则无法实现对目标的实时跟踪。
发明内容
有鉴于此,本申请提供一种机器人跟踪方法和装置,基于人腿的HOG特征进行跟踪建模,以实现对目标的跟踪。
一种机器人跟踪方法,包括:
获取目标的深度图像,并将所述深度图像转换为灰度图像;
提取所述灰度图像的HOG特征;
采用预先建立的人腿HOG特征检测模型对所述灰度图像的HOG特征进行检验,以确定所述灰度图像中是否包含目标人腿;
当所述灰度图像中包含目标人腿时,确定目标人腿在所述灰度图像中的图像位置坐标;
按照预设算法,根据所述图像位置坐标计算目标人腿的实际位置坐标,以实现机器人对目标的跟踪。
优选的,所述提取所述灰度图像的HOG特征,包括:
采用预先创建的滑动窗口按照预先设置的扫描顺序对所述灰度图像进行扫描;
提取当前扫描区域的HOG特征。
优选的,所述人腿HOG检测模型包括:远距离人腿HOG检测模型和近距离人腿HOG检测模型。
优选的,所述采用预先建立的人腿HOG特征检测模型对所述灰度图像的HOG特征进行检验,以确定所述灰度图像中是否包括目标人腿,包括:
比较所述扫描区域的HOG特征与所述人腿HOG特征检测模型的预设人腿HOG特征;
当比较结果满足预设要求时,确定所述灰度图像中包含目标人腿。
优选的,还包括:
若当前所述灰度图像中不包含目标人腿时,获取上一帧灰度图像中目标人腿的图像位置坐标;
基于上一帧灰度图像中目标人腿的图像位置坐标,计算当前帧灰度图像中目标人腿的图像位置坐标。
一种机器人跟踪装置,包括:
图像采集处理单元,用于获取目标的深度图像,并将所述深度图像转换为灰度图像;
HOG特征提取单元,用于提取所述灰度图像的HOG特征;
人腿检测单元,用于采用预先建立的人腿HOG特征检测模型对所述灰度图像的HOG特征进行检验,以确定所述灰度图像中是否包含目标人腿;
人腿图像位置坐标确定单元,用于当所述灰度图像中包含目标人腿时,确定目标人腿在所述灰度图像中的图像位置坐标;
人腿实际位置坐标计算单元,用于按照预设算法,根据所述图像位置坐标计算目标人腿的实际位置坐标,以实现机器人对目标的跟踪。
优选的,所述HOG特征提取单元包括:
扫描模块,用于采用预先创建的滑动窗口按照预先设置的扫描顺序对所述灰度图像进行扫描;
特征提取模块,用于提取当前扫描区域的HOG特征。
优选的,所述人腿检测单元用于采用预先建立的远距离人腿HOG特征检测模型和近距离人腿检测模型对所述灰度图像的HOG特征进行检验。
优选的,所述人腿检测单元包括:
比较模块,用于比较所述扫描区域的HOG特征与所述人腿HOG特征检测模型的预设人腿HOG特征;
目标人腿确定模块,用于当比较满足预设要求时,确定所述灰度图像中包含目标人腿。
优选的,还包括:
数据采集单元,用于若当前所述灰度图像中不包含目标人腿时,获取上一帧灰度图像中目标人腿的图像位置坐标;
计算单元,用于基于上一帧灰度图像中目标人腿的图像位置坐标,计算当前帧灰度图像中目标人腿的图像位置坐标。
经由上述技术方案可知,本申请公开了一种机器人跟踪方法和装置。该方法首先获取目标的深度图像,并将该深度图像转换为灰度图像。进而,提取该灰度图像的HOG特征,并采用预先建立的人腿HOG特征检测模型对该灰度图像进行检测,以确定该灰度图像中是否含有目标人腿。当确定灰度图像中包含目标人腿时,进一步确定目标人腿在该灰度图像中的图像位置坐标,并按照预设算法,将目标人腿的图像位置坐标转换为实际位置坐标,以实现机器人对目标的跟踪。与现有技术相比,本发明基于人腿的HOG特征实现对目标的实时跟踪,无需采集目标的整体图像。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1示出了本发明一个实施例公开的一种机器人跟踪方法的流程示意图;
图2示出了本发明另一个实施例公开的一种机器人跟踪方法的流程示意图;
图3示出了本发明另一个实施例公开的一种机器人跟踪装置的结构示意图;
图4示出了本发明另一个实施例公开的一种机器人跟踪装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1示出了本发明一个实施例公开的一种机器人跟踪方法的流程示意图。
由图1可知,在本实施例中,该方法包括:
S101:获取目标的深度图像,并将所述深度图像转换为灰度图像。
基于机器人上设置的深度相机获取目标的深度图像,并采用图像处理模块将获取到的深度图像转换为灰度图像。
S102:提取所述灰度图像的HOG特征。
S103:采用预先建立的人腿HOG特征检测模型对所述灰度图像的HOG特征进行检验,以确定所述灰度图像中是否包含目标人腿。
预先建立人腿HOG特征检测模型,可选的该人腿HOG特征检测模型包括远距离人腿HOG特征检测模型和近距离人腿HOG特征检测模型。
所述远距离人腿HOG特征检测模型和所述近距离人腿HOG特征检测模型的建立过程如下:
获取多张不同角度和姿势的远距离人腿深度图像和近距离人腿深度图像,并将所述远距离人腿深度图像和所述近距离人腿深度图像转换为灰度图。
提取远距离人腿灰度图像的HOG特征和近距离人腿灰度图像的HOG特征,进而分别利用远距离人腿灰度图像的HOG特征以及近距离人腿灰度图像的HOG特征对SVM(SupportVector Machine,支持向量机)模型进行训练,得到远距离人腿HOG特征检测模型和近距离人腿HOG特征检测模型。
需要说明的是,在本发明中远距离人腿和近距离人腿可根据实际情况的需要由机器人设计人员自行设置,如将距离机器人小于2米的人腿作为近距离人腿,将距离机器人等于大于2米的人腿作为远距离人腿。
S104:当所述灰度图像中包含目标人腿时,确定目标人腿在所述灰度图像中的图像位置坐标。
S105:按照预设算法,根据所述图像位置坐标计算目标人腿的实际位置坐标,以实现机器人对目标的跟踪。
由以上实施例可知,本申请公开了一种机器人跟踪方法。该方法首先获取目标的深度图像,并将该深度图像转换为灰度图像。进而,提取该灰度图像的HOG特征,并采用预先建立的人腿HOG特征检测模型对该灰度图像进行检测,以确定该灰度图像中是否含有目标人腿。当确定灰度图像中包含目标人腿时,进一步确定目标人腿在该灰度图像中的图像位置坐标,并按照预设算法,将目标人腿的图像位置坐标转换为实际位置坐标,以实现机器人对目标的跟踪。与现有技术相比,本发明基于人腿的HOG特征实现对目标的实时跟踪,无需采集目标的整体图像。
参见图2示出了本发明另一个实施例公开的一种机器人跟踪方法的流程示意图。
由图2可知,在本实施例中,该方法包括:
S201:获取目标的深度图像,并将所述深度图像转换为灰度图像。
S202:采用预先创建的滑动窗口按照预先设置的扫描顺序对所述灰度图像进行扫描,提取当前扫描区域的HOG特征。
S203:比较所述扫描区域的HOG特征与人腿HOG特征检测模型的预设人腿HOG特征,确定所述灰度图像中是否包含目标人腿。
可选的,当扫描区域的HOG特征值和预设人腿HOG特征值的差小于等于预设阈值时,则说明该灰度图像中包括目标人腿,且目标人腿的所在位置,级该扫描区域的所在位置。
S204:当比较结果满足预设要求时,确定所述灰度图像中包含目标人腿进而确定目标人腿的图像位置坐标。
S205:若当前所述灰度图像中不包含目标人腿时,获取上一帧灰度图像中目标人腿的图像位置坐标。
S206:基于上一帧灰度图像中目标人腿的图像位置坐标,计算目标人腿的图像位置坐标。
在实际应用中,当前帧的灰度图像有可能不包含目标人腿,由于人和机器人的相对位置不会发生突变,因而在实际应用中可对基于上一帧灰度图像中目标人腿的图像位置坐标进行一定量的扩展,从而确定当前帧灰度图像中人腿的图像位置坐标,如,上一帧人腿的位置坐标是(x1,y1,x2,y2),则当前帧人腿的跟踪范围是(x1-26,y1-26,x2+26,y2+26)。
S207:按照预设算法,根据所述图像位置坐标计算目标人腿的实际位置坐标,以实现机器人对目标的跟踪。
参见图3示出了本发明另一个实施例公开的一种机器人跟踪装置的结构示意图。
由图3可知,在本实施例中,该装置包括:图像采集处理单元1、HOG特征提取单元2、人腿检测单元3、人腿图像位置坐标确定单元4以及人腿实际位置坐标计算单元5。
其中,图像采集处理单元1,用于获取目标的深度图像,并将所述深度图像转换为灰度图像,进而将转换的灰度图像发送至HOG特征提取单元2中。可选的,所述图像采集处理单元为深度相机与图像处理芯片的集成单元。
HOG特征提取单元2获取图像采集处理单元1发送的目标灰度图像,进而提取所述灰度图像的HOG特征。
人腿检测单元3基于预先建立的人腿HOG特征检测模型对所述灰度图像的HOG特征进行检验,以确定所述灰度图像中是否包含目标人腿。
其中,所述人腿HOG特征检测模型包括:长距离人腿HOG特征检测模型和近距离人腿HOG特征检测模型。
人腿图像位置坐标确定单元,用于当所述灰度图像中包含目标人腿时,确定目标人腿在所述灰度图像中的图像位置坐标。
人腿实际位置坐标计算单元,用于按照预设算法,根据所述图像位置坐标计算目标人腿的实际位置坐标,以实现机器人对目标的跟踪。
参见图4示出了本发明另一个实施例公开的一种机器人跟踪装置的结构示意图。
由图4可知,在本实施例中该装置包括:图像采集处理单元1、HOG特征提取单元2、人腿检测单元3、人腿图像位置坐标确定单元4以及人腿实际位置坐标计算单元5。
与上一个装置实施例不同的是,在本实施例中所述HOG特征提取单元2包括:扫描模块21以及特征提取模块22。
扫描模块21用于采用预先创建的滑动窗口按照预先设置的扫描顺序对所述灰度图像进行扫描。当扫描模块21扫描到灰度图像的某个位置时,特征提取模块22则提取当前扫描区域的HOG特征。
另外在本实施例中,所述人腿检测单元3包括:比较模块31和目标人腿确定模块32。
其中,比较模块31,用于比较所述扫描区域的HOG特征与所述人腿HOG特征检测模型的预设人腿HOG特征。
目标人腿确定模块32,用于当比较满足预设要求时,确定所述灰度图像中包含目标人腿。
需要说明的是,当前帧的灰度图像有可能不包含目标人腿,由于人和机器人的相对位置不会发生突变,因而在实际应用中可对基于上一帧灰度图像中目标人腿的图像位置坐标进行一定量的扩展,从而确定当前帧灰度图像中人腿的图像位置坐标。因而,本实施例中该装置还包括数据采集单元6和计算单元7。
数据采集单元6,用于若当前所述灰度图像中不包含目标人腿时,获取上一帧灰度图像中目标人腿的图像位置坐标。
计算单元7,用于基于上一帧灰度图像中目标人腿的图像位置坐标,计算目标人腿的图像位置坐标。
需要说明的是该装置实施例与方法实施例相对应,其执行过程和执行原理相同,在此不作赘述。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种机器人跟踪方法,其特征在于,包括:
获取目标的深度图像,并将所述深度图像转换为灰度图像;
提取所述灰度图像的HOG特征;
采用预先建立的人腿HOG特征检测模型对所述灰度图像的HOG特征进行检验,以确定所述灰度图像中是否包含目标人腿;
当所述灰度图像中包含目标人腿时,确定目标人腿在所述灰度图像中的图像位置坐标;
按照预设算法,根据所述图像位置坐标计算目标人腿的实际位置坐标,以实现机器人对目标的跟踪。
2.根据权利要求1所述的方法,其特征在于,所述提取所述灰度图像的HOG特征,包括:
采用预先创建的滑动窗口按照预先设置的扫描顺序对所述灰度图像进行扫描;
提取当前扫描区域的HOG特征。
3.根据权利要求1所述的方法,其特征在于,所述人腿HOG检测模型包括:远距离人腿HOG检测模型和近距离人腿HOG检测模型。
4.根据权利要求2所述的方法,其特征在于,所述采用预先建立的人腿HOG特征检测模型对所述灰度图像的HOG特征进行检验,以确定所述灰度图像中是否包括目标人腿,包括:
比较所述扫描区域的HOG特征与所述人腿HOG特征检测模型的预设人腿HOG特征;
当比较结果满足预设要求时,确定所述灰度图像中包含目标人腿。
5.根据权利要求1所述的方法,其特征在于,还包括:
若当前所述灰度图像中不包含目标人腿时,获取上一帧灰度图像中目标人腿的图像位置坐标;
基于上一帧灰度图像中目标人腿的图像位置坐标,计算当前帧灰度图像中目标人腿的图像位置坐标。
6.一种机器人跟踪装置,其特征在于,包括:
图像采集处理单元,用于获取目标的深度图像,并将所述深度图像转换为灰度图像;
HOG特征提取单元,用于提取所述灰度图像的HOG特征;
人腿检测单元,用于采用预先建立的人腿HOG特征检测模型对所述灰度图像的HOG特征进行检验,以确定所述灰度图像中是否包含目标人腿;
人腿图像位置坐标确定单元,用于当所述灰度图像中包含目标人腿时,确定目标人腿在所述灰度图像中的图像位置坐标;
人腿实际位置坐标计算单元,用于按照预设算法,根据所述图像位置坐标计算目标人腿的实际位置坐标,以实现机器人对目标的跟踪。
7.根据权利要求6所述的装置,其特征在于,所述HOG特征提取单元包括:
扫描模块,用于采用预先创建的滑动窗口按照预先设置的扫描顺序对所述灰度图像进行扫描;
特征提取模块,用于提取当前扫描区域的HOG特征。
8.根据权利要求6所述的装置,其特征在于,所述人腿检测单元用于采用预先建立的远距离人腿HOG特征检测模型和近距离人腿检测模型对所述灰度图像的HOG特征进行检验。
9.根据权利要求7所述的装置,其特征在于,所述人腿检测单元包括:
比较模块,用于比较所述扫描区域的HOG特征与所述人腿HOG特征检测模型的预设人腿HOG特征;
目标人腿确定模块,用于当比较满足预设要求时,确定所述灰度图像中包含目标人腿。
10.根据权利要求6所述的装置,其特征在于,还包括:
数据采集单元,用于若当前所述灰度图像中不包含目标人腿时,获取上一帧灰度图像中目标人腿的图像位置坐标;
计算单元,用于基于上一帧灰度图像中目标人腿的图像位置坐标,计算当期帧灰度图像中目标人腿的图像位置坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610559513.5A CN106203361A (zh) | 2016-07-15 | 2016-07-15 | 一种机器人跟踪方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610559513.5A CN106203361A (zh) | 2016-07-15 | 2016-07-15 | 一种机器人跟踪方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106203361A true CN106203361A (zh) | 2016-12-07 |
Family
ID=57474940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610559513.5A Pending CN106203361A (zh) | 2016-07-15 | 2016-07-15 | 一种机器人跟踪方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106203361A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107097256A (zh) * | 2017-04-21 | 2017-08-29 | 河海大学常州校区 | 基于视觉非完整机器人在极坐标下的无模型目标跟踪方法 |
CN107544506A (zh) * | 2017-09-27 | 2018-01-05 | 上海有个机器人有限公司 | 机器人跟随方法、机器人以及存储介质 |
CN109919999A (zh) * | 2019-01-31 | 2019-06-21 | 深兰科技(上海)有限公司 | 一种目标位置检测的方法及装置 |
CN110291771A (zh) * | 2018-07-23 | 2019-09-27 | 深圳市大疆创新科技有限公司 | 一种目标对象的深度信息获取方法及可移动平台 |
CN111481110A (zh) * | 2019-01-29 | 2020-08-04 | 北京奇虎科技有限公司 | 防盗报警方法、装置和扫地机器人 |
CN112232271A (zh) * | 2020-10-29 | 2021-01-15 | 上海有个机器人有限公司 | 一种基于激光的人流检测方法以及设备 |
CN114310887A (zh) * | 2021-12-28 | 2022-04-12 | 深圳中智永浩机器人有限公司 | 3d人腿识别方法、装置、计算机设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102201059A (zh) * | 2011-05-20 | 2011-09-28 | 北京大学深圳研究生院 | 一种行人检测方法及装置 |
CN102915372A (zh) * | 2012-11-06 | 2013-02-06 | 成都理想境界科技有限公司 | 图像检索方法、装置及系统 |
CN103310194A (zh) * | 2013-06-07 | 2013-09-18 | 太原理工大学 | 视频中基于头顶像素点梯度方向的行人头肩部检测方法 |
CN103984315A (zh) * | 2014-05-15 | 2014-08-13 | 成都百威讯科技有限责任公司 | 一种家用多功能智能机器人 |
US20150049906A1 (en) * | 2013-08-15 | 2015-02-19 | National Taiwan University | Human image tracking system, and human image detection and human image tracking methods thereof |
CN105652895A (zh) * | 2014-11-12 | 2016-06-08 | 沈阳新松机器人自动化股份有限公司 | 基于激光传感器的移动机器人人体跟踪系统及跟踪方法 |
-
2016
- 2016-07-15 CN CN201610559513.5A patent/CN106203361A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102201059A (zh) * | 2011-05-20 | 2011-09-28 | 北京大学深圳研究生院 | 一种行人检测方法及装置 |
CN102915372A (zh) * | 2012-11-06 | 2013-02-06 | 成都理想境界科技有限公司 | 图像检索方法、装置及系统 |
CN102915372B (zh) * | 2012-11-06 | 2016-02-03 | 成都理想境界科技有限公司 | 图像检索方法、装置及系统 |
CN103310194A (zh) * | 2013-06-07 | 2013-09-18 | 太原理工大学 | 视频中基于头顶像素点梯度方向的行人头肩部检测方法 |
US20150049906A1 (en) * | 2013-08-15 | 2015-02-19 | National Taiwan University | Human image tracking system, and human image detection and human image tracking methods thereof |
CN103984315A (zh) * | 2014-05-15 | 2014-08-13 | 成都百威讯科技有限责任公司 | 一种家用多功能智能机器人 |
CN105652895A (zh) * | 2014-11-12 | 2016-06-08 | 沈阳新松机器人自动化股份有限公司 | 基于激光传感器的移动机器人人体跟踪系统及跟踪方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107097256A (zh) * | 2017-04-21 | 2017-08-29 | 河海大学常州校区 | 基于视觉非完整机器人在极坐标下的无模型目标跟踪方法 |
CN107544506A (zh) * | 2017-09-27 | 2018-01-05 | 上海有个机器人有限公司 | 机器人跟随方法、机器人以及存储介质 |
CN107544506B (zh) * | 2017-09-27 | 2021-05-18 | 上海有个机器人有限公司 | 机器人跟随方法、机器人以及存储介质 |
CN110291771A (zh) * | 2018-07-23 | 2019-09-27 | 深圳市大疆创新科技有限公司 | 一种目标对象的深度信息获取方法及可移动平台 |
CN111481110A (zh) * | 2019-01-29 | 2020-08-04 | 北京奇虎科技有限公司 | 防盗报警方法、装置和扫地机器人 |
CN109919999A (zh) * | 2019-01-31 | 2019-06-21 | 深兰科技(上海)有限公司 | 一种目标位置检测的方法及装置 |
CN109919999B (zh) * | 2019-01-31 | 2021-06-11 | 深兰科技(上海)有限公司 | 一种目标位置检测的方法及装置 |
CN112232271A (zh) * | 2020-10-29 | 2021-01-15 | 上海有个机器人有限公司 | 一种基于激光的人流检测方法以及设备 |
CN112232271B (zh) * | 2020-10-29 | 2023-09-12 | 上海有个机器人有限公司 | 一种基于激光的人流检测方法以及设备 |
CN114310887A (zh) * | 2021-12-28 | 2022-04-12 | 深圳中智永浩机器人有限公司 | 3d人腿识别方法、装置、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106203361A (zh) | 一种机器人跟踪方法和装置 | |
CN110599540B (zh) | 多视点相机下的实时三维人体体型与姿态重建方法及装置 | |
Borrmann et al. | A mobile robot based system for fully automated thermal 3D mapping | |
US10189162B2 (en) | Model generation apparatus, information processing apparatus, model generation method, and information processing method | |
US8824781B2 (en) | Learning-based pose estimation from depth maps | |
JP5227629B2 (ja) | オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム | |
TWI496090B (zh) | 使用深度影像的物件定位方法與裝置 | |
CN105700525B (zh) | 基于Kinect传感器深度图机器人工作环境不确定性地图构建法 | |
CN104484868B (zh) | 一种结合模板匹配和图像轮廓的运动目标航拍跟踪方法 | |
CN104751146B (zh) | 一种基于3d点云图像的室内人体检测方法 | |
CN103729614A (zh) | 基于视频图像的人物识别方法及人物识别装置 | |
CN104536009A (zh) | 一种激光红外复合的地面建筑物识别及导航方法 | |
Ning et al. | People tracking based on motion model and motion constraints with automatic initialization | |
CN105740780A (zh) | 人脸活体检测的方法和装置 | |
CN104063677A (zh) | 用于估计人体姿态的设备和方法 | |
JP2012123667A (ja) | 姿勢推定装置および姿勢推定方法 | |
KR101956275B1 (ko) | 영상으로부터 신체 골격 및 신체 부위 정보 검출 방법 및 장치 | |
CN111340939A (zh) | 一种室内三维语义地图构建方法 | |
JP5027030B2 (ja) | オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム | |
CN105488491A (zh) | 基于金字塔匹配直方图交叉核的人体睡眠姿态检测方法 | |
CN102156994B (zh) | 一种单视角无标记人体运动跟踪的关节定位方法 | |
Huai et al. | Stereo-inertial odometry using nonlinear optimization | |
CN111583386A (zh) | 基于标签传播算法的多视角人体姿态重建方法 | |
CN109544632A (zh) | 一种基于层次主题模型的语义slam对象关联方法 | |
Jo et al. | Tracking and interaction based on hybrid sensing for virtual environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20170823 Address after: 100041, room 3, floor 11, 3033 Hing Tung Street, Beijing, Shijingshan District Applicant after: Beijing bingo Technology Co., Ltd. Address before: 215024, B1-120, 99 benevolence Road, Suzhou Industrial Park, Jiangsu, China Applicant before: SUZHOU BINGO INTELLIGENT TECHNOLOGY CO., LTD. |
|
TA01 | Transfer of patent application right | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20161207 |
|
RJ01 | Rejection of invention patent application after publication |