CN106881716A - 基于3d摄像头机器人的人体跟随方法及系统 - Google Patents
基于3d摄像头机器人的人体跟随方法及系统 Download PDFInfo
- Publication number
- CN106881716A CN106881716A CN201710091709.0A CN201710091709A CN106881716A CN 106881716 A CN106881716 A CN 106881716A CN 201710091709 A CN201710091709 A CN 201710091709A CN 106881716 A CN106881716 A CN 106881716A
- Authority
- CN
- China
- Prior art keywords
- human body
- robot
- cameras
- data amount
- characteristic value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于3D摄像头机器人的人体跟随方法及系统,该方法包括八个步骤,能够使机器人不断主动监测周围的环境,根据3D摄像头获取到的物体特征值进行分析判断,若抓拍到人体,则记录人体的特征值和位置信息,并计算人体中心坐标与人体之间的距离,且根据机器人与人体之间的距离而决定跟随人体的速度,保证机器人与人体之间的常量间距,从而实现对人体的拍照跟随,用户走到哪里,机器人就跟随到哪里,方便用户及时与机器人交互,使得机器人从被动与人交互转换为主动与人交互,可以增强娱乐性,主动监测周围环境,增强对周围环境感知能力,为机器人应用提供良好的体验。
Description
技术领域
本发明涉及机器人技术领域,尤其涉及一种基于3D摄像头机器人的人体跟随方法及系统。
背景技术
随着现有技术的迅速发展,机器人开始走进老百姓的生活中,机器人的使用领域较为广泛,以服务行业为例,机器人可从事餐饮、维护保养、修理、运输、清洗、救援或监护等工作,能完成有益于人类健康的服务工作,给人民的生活带来的极大的便利。
然而,现有的机器人普遍是通过语音唤醒的,如果他没有听到声音,他就没法感知周围环境变化,不能做出合理的响应。因此,视觉是对这种情景的必要补充,使得机器人能主动感知没有声音的情景。
发明内容
针对上述技术中存在的不足之处,本发明提供一种可跟随人体、便于用户与机器人及时交互的基于3D摄像头机器人的人体跟随方法及系统。
为了达到上述目的,本发明一种基于3D摄像头机器人的人体跟随方法,包括以下步骤:
步骤1,打开机器人电源,初始化机器人系统;
步骤2,机器人系统驱动3D摄像头初始化;
步骤3,3D摄像头开始进行抓拍,若抓拍到物体,则执行步骤4;若未抓拍到物体,则3D摄像头继续抓拍;
步骤4,3D摄像头得到深度数据量和颜色数据量并发送给机器人;
步骤5,机器人根据深度数据量和颜色数据量计算分析得到物体的特征值,并通过物体的特征值判断是人体或者是非人体,若判断是人体,则执行步骤6;若判断为非人体,则返回执行步骤3;
步骤6,机器人将人体的特征值和位置信息记录下来,且3D摄像头构建周围环境的空间坐标系,并将该坐标系映射到机器人的屏幕上;
步骤7,机器人根据空间坐标与3D摄像头映射到人体的点计算出人体中心坐标;
步骤8,机器人根据人体中心坐标计算出与人体的距离,且根据距离决定跟随人体的速度;
步骤9,机器人跟随人体的同时扫描周围环境,绘制地图并保存地图。
其中,所述步骤6记录人体的特征值的具体过程为:
步骤61,将机器人检测人体的特征值中的图像数据进行灰度化处理;
步骤62,采用Gamma校正法对输入的图像数据进行颜色空间标准化;
步骤63,计算图像数据中每个像素的梯度;
步骤64,将图像数据划分为多个cell;
步骤65,统计每个cell的梯度直方图,形成每个cell的descriptor;
步骤66,将每几个cell的梯度直方图组成一个block,一个block内的所有cell的特征descriptor串联后得到该block的特征descriptor;
步骤67,将图像数据内所有block的特征descriptor串联后得到该图像的HOG特征descriptor,且该图像的HOG特征descriptor供分类使用的特征向量。
其中,所述步骤5中,机器人的分析过程为:调用IPP数据库和PCL数据库,采用detect算法对深度数据量和颜色数据量进行计算分析。
其中,所述步骤8中,机器人在跟随人体的过程中保持常量距离。
其中,所述步骤3中,3D摄像头的抓拍速度为每秒60帧。
其中,所述步骤64中,每个cell为6*6像素,所述步骤66中,一个block中有3*3个cell。
为了实现上述目的,本发明还提供一种基于3D摄像头机器人的人体跟随系统,包括设置在机器人上的3D摄像头、中央处理器和屏幕,所述3D摄像头和屏幕均与中央处理器交互连接;
所述3D摄像头抓拍到物体后,所述3D摄像头得到深度数据量和颜色数据量,且所述3D摄像头将深度数据量和颜色数据量发送给中央处理器处理,所述中央处理器根据深度数据量和颜色数据量计算分析得到物体的特征值,并通过物体的特征值判断是人体或者是非人体,若判断为非人体,则3D摄像头继续抓拍;若判断是人体,则中央处理器记录人体的特征值和位置信息,且3D摄像头构建周围环境的空间坐标系,并将该坐标系映射到屏幕上,所述中央处理器根据空间坐标与3D摄像头映射到人体的点计算出人体中心坐标,所述中央处理器根据人体中心坐标计算出与人体的距离,且根据距离决定跟随人体的速度。
其中,所述3D摄像头的抓拍速度为每秒60帧。
本发明的有益效果是:
与现有技术相比,本发明的基于3D摄像头机器人的人体跟随方法,能够使机器人不断主动监测周围的环境,根据3D摄像头获取到的物体特征值进行分析判断,若抓拍到人体,则记录人体的特征值和位置信息,并计算人体中心坐标与人体之间的距离,且根据机器人与人体之间的距离而决定跟随人体的速度,保证机器人与人体之间的常量间距,从而实现对人体的拍照跟随,用户走到哪里,机器人就跟随到哪里,方便用户及时与机器人交互,使得机器人从被动与人交互转换为主动与人交互,可以增强娱乐性,主动监测周围环境,增强对周围环境感知能力,为机器人应用提供良好的体验。本发明的基于3D摄像头机器人的人体跟随方法使得机器人更加智能化,能更好的为用户服务。
附图说明
图1为本发明基于3D摄像头机器人的人体跟随方法的方框流程图;
图2为本发明基于3D摄像头机器人的人体跟随方法中步骤6的方框流程图;
图3为本发明基于3D摄像头机器人的人体跟随系统的方框示意图。
主要元件符合说明如下:
1、3D摄像头 2、中央处理器
3、屏幕。
具体实施方式
为了更清楚地表述本发明,下面结合附图对本发明作进一步地描述。
参阅图1-3,本发明一种基于3D摄像头机器人的人体跟随方法,包括以下步骤:
步骤S1,打开机器人电源,初始化机器人系统;
步骤S2,机器人系统驱动3D摄像头初始化;
步骤S3,3D摄像头开始进行抓拍,若抓拍到物体,则执行步骤S4;若未抓拍到物体,则3D摄像头继续抓拍;
步骤S4,3D摄像头得到深度数据量和颜色数据量并发送给机器人;
步骤S5,机器人根据深度数据量和颜色数据量计算分析得到物体的特征值,并通过物体的特征值判断是人体或者是非人体,若判断是人体,则执行步骤S6;若判断为非人体,则返回执行步骤S3;
步骤S6,机器人将人体的特征值和位置信息记录下来,且3D摄像头构建周围环境的空间坐标系,并将该坐标系映射到机器人的屏幕上;
步骤S7,机器人根据空间坐标与3D摄像头映射到人体的点计算出人体中心坐标;
步骤S8,机器人根据人体中心坐标计算出与人体的距离,且根据距离决定跟随人体的速度;
步骤S9,机器人跟随人体的同时扫描周围环境,绘制地图并保存地图。
与现有技术相比,本发明的基于3D摄像头机器人的人体跟随方法,能够使机器人不断主动监测周围的环境,根据3D摄像头获取到的物体特征值进行分析判断,若抓拍到人体,则记录人体的特征值和位置信息,并计算人体中心坐标与人体之间的距离,且根据机器人与人体之间的距离而决定跟随人体的速度,保证机器人与人体之间的常量间距,从而实现对人体的拍照跟随,用户走到哪里,机器人就跟随到哪里,方便用户及时与机器人交互,使得机器人从被动与人交互转换为主动与人交互,可以增强娱乐性,主动监测周围环境,增强对周围环境感知能力,为机器人应用提供良好的体验。本发明的基于3D摄像头机器人的人体跟随方法使得机器人更加智能化,能更好的为用户服务。
本实施例中,步骤S6记录人体的特征值的具体过程为:
步骤S61,将机器人检测人体的特征值中的图像数据进行灰度化处理;
步骤S62,采用Gamma校正法对输入的图像数据进行颜色空间标准化;Gamma校正法用于调节图像的对比度,降低图像局部的阴影和光照变化造成的影响,同时可以抑制噪音的干扰;
步骤S63,计算图像数据中每个像素的梯度;该步骤是为了捕获轮廓信息,同时进一步弱化光照的干扰;
步骤S64,将图像数据划分为多个cell;其中,cell为单元;
步骤S65,统计每个cell的梯度直方图,形成每个cell的descriptor;其中,descriptor为描述符;
步骤S66,将每几个cell的梯度直方图组成一个block,一个block内的所有cell的特征descriptor串联后得到该block的特征descriptor;其中,block为块;
步骤S67,将图像数据内所有block的特征descriptor串联后得到该图像的HOG特征descriptor,且该图像的HOG特征descriptor供分类使用的特征向量。
Gamma校正法即伽玛校正,为Gamma Correction,是对图象的伽玛曲线进行编辑,以对图象进行非线性色调编辑的方法。所谓伽玛校正就是对图像的伽玛曲线进行编辑,以对图像进行非线性色调编辑的方法,检出图像信号中的深色部分和浅色部分,并使两者比例增大,从而提高图像对比度效果;
HOG,为Histogram of Oriented Gradient的缩写,译为方向梯度直方图,HOG特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子,通过计算和统计图像局部区域的梯度方向直方图来构成特征,HOG特征结合SVM分类器已经被广泛应用于图像识别中,尤其在行人检测中获得了极大的成功。
本实施例中,步骤S5中,机器人的分析过程为:调用IPP数据库和PCL数据库,采用detect算法对深度数据量和颜色数据量进行计算分析。IPP数据库是指intel performancelibiariy,为英特尔性能数据库;PCL数据库是指point clouds library ,为点云数据库;detect算法为现有技术中识别人体特征的一个算法,在得到人体的color值和depth值后,color值即颜色数据量,depth值即深度数据量,是通过color值和depth值计算而得出人体的特征值的一种算法。
本实施例中,步骤S8中,机器人在跟随人体的过程中保持常量距离。常量距离为机器人中可设置的人体与机器人的间距,保证安全,避免机器人与用户的距离过近或过远,避免交互不便。
本实施例中,步骤S3中,3D摄像头的抓拍速度为每秒60帧。当然,本案中并不局限于60帧每秒的抓拍速度,也可以是其他的速度,只要能保持抓拍人体的抓拍速度即可。
本实施例中,步骤S64中,每个cell为6*6像素,步骤S66中,一个block中有3*3个cell。当然,本案中并不局限于6*6像素的cell,也可以是其他像素,一个block中并不局限于3*3个cell,只要能保证人体的特征值有效记录即可。
本案中,步骤S7的机器人根据空间坐标与3D摄像头映射到人体的点计算出人体中心坐标为现有技术中的计算方法,只要能根据空间坐标与3D摄像头映射到人体的点计算出人体中心坐标的方法均可为本案的计算方法。
请参阅图3,为了实现上述目的,本发明还提供一种基于3D摄像头机器人的人体跟随系统,包括设置在机器人上的3D摄像1、中央处理器2和屏幕3,3D摄像头1和屏幕3均与中央处理器2交互连接;
3D摄像头1抓拍到物体后,3D摄像头1得到深度数据量和颜色数据量,且3D摄像头1将深度数据量和颜色数据量发送给中央处理器2处理,中央处理器2根据深度数据量和颜色数据量计算分析得到物体的特征值,并通过物体的特征值判断是人体或者是非人体,若判断为非人体,则3D摄像头1继续抓拍;若判断是人体,则中央处理器2记录人体的特征值和位置信息,且3D摄像头1构建周围环境的空间坐标系,并将该坐标系映射到屏幕3上,中央处理器2根据空间坐标与3D摄像头1映射到人体的点计算出人体中心坐标,中央处理器2根据人体中心坐标计算出与人体的距离,且根据距离决定跟随人体的速度。
本实施例中,3D摄像头1的抓拍速度为每秒60帧。
本发明的优势在于:
与现有技术相比,本发明的基于3D摄像头机器人的人体跟随系统,3D摄像头1不断主动监测周围的环境,根据3D摄像头获取到的物体特征值进行分析判断,若抓拍到人体,则中央处理器2记录人体的特征值和位置信息,并计算人体中心坐标与人体之间的距离,且根据机器人与人体之间的距离而决定跟随人体的速度,保证机器人与人体之间的常量间距,从而实现对人体的拍照跟随,用户走到哪里,机器人就跟随到哪里,方便用户及时与机器人交互,使得机器人从被动与人交互转换为主动与人交互,可以增强娱乐性,主动监测周围环境,增强对周围环境感知能力,为机器人应用提供良好的体验。本发明的基于3D摄像头机器人的人体跟随系统使得机器人更加智能化,能更好的为用户服务。
以上公开的仅为本发明的几个具体实施例,但是本发明并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。
Claims (8)
1.一种基于3D摄像头机器人的人体跟随方法,其特征在于,包括以下步骤:
步骤1,打开机器人电源,初始化机器人系统;
步骤2,机器人系统驱动3D摄像头初始化;
步骤3,3D摄像头开始进行抓拍,若抓拍到物体,则执行步骤4;若未抓拍到物体,则3D摄像头继续抓拍;
步骤4,3D摄像头得到深度数据量和颜色数据量并发送给机器人;
步骤5,机器人根据深度数据量和颜色数据量计算分析得到物体的特征值,并通过物体的特征值判断是人体或者是非人体,若判断是人体,则执行步骤6;若判断为非人体,则返回执行步骤3;
步骤6,机器人将人体的特征值和位置信息记录下来,且3D摄像头构建周围环境的空间坐标系,并将该坐标系映射到机器人的屏幕上;
步骤7,机器人根据空间坐标与3D摄像头映射到人体的点计算出人体中心坐标;
步骤8,机器人根据人体中心坐标计算出与人体的距离,且根据距离决定跟随人体的速度;
步骤9,机器人跟随人体的同时扫描周围环境,绘制地图并保存地图。
2.根据权利要求1所述的基于3D摄像头机器人的人体跟随方法,其特征在于,所述步骤6记录人体的特征值的具体过程为:
步骤61,将机器人检测人体的特征值中的图像数据进行灰度化处理;
步骤62,采用Gamma校正法对输入的图像数据进行颜色空间标准化;
步骤63,计算图像数据中每个像素的梯度;
步骤64,将图像数据划分为多个cell;
步骤65,统计每个cell的梯度直方图,形成每个cell的descriptor;
步骤66,将每几个cell的梯度直方图组成一个block,一个block内的所有cell的特征descriptor串联后得到该block的特征descriptor;
步骤67,将图像数据内所有block的特征descriptor串联后得到该图像的HOG特征descriptor,且该图像的HOG特征descriptor供分类使用的特征向量。
3.根据权利要求1所述的基于3D摄像头机器人的人体跟随方法,其特征在于,所述步骤5中,机器人的分析过程为:调用IPP数据库和PCL数据库,采用detect算法对深度数据量和颜色数据量进行计算分析。
4.根据权利要求1所述的基于3D摄像头机器人的人体跟随方法,其特征在于,所述步骤8中,机器人在跟随人体的过程中保持常量距离。
5.根据权利要求1所述的基于3D摄像头机器人的人体跟随方法,其特征在于,所述步骤3中,3D摄像头的抓拍速度为每秒60帧。
6.根据权利要求2所述的基于3D摄像头机器人的人体跟随方法,其特征在于,所述步骤64中,每个cell为6*6像素,所述步骤66中,一个block中有3*3个cell。
7.一种基于3D摄像头机器人的人体跟随系统,其特征在于,包括设置在机器人上的3D摄像头、中央处理器和屏幕,所述3D摄像头和屏幕均与中央处理器交互连接;
所述3D摄像头抓拍到物体后,所述3D摄像头得到深度数据量和颜色数据量,且所述3D摄像头将深度数据量和颜色数据量发送给中央处理器处理,所述中央处理器根据深度数据量和颜色数据量计算分析得到物体的特征值,并通过物体的特征值判断是人体或者是非人体,若判断为非人体,则3D摄像头继续抓拍;若判断是人体,则中央处理器记录人体的特征值和位置信息,且3D摄像头构建周围环境的空间坐标系,并将该坐标系映射到屏幕上,所述中央处理器根据空间坐标与3D摄像头映射到人体的点计算出人体中心坐标,所述中央处理器根据人体中心坐标计算出与人体的距离,且根据距离决定跟随人体的速度。
8.根据权利要求7所述的基于3D摄像头机器人的人体跟随系统,其特征在于,所述3D摄像头的抓拍速度为每秒60帧。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710091709.0A CN106881716A (zh) | 2017-02-21 | 2017-02-21 | 基于3d摄像头机器人的人体跟随方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710091709.0A CN106881716A (zh) | 2017-02-21 | 2017-02-21 | 基于3d摄像头机器人的人体跟随方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106881716A true CN106881716A (zh) | 2017-06-23 |
Family
ID=59179195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710091709.0A Pending CN106881716A (zh) | 2017-02-21 | 2017-02-21 | 基于3d摄像头机器人的人体跟随方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106881716A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107544506A (zh) * | 2017-09-27 | 2018-01-05 | 上海有个机器人有限公司 | 机器人跟随方法、机器人以及存储介质 |
CN108181612A (zh) * | 2017-12-22 | 2018-06-19 | 达闼科技(北京)有限公司 | 确定麦克风波束成型角度的方法及相关装置 |
CN108527366A (zh) * | 2018-03-22 | 2018-09-14 | 北京理工华汇智能科技有限公司 | 基于景深距离的机器人跟随方法及装置 |
CN108673501A (zh) * | 2018-05-17 | 2018-10-19 | 中国科学院深圳先进技术研究院 | 一种机器人的目标跟随方法及装置 |
CN108717553A (zh) * | 2018-05-18 | 2018-10-30 | 杭州艾米机器人有限公司 | 一种机器人跟随人体的方法及系统 |
CN109917791A (zh) * | 2019-03-26 | 2019-06-21 | 深圳市锐曼智能装备有限公司 | 移动装置自动探索构建地图的方法 |
CN112223308A (zh) * | 2020-09-30 | 2021-01-15 | 江苏迪迪隆机器人科技发展有限公司 | 一种仿生机器人运动控制方法及系统 |
US10948907B2 (en) | 2018-08-24 | 2021-03-16 | Ford Global Technologies, Llc | Self-driving mobile robots using human-robot interactions |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101630162A (zh) * | 2008-07-16 | 2010-01-20 | 中国科学院自动化研究所 | 多移动机器人局部跟随控制方法 |
CN101685309A (zh) * | 2008-09-24 | 2010-03-31 | 中国科学院自动化研究所 | 多机器人协调队形控制方法 |
CN105058389A (zh) * | 2015-07-15 | 2015-11-18 | 深圳乐行天下科技有限公司 | 一种机器人系统、机器人控制方法及机器人 |
CN105527960A (zh) * | 2015-12-18 | 2016-04-27 | 燕山大学 | 一种基于领航跟随的移动机器人编队控制方法 |
CN105643624A (zh) * | 2016-03-04 | 2016-06-08 | 南京科远自动化集团股份有限公司 | 一种机器视觉控制方法及机器人控制器与机器人控制系统 |
CN105678284A (zh) * | 2016-02-18 | 2016-06-15 | 浙江博天科技有限公司 | 一种固定位人体行为分析方法 |
CN105828431A (zh) * | 2016-04-25 | 2016-08-03 | 上海理工大学 | 基于uwb的自主跟随机器人定位方法及系统 |
CN106054894A (zh) * | 2016-07-05 | 2016-10-26 | 北京九星智元科技有限公司 | 一种机器人伴随系统、伴随方法及机器人小车 |
CN205827240U (zh) * | 2016-07-18 | 2016-12-21 | 旗瀚科技有限公司 | 一种可以进行人体跟随的机器人 |
CN106407882A (zh) * | 2016-07-26 | 2017-02-15 | 河源市勇艺达科技股份有限公司 | 机器人通过人脸检测实现头部转动的方法及装置 |
CN106393113A (zh) * | 2016-11-16 | 2017-02-15 | 上海木爷机器人技术有限公司 | 机器人和机器人的交互控制方法 |
US20170043478A1 (en) * | 2015-08-14 | 2017-02-16 | Sphero, Inc. | Data exchange system |
-
2017
- 2017-02-21 CN CN201710091709.0A patent/CN106881716A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101630162A (zh) * | 2008-07-16 | 2010-01-20 | 中国科学院自动化研究所 | 多移动机器人局部跟随控制方法 |
CN101685309A (zh) * | 2008-09-24 | 2010-03-31 | 中国科学院自动化研究所 | 多机器人协调队形控制方法 |
CN105058389A (zh) * | 2015-07-15 | 2015-11-18 | 深圳乐行天下科技有限公司 | 一种机器人系统、机器人控制方法及机器人 |
US20170043478A1 (en) * | 2015-08-14 | 2017-02-16 | Sphero, Inc. | Data exchange system |
CN105527960A (zh) * | 2015-12-18 | 2016-04-27 | 燕山大学 | 一种基于领航跟随的移动机器人编队控制方法 |
CN105678284A (zh) * | 2016-02-18 | 2016-06-15 | 浙江博天科技有限公司 | 一种固定位人体行为分析方法 |
CN105643624A (zh) * | 2016-03-04 | 2016-06-08 | 南京科远自动化集团股份有限公司 | 一种机器视觉控制方法及机器人控制器与机器人控制系统 |
CN105828431A (zh) * | 2016-04-25 | 2016-08-03 | 上海理工大学 | 基于uwb的自主跟随机器人定位方法及系统 |
CN106054894A (zh) * | 2016-07-05 | 2016-10-26 | 北京九星智元科技有限公司 | 一种机器人伴随系统、伴随方法及机器人小车 |
CN205827240U (zh) * | 2016-07-18 | 2016-12-21 | 旗瀚科技有限公司 | 一种可以进行人体跟随的机器人 |
CN106407882A (zh) * | 2016-07-26 | 2017-02-15 | 河源市勇艺达科技股份有限公司 | 机器人通过人脸检测实现头部转动的方法及装置 |
CN106393113A (zh) * | 2016-11-16 | 2017-02-15 | 上海木爷机器人技术有限公司 | 机器人和机器人的交互控制方法 |
Non-Patent Citations (3)
Title |
---|
张毅等: "基于leader-follower方法和ad hoc网络的多机器人编队", 《中国人工智能学会》 * |
程磊: "《移动机器人系统及其协调控制》", 31 March 2014 * |
邹海洋: "多智能机器人群体中跟随者视觉系统的设计", 《电脑知识与技术》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107544506A (zh) * | 2017-09-27 | 2018-01-05 | 上海有个机器人有限公司 | 机器人跟随方法、机器人以及存储介质 |
CN108181612A (zh) * | 2017-12-22 | 2018-06-19 | 达闼科技(北京)有限公司 | 确定麦克风波束成型角度的方法及相关装置 |
CN108181612B (zh) * | 2017-12-22 | 2019-05-21 | 达闼科技(北京)有限公司 | 确定麦克风波束成型角度的方法及相关装置 |
CN108527366A (zh) * | 2018-03-22 | 2018-09-14 | 北京理工华汇智能科技有限公司 | 基于景深距离的机器人跟随方法及装置 |
CN108673501A (zh) * | 2018-05-17 | 2018-10-19 | 中国科学院深圳先进技术研究院 | 一种机器人的目标跟随方法及装置 |
CN108673501B (zh) * | 2018-05-17 | 2022-06-07 | 中国科学院深圳先进技术研究院 | 一种机器人的目标跟随方法及装置 |
CN108717553A (zh) * | 2018-05-18 | 2018-10-30 | 杭州艾米机器人有限公司 | 一种机器人跟随人体的方法及系统 |
CN108717553B (zh) * | 2018-05-18 | 2020-08-18 | 杭州艾米机器人有限公司 | 一种机器人跟随人体的方法及系统 |
US10948907B2 (en) | 2018-08-24 | 2021-03-16 | Ford Global Technologies, Llc | Self-driving mobile robots using human-robot interactions |
CN109917791A (zh) * | 2019-03-26 | 2019-06-21 | 深圳市锐曼智能装备有限公司 | 移动装置自动探索构建地图的方法 |
CN109917791B (zh) * | 2019-03-26 | 2022-12-06 | 深圳市锐曼智能装备有限公司 | 移动装置自动探索构建地图的方法 |
CN112223308A (zh) * | 2020-09-30 | 2021-01-15 | 江苏迪迪隆机器人科技发展有限公司 | 一种仿生机器人运动控制方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106881716A (zh) | 基于3d摄像头机器人的人体跟随方法及系统 | |
CN108764071B (zh) | 一种基于红外和可见光图像的真实人脸检测方法及装置 | |
KR102596897B1 (ko) | 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치 | |
CN105335722B (zh) | 一种基于深度图像信息的检测系统及方法 | |
WO2018188453A1 (zh) | 人脸区域的确定方法、存储介质、计算机设备 | |
US9117106B2 (en) | Use of three-dimensional top-down views for business analytics | |
CN105243371B (zh) | 一种人脸美颜程度的检测方法、系统及拍摄终端 | |
US8983202B2 (en) | Smile detection systems and methods | |
WO2019056988A1 (zh) | 人脸识别方法及装置、计算机设备 | |
CN106600640B (zh) | 一种基于rgb-d相机的人脸识别辅助眼镜 | |
CN109190522B (zh) | 一种基于红外相机的活体检测方法 | |
CN109359577B (zh) | 一种基于机器学习的复杂背景下人数检测系统 | |
EP3168810A1 (en) | Image generating method and apparatus | |
CN112906545B (zh) | 一种针对多人场景的实时动作识别方法及系统 | |
EP3905104B1 (en) | Living body detection method and device | |
US8538079B2 (en) | Apparatus capable of detecting location of object contained in image data and detection method thereof | |
CN110516623B (zh) | 一种人脸识别方法、装置及电子设备 | |
WO2009131539A1 (en) | A method and system for detecting and tracking hands in an image | |
CN108537131B (zh) | 一种基于人脸特征点和光流场的人脸识别活体检测方法 | |
CN108416291B (zh) | 人脸检测识别方法、装置和系统 | |
JP6157165B2 (ja) | 視線検出装置及び撮像装置 | |
US11315360B2 (en) | Live facial recognition system and method | |
CN111046825A (zh) | 人体姿态识别方法、装置、系统及计算机可读存储介质 | |
CN104008364A (zh) | 人脸识别方法 | |
CN106412420B (zh) | 一种互动拍照实现方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170623 |
|
RJ01 | Rejection of invention patent application after publication |