CN108345004A - 一种移动机器人的人体跟随方法 - Google Patents
一种移动机器人的人体跟随方法 Download PDFInfo
- Publication number
- CN108345004A CN108345004A CN201810658283.7A CN201810658283A CN108345004A CN 108345004 A CN108345004 A CN 108345004A CN 201810658283 A CN201810658283 A CN 201810658283A CN 108345004 A CN108345004 A CN 108345004A
- Authority
- CN
- China
- Prior art keywords
- mobile robot
- grouping
- human body
- laser data
- measurement position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/66—Tracking systems using electromagnetic waves other than radio waves
Landscapes
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种移动机器人的人体跟随方法,其属于机器人领域的技术,包括:步骤S1,通过所述激光雷达扫描所述移动机器人的当前环境获取多个激光数据点;步骤S2,获得每一所述分组的状态参数;步骤S3,筛选出表征人体的腿部的所述分组及其置信度;步骤S4,获得每一所述备选分组的中心点;步骤S5,筛选出表征同一所述人体的双腿的两个所述备选分组;步骤S6,以表征同一所述人体的双腿的两个所述备选分组的中间位置作为所要跟随的目标人体的测量位置,所述移动机器人移动至所述测量位置。该技术方案的有益效果是:本发明能够在采用低分辨率的激光雷达时获得较高的识别准确率,采用高精度的检测模型,识别的效率。
Description
技术领域
本发明涉及的是一种移动机器人领域的技术,具体是一种移动机器人的人体跟随方法。
背景技术
移动机器人的研究始于20世纪60年代末期,移动机器人是迅速发展起来的一种综合技术,集成了计算机、电子、自动控制以及人工智能等多学科的最新研究成果。
移动机器人主要是利用多传感器融合技术获取机器人自身及其所处环境中的各种信息,并将这些信息综合起来进行融合分析处理,从而使得机器人能够实时了解当前的自身及外部环境,并实时做出运动控制决策,实现躲避障碍物和寻找最优路径,进行自主移动和路径跟踪等基本功能。根据移动机器人从环境感知到行为控制过程的特点,可以把系统分为感知、数据处理、路径规划与运动控制四部分,这四部分又可分为多个相互协调的子模块。
人体跟随方法是指通过获取传感器数据计算分析出目标人体的位置,并通过运动控制使装置不断到达目标点从而实现装置一直跟随人体的位置。目前,由于激光雷达和深度相机的出现,大量准确的人体位置数据可以被获取。对于协助以及家庭服务机器人,这些数据被广泛应用到人体检测,跟踪以及导航等功能中。
主流的算法方案有两种,采用高精度的激光雷达(分辨率在0.1度以上)尽可能多的获得人体位置激光数据点,或者利用深度相机通过RGB图像获取人体所在角度并根据深度信息获取人体所处距离,从而确定人体位置。
对于采用高精度的激光雷达方案,有成本较高的缺点,同时容易受到周围环境的干扰,在狭窄拥挤的家庭环境,人体检测跟随效果不够稳定。
对于采用深度相机的方案,有视野较小跟踪容易丢失,以及易受光照影响的缺点。
发明内容
本发明针对现有技术存在的上述不足,提出一种移动机器人的人体跟随方法。本发明能够在采用低分辨率的激光雷达时获得较高的识别准确率,能够准确的识别目标人体,并对目标人体的位置进行准确测量,从而进行及时跟随,采用高精度的检测模型,识别的效率。
本发明是通过以下技术方案实现的:
本发明涉及一种移动机器人的人体跟随方法,其中,所述移动机器人设有一激光雷达,还包括以下步骤:
步骤S1,通过所述激光雷达扫描所述移动机器人的当前环境获取多个激光数据点;
步骤S2,根据一预设的聚类策略对所述激光数据点进行聚类获得多个分组,并获得每一所述分组的状态参数;
步骤S3,将每一所述分组的状态参数输入一预先训练形成的检测模型,筛选出表征人体的腿部的所述分组及其置信度;
步骤S4,筛选出所述置信度大于预设的第一阈值的所述分组作为备选分组,并获得每一所述备选分组的中心点;
步骤S5,根据任意两个所述备选分组的所述中心点的直线距离筛选出表征同一所述人体的双腿的两个所述备选分组;
步骤S6,以表征同一所述人体的双腿的两个所述备选分组之间的中间位置作为所要跟随的目标人体的测量位置,所述移动机器人移动至所述测量位置,以实现跟随所述目标人体。
优选的,该移动机器人的人体跟随方法,其中,在所述步骤S2中,所述聚类策略的具体步骤包括:
步骤S21,获得任意两个所述激光数据点之间的几何距离;
步骤S22,将所述几何距离小于预设的第二阈值的两个所述激光数据点并入同一个所述分组。
优选的,该移动机器人的人体跟随方法,其中,所述状态参数包括:所述分组中的所述激光数据点的个数、所述分组中的所述激光数据点的横坐标的平均值、所述分组中的所述激光数据点的横坐标的方差、所述分组中的所述激光数据点的横坐标的标准差以及所述分组的宽度。
优选的,该移动机器人的人体跟随方法,其中,所述检测模型通过独立过程获得,具体包括以下步骤:
步骤A1,预先准备多个训练用激光数据点,并将表征所述人体的所述训练用激光数据点作为正样本,其余所述训练用激光数据点作为负样本;
步骤A2,根据所述聚类策略对所述正样本和所述负样本分别进行分组,并获得每一分组的所述状态参数;
步骤A3,根据所述正样本的每一所述分组的状态参数训练得到所述检测模型,并根据所述负样本中的所述分组校正所述检测模型。
优选的,该移动机器人的人体跟随方法,其中,在所述步骤A1中,在所有相邻的所述训练用激光数据点之间均匀插入多个数据点,以增加所述训练用激光数据点的数量。
优选的,该移动机器人的人体跟随方法,其中,在所述步骤S6中,所述目标人体具有一唯一的ID序号。
优选的,该移动机器人的人体跟随方法,其中,在所述步骤S6中,若所述移动机器人之前未获得所述测量位置,则赋予所述目标人体新的所述ID序号;
若所述移动机器人之前获得过所述测量位置,则进行如下判断:
若当前的所述测量位置与之前获得的所述测量位置之间的距离大于预设的第三阈值,则赋予当前的所述目标人体新的所述ID序号;
若当前的所述测量位置与之前获得的所述测量位置之间的距离小于等于所述第三阈值,则将与之前获得的所述测量位置对应的所述目标人体的ID序号赋予当前的所述目标人体。
优选的,该移动机器人的人体跟随方法,其中,每一所述ID序号预设有相对应的一卡尔曼滤波器,在所述步骤S6中,将所述目标人体的所述测量位置经过与所述目标人体的所述ID序号相对应的所述卡尔曼滤波器获得一校正位置,所述移动机器人移动至所述校正位置,以实现跟随所述目标人体。
上述技术方案的有益效果是:
本发明能够在采用低分辨率的激光雷达时获得较高的识别准确率,能够准确的识别目标人体,并对目标人体的位置进行准确测量,从而进行及时跟随,采用高精度的检测模型,识别的效率。
附图说明
图1为本发明的较佳的实施例中,一种移动机器人的人体跟随方法流程示意图;
图2为本发明的较佳的实施例中,一种移动机器人的人体跟随方法的聚类策略过程示意图;
图3本发明的较佳的实施例中,一种移动机器人的人体跟随方法中获得检测模型的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
本实施例涉及一种移动机器人的人体跟随方法。
移动机器人的前端设有激光雷达。激光雷达可以采用较低的分辨率的型号,本实施例中采用1度分辨率的激光雷达。
如图1所示,包括以下步骤:
步骤S1,通过所述激光雷达扫描所述移动机器人的当前环境获取多个激光数据点。
所有的激光数据点位于同一个平面中,该平面为直角坐标平面,这样每一个激光数据点都有一个坐标。
在激光数据中的所有相邻的激光数据点之间均匀插入多个数据点。
为了获得近似达到0.1°分别率的激光雷达的精度,在相邻的激光数据点之间插入八个数据点作为激光数据点并入激光数据中。八个插入点均匀分布,即线性差值,以达到0.1°分别率的效果。
步骤S2,根据一聚类策略对激光数据中的激光数据点进行聚类获得多个分组,并获得每一分组的状态参数。
状态参数包括:分组中的激光数据点的个数、分组中的激光数据点的横坐标的平均值、分组中的激光数据点的横坐标的方差、分组中的激光数据点的横坐标的标准差以及分组的宽度。
分组的宽度为分组中的任意两点距离中的最大值。
如图2所示,在步骤S2中,聚类策略的具体步骤包括:
步骤S21,获得激光数据中的任意两个激光数据点之间的几何距离。
步骤S22,将几何距离小于预设的第二阈值的两个激光数据点并入同一个分组。第二阈值可以为10或15。
步骤S3,将每一分组的状态参数输入一检测模型,筛选出表征人体的腿部的分组及其置信度。
如图3所示,所述检测模型通过一独立过程获得,具体包括以下步骤:
步骤A1,预先准备多个训练用激光数据点,并将表征所述人体的所述训练用激光数据点作为正样本,其余所述训练用激光数据点作为负样本。
预先准备多个训练用激光数据点即通过激光雷达扫描移动机器人的当前环境获取训练用激光数据点,并将表征人体的训练用激光数据点作为正样本,其余训练用激光数据点作为负样本。
将激光雷达采集到的作为样本的训练用激光数据中的激光数据点划分为正样本和负样本,正样本表征的是人体,而负样本则不表征人体。
步骤A2,根据聚类策略对正样本和负样本分别进行分组,并获得每一分组的状态参数。
采用聚类策略对正样本和负样本进行聚类形成若干分组。
计算每一分组的状态参数,即分组中的激光数据点的个数、分组中的激光数据点的横坐标的平均值、分组中的激光数据点的横坐标的方差、分组中的激光数据点的横坐标的标准差以及分组的宽度。
步骤A3,根据正样本的每一分组的状态参数训练得到检测模型,并根据负样本中的分组校正检测模型。
根据每一分组的状态参数,进行模型训练,最终训练得到一检测模型。
在所述步骤A1中,在所有相邻的所述训练用激光数据点之间均匀插入多个数据点,以增加所述训练用激光数据点的数量。
通过线性插值的方法在获得训练用激光数据点之间插入八个数据点作为新增的训练用激光数据点。
将进行聚类分组后的每一分组的状态参数作为输入,输入检测模型后即可识别该分组是否表征人体的腿部。
采用随机森林算法来建立检测模型。检测模型中包括多个随机生成的决策树,每一决策树独立的对分组进行分类即判断是否表征人体的腿部。若判断为人体的腿部,则会相应的给出对该分组的识别结果的置信度。
步骤S4,筛选出置信度大于预设的第一阈值的分组作为备选分组,并获得每一备选分组的中心点。预设的第一阈值为85%或87%。
采用一最小的椭圆形来拟合每一备选分组的激光数据点,使得每一激光数据点都处于该椭圆形中。将拟合的椭圆形的中心处点作为备选分组的中心点,以供下一步骤使用。
步骤S5,根据任意两个备选分组的中心点的直线距离筛选出表征同一人体的双腿的两个备选分组。
激光雷达采集的激光数据点都扫描人体的腿部,表征人体的激光数据点其实直接表征了人体的腿部。
两个备选分组的中心点的直线距离小于预设的第四阈值,则该备选分组表征的是同一人体的双腿。第四阈值可以为40或45。
步骤S6,以表征同一人体的双腿的两个备选分组的中间位置作为所要跟随的目标人体的测量位置,移动机器人移动至测量位置,以实现跟随目标人体。
在步骤S6中,目标人体具有一唯一的ID序号。
在所述步骤S6中,若所述移动机器人之前未获得所述测量位置,则赋予所述目标人体新的所述ID序号;
若所述移动机器人之前获得过所述测量位置,则进行如下判断:
若当前的所述测量位置与之前获得的所述测量位置之间的距离大于预设的第三阈值,则赋予当前的所述目标人体新的所述ID序号;
若当前的所述测量位置与之前获得的所述测量位置之间的距离小于等于预设的第三阈值,则将与之前获得的所述测量位置对应的所述目标人体的ID序号赋予当前的所述目标人体。第三阈值可以为20或23。
每一ID序号预设有相对应的一卡尔曼滤波器,在步骤S6中,将目标人体的测量位置经过与目标人体的ID序号相对应的卡尔曼滤波器获得一校正位置,移动机器人移动至校正位置,以实现跟随目标人体。
本发明的移动机器人的人体跟随方法,与现有技术相比:
本发明能够在采用低分辨率的激光雷达时获得较高的识别准确率,能够准确的识别目标人体,并对目标人体的位置进行准确测量,从而进行及时跟随,采用高精度的检测模型,识别的效率。
以上所述仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。
Claims (8)
1.一种移动机器人的人体跟随方法,其特征在于,所述移动机器人设有一激光雷达,还包括以下步骤:
步骤S1,通过所述激光雷达扫描所述移动机器人的当前环境获取多个激光数据点;
步骤S2,根据一预设的聚类策略对所述激光数据点进行聚类获得多个分组,并获得每一所述分组的状态参数;
步骤S3,将每一所述分组的状态参数输入一预先训练形成的检测模型,筛选出表征人体的腿部的所述分组及其置信度;
步骤S4,筛选出所述置信度大于预设的第一阈值的所述分组作为备选分组,并获得每一所述备选分组的中心点;
步骤S5,根据任意两个所述备选分组的所述中心点的直线距离筛选出表征同一所述人体的双腿的两个所述备选分组;
步骤S6,以表征同一所述人体的双腿的两个所述备选分组之间的中间位置作为所要跟随的目标人体的测量位置,所述移动机器人移动至所述测量位置,以实现跟随所述目标人体。
2.根据权利要求1所述的移动机器人的人体跟随方法,其特征在于,所述检测模型通过一独立过程获得,具体包括以下步骤:
步骤A1,预先准备多个训练用激光数据点,并将表征所述人体的所述训练用激光数据点作为正样本,其余所述训练用激光数据点作为负样本;
步骤A2,根据所述聚类策略对所述正样本和所述负样本分别进行分组,并获得每一分组的所述状态参数;
步骤A3,根据所述正样本的每一所述分组的状态参数训练得到所述检测模型,并根据所述负样本中的所述分组校正所述检测模型。
3.根据权利要求1所述的移动机器人的人体跟随方法,其特征在于,在所述步骤S2中,所述聚类策略的具体步骤包括:
步骤S21,获得任意两个所述激光数据点之间的几何距离;
步骤S22,将所述几何距离小于预设的第二阈值的两个所述激光数据点并入同一个所述分组。
4.根据权利要求1所述的移动机器人的人体跟随方法,其特征在于,所述状态参数包括:所述分组中的所述激光数据点的个数、所述分组中的所述激光数据点的横坐标的平均值、所述分组中的所述激光数据点的横坐标的方差、所述分组中的所述激光数据点的横坐标的标准差以及所述分组的宽度。
5.根据权利要求2所述的移动机器人的人体跟随方法,其特征在于,在所述步骤A1中,在所有相邻的所述训练用激光数据点之间均匀插入多个数据点,以增加所述训练用激光数据点的数量。
6.根据权利要求1所述的移动机器人的人体跟随方法,其特征在于,在所述步骤S6中,所述目标人体具有一唯一的ID序号。
7.根据权利要求6所述的移动机器人的人体跟随方法,其特征在于,在所述步骤S6中,
若所述移动机器人之前未获得所述测量位置,则赋予所述目标人体新的所述ID序号;
若所述移动机器人之前获得过所述测量位置,则进行以下判断:
若当前的所述测量位置与之前获得的所述测量位置之间的距离大于预设的第三阈值,则赋予当前的所述目标人体新的所述ID序号;
若当前的所述测量位置与之前获得的所述测量位置之间的距离小于等于所述第三阈值,则将与之前获得的所述测量位置对应的所述目标人体的ID序号赋予当前的所述目标人体。
8.根据权利要求6所述的移动机器人的人体跟随方法,其特征在于,每一所述ID序号预设有相对应的一卡尔曼滤波器,在所述步骤S6中,将所述目标人体的所述测量位置经过与所述目标人体的所述ID序号相对应的所述卡尔曼滤波器获得一校正位置,所述移动机器人移动至所述校正位置,以实现跟随所述目标人体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2018101352716 | 2018-02-09 | ||
CN201810135271 | 2018-02-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108345004A true CN108345004A (zh) | 2018-07-31 |
Family
ID=62955631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810658283.7A Pending CN108345004A (zh) | 2018-02-09 | 2018-06-25 | 一种移动机器人的人体跟随方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108345004A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109241999A (zh) * | 2018-08-07 | 2019-01-18 | 北京云迹科技有限公司 | 机器人、用于机器人的物体识别装置及物体识别方法 |
CN109297496A (zh) * | 2018-09-29 | 2019-02-01 | 上海新世纪机器人有限公司 | 基于slam的机器人定位方法及装置 |
CN109711374A (zh) * | 2018-12-29 | 2019-05-03 | 深圳美图创新科技有限公司 | 人体骨骼点识别方法及装置 |
CN109822563A (zh) * | 2018-12-08 | 2019-05-31 | 浙江国自机器人技术有限公司 | 用于idc机器人的任务跟随方法 |
CN110303503A (zh) * | 2019-07-30 | 2019-10-08 | 苏州博众机器人有限公司 | 基于售货机器人的控制方法、装置、机器人和存储介质 |
CN110609561A (zh) * | 2019-11-18 | 2019-12-24 | 深圳市优必选科技股份有限公司 | 一种行人跟踪方法、装置、计算机可读存储介质及机器人 |
CN113126600A (zh) * | 2019-12-26 | 2021-07-16 | 沈阳新松机器人自动化股份有限公司 | 基于uwb的跟随系统及物品运送车 |
CN113671940A (zh) * | 2020-05-14 | 2021-11-19 | 东元电机股份有限公司 | 跟随移动平台及其方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009110185A (ja) * | 2007-10-29 | 2009-05-21 | East Japan Railway Co | 通行人行動解析装置及び通行人行動解析方法並びにそのプログラム |
CN102253391A (zh) * | 2011-04-19 | 2011-11-23 | 浙江大学 | 一种基于多激光雷达的行人目标跟踪方法 |
CN104268598A (zh) * | 2014-09-26 | 2015-01-07 | 东南大学 | 一种基于二维扫描激光的人腿检测方法 |
CN107272680A (zh) * | 2017-06-16 | 2017-10-20 | 华南理工大学 | 一种基于ros机器人操作系统的机器人自动跟随方法 |
CN107544506A (zh) * | 2017-09-27 | 2018-01-05 | 上海有个机器人有限公司 | 机器人跟随方法、机器人以及存储介质 |
-
2018
- 2018-06-25 CN CN201810658283.7A patent/CN108345004A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009110185A (ja) * | 2007-10-29 | 2009-05-21 | East Japan Railway Co | 通行人行動解析装置及び通行人行動解析方法並びにそのプログラム |
CN102253391A (zh) * | 2011-04-19 | 2011-11-23 | 浙江大学 | 一种基于多激光雷达的行人目标跟踪方法 |
CN104268598A (zh) * | 2014-09-26 | 2015-01-07 | 东南大学 | 一种基于二维扫描激光的人腿检测方法 |
CN107272680A (zh) * | 2017-06-16 | 2017-10-20 | 华南理工大学 | 一种基于ros机器人操作系统的机器人自动跟随方法 |
CN107544506A (zh) * | 2017-09-27 | 2018-01-05 | 上海有个机器人有限公司 | 机器人跟随方法、机器人以及存储介质 |
Non-Patent Citations (2)
Title |
---|
李鹏飞: "面向服务机器人的行人检测与跟踪", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
赵卉菁等: "基于垂直激光扫描的客流量检测系统与算法", 《第五届中国智能交通年会暨第六届国际节能与新能源汽车创新发展论坛优秀论文集(上册)》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109241999A (zh) * | 2018-08-07 | 2019-01-18 | 北京云迹科技有限公司 | 机器人、用于机器人的物体识别装置及物体识别方法 |
CN109297496A (zh) * | 2018-09-29 | 2019-02-01 | 上海新世纪机器人有限公司 | 基于slam的机器人定位方法及装置 |
CN109822563A (zh) * | 2018-12-08 | 2019-05-31 | 浙江国自机器人技术有限公司 | 用于idc机器人的任务跟随方法 |
CN109711374A (zh) * | 2018-12-29 | 2019-05-03 | 深圳美图创新科技有限公司 | 人体骨骼点识别方法及装置 |
CN109711374B (zh) * | 2018-12-29 | 2021-06-04 | 深圳美图创新科技有限公司 | 人体骨骼点识别方法及装置 |
CN110303503A (zh) * | 2019-07-30 | 2019-10-08 | 苏州博众机器人有限公司 | 基于售货机器人的控制方法、装置、机器人和存储介质 |
CN110609561A (zh) * | 2019-11-18 | 2019-12-24 | 深圳市优必选科技股份有限公司 | 一种行人跟踪方法、装置、计算机可读存储介质及机器人 |
CN113126600A (zh) * | 2019-12-26 | 2021-07-16 | 沈阳新松机器人自动化股份有限公司 | 基于uwb的跟随系统及物品运送车 |
CN113671940A (zh) * | 2020-05-14 | 2021-11-19 | 东元电机股份有限公司 | 跟随移动平台及其方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108345004A (zh) | 一种移动机器人的人体跟随方法 | |
CN104143194B (zh) | 一种点云分割方法及装置 | |
CN106647742B (zh) | 移动路径规划方法及装置 | |
CN106340044B (zh) | 摄像机外参自动标定方法及标定装置 | |
CN104315978B (zh) | 一种管路端面中心点的测量方法及装置 | |
KR101263752B1 (ko) | 식물 생장 모니터링 시스템 및 그를 이용한 식물 생장 모니터링 방법 | |
CN100461058C (zh) | 在复杂环境下智能机器人自主定位的方法 | |
CN110147095A (zh) | 基于路标信息与多传感器数据融合的机器人重定位方法 | |
CN104657968B (zh) | 车载三维激光点云立面分类及轮廓线提取自动化方法 | |
CN104751146B (zh) | 一种基于3d点云图像的室内人体检测方法 | |
CN106529469A (zh) | 基于自适应坡度的无人机载LiDAR点云滤波方法 | |
CN110232389A (zh) | 一种基于绿色作物特征提取不变性的立体视觉导航方法 | |
CN108320333A (zh) | 场景适应型虚拟现实转换设备和虚拟现实的场景适应方法 | |
CN105631852B (zh) | 基于深度图像等高线的室内人体检测方法 | |
CN109000655B (zh) | 机器人仿生室内定位导航方法 | |
CN109470238A (zh) | 一种定位方法、装置和移动终端 | |
CN107016697A (zh) | 一种高度测量方法及装置 | |
CN106650697A (zh) | 一种仪表刻度识别方法 | |
CN108398947A (zh) | 一种充电座识别方法 | |
CN105913013A (zh) | 双目视觉人脸识别算法 | |
CN108307301A (zh) | 基于rssi测距和轨迹相似性的室内定位方法 | |
CN107729853A (zh) | 一种适用于变电站窄刻度指针式仪表的自动识别方法 | |
CN110298853A (zh) | 面差视觉检测方法 | |
CN109359537A (zh) | 基于神经网络的人脸姿态角度检测方法及系统 | |
CN107766836A (zh) | 一种圆形偏转指针式仪表读数矫正方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180731 |