CN109344854A - 机器人、用于机器人的物体识别装置及物体识别方法 - Google Patents
机器人、用于机器人的物体识别装置及物体识别方法 Download PDFInfo
- Publication number
- CN109344854A CN109344854A CN201810907292.5A CN201810907292A CN109344854A CN 109344854 A CN109344854 A CN 109344854A CN 201810907292 A CN201810907292 A CN 201810907292A CN 109344854 A CN109344854 A CN 109344854A
- Authority
- CN
- China
- Prior art keywords
- robot
- point
- coordinate
- classification results
- object identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
Abstract
本申请公开了一种机器人、用于机器人的物体识别装置及物体识别方法。该用于机器人的物体识别方法,其特征在于,在机器人上至少包括:光学感应装置,所述方法包括:获取光学感应装置采集的点坐标数据;获得所述点坐标数据中的坐标分类结果;获取所述坐标分类结果的几何特征值;通过分类器预测所述几何特征值的置信度;根据置信度预测结果识别出在所述机器人附近位置处的物体。本申请解决了激光扫描设备识别准确性较差的问题的技术问题。
Description
技术领域
本申请涉及物体识别领域,具体而言,涉及一种机器人、用于机器人的物体识别装置及物体识别方法。
背景技术
相关技术中基于激光扫描设备实现预设物体识别的在实际使用中均存在一定的问题。
相关技术中对激光扫描设备采集的数据采用DBSCAN(Density-based SpatialClustering of Applications with Noise)算法进行分类,并通过对每个分类的宽度和距离来判别是否为行人簇,但该方案存在一定误识别率和漏识别率;此外,相关技术中对激光扫描设备采集的数据采用人腿类圆弧状特征识别算法对人腿进行识别,该方案在空旷的情况下识别效果较好,但不适用于类似办公室等复杂环境下的识别。
针对相关技术中激光扫描设备识别准确性较差的问题,目前尚未提出有效的解决方案。
发明内容
本申请的主要目的在于提供一种机器人、用于机器人的物体识别装置及物体识别方法,以解决激光扫描设备识别准确性较差且不适于在复杂环境下工作的问题。
为了实现上述目的,根据本申请的一个方面,提供了一种用于机器人的物体识别方法。
根据本申请的用于机器人的物体识别方法包括:获取光学感应装置采集的点坐标数据;获得所述点坐标数据中的坐标分类结果;获取所述坐标分类结果的几何特征值;通过分类器预测所述几何特征值的置信度;根据置信度预测结果识别出在所述机器人附近位置处的物体。
进一步的,获取所述点坐标数据中每个点与光学感应装置之间的距离数据;获取所述每个点所对应的光学感应装置的角度值;根据所述角度值与所述距离数据计算各点的点坐标数据。
进一步的,计算所述点坐标数据中相邻两点间的点间距;判断所述点间距是否小于预设点间距阈值;如果判断所述点间距小于所述预设点间距阈值,则将所述相邻点两点聚为一类。
进一步的,计算所述坐标分类结果内各点间距离的总长度;判断所述总长度是否小于预设总长度阈值;如果所述总长度小于所述所述预设总长度阈值,则删除所述坐标分类结果。
进一步的,计算所述坐标分类结果的弯曲程度;判断所述弯曲程度是否小于预设弯曲程度阈值;如果判断所述弯曲程度小于所述预设弯曲程度阈值,则删除所述坐标分类结果。
进一步的,计算所述坐标分类结果内各点的总长度;计算所述坐标分类结果内首尾点的直线距离;根据所述总长度和所述直线距离计算所述弯曲程度。
进一步的,将所述特征值转换为矩阵;将所述矩阵输入所述随机森林分类器;获得所述特征值的置信度。
进一步的,判断所述置信度是否大于所述预设置信度阈值;如果所述置信度大于所述预设置信度阈值,则识别所述物体为预设物体。
为了实现上述目的,根据本申请的另一方面,提供了一种用于机器人的物体识别装置。
根据本申请的用于机器人的物体识别装置包括:点坐标获取模块,用于获取光学感应装置采集的点坐标数据;分类模块,用于获得所述点坐标数据中的坐标分类结果;几何值获取模块,用于获取所述坐标分类结果的几何特征值;预测模块,用于通过分类器预测所述几何特征值的置信度;识别模块,用于根据置信度预测结果识别出所述机器人附近位置处的物体。
为了实现上述目的,根据本申请的再一方面,提供了一种机器人。
根据本申请的机器人包括用于机器人的物体识别装置。
在本申请实施例中,采用光学感应装置采集的点坐标数据的方式,通过对点坐标数据进行分类、提取特征值以及对特征值进行分类器预测,并判断置信度的方式,达到了识别出在所述机器人附近位置处的物体目的,从而实现了准确识别出机器人周围物体的技术效果,进而解决了激光扫描设备识别准确性较差的技术问题。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例1用于机器人的物体识别方法示意图;
图2是根据本申请实施例2用于机器人的物体识别方法示意图;
图3是根据本申请实施例3用于机器人的物体识别方法示意图;
图4是根据本申请实施例4用于机器人的物体识别方法示意图;
图5是根据本申请实施例5用于机器人的物体识别方法示意图;
图6是根据本申请实施例6用于机器人的物体识别方法示意图;
图7是根据本申请实施例7用于机器人的物体识别方法示意图;
图8是根据本申请实施例8用于机器人的物体识别方法示意图;
图9是根据本申请实施例9用于机器人的物体识别装置示意图;
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本申请中,术语“上”、“下”、“左”、“右”、“前”、“后”、“顶”、“底”、“内”、“外”、“中”、“竖直”、“水平”、“横向”、“纵向”等指示的方位或位置关系为基于附图所示的方位或位置关系。这些术语主要是为了更好地描述本申请及其实施例,并非用于限定所指示的装置、元件或组成部分必须具有特定方位,或以特定方位进行构造和操作。
并且,上述部分术语除了可以用于表示方位或位置关系以外,还可能用于表示其他含义,例如术语“上”在某些情况下也可能用于表示某种依附关系或连接关系。对于本领域普通技术人员而言,可以根据具体情况理解这些术语在本申请中的具体含义。
此外,术语“安装”、“设置”、“设有”、“连接”、“相连”、“套接”应做广义理解。例如,可以是固定连接,可拆卸连接,或整体式构造;可以是机械连接,或电连接;可以是直接相连,或者是通过中间媒介间接相连,又或者是两个装置、元件或组成部分之间内部的连通。对于本领域普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
如图1所示,本申请涉及一种用于机器人的物体识别方法,该用于机器人的物体识别方法在机器人上至少包括:光学感应装置,所述方法包括步骤S101至步骤S105:
S101获取光学感应装置采集的点坐标数据;
S102获得所述点坐标数据中的坐标分类结果;
S103获取所述坐标分类结果的几何特征值;
S104通过分类器预测所述几何特征值的置信度;
S105根据置信度预测结果识别出在所述机器人附近位置处的物体。
在本实施例中,采用光学感应装置采集的点坐标数据的方式,通过对点坐标数据进行分类、提取特征值以及对特征值进行分类器预测,并判断置信度的方式,达到了识别出在所述机器人附近位置处的物体目的,从而实现了准确识别出机器人周围物体的技术效果,进而解决了激光扫描设备识别准确性较差的技术问题。
根据本申请实施例,提供了一种用于机器人的的物体识别方法,在机器人上至少包括:光学感应装置,如图1所示,该方法包括步骤S101至步骤S105:
S101获取光学感应装置采集的点坐标数据;光学传感器可以是安装在机器人上的激光传感器,通过接收激光传感器发射的激光在物体上的反射信号,经过数据处理即可获得点坐标数据。需要说明的是,激光传感器的感应区域为扇形感应区域。
S102获得所述点坐标数据中的坐标分类结果;本步骤中可以采用分类算法对点坐标进行分类处理,将具有同一特征的点坐标划为一组,特征可以为相邻点的间距,相邻三点的弧度值等。本步骤通过对点坐标数据进行分类处理作为腿部识别的预处理,可以为后续分类器预测降低处理负担,节省处理时间。
S103获取所述坐标分类结果的几何特征值;本步骤所提取的特征值用于输入分类器以获得预测结果,因此本步骤中的特征值可以为与腿部相关联的数据,如分类结果中个点坐标的相邻点的点间距、首尾点的直线距离、所有点的弧度值和所有点的总长度等。
S104通过分类器预测所述几何特征值的置信度;本步骤中的分类器可以为随机森林分类器,将与腿部相关的几何特征值输入该随机森林分类器即可获得该数据为腿部的置信度。需要说明的是,本步骤中的随机森林分类器需要提前进行腿部特征值的训练。
S105根据置信度预测结果识别出在所述机器人附近位置处的物体。在本步骤中,可以设定置信度阈值,通过置信度与预测阈值之间的大小关系以识别激光传感器获取的点坐标数据是否为腿部。
如图2所示,步骤S101获取光学感应装置采集的点坐标数据包括:
S201获取所述点坐标数据中每个点与光学感应装置之间的距离数据;本步骤获取激光传感器发射的激光在物体上的反射信号,以获得该点与激光传感器之间的直线距离。
S202获取所述每个点所对应的光学感应装置的角度值;本步骤中将激光传感器发射激光时的角度值与该点相匹配。
S203根据所述角度值与所述距离数据计算各点的点坐标数据。本步骤中通过激光传感器与该点之间的角度值和激光传感器与该点之间的直线距离,通过勾股定理计算该点与激光传感器之间的横向直线距离与纵向直线距离,分别作为横坐标与纵坐标记录进点坐标数据。
如图3所示,步骤S103获得所述点坐标数据中的坐标分类结果包括:
S301计算所述点坐标数据中相邻两点间的点间距;本步骤中,计算相邻两点间的直线间距。
S302判断所述点间距是否小于预设点间距阈值;本步骤中,通过预设点间距阈值,以用于区分点与点之间的种类。本步骤中采用0.13米作为点间距的阈值,可以在大体上将属于同一个物体的点坐标数据归为一类。
S303如果判断所述点间距小于所述预设点间距阈值,则将所述相邻点两点聚为一类。在本步骤中,将点间距小于预设点间距阈值的点归为一类,同时将点间距大于预设点间距阈值删除,本步骤用于对点坐标数据进行分类同时也将一些噪点数据进行删减,减轻后续分类器处理的负担,减少处理时间。
如图4所示,S104获取所述坐标分类结果的几何特征值前还包括:
S401计算所述坐标分类结果内各点间距离的总长度;本步骤中,计算所有点之间的直线距离作为总长度。
S402判断所述总长度是否小于预设总长度阈值;本步骤中,通过设定总长度阈值,以用于删除噪点分类数据,即大于该总长度阈值的分类数据为噪点分类数据。
S403如果所述总长度小于所述所述预设总长度阈值,则删除所述坐标分类结果。本步骤中通过删除噪点分类数据,为后续分类器预测降低数据处理量,提高处理效率。
如图5所示,S104获取所述坐标分类结果的几何特征值前还包括:
S501计算所述坐标分类结果的弯曲程度;本步骤中的弯曲程度为分类结果中各点所组成的点阵的弧度。
S502判断所述弯曲程度是否小于预设弯曲程度阈值;本步骤中,通过设定弯曲程度阈值,以用于删除噪点分类数据,即大于该弯曲程度阈值的分类数据为噪点分类数据。
S503如果判断所述弯曲程度小于所述预设弯曲程度阈值,则删除所述坐标分类结果。本步骤中通过删除噪点分类数据,为后续分类器预测降低数据处理量,提高处理效率。
如图6所示,S501计算所述坐标分类结果的弯曲程度中弯曲程度的计算方法为:
S601计算所述坐标分类结果内各点的总长度;本步骤中,计算所有点之间的直线距离作为总长度。
S602计算所述坐标分类结果内首尾点的直线距离;本步骤中,由于激光传感器的激光是依次发射的,因此通过每个点的时间顺序即可确定首位点,并计算首尾点之间的距离。
S603根据所述总长度和所述直线距离计算所述弯曲程度。本步骤中,将总长度除以首尾点的直线距离即可获得弯曲程度。
如图7所示,S104通过分类器预测所述几何特征值的置信度包括:
S701将所述特征值转换为矩阵;本步骤中,将特征值,如点的数量、点间距、弯曲程度、首尾点间距离等数据通过数据转换为矩阵。
S702将所述矩阵输入所述随机森林分类器;本步骤中的随机森林分类器已经进行过腿部训练的随机森林分类器。
S703获得所述特征值的置信度。本步骤中通过随机森林分类器预测各分组结果的特征值的置信度。
如图8所示,S105根据置信度预测结果识别出所述机器人附近位置处的物体包括:
S801判断所述置信度是否大于所述预设置信度阈值;由于随机森林分类器所获得的是置信度,因此通过预设置信度阈值,比较置信度与预设置信度阈值的大小以确定该物体是否为预设物体。
S802如果所述置信度大于所述预设置信度阈值,则识别所述物体为预设物体。本步骤中,如果置信度大于所述预设置信度阈值,则判断该物体为预设物体。
如图9所示,本申请涉及一种用于机器人的物体识别装置,该机器人上至少包括:光学感应装置,所述装置包括:
A点坐标获取模块,用于获取光学感应装置采集的点坐标数据;
B分类模块,用于获得所述点坐标数据中的坐标分类结果;
C几何值获取模块,用于获取所述坐标分类结果的几何特征值;
D预测模块,用于通过分类器预测所述几何特征值的置信度;
E识别模块,用于根据置信度预测结果识别出所述机器人附近位置处的物体。
本申请涉及一种用于机器人,该机器人包括用于机器人的物体识别装置。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种用于机器人的物体识别方法,其特征在于,在机器人上至少包括:光学感应装置,所述方法包括:
获取光学感应装置采集的点坐标数据;
获得所述点坐标数据中的坐标分类结果;
获取所述坐标分类结果的几何特征值;
通过分类器预测所述几何特征值的置信度;
根据置信度预测结果识别出在所述机器人附近位置处的物体。
2.根据权利要求1所述的用于机器人的物体识别方法,其特征在于,所述获取光学感应装置采集的点坐标数据包括:
获取所述点坐标数据中每个点与光学感应装置之间的距离数据;
获取所述每个点所对应的光学感应装置的角度值;
根据所述角度值与所述距离数据计算各点的点坐标数据。
3.根据权利要求1所述的用于机器人的物体识别方法,其特征在于,所述获得所述点坐标数据中的坐标分类结果包括:
计算所述点坐标数据中相邻两点间的点间距;
判断所述点间距是否小于预设点间距阈值;
如果判断所述点间距小于所述预设点间距阈值,则将所述相邻点两点聚为一类。
4.根据权利要求1所述的用于机器人的物体识别方法,其特征在于,所述获取所述坐标分类结果的几何特征值前还包括:
计算所述坐标分类结果内各点间距离的总长度;
判断所述总长度是否小于预设总长度阈值;
如果所述总长度小于所述所述预设总长度阈值,则删除所述坐标分类结果。
5.根据权利要求1所述的用于机器人的物体识别方法,其特征在于,所述获取所述坐标分类结果的几何特征值前还包括:
计算所述坐标分类结果的弯曲程度;
判断所述弯曲程度是否小于预设弯曲程度阈值;
如果判断所述弯曲程度小于所述预设弯曲程度阈值,则删除所述坐标分类结果。
6.根据权利要求5所述的用于机器人的物体识别方法,其特征在于,所述弯曲程度的计算方法为:
计算所述坐标分类结果内各点的总长度;
计算所述坐标分类结果内首尾点的直线距离;
根据所述总长度和所述直线距离计算所述弯曲程度。
7.根据权利要求1所述的用于机器人的物体识别方法,其特征在于,所述通过分类器预测所述几何特征值的置信度包括:
将所述特征值转换为矩阵;
将所述矩阵输入所述随机森林分类器;
获得所述特征值的置信度。
8.根据权利要求1所述的用于机器人的物体识别方法,其特征在于,所述根据置信度预测结果识别出所述机器人附近位置处的物体包括:
判断所述置信度是否大于所述预设置信度阈值;
如果所述置信度大于所述预设置信度阈值,则识别所述物体为预设物体。
9.一种用于机器人的物体识别装置,其特征在于,在机器人上至少包括:光学感应装置,所述装置包括:
点坐标获取模块,用于获取光学感应装置采集的点坐标数据;
分类模块,用于获得所述点坐标数据中的坐标分类结果;
几何值获取模块,用于获取所述坐标分类结果的几何特征值;
预测模块,用于通过分类器预测所述几何特征值的置信度;
识别模块,用于根据置信度预测结果识别出所述机器人附近位置处的物体。
10.一种机器人,其特征在于,包括:如权利要求9所述的物体识别装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810907292.5A CN109344854A (zh) | 2018-08-07 | 2018-08-07 | 机器人、用于机器人的物体识别装置及物体识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810907292.5A CN109344854A (zh) | 2018-08-07 | 2018-08-07 | 机器人、用于机器人的物体识别装置及物体识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109344854A true CN109344854A (zh) | 2019-02-15 |
Family
ID=65291419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810907292.5A Withdrawn CN109344854A (zh) | 2018-08-07 | 2018-08-07 | 机器人、用于机器人的物体识别装置及物体识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109344854A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110009054A (zh) * | 2019-04-12 | 2019-07-12 | 南京大学 | 一种利用几何与强度特征的分层次机载LiDAR点云分类方法 |
-
2018
- 2018-08-07 CN CN201810907292.5A patent/CN109344854A/zh not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110009054A (zh) * | 2019-04-12 | 2019-07-12 | 南京大学 | 一种利用几何与强度特征的分层次机载LiDAR点云分类方法 |
CN110009054B (zh) * | 2019-04-12 | 2021-01-29 | 南京大学 | 一种利用几何与强度特征的分层次机载LiDAR点云分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
González et al. | Automatic traffic signs and panels inspection system using computer vision | |
CN109241999A (zh) | 机器人、用于机器人的物体识别装置及物体识别方法 | |
CN108256446A (zh) | 用于确定道路中的车道线的方法、装置和设备 | |
CN108226917B (zh) | 基于雷达的高精密突发情况检测系统 | |
CN106097755A (zh) | 用于识别泊车场地和/或空出场地的方法 | |
CN106919957B (zh) | 处理数据的方法及装置 | |
US20120128204A1 (en) | Information processing apparatus, information processing method, and program | |
CN109977776A (zh) | 一种车道线检测方法、装置及车载设备 | |
CN109241138A (zh) | 一种移动轨迹构建方法及装置 | |
CN108229406A (zh) | 一种车道线检测方法、装置及终端 | |
CN106918341A (zh) | 用于构建地图的方法和设备 | |
CN112561859B (zh) | 基于单目视觉的锚护用钢带钻孔与锚网识别方法及装置 | |
CN106846297A (zh) | 基于激光雷达的行人流量检测系统及方法 | |
CN113110462A (zh) | 障碍物信息的处理方法及装置、作业设备 | |
CN114547866A (zh) | 基于bim-无人机-机械狗的预制构件智能检测方法 | |
CN109344854A (zh) | 机器人、用于机器人的物体识别装置及物体识别方法 | |
CN111947669A (zh) | 用于将基于特征的定位地图用于车辆的方法 | |
CN111275087A (zh) | 数据处理方法、装置、电子设备和机动车 | |
KR101878427B1 (ko) | 교통 레이더 장치, 교통 관리 서버, 교통 관리 시스템 및 레이더 기반 물체 이동 자취 트래킹 방법 | |
CN112528846A (zh) | 障碍物检测的测评方法、装置、设备以及存储介质 | |
CN108460359A (zh) | 用于证件业务办理的数据处理方法及装置 | |
EP0556476A1 (en) | Method for detecting the location of human beings in three-dimensions | |
CN107087024A (zh) | 基于云计算的楼房变形监测方法及系统、云终端 | |
CN112749727A (zh) | 本地服务器、影像辨识系统及其更新方法 | |
CN116086429A (zh) | 地图更新方法、装置、设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20190215 |