CN114310887A - 3d人腿识别方法、装置、计算机设备及存储介质 - Google Patents

3d人腿识别方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN114310887A
CN114310887A CN202111624524.4A CN202111624524A CN114310887A CN 114310887 A CN114310887 A CN 114310887A CN 202111624524 A CN202111624524 A CN 202111624524A CN 114310887 A CN114310887 A CN 114310887A
Authority
CN
China
Prior art keywords
point cloud
human leg
cloud data
data
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111624524.4A
Other languages
English (en)
Inventor
迟大鹏
施健
贾林
涂静一
王一科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Zhongzhi Yonghao Robot Co ltd
Original Assignee
Shenzhen Zhongzhi Yonghao Robot Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Zhongzhi Yonghao Robot Co ltd filed Critical Shenzhen Zhongzhi Yonghao Robot Co ltd
Priority to CN202111624524.4A priority Critical patent/CN114310887A/zh
Publication of CN114310887A publication Critical patent/CN114310887A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明实施例公开了3D人腿识别方法、装置、计算机设备及存储介质。所述方法包括:获取深度相机拍摄的机器人周围的图像,以得到3D点云数据;对所述3D点云数据进行处理,以得到处理结果;将所述处理结果输入至人腿点云分类器内进行分类,以得到人腿3D点云数据;对所述人腿3D点云数据进行处理,以得到点云簇特征以及特征描述子;使用最近邻算法进行特征描述子的匹配,以得到匹配结果;将所述匹配结果转换为2D伪激光雷达数据;确定2D伪激光雷达数据的坐标信息,以得到人体的位置信息;发送所述位置信息,以驱动机器人避开人体。通过实施本发明实施例的方法可现提高人腿识别的准确率。

Description

3D人腿识别方法、装置、计算机设备及存储介质
技术领域
本发明涉及人腿识别方法,更具体地说是指3D人腿识别方法、装置、计算机设备及存储介质。
背景技术
AI在不断的发展,机器人也越来越多的活跃在各种和人类密切相关的场景之中,例如送餐机器人、医疗机器人、配送机器人等等,机器人和人类的交互也变得越来越多。
为了让机器人和人类交互顺利的进行,需要让机器人可以精准的感知到人类的存在,并且得到准确的位置。目前绝大多数机器人使用的是2d激光雷达,通过获得平面上的激光雷达点云数据进行人腿识别,但是这种方法受限于2d激光雷达点云数据信息不足的缺陷,从而使人腿识别的误识率和漏识率远高于其它方法。在实际使用的场景中,机器人往往会把柱子、桌子腿等和人腿近似的物体识别成人腿,造成算法场景失效的情况,这种情况会让机器人和人类的交互变得困难,也阻碍机器人技术进一步的发展。
因此,有必要设计一种新的方法,实现提高人腿识别的准确率。
发明内容
本发明的目的在于克服现有技术的缺陷,提供3D人腿识别方法、装置、计算机设备及存储介质。
为实现上述目的,本发明采用以下技术方案:3D人腿识别方法,包括:
获取深度相机拍摄的机器人周围的图像,以得到3D点云数据;
对所述3D点云数据进行处理,以得到处理结果;
将所述处理结果输入至人腿点云分类器内进行分类,以得到人腿3D点云数据;
对所述人腿3D点云数据进行处理,以得到点云簇特征以及特征描述子;
使用最近邻算法进行特征描述子的匹配,以得到匹配结果;
将所述匹配结果转换为2D伪激光雷达数据;
确定2D伪激光雷达数据的坐标信息,以得到人体的位置信息;
发送所述位置信息,以驱动机器人避开人体。
其进一步技术方案为:所述对所述3D点云数据进行处理,以得到处理结果,包括:
对所述3D点云数据进行降噪、滤波、法向量计算、离群点移除以及点云三角化处理,以得到处理结果。
其进一步技术方案为:所述人腿点云分类器是通过若干个带有人腿3D点云数据标签的预处理后的3D点云数据作为样本集训练PointNet模型所得的;其中,所述PointNet模型包括两个空间变换网络、两个多层感知机以及一个最大池化层。
其进一步技术方案为:所述对所述人腿3D点云数据进行处理,以得到点云簇特征以及特征描述子,包括:
计算所述人腿3D点云数据中点与点之间的欧式距离,以得到第一欧式距离;
通过RANSAC算法结合预先设置的阈值和参数根据所述人腿3D点云数据拟合直线和平面;
确定所述人腿3D点云数据中的点到所述直线和平面的欧式距离,以得到第二欧式距离;
根据所述第一欧式距离以及第二欧式距离将所述人腿3D点云数据分解成离散的点云簇;
遍历所述点云簇,提取点云簇特征和特征描述子。
其进一步技术方案为:所述使用最近邻算法进行特征描述子的匹配,以得到匹配结果,包括:
遍历所述点云簇,且根据所述特征描述子确定所述点云簇对应的特征描述子,使用最近邻算法对所述点云簇对应的特征描述子进行匹配,以得到计算结果;
筛选出所述计算结果中属于预设阈值内的点云簇,以确定同一个人的点云簇,以得到匹配结果。
其进一步技术方案为:所述将所述匹配结果转换为2D伪激光雷达数据,包括:
对所述匹配结果中的每个点进行坐标系转换,以得到转换后的坐标;
根据转换后的坐标结合预设的2D激光雷达扫描角速度确定2D伪激光雷达数据。
本发明还提供了3D人腿识别装置,包括:
图像获取单元,用于获取深度相机拍摄的机器人周围的图像,以得到3D点云数据;
处理单元,用于获对所述3D点云数据进行处理,以得到处理结果;
分类单元,用于获将所述处理结果输入至人腿点云分类器内进行分类,以得到人腿3D点云数据;
特征提取单元,用于获对所述人腿3D点云数据进行处理,以得到点云簇特征以及特征描述子;
匹配单元,用于获使用最近邻算法进行特征描述子的匹配,以得到匹配结果;
转换单元,用于获将所述匹配结果转换为2D伪激光雷达数据;
坐标确定单元,用于获确定2D伪激光雷达数据的坐标信息,以得到人体的位置信息;
发送单元,用于获发送所述位置信息,以驱动机器人避开人体。
其进一步技术方案为:所述处理单元,用于对所述3D点云数据进行降噪、滤波、法向量计算、离群点移除以及点云三角化处理,以得到处理结果。
本发明还提供了一种计算机设备,所述计算机设备包括存储器及处理器,所述存储器上存储有计算机程序,所述处理器执行所述计算机程序时实现上述的方法。
本发明还提供了一种存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述的方法。
本发明与现有技术相比的有益效果是:本发明通过获取3D点云数据,在进行预处理后,输入至人腿点云分类器内进行分类,由此确定人腿3D点云数据,并根据人腿3D点云数据进行特征描述子进行匹配,确定属于同一人腿的数据,并转换为2D伪激光雷达数据,以供机器人避开人体,采用信息较多的3D点云数据,实现提高人腿识别的准确率。
下面结合附图和具体实施例对本发明作进一步描述。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的3D人腿识别方法的应用场景示意图;
图2为本发明实施例提供的3D人腿识别方法的流程示意图;
图3为本发明实施例提供的3D人腿识别方法的子流程示意图;
图4为本发明实施例提供的3D人腿识别方法的子流程示意图;
图5为本发明实施例提供的3D人腿识别方法的子流程示意图;
图6为本发明实施例提供的PointNet模型的示意图;
图7为本发明实施例提供的3D人腿识别装置的示意性框图;
图8为本发明实施例提供的3D人腿识别装置的特征提取单元的示意性框图;
图9为本发明实施例提供的3D人腿识别装置的匹配单元的示意性框图;
图10为本发明实施例提供的3D人腿识别装置的转换单元的示意性框图;
图11为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1和图2,图1为本发明实施例提供的3D人腿识别方法的应用场景示意图。图2为本发明实施例提供的3D人腿识别方法的示意性流程图。该3D人腿识别方法应用于服务器中。该服务器与深度相机以及机器人进行数据交互,服务器可以作为机器人的控制器,也可以单独设置,与机器人的控制器进行数据交互,根据深度相机拍摄所得的3D点云数据,采用模型进行分类后得到属于人腿的点云簇,并确定特征和特征描述子,采用最近邻算法确定属于同一人的人腿点云,并将其转换为2D伪激光雷达数据,由此确定人体位置信息,以驱动机器人避开人体所在的位置行驶。
图2是本发明实施例提供的3D人腿识别方法的流程示意图。如图2所示,该方法包括以下步骤S110至S180。
S110、获取深度相机拍摄的机器人周围的图像,以得到3D点云数据。
在本实施例中,3D点云数据是指通过深度相机拍摄的机器人所在位置的周围环境的图像,图像内的每个像素点作为3D点云。
从深度相机获取的3D点云数据,这种3D点云云数据比2D激光雷达点云数据具有更多的特征,基于更多的特征可以做到更加准确的识别人腿,降低误识率和漏识率,使机器人可以精准的识别人类的位置进行交互。并且3D点云数据所蕴含的特征,在未来还可以用于更多的领域,例如机器人对危险区域的识别,机器人对人类险情的识别等等,为机器人和人类的便利交互打下基础。
S120、对所述3D点云数据进行处理,以得到处理结果。
在本实施例中,处理结果是指3D点云数据经过降噪、滤波、法向量计算、离群点移除以及点云三角化处理后得到的结果。
具体地,对所述3D点云数据进行降噪、滤波、法向量计算、离群点移除以及点云三角化处理,以得到处理结果。
3D点云数据的获取及预处理是将深度相机获取的点云预先用一些算法进行处理,例如滤波、下采样等算法,便于接下来的PointNet模型训练和识别。
不管是在模型的训练还是模型实际运用过程中,都会使用深度相机收集机器人可能进行活动的工作环境的3D点云数据,然后进行数据的预处理。数据的预处理的目的是让点云更加适配于PointNet模型,使用降噪、滤波、法向量计算、离群点移除、点云三角化等算法过程处理,最终得到干净的点云数据。
S130、将所述处理结果输入至人腿点云分类器内进行分类,以得到人腿3D点云数据。
在本实施例中,人腿3D点云数据是指处理结果中仅属于人腿的点云数据。
具体地,所述人腿点云分类器是通过若干个带有人腿3D点云数据标签的预处理后的3D点云数据作为样本集训练PointNet模型所得的;其中,所述PointNet模型包括两个空间变换网络、两个多层感知机以及一个最大池化层。
PointNet模型是自主收集数据并训练的深度学习模型,这个模型主要用于3D点云中目标物体的检测和分割,在本实施例中,主要使用的是检测功能,这部分流程分为2个部分,分别是数据收集部分和模型训练部分。数据收集部分需要通过深度相机收集大量的机器人工作环境中的3D点云数据,经过点云的预处理流程后,人工识别出3D点云中属于人腿部分的点然后进行标记,最后将标记后的3D点云送入PointNet模型中进行训练,得到适配于机器人工作环境的基于PointNet模型的3D点云人腿识别分类器,用于后续在没有标记过的3D点云中识别出属于人腿的点。
请参阅图6,图中“mlp”代表“multi-layer perceptron”,即多层感知机。其中,mlp是通过共享权重的卷积实现的,因为每个点的维度是xyz,因此第一层卷积核大小是1x3,之后的每一层卷积核大小都是1x1,即特征提取层是把每个点连接起来。经过两个空间变换网络和两个mlp之后,对每一个点提取1024维特征,经过maxpool变成1x1024的全局特征。再经过一个mlp得到k个score。分类网络最后接的loss函数是softmax。
为了使设计的模型具有对输入排序不变的特性,这边用最大池化这样的对称函数直接将所有点的信息集中在一块。由以上的PointNet架构可以看出,在最大池化前有许多的mlp,虽然参数是共享的,但是是对每一个点分开作用。原本有n个点,分别具有(x,y,z)的三维坐标,但是经由许多层mlp的特征转换下,被转换到1024维的高维空间中,最后用最大池化一次集中所有资讯得到整个点云数据的特征。
由图6可以看出,点云数据的特征只能拿来作分类,如果想要做分割之类与局部结构相关的问题,则需要将局部结构(n x 64)与点云数据的特征做串联,就可以同时考虑局部与整体的情况下,准确对每个点做出分类预测。
T-Net的架构可以对几何空间转换有不变特性,类似图像中的空间网络变换层,这样的T-Net可以在输入或是中间的要素图层中学习出有效的仿射变换矩阵,让不同的点云数据的特征可以对齐在一块。T-Net微型网络学习一个获得变换矩阵的函数,并对初始点云应用这个变换矩阵,构成输入变换。随后通过一个mlp多层感知机后,再应用一次变换矩阵即特征变换和多层感知机,最后进行一次最大池化。
通过深度相机获取机器人周围的3D点云数据,通过数据预处理过程后,将干净的点云数据送入PointNet点云分类器,经过分类,得到属于人腿部分的3D点云数据。
S140、对所述人腿3D点云数据进行处理,以得到点云簇特征以及特征描述子。
在本实施例中,特征描述子是通常是一个向量,按照某种人为设计的方式,描述了该关键点周围点的信息。相似的特征应该有相似的描述子,即当两个特征点的描述子在向量空间上的距离相近,认为这两个特征点是一样的。
在一实施例中,请参阅图3,上述的步骤S140可包括步骤S141~S145。
S141、计算所述人腿3D点云数据中点与点之间的欧式距离,以得到第一欧式距离。
在本实施例中,第一欧式距离是指人腿3D点云数据中点与点之间的欧式距离。
S142、通过RANSAC算法结合预先设置的阈值和参数根据所述人腿3D点云数据拟合直线和平面;
S143、确定所述人腿3D点云数据中的点到所述直线和平面的欧式距离,以得到第二欧式距离。
在本实施例中,第二欧式距离是指人腿3D点云数据中的点到所述直线和平面的欧式距离
S144、根据所述第一欧式距离以及第二欧式距离将所述人腿3D点云数据分解成离散的点云簇;
S145、遍历所述点云簇,提取点云簇特征和特征描述子。
在本实施例中,判断3D点云中点与点之间的欧式距离,通过之前数据处理后得到的三角化结构,求出3D点云中点与点之间欧式距离,通过RANSAC算法,按照预先设置好的阈值和参数,在3D点云中拟合出一些符合要求的直线和平面,求出3D点云中点到这些直线和平面的欧式距离,根据预先设置的阈值,按照距离信息,将3D点云分解成离散的点云簇。遍历点云簇,提取点云簇的特征和特征描述子,例如均值、中位数、PFH(点特征直方图,PointFeature Histograms)、FPFH(快速点特征直方图,Fast Point Feature Histogram)、欧氏距离、SHOT、均方差、HOG、Haar、LBP、ORB(特征提取算法,Oriented Fast and RotatedBrief)、SIFT(尺度不变特征变换,Scale-invariant feature transform)等。
在本实施例中,第一欧式距离以及第二欧式距离可利用现有的公式计算所得,此处不再赘述。
S150、使用最近邻算法进行特征描述子的匹配,以得到匹配结果。
在本实施例中,匹配结果是指使用最近邻算法确定每两个点云的特征描述子的数值不超过阈值则认为是匹配的点云对,由若干个点云对构成的集合。
在一实施例中,请参阅图4,上述的步骤S150可包括步骤S151~S152。
S151、遍历所述点云簇,且根据所述特征描述子确定所述点云簇对应的特征描述子,使用最近邻算法对所述点云簇对应的特征描述子进行匹配,以得到计算结果。
在本实施例中,计算结果是指对所述人腿点云簇对应的特征描述子使用最近邻算法进行两两匹配,确定最邻近的两个点。
S152、筛选出所述计算结果中属于预设阈值内的点云簇,以确定同一个人的点云簇,以得到匹配结果。
如果匹配结果超过提前设置的阈值则判定这两个点不匹配,匹配结果符合阈值的,判定这两个点为匹配。匹配的人腿点云簇可以判定为是同一个人的两条腿,进而可以判定这两个人腿点云簇所在的位置属于一个人体。
将识别到的人腿3D点云进行处理,提取在空间中的位置和特征描述子,再通过最近邻算法将人腿3D点云数据进行匹配,最终得到匹配好的双腿数据,进而识别到人体所在的位置。
S160、将所述匹配结果转换为2D伪激光雷达数据。
在本实施例中,2D伪激光雷达数据是指属于人腿的2D雷达数据。
在一实施例中,请参阅图5,上述的步骤S160可包括步骤S161~S162。
S161、对所述匹配结果中的每个点进行坐标系转换,以得到转换后的坐标。
在本实施例中,转换后的坐标是指将所述匹配结果中的每个点的三维坐标转换为二维坐标系下的坐标。
S162、根据转换后的坐标结合预设的2D激光雷达扫描角速度确定2D伪激光雷达数据。
将配对好的人腿3D点云数据进行压缩,从3D点云数据转化为2D伪激光雷达数据,对配对好的人腿3D点云数据进行遍历,针对于每一个点云中的点,首先进行坐标系的转换,然后对x信息、y信息和z信息进行计算,并且结合预先设置好的2D激光雷达扫描的角速度,整合运算得到2D伪激光雷达数据;将转换后的坐标结合2D激光雷达扫描的角速度确定为2D伪激光雷达数据的过程,属于现有技术,此处不再赘述。
S170、确定2D伪激光雷达数据的坐标信息,以得到人体的位置信息。
在本实施例中,人体的位置信息是指2D伪激光雷达数据内的坐标信息。
3D点云数据转2D伪激光雷达,目的是将3D点云数据压缩成2D伪激光雷达数据,因为机器人最终还是需要2D激光雷达数据来进行避障、导航,所以需要将3D点云数据压缩成了2D伪激光雷达数据,通过这种压缩转换,可以得到比传统纯2D激光雷达数据更多的特征信息和更精准的人体位置数据。
S180、发送所述位置信息,以驱动机器人避开人体。
将3D点云压缩伪2D伪激光雷达数据,获得了比传统2D激光雷达数据更多的信息;用3D点云替换2D激光雷达进行人腿识别,引入了深度学习算法,得到了更高的精度和更低的误识率、漏识率,并且存在未来可扩展性,在危险区域识别、人类险情识别等领域都有机会进行机器人产品落地。
上述的3D人腿识别方法,通过获取3D点云数据,在进行预处理后,输入至人腿点云分类器内进行分类,由此确定人腿3D点云数据,并根据人腿3D点云数据进行特征描述子进行匹配,确定属于同一人腿的数据,并转换为2D伪激光雷达数据,以供机器人避开人体,采用信息较多的3D点云数据,实现提高人腿识别的准确率。
图7是本发明实施例提供的一种3D人腿识别装置300的示意性框图。如图7所示,对应于以上3D人腿识别方法,本发明还提供一种3D人腿识别装置300。该3D人腿识别装置300包括用于执行上述3D人腿识别方法的单元,该装置可以被配置于服务器中。具体地,请参阅图7,该3D人腿识别装置300包括图像获取单元301、处理单元302、分类单元303、特征提取单元304、匹配单元305、转换单元306、坐标确定单元307以及发送单元308。
图像获取单元301,用于获取深度相机拍摄的机器人周围的图像,以得到3D点云数据;处理单元302,用于获对所述3D点云数据进行处理,以得到处理结果;分类单元303,用于获将所述处理结果输入至人腿点云分类器内进行分类,以得到人腿3D点云数据;特征提取单元304,用于获对所述人腿3D点云数据进行处理,以得到点云簇特征以及特征描述子;匹配单元305,用于获使用最近邻算法进行特征描述子的匹配,以得到匹配结果;转换单元306,用于获将所述匹配结果转换为2D伪激光雷达数据;坐标确定单元307,用于获确定2D伪激光雷达数据的坐标信息,以得到人体的位置信息;发送单元308,用于获发送所述位置信息,以驱动机器人避开人体。
在一实施例中,所述处理单元302,用于对所述3D点云数据进行降噪、滤波、法向量计算、离群点移除以及点云三角化处理,以得到处理结果。
在一实施例中,如图8所示,所述特征提取单元304包括第一计算子单元3041、拟合子单元3042、第二确定子单元3043、分解子单元3044以及提取子单元3045。
第一计算子单元3041,用于计算所述人腿3D点云数据中点与点之间的欧式距离,以得到第一欧式距离;拟合子单元3042,用于通过RANSAC算法结合预先设置的阈值和参数根据所述人腿3D点云数据拟合直线和平面;第二确定子单元3043,用于确定所述人腿3D点云数据中的点到所述直线和平面的欧式距离,以得到第二欧式距离;分解子单元3044,用于根据所述第一欧式距离以及第二欧式距离将所述人腿3D点云数据分解成离散的点云簇;提取子单元3045,用于遍历所述点云簇,提取点云簇特征和特征描述子。
在一实施例中,如图9所示,所述匹配单元305包括遍历子单元3051以及筛选子单元3052。
遍历子单元3051,用于遍历所述点云簇,且根据所述特征描述子确定所述点云簇对应的特征描述子,使用最近邻算法对所述点云簇对应的特征描述子进行匹配,以得到计算结果;筛选子单元3052,用于筛选出所述计算结果中属于预设阈值内的点云簇,以确定同一个人的点云簇,以得到匹配结果。
在一实施例中,如图10所示,所述转换单元306包括转换子单元3061以及整合子单元3062。
转换子单元3061,用于对所述匹配结果中的每个点进行坐标系转换,以得到转换后的坐标;整合子单元3062,用于根据转换后的坐标结合预设的2D激光雷达扫描角速度确定2D伪激光雷达数据。
需要说明的是,所属领域的技术人员可以清楚地了解到,上述3D人腿识别装置300和各单元的具体实现过程,可以参考前述方法实施例中的相应描述,为了描述的方便和简洁,在此不再赘述。
上述3D人腿识别装置300可以实现为一种计算机程序的形式,该计算机程序可以在如图11所示的计算机设备上运行。
请参阅图11,图11是本申请实施例提供的一种计算机设备的示意性框图。该计算机设备500可以是服务器,其中,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。
参阅图11,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032包括程序指令,该程序指令被执行时,可使得处理器502执行一种3D人腿识别方法。
该处理器502用于提供计算和控制能力,以支撑整个计算机设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行一种3D人腿识别方法。
该网络接口505用于与其它设备进行网络通信。本领域技术人员可以理解,图11中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现如下步骤:
获取深度相机拍摄的机器人周围的图像,以得到3D点云数据;对所述3D点云数据进行处理,以得到处理结果;将所述处理结果输入至人腿点云分类器内进行分类,以得到人腿3D点云数据;对所述人腿3D点云数据进行处理,以得到点云簇特征以及特征描述子;使用最近邻算法进行特征描述子的匹配,以得到匹配结果;将所述匹配结果转换为2D伪激光雷达数据;确定2D伪激光雷达数据的坐标信息,以得到人体的位置信息;发送所述位置信息,以驱动机器人避开人体。
其中,所述人腿点云分类器是通过若干个带有人腿3D点云数据标签的预处理后的3D点云数据作为样本集训练PointNet模型所得的;其中,所述PointNet模型包括两个空间变换网络、两个多层感知机以及一个最大池化层。
在一实施例中,处理器502在实现所述对所述3D点云数据进行处理,以得到处理结果步骤时,具体实现如下步骤:
对所述3D点云数据进行降噪、滤波、法向量计算、离群点移除以及点云三角化处理,以得到处理结果。
在一实施例中,处理器502在实现所述对所述人腿3D点云数据进行处理,以得到点云簇特征以及特征描述子步骤时,具体实现如下步骤:
计算所述人腿3D点云数据中点与点之间的欧式距离,以得到第一欧式距离;通过RANSAC算法结合预先设置的阈值和参数根据所述人腿3D点云数据拟合直线和平面;确定所述人腿3D点云数据中的点到所述直线和平面的欧式距离,以得到第二欧式距离;根据所述第一欧式距离以及第二欧式距离将所述人腿3D点云数据分解成离散的点云簇;遍历所述点云簇,提取点云簇特征和特征描述子。
在一实施例中,处理器502在实现所述使用最近邻算法进行特征描述子的匹配,以得到匹配结果步骤时,具体实现如下步骤:
遍历所述点云簇,且根据所述特征描述子确定所述点云簇对应的特征描述子,使用最近邻算法对所述点云簇对应的特征描述子进行匹配,以得到计算结果;筛选出所述计算结果中属于预设阈值内的点云簇,以确定同一个人的点云簇,以得到匹配结果。
在一实施例中,处理器502在实现所述将所述匹配结果转换为2D伪激光雷达数据步骤时,具体实现如下步骤:
对所述匹配结果中的每个点进行坐标系转换,以得到转换后的坐标;根据转换后的坐标结合预设的2D激光雷达扫描角速度确定2D伪激光雷达数据。
应当理解,在本申请实施例中,处理器502可以是中央处理单元302(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
本领域普通技术人员可以理解的是实现上述实施例的方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成。该计算机程序包括程序指令,计算机程序可存储于一存储介质中,该存储介质为计算机可读存储介质。该程序指令被该计算机系统中的至少一个处理器执行,以实现上述方法的实施例的流程步骤。
因此,本发明还提供一种存储介质。该存储介质可以为计算机可读存储介质。该存储介质存储有计算机程序,其中该计算机程序被处理器执行时使处理器执行如下步骤:
获取深度相机拍摄的机器人周围的图像,以得到3D点云数据;对所述3D点云数据进行处理,以得到处理结果;将所述处理结果输入至人腿点云分类器内进行分类,以得到人腿3D点云数据;对所述人腿3D点云数据进行处理,以得到点云簇特征以及特征描述子;使用最近邻算法进行特征描述子的匹配,以得到匹配结果;将所述匹配结果转换为2D伪激光雷达数据;确定2D伪激光雷达数据的坐标信息,以得到人体的位置信息;发送所述位置信息,以驱动机器人避开人体。
其中,所述人腿点云分类器是通过若干个带有人腿3D点云数据标签的预处理后的3D点云数据作为样本集训练PointNet模型所得的;其中,所述PointNet模型包括两个空间变换网络、两个多层感知机以及一个最大池化层。
在一实施例中,所述处理器在执行所述计算机程序而实现所述对所述3D点云数据进行处理,以得到处理结果步骤时,具体实现如下步骤:
对所述3D点云数据进行降噪、滤波、法向量计算、离群点移除以及点云三角化处理,以得到处理结果。
在一实施例中,所述处理器在执行所述计算机程序而实现所述对所述人腿3D点云数据进行处理,以得到点云簇特征以及特征描述子步骤时,具体实现如下步骤:
计算所述人腿3D点云数据中点与点之间的欧式距离,以得到第一欧式距离;通过RANSAC算法结合预先设置的阈值和参数根据所述人腿3D点云数据拟合直线和平面;确定所述人腿3D点云数据中的点到所述直线和平面的欧式距离,以得到第二欧式距离;根据所述第一欧式距离以及第二欧式距离将所述人腿3D点云数据分解成离散的点云簇;遍历所述点云簇,提取点云簇特征和特征描述子。
在一实施例中,所述处理器在执行所述计算机程序而实现所述使用最近邻算法进行特征描述子的匹配,以得到匹配结果步骤时,具体实现如下步骤:
遍历所述点云簇,且根据所述特征描述子确定所述点云簇对应的特征描述子,使用最近邻算法对所述点云簇对应的特征描述子进行匹配,以得到计算结果;筛选出所述计算结果中属于预设阈值内的点云簇,以确定同一个人的点云簇,以得到匹配结果。
在一实施例中,所述处理器在执行所述计算机程序而实现所述将所述匹配结果转换为2D伪激光雷达数据步骤时,具体实现如下步骤:
对所述匹配结果中的每个点进行坐标系转换,以得到转换后的坐标;根据转换后的坐标结合预设的2D激光雷达扫描角速度确定2D伪激光雷达数据。
所述存储介质可以是U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的计算机可读存储介质。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的。例如,各个单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
本发明实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减。本发明实施例装置中的单元可以根据实际需要进行合并、划分和删减。另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元302中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。
该集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,终端,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.3D人腿识别方法,其特征在于,包括:
获取深度相机拍摄的机器人周围的图像,以得到3D点云数据;
对所述3D点云数据进行处理,以得到处理结果;
将所述处理结果输入至人腿点云分类器内进行分类,以得到人腿3D点云数据;
对所述人腿3D点云数据进行处理,以得到点云簇特征以及特征描述子;
使用最近邻算法进行特征描述子的匹配,以得到匹配结果;
将所述匹配结果转换为2D伪激光雷达数据;
确定2D伪激光雷达数据的坐标信息,以得到人体的位置信息;
发送所述位置信息,以驱动机器人避开人体。
2.根据权利要求1所述的3D人腿识别方法,其特征在于,所述对所述3D点云数据进行处理,以得到处理结果,包括:
对所述3D点云数据进行降噪、滤波、法向量计算、离群点移除以及点云三角化处理,以得到处理结果。
3.根据权利要求2所述的3D人腿识别方法,其特征在于,所述人腿点云分类器是通过若干个带有人腿3D点云数据标签的预处理后的3D点云数据作为样本集训练PointNet模型所得的;其中,所述PointNet模型包括两个空间变换网络、两个多层感知机以及一个最大池化层。
4.根据权利要求1所述的3D人腿识别方法,其特征在于,所述对所述人腿3D点云数据进行处理,以得到点云簇特征以及特征描述子,包括:
计算所述人腿3D点云数据中点与点之间的欧式距离,以得到第一欧式距离;
通过RANSAC算法结合预先设置的阈值和参数根据所述人腿3D点云数据拟合直线和平面;
确定所述人腿3D点云数据中的点到所述直线和平面的欧式距离,以得到第二欧式距离;
根据所述第一欧式距离以及第二欧式距离将所述人腿3D点云数据分解成离散的点云簇;
遍历所述点云簇,提取点云簇特征和特征描述子。
5.根据权利要求4所述的3D人腿识别方法,其特征在于,所述使用最近邻算法进行特征描述子的匹配,以得到匹配结果,包括:
遍历所述点云簇,且根据所述特征描述子确定所述点云簇对应的特征描述子,使用最近邻算法对所述点云簇对应的特征描述子进行匹配,以得到计算结果;
筛选出所述计算结果中属于预设阈值内的点云簇,以确定同一个人的点云簇,以得到匹配结果。
6.根据权利要求5所述的3D人腿识别方法,其特征在于,所述将所述匹配结果转换为2D伪激光雷达数据,包括:
对所述匹配结果中的每个点进行坐标系转换,以得到转换后的坐标;
根据转换后的坐标结合预设的2D激光雷达扫描角速度确定2D伪激光雷达数据。
7.3D人腿识别装置,其特征在于,包括:
图像获取单元,用于获取深度相机拍摄的机器人周围的图像,以得到3D点云数据;
处理单元,用于获对所述3D点云数据进行处理,以得到处理结果;
分类单元,用于获将所述处理结果输入至人腿点云分类器内进行分类,以得到人腿3D点云数据;
特征提取单元,用于获对所述人腿3D点云数据进行处理,以得到点云簇特征以及特征描述子;
匹配单元,用于获使用最近邻算法进行特征描述子的匹配,以得到匹配结果;
转换单元,用于获将所述匹配结果转换为2D伪激光雷达数据;
坐标确定单元,用于获确定2D伪激光雷达数据的坐标信息,以得到人体的位置信息;
发送单元,用于获发送所述位置信息,以驱动机器人避开人体。
8.根据权利要求7所述的3D人腿识别装置,其特征在于,所述处理单元,用于对所述3D点云数据进行降噪、滤波、法向量计算、离群点移除以及点云三角化处理,以得到处理结果。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器及处理器,所述存储器上存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至6中任一项所述的方法。
10.一种存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至6中任一项所述的方法。
CN202111624524.4A 2021-12-28 2021-12-28 3d人腿识别方法、装置、计算机设备及存储介质 Pending CN114310887A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111624524.4A CN114310887A (zh) 2021-12-28 2021-12-28 3d人腿识别方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111624524.4A CN114310887A (zh) 2021-12-28 2021-12-28 3d人腿识别方法、装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN114310887A true CN114310887A (zh) 2022-04-12

Family

ID=81015416

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111624524.4A Pending CN114310887A (zh) 2021-12-28 2021-12-28 3d人腿识别方法、装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN114310887A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111783580A (zh) * 2020-06-19 2020-10-16 宁波智能装备研究院有限公司 基于人腿检测的行人识别方法
CN114939874A (zh) * 2022-06-29 2022-08-26 深圳艾摩米智能科技有限公司 一种机械手臂沿人体表面移动的姿态规划方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013237126A (ja) * 2012-05-15 2013-11-28 Nsk Ltd 歩容データの作成装置及び歩容データの作成方法
CN104268598A (zh) * 2014-09-26 2015-01-07 东南大学 一种基于二维扫描激光的人腿检测方法
CN106203361A (zh) * 2016-07-15 2016-12-07 苏州宾果智能科技有限公司 一种机器人跟踪方法和装置
CN111291708A (zh) * 2020-02-25 2020-06-16 华南理工大学 融合深度相机的变电站巡检机器人障碍物检测识别方法
CN111444767A (zh) * 2020-02-25 2020-07-24 华中科技大学 一种基于激光雷达的行人检测和追踪方法
CN111783580A (zh) * 2020-06-19 2020-10-16 宁波智能装备研究院有限公司 基于人腿检测的行人识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013237126A (ja) * 2012-05-15 2013-11-28 Nsk Ltd 歩容データの作成装置及び歩容データの作成方法
CN104268598A (zh) * 2014-09-26 2015-01-07 东南大学 一种基于二维扫描激光的人腿检测方法
CN106203361A (zh) * 2016-07-15 2016-12-07 苏州宾果智能科技有限公司 一种机器人跟踪方法和装置
CN111291708A (zh) * 2020-02-25 2020-06-16 华南理工大学 融合深度相机的变电站巡检机器人障碍物检测识别方法
CN111444767A (zh) * 2020-02-25 2020-07-24 华中科技大学 一种基于激光雷达的行人检测和追踪方法
CN111783580A (zh) * 2020-06-19 2020-10-16 宁波智能装备研究院有限公司 基于人腿检测的行人识别方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111783580A (zh) * 2020-06-19 2020-10-16 宁波智能装备研究院有限公司 基于人腿检测的行人识别方法
CN111783580B (zh) * 2020-06-19 2022-11-15 宁波智能装备研究院有限公司 基于人腿检测的行人识别方法
CN114939874A (zh) * 2022-06-29 2022-08-26 深圳艾摩米智能科技有限公司 一种机械手臂沿人体表面移动的姿态规划方法
CN114939874B (zh) * 2022-06-29 2023-08-01 深圳艾摩米智能科技有限公司 一种机械手臂沿人体表面移动的姿态规划方法

Similar Documents

Publication Publication Date Title
US11727661B2 (en) Method and system for determining at least one property related to at least part of a real environment
JP6430064B2 (ja) データを位置合わせする方法及びシステム
CN109685060B (zh) 图像处理方法和装置
WO2020108362A1 (zh) 人体姿态检测方法、装置、设备及存储介质
CN106709950B (zh) 一种基于双目视觉的巡线机器人跨越障碍导线定位方法
JP7438320B2 (ja) クロスモーダルセンサデータの位置合わせ
SE528068C2 (sv) Igenkänning av 3D föremål
CN111696196B (zh) 一种三维人脸模型重建方法及装置
CN114556268B (zh) 一种姿势识别方法及装置、存储介质
CN114310887A (zh) 3d人腿识别方法、装置、计算机设备及存储介质
CN113065546A (zh) 一种基于注意力机制和霍夫投票的目标位姿估计方法及系统
CN110895683B (zh) 一种基于Kinect的单视点手势姿势识别方法
CN111062263A (zh) 手部姿态估计的方法、设备、计算机设备和存储介质
CN116229189B (zh) 基于荧光内窥镜的图像处理方法、装置、设备及存储介质
CN112651380A (zh) 人脸识别方法、人脸识别装置、终端设备及存储介质
CN110598771A (zh) 一种基于深度语义分割网络的视觉目标识别方法和装置
CN110543817A (zh) 基于姿势指导特征学习的行人再识别方法
CN115082498A (zh) 一种机器人抓取位姿估计方法、装置、设备及存储介质
Harakeh et al. Ground segmentation and occupancy grid generation using probability fields
Ye et al. Nef: Neural edge fields for 3d parametric curve reconstruction from multi-view images
CN110673607A (zh) 动态场景下的特征点提取方法、装置、及终端设备
CN114494594A (zh) 基于深度学习的航天员操作设备状态识别方法
CN114638891A (zh) 基于图像和点云融合的目标检测定位方法与系统
Dominguez-Morales et al. Image matching algorithms in stereo vision using address-event-representation: A theoretical study and evaluation of the different algorithms
Yang et al. Target position and posture recognition based on RGB-D images for autonomous grasping robot arm manipulation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination