CN113319854B - 一种洗浴机器人的视觉示教方法及系统 - Google Patents
一种洗浴机器人的视觉示教方法及系统 Download PDFInfo
- Publication number
- CN113319854B CN113319854B CN202110712209.0A CN202110712209A CN113319854B CN 113319854 B CN113319854 B CN 113319854B CN 202110712209 A CN202110712209 A CN 202110712209A CN 113319854 B CN113319854 B CN 113319854B
- Authority
- CN
- China
- Prior art keywords
- teaching
- coordinate system
- robot
- bathing
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 230000000007 visual effect Effects 0.000 title claims abstract description 40
- 238000003287 bathing Methods 0.000 claims abstract description 98
- 230000036544 posture Effects 0.000 claims description 54
- 239000002245 particle Substances 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 23
- 238000013507 mapping Methods 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000003066 decision tree Methods 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 6
- 238000012163 sequencing technique Methods 0.000 claims description 5
- 230000005484 gravity Effects 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000003708 edge detection Methods 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000000638 solvent extraction Methods 0.000 claims 2
- 230000009471 action Effects 0.000 description 5
- 230000000474 nursing effect Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012952 Resampling Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0081—Programme-controlled manipulators with master teach-in means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Abstract
本发明涉及一种洗浴机器人的视觉示教方法及系统,包括洗浴机器人、机器人控制器、上位机、深度相机以及标识点。所述标志点安装于示教者的手背上,用于确定人手上的特征点在物体坐标系和相机坐标系之间的对应关系;所述深度相机与所述上位机连接,所述上位机与与所述机器人控制器通过以太网连接,所述机器人控制器控制所述洗浴机器人重复人手演示的路径。本发明解决了传统编程方法对操作者编程水平依赖过高的问题,同时解决了失能半失能人员洗浴不便的问题。
Description
技术领域
本发明涉及智能居家养老设备技术领域,特别是涉及一种洗浴机器人的视觉示教方法及系统。
背景技术
随着人口老龄化越来越严重,失能半失能老人也越来越多,他们想洗一次澡是非常困难的。老年人的洗浴问题,是一个容易被人忽视的、隐藏在角落里的问题。由于老人失去自理能力,往往需要两三个正常人才能完成对失能老人的洗浴工作。护理人员在完成对老人的洗浴过程中,不仅费时费力,还会很容易引起隐私以及尊严问题。因此急需一种洗浴机器人解决失能半失能老人的洗浴问题。
发明内容
本发明的目的是提供一种洗浴机器人的视觉示教方法及系统,通过机器人视觉识别人手在完成对老年人洗浴过程中的位置和姿态,并转化为洗浴机器人洗浴臂末端的位姿,实现对洗浴机器人的视觉示教。记录洗浴臂末端的位姿即可实现洗浴机器人重复对老年人的洗浴工作。
为实现上述目的,本发明提供了如下方案:
一种洗浴机器人的视觉示教系统,包括洗浴机器人、机器人控制器、上位机、深度相机以及标识点;
其中标志点安装于示教者的手背上,用于确定人手上的特征点在物体坐标系和相机坐标系之间的对应关系;深度相机与所述上位机连接,深度相机用于获取人手在示教过程中的深度图像;上位机用于根据深度图像获得人手在相机坐标系下的位置和姿态;上位机与与机器人控制器通过以太网连接,机器人控制器控制洗浴机器人重复人手演示的路径。
优选的,深度相机采用Kinect传感器测量场景深度,获取深度图像。
优选的,洗浴机器人的洗浴臂为柔性臂。
一种洗浴机器人的视觉示教方法,包括以下步骤:
获取深度图像;利用跟踪算法跟踪示教过程中人手在深度图像中的位置,获取以人手为感兴趣区域的ROI区域;
利用标志点确定人手上特征点在物体坐标系和相机坐标系之间的对应关系,再利用基于Dogleg优化的PnP算法得到人手在相机坐标系下的位置和姿态;标志点安装于示教者手背上;
确定相机坐标系与机器人基坐标系之间的映射关系,再根据所述人手在相机坐标系下的位置和姿态和映射关系得到人手在机器人基坐标系下的位置和姿态;
通过洗浴机器人内部关系得到机器人基坐标系与洗浴臂末端坐标系之间的转换关系;根据人手在机器人基坐标系下的位置和姿态和所述转换关系得到人手在洗浴臂末端坐标系下的位置和姿态;
离散采集人手示教过程中的深度图像,获取离散的人手在洗浴臂末端坐标系下的位置信息,即示教点的位置信息;所述示教点按时间排序得到示教路径;利用粒子群算法平滑优化所述示教路径;
将优化后的示教路径传输至机器人控制器,实现洗浴机器人的视觉示教。
具体的,洗浴机器人的视觉示教方法中还包括,在步骤“获取深度图像;利用跟踪算法跟踪示教过程中人手在深度图像中的位置,获取以人手为感兴趣区域的ROI区域”之前,利用决策树算法识别老人不同的洗浴姿势,根据所述不同的洗浴姿势设计不同的示教路径。
优选的,跟踪算法包括粒子滤波算法或混合高斯背景差分结合重心跟踪的算法。
具体的,粒子群算法平滑优化所述示教路径,包括以下步骤:
按时间信息将所述示教路径划分为N段;
搜索出每段示教路径中最优的示教点,将所述每段示教路径中最优的示教点按时间排序得到优化后的示教路径。
具体的,搜索出每段示教路径中最优的示教点,包括以下步骤:
初始化每个示教点的位置信息;
计算每个示教点的适应度值,所述计算公式如下:
其中,fitness表示适应度值,xi,yi和zi分别表示第i个示教点的x轴、y轴和z轴的信息,xi+1,yi+1和zi+1分别表示第i+1个示教点的x轴、y轴和z轴的信息;
对每段示教路径内的示教点的适应度值进行比较,筛选出每段示教路径内适应度值最大的示教点。
优选的,识别老人不同的洗浴姿势的方法还包括在机器人软件平台ROS上加载开源人工神经网络库Keras中已经训练好的网络模型,利用训练好的网络模型识别老人不同的洗浴姿势。
一种洗浴机器人的应用方法,利用视觉示教方法示教好的洗浴机器人对失能以及半失能人员进行洗浴。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
传统示教机器人的编程方式只能够允许机器人完成指定的任务动作,对操作人员编程熟练程度的依赖也很大,本发明利用深度相机采集深度图像,对深度图像进行处理得到示教路径的示教方式在很大程度上降低了对操作者的要求。同时利用示教训练好的洗浴机器人对老人进行洗浴,可以减轻护理工作人员的工作强度,同时还可以很好的保护老人的隐私和尊严。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明洗浴机器人的视觉示教系统示意图;
图2为本发明洗浴机器人的视觉示教方法流程示意图。
符号说明:
1-洗浴机器人,2-深度相机,3-上位机,4-机器人控制器,5-标识点。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种洗浴机器人的视觉示教系统以及方法,通过视觉示教方法完成对洗浴机器人的示教,以此来避免传统编程方法对专业人员的专业水平依赖过高的问题。同时利用视觉示教方法示教好的洗浴机器人对失能以及半失能人员进行洗浴,可减轻护理工作人员的工作强度。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例1:
如图1所示,本发明提供的一种洗浴机器人的视觉示教系统,包括洗浴机器人、机器人控制器、上位机、深度相机以及标识点。在示教过程中,标志点被安装于示教者的手背上,用于确定人手上的特征点在物体坐标系和相机坐标系之间的对应关系。具体的,在本实施例当中示教点一共有四个,通过对示教点进行处理还可以确定示教者手部的位置和姿态。
具体的,深度相机与上位机进行连接,深度相机用于获取人手在示教过程中的深度图像,并将获取的深度图像传输至上位机。具体的,深度相机为Microsoft Kinect相机,其采用Kinect传感器测量场景深度,获取深度图像。
具体的,上位机对深度图像进行处理获取人手在相机坐标系下的位置和姿态,并对得到的人手在相机坐标系下的位置和姿态进行后续的坐标系转换可得到人手在洗浴臂末端坐标系下的位置姿态信息,对得到的人手在洗浴臂末端坐标系下的位置姿态信息进行存储即可完成一次示教过程。
具体的,上位机通过以太网和机器人控制连接,需要洗浴机器人执行洗浴动作时上位机将位置姿态信息传递给机器人控制器,机器人控制器控制洗浴机器人重复人手演示的路径,完成洗浴任务。同时,为了确保进行洗浴人员的安全问题,洗浴机器人的洗浴臂设计为柔性臂。
上述洗浴机器人的视觉示教系统区别与传统编程方法之处为本实施例利用单目摄像头获取三维场景,利用Kinect传感器测量场景深,通过单目摄像头获取示教者手背在空间中的位置并对其进行转化储存,最终确保洗浴机器人能够重复执行示教者手背在空间中的动作。减小了对操作者编程水平的依赖程度。
实施例2:
如图2所示,本发明提供一种采用实施例一提供的示教系统进行示教的视觉示教方法,其具体步骤包括:
S1:获取深度图像;利用跟踪算法跟踪示教过程中人手在深度图像中的位置,获取以人手为感兴趣区域的ROI区域。
利用MicrosoftKinect深度相机采集深度图像,并将采集的深度图像传输至上位机。上位机利用粒子滤波算法跟踪示教过程中人手在深度图像中的位置。典型的粒子滤波算法主要包括三个步骤:
S111:初始化粒子集。
在K=0时刻初始化粒子集,具体的,在在K=0时刻根据先验概率p(x0)对深度图像中的粒子点进行采样,并初始化粒子的权值,获得初始粒子集{x0 i,N-1}i=1...N。
S112:迭代更新粒子的权重。
S113:粒子重采样。
具体的,上位机还可以利用混合高斯背景差分算法结合重心跟踪的算法实现对感兴趣区域的追踪。例如以人手的指尖为感兴趣区域进行追踪,具体跟踪步骤如下:
S121:利用混合高斯背景差分的方法提取出图像中的手部前景目标;
S122:通过形态学腐蚀操作和高斯滤波方法进行手部区域平滑处理;
S123:提取出平滑处理后图像的手部边缘的最大轮廓,再根据凸包算法确定候选指尖点;
S124:利用重心距离法和K曲率算法排除误检点。
将该跟踪方法运用到视觉示教方法中,可以识别出用户指尖移动的示教轨迹。上述两种跟踪算法仅仅是本发明实施例的一部分,其他跟踪算法也可应用于本发明,例如camshift跟踪算法、meanshift跟踪算法以及kcf跟踪算法等。
S2:利用标志点确定人手上特征点在物体坐标系和相机坐标系之间的对应关系,再利用基于Dogleg优化的PnP算法得到人手在相机坐标系下的位置和姿态;其中标志点安装于示教者手背上。
其中物体坐标系记为P-xyz,相机坐标系记为C-xyz,得到的人手的特征点P在相机坐标系下的位置坐标记为Pc。
S3:确定相机坐标系与机器人基坐标系之间的映射关系,再根据人手在相机坐标系下的位置和姿态和映射关系得到人手在机器人基坐标系下的位置和姿态。
其中机器人基坐标系记为R-xyz,通过对相机坐标系和机器人基坐标系进行标定得到相机坐标系和机器人基坐标系之间的齐次坐标变换矩阵TRC,标定方法采用手眼标定。通过公式Pr=TRC*Pc,得到点P在机器人基坐标系下的齐次坐标Pr。
S4:通过洗浴机器人内部关系得到机器人基坐标系与洗浴臂末端坐标系之间的转换关系;根据人手在机器人基坐标系下的位置和姿态和转换关系得到人手在洗浴臂末端坐标系下的位置和姿态。
S5:离散采集人手示教过程中的深度图像,获取离散的人手在洗浴臂末端坐标系下的位置信息,即示教点的位置信息;将示教点按时间排序得到示教路径;利用粒子群算法平滑优化所述示教路径。
其中粒子群算法平滑优化所述示教路径的具体步骤包括:
S51:按时间信息将所述示教路径划分为N段;
S52:搜索出每段示教路径中最优的示教点,将所述每段示教路径中最优的示教点按时间排序得到优化后的示教路径。
具体的搜索每段示教路径中最优的示教点的步骤包括:
S521:初始化每个示教点的位置信息;
S522:计算每个示教点的适应度值,所述计算公式如下:
其中,fitness表示适应度值,xi,yi和zi分别表示第i个示教点的x轴、y轴和z轴的信息,xi+1,yi+1和zi+1分别表示第i+1个示教点的x轴、y轴和z轴的信息;
S523:对每段示教路径内的示教点的适应度值进行比较,筛选出每段示教路径内适应度值最大的示教点。
S6:将优化后的示教路径传输至机器人控制器,实现洗浴机器人的视觉示教。
有鉴于失能或半失能人员会出现洗浴姿势的不同,例如有的失能或半失能人员坐在洗浴椅上,有的失能或半失能人员躺在特制的洗浴小床上。因此有必要根据失能或半失能人员的洗浴姿势设计不同的示教路径。优选的,本实施例识别失能或半失能人员洗浴姿势的算法为决策树算法,其具体的识别流程如下:
S71:数据集获取。
收集200张老人在洗浴椅上的位姿图像,并根据老人姿势将图像分为平躺和侧卧两种类别,对收集的图像进行整理归纳,构建机器学习数据集。
S72:数据预处理。
对收集的老人位姿图像进行去重处理,清除一些对姿态分类有消极影响的数据,并对数据集进行扩充,通过几何变换(翻转,旋转,缩放,变形,裁剪,平移),颜色变换等操作扩充数据集,对位姿图像进行尺度归一化和灰度归一化处理。用于加快训练和收敛。
S73:数据集划分。
选出数据集中的80%的图像作为训练集对老人位姿判断模型进行训练,并用余下20%的图像作为测试集对训练好的老人位姿判断模型进行调参,测试。
S74:特征工程。
提取老人位姿图像的方向梯度直方图((Histogram of Oriented Gradient,HOG)特征。首先把老人位姿图像分割成很多像素矩阵块,然后对每一块计算HOG特征。再计算每个区块的方向梯度直方图,利用Sobel梯度算子对每个小块进行卷积,计算得到每个像素点处的梯度方向和幅值,再将360度根据需要分割成若干份,然后根据每个像素点的梯度方向,最后利用双线性插值法将其幅值累加到直方图中。
上述Sobel梯度算子包含两组3×3的矩阵,将其与老人位姿图像的像素矩阵块分别作卷积,即可得到横向和纵向边缘检测的图像梯度值,Sobel算子的卷积公式为:
其中Gx为原始像素点经过Sobel梯度算子卷积后得到的x方向的梯度值,Gy为原始像素点经过Sobel梯度算子卷积后得到的y方向的梯度值,A为以原始像素点为中心的3×3大小的原图像像素矩阵块。
S75:通过决策树分类器对老人位姿训练集训练和对测试集进行预测。
S76:模型评估
分别计算模型的准确率和召回率,在确保正确率达到特定阈值的前提尽可能提高其召回率
准确率的计算公式:被正确分类的样本数/样本总数
召回率的计算公式:被正确分类的正例样本数/所有被正确分类的样本数
此外,识别老人不同的洗浴姿势的方法还包括在机器人软件平台ROS上加载开源人工神经网络库Keras中已经训练好的卷积神经网络模型,利用训练好的卷积神经网络模型识别老人不同的洗浴姿势。
本发明利用机器视觉对示教者的手背进行跟踪,得到示教者手背在相机坐标系下的位姿信息,并将此信息依次转化为机器人基坐标系下的位姿信息,洗浴臂末端坐标系下的位姿信息。使洗浴机器人的洗浴臂末端能够复现示教者的动作。实现对洗浴机器人的示教。该方法解决了传统编程方法对操作者编程熟练程度要求过高的问题。此外,还可以在机器人软件平台中,基于Moveit运动规划库以及Qt Creator软件完成对洗浴机器人运动控制界面的设计,通过联合指尖识别追踪模块和静态老人姿态识别,完成洗浴机器人的视觉示教。其实现方法包括:首先,建立机器人空间和相机空间的映射关系,通过ROS节点发布机器人和相机之间的手眼标定关系。其次,在相机可视的工作范围内,操作人员用手势进行示教,采集多组作业区域内指尖点移动轨迹的路点坐标,采用中值滤波算法对示教轨迹点进行预处理。最后,通过深度图像到彩色图像的映射,得到示教轨迹点坐标的深度信息。借助Moveit运动规划库生成示教轨迹。
实施例3:
一种采用实施例二提供洗浴机器人视觉示教方法的虚拟系统,该系统包括:感兴趣区域跟踪单元、对应关系确定单元、映射关系确定单元、转换关系确定单元、示教路径优化单元以及示教动作复现单元。
感兴趣区域跟踪单元,用于获取深度图像,利用跟踪算法跟踪示教过程中人手在深度图像中的位置,获取以人手为感兴趣区域的ROI区域。
对应关系确定单元,用于利用标志点确定人手上特征点在物体坐标系和相机坐标系之间的对应关系,再利用基于Dogleg优化的PnP算法得到人手在相机坐标系下的位置和姿态。
映射关系确定单元,用于确定相机坐标系与机器人基坐标系之间的映射关系,再根据人手在相机坐标系下的位置和姿态和映射关系得到人手在机器人基坐标系下的位置和姿态。
转换关系确定单元,用于通过洗浴机器人内部关系得到机器人基坐标系与洗浴臂末端坐标系之间的转换关系;根据人手在机器人基坐标系下的位置和姿态和转换关系得到人手在洗浴臂末端坐标系下的位置和姿态。
示教路径优化单元,用于离散采集人手示教过程中的深度图像,获取离散的人手在洗浴臂末端坐标系下的位置信息,即示教点的位置信息;将示教点按时间排序得到示教路径;利用粒子群算法平滑优化所述示教路径。
示教动作复现单元,用于将优化后的示教路径传输至机器人控制器,实现洗浴机器人的视觉示教。
上述系统单元主要用于完成对洗浴机器人的示教功能,所描述的功能单元仅仅是本发明一部分实施例,而不是全部的实施例。对其名称进行相应的修改或添加不影响本发明的创造性。
实施例4:
一种洗浴机器人的应用方法,利用实施例二的视觉示教方法示教好的洗浴机器人对失能以及半失能人员进行洗浴。护理人员在完成对老人的洗浴过程中,不仅费时费力,还会很容易引起隐私以及尊严问题。利用示教好的洗浴机器人对失能以及半失能人员进行洗浴可以很好的解决该问题。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种洗浴机器人的视觉示教系统,其特征在于,包括洗浴机器人、机器人控制器、上位机、深度相机以及标志点;
所述标志点安装于示教者的手背上,用于确定人手上的特征点在物体坐标系和相机坐标系之间的对应关系;
所述深度相机与所述上位机连接,所述深度相机用于获取人手在示教过程中的深度图像;所述上位机用于根据深度图像获得人手在相机坐标系下的位置和姿态;
所述上位机与所述机器人控制器通过以太网连接,所述机器人控制器控制所述洗浴机器人重复人手演示的路径;
应用所述视觉示教系统的视觉示教方法,具体包括:
获取深度图像;利用跟踪算法跟踪示教过程中人手在深度图像中的位置,获取以人手为感兴趣区域的ROI区域;
利用标志点确定人手上特征点在物体坐标系和相机坐标系之间的对应关系,再利用基于Dogleg优化的PnP算法得到人手在相机坐标系下的位置和姿态;所述标志点安装于示教者手背上;
确定相机坐标系与机器人基坐标系之间的映射关系,再根据所述人手在相机坐标系下的位置和姿态和所述映射关系得到人手在机器人基坐标系下的位置和姿态;
通过洗浴机器人内部关系得到机器人基坐标系与洗浴臂末端坐标系之间的转换关系;根据所述人手在机器人基坐标系下的位置和姿态和所述转换关系得到人手在洗浴臂末端坐标系下的位置和姿态;
离散采集人手示教过程中的深度图像,获取离散的人手在洗浴臂末端坐标系下的位置信息,即示教点的位置信息;所述示教点按时间排序得到示教路径;利用粒子群算法平滑优化所述示教路径;
将优化后的示教路径传输至机器人控制器,实现洗浴机器人的视觉示教;
利用所述视觉示教系统进行洗浴机器人视觉示教时,先利用决策树算法识别老人不同的洗浴姿势,根据所述不同的洗浴姿势设计不同的示教路径;
所述利用决策树算法识别老人不同的洗浴姿势,具体包括:
S71:数据集获取
收集200张老人在洗浴椅上的位姿图像,并根据老人姿势将图像分为平躺和侧卧两种类别,对收集的图像进行整理归纳,构建机器学习数据集;
S72:数据预处理
对收集的老人位姿图像进行去重处理,清除一些对姿态分类有消极影响的数据,并对数据集进行扩充,通过几何变换,颜色变换操作扩充数据集,对位姿图像进行尺度归一化和灰度归一化处理,用于加快训练和收敛;
S73:数据集划分
选出数据集中的80%的图像作为训练集对老人位姿判断模型进行训练,并用余下20%的图像作为测试集对训练好的老人位姿判断模型进行调参,测试;
S74:特征工程
提取老人位姿图像的方向梯度直方图特征;首先把老人位姿图像分割成很多像素矩阵块,然后对每一块计算HOG特征,再计算每个区块的方向梯度直方图,利用Sobel梯度算子对每个小块进行卷积,计算得到每个像素点处的梯度方向和幅值,再将360度根据需要分割成若干份,然后根据每个像素点的梯度方向,最后利用双线性插值法将其幅值累加到直方图中;
上述Sobel梯度算子包含两组3×3的矩阵,将其与老人位姿图像的像素矩阵块分别作卷积,即可得到横向和纵向边缘检测的图像梯度值,Sobel算子的卷积公式为:
其中Gx为原始像素点经过Sobel梯度算子卷积后得到的x方向的梯度值,Gy为原始像素点经过Sobel梯度算子卷积后得到的y方向的梯度值,A为以原始像素点为中心的3×3大小的原图像像素矩阵块;
S75:通过决策树分类器对老人位姿训练集训练和对测试集进行预测;
S76:模型评估
分别计算模型的准确率和召回率,在确保正确率达到特定阈值的前提下提高其召回率;
准确率的计算公式:被正确分类的样本数/样本总数;
召回率的计算公式:被正确分类的正例样本数/所有被正确分类的样本数。
2.根据权利要求1所述的一种洗浴机器人的视觉示教系统,其特征在于,所述深度相机采用Kinect传感器测量场景深度,获取深度图像。
3.根据权利要求1所述的一种洗浴机器人的视觉示教系统,其特征在于,所述洗浴机器人的洗浴臂为柔性臂。
4.一种洗浴机器人的视觉示教方法,其特征在于,包括以下步骤:
获取深度图像;利用跟踪算法跟踪示教过程中人手在深度图像中的位置,获取以人手为感兴趣区域的ROI区域;
利用标志点确定人手上特征点在物体坐标系和相机坐标系之间的对应关系,再利用基于Dogleg优化的PnP算法得到人手在相机坐标系下的位置和姿态;所述标志点安装于示教者手背上;
确定相机坐标系与机器人基坐标系之间的映射关系,再根据所述人手在相机坐标系下的位置和姿态和所述映射关系得到人手在机器人基坐标系下的位置和姿态;
通过洗浴机器人内部关系得到机器人基坐标系与洗浴臂末端坐标系之间的转换关系;根据所述人手在机器人基坐标系下的位置和姿态和所述转换关系得到人手在洗浴臂末端坐标系下的位置和姿态;
离散采集人手示教过程中的深度图像,获取离散的人手在洗浴臂末端坐标系下的位置信息,即示教点的位置信息;所述示教点按时间排序得到示教路径;利用粒子群算法平滑优化所述示教路径;
将优化后的示教路径传输至机器人控制器,实现洗浴机器人的视觉示教;
在步骤“获取深度图像;利用跟踪算法跟踪示教过程中人手在深度图像中的位置,获取以人手为感兴趣区域的ROI区域”之前,还包括利用决策树算法识别老人不同的洗浴姿势,根据所述不同的洗浴姿势设计不同的示教路径;
所述利用决策树算法识别老人不同的洗浴姿势,具体包括:
S71:数据集获取
收集200张老人在洗浴椅上的位姿图像,并根据老人姿势将图像分为平躺和侧卧两种类别,对收集的图像进行整理归纳,构建机器学习数据集;
S72:数据预处理
对收集的老人位姿图像进行去重处理,清除一些对姿态分类有消极影响的数据,并对数据集进行扩充,通过几何变换,颜色变换操作扩充数据集,对位姿图像进行尺度归一化和灰度归一化处理,用于加快训练和收敛;
S73:数据集划分
选出数据集中的80%的图像作为训练集对老人位姿判断模型进行训练,并用余下20%的图像作为测试集对训练好的老人位姿判断模型进行调参,测试;
S74:特征工程
提取老人位姿图像的方向梯度直方图特征;首先把老人位姿图像分割成很多像素矩阵块,然后对每一块计算HOG特征,再计算每个区块的方向梯度直方图,利用Sobel梯度算子对每个小块进行卷积,计算得到每个像素点处的梯度方向和幅值,再将360度根据需要分割成若干份,然后根据每个像素点的梯度方向,最后利用双线性插值法将其幅值累加到直方图中;
上述Sobel梯度算子包含两组3×3的矩阵,将其与老人位姿图像的像素矩阵块分别作卷积,即可得到横向和纵向边缘检测的图像梯度值,Sobel算子的卷积公式为:
其中Gx为原始像素点经过Sobel梯度算子卷积后得到的x方向的梯度值,Gy为原始像素点经过Sobel梯度算子卷积后得到的y方向的梯度值,A为以原始像素点为中心的3×3大小的原图像像素矩阵块;
S75:通过决策树分类器对老人位姿训练集训练和对测试集进行预测;
S76:模型评估
分别计算模型的准确率和召回率,在确保正确率达到特定阈值的前提下提高其召回率;
准确率的计算公式:被正确分类的样本数/样本总数;
召回率的计算公式:被正确分类的正例样本数/所有被正确分类的样本数。
5.根据权利要求4所述的一种洗浴机器人的视觉示教方法,其特征在于,所述跟踪算法包括粒子滤波算法或混合高斯背景差分结合重心跟踪的算法。
6.根据权利要求4所述的一种洗浴机器人的视觉示教方法,其特征在于,所述粒子群算法平滑优化所述示教路径,具体包括:
按时间信息将所述示教路径划分为N段;
搜索出每段示教路径中最优的示教点,将所述每段示教路径中最优的示教点按时间排序得到优化后的示教路径。
8.根据权利要求4所述的一种洗浴机器人的视觉示教方法,其特征在于,所述识别老人不同的洗浴姿势的方法还包括在机器人软件平台ROS上加载开源人工神经网络库Keras中已经训练好的网络模型,利用训练好的网络模型识别老人不同的洗浴姿势。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110712209.0A CN113319854B (zh) | 2021-06-25 | 2021-06-25 | 一种洗浴机器人的视觉示教方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110712209.0A CN113319854B (zh) | 2021-06-25 | 2021-06-25 | 一种洗浴机器人的视觉示教方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113319854A CN113319854A (zh) | 2021-08-31 |
CN113319854B true CN113319854B (zh) | 2023-01-20 |
Family
ID=77424761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110712209.0A Expired - Fee Related CN113319854B (zh) | 2021-06-25 | 2021-06-25 | 一种洗浴机器人的视觉示教方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113319854B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108538343A (zh) * | 2018-03-29 | 2018-09-14 | 重庆柚瓣家科技有限公司 | 基于人工智能的数据采集方法 |
CN109063619A (zh) * | 2018-07-25 | 2018-12-21 | 东北大学 | 一种基于自适应背景抑制滤波器和组合方向梯度直方图的交通信号灯检测方法和系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5127363A (en) * | 1990-03-05 | 1992-07-07 | Kabushiki Kaisha Kobe Seiko Sho | Painting system for automobiles |
CN105066892B (zh) * | 2015-08-05 | 2017-07-28 | 哈尔滨工业大学 | 一种基于直线聚类分析的bga元件检测与定位方法 |
EP3366433B1 (en) * | 2017-02-09 | 2022-03-09 | Canon Kabushiki Kaisha | Method of controlling robot, method of teaching robot, and robot system |
CN107160364B (zh) * | 2017-06-07 | 2021-02-19 | 华南理工大学 | 一种基于机器视觉的工业机器人示教系统及方法 |
CN110062048B (zh) * | 2019-04-30 | 2021-12-03 | 邳州市景鹏创业投资有限公司 | 一种智能酒店安全护理设备及其方法 |
CN110170995B (zh) * | 2019-05-09 | 2022-09-23 | 广西安博特智能科技有限公司 | 一种基于立体视觉的机器人快速示教方法 |
CN110919626B (zh) * | 2019-05-16 | 2023-03-14 | 广西大学 | 一种基于立体视觉的机器人手持示教装置及方法 |
CN110238831B (zh) * | 2019-07-23 | 2020-09-18 | 青岛理工大学 | 基于rgb-d图像及示教器的机器人示教系统及方法 |
CN111216133B (zh) * | 2020-02-05 | 2022-11-22 | 广州中国科学院先进技术研究所 | 一种基于指尖识别和手部运动跟踪的机器人演示编程方法 |
CN112530267B (zh) * | 2020-12-17 | 2022-11-08 | 河北工业大学 | 一种基于计算机视觉的机械臂智能示教方法及应用 |
-
2021
- 2021-06-25 CN CN202110712209.0A patent/CN113319854B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108538343A (zh) * | 2018-03-29 | 2018-09-14 | 重庆柚瓣家科技有限公司 | 基于人工智能的数据采集方法 |
CN109063619A (zh) * | 2018-07-25 | 2018-12-21 | 东北大学 | 一种基于自适应背景抑制滤波器和组合方向梯度直方图的交通信号灯检测方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113319854A (zh) | 2021-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hasan et al. | RETRACTED ARTICLE: Static hand gesture recognition using neural networks | |
CN106650687B (zh) | 一种基于深度信息和骨骼信息的姿势矫正方法 | |
EP3633610A1 (en) | Learning device, learning method, learning model, estimation device, and grip system | |
CN110490080B (zh) | 一种基于图像的人体跌倒判别方法 | |
CN108972494A (zh) | 一种仿人机械手抓取控制系统及其数据处理方法 | |
CN109993073B (zh) | 一种基于Leap Motion的复杂动态手势识别方法 | |
CN112784736B (zh) | 一种多模态特征融合的人物交互行为识别方法 | |
CN111368759B (zh) | 基于单目视觉的移动机器人语义地图构建系统 | |
CN109000655B (zh) | 机器人仿生室内定位导航方法 | |
Tara et al. | Hand segmentation from depth image using anthropometric approach in natural interface development | |
CN108681711A (zh) | 一种面向移动机器人的自然路标提取方法 | |
CN107621880A (zh) | 一种基于改进头姿估计方法的机器人轮椅交互控制方法 | |
CN111966217A (zh) | 基于手势和眼动的无人机控制方法和系统 | |
Bautista Garcia et al. | Hand Alphabet Recognition for Dactylology Conversion to English Print Using Streaming Video Segmentation | |
CN115335872A (zh) | 目标检测网络的训练方法、目标检测方法及装置 | |
CN115861999A (zh) | 一种基于多模态视觉信息融合的机器人抓取检测方法 | |
CN115576426A (zh) | 一种针对混合现实飞行模拟器的手部交互方法 | |
JP7051751B2 (ja) | 学習装置、学習方法、学習モデル、検出装置及び把持システム | |
CN110705355A (zh) | 一种基于关键点约束的人脸姿态估计方法 | |
CN113319854B (zh) | 一种洗浴机器人的视觉示教方法及系统 | |
Zheng et al. | An object recognition grasping approach using proximal policy optimization with yolov5 | |
Tang et al. | Position-free hand gesture recognition using single shot multibox detector based neural network | |
CN111723688A (zh) | 人体动作识别结果的评价方法、装置和电子设备 | |
CN109214295B (zh) | 基于Kinect v2和Leap Motion的数据融合的手势识别方法 | |
Wang et al. | A Generative Human-Robot Motion Retargeting Approach Using a Single RGBD Sensor. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20230120 |