CN106909216B - 一种基于Kinect传感器的仿人机械手控制方法 - Google Patents
一种基于Kinect传感器的仿人机械手控制方法 Download PDFInfo
- Publication number
- CN106909216B CN106909216B CN201710005939.0A CN201710005939A CN106909216B CN 106909216 B CN106909216 B CN 106909216B CN 201710005939 A CN201710005939 A CN 201710005939A CN 106909216 B CN106909216 B CN 106909216B
- Authority
- CN
- China
- Prior art keywords
- gesture
- image
- finger
- rgb
- joint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种基于Kinect传感器的仿人机械手控制方法,包括步骤:1)通过Kinect传感器采集数据;2)对采集的数据进行预处理,然后使用相关算法进行手势分割;3)使用DBN神经网络进行手势识别;4)将识别的手势转化成固定格式的指令;5)利用TCP协议进行远程通信,将指令发送到服务器端;6)服务器端接收并识别指令,通过运动学计算得到控制参数;7)服务器端根据控制参数控制机械手的运动。本发明方法考虑了实际操作的成本及准确率、响应速度等方面的要求,克服了基于数据手套控制成本高及基于鼠标键盘等传统人机交互方式对专业知识有一定要求的问题,具有操作人性化、响应速度快、准确率高的优点,并且具有很好的鲁棒性。
Description
技术领域
本发明涉及人机交互领域,尤其是指一种基于Kinect传感器的仿人机械手控制方法。
背景技术
随着机器人学的发展,机器人的应用领域在不断拓宽,机器人作业的任务和环境的复杂性不断增加,普通的机器人及与其配合的各种简单的末端夹持装置已远远不能满足各种灵巧及精细操作任务的要求。由于大多数的末端夹持器是针对特定任务而设计的,存在着缺少灵活性和夹持方式有限等局限性。研制出一种通用的末端夹持器,代替各种特定末端夹持器,完成各种环境下的灵巧操作任务,成为机器人研究领域一种需求。由于仿人机械手像人手一样具有多个手指和手掌,具有很强的功能和很高的通用性,因此,完全能够代替人手完成各种复杂而灵巧的操作,如在太空航天器的舱外、核电站、化工厂等危险、恶劣的工作环境中从事探测、取样、装配、修理作业、战场探雷和排雷这类危险的工作。
在仿人机械手运动控制方面,普遍采用数据手套或鼠标、键盘、示教盒的输入来控制仿人机械手。但是,通过鼠标或键盘输入命令控制仿人机械手不太人性化,它需要操作者对控制系统有较多的了解。数据手套虽然能够很好地识别操作者的手势动作,但其配带很不方便,且价格昂贵。若是能够通过操作者的手势来直接控制仿人机械手将会带来很多便利,也可以大大降低操作难度。为此,本文提出了基于Kinect传感器的仿人机械手运动控制方法,操作者无需穿戴数据手套等辅助设备或标记工具,也不需要具有高深的专业知识,操作者只要面对Kinect传感器且在合适区域内就可轻松地控制仿人机械手。
在手势图像分割中,传统的方法是基于肤色检测和Haar特征的级联分类器。基于肤色检测方法在光照度较好且周围没有与手肤色相似的物体时效果较好,但光照改变或有与手肤色接近的物体,则识别准确率会受到很大的干扰影响,尤其是操作者的手与脸往往很难分辨。利用RGB图像进行手势分割,不能利用空间距离信息并且容易受光照影响。而深度图像则克服了这些问题,基于深度图像的手势分割通常使用双阈值或骨骼追踪方法,本文将结合这两种方法用于手势分割。
发明内容
本发明的目的是在于克服现有人机交互方式的不足,提供一种基于Kinect传感器的仿人机械手控制方法,该方法是以一种自然的人机交互方式来控制机械手运动,同时保证较好的识别率及准确率,该方法考虑了实际操作的成本及准确率、响应速度等方面的要求,克服了基于数据手套控制成本高及基于鼠标键盘等传统人机交互方式对专业知识有一定要求的问题,具有操作人性化、响应速度快、准确率高的优点,并且具有很好的鲁棒性。
为实现上述目的,本发明所提供的技术方案为:一种基于Kinect传感器的仿人机械手控制方法,包括以下步骤:
1)通过Kinect传感器采集数据;
2)对采集的数据进行预处理,然后使用相关算法进行手势分割;
3)使用DBN神经网络进行手势识别;
4)将识别的手势转化成固定格式的指令;
5)利用TCP协议进行远程通信,将指令发送到服务器端;
6)服务器端接收并识别指令,通过运动学计算得到控制参数;
7)服务器端根据控制参数控制机械手的运动。
在步骤1)中,所述Kinect传感器固定于支架上或者放置在桌面上,操作者面对Kinect传感器,并在操作过程中保持与Kinect传感器距离在0.8米到4米范围内,打开客户端连接Kinect传感器,实时采集深度图像、RGB图像及骨骼关节位置数据。
在步骤2)中,所述手势分割包括基于深度图像的手势分割与基于RGB-D图像的手势分割,具体如下:
基于深度图像的手势分割的处理如下:
结合Kinect的深度图像及手部关节点位置信息进行手势图像分割,能够有效去除背景,采用中值滤波进行噪声处理,并且结合形态学开闭运算、腐蚀膨胀处理使得图像更加完整与清晰;通过分水岭算法进行分割,得到手势部分;最后将图像进行裁剪及伸缩变换得到固定尺寸的手势图像,最后转化成二值图像;
基于RGB-D图像的手势分割的处理如下:
将去除背景的深度图像与RGB图像对齐,从而能够掩盖RGB图像中的非手势区域,得到只有手势区域的RGB-D图像;将得到的RGB-D图像转化成灰度图像,然后进行去噪,通过分水岭算法进行分割,再进行裁剪及伸缩变换得到固定尺寸的手势图像,最后转化成二值图像;
在步骤3)中,将步骤2)中手势分割产生的固定尺寸图像矩阵转化成向量,输入到训练好的DBN神经网络模型,以计算得到的最大概率值对应的手势类别作为输出结果;基于深度图像的手势识别与基于RGB-D图像的手势识别是分开并行处理的,再通过决策系统来得到最终结果,决策系统的决策函数如下:
式中,B(D)=true表示基于深度图像分割后的手势识别成功,B(D)=flase表示识别失败;B(RGB-D)=true表示基于RGB-D图像分割后的手势识别成功,B((RGB-D)=flase表示识别失败;GD表示基于深度图像分割后识别得到的手势类别,GRGB-D表示基于RGB-D图像分割后识别得到的手势类别。
在步骤4)中,所述指令包含机械手每个关节的运动方式、运动速度、运动方向及运动角度,能够表示平移、旋转、复位、视图变化这些操作。
在步骤5)中,所述远程通信基于面向连接的TCP协议来实现,服务器端与客户端是一对多的关系,客户端识别手势后转化成控制指令,每个客户端都有自己的指令缓冲池,指令发送线程按照设定的频率从缓冲池取指令并发送到服务器端,服务器端接收的指令加入到指令队列,指令读取线程会不断从指令队列中取出指令。
在步骤6)中,先解析指令得到相关数据,数据包含各个手指的各个关节的角度信息,通过正运动学模型能够求出仿人机械手手指末梢在基础坐标系中的位置和姿态,这些角度及位姿信息共同称为控制参数;以手掌中心为原点、四指伸直且指向的方向为y轴正方向、与四指垂直且指向大拇指的方向为x轴正方向、垂直手掌平面且手心向上的方向为z轴正方向建立基础坐标系;大拇指指尖在基础坐标系中的坐标为:
其它四个手指指尖在基础坐标系中的坐标为:
式中,将大拇指、食指、中指、无名指、小指分别编号为i=1,2,3,4,5,将手指的基关节、近基关节、中间关节、末梢关节分别编号为j=1,2,3,4;则(xi,yi,zi)分别表示手指i的空间坐标,分别表示手指i的基关节角度的余弦值、正弦值,分别表示手指i的近基关节与中间关节角度之和的余弦值、正弦值,分别表示手指i的近基关节、中间关节与末梢关节角度之和的余弦值、正弦值,aij表示手指i的关节j的长度,li表示手指i的基关节在y轴正方向上的位移,di表示手指i的基关节在x轴正方向上的位移。
在步骤7)中,通过控制参数来决定仿人机械手每个舵机转动的角度,从而实现运动控制,支持在线控制和离线控制,并且支持单手控制和双手控制;所述在线控制是通过服务器端发送指令控制各个关节的运动角度及运动速度;所述离线控制是将编写好的程序下载到单片机中,然后使机械手执行编写好的动作。
本发明与现有技术相比,具有如下优点与有益效果:
1、操作控制简单:本发明方法无需操作者具备任何专业知识,也无需佩戴任何额外设备。
2、准确率高:本发明方法充分利用了Kinect传感器采集的数据,同时使用基于深度图像及基于RGB-D图像的手势分割识别,进一步提升了准确率。
3、可扩展性好:当控制不同类型的机械手时,只需要修改运动学模型里面的参数,具有很好的适应性及可扩展性。
4、同时支持单手控制及双手控制:本发明不仅支持单手控制,也可以双手同时控制,无论哪种控制模式下处理速度都能满足实时性要求,并且鲁棒性高。
5、远程通信传输效率高:本发明方法远程通信过程只需要传输简短的控制指令及少量其它相关数据,节省了很多流量。另外,将一部分计算处理工作的任务分摊到各个客户端,减轻了服务器端的压力。
附图说明
图1是系统处理流程图。
图2是DBN神经网络结构图。
图3是手势识别准确率随各层节点数变化图。
图4是分类准确率随λ取值变化图。
图5是客户端与服务端通信简图。
图6是单指结构简图及其坐标系。
图7是机械手简图及坐标系,图中的所有坐标系Z轴都是垂直于手掌平面向上的。对于大拇指而言,di可以看作垂直偏移量,li可以看作水平偏移量;对于其他手指而言di可以看作水平偏移量,li可以看作垂直偏移量(偏移量取值可正可负,在图中l1>0,l2=l3=l4=l5>0,d1>0,d2<0,d3<0,d4>0,d5>0)。
图8是仿人机器人手势动作效果图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
本发明所提供的基于Kinect传感器的仿人机械手控制方法,包括以下步骤:
1)通过Kinect for XBOX360是传感器采集数据,包含如下步骤:
1.1)将Kinect传感器固定支架上或者放置在桌面上,操作者面对Kinect传感器并且在操作过程中保持与Kinect距离在0.8米到4米范围内,为了得到较好的效果,优选的,距离保持在1米到2米范围内,图像分辨率为640×480。打开传感器,以30帧/秒的速率采集数据。
1.2)Kinect采集的深度图像每个像素占2个字节,高13位表示从Kinect红外摄像头到最近物体对象的距离(单位:毫米),低三位表示用户索引编号,因此步骤1.1)得到深度图像矩阵后需要将每个像素进行移位操作从而得到实际距离。
2)对采集的数据进行预处理,然后使用相关算法进行手势分割,手势分割包括基于深度图像的手势分割与基于RGB-D图像的手势分割。
2.1)基于深度图像的手势分割:结合Kinect的深度图像及手部关节点位置信息进行手势图像分割,可以有效去除背景,以左手控制为例,手势分割处理步骤如下:
2.1.1)根据步骤1)得到的深度图像及骨骼关节位置信息,如果左手关节点被捕捉到,则获取其深度值DL。如果未捕获到左手关节点但是捕获到肩部关节点,则使用肩部关节点的深度值DS减去阈值threshol1得到左手深度值DL,即DL=DS-threshold1,threshol1需要根据实际情况及经验调整,优选取值390mm。如果肩部关节点也未被捕获到,记此时的深度图像最小深度值为Dmin,使用最小深度值加上某个阈值threshold2得到左手深度值DL,即DL=Dmin+threshold2,threshold2需要根据实际情况及经验调整,优选取值68mm。根据经验取两个阈值D1,D2,将深度值位于区间[DL-D1,DL+D2]内的像素点当作手势区域,在区间外的全部当做背景去除,得到只有手势部分的灰度图像;
2.1.2)在2.1.1)中得到的图像一般会有噪声,因此需要进行去噪。本专利申请提出的方法采用中值滤波进行噪声处理,并且结合形态学开闭运算、腐蚀膨胀处理使得图像更加完整与清晰。当身体其它部位或周围物体与手掌在同一个深度范围时,得到的图像中不仅仅是手势还有身体其它部位或周围物体,通过分水岭算法进行分割,得到手势部分。如果分割结果中包含多个分割区域,则结合形态学、面积大小等方面特征判断手势区域。
2.1.3)将2.1.2)得到的图像进行裁剪及伸缩变换得到M×N的手势图像,最后转化成二值图像,优选M=100,N=100。
2.2)基于RGB-D图像的手势分割处理步骤如下:
2.2.1)将基于深度图像分割步骤2.1.1)得到的图像与RGB图像对齐,从而可以掩盖RGB图像中的非手势区域,得到只包含手势区域的RGB-D图像;
2.2.2)对于2.2.1)得到的RGB-D图像按照基于深度图像分割步骤2.1.2)及步骤2.1.3)的方式进行处理,最终得到M×N的二值图像。
本发明申请提出的方法中有两种控制模式:单手控制模式及双手控制模式,在双手控制模式的情况下需要从一帧图像中分别分割得到左右两个手的手势图像,右手处理步骤与左手相同。无论是基于深度图像的手势分割还是基于RGB-D的手势分割,最后得到的都是M×N的二值图像。
3)使用DBN神经网络进行手势识别
步骤2)中手势分割产生的图像尺寸为M×N,转化成1×MN的向量,输入到训练好的DBN神经网络模型,将计算得到的概率最大的手势种类作为结果输出。基于深度图像的手势识别与基于RGB-D图像的手势识别是分开并行处理的,再通过决策系统来得到最终结果,这样做是为了保证效率的同时提升准确率。决策系统的决策函数如下:
式中,B(D)=true表示基于深度图像分割后的手势识别成功,B(D)=flase表示识别失败;B(RGB-D)=true表示RGB-D图像分割后的手势识别成功,B((RGB-D)=flase表示识别失败;GD表示基于深度图像分割后识别得到的手势种类,GRGB-D表示基于RGB-D图像分割后识别得到的手势种类。
4)将识别的手势转化成固定格式的指令
将步骤3)识别的手势转化成计算机容易传输、处理且可扩展性好的指令,指令中包含了机械手每个关节的舵机应该运动的角度,从而可以被运动学计算子系统所识别。指令长度不固定,根据需要来设定,每个数据位可取值范围都是从0–Z,即每个数据位有36种取值,完全能够表达各种运动状态。常规的指令长度为12位,涵盖了机械手每个手指的每个关节的运动方式、运动速度、运动方向及运动角度,能够表示平移、旋转、复位、视图变化等操作。
5)利用TCP协议进行远程通信,将指令发送到服务器端,具体如下:
远程通信通过面向连接的TCP协议实现。服务器端与客户端是一对多的关系,客户端识别手势后通过手势与指令转化子系统转化成控制指令,每个客户端都有自己的指令缓冲池,指令发送线程按照一定的频率从缓冲池取指令并发送到服务器端,服务器端接收的指令放入指令池中,指令读取线程会不断从指令池取出并解析指令。
6)服务器端接收并识别指令,通过运动学计算得到控制参数,具体如下:
控制参数包含各个手指各个关节的角度,通过正运动学模型可以求出仿人机械手手指末梢在基础坐标系中的位置和姿态,大拇指指尖在基础坐标系中的坐标为:
其它四个手指指尖在基础坐标系中的坐标为:
式中,将大拇指、食指、中指、无名指、小指分别编号为i=1,2,3,4,5,将手指的基关节、近基关节、中间关节、末梢关节分别编号为j=1,2,3,4。则(xi,yi,zi)分别表示手指i的空间坐标,分别表示手指i的基关节角度的余弦值、正弦值,分别表示手指i的近基关节与中间关节角度之和的余弦值、正弦值,分别表示手指i的近基关节、中间关节与末梢关节角度之和的余弦值、正弦值,aij表示手指i的关节j的长度。以手掌中心为原点、四指伸直且指向的方向为y轴正方向、与四指垂直且指向大拇指的方向为x轴正方向、垂直手掌平面且手心向上的方向为z轴正方向建立基础坐标系,则li表示手指i的基关节在y轴正方向上的位移,di表示手指i的基关节在x轴正方向上的位移。
7)服务器端根据控制参数控制机械手的运动,具体如下:
通过控制参数来决定仿人机械手每个舵机转动的角度,从而实现运动控制,支持在线控制和离线控制,并且支持单手控制和双手控制。在线控制是通过服务器端发送指令控制各个关节的运动角度及运动速度;离线控制是将编写好的程序下载到单片机中,然后使机械手执行编写好的动作。
下面结合两个具体案例对本发明上述方法进行进一步说明:
案例1----单手仿真实验
本实验的硬件包括:微软Kinect for XBOX360、运行客户端控制程序的PC机一台、运行仿真机械手控制程序的PC机一台。本实验所使用的的软件包括:基于.Net Framework4.0环境下使用C#开发的客户端程序,基于VC++、OPENGL、3DsMax开发的服务端控制程序,用来进行运动学计算及手势分割与识别的Matlab软件,存储处理记录的MySql数据库软件。本实验内容是操作者摆出某个手势,然后仿真机械手作出同样的手势,本实验将处理模式设置为左手控制模式,传感器获取的图像尺寸设定为640×480,处理后的手势图像的尺寸设定为100×100,threshol1取390mm,threshold2取68mm,D1及D2取50mm。系统处理流程如图1所示,处理步骤如下:
1)操作者面对Microsoft Kinect传感器,客户端通过实时地采集深度图像、RGB图像及骨骼关节数据,并将深度信息通过移位处理得到真实距离。
2)按照基于深度图像的分割步骤及基于RGB-D图像的分割步骤进行处理得到各自的手势图像。
3)通过DBN神经网络进行手势识别
深度信念网络(DBN)通过训练神经元之间的权值让整个神经网络按照最大概率来生成训练数据。DBN网络由多个RBM层及一个映射层组成,训练时从底层到高层逐层训练RBM。RBM网络由可视层(输入层)及隐含层(特征提取层)两层组成。本系统将100×100图像矩阵转化成1×10000向量作为其输入,输入向量只有0和1两种取值。RBM训练过程采用Hinton提出的Contrastive Divergence学习方法,该方法快速高效。
通过多个RBM叠加提取的特征具有比单层RBM更好的效果,但并非层数越多得到结果越好。通过实验对比发现,使用3个RBM层能够取得较好的效果,如图2所示。输入向量为10000维,最终通过3个RBM叠加得到n3维的特征向量。结构图中最终得到的特征向量维数较小,因此能够快速识别处理。各层的节点数会对最终结果产生较大影响,因此需要通过多次实验选取合理值,由图3可以直观地看出n1、n2、n3取值变化对最终分类结果产生的影响,n1=1000,n2=300,n3=500时能达到较好效果。中间层节点数对识别准确率的影响:在(a)中n2=300,n3=200,在n1=1000达到最优;(b)中n1=1000,n3=200,在n2=300达到最优;(c)中n1=1000,n2=300,在n3=500达到最优。
通过多个RBM得到特征后需要选取一种合适的分类器,本系统中的手势种类是预先定义的且定义不同手势是互斥的,是一个多分类问题,适合使用使用SoftMax回归模型进行分类。在softmax回归中将x分为类j的概率为:
式中,k为手势种类数,x是指通过三层RBM提取得到的特征向量。为了解决softmax回归“冗余”参数集问题,使得代价函数有唯一解,故加入权重衰减项来修改代价函数,修改后的代价函数为
式中,m表示训练集中样本数,k为分类总数,n为特征向量x的维数,本系统中x的维数对应图2中n3。J(θ)为一个凸函数,采用L-BFGS方法获得其最优解。式(2)中λ取值对实验结果有明显影响,由图4可以看出λ=1.9×10-4附近时取得较好结果,图4中的准确率是在图2中网络模型参数取n1=1000,n2=300,n3=500时计算得到的结果。
4)远程通信的设计
本系统的远程通信通过TCP/IP协议实现,服务器与客户端是一对多的关系,通信流程如图5所示。客户端识别手势后转化成控制指令,每个客户端都有自己的指令缓冲池,指令发送线程按照一定的频率从缓冲池取指令并发送到服务器端,服务器端将接收的指令加入到指令队列中,指令读取线程会不断从指令队列取出指令。
为了客户端能够直观的看到服务器控制仿人机械手的实时状态,有三种可行方案如表1所示。方案2与方案3都是虚拟现实的方法,方案3虽然进一步减少了客户端与服务器的通信,但是使得客户端设计难度增加不少,这是得不偿失的。方案1对服务器性能要求较方案2、方案3高,并且对网络性能要求也高,综合考虑选择方案2最为最终设计方案。
表1客户端实时得到仿人机械手运动状态的解决方案
运动学参数的设定
仿人机械手的运动状态实际上都是由手的各个关节在空间坐标中的位置及姿态组成的,为了能够较好的对机械手进行运动控制,需要建立合适的模型。本系统设计的仿人机械手有5个手指和15个自由度,每个手指有4个指节、3个自由度(每个手指的末梢关节与中间关节的运动具有耦合性),5个手指均采用相同结构。各个手指的参数如表2所示。
表2机械手参数
仿人机械手的单指结构简图及坐标系如图6所示,基关节、近基关节、中间关节、末梢关节均在同一个平面内,基关节垂直于手指平面运动(侧摆运动),其余关节在手指平面内运动(弯曲运动)。单指运动学的D-H参数如表3所示。机械手简图及坐标系如图7所示。
表3单指运动学的D-H参数
Kinect采集图像帧的速率为30帧/秒,单手控制模式下实时处理速度达到26帧/秒,手势识别准确率达到92%以上,能够满足实时控制和应用要求。
案例2----双手控制实验
实验中使用的仿人机器人共22个舵机,手臂尺寸完全按照正常人的手臂比例设计,5个手指也都由各自舵机驱动,两只手各有5个自由度。实验中仿人机器人通过USB数据线连接服务器端,Kinect传感器通过USB连接客户端,客户端与服务器端通过网络连接。本实验是利用双手控制仿人机器人的运动,当操作者双手做出某个手势动作后,仿人机械手也要做出相应的动作。首先在客户端程序中启动Kinect传感器,操作者站在距离Kinect传感器1米到2米范围内进行操作,当Kinect捕捉到人的手势后会将采集的深度图像、骨骼关节位置信息、RGB图像初步处理后送往手势分割、手势识别子系统进行处理。将双手手势动作转化成指令传输到服务器端,服务器端识别指令后通过运动学计算子系统计算出仿人机器人各个舵机需要转动的角度,然后按照仿人机器人指令格式要求进行转化,将指令传输人到仿人机器人的控制器,控制器即可控制舵机的转动。
USB传输数据时间可以忽略不计,因此仿人机器人双手运动速度主要取决于手势分割识别的处理速度。通过多次实验结果得到手势分割识别过程的平均速度大约为21帧/秒,图8为仿人机器人做出的动作。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。
Claims (6)
1.一种基于Kinect传感器的仿人机械手控制方法,其特征在于,包括以下步骤:
1)通过Kinect传感器采集数据;
2)对采集的数据进行预处理,然后使用相关算法进行手势分割;所述手势分割包括基于深度图像的手势分割与基于RGB-D图像的手势分割,具体如下:
基于深度图像的手势分割的处理如下:
结合Kinect的深度图像及手部关节点位置信息进行手势图像分割,能够有效去除背景,采用中值滤波进行噪声处理,并且结合形态学开闭运算、腐蚀膨胀处理使得图像更加完整与清晰;通过分水岭算法进行分割,得到手势部分;最后将图像进行裁剪及伸缩变换得到固定尺寸的手势图像,最后转化成二值图像;
基于RGB-D图像的手势分割的处理如下:
将去除背景的深度图像与RGB图像对齐,从而能够掩盖RGB图像中的非手势区域,得到只有手势区域的RGB-D图像;将得到的RGB-D图像转化成灰度图像,然后进行去噪,通过分水岭算法进行分割,再进行裁剪及伸缩变换得到固定尺寸的手势图像,最后转化成二值图像;
3)使用DBN神经网络进行手势识别
将步骤2)中手势分割产生的固定尺寸图像矩阵转化成向量,输入到训练好的DBN神经网络模型,以计算得到的最大概率值对应的手势类别作为输出结果;基于深度图像的手势识别与基于RGB-D图像的手势识别是分开并行处理的,再通过决策系统来得到最终结果,决策系统的决策函数如下:
式中,B(D)=true表示基于深度图像分割后的手势识别成功,B(D)=flase表示识别失败;B(RGB-D)=true表示基于RGB-D图像分割后的手势识别成功,B((RGB-D)=flase表示识别失败;GD表示基于深度图像分割后识别得到的手势类别,GRGB-D表示基于RGB-D图像分割后识别得到的手势类别;
4)将识别的手势转化成固定格式的指令;
5)利用TCP协议进行远程通信,将指令发送到服务器端;
6)服务器端接收并识别指令,通过运动学计算得到控制参数;
7)服务器端根据控制参数控制机械手的运动。
2.根据权利要求1所述的一种基于Kinect传感器的仿人机械手控制方法,其特征在于:在步骤1)中,所述Kinect传感器固定于支架上或者放置在桌面上,操作者面对Kinect传感器,并在操作过程中保持与Kinect传感器距离在0.8米到4米范围内,打开客户端连接Kinect传感器,实时采集深度图像、RGB图像及骨骼关节位置数据。
3.根据权利要求1所述的一种基于Kinect传感器的仿人机械手控制方法,其特征在于:在步骤4)中,所述指令包含机械手每个关节的运动方式、运动速度、运动方向及运动角度,能够表示平移、旋转、复位、视图变化这些操作。
4.根据权利要求1所述的一种基于Kinect传感器的仿人机械手控制方法,其特征在于:在步骤5)中,所述远程通信基于面向连接的TCP协议来实现,服务器端与客户端是一对多的关系,客户端识别手势后转化成控制指令,每个客户端都有自己的指令缓冲池,指令发送线程按照设定的频率从缓冲池取指令并发送到服务器端,服务器端接收的指令加入到指令队列,指令读取线程会不断从指令队列中取出指令。
5.根据权利要求1所述的一种基于Kinect传感器的仿人机械手控制方法,其特征在于:在步骤6)中,先解析指令得到相关数据,数据包含各个手指的各个关节的角度信息,通过正运动学模型能够求出仿人机械手手指末梢在基础坐标系中的位置和姿态,这些角度及位姿信息共同称为控制参数;以手掌中心为原点、四指伸直且指向的方向为y轴正方向、与四指垂直且指向大拇指的方向为x轴正方向、垂直手掌平面且手心向上的方向为z轴正方向建立基础坐标系;大拇指指尖在基础坐标系中的坐标为:
其它四个手指指尖在基础坐标系中的坐标为:
6.根据权利要求1所述的一种基于Kinect传感器的仿人机械手控制方法,其特征在于:在步骤7)中,通过控制参数来决定仿人机械手每个舵机转动的角度,从而实现运动控制,支持在线控制和离线控制,并且支持单手控制和双手控制;所述在线控制是通过服务器端发送指令控制各个关节的运动角度及运动速度;所述离线控制是将编写好的程序下载到单片机中,然后使机械手执行编写好的动作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710005939.0A CN106909216B (zh) | 2017-01-05 | 2017-01-05 | 一种基于Kinect传感器的仿人机械手控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710005939.0A CN106909216B (zh) | 2017-01-05 | 2017-01-05 | 一种基于Kinect传感器的仿人机械手控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106909216A CN106909216A (zh) | 2017-06-30 |
CN106909216B true CN106909216B (zh) | 2020-05-22 |
Family
ID=59206797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710005939.0A Active CN106909216B (zh) | 2017-01-05 | 2017-01-05 | 一种基于Kinect传感器的仿人机械手控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106909216B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107263449B (zh) * | 2017-07-05 | 2020-01-10 | 中国科学院自动化研究所 | 基于虚拟现实的机器人远程示教系统 |
CN107678425A (zh) * | 2017-08-29 | 2018-02-09 | 南京理工大学 | 一种基于Kinect手势识别的小车控制装置 |
CN107564065B (zh) * | 2017-09-22 | 2019-10-22 | 东南大学 | 一种协作环境下人机最小距离的测算方法 |
CN108127673A (zh) * | 2017-12-18 | 2018-06-08 | 东南大学 | 一种基于多传感器融合的非接触式机器人人机交互系统 |
CN108096833B (zh) * | 2017-12-20 | 2021-10-01 | 北京奇虎科技有限公司 | 基于级联神经网络的体感游戏控制方法及装置、计算设备 |
CN109145802B (zh) * | 2018-08-14 | 2021-05-14 | 清华大学 | 基于Kinect的多人手势人机交互方法及装置 |
CN109172066B (zh) * | 2018-08-18 | 2019-12-20 | 华中科技大学 | 基于语音控制与视觉识别的智能假肢手及其系统和方法 |
CN109240492A (zh) * | 2018-08-21 | 2019-01-18 | 安徽励图信息科技股份有限公司 | 通过手势识别控制演播室包装和点评系统的方法 |
CN109397286A (zh) * | 2018-09-29 | 2019-03-01 | Oppo广东移动通信有限公司 | 机器人控制方法、装置、电子设备和计算机可读存储介质 |
CN109543543A (zh) * | 2018-10-25 | 2019-03-29 | 深圳市象形字科技股份有限公司 | 一种基于计算机视觉技术的辅助二胡练习者弓法检测方法 |
CN109523567A (zh) * | 2018-10-25 | 2019-03-26 | 深圳市象形字科技股份有限公司 | 一种基于计算机视觉技术的辅助二胡练习者指法检测方法 |
CN109711294A (zh) * | 2018-12-14 | 2019-05-03 | 深圳市象形字科技股份有限公司 | 一种基于计算机视觉的辅助小提琴练习者弓法检测方法 |
CN110123280B (zh) * | 2019-05-23 | 2021-04-30 | 浙江大学 | 一种基于智能移动终端操作行为识别的手指灵活度检测模型的构建方法 |
CN110695990A (zh) * | 2019-09-23 | 2020-01-17 | 江苏理工学院 | 一种基于Kinect手势识别的机械臂控制系统 |
CN111590560A (zh) * | 2020-04-24 | 2020-08-28 | 郭子睿 | 一种通过摄像头远程操作机械手的方法 |
WO2022120670A1 (zh) * | 2020-12-10 | 2022-06-16 | 深圳市优必选科技股份有限公司 | 机械臂的运动轨迹规划方法及装置、机械臂及存储介质 |
CN112738801B (zh) * | 2020-12-11 | 2023-05-23 | 广东电力通信科技有限公司 | 一种适用于智能通信网关的管理方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4681870B2 (ja) * | 2004-12-17 | 2011-05-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、コンピュータプログラム |
CN104589356B (zh) * | 2014-11-27 | 2016-08-24 | 北京工业大学 | 基于Kinect人手运动捕捉的灵巧手遥操作控制方法 |
-
2017
- 2017-01-05 CN CN201710005939.0A patent/CN106909216B/zh active Active
Non-Patent Citations (1)
Title |
---|
人工神经网络原理与实践;陈雯柏;《西安电子科技大学出版社》;20160131;第11.1节 * |
Also Published As
Publication number | Publication date |
---|---|
CN106909216A (zh) | 2017-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106909216B (zh) | 一种基于Kinect传感器的仿人机械手控制方法 | |
CN108972494B (zh) | 一种仿人机械手抓取控制系统及其数据处理方法 | |
CN111694428B (zh) | 基于Kinect的手势与轨迹远程控制机器人系统 | |
CN108453742B (zh) | 基于Kinect的机器人人机交互系统及方法 | |
Lee et al. | Model-based analysis of hand posture | |
JP4878842B2 (ja) | ロボットの駆動方法 | |
CN109044651B (zh) | 未知环境中基于自然手势指令的智能轮椅控制方法及系统 | |
CN106625658A (zh) | 一种实时模仿人体上半身动作的人形机器人控制方法 | |
CN107030692B (zh) | 一种基于感知增强的机械手遥操作方法及系统 | |
Wachs et al. | Real-time hand gesture telerobotic system using fuzzy c-means clustering | |
Khajone et al. | Implementation of a wireless gesture controlled robotic arm | |
Gourob et al. | A robotic hand: Controlled with vision based hand gesture recognition system | |
Li et al. | Teleoperation of a virtual icub robot under framework of parallel system via hand gesture recognition | |
Yang et al. | Real-time human-robot interaction in complex environment using kinect v2 image recognition | |
Shin et al. | Integration of deep learning-based object recognition and robot manipulator for grasping objects | |
CN113386128B (zh) | 一种面向多自由度机器人的体势交互方法 | |
Duan et al. | Learning human-to-robot dexterous handovers for anthropomorphic hand | |
CN114495273A (zh) | 一种机器人手势遥操作方法及相关装置 | |
Wu et al. | Kinect-based robotic manipulation: From human hand to end-effector | |
CN109214295B (zh) | 基于Kinect v2和Leap Motion的数据融合的手势识别方法 | |
CN110695990A (zh) | 一种基于Kinect手势识别的机械臂控制系统 | |
Chen et al. | Dynamic gesture design and recognition for human-robot collaboration with convolutional neural networks | |
Infantino et al. | Visual control of a robotic hand | |
Mazhar et al. | A framework for real-time physical human-robot interaction using hand gestures | |
TK et al. | Real-Time Virtual Mouse using Hand Gestures for Unconventional Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |