CN104777775A - 一种基于Kinect装置的两轮自平衡机器人控制方法 - Google Patents

一种基于Kinect装置的两轮自平衡机器人控制方法 Download PDF

Info

Publication number
CN104777775A
CN104777775A CN201510133682.8A CN201510133682A CN104777775A CN 104777775 A CN104777775 A CN 104777775A CN 201510133682 A CN201510133682 A CN 201510133682A CN 104777775 A CN104777775 A CN 104777775A
Authority
CN
China
Prior art keywords
gesture
template
kinect
vector
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510133682.8A
Other languages
English (en)
Inventor
阮晓钢
田重阳
李望博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201510133682.8A priority Critical patent/CN104777775A/zh
Publication of CN104777775A publication Critical patent/CN104777775A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Toys (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于Kinect装置的两轮自平衡机器人控制方法,涉及机器人控制领域,具体应用在两轮自平衡机器人运动控制和人机交互系统。本发明利用Kinect与DTW手势识别算法设计了一种利用人类自然手势控制两轮自平衡机器人运动行为的系统。系统包括:图像采集模块,图像处理模块,无线通信模块,运动控制模块和运动执行模块。特别是在系统控制方法设计基础上使用Kinect传感器和DTW手势识别算法,实现人与两轮自平衡机器人的自然交互控制。本发明具有良好的鲁棒性和容错性。

Description

一种基于Kinect装置的两轮自平衡机器人控制方法
技术领域
本发明涉及机器人控制领域,具体应用在两轮自平衡机器人的人机交互系统上。
背景技术
当前计算机的两个发展方向是计算机系统的拟人化(虚拟现实)和微型化(智能手机)。利用人的感觉和动作(如语言、手写、姿势、视线、表情等),以并行、非精确的方式与计算机环境进行交互,可以大大提高人机交互的效率和自然性。近年来多通道交互技术发展迅速,它满足“以人为中心”的自然交互准则,同时也推动了互联网时代信息产业的快速发展。多通道交互技术通过多种通道和计算机通信,其中通道包含了操作者能够表达意图、执行动作和感知反馈的各种通信方法,如语言、面部表情、手动、唇动、头动、手势、人体姿势、触觉、味觉和嗅觉等。该技术目前己有不少成熟产品,如手写识别、数字墨水、笔式交互、语音识别、语音合成等。此外,很多相关的研究也取得很明显的进展,如手势识别及合成、视线跟踪、面部表情识别等。
微软公司推出的Kinect体感设备在人体跟踪以及姿态估计方面有着出色的表现。作为新一代自然人机交互技术的典范,Kinect实现了用户通过语音和手势等行为与计算机进行更自然的交互。为了发掘Kinect的更大潜力,微软公司推出了Kinect forWindows SDK开发工具包。配合此工具包可以利用Kinect的体感技术,获取的人体深度信息,通过识别人体动作和手势,来理解操作者的意图,从而利用计算机对机器人进行有效的操作。
近年来两轮自平衡机器人不仅具有娱乐功能,还能够代替人高效地完成许多工作。随着机器人技术的发展,两轮自平衡机器人或相应的智能产品越来越多地走进家庭、工厂和企业,为人类提供各种娱乐、生产等服务,使得人与机器人的交互活动变得越来越普遍,因此能够更加自然有效的对两轮自平衡机器人进行运动控制显得越来越重要。
目前手势识别方法主要包含动态时空规整、动态规划算法和模板匹配方法。模板匹配算法是其中最为简单的实现,即将已经建好的模板与每个动作的特征数据进行比较,根据两者的相似度来判别手势。计算代价低是模板匹配算法的优点,其缺点是容易受到时间间隔变化的影响。DTW是在动态规划基础上发展起来的一种很好的非线性时间规整方法。它具有非线性归一化效果的模式匹配算法,釆用对特征信号进行伸长或缩短直至与标准模式的长度一致,以使得与模板更好的匹配。其优点是步骤简单,计算量少,对于单一动作序列的识别比较出色。在现有的手势识别技术中,多采用肤色空间进行手势分割、建模,这种方法容易受到光照等因素的影响。而本文使用的Kinect设备能够提供人体深度图像信息,能够在黑暗的条件下提供人体骨賂图像,所以本文所使用的手势识别方法不受光照条件影响,应用性较强。
发明内容
为了能够更自然有效地控制两轮自平衡机器人的运动行为,本发明提出了基于Kinect装置的一种两轮自平衡机器人运动控制方法,使人可以利用简单的肢体动作来控制两轮自平衡机器人的运动行为。
本发明采用如下技术方案:
基于Kinect装置的两轮自平衡机器人控制系统,系统包括:图像采集模块,图像处理模块,无线通信模块,运动控制模块和运动执行模块。
所述图像采集模块包括Kinect的一个RGB摄影头,一对3D深度摄像头及一个转动马达,图像采集模块具备即时动态捕捉、影像传输和多人互动的功能;Kinect机身上的3个镜头中位于中间的是RGB彩色摄像头,一侧放置为红外线发射器镜头,另一侧放置为红外线CMOS摄像头;红外线发射器镜头和红外线CMOS摄像头构成了三维深度图像传感器;三维深度图像传感器用来获取操作者的动作,而RGB彩色摄像头则是用来辨别操作者的身份;位于Kinect底座的是一个马达,所述马达能上下转动,以便于扩大Kinect的视角范围;
所述图像处理模块首先通过USB线缆接收来自图像采集模块即Kinect采集到的图像信息,以Kinectforwindows SDK中提供的人体骨豁模型为基础通过Kinectforwindows SDK获得骨骼模型中20个节点的三维坐标信息;选择这20个骨豁节点中的4对节点作为动态手势的特征处理,分别为左手节点、右手节点、左手手腕节点、右手手腕节点、左手手肘节点、右手手肘节点、左肩节点和右肩节点,获取能够代表手势的特征向量;最后利用DTW算法对获取的手势特征向量与模板库中的样本进行对比,所述的对比方法为在DTW算法中,定义特征向量空间T,其中:
f:T×T→R≥0
己知长度为N的时间序列X=(x1,x2,……,xN)和长度为M的时间序列Y=(y1,y2,……,yM),其中N和M不一定相等。定义一个时间规整函数f来描述两个时间序列的相似性,f(x,y)即两个特征向量的距离。f的值为大于0的实数,当两个时间序列的相似度越高时,这两个特征向量的距离越小,f(x,y)的值越小;反之,当两个时间序列的相似度越低时,这两个特征向量的距离越大,f(x,y)的值越大。计算距离结果最短的样本手势为待识别手势的识别结果;
所述无线通信模块由两块nRF24L01无线通信芯片组成,其中一块芯片和控制系统上位机即PC机串口相连,接收发送来自计算机对手势的处理结果指令,另一片和两轮自平衡机器人的数字处理器相连,用以接收上位机发送的控制指令;通过串口通信中断程序实现上位机和下位机的无线通信功能;所述的上位机为PC机,所述的下位机为机器人数字信号处理器;
所述运动控制模块包括运动姿态控制模块、左右轮运动量控制模块、左右轮电机和电源,运动姿态控制模块由数字信号处理器采集微型姿态方位传感器MTI后通过PID控制实现;左右轮转动量则通过PWM波输出和电机驱动器完成;电源由电池、电源分配器和各级开关组成,在正常运行状态下,锂电池组输出22.2V直流电,其中一部分为左右轮电机供电,另一部分经过电源适配器降压为5V和12V直流输出,分别为系统中相应电子设备供电。
所述运动执行模块,包括两组直流电机及其伺服系统构成,是两轮自平衡机器人的动力装置,两轮自平衡机器人由两个直流电机同轴差分驱动,每一个主动轮采用一台直流电机独立驱动,通过数字信号处理器控制PWM波的占空比来调节相应驱动轮的转速,达到调速的目的,从而实现运动功能。
所述基于Kinect装置的两轮自平衡机器人控制系统,所述的模式识别过程即基于DTW的动态手势识别包括以下三个步骤:
步骤S1:训练动态手势样本,建立动态手势模板库;
输入手臂上抬、下降、左摆、右摆、放平作为手势动作样本,确定为一个要识别的动态手势,将这个手势进行预处理;所述的预处理过程为利用Kinect获取骨骼模型中20个节点的三维坐标信息,选择这20个骨骼节点中的四对节点作为动态手势的特征处理对象,分别为左右手节点、左右手腕节点、左右手肘节点和左右肩节点,此时能代表一个动态手势的特征向量可以表示为:
Vn=(x1,y1,z1,……x8,y8,z8)
其中n为一个手势所包含的特征向量个数。在实际的动态手势识别过程中,肩部的移动相对比较微小,因此肩部的位置可以被用作基准点的计算。定义基准点B(xb,yb,zb)为肩部连线的中心,其中:
B ( x b , y b , z b ) = 1 2 ( x 7 + x 8 , y 7 + y 8 , z 7 + z 8 )
在计算出基准点之后,定义
V ′ = | V - B | | L - R |
其中B为计算得到的基准点在原有坐标系中对应的向量;V为归一化前骨骼节点对应的向量;V′为归一化后该骨骼节点对应的向量;L为左肩对应的向量;R为右肩对应的向量。由于左肩和右肩的相对固定性,釆用左肩和右肩的距离作为标准长度。通过以上方式就可以将原有的坐标系转换成以双肩中心点为原点的双手坐标系,其中基准点B作为双手坐标系原点。这样,就消除了人体尺寸和距离Kinect远近对特征向量所产生的变化,从而得到预处理后的手势特征向量;将这个特征向量作为一个参考模板存放在模板库中,设这个手势模板为L={L(1),L(2),……,L(m),……,L(M)},其中m为训练手势帧的时序标号,M为该手势模板所包含的手势顿的总数,L(m)为第m帧的模板手势特征向量;按照上述方法,依次训练要识别的模板手势,将模板手势录入到模板库中,从而建立起动态手势模板库;
步骤S2:计算待识别手势序列和样本库中任意模板间的距离;
从Kinect摄像头中输入待识别手势,对这些进行手势预处理获取待识别手势的特征向量;将此向量作为一个测试模板,设为T={T(1),T(2),……,T(n),……,T(N)},其中n为测试手势倾的时序标号,N为该测试模板所包含的手势帧总数,T(n)为第n帧的测试手势特征矢量,利用DTW算法计算出测试模板和手势模板之间的最短距离,用D[T,L]表示;
步骤S3:与样本库中的手势对比,求出最短路径,识别手势;
当步骤S2得到距离越短时,相似度越高;当距离越长时,相似度越低,从而得到全局最优路径,达到识别手势的目的;在计算距离时须保证参考模板与测试模板帧长、特征向量和采样时间相同。
所述基于Kinect的两轮自平衡机器人控制系统,其特征在于:所述的无线通信模块采用nRF24L01芯片,通信距离理论值为150m,数据传输速度为2M,工作在2.4GHz~2.5GHz的ISM频段。
本发明可以取得如下有益效果:
一、本方法为两轮自平衡机器人的运动控制及人机交互系统的实现提供了一套完整有效的解决方案;
二、本方法利用Kinect传感器,可以适应更多种图像信息的采集环境,系统鲁棒性更强;
三、手势识别方法中利用了DTW算法,能够使Kinect对动态手势识别效果更显著;
四、本方法使用的无线通信模块nRF24L01通信距离理论值为150m,数据传输速度为2M,满足该无线通信系统的要求。
五、手势识别模式只需机器人数字信号处理器进行开关切换,方便操控。
从上述控制方法可以看出,通过此方法,操作者可以通过自然的人类基本手势对两轮自平衡机器人进行有效的运动行为控制。
附图说明
图1是基于Kinect装置的两轮自平衡机器人控制方法的流程图;
图2是本发明的系统层次结构图;
图3是本发明的结构示意图;
图4是本发明中用到的Kinect结构示意图;
图5是本发明的手势识别系统示意图;
图6是本发明中使用的无线通信模块nRF24L01的电路图;
图7是本发明的物理实验示意图。
具体实施方式
下面结合附图和具体实施方式对于本发明作进一步的说明:
基于Kinect装置的两轮自平衡机器人控制方法,如图1所示,该方法包括以下几个步骤:
步骤1:将Kinect的USB接口电缆和PC机的USB接口连接并配置好软件运行环境;
步骤2:打开VS2010编译环境,运行已编译成功的图像处理主程序;
步骤3:将两轮自平衡机器人上电,并将机器人控制程序通过调试软件和USB数据线下载到控制系统的数字信号处理器中;
步骤4:通过Kinect采集手势信息并进行预处理;
步骤5:计算机对预处理完成的手势信息运用DTW算法进行模式分类,并与模板库的手势样本对比得出手势识别结果;
步骤6:将识别出来的手势信息作为机器人运行指令通过无线通信模块发送给两轮自平衡机器人的数字信号处理器。
从上述控制方法可以看出,通过此方法,操作者可以通过自然的人类基本手势对两轮自平衡机器人进行有效的运动行为控制。
基于Kinect装置的两轮自平衡机器人控制方法如图2所示,主要分为Kinect层、手势识别层和应用层,Kinect层主要采集到骨骼节点信息、深度图像信息和彩色图像信息;手势识别层主要利用DTW算法进行手势动作的识别;应用层则利用无线通信模块和机器人相连接进行机器人控制同时显示出彩色的图像。本发明的整体系统结构如图3所示,主要包括Kinect图像采集模块1、PC机图像处理模块2、无线通信模块3、运动控制模块4、MTI微型姿态方位传感器5以及运动执行模块6,Kinect图像采集模块和PC机图像处理模块相连接,进行手势图像的处理和识别,无线通信模块作为一个枢纽进行上位机和下位机之间的无线通信,运动控制模块和运动执行模块作为两轮自平衡机器人的运动执行单元,MTI微型姿态传感器与运动控制模块相连,提供姿态信号,从而保持机器人的平衡。
一、Kinect传感器
本发明的图像采集设备是微软公司的Kinect传感器,如图4所示,Kinect的3个镜头中位于中间的是比较常见的RGB彩色摄像头,左边的镜头为红外线发射器,右边的镜头为红外线CMOS摄像头。左右两侧的镜头能够实时提供人体骨骼模型,在某一时刻可以获取骨豁节点的位置,进而得到骨豁节点之间的夹角和相对位置。若在连续的一段时间内,则可以获得骨骼节点的运动向量。获取到的这些信息数据可以用来识别人体姿势和手势。转动马达只能上下转动而不能左右转动,使用时应避免左右扭动造成损坏。
二、DTW手势识别算法
基于DTW的动态手势识别过程如图5所示:首先通过Kinect获取人体骨骼模型,在其中找出动态手势所涉及到的骨豁节点,然后进行动态手势的预处理,获取能够代表手势的特征向量,最后利用DTW算法对获取的手势特征向量与模板库中的样本进行匹配,计算出最短路径,最终匹配路径最短的手势为待识别手势。
DTW手势识别算法主要有以下几个步骤:
(1)训练动态手势样本,建立动态手势模板库;
输入一些特定的肢体和手势动作作为样本,确定为一个要识别的动态手势,将这个手势进行预处理,获取手势的特征向量。将这个特征向量作为一个参考模板存放在模板库中,设这个手势模板为L={L(1),L(2),……,L(m),……,L(M)},其中m为训练手势帧的时序标号,M为该手势模板所包含的手势顿的总数,L(m)为第m帧的模板手势特征向量。按照上述方法,依次训练要识别的模板手势,将模板手势录入到模板库中,从而建立起动态手势模板库。
(2)计算待识别手势序列和样本库中任意两点间的距离;
从Kinect摄像头中输入待识别手势,对这些手势进行预处理获取待识别手势的特征向量。将此向量作为一个测试模板,设为T={T(1),T(2),……,T(n),……,T(N)},其中n为测试手势帧的时序标号,N为该测试模板所包含的手势帧总数,T(n)为第n帧的测试手势特征矢量,利用DTW算法计算出测试模板和手势模板之间的最短距离,用D[T,L]表示。
(3)与样本库中的手势对比,求出最短路径,识别手势。
当步骤(2)得到距离越短时,相似度越高;当距离越长时,相似度越低,从而得到全局最优路径,达到识别手势的目的。在计算距离时须保证参考模板与测试模板帧长、特征向量和采样时间相同。
三、nRF24L01无线通信模块
nRF24L01是由NORDIC生产的工作在2.4GHz~2.5GHz的ISM频段的单片无线收发器芯片。它包括:频率发生器、增强型“SchockBurst”模式控制器、功率放大器、晶体振荡器、调制器和解调器。本发明应用的nRF24L01无线模块内部电路如图6所示,该模块有收发模式、配置模式、空闲模式和关机模式四种工作模式。输出功率频道选择和协议的设置可以通过SPI接口进行设置以此完成无线数据传送工作。当工作在发射模式下发射功率为0dBm时电流消耗为11.3mA,接收模式时为12.3mA,掉电模式和待机模式下电流消耗更低。
在本发明物理实验中,以实验室为实验环境,机器人可以正确无误地按照实验者手势指令进行运动,如图7所示。
最后应说明的是:以上示例仅用以说明本发明而并非限制本发明所描述的技术方案;因此,尽管本说明书参照上述的示例对本发明已进行了详细的说明,但是,本领域的普通技术人员应当理解,仍然可以对本发明进行修改或等同替换;而一切不脱离发明的精神和范围的技术方案及其改进,其均应涵盖在本发明的权利要求范围当中。

Claims (3)

1.基于Kinect装置的两轮自平衡机器人控制系统,其特征在于:系统包括:图像采集模块,图像处理模块,无线通信模块,运动控制模块和运动执行模块;
所述图像采集模块包括Kinect的一个RGB摄影头,一对3D深度摄像头及一个转动马达,图像采集模块具备即时动态捕捉、影像传输和多人互动的功能;Kinect机身上的3个镜头中位于中间的是RGB彩色摄像头,一侧放置为红外线发射器镜头,另一侧放置为红外线CMOS摄像头;红外线发射器镜头和红外线CMOS摄像头构成了三维深度图像传感器;三维深度图像传感器用来获取操作者的动作,而RGB彩色摄像头则是用来辨别操作者的身份;位于Kinect底座的是一个马达,所述马达能上下转动,以便于扩大Kinect的视角范围;
所述图像处理模块首先通过USB线缆接收来自图像采集模块即Kinect采集到的图像信息,以Kinect for windows SDK中提供的人体骨豁模型为基础通过Kinect for windows SDK获得骨骼模型中20个节点的三维坐标信息;选择这20个骨豁节点中的4对节点作为动态手势的特征处理,分别为左手节点、右手节点、左手手腕节点、右手手腕节点、左手手肘节点、右手手肘节点、左肩节点和右肩节点,获取能够代表手势的特征向量;最后利用DTW算法对获取的手势特征向量与模板库中的样本进行对比,所述的对比方法为在DTW算法中,定义特征向量空间T,其中:
f:T×T→R≥0
己知长度为N的时间序列X=(x1,x2,……,xN)和长度为M的时间序列Y=(y1,y2,……,yM),其中N和M不一定相等;定义一个时间规整函数f来描述两个时间序列的相似性,f(x,y)即两个特征向量的距离;f的值为大于0的实数,当两个时间序列的相似度越高时,这两个特征向量的距离越小,f(x,y)的值越小;反之,当两个时间序列的相似度越低时,这两个特征向量的距离越大,f(x,y)的值越大;计算距离结果最短的样本手势为待识别手势的识别结果;
所述无线通信模块由两块nRF24L01无线通信芯片组成,其中一块芯片和控制系统上位机即PC机串口相连,接收发送来自计算机对手势的处理结果指令,另一片和两轮自平衡机器人的数字处理器相连,用以接收上位机发送的控制指令;通过串口通信中断程序实现上位机和下位机的无线通信功能;所述的上位机为PC机,所述的下位机为机器人数字信号处理器;
所述运动控制模块包括运动姿态控制模块、左右轮运动量控制模块、左右轮电机和电源,运动姿态控制模块由数字信号处理器采集微型姿态方位传感器MTI后通过PID控制实现;左右轮转动量则通过PWM波输出和电机驱动器完成;电源由电池、电源分配器和各级开关组成,在正常运行状态下,锂电池组输出22.2V直流电,其中一部分为左右轮电机供电,另一部分经过电源适配器降压为5V和12V直流输出,分别为系统中相应电子设备供电;
所述运动执行模块,包括两组直流电机及其伺服系统构成,是两轮自平衡机器人的动力装置,两轮自平衡机器人由两个直流电机同轴差分驱动,每一个主动轮采用一台直流电机独立驱动,通过数字信号处理器控制PWM波的占空比来调节相应驱动轮的转速,达到调速的目的,从而实现运动功能。
2.基于Kinect装置的两轮自平衡机器人控制方法,其特征在于:模式识别过程即基于DTW的动态手势识别包括以下三个步骤:
步骤S1:训练动态手势样本,建立动态手势模板库;
输入手臂上抬、下降、左摆、右摆、放平作为手势动作样本,确定为一个要识别的动态手势,将这个手势进行预处理;所述的预处理过程为利用Kinect获取骨骼模型中20个节点的三维坐标信息,选择这20个骨骼节点中的四对节点作为动态手势的特征处理对象,分别为左右手节点、左右手腕节点、左右手肘节点和左右肩节点,此时能代表一个动态手势的特征向量可以表示为:
Vn=(x1,y1,z1,......x8,y8,z8)
其中n为一个手势所包含的特征向量个数;在实际的动态手势识别过程中,肩部的移动相对比较微小,因此肩部的位置可以被用作基准点的计算;定义基准点B(xb,yb,zb)为肩部连线的中心,其中:
B ( x b , y b , z b ) = 1 2 ( x 7 + x 8 , y 7 + y 8 , z 7 + z 8 )
在计算出基准点之后,定义:
V ′ = | V - B | | L - R |
其中B为计算得到的基准点在原有坐标系中对应的向量;V为归一化前骨骼节点对应的向量;V′为归一化后该骨骼节点对应的向量;L为左肩对应的向量;R为右肩对应的向量;由于左肩和右肩的相对固定性,釆用左肩和右肩的距离作为标准长度;通过以上方式就可以将原有的坐标系转换成以双肩中心点为原点的双手坐标系,其中基准点B作为双手坐标系原点;这样,就消除了人体尺寸和距离Kinect远近对特征向量所产生的变化,从而得到预处理后的手势特征向量;将这个特征向量作为一个参考模板存放在模板库中,设这个手势模板为L={L(1),L(2),……,L(m),……,L(M)},其中m为训练手势帧的时序标号,M为该手势模板所包含的手势顿的总数,L(m)为第m帧的模板手势特征向量;按照上述方法,依次训练要识别的模板手势,将模板手势录入到模板库中,从而建立起动态手势模板库;
步骤S2:计算待识别手势序列和样本库中任意模板间的距离;
从Kinect摄像头中输入待识别手势,对这些进行手势预处理获取待识别手势的特征向量;将此向量作为一个测试模板,设为T={T(1),T(2),……,T(n),……,T(N)},其中n为测试手势倾的时序标号,N为该测试模板所包含的手势帧总数,T(n)为第n帧的测试手势特征矢量,利用DTW算法计算出测试模板和手势模板之间的最短距离,用D[T,L]表示;
步骤S3:与样本库中的手势对比,求出最短路径,识别手势;
当步骤S2得到距离越短时,相似度越高;当距离越长时,相似度越低,从而得到全局最优路径,达到识别手势的目的;在计算距离时须保证参考模板与测试模板帧长、特征向量和采样时间相同。
3.根据权利要求1所述基于Kinect的两轮自平衡机器人控制系统,其特征在于:所述的无线通信模块采用nRF24L01芯片,通信距离理论值为150m,数据传输速度为2M,工作在2.4GHz~2.5GHz的ISM频段。
CN201510133682.8A 2015-03-25 2015-03-25 一种基于Kinect装置的两轮自平衡机器人控制方法 Pending CN104777775A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510133682.8A CN104777775A (zh) 2015-03-25 2015-03-25 一种基于Kinect装置的两轮自平衡机器人控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510133682.8A CN104777775A (zh) 2015-03-25 2015-03-25 一种基于Kinect装置的两轮自平衡机器人控制方法

Publications (1)

Publication Number Publication Date
CN104777775A true CN104777775A (zh) 2015-07-15

Family

ID=53619306

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510133682.8A Pending CN104777775A (zh) 2015-03-25 2015-03-25 一种基于Kinect装置的两轮自平衡机器人控制方法

Country Status (1)

Country Link
CN (1) CN104777775A (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105137973A (zh) * 2015-08-21 2015-12-09 华南理工大学 一种人机协作场景下的机器人智能躲避人类方法
CN105223954A (zh) * 2015-10-14 2016-01-06 潍坊世纪元通工贸有限公司 一种可识别人体的路径点式行走机器人及其控制方法
CN105825744A (zh) * 2016-05-05 2016-08-03 桂林理工大学 体感控制两轮平衡车教具系统
CN105867630A (zh) * 2016-04-21 2016-08-17 深圳前海勇艺达机器人有限公司 机器人的手势识别方法及装置及机器人系统
CN105945947A (zh) * 2016-05-20 2016-09-21 西华大学 基于手势控制的机器人写字系统及其控制方法
CN106078752A (zh) * 2016-06-27 2016-11-09 西安电子科技大学 一种基于Kinect的仿人机器人人体行为模仿方法
CN106313072A (zh) * 2016-10-12 2017-01-11 南昌大学 一种基于Kinect的体感控制的类人型机器人
CN106483886A (zh) * 2016-11-30 2017-03-08 五邑大学 一种基于图像处理的智能球童系统及其调度方法
CN107272878A (zh) * 2017-02-24 2017-10-20 广州幻境科技有限公司 一种适用于复杂手势的识别方法及装置
CN107336238A (zh) * 2017-06-30 2017-11-10 北京建筑大学 全方位移动机器人的控制系统
CN107564065A (zh) * 2017-09-22 2018-01-09 东南大学 一种协作环境下人机最小距离的测算方法
CN107908288A (zh) * 2017-11-30 2018-04-13 沈阳工业大学 一种面向人机交互的快速人体动作识别方法
CN108023862A (zh) * 2016-11-03 2018-05-11 上海大学 一种基于Zigbee远程控制的无人车集群系统及控制方法
CN110065066A (zh) * 2018-01-24 2019-07-30 南京机器人研究院有限公司 一种用移动终端控制机器人进行互动的方法
CN110947181A (zh) * 2018-09-26 2020-04-03 Oppo广东移动通信有限公司 游戏画面显示方法、装置、存储介质及电子设备
WO2023123473A1 (zh) * 2021-12-31 2023-07-06 华为技术有限公司 一种人机交互方法、系统以及处理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104123007A (zh) * 2014-07-29 2014-10-29 电子科技大学 一种多维加权的3d动态手势识别方法
US20140329206A1 (en) * 2012-03-21 2014-11-06 Gaijin Entertainment Corporation System and method for simulated aircraft control through desired direction of flight
CN104216409A (zh) * 2014-09-04 2014-12-17 北京工业大学 基于模糊控制的两轮自平衡机器人避障系统及控制方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140329206A1 (en) * 2012-03-21 2014-11-06 Gaijin Entertainment Corporation System and method for simulated aircraft control through desired direction of flight
CN104123007A (zh) * 2014-07-29 2014-10-29 电子科技大学 一种多维加权的3d动态手势识别方法
CN104216409A (zh) * 2014-09-04 2014-12-17 北京工业大学 基于模糊控制的两轮自平衡机器人避障系统及控制方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
任侃: "《OpenNI体感应用开发实战》", 31 December 2014 *
王松林: "基于Kinect的手势识别与机器人控制技术研究", 《中国优秀硕士学位论文全文数据库-信息科技辑》 *
陈敬德,赵文丽等: "基于Kinect的机器人控制系统", 《电子设计工程》 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105137973B (zh) * 2015-08-21 2017-12-01 华南理工大学 一种人机协作场景下的机器人智能躲避人类方法
CN105137973A (zh) * 2015-08-21 2015-12-09 华南理工大学 一种人机协作场景下的机器人智能躲避人类方法
CN105223954A (zh) * 2015-10-14 2016-01-06 潍坊世纪元通工贸有限公司 一种可识别人体的路径点式行走机器人及其控制方法
CN105223954B (zh) * 2015-10-14 2018-03-06 潍坊世纪元通工贸有限公司 一种可识别人体的路径点式行走机器人及其控制方法
CN105867630A (zh) * 2016-04-21 2016-08-17 深圳前海勇艺达机器人有限公司 机器人的手势识别方法及装置及机器人系统
CN105825744A (zh) * 2016-05-05 2016-08-03 桂林理工大学 体感控制两轮平衡车教具系统
CN105945947A (zh) * 2016-05-20 2016-09-21 西华大学 基于手势控制的机器人写字系统及其控制方法
CN106078752A (zh) * 2016-06-27 2016-11-09 西安电子科技大学 一种基于Kinect的仿人机器人人体行为模仿方法
CN106078752B (zh) * 2016-06-27 2019-03-19 西安电子科技大学 一种基于Kinect的仿人机器人人体行为模仿方法
CN106313072A (zh) * 2016-10-12 2017-01-11 南昌大学 一种基于Kinect的体感控制的类人型机器人
CN108023862A (zh) * 2016-11-03 2018-05-11 上海大学 一种基于Zigbee远程控制的无人车集群系统及控制方法
CN106483886A (zh) * 2016-11-30 2017-03-08 五邑大学 一种基于图像处理的智能球童系统及其调度方法
CN107272878A (zh) * 2017-02-24 2017-10-20 广州幻境科技有限公司 一种适用于复杂手势的识别方法及装置
CN107336238A (zh) * 2017-06-30 2017-11-10 北京建筑大学 全方位移动机器人的控制系统
CN107564065A (zh) * 2017-09-22 2018-01-09 东南大学 一种协作环境下人机最小距离的测算方法
CN107564065B (zh) * 2017-09-22 2019-10-22 东南大学 一种协作环境下人机最小距离的测算方法
CN107908288A (zh) * 2017-11-30 2018-04-13 沈阳工业大学 一种面向人机交互的快速人体动作识别方法
CN110065066A (zh) * 2018-01-24 2019-07-30 南京机器人研究院有限公司 一种用移动终端控制机器人进行互动的方法
CN110947181A (zh) * 2018-09-26 2020-04-03 Oppo广东移动通信有限公司 游戏画面显示方法、装置、存储介质及电子设备
WO2023123473A1 (zh) * 2021-12-31 2023-07-06 华为技术有限公司 一种人机交互方法、系统以及处理装置

Similar Documents

Publication Publication Date Title
CN104777775A (zh) 一种基于Kinect装置的两轮自平衡机器人控制方法
CN102915111B (zh) 一种腕上手势操控系统和方法
Mohan et al. Teaching a humanoid robot to draw ‘Shapes’
CN105867630A (zh) 机器人的手势识别方法及装置及机器人系统
CN107243141A (zh) 一种基于运动识别的动作辅助训练系统
CN106445168A (zh) 一种智能手套及其使用方法
CN105787471A (zh) 一种应用于助老助残移动服务机器人控制的手势识别方法
CN104407694A (zh) 一种结合人脸和手势控制的人机交互方法及装置
CN102789313A (zh) 一种用户交互系统和方法
CN103984416A (zh) 一种基于加速度传感器的手势识别方法
Wu et al. A Visual-Based Gesture Prediction Framework Applied in Social Robots.
CN105915987B (zh) 一种面向智能电视的隐式交互方法
CN105739702A (zh) 用于自然人机交互的多姿态指尖跟踪方法
CN103473294A (zh) 基于msvm脑电信号特征分类的方法及智能轮椅系统
CN102789312A (zh) 一种用户交互系统和方法
CN105930785A (zh) 一种智能化的隐式交互系统
CN106406518A (zh) 手势控制装置及手势识别方法
CN110866468A (zh) 一种基于无源rfid的手势识别系统及方法
Assad-Uz-Zaman et al. Kinect controlled NAO robot for telerehabilitation
Prasad et al. A wireless dynamic gesture user interface for HCI using hand data glove
CN106512391B (zh) 一种双手手势识别方法及基于其的模拟驾驶系统、方法
CN111695408A (zh) 一种智能手势信息识别系统及方法、信息数据处理终端
CN117932713A (zh) 云原生cad软件手势交互几何建模方法、系统、装置及设备
Salim et al. A review on hand gesture and sign language techniques for hearing impaired person
Yin et al. A Systematic Review of Human Activity Recognition Based On Mobile Devices: Overview, Progress and Trends

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20150715

WD01 Invention patent application deemed withdrawn after publication