CN106125925A - 基于手势和语音控制的智能抓捕方法 - Google Patents
基于手势和语音控制的智能抓捕方法 Download PDFInfo
- Publication number
- CN106125925A CN106125925A CN201610459956.7A CN201610459956A CN106125925A CN 106125925 A CN106125925 A CN 106125925A CN 201610459956 A CN201610459956 A CN 201610459956A CN 106125925 A CN106125925 A CN 106125925A
- Authority
- CN
- China
- Prior art keywords
- gesture
- voice
- information
- robot
- location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 68
- 230000011218 segmentation Effects 0.000 claims abstract description 11
- 239000002245 particle Substances 0.000 claims description 33
- 230000008569 process Effects 0.000 claims description 30
- 230000006870 function Effects 0.000 claims description 24
- 238000009826 distribution Methods 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 17
- 238000004040 coloring Methods 0.000 claims description 16
- 230000033001 locomotion Effects 0.000 claims description 13
- 238000012360 testing method Methods 0.000 claims description 12
- 238000013461 design Methods 0.000 claims description 9
- 230000003068 static effect Effects 0.000 claims description 9
- 239000000463 material Substances 0.000 claims description 7
- 238000012952 Resampling Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 claims description 4
- 230000002093 peripheral effect Effects 0.000 claims description 4
- 238000009825 accumulation Methods 0.000 claims description 3
- 238000013459 approach Methods 0.000 claims description 3
- 230000004888 barrier function Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 238000013480 data collection Methods 0.000 claims description 3
- 230000003247 decreasing effect Effects 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 230000005484 gravity Effects 0.000 claims description 3
- 230000002452 interceptive effect Effects 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000004904 shortening Methods 0.000 claims description 3
- 239000004744 fabric Substances 0.000 claims 1
- 238000005516 engineering process Methods 0.000 abstract description 6
- 230000003993 interaction Effects 0.000 abstract description 2
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000006378 damage Effects 0.000 description 3
- 208000027418 Wounds and injury Diseases 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 208000014674 injury Diseases 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Manipulator (AREA)
Abstract
本发明提供了一种基于手势及语音控制的机器人智能抓捕算法,包括步骤(1)手势快速定位;(2)基于自然语言理解的辅助定位定姿;(3)分割定位目标物;(4)路劲规划。本发明使用了基于智能感知的自然人机交互技术,当人手指向目标物并下达包含物体信息的语音抓捕命令时,机器人能在该语音信息的辅助下通过手指指向来快速定位目标物,并且自动规划出一条路径来抓捕物体,接着,在机器人靠近目标物时,还可通过语音命令来精细调整目标物的定位。这样,借助语音与手势的结合使得机器人的控制更加灵活方便并且能工作在更为复杂的环境中。
Description
技术领域
本发明属于机器人运动领域,特别涉及一种基于手势和语音控制的智能抓捕方法。
背景技术
近几年,机器人被越来越多的应用到了生活、生产中去。尤其在工业生产中,在许多人类不适合出现在的场合,本发明使用机器人代替人类进行作业,以保护人类免受伤害。为完成任务,机器需要在人的远程手动操控下,或是在预设程序的操纵下完成任务。但遥操作使用的数据传输总线等等常常会妨碍与之一齐工作的工作人员作业,生产中的工作效率也会因这些细节而有所下降。机器在预设程序的操纵下进行工作时,也会有一些细微的环境因素的变化,会导致机器工作效率下降,甚至是对材料、对机器造成毁灭性的伤害。同时,通过预先设定的程序,人使用指令进行操作时,也会造成机器的工作效率大幅度下降,有时会导致机器的某关节旋转角度大于阈值。同时,依照预先设定的值进行路径规划,会导致机器撞上一些移动的物体,损伤机器或是损害在机器附近的物体、人。
这篇发明提出的是一种机器基于视觉、听觉智能作业,通过实时获取外界物体全局位置信息,进行实时的、智能的路径规划和抓取指定物品的方法。机器先通过人手手指指向大致的确定目标物体的位置,同时可通过人的语言描述获取目标物体的位置信息、目标物体的颜色信息来对目标物体进行辅助定位操作。接着,通过对已获取的静止物体与运动物体的位置信息进行分析,机器智能的进行路径规划,在它的运动范围内,智能的调整机械臂的维度,以抓取物体,在此过程中,操作者还可使用语音指令操作机器,精确调整目标物的定位,以确定正确的目标物体。控制机器的人只需要使用自然语言与动作对机器下达指令,被控制的机器便会进行对信息的获取,并自发的分析实时获取到的信息,进行定位、抓捕、将自然语言分割为许多个短小的指令,使机器进行作业,并智能的规避路径上的动态的、静止的障碍,实时分析计算进行路径规划,在尽可能减少不必要的碰撞的情况下,完成作业。
发明内容
这个发明提出了一种允许操作者通过手指指向以及语音来控制机器人抓捕物体的方法。这种方法使用了基于智能感知的自然人机交互技术,当人手指向目标物并下达包含物体信息的语音抓捕命令时,机器人能在该语音信息的辅助下通过手指指向来快速定位目标物,并且自动规划出一条路径来抓捕物体,接着,在机器人靠近目标物时,还可通过语音命令(如向左或向右移动多少厘米)来精细调整目标物的定位。这样,借助语音与手势的结合使得机器人的控制更加灵活方便并且能工作在更为复杂的环境中。
本发明包括如下步骤:
S1:手势快速定位
S2:基于自然语言理解的辅助定位定姿
S3:分割定位目标物
S4:路劲规划
所述S1步骤包括以下步骤:
为了使得操作者对机器人的控制更加灵活简便,及缩短机器人的定位时间,本方法采用了基于手势的快速定位,利用手指指向,机器人能初步定位目标物,接着可通过语音控制来精细调整目标物的位置。在此,本发明先获取手势信息以供后续定位使用。
3)手势获取
通过Kinect工具可获得人手的RGB图像及深度图像,由此可实现人手的定位和跟踪,同时,Kinect可检测到人体的25个关节点的三维坐标信息,由于本发明只需要检测手指的指向,因此只需要4个关节点的坐标信息,即右手心、右手指尖、左手心及左手指尖。
2)精确手指指向
当人手不是静止时,可通过角速度来估计人手指向,但在估计方向时,误差会积累,因此为了减少误差,这里使用改进的粒子滤波(IPF)算法来实现数据融合的优化。在时间tk时,后验密度的近似值如下所示:
其中xi,k是在时间tk时第i个状态的粒子,N是状态数量,wj,k是第j个粒子的归一化权重,δ(·)是迪拉克δ函数。每个粒子的权重可通过相邻两个节点之间的长度来计算,而对于每个人来说,相邻骨架点之间的长度是恒定的,可通过如下计算得出:
其中,MS是骨架相邻点集,Pφ是关节点φ的位置,是关节点的位置,是关节点φ和之间的距离,JD是节点在第S个方向上迭代积累的位置差异,所以第i个粒子的权重可通过如下计算得到:
使用集合卡尔曼滤波可近似求得状态变量的后验密度函数,通过给定的初始化的集合能计算出预测的集合如下所示:
其中,f(xi,k-1)是tk-1时粒子第i个状态的后验密度函数,wk是模型的误差,Qk-1是模型误差的协方差,通过上述式子,能获得卡尔曼增益,接着由此可计算出分析粒子。
为了提高重采样后粒子的多样性,在此本发明使用了马尔可夫链蒙特卡罗(MCMC)方法。在Metropolis Hasting算法中,只有当u≤a时重采样粒子才会移动到该粒子处。经MCMC步骤之后,由于新的粒子有更接近后验概率密度函数(pdf)的分布,所以他们会更加多样化。
所述S2包括如下步骤:
在本方法中,若操作者下达的语音抓捕命令中包含目标物的相关信息(如颜色信息),则机器人可利用此信息来过滤无关物,只留下可能的目标物,由此作为手势定位的范围,可大大提高目标物识别的准确度,当目标物与其他物体位置相近时,可利用颜色差别来正确识别出目标物。另外,在机器人抓取物体的过程中,可利用语音控制来精细调整目标物的定位,如控制其向左或右移动,向前或后移动一定距离,这样便能保证机器人准确抓取到目标物。为实现此过程,在此设计了相应的指令控制体系及自然语言理解算法。
1)控制指令设计
机器人对语音的识别使用三层人机交互系统来实现。由于Kinect能获取语音信息并对其识别,所以只需重点研究交互层中的意图理解模块,即将自然语言指令转换成相应的机器人控制指令,为此需进行控制指令体系设计。可引入5个属性变量(Vobj,Vop,Vhand,Vdir,Vval)来设计控制指令,其中Vobj是操作对象,Vop是对目标物的操作,当不需要用到手势时,Vhand会被置零,而Vdir,Vval是操作携带的一些调整值,Vdir表方向,Vval则可以是调整的距离值或是操作对象的颜色信息。通过这五个变量可设计出多条指令。
4)自然语言指令理解
在此方法中,将自然语言指令理解分为测试过程和训练过程两部分。在训练过程中需从训练语料库中提取出文本特征并借此获得最大熵分类模型,该模型可作为测试过程中分类器的决策策略。在测试过程中,则利用该最大熵模型对测试语料库中文本表示成的文本特征向量进行分类,最后便可得到相应的控制指令并输出给机器人。其中,提取文本特征的过程是先统计训练语料库中所有出现的词,如果某语料文本中有k个词,则可将其表示成k维的特征向量,接着使用TF‐IDF对特征向量进行加权,其中TF是局部变量,IDF是全局变量。最大熵模型的建立过程如下:
假设文本特征向量x的意图标签是y,则最大熵建模就是对条件概率P(y|x)进行建模以得到分布最均匀的模型。该方法利用条件熵H(p)来衡量P(y|x)分布的均匀性,其计算公式如下:
其中是x在训练语料库中的经验分布。接下来需确定约束条件,记一个训练数据库中文本特征向量集合为{xi,i∈(1,N)},意图标签集合为{yj,j∈(1,M)},为防止数据稀疏,在此引入二值函数f(x,y),并求得f(x,y)关于经验条件概率分布P(x,y)的期望值及相对于模型条件概率分布P(y|x)的期望值p(f),令这二者相等,可得最大熵模型的约束条件
所以最大熵模型的求解可归纳为如下所示:
max H(p)
约束条件
根据拉格朗日乘子算法,可求得在Kulback‐Leibler距离上最接近P(x,y)的概率分布:
其中p*是最大熵概率分布,Z(x)为归一化因子,n是特征函数的个数,fi(x,y)是第i个特征函数,λi为其权值,可通过训练数据库上的学习得到,本应用使用GIS算法求解,从而解得概率分布p*,这样最大熵模型的建立就完成了。
所述S3包括如下步骤:
在借助手势及语音实现目标物的定位之前,得先获取物体的相关数据并借此分割出个物体,Kinect能够获得其面前所有物体的三维彩色点云信息,不过所获得的信息中有大量无用的,可先通过手势指向去除大量无关信息,以减少数据处理量,同时,本方法采用基于体素栅格化下的采样算法来简化计算。
3)物体分割
Kinect获取的点云信息包含了三维信息和颜色信息,结合这两种信息,此方法采用一种基于欧式距离和颜色的区域生长算法来分割点云数据,该算法中关键的两部分是邻近点搜索及颜色的相似度判断。
对于邻近点搜索,本应用采用k‐d树结构来完成。假设M是点云数据集,P(xp,yp,zp)是种子点,λd是给定的阈值,那么邻近点搜索就是通过k‐d树的递归遍历,寻找到M的最大子集T,T中的任意一点Ti(xi,yi,zi)都需满足Δd(P,Ti)<λd。
对于颜色相似度的比较,此应用采用基于CIE‐Lab颜色空间来完成,将RGB彩色点云[x,y,x,r,g,b]转换成CIE‐Lab彩色点云[x,y,z,L,a,b],这样就可通过欧式距离来定义颜色间的相似度。对CIE‐Lab颜色空间中的两点C1(L1,a1,b1),C2(L2,a2,b2),它们的颜色偏差可定义如下:
对给定的颜色分割阈值λc,当ΔELab<λc时,则可认为这两点颜色属性相同,可归为同一类。
4)目标物定位
利用语音和手势相结合的方法来实现目标物的定位,能大大提高定位的准确度及缩短定位时间,操作者的语音信息中可能包含目标物的颜色信息,经过步骤S2后,颜色信息可用指令控制体系中一个属性变量Vval来表示,将其转换成CIE‐Lab颜色空间下的值,假设该值为Ctar,而经分割完毕后的物体颜色为Cobj,对给定的阈值λ,若ΔELab(Ctar,Cobj)<λ,那么将该物体作为可能的目标物之一,这样本发明便可得到可能目标物的集合N,N中存储物体中心点的位置信息,在此用被分割后的物体点云数据的重心来表示。
接下来将通过手势来定位目标物,经过S1步骤,本发明可获得手势的相关信息,假设人手手心位置为A,指尖位置为B,人手的指向为向量对任一经过颜色比较后得到的可能目标物(若操作者的语音信息不包含目标物颜色信息,则是对环境中的任一物体),计算人手手心到物体中心Oi的向量则可用向量与间的夹角θi来表示物体中心偏离手指指向的程度,本发明将其中θi最小的物体作为目标物,借助余弦函数来衡量θi值的大小,其计算如下:
因为余弦函数在[0,π]是单调递减,所以cosθi最大即θi最小。若是有多个物体同时满足cosθi最大,则选取其中物体中心离手心最近的物体作为目标物。
最后,在机器人靠近目标物时,本发明还可通过语音控制来微调目标物的定位,语音信息中可包含目标位置调整的方向及距离,在指令体系中表示为Vdir,Vval两个属性变量,将此自然语言信息转化成相应的控制指令后,机器人便能及时做出调整。这样,通过语音与手势的相互结合来定位目标,使得机器人在复杂的环境中工作时能够更加精确的识别出目标物。
所述S4包括如下步骤:
智能的全局路径规划可以帮助机器减少与周围静止物体、运动物体的碰撞几率,减小机器损耗,保障在机器旁工作的人的安全。实时获取数据处理数据,能使机器对运动物体的路径预判更为精确,帮助机器更为安全的完成作业。如果将此技术用于工业生产中,能够提高工作人员的工作的安全性、降低可能给机器或人带来的损害,同时使人与机器更有效率的完成作业。
3)预处理阶段
利用均匀采样方法构建路径图的节点,采集所指示的点周的与描述颜色相似的点,用伪范数空间识别每个节点的最邻近点,建立路线图;首先,计算出2个连续的节点之间的段是否会发生碰撞,并将部分连接段作为路线图的一部分;接着沿机器的离散节点边缘,检查配置的路线图是否可能发生自碰撞、发生与其他物体的碰撞。最后用以下公式定义直接工作空间:
A是机器人表面上的所有参考点集;a(p)是参考点的位置,表示在a工作区内的机器人在配置p中的概率,任何参考点可能会在2个检查配置之间移位;
4)路径规划阶段
经过预处理,本发明得到了组成障碍的点集。本发明算出机器抓取物体能经过的路径,并将每一条与障碍点重合的路径从机器前进的路径上排除,在剩余的路径中,机器智能的选取一条对时间、空间需求较低且安全性较好的路径来完成任务。
同时,机器不停获取外界环境信息,分析外界的静止的物体和运动的物体。机器进行实时的处理,从全局角度获取一切物体信息,获取静止物体的全局位置信息和运动物体的实时的移动方向和移动速度的信息,进行分析。机器计算两点之间距离,计算这个方向运动是否能使自己安全的不发生碰撞的通过。若不能安全通过,则将该条路径从机器所有可能选择的运动路径里去除,若能则保留。最后机器选择耗时最少、绕路最短的路线运动,通过此方法完成作业。
通过进行这样的全局实时路径规划,机器智能的分析周围运动物体的路径信息,并从全局的角度进行实时规划,实现全局避障、实时避障。
本发明相对于现有技术具有如下优点及效果:
本发明提出一种通过手势及语音来控制机器人抓捕物体的方法,通过利用手势进行目标物的快速定位,再借助语音进行辅助定位及精细调整,使得机器人能快速且准确的识别出目标物,同时也使得操作者对机器人的控制更加灵活方便,具有实时性。相对于其他抓捕技术来说,本发明能应用于更为复杂的环境中。
附图说明
图1为实例中基于手势和语音控制的智能抓捕方法的流程图。
具体实施方式
下面结合实施例对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例:
本发明基于手势及语音控制机器人进行智能抓捕方法包括如下步骤:
S1:手势快速定位
S2:基于自然语言理解的辅助定位定姿
S3:分割定位目标物
S4:路劲规划
所述S1步骤包括以下步骤:
为了使得操作者对机器人的控制更加灵活简便,及缩短机器人的定位时间,本方法采用了基于手势的快速定位,利用手指指向,机器人能初步定位目标物,接着可通过语音控制来精细调整目标物的位置,如图1所示,操作者通过手势及语音来控制机器人。在此,本发明先获取手势信息以供后续定位使用。
5)手势获取
通过Kinect工具可获得人手的RGB图像及深度图像,由此可实现人手的定位和跟踪,同时,Kinect可检测到人体的25个关节点的三维坐标信息,由于本发明只需要检测手指的指向,因此只需要4个关节点的坐标信息,即右手心、右手指尖、左手心及左手指尖,我们将其设为(Pr1,Pr2,Pl1,Pl2),如图1所示,Kinect输出(Pr1,Pr2,Pl1,Pl2)到IPF算法,,然后可得到精确后的手势信息(Pr1,Pr2,Pl1,Pl2)以用于手势快速定位。
2)精确手指指向
当人手不是静止时,可通过角速度来估计人手指向,但在估计方向时,误差会积累,因此为了减少误差,这里使用改进的粒子滤波(IPF)算法来实现数据融合的优化。在时间tk时,后验密度的近似值如下所示:
其中xi,k是在时间tk时第i个状态的粒子,N是状态数量,wj,k是第j个粒子的归一化权重,δ(·)是迪拉克δ函数。每个粒子的权重可通过相邻两个节点之间的长度来计算,而对于每个人来说,相邻骨架点之间的长度是恒定的,可通过如下计算得出:
其中,MS是骨架相邻点集,Pφ是关节点φ的位置,是关节点的位置,在本方法中为Pr1,Pr2或Pl1,Pl2,是关节点φ和之间的距离,在此我们需求得Lr1,r2,Ll1,l2,JD是节点在第S个方向上迭代积累的位置差异,所以第i个粒子的权重可通过如下计算得到:
使用集合卡尔曼滤波可近似求得状态变量后验密度函数,通过给定的初始化的集合能计算出预测的集合如下所示:
其中,f(xi,k-1)是tk-1时粒子第i个状态的后验密度函数,wk是模型的误差,Qk-1是模型误差的协方差,通过上述式子,能获得卡尔曼增益,接着由此可计算出分析粒子。
为了提高重采样后粒子的多样性,在此本发明使用了马尔可夫链蒙特卡罗(MCMC)方法。在Metropolis Hasting算法中,只有当u≤a时重采样粒子才会移动到该粒子处。经MCMC步骤之后,由于新的粒子有更接近后验概率密度函数(pdf)的分布,所以他们会更加多样化。
所述S2包括如下步骤:
在本方法中,若操作者下达的语音抓捕命令中包含目标物的相关信息(如颜色信息),则机器人可利用此信息来过滤无关物,只留下可能的目标物,由此作为手势定位的范围,可大大提高目标物识别的准确度,当目标物与其他物体位置相近时,可利用颜色差别来正确识别出目标物。另外,在机器人抓取物体的过程中,可利用语音控制来精细调整目标物的定位,如控制其向左或右移动,向前或后移动一定距离,这样便能保证机器人准确抓取到目标物。为实现此过程,在此设计了相应的指令控制体系及自然语言理解算法。
1)控制指令设计
机器人对语音的识别使用三层人机交互系统来实现。由于Kinect能获取语音信息并对其识别,所以只需重点研究交互层中的意图理解模块,即将自然语言指令转换成相应的机器人控制指令,为此需进行控制指令体系设计。可引入5个属性变量(Vobj,Vop,Vhand,Vdir,Vval)来设计控制指令,其中Vobj是操作对象,Vop是对目标物的操作,当不需要用到手势时,Vhand会被置零,而Vdir,Vval是操作携带的一些调整值,Vdir表方向,Vval则可以是调整的距离值或是操作对象的颜色信息。通过这五个变量可设计出多条指令,如图1所示,Kinect获得的语音信息经自然语言理解算法后转换成由五个属性变量组成的控制指令,用以辅助定位。
6)自然语言指令理解
在此方法中,将自然语言指令理解分为测试过程和训练过程两部分。在训练过程中需从训练语料库中提取出文本特征并借此获得最大熵分类模型,该模型可作为测试过程中分类器的决策策略。在测试过程中,则利用该最大熵模型对测试语料库中文本表示成的文本特征向量进行分类,最后便可得到相应的控制指令并输出给机器人。其中,提取文本特征的过程是先统计训练语料库中所有出现的词,如果某语料文本中有k个词,则可将其表示成k维的特征向量,接着使用TF‐IDF对特征向量进行加权,其中TF是局部变量,IDF是全局变量。最大熵模型的建立过程如下:
假设文本特征向量x的意图标签是y,则最大熵建模就是对条件概率P(y|x)进行建模以得到分布最均匀的模型。该方法利用条件熵H(p)来衡量P(y|x)分布的均匀性,其计算公式如下:
其中是x在训练语料库中的经验分布。接下来需确定约束条件,记一个训练数据库中文本特征向量集合为{xi,i∈(1,N)},意图标签集合为{yj,j∈(1,M)},为防止数据稀疏,在此引入二值函数f(x,y),并求得f(x,y)关于经验条件概率分布P(x,y)的期望值及相对于模型条件概率分布P(y|x)的期望值p(f),令这二者相等,可得最大熵模型的约束条件
所以最大熵模型的求解可归纳为如下所示:
max H(p)
根据拉格朗日乘子算法,可求得在Kulback‐Leibler距离上最接近P(x,y)的概率分布:
其中p*是最大熵概率分布,Z(x)为归一化因子,n是特征函数的个数,fi(x,y)是第i个特征函数,λi为其权值,可通过训练数据库上的学习得到,本应用使用GIS算法求解,从而解得概率分布p*,这样最大熵模型的建立就完成了。
所述S3包括如下步骤:
通过手势快速定位及借助语音辅助定位,我们可以实现目标物的定位,如图1所示,而在实现目标物的定位之前,得先获取物体的相关数据并借此分割出各个物体,Kinect能够获得其面前所有物体的三维彩色点云信息,不过所获得的信息中有大量无用的,可先通过手势指向去除大量无关信息,以减少数据处理量,同时,本方法采用基于体素栅格化下的采样算法来简化计算。
5)物体分割
Kinect获取的点云信息包含了三维信息和颜色信息,结合这两种信息,此方法采用一种基于欧式距离和颜色的区域生长算法来分割点云数据,该算法中关键的两部分是邻近点搜索及颜色的相似度判断。
对于邻近点搜索,本应用采用k‐d树结构来完成。假设M是点云数据集,P(xp,yp,zp)是种子点,λd是给定的阈值,那么邻近点搜索就是通过k‐d树的递归遍历,寻找到M的最大子集T,T中的任意一点Ti(xi,yi,zi)都需满足Δd(P,Ti)<λd。
对于颜色相似度的比较,此应用采用基于CIE‐Lab颜色空间来完成,将RGB彩色点云[x,y,x,r,g,b]转换成CIE‐Lab彩色点云[x,y,z,L,a,b],这样就可通过欧式距离来定义颜色间的相似度。对CIE‐Lab颜色空间中的两点C1(L1,a1,b1),C2(L2,a2,b2),它们的颜色偏差可定义如下:
对给定的颜色分割阈值λc,当ΔELab<λc时,则可认为这两点颜色属性相同,可归为同一类。
6)目标物定位
利用语音和手势相结合的方法来实现目标物的定位,能大大提高定位的准确度及缩短定位时间,操作者的语音信息中可能包含目标物的颜色信息,经过步骤S2后,颜色信息可用指令控制体系中一个属性变量Vval来表示,如当我们下令抓捕红色物体时,Vval会存储目标物的RGB颜色值(255,0,0),将其转换成CIE‐Lab颜色空间下的值,假设该值为Ctar,而经分割完毕后的物体颜色为Cobj,对给定的阈值λ,若ΔELab(Ctar,Cobj)<λ,那么将该物体作为可能的目标物之一,这样本发明便可得到可能目标物的集合N,N中存储物体中心点的位置信息,在此用被分割后的物体点云数据的重心来表示。
接下来将通过手势来定位目标物,经过S1步骤,本方法可获得手势的相关信息,假设人手手心位置为A,指尖位置为B,人手的指向为向量对任一经过颜色比较后得到的可能目标物(若操作者的语音信息不包含目标物颜色信息,则是对环境中的任一物体),计算人手手心到物体中心Oi的向量则可用向量与间的夹角θi来表示物体中心偏离手指指向的程度,本发明将其中θi最小的物体作为目标物,借助余弦函数来衡量θi值的大小,其计算如下:
因为余弦函数在[0,π]是单调递减,所以cosθi最大即θi最小。若是有多个物体同时满足cosθi最大,则选取其中物体中心离手心最近的物体作为目标物。
最后,在机器人靠近目标物时,本方法还可通过语音控制来微调目标物的定位,语音信息中可包含目标位置调整的方向及距离,在指令体系中表示为Vdir,Vval两个属性变量,将此自然语言信息转化成相应的控制指令后,机器人便能及时做出调整。这样,通过语音与手势的相互结合来定位目标,使得机器人在复杂的环境中工作时能够更加精确的识别出目标物。
所述S4包括如下步骤:
在识别定位目标物之后,我们便可以规划出一条路径来实施抓捕了,如图1所示。智能的全局路径规划可以帮助机器减少与周围静止物体、运动物体的碰撞几率,减小机器损耗,保障在机器旁工作的人的安全。实时获取数据处理数据,能使机器对运动物体的路径预判更为精确,帮助机器更为安全的完成作业。如果将此技术用于工业生产中,能够提高工作人员的工作的安全性、降低可能给机器或人带来的损害,同时使人与机器更有效率的完成作业。
5)预处理阶段
利用均匀采样方法构建路径图的节点,采集所指示的点周的与描述颜色相似的点,用伪范数空间识别每个节点的最邻近点,建立路线图;首先,计算出2个连续的节点之间的段是否会发生碰撞,并将部分连接段作为路线图的一部分;接着沿机器的离散节点边缘,检查配置的路线图是否可能发生自碰撞、发生与其他物体的碰撞。最后用以下公式定义直接工作空间:
A是机器人表面上的所有参考点集;a(p)是参考点的位置,表示在a工作区内的机器人在配置p中的概率,任何参考点可能会在2个检查配置之间移位;
6)路径规划阶段
经过预处理,本发明得到了组成障碍的点集。本发明算出机器抓取物体能经过的路径,并将每一条与障碍点重合的路径从机器前进的路径上排除,在剩余的路径中,机器智能的选取一条对时间、空间需求较低且安全性较好的路径来完成任务。
同时,机器不停获取外界环境信息,分析外界的静止的物体和运动的物体。机器进行实时的处理,从全局角度获取一切物体信息,获取静止物体的全局位置信息和运动物体的实时的移动方向和移动速度的信息,进行分析。机器计算两点之间距离,计算这个方向运动是否能使自己安全的不发生碰撞的通过。若不能安全通过,则将该条路径从机器所有可能选择的运动路径里去除,若能则保留。最后机器选择耗时最少、绕路最短的路线运动,通过此方法完成作业。
通过进行这样的全局实时路径规划,机器智能的分析周围运动物体的路径信息,并从全局的角度进行实时规划,实现全局避障、实时避障。
上述实例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所做的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (5)
1.基于手势和语音控制的智能抓捕方法,其特征在于包括如下步骤:
S1:手势快速定位,采用基于手势的快速定位,利用手指指向,机器人能初步定位目标物;
S2:基于自然语言理解的辅助定位定姿,若操作者下达的语音抓捕命令中包含目标物的相关信息,则机器人利用此信息来过滤无关物,只留下可能的目标物,由此作为手势定位的范围,当目标物与其他物体位置相近时,利用颜色差别来正确识别出目标物;另外,在机器人抓取物体的过程中,可利用语音控制来精细调整目标物的定位;
S3:分割定位目标物,在借助手势及语音实现目标物的定位之前,得先获取物体的相关数据并借此分割出各个物体,Kinect能够获得其面前所有物体的三维彩色点云信息,不过所获得的信息中有大量无用的,可先通过手势指向去除大量无关信息,以减少数据处理量;
S4:路劲规划,通过全局实时路径规划,机器智能的分析周围运动物体的路径信息,并从全局的角度进行实时规划,实现全局避障、实时避障。
2.根据权利要求1所述的基于手势和语音控制的智能抓捕方法,其特征在于步骤S1包括:
1)手势获取
通过Kinect工具获得人手的RGB图像及深度图像,由此实现人手的定位和跟踪,同时,Kinect可检测到人体的25个关节点的三维坐标信息,本步骤需要检测手指的指向,只需要4个关节点的坐标信息,即右手心、右手指尖、左手心及左手指尖;
2)精确手指指向
当人手不是静止时,可通过角速度来估计人手指向,但在估计方向时,误差会积累,使用改进的粒子滤波(IPF)算法来实现数据融合的优化;在时间tk时,后验密度的近似值如下所示:
其中xi,k是在时间tk时第i个状态的粒子,N是状态数量,wj,k是第j个粒子的归一化权重,δ(·)是迪拉克δ函数;每个粒子的权重可通过相邻两个节点之间的长度来计算,而对于每个人来说,相邻骨架点之间的长度是恒定的,可通过如下计算得出:
其中,MS是骨架相邻点集,Pφ是关节点φ的位置,是关节点的位置,是关节点φ和之间的距离,JD是节点在第S个方向上位置差异的迭代积累,所以第i个粒子的权重可通过如下计算得到:
使用集合卡尔曼滤波可近似求得状态变量的后验概率密度函数,通过给定的初始化的集合能计算出预测的集合如下所示:
其中,f(xi,k-1)是tk-1时粒子第i个状态的后验密度函数,wk是模型的误差,Qk-1是模型误差的协方差,通过上述式子,能获得卡尔曼增益,接着由此可计算出分析粒子。
为了提高重采样后粒子的多样性,采用马尔可夫链蒙特卡罗(MCMC)方法;在Metropolis Hasting算法中,只有当u≤a时重采样粒子才会移动到该粒子处;经MCMC步骤之后,新的粒子更接近后验概率密度函数(pdf)的分布。
3.根据权利要求1所述的基于手势和语音控制的智能抓捕方法,其特征在于所述步骤S2包括:
1)控制指令设计
机器人对语音的识别使用三层人机交互系统来实现,由于Kinect能获取语音信息并对其识别,只需将自然语言指令转换成相应的机器人控制指令,为此需进行控制指令体系设计,引入5个属性变量(Vobj,Vop,Vhand,Vdir,Vval)来设计控制指令,其中Vobj是操作对象,Vop是对目标物的操作,当不需要用到手势时,Vhand会被置零,而Vdir,Vval是操作携带的调整值,Vdir表方向,Vval则是调整的距离值或是操作对象的颜色信息;通过这五个变量能设计出多条指令;
2)自然语言指令理解
将自然语言指令理解分为测试过程和训练过程两部分;在训练过程中需从训练语料库中提取出文本特征并借此获得最大熵分类模型,该模型作为测试过程中分类器的决策策略;在测试过程中,则利用该最大熵模型对测试语料库中文本表示成的文本特征向量进行分类,最后便可得到相应的控制指令并输出给机器人;其中,提取文本特征的过程是先统计训练语料库中所有出现的词,如果某语料文本中有k个词,则可将其表示成k维的特征向量,接着使用TF‐IDF对特征向量进行加权,其中TF是局部变量,IDF是全局变量;最大熵模型的建立过程如下:
假设文本特征向量x的意图标签是y,则最大熵建模就是对条件概率P(y|x)进行建模以得到分布最均匀的模型;利用条件熵H(p)来衡量P(y|x)分布的均匀性,其计算公式如下:
其中是x在训练语料库中的经验分布;接下来需确定约束条件,记一个训练数据库中文本特征向量集合为{xi,i∈(1,N)},意图标签集合为{yj,j∈(1,M)},为防止数据稀疏,在此引入二值函数f(x,y),并求得f(x,y)关于经验条件概率分布P(x,y)的期望值及相对于模型条件概率分布P(y|x)的期望值p(f),令这二者相等,可得最大熵模型的约束条件
所以最大熵模型的求解可归纳为如下所示:
max H(p)
约束条件
根据拉格朗日乘子算法,可求得在Kulback‐Leibler距离上最接近P(x,y)的概率分布:
其中p*是最大熵概率分布,Z(x)为归一化因子,n是特征函数的个数,fi(x,y)是第i个特征函数,λi为其权值,可通过训练数据库上的学习得到,使用GIS算法求解,从而解得概率分布p*,完成最大熵模型的建立。
4.根据权利要求1所述的基于手势和语音控制的智能抓捕方法,其特征在于步骤S3包括:
1)物体分割
Kinect获取的点云信息包含了三维信息和颜色信息,结合这两种信息,采用一种基于欧式距离和颜色的区域生长算法来分割点云数据,该算法中关键的两部分是邻近点搜索及颜色的相似度判断;
对于邻近点搜索,采用k‐d树结构来完成;假设M是点云数据集,P(xp,yp,zp)是种子点,λd是给定的阈值,那么邻近点搜索就是通过k‐d树的递归遍历,寻找到M的最大子集T,T中的任意一点Ti(xi,yi,zi)都需满足Δd(P,Ti)<λd;
对于颜色相似度的比较,采用基于CIE‐Lab颜色空间来完成,将RGB彩色点云[x,y,x,r,g,b]转换成CIE‐Lab彩色点云[x,y,z,L,a,b],这样就可通过欧式距离来定义颜色间的相似度;对CIE‐Lab颜色空间中的两点C1(L1,a1,b1),C2(L2,a2,b2),它们的颜色偏差可定义如下:
对给定的颜色分割阈值λc,当ΔELab<λc时,则可认为这两点颜色属性相同,可归为同一类;
2)目标物定位
利用语音和手势相结合的方法来实现目标物的定位,能大大提高定位的准确度及缩短定位时间,操作者的语音信息中可能包含目标物的颜色信息,经过步骤S2后,颜色信息能用指令控制体系中一个属性变量Vval来表示,将其转换成CIE‐Lab颜色空间下的值,假设该值为Ctar,而经分割完毕后的物体颜色为Cobj,对给定的阈值λ,若ΔELab(Ctar,Cobj)<λ,那么将该物体作为可能的目标物之一,得到可能目标物的集合N,N中存储物体中心点的位置信息,在此用被分割后的物体点云数据的重心来表示;
接下来将通过手势来定位目标物,经过步骤S1,已获得手势的相关信息,假设人手手心位置为A,指尖位置为B,人手的指向为向量对任一经过颜色比较后得到的可能目标物,若操作者的语音信息不包含目标物颜色信息,则是对环境中的任一物体,计算人手手心到物体中心Oi的向量则可用向量与间的夹角θi来表示物体中心偏离手指指向的程度,将其中θi最小的物体作为目标物,借助余弦函数来衡量θi值的大小,其计算如下:
因为余弦函数在[0,π]是单调递减,所以cosθi最大即θi最小;若是有多个物体同时满足cosθi最大,则选取其中物体中心离手心最近的物体作为目标物;
最后,在机器人靠近目标物时,人通过语音控制来微调目标物的定位,语音信息中可包含目标位置调整的方向及距离,在指令体系中表示为Vdir,Vval两个属性变量,将此自然语言信息转化成相应的控制指令后,机器人便能及时做出调整;这样,通过语音与手势的相互结合来定位目标,使得机器人在复杂的环境中工作时能够更加精确的识别出目标物。
5.根据权利要求1所述的基于手势和语音控制的智能抓捕方法,其特征在于步骤S4包括:
1)预处理阶段
利用均匀采样方法构建路径图的节点,采集所指示的点周的与描述颜色相似的点,用伪范数空间识别每个节点的最邻近点,建立路线图;首先,计算出2个连续的节点之间的段是否会发生碰撞,并将部分连接段作为路线图的一部分;接着沿机器的离散节点边缘,检查配置的路线图是否可能发生自碰撞、发生与其他物体的碰撞。最后用以下公式定义直接工作空间:
A是机器人表面上的所有参考点集;a(p)是参考点的位置,表示在a工作区内的机器人在配置p中的概率,任何参考点可能会在2个检查配置之间移位;
2)路径规划阶段
经过预处理阶段,得到了组成障碍的点集;算出机器抓取物体能经过的路径,并将每一条与障碍点重合的路径从机器前进的路径上排除,在剩余的路径中,机器智能的选取一条对时间、空间需求较低且安全性较好的路径来完成任务;
同时,机器不停获取外界环境信息,分析外界的静止的物体和运动的物体;机器进行实时的处理,从全局角度获取一切物体信息,获取静止物体的全局位置信息和运动物体的实时的移动方向和移动速度的信息,进行分析;机器计算两点之间距离,计算这个方向运动是否能使自己安全的不发生碰撞的通过;若不能安全通过,则将该条路径从机器所有可能选择的运动路径里去除,若能则保留;最后机器选择耗时最少、绕路最短的路线运动,通过此方法完成作业;
通过进行这样的全局实时路径规划,机器智能的分析周围运动物体的路径信息,并从全局的角度进行实时规划,实现全局避障、实时避障。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610459956.7A CN106125925B (zh) | 2016-06-20 | 2016-06-20 | 基于手势和语音控制的智能抓捕方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610459956.7A CN106125925B (zh) | 2016-06-20 | 2016-06-20 | 基于手势和语音控制的智能抓捕方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106125925A true CN106125925A (zh) | 2016-11-16 |
CN106125925B CN106125925B (zh) | 2019-05-14 |
Family
ID=57267884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610459956.7A Active CN106125925B (zh) | 2016-06-20 | 2016-06-20 | 基于手势和语音控制的智能抓捕方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106125925B (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106826838A (zh) * | 2017-04-01 | 2017-06-13 | 西安交通大学 | 一种基于Kinect视觉深度传感器的交互仿生机械臂控制方法 |
CN107150347A (zh) * | 2017-06-08 | 2017-09-12 | 华南理工大学 | 基于人机协作的机器人感知与理解方法 |
CN107943790A (zh) * | 2017-11-23 | 2018-04-20 | 中译语通科技股份有限公司 | 一种基于最大熵模型和tf‑idf特征的情感分析方法 |
CN108247633A (zh) * | 2017-12-27 | 2018-07-06 | 珠海格力节能环保制冷技术研究中心有限公司 | 机器人的控制方法及系统 |
CN108447477A (zh) * | 2018-01-30 | 2018-08-24 | 华南理工大学 | 一种基于自然语言理解的机器人控制方法 |
WO2018219198A1 (zh) * | 2017-06-02 | 2018-12-06 | 腾讯科技(深圳)有限公司 | 一种人机交互方法、装置及人机交互终端 |
CN109172066A (zh) * | 2018-08-18 | 2019-01-11 | 华中科技大学 | 基于语音控制与视觉识别的智能假肢手及其系统和方法 |
CN109300351A (zh) * | 2017-07-25 | 2019-02-01 | 西门子保健有限责任公司 | 将工具与拾取手势相关联 |
CN109500811A (zh) * | 2018-11-13 | 2019-03-22 | 华南理工大学 | 一种面向人机共融的机器人主动避让人类的方法 |
CN109623848A (zh) * | 2019-02-26 | 2019-04-16 | 江苏艾萨克机器人股份有限公司 | 一种酒店服务机器人 |
CN109801626A (zh) * | 2019-01-22 | 2019-05-24 | 广东美的制冷设备有限公司 | 家用电器的控制方法及家用电器 |
CN109992095A (zh) * | 2017-12-29 | 2019-07-09 | 青岛有屋科技有限公司 | 一种智能厨房的语音和手势结合的控制方法及控制装置 |
CN110015307A (zh) * | 2019-03-12 | 2019-07-16 | 深圳壹账通智能科技有限公司 | 一种车辆控制方法、装置、可读存储介质及终端设备 |
CN110111783A (zh) * | 2019-04-10 | 2019-08-09 | 天津大学 | 一种基于深度神经网络的多模态语音识别方法 |
CN110703915A (zh) * | 2019-09-27 | 2020-01-17 | 杭州电子科技大学 | 一种用于同步识别手势和抓取力的粒子化方法及粒子化分析法 |
CN111178170A (zh) * | 2019-12-12 | 2020-05-19 | 青岛小鸟看看科技有限公司 | 一种手势识别方法和一种电子设备 |
CN113553884A (zh) * | 2020-04-26 | 2021-10-26 | 武汉Tcl集团工业研究院有限公司 | 手势识别方法、终端设备及计算机可读存储介质 |
CN110070870B (zh) * | 2019-05-06 | 2022-02-08 | 阿波罗智联(北京)科技有限公司 | 车载系统的信号处理方法和系统 |
CN114063856A (zh) * | 2021-11-17 | 2022-02-18 | 塔米智能科技(北京)有限公司 | 一种身份注册方法、装置、设备和介质 |
CN115100747A (zh) * | 2022-08-26 | 2022-09-23 | 山东宝德龙健身器材有限公司 | 基于视觉检测的跑步机智能辅助系统 |
CN115617046A (zh) * | 2022-11-01 | 2023-01-17 | 中国第一汽车股份有限公司 | 一种路径规划方法、装置、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1302056A (zh) * | 1999-12-28 | 2001-07-04 | 索尼公司 | 信息处理设备,信息处理方法和存储介质 |
US20050065652A1 (en) * | 2003-09-22 | 2005-03-24 | Honda Motor Co., Ltd. | Autonomously moving robot management system |
CN1761554A (zh) * | 2003-04-01 | 2006-04-19 | 索尼株式会社 | 机器人设备、信息处理方法和程序 |
JP2006297531A (ja) * | 2005-04-20 | 2006-11-02 | Fujitsu Ltd | サービスロボット |
CN103885585A (zh) * | 2014-02-20 | 2014-06-25 | 深圳市贝特尔机电有限公司 | 一种基于单人手势和语音信息的机器人人工导航方法 |
CN104936748A (zh) * | 2012-12-14 | 2015-09-23 | Abb技术有限公司 | 徒手机器人路径教导 |
CN105352508A (zh) * | 2015-10-22 | 2016-02-24 | 深圳创想未来机器人有限公司 | 机器人定位导航方法及装置 |
CN105468145A (zh) * | 2015-11-18 | 2016-04-06 | 北京航空航天大学 | 一种基于手势和语音识别的机器人人机交互方法和装置 |
-
2016
- 2016-06-20 CN CN201610459956.7A patent/CN106125925B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1302056A (zh) * | 1999-12-28 | 2001-07-04 | 索尼公司 | 信息处理设备,信息处理方法和存储介质 |
CN1761554A (zh) * | 2003-04-01 | 2006-04-19 | 索尼株式会社 | 机器人设备、信息处理方法和程序 |
US20050065652A1 (en) * | 2003-09-22 | 2005-03-24 | Honda Motor Co., Ltd. | Autonomously moving robot management system |
JP2006297531A (ja) * | 2005-04-20 | 2006-11-02 | Fujitsu Ltd | サービスロボット |
CN104936748A (zh) * | 2012-12-14 | 2015-09-23 | Abb技术有限公司 | 徒手机器人路径教导 |
CN103885585A (zh) * | 2014-02-20 | 2014-06-25 | 深圳市贝特尔机电有限公司 | 一种基于单人手势和语音信息的机器人人工导航方法 |
CN105352508A (zh) * | 2015-10-22 | 2016-02-24 | 深圳创想未来机器人有限公司 | 机器人定位导航方法及装置 |
CN105468145A (zh) * | 2015-11-18 | 2016-04-06 | 北京航空航天大学 | 一种基于手势和语音识别的机器人人机交互方法和装置 |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106826838A (zh) * | 2017-04-01 | 2017-06-13 | 西安交通大学 | 一种基于Kinect视觉深度传感器的交互仿生机械臂控制方法 |
WO2018219198A1 (zh) * | 2017-06-02 | 2018-12-06 | 腾讯科技(深圳)有限公司 | 一种人机交互方法、装置及人机交互终端 |
CN108986801B (zh) * | 2017-06-02 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 一种人机交互方法、装置及人机交互终端 |
CN108986801A (zh) * | 2017-06-02 | 2018-12-11 | 腾讯科技(深圳)有限公司 | 一种人机交互方法、装置及人机交互终端 |
CN107150347A (zh) * | 2017-06-08 | 2017-09-12 | 华南理工大学 | 基于人机协作的机器人感知与理解方法 |
US10802597B2 (en) | 2017-07-25 | 2020-10-13 | Siemens Healthcare Gmbh | Assigning a tool to a pick-up gesture |
CN109300351A (zh) * | 2017-07-25 | 2019-02-01 | 西门子保健有限责任公司 | 将工具与拾取手势相关联 |
CN107943790A (zh) * | 2017-11-23 | 2018-04-20 | 中译语通科技股份有限公司 | 一种基于最大熵模型和tf‑idf特征的情感分析方法 |
CN108247633B (zh) * | 2017-12-27 | 2021-09-03 | 珠海格力节能环保制冷技术研究中心有限公司 | 机器人的控制方法及系统 |
CN108247633A (zh) * | 2017-12-27 | 2018-07-06 | 珠海格力节能环保制冷技术研究中心有限公司 | 机器人的控制方法及系统 |
CN109992095A (zh) * | 2017-12-29 | 2019-07-09 | 青岛有屋科技有限公司 | 一种智能厨房的语音和手势结合的控制方法及控制装置 |
CN108447477A (zh) * | 2018-01-30 | 2018-08-24 | 华南理工大学 | 一种基于自然语言理解的机器人控制方法 |
CN109172066A (zh) * | 2018-08-18 | 2019-01-11 | 华中科技大学 | 基于语音控制与视觉识别的智能假肢手及其系统和方法 |
CN109500811A (zh) * | 2018-11-13 | 2019-03-22 | 华南理工大学 | 一种面向人机共融的机器人主动避让人类的方法 |
CN109801626A (zh) * | 2019-01-22 | 2019-05-24 | 广东美的制冷设备有限公司 | 家用电器的控制方法及家用电器 |
CN109801626B (zh) * | 2019-01-22 | 2021-02-26 | 广东美的制冷设备有限公司 | 家用电器的控制方法及家用电器 |
CN109623848A (zh) * | 2019-02-26 | 2019-04-16 | 江苏艾萨克机器人股份有限公司 | 一种酒店服务机器人 |
CN110015307A (zh) * | 2019-03-12 | 2019-07-16 | 深圳壹账通智能科技有限公司 | 一种车辆控制方法、装置、可读存储介质及终端设备 |
CN110111783A (zh) * | 2019-04-10 | 2019-08-09 | 天津大学 | 一种基于深度神经网络的多模态语音识别方法 |
CN110070870B (zh) * | 2019-05-06 | 2022-02-08 | 阿波罗智联(北京)科技有限公司 | 车载系统的信号处理方法和系统 |
CN110703915A (zh) * | 2019-09-27 | 2020-01-17 | 杭州电子科技大学 | 一种用于同步识别手势和抓取力的粒子化方法及粒子化分析法 |
CN111178170A (zh) * | 2019-12-12 | 2020-05-19 | 青岛小鸟看看科技有限公司 | 一种手势识别方法和一种电子设备 |
CN111178170B (zh) * | 2019-12-12 | 2023-07-04 | 青岛小鸟看看科技有限公司 | 一种手势识别方法和一种电子设备 |
CN113553884A (zh) * | 2020-04-26 | 2021-10-26 | 武汉Tcl集团工业研究院有限公司 | 手势识别方法、终端设备及计算机可读存储介质 |
CN114063856A (zh) * | 2021-11-17 | 2022-02-18 | 塔米智能科技(北京)有限公司 | 一种身份注册方法、装置、设备和介质 |
CN115100747A (zh) * | 2022-08-26 | 2022-09-23 | 山东宝德龙健身器材有限公司 | 基于视觉检测的跑步机智能辅助系统 |
CN115617046A (zh) * | 2022-11-01 | 2023-01-17 | 中国第一汽车股份有限公司 | 一种路径规划方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN106125925B (zh) | 2019-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106125925A (zh) | 基于手势和语音控制的智能抓捕方法 | |
Zhang et al. | A bioinspired path planning approach for mobile robots based on improved sparrow search algorithm | |
Zhang et al. | A critical review of vision-based occupational health and safety monitoring of construction site workers | |
Tao et al. | Automatic apple recognition based on the fusion of color and 3D feature for robotic fruit picking | |
Ghezelghieh et al. | Learning camera viewpoint using CNN to improve 3D body pose estimation | |
Choi et al. | Two-layer obstacle collision avoidance with machine learning for more energy-efficient unmanned aircraft trajectories | |
CN104932804B (zh) | 一种智能虚拟装配动作识别方法 | |
Zhang et al. | Rapidly-exploring Random Trees multi-robot map exploration under optimization framework | |
Kostavelis et al. | Semantic maps from multiple visual cues | |
CN103196430A (zh) | 基于无人机的飞行轨迹与视觉信息的映射导航方法及系统 | |
Chen et al. | PointPoseNet: Point pose network for robust 6D object pose estimation | |
Oh et al. | Integrated intelligence for human-robot teams | |
CN110119144A (zh) | 基于子地图特征匹配的多机器人slam算法 | |
Wang et al. | Vision–based framework for automatic interpretation of construction workers' hand gestures | |
Bi et al. | How can i see my future? fvtraj: Using first-person view for pedestrian trajectory prediction | |
Zang et al. | An extremely fast and precise convolutional neural network for recognition and localization of cataract surgical tools | |
CN110046677A (zh) | 数据预处理方法、地图构建方法、回环检测方法及系统 | |
Guo et al. | Research on multi-sensor information fusion and intelligent optimization algorithm and related topics of mobile robots | |
Wu et al. | An unsupervised real-time framework of human pose tracking from range image sequences | |
Pan et al. | A novel perception and semantic mapping method for robot autonomy in orchards | |
Chen et al. | Object-sensitive potential fields for mobile robot navigation and mapping in indoor environments | |
Zhao et al. | Path planning of arbitrary shaped mobile robots with safety consideration | |
Balamurugan | Faster region based convolution neural network with context iterative refinement for object detection | |
KR20210074755A (ko) | 영상 내 객체의 컨텍스트 정보 생성을 통한 모니터링 시스템 | |
Jacob et al. | Autonomous drones for medical assistance using reinforcement learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |