CN108563995B - 基于深度学习的人机协作系统手势识别控制方法 - Google Patents
基于深度学习的人机协作系统手势识别控制方法 Download PDFInfo
- Publication number
- CN108563995B CN108563995B CN201810214341.7A CN201810214341A CN108563995B CN 108563995 B CN108563995 B CN 108563995B CN 201810214341 A CN201810214341 A CN 201810214341A CN 108563995 B CN108563995 B CN 108563995B
- Authority
- CN
- China
- Prior art keywords
- gesture
- image
- gestures
- deep learning
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于深度学习的人机协作系统手势识别控制方法,包括以下步骤:步骤1、实时跟踪手势,并获取操作人的手势图像;步骤2、通过深度学习算法自动学习手势图像特征,并对同一手势的多种姿态进行识别和归类;步骤3、根据识别和归类的手势信息,发送相应的预设置机器人控制指令。本发明的方法,工件目标采集可根据工件特性自行选取相机进行处理后传送至处理端,完成通讯配置;操作人员可在远程计算机下进行远程监测,并且在操作人员进行替换后对同一手势动作的多种姿态进行精确识别归类,实现了真正意义上的人机协作。
Description
技术领域
本发明属于协作机器人控制技术领域,涉及一种基于深度学习的人机协作系统手势识别控制方法。
背景技术
目前,大部分协作机器人系统主要采用事先示教的路径轨迹和动作进行作业,这种方式存在很多盲区和安全隐患。许多恶劣、有害、高温、高压和危险环境下,以及在医疗、化工、工业生产中进行作业时,都存在不可预料的后果和难以近距离操作的问题。例如核电站的检修和维护,高压电带点作业、火山口采样、空间探测等,都需要由机器人代替人去完成。
在近几年的医疗手术,工业生产中的小零件装配,以及具有危险性的化学实验中,机器人虽然有涉入,但由于作业环境复杂多变和精度要求,完全依靠自主机器人来完成任务是不可能的,操作人员必须协同机器人来完成作业。目前,还没有真正意义上的高精度协作机器人,很多只是停留在仿真,或者是复杂环境下对机器人进行遥感控制。
体感控制机器人系统,特别是在手势控制机器人协作系统中,大多数都是依靠指尖数量等信息识别,识别手势单一、识别效果差;随着操作人员的不同,手势的幅度、姿态、轨迹等都会有所变化,会导致判别指令错误与无法识别等意外情况,而引入基于深度学习的神经网络识别具有自动学习手势变化和判别的能力,是机器人控制中的一个重要研究课题。ABB展出的YuMi双臂机器人,是全球首台真正意义上的协作机器人,它能够轻松应对各种小件组装的挑战,进行各种危险实验,手术等,而国内目前针对YuMi机器人化工等实践协作开发领域并未有所研究。
发明内容
本发明的目的是提供一种基于深度学习的人机协作系统手势识别控制方法,解决了现有人机协作技术中存在的精度低,数据量大、机器伤人和不安全隐患等工业机器人协作问题。
本发明所采用的技术方案是,一种基于深度学习的人机协作系统手势识别控制方法,包括以下步骤:
步骤1、实时跟踪手势,并获取操作人的手势图像;
步骤2、通过深度学习算法自动学习手势图像特征,并对同一手势的多种姿态进行识别和归类;
步骤3、根据识别和归类的手势信息,发送相应的预设置机器人控制指令。
本发明的有益效果是,包括以下方面:
1)传统的提取手势识别都是人为寻找特征并分析提取,大多数根据指尖数量信息来识别手势,识别效果差,目标姿态单一;本发明使用深度学习自动学习手势图像特征并归类,可识别同一手势的多种姿态,不仅精度高,更可以对多种手势进行识别归类。
2)本发明实施例采用手势识别与YuMi机器人相结合,解决了协作安全和高精度作业问题,使操作人通过多种手势姿态的变化直接与机器人进行协作任务,可广泛应用于各种途径。
附图说明
图1为本发明实施例的七种手势图;
图2为本发明实施例的三种手势及归类示意图;
图3为本发明实施例的动态手势跟踪与采集流程图;
图4为本发明实施例的手势识别流程图;
图5为本发明实施例深度学习的人机协作系统手势识别整体控制图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明是一种基于深度学习的人机协作系统手势识别控制方法,包括以下步骤:
步骤1、实时跟踪手势,并获取操作人的手势图像;
在步骤1中,实时跟踪手势并获取操作人的手势图像具体包括:采用kinect体感相机采集用户的手势图像;采用camshift跟踪算法确认手势图像在采集范围内,并进行实时跟踪和采样;将采集到的操作人手势RGB图像和深度图像通过USB传送至PC机进行处理。
采用camshift跟踪算法确认手势图像在采集范围内,并进行实时跟踪和采样包括:采用VS软件及C++编程语言,读取操作人员上肢及手势的深度图像及RGB图像;根据所述RGB图像和深度图像,对图像进行滤波后背景剔除,并转换为HSI模型后得到颜色概率分布图。判断是否有手势存在,并根据计算图像中心和图像重心窗口是否覆盖来反复寻找;每隔相同时间进行一次采样,获取二值图像。
实施例中,采用Kincet体感相机进行手势图像采集,该相机可同时得到深度图像和RGB图像,然后经过图像分割处理后,采用camshift跟踪算法对手势进行跟踪和定时图像采集,并处理为二值图像,其在Kinect体感相机的视野范围内准确度和精度都很高,且成本较低。
步骤2、通过深度学习算法自动学习手势图像特征,并对同一手势的多种姿态进行识别和归类;
在步骤2中,通过深度学习自动学习手势图像特征对同一手势的多种姿态进行识别和归类,具体包括:采用开源手势库中的手势图像离线训练RBM网络,自动学习多种手势图像深度特征;采用BP神经网络对经过RBM特征提取的手势集图像进行监督学习分类;根据RBM网络和BP神经网络形成的DBN网络对实时采集的操作人手势图像进行识别,并归类为图1中a-g手势(可根据工作要求增加手势数目,在此仅举7个手势示例)。
实施例中,RBM网络根据手势库中的大量手势图像,不断自动学习和更新网络参数,挖掘多种手势存在的不同特征;然后在使用带标签图像数据的方式下采用BP神经网络对找到特征后的手势集的同一手势可能做出的多种姿态手势进行识别并归类为图1中的(a-g)手势,形成完整的DBN深度学习手势识别网络;最后实时采集动态手势图像送入网络进行识别。
步骤3、根据识别和归类的手势信息,发送相应的预设置机器人控制指令。
在步骤3中,根据识别和归类的手势信息发送相应的预设置机器人控制指令,具体包括:通过获得的手势归类,当检测出归类为图1中的(a-g)手势,分别对应(1-7)数字输出;然后在机器人编程软件上分别编译产生目标1号工件、目标2号工件、伺服系统打开同时自动进行关节运动、夹取命令、开始作业、机器停止相关人机协作系统运动指令、初始化,进行远程人机协作,(若需要更多动作,也可根据其他手势的变化自行配置相关运动及参数)。
如图1、图2所示,为本发明实施例的七种手势及其三种手势归类原理图,以下对归类原理进行详细说明:图1中的(a-g)七种手势为本发明实施例设置的手势标签和归类结果图,其分别映射为(1-7)的数字输出,在机器人上映射为目标1号工件、目标2号工件、伺服系统打开同时自动进行关节运动、夹取命令、开始作业、机器停止相关人机协作系统运动指令、初始化。
图2中,h0、h1、h2三个分类分别表示a、b、c三种手势的多种姿态(近似变形)经过深度学习手势识别最终归类示意图。本发明方法完全可以在指定手势的各种姿态下进行识别,并且并不局限于上述的(a-g)七种手势,用户可根据工件的具体流程自行设定多种姿态的相关手势,设置多种相关输出信号,给机器人编译需要的相关运动指令,可广泛应用于多种途径。
如图3,为本发明实施例的动态手势跟踪与采集流程图(即步骤1的详细步骤),以下对动态手势跟踪与采集流程进行详细说明:
步骤X101、使用Matlab工具箱,将第一台Kinect体感相机标定于远程手势台上方2m~3m之间;在PC上配置Kinect SDK,并将操作人员上肢及手势的深度图像及RGB图像通过USB传输至PC中;
步骤X102、采用C++在VS软件中对得到的图像进行中值滤波去除噪音影响,利用Kinect SDK中的肤色检测程序进行手势动态检测,同时使用C++编程得到动态深度数据流并转换为高度信息;
步骤X103、Kinect通过在PC处理端编程处理后,实时检测手是否存在,若没有,继续检测,若有,执行下一步;
步骤X104、在VS软件中将RGB图像转换为HSV颜色模型;
步骤X105、通过C++编程对得到的颜色模型只考虑H分量的颜色信息,根据条件B≤G,H=q;B>G,H=360-q;将H分量的取值限制在[0,255],得到颜色概率分布图;
步骤X106、根据得到的颜色概率分布图,确定搜索窗口的几何中心(x,y);
步骤X107、检查窗口是否覆盖;
步骤X108、在VS环境下对搜索窗口大小和位置进行初始化设置;
步骤X109、通过C++编程计算搜索框内的零阶距M00,设置搜索窗口宽度为使搜索区域应大于搜索窗口;
步骤X110、通过编程在PC上对搜索窗口计算一阶矩和零阶距M01,M10,得到窗口重心xe=M10/M00;ye=M01/M00;
步骤X111、将搜索窗口中心移到重心处,根据窗口像素值的总和来计算窗口的大小;
步骤X112、如若覆盖,确定手势位置,执行步骤X107,并对手势图像采样,若未覆盖,返回循环重新调整,直至覆盖;并且下一帧图像序列使用上一帧搜索框位置和大小,如此重复动态跟踪手势位置并采集手势数据,将采集到的手势灰度图二值化,形成二值矩阵。
本实施例中的跟踪算法采用camshift跟踪算法,在确认手势存在后,在PC机处理终端使用指令启动Kinect体感相机对框内手势图像进行采集,同时进行二值化;保证了图像矩阵的规范和有效性,为深度学习图像数据提供样本。
如图4,为本发明实施例的手势识别流程图(即步骤2的详细步骤),以下对手势识别流程进行详细说明:
步骤Z101、从CSDN手势库中下载手势姿态图样本集,在PC机上使用tensorflow框架搭建RBM受限玻尔兹曼机,将手势库中的手势图以二值图的形式送入网络自动学习特征;
本发明实施例中设置隐藏层为5层,设定第一层隐藏节点为1000,第二层和第三层为500,第四层和第五层为200;设置学习率为0.1;设置偏置为0;(注:当训练样本特别大时,也可相应减少各层节点个数);
步骤Z102、将隐藏层的最后一层设置为BP神经网络,使用(a-g)七种手势为标签数据进行监督学习,最后根据RBM受限玻尔兹曼机识别相对于标签数据得到的最大识别概率进行归类,直到将手势库的所有手势姿态图识别完成,训练结束;
步骤Z104、用户根据标签图像,在相机检测范围内随意选择一种做出对应的各种手势姿态(注:标签图像可根据不同应用自行添加);
步骤Z103、将用户做出的手势在经过处理后,将手势二值图像数据送入训练好的手势识别网络在线识别;
步骤Z105、根据标签数据,手势识别网络将对用户手势进行一个最大概率的归类;
步骤Z106、对于第一次手势识别归类后对应的数字输出信号为a,为了防止第二次采样手势未做变化,第二次手势识别归类后对应的数字输出信号为β;(注:本发明实施例中设置归类输出a∈(1-7),β∈(1-7),用户可根据标签需要进行多个设定;)
步骤Z107、每次的数字输出信号作为下一次的基准信号,判断输出a-β=0是否完成;若满足,则手势未变化,重新在线识别;机器人执行a对应指令一次直至完成;若不满足,则手势变化,机器人执行β对应指令一次直至完成,等待下一次手势识别信号。
本实施例中采用的识别手势库可直接在官方网站下载,网络搭建在PC处理终端进行,每一次的手势姿态变化后进过DBN网络手势识别后都会有一个最大概率的估计归类;其自动学习更新公式为:Δwij=ε(vihj>data-<vihj>model),其中<vihj>data是给定样本的数学期望,而<vihj>model是模型产生的数据期望,ε为学习速率;使用RBM网络的概率分布函数进行概率估计。
如图5,是本发明实施例基于深度学习的手势识别人机协作系统总体控制示意图,包括:
步骤Y101、将Kinect体感相机通过USB与处理端的PC机相接,将PC机得到的操作人手势图像传送至PC机的输出端;
步骤Y102、PC机的输出端与工业机器人通过网线连接,使两部分进行TCP/IP通讯;
步骤Y103、工件图像通过机器人工作台的工业相机(或工业摄像机)获取,编译与通讯配置预置在工业机器人控制软件内,使手势识别信息与预设置的工业机器人指令相对应。
该图5实施例中使用Kinect体感相机在采集图像后,在PC机中进行二值和深度图像获取,同时将得到的归类数字信号通过网线传送至工业机器人,这三个部分是对整个人机协作系统硬件连接以及整体控制的简要描述。
该图5实施例中的工业机器人采用YuMi机器人,工业相机及工件图像采集、处理使用YuMi机器人手臂相机得到;在Robot Studio上使用Rapid指令进行编译,开启运动双臂协调,配置双臂协同地址,设置关节运动指令与运动路径,将TCP坐标设置由工件图像坐标转换得到动态坐标,根据工件硬度和重量,在伺服系统下设置夹取力度3N,夹取距离6cm,夹取初始化距离0cm,碰撞安全距离1cm,使数字信号与工业机器人运动在保证安全与效率的情况下实时对应,完成人机协作。(注:可根据不同工件特性重新设置相关参数,根据YuMi机器人关节校准参数设置关节坐标;)
本发明方法,可以应用于多种机器人,并不局限于工业机器人及YuMi机器人,同时工件目标采集可根据工件特性自行选取相机进行处理后传送至处理端,完成通讯配置。操作人员可在远程计算机下进行远程监测,通过手势的变化对机器人进行抓取,组装,开始,停止等一系列动作;并且在操作人员进行替换后对同一手势动作的多种姿态进行精确识别归类,不仅实现了真正意义上的人机协作,显著解决了现有人机协作技术中存在的精度低,数据量大、机器伤人和不安全隐患等工业机器人协作问题。
Claims (6)
1.一种基于深度学习的人机协作系统手势识别控制方法,其特征在于,包括以下步骤:
步骤1、实时跟踪手势,并获取操作人的手势图像;动态手势跟踪与采集具体包括:
步骤X101、使用Matlab工具箱,将第一台Kinect体感相机标定于远程手势台上方2m~3m之间;在PC上配置Kinect SDK,并将操作人员上肢及手势的深度图像及RGB图像通过USB传输至PC中;
步骤X102、采用C++在VS软件中对得到的图像进行中值滤波去除噪音影响,利用KinectSDK中的肤色检测程序进行手势动态检测,同时使用C++编程得到动态深度数据流并转换为高度信息;
步骤X103、Kinect通过在PC处理端编程处理后,实时检测手势是否存在,若没有,继续检测,若有,执行下一步;
步骤X104、在VS软件中将RGB图像转换为HSV颜色模型;
步骤X105、通过C++编程对得到的颜色模型只考虑H分量的颜色信息,根据条件B≤G,H=θ;B>G,H=360-θ;将H分量的取值限制在[0,255],得到颜色概率分布图;
步骤X106、根据得到的颜色概率分布图,确定搜索窗口的几何中心(x,y);
步骤X107、检查窗口是否覆盖;
步骤X108、在VS环境下对搜索窗口大小和位置进行初始化设置;
步骤X109、通过C++编程计算搜索框内的零阶距M00,设置搜索窗口宽度为使搜索区域应大于搜索窗口;
步骤X110、通过编程在PC上对搜索窗口计算一阶矩和零阶距M01,M10,得到窗口重心xe=M10/M00;ye=M01/M00;
步骤X111、将搜索窗口中心移到重心处,根据窗口像素值的总和来计算窗口的大小;
步骤X112、如若覆盖,确定手势位置,执行步骤X107,并对手势图像采样,若未覆盖,返回循环重新调整,直至覆盖;并且下一帧图像序列使用上一帧搜索框位置和大小,如此重复动态跟踪手势位置并采集手势数据,将采集到的手势灰度图二值化,形成二值矩阵;
步骤2、通过深度学习算法自动学习手势图像特征,并对同一手势的多种姿态进行识别和归类;
步骤3、根据识别和归类的手势信息,发送相应的预设置机器人控制指令。
2.根据权利要求1所述的基于深度学习的人机协作系统手势识别控制方法,其特征在于:所述的步骤1中,具体包括:采用kinect体感相机采集用户的手势图像;采用camshift跟踪算法确认手势图像在采集范围内,并进行实时跟踪和采样;将采集到的操作人手势RGB图像和深度图像通过USB传送至PC机进行处理。
3.根据权利要求2所述的基于深度学习的人机协作系统手势识别控制方法,其特征在于:采用camshift跟踪算法确认手势图像在采集范围内,并进行实时跟踪和采样包括:采用VS软件及C++编程语言,读取操作人员上肢及手势的深度图像及RGB图像;根据所述RGB图像和深度图像,对图像进行滤波后背景剔除,并转换为HSI模型后得到颜色概率分布图;判断是否有手势存在,并根据计算图像中心和图像重心窗口是否覆盖来反复寻找;每隔相同时间进行一次采样,获取二值图像。
4.根据权利要求1所述的基于深度学习的人机协作系统手势识别控制方法,其特征在于:所述的步骤2中,具体包括:采用开源手势库中的手势图像离线训练RBM网络,自动学习多种手势图像深度特征;采用BP神经网络对经过RBM特征提取的手势集图像进行监督学习分类;根据RBM网络和BP神经网络形成的DBN网络对实时采集的操作人手势图像进行识别,并归类。
5.根据权利要求1所述的基于深度学习的人机协作系统手势识别控制方法,其特征在于:所述的步骤3中,具体包括:通过获得的手势归类,当检测出归类手势,分别对应数字输出;然后在机器人编程软件上分别编译产生相关人机协作系统运动指令、初始化,进行远程人机协作。
6.根据权利要求1所述的基于深度学习的人机协作系统手势识别控制方法,其特征在于:所述的步骤2中,手势识别具体包括:
步骤Z101、从CSDN手势库中下载手势姿态图样本集,在PC机上使用tensorflow框架搭建RBM受限玻尔兹曼机,将手势库中的手势图以二值图的形式送入网络自动学习特征;
步骤Z102、将隐藏层的最后一层设置为BP神经网络,使用多种手势为标签数据进行监督学习,最后根据RBM受限玻尔兹曼机识别相对于标签数据得到的最大识别概率进行归类,直到将手势库的所有手势姿态图识别完成,训练结束;
步骤Z104、用户根据标签图像,在相机检测范围内随意选择一种做出对应的各种手势姿态;
步骤Z103、将用户做出的手势在经过处理后,将手势二值图像数据送入训练好的手势识别网络在线识别;
步骤Z105、根据标签数据,手势识别网络将对用户手势进行一个最大概率的归类;
步骤Z106、对于第一次手势识别归类后对应的数字输出信号为α,为了防止第二次采样手势未做变化,第二次手势识别归类后对应的数字输出信号为β;
步骤Z107、每次的数字输出信号作为下一次的基准信号,判断输出α-β=0是否完成;若满足,则手势未变化,重新在线识别;机器人执行α对应指令一次直至完成;若不满足,则手势变化,机器人执行β对应指令一次直至完成,等待下一次手势识别信号。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810214341.7A CN108563995B (zh) | 2018-03-15 | 2018-03-15 | 基于深度学习的人机协作系统手势识别控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810214341.7A CN108563995B (zh) | 2018-03-15 | 2018-03-15 | 基于深度学习的人机协作系统手势识别控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108563995A CN108563995A (zh) | 2018-09-21 |
CN108563995B true CN108563995B (zh) | 2019-04-26 |
Family
ID=63531764
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810214341.7A Active CN108563995B (zh) | 2018-03-15 | 2018-03-15 | 基于深度学习的人机协作系统手势识别控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108563995B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109431523B (zh) * | 2018-10-19 | 2022-08-30 | 昆山杜克大学 | 基于非社会性声音刺激行为范式的孤独症初级筛查装置 |
CN110276292B (zh) * | 2019-06-19 | 2021-09-10 | 上海商汤智能科技有限公司 | 智能车运动控制方法及装置、设备和存储介质 |
CN110561450B (zh) * | 2019-08-30 | 2021-09-07 | 哈尔滨工业大学(深圳) | 一种基于动捕的机器人装配离线示例学习系统和方法 |
CN110796090A (zh) * | 2019-10-30 | 2020-02-14 | 武汉理工大学 | 基于循环神经网络的人机协作人体行为意图判别方法 |
CN111216133B (zh) * | 2020-02-05 | 2022-11-22 | 广州中国科学院先进技术研究所 | 一种基于指尖识别和手部运动跟踪的机器人演示编程方法 |
CN111860196B (zh) * | 2020-06-24 | 2023-06-20 | 富泰华工业(深圳)有限公司 | 手部作业动作评分装置、方法及计算机可读存储介质 |
CN112270982B (zh) * | 2020-11-23 | 2022-09-30 | 南京图格医疗科技有限公司 | 一种远距离手势控制一体化手术室系统 |
CN113485558B (zh) * | 2021-07-22 | 2022-08-26 | 华东师范大学 | 一种基于红外传感阵列的手势识别方法及系统 |
CN113741458B (zh) * | 2021-09-03 | 2022-05-13 | 北京易航远智科技有限公司 | 一种机器人现场求助跟随或手势指导的行驶方法和系统 |
CN116175543A (zh) * | 2021-11-29 | 2023-05-30 | 中国科学院深圳先进技术研究院 | 一种协作机器人控制系统及方法 |
CN117351557A (zh) * | 2023-08-17 | 2024-01-05 | 中国矿业大学 | 一种深度学习的车载手势识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102890785A (zh) * | 2011-07-19 | 2013-01-23 | 上海上大海润信息系统有限公司 | 一种服务机器人目标识别与定位的方法 |
CN106096551A (zh) * | 2016-06-14 | 2016-11-09 | 湖南拓视觉信息技术有限公司 | 人脸部位识别的方法和装置 |
CN106845525A (zh) * | 2016-12-28 | 2017-06-13 | 上海电机学院 | 一种基于底层融合特征的深度置信网络图像分类协议 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103839040B (zh) * | 2012-11-27 | 2017-08-25 | 株式会社理光 | 基于深度图像的手势识别方法和装置 |
CN107263465A (zh) * | 2017-05-02 | 2017-10-20 | 深圳市睿科智联科技有限公司 | 一种基于末端反馈的协作机器人识别方法及系统 |
-
2018
- 2018-03-15 CN CN201810214341.7A patent/CN108563995B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102890785A (zh) * | 2011-07-19 | 2013-01-23 | 上海上大海润信息系统有限公司 | 一种服务机器人目标识别与定位的方法 |
CN106096551A (zh) * | 2016-06-14 | 2016-11-09 | 湖南拓视觉信息技术有限公司 | 人脸部位识别的方法和装置 |
CN106845525A (zh) * | 2016-12-28 | 2017-06-13 | 上海电机学院 | 一种基于底层融合特征的深度置信网络图像分类协议 |
Non-Patent Citations (2)
Title |
---|
"助老助残移动机器人手势交互控制研究";何瑞青;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180215;正文第6-30页 |
"基于深度信息与DBN的手势检测与识别";朱月秀等;《闽南师范大学学报》;20171231;第33-38页 |
Also Published As
Publication number | Publication date |
---|---|
CN108563995A (zh) | 2018-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108563995B (zh) | 基于深度学习的人机协作系统手势识别控制方法 | |
Yang et al. | Haptics electromyography perception and learning enhanced intelligence for teleoperated robot | |
Sahbani et al. | An overview of 3D object grasp synthesis algorithms | |
Tikhanoff et al. | Exploring affordances and tool use on the iCub | |
CN105082132B (zh) | 力‑扭矩任务的快速机器人模仿学习 | |
Hossain et al. | Pick-place of dynamic objects by robot manipulator based on deep learning and easy user interface teaching systems | |
Wachs et al. | Real-time hand gesture telerobotic system using fuzzy c-means clustering | |
Mania et al. | A framework for self-training perceptual agents in simulated photorealistic environments | |
Ramirez-Amaro et al. | Automatic segmentation and recognition of human activities from observation based on semantic reasoning | |
El Zaatari et al. | iTP-LfD: Improved task parametrised learning from demonstration for adaptive path generation of cobot | |
Kumar et al. | Computer vision based object grasping 6DoF robotic arm using picamera | |
Song et al. | Skill learning for robotic assembly based on visual perspectives and force sensing | |
Wang et al. | Joining force of human muscular task planning with robot robust and delicate manipulation for programming by demonstration | |
Arai et al. | Fast prediction of a worker’s reaching motion without a skeleton model (f-premo) | |
Adhikari et al. | A Novel Machine Learning-Based Hand Gesture Recognition Using HCI on IoT Assisted Cloud Platform. | |
Arsenic | Developmental learning on a humanoid robot | |
Abad et al. | Fuzzy logic-controlled 6-DOF robotic arm color-based sorter with machine vision feedback | |
Pan et al. | Robot teaching system based on hand-robot contact state detection and motion intention recognition | |
Savatekar et al. | Design of control system for articulated robot using leap motion sensor | |
Nogales et al. | A proposal for Hand gesture control applied to the KUKA youBot using motion tracker sensors and machine learning algorithms | |
Useche et al. | Algorithm of detection, classification and gripping of occluded objects by CNN techniques and Haar classifiers | |
Sawant et al. | Implementation of faster RCNN algorithm for smart robotic arm based on computer vision | |
Edsinger et al. | What can i control? a framework for robot self-discovery | |
Reyes et al. | Gesture Controlled Collaborative Robot Arm and Lab Kit | |
Ehrenmann et al. | Interaction with robot assistants: Commanding ALBERT |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |