CN106934334A - 一种手势动作识别方法及智能设备 - Google Patents
一种手势动作识别方法及智能设备 Download PDFInfo
- Publication number
- CN106934334A CN106934334A CN201511031676.8A CN201511031676A CN106934334A CN 106934334 A CN106934334 A CN 106934334A CN 201511031676 A CN201511031676 A CN 201511031676A CN 106934334 A CN106934334 A CN 106934334A
- Authority
- CN
- China
- Prior art keywords
- gesture
- gesture motion
- gestures
- images
- instruction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种手势动作识别方法及智能设备,属于智能控制技术领域;方法包括:步骤S1,采用一图像采集装置获取外部的手势图像,并获取手势图像处于YUV色彩空间中的Y值分量;步骤S2,根据Y值分量,获取关联于手势图像的灰度图像;步骤S3,依据预设的手势分类器,对灰度图像进行识别,以得到对应于手势图像的手势动作;步骤S4,根据手势动作赋予相应的手势指令,并根据手势指令控制智能设备执行操作。上述技术方案的有益效果是:丰富智能设备的控制方式,使得使用者对智能设备的操控更便捷,提升使用者的使用体验。
Description
技术领域
本发明涉及智能控制技术领域,尤其涉及一种手势动作识别方法及智能设备。
背景技术
现有智能设备例如智能机器人的控制方式通常需要通过第三方设备进行控制,例如通过触摸等方式点击手机上的智能机器人的控制应用程序,并通过蓝牙、声波或者局域网等方式将相应的指令发送至智能机器人中以实现对智能机器人的相应操作。这种智能设备的控制方式非常繁琐,无法直接与智能设备产生互动,极大地降低了智能设备的智能性,也降低了使用者的使用体验。
发明内容
根据现有技术中存在的上述问题,现提供一种手势动作识别方法及智能设备的技术方案,旨在丰富智能设备的控制方式,使得使用者对智能设备的操控更便捷,提升使用者的使用体验。
上述技术方案具体包括:
一种手势动作识别方法,适用于智能设备;其中,包括:
步骤S1,采用一图像采集装置获取外部的手势图像,并获取所述手势图像处于YUV色彩空间中的Y值分量;
步骤S2,根据所述Y值分量,获取关联于所述手势图像的灰度图像;
步骤S3,依据预设的手势分类器,对所述灰度图像进行识别,以得到对应于所述手势图像的手势动作;
步骤S4,根据所述手势动作赋予相应的手势指令,并根据所述手势指令控制所述智能设备执行操作。
优选的,该手势动作识别方法,其中,所述图像采集装置为单目摄像头设备。
优选的,该手势动作识别方法,其中,所述步骤S1具体包括:
步骤S11,获取处于所述YUV色彩空间中的彩色图像的数据帧,所述数据帧中包括所述手势图像;
步骤S12,将所述数据帧转化为Mat图像类型的数据处理帧;
步骤S13,根据所述数据处理帧获取关联于所述手势图像的所述Y值分量。
优选的,该手势动作识别方法,其中,所述步骤S3中,在判断得到所述手势动作之前,首先判断所述手势图像对应的所述手势动作的动作类型,步骤具体包括:
步骤S31,根据连续多帧所述数据处理帧的对比,判断所述手势图像对应的手势动作是否为静态的所述手势动作,并在判断结果为静态的所述手势动作时转向步骤S32;
步骤S32,根据连续多帧所述数据处理帧的对比,判断所述手势动作是否为滑动的所述手势动作:
若是,则输出所述手势动作为滑动的所述手势动作的判断结果,随后继续执行所述步骤S3;
步骤S33,根据连续多帧所述数据处理帧的对比,判断所述手势动作是否为形态变化的所述手势动作:
若是,则输出所述手势动作为形态变化的所述手势动作,随后继续执行所述步骤S3;
若否,则退出。
优选的,该手势动作识别方法,其中,所述步骤S4中,设置一消息监听通道,并持续监听所述手势图像的识别结果,在监听到存在成功识别的所述手势图像对应的所述手势指令后,获取所述手势指令并控制所述智能设备执行相应的操作。
优选的,该手势动作识别方法,其中,所述手势指令中包括预设的多个指令元素,每个所述指令元素分别对应一预设的取值集合,每个所述取值集合中包括多个离散取值;
则所述步骤S4中,根据所述手势动作确定每个所述指令元素的所述离散取值,并将所有所述指令元素组合形成与所述手势动作相匹配的所述手势指令并输出。
优选的,该手势动作识别方法,其中,所述指令元素包括:
用于表示识别所述手势动作的功能模块的第一指令元素;以及
用于表示所述手势动作的形态分类的第二指令元素。
优选的,该手势动作识别方法,其中,所述指令元素中还包括:
用于表示所述手势动作的分类的第三指令元素;和/或
用于表示所述手势动作的子分类的第四指令元素。
一种智能设备,其中,采用上述的手势动作识别方法。
上述技术方案的有益效果是:提供一种手势动作识别方法,能够丰富智能设备的控制方式,使得使用者对智能设备的操控更便捷,提升使用者的使用体验。
附图说明
图1是本发明的较佳的实施例中,一种手势动作识别方法的总体流程示意图;
图2-3是本发明的较佳的实施例中,于图1的基础上,手势动作识别方法的分步骤流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
本发明的较佳的实施例中,基于现有技术中存在的上述问题,现提供一种手势动作识别方法的技术方案,适用于智能设备。
则上述方法具体如图1所示,包括:
步骤S1,采用一图像采集装置获取外部的手势图像,并获取手势图像处于YUV色彩空间中的Y值分量;
步骤S2,根据Y值分量,获取关联于手势图像的灰度图像;
步骤S3,依据预设的手势分类器,对灰度图像进行识别,以得到对应于手势图像的手势动作;
步骤S4,根据手势动作赋予相应的手势指令,并根据手势指令控制智能设备执行操作。
在一个具体实施例中,上述步骤S1中,首先采用图像采集装置获取外部的手势图像。所谓图像采集装置,可以为单目摄像头设备,即通过单目摄像头设备摄取使用者的手势图像。该实施例中,上述步骤S1中,根据摄取到的手势图像处理得到其处于YUV色彩空间中的Y值分量。
在该实施例中,上述步骤S2中,进一步地,根据上述处理得到的Y值分量,处理得到上述手势图像的灰度图像。
在该实施例中,上述步骤S3中,进一步地,以处理得到的灰度图像作为识别对象对其进行识别,以得到对应于上述灰度图像的手势动作。该手势动作的识别过程中采用预设的手势分类器进行。所谓手势分类器,实际可以为一种预先训练得到的手势识别模型,该手势识别模型按照一定的分类规则逐步对手势动作进行识别。该方式在下文中会详述。
在该实施例中,最终通过手势动作识别得到相应的手势指令,并通过手势指令可以控制智能设备执行相应的操作。手势指令的构成在下文中会详述。
本发明的较佳的实施例中,如图2所示,上述步骤S1具体包括:
步骤S11,获取处于YUV色彩空间中的彩色图像的数据帧,数据帧中包括手势图像;
步骤S12,将数据帧转化为Mat图像类型的数据处理帧;
步骤S13,根据数据处理帧获取关联于手势图像的Y值分量。
具体地,本发明的较佳的实施例中,所谓YUV色彩空间,实际为一种以Y(表示明亮度,也就是灰阶值)值分量、U值分量和V值分量(均用于表示色度)组合形成的一个色彩空间。YUV色彩空间可以和RGB色彩空间或者其他色彩空间进行任意转换。
则本发明的较佳的实施例中,通过上述图像采集装置(单目摄像头设备)直接获取处于YUV色彩空间内的包括彩色图像的数据帧。具体地,获取数据帧的行为(即采集图像的行为)是持续的,因此获取的数据帧也是连续的多帧数据帧。
本发明的较佳的实施例中,获取到连续的数据帧后,将该数据帧转化为OpenCV中的Mat图像类型的数据处理帧。所谓OpenCV,是一个基于开源发行的跨平台计算机视觉库,可以运行在Linux、Windows以及MacOS等多个操作系统上。而Mat图像类型是OpenCV上的一种数据类型,其本质上是由两个数据部分组成的类:矩阵头和指针。其中矩阵头中包含信息有矩阵的大小,用于存储的方法,矩阵存储的地址等信息;而指针指向包含了像素值的矩阵,其可根据选择用于存储的方法采用任何维度存储数据。本发明的较佳的实施例中,将“数据处理帧”区别于“数据帧”表示,仅为了描述方便,实质上“数据处理帧”与“数据帧”中均包含手势图像的相关信息,只是在图像类型上有所区别。
最终,本发明的较佳的实施例中,根据上述被转换为Mat数据类型的数据处理帧处理得到上述手势图像的Y值分量。
本发明的较佳的实施例中,上述步骤S3中,在判断得到手势动作之前,首先判断手势图像对应的手势动作的动作类型,上述步骤具体如图3所示,包括:
步骤S31,根据连续多帧数据处理帧的对比,判断手势图像对应的手势动作是否为静态的手势动作,并在判断结果为静态的手势动作时转向步骤S32;
步骤S32,根据连续多帧数据处理帧的对比,判断手势动作是否为滑动的手势动作:
若是,则输出手势动作为滑动的手势动作的判断结果,随后继续执行步骤S3;
步骤S33,根据连续多帧数据处理帧的对比,判断手势动作是否为形态变化的手势动作:
若是,则输出手势动作为形态变化的手势动作,随后继续执行步骤S3;
若否,则退出。
具体地,本发明的较佳的实施例中,首先根据连续多帧的数据处理帧之间进行对比的结果,判断手势动作是否为静态的手势动作。具体为:若在连续的多帧数据处理帧中的手势动作均没有发生明显的变化,则认为此时使用者做出的为静态的手势动作。
本发明的较佳的实施例中,将静态的手势动作作为手势动作识别的入口,即只有判断使用者做出了静态的手势动作后,才继续后续的手势动作识别过程。若判断使用者尚未做出静态的手势动作,则进行持续检测,直至抓取到使用者做出静态的手势动作为止。
本发明的一个较佳的实施例中,识别出静态的手势动作后,继续执行后续的手势动作识别过程,例如通过连续多帧的数据处理帧对手势动作的轨迹进行跟踪,以判断使用者是否做出滑动(或者叫移动)的手势动作。具体地,可以预设一个手势滑动的轨迹距离,若手势滑动的实际距离超过该轨迹距离,则认为该手势是滑动的手势动作。反之,则认为该手势不为滑动的手势动作。本发明的较佳的实施例中,若该手势为滑动的手势动作,则进一步判断其滑动距离和、滑动方向以及其他信息,并能够根据这些信息形成相应的手势指令。相应地,若该手势由于滑动距离不够而不被判断为滑动的手势动作,则认为该手势是无效的,或者该手势尚未起到控制作用,因此智能设备不根据该手势动作执行任何操作。
本发明的另一个较佳的实施例中,识别出静态的手势动作后,继续执行后续的手势动作识别过程,例如通过连续多帧的数据处理帧对手势动作进行对比,以判断使用者是否做出形态发生变化的手势动作(例如由伸开手掌变成握拳,或者由握拳变成伸开手掌)。具体判断方式可以为获取需要判断的连续多帧数据处理帧中的手势动作以及该手势动作附近的其他手势动作,并根据预先训练的识别模型判断其是否为形态变化的手势动作。若是,则根据形态变化的具体信息(例如是由伸开手掌变化到握拳,还是由握拳变化到伸开手掌)生成相应的手势指令,并且控制智能设备执行相应操作。
本发明的其他实施例中,识别出静态的手势动作后还可以执行其他类型的手势动作识别,并不局限于上文中所述的识别滑动的手势动作以及识别形态变化的手势动作。同样地,上文中所述的步骤S31-S33中的顺序执行过程仅为本发明技术方案中结合判断滑动手势动作和形态变化的手势动作的一种实施例,在实际情况中,判断形态变化的手势动作的过程不一定位于判断滑动的手势动作的过程之后进行,任何可能的步骤执行顺序或者其中某个步骤的变化均包括在本发明的保护范围内。
本发明的较佳的实施例中,上述步骤S4中,设置一消息监听通道,并持续监听手势图像的识别结果,在监听到存在成功识别的手势图像对应的手势指令后,获取手势指令并控制智能设备执行相应的操作。
本发明的较佳的实施例中,手势指令中包括预设的多个指令元素,每个指令元素分别对应一预设的取值集合,每个取值集合中包括多个离散取值;
则步骤S4中,根据手势动作确定每个指令元素的离散取值,并将所有指令元素组合形成与手势动作相匹配的手势指令并输出。
上述指令元素包括用于表示识别手势动作的功能模块的第一指令元素,以及用于表示手势动作的形态分类的第二指令元素,以及包括下文中所述的至少一种:
用于表示手势动作的分类的第三指令元素;
用于表示手势动作的子分类的第四指令元素。
具体地,本发明的一个较佳的实施例中,上述指令元素中包括第一指令元素、第二指令元素、第三指令元素以及第四指令元素。其中:
第一指令元素用于表示手势识别的功能模块的代号,例如取值固定为2;
第二指令元素用于表示手势动作的形态分类对应的代号,例如以取值0表示伸开手掌,取值1表示握拳,取值2表示赞手势(例如握拳并且大拇指向上),取值3表示不赞手势(例如握拳并且大拇指向下)。换言之,第二指令元素对应的取值集合即为{0,1,2,3}。
第三指令元素用于表示手势动作的分类对应的代号,例如以取值0表示静态的手势动作(该静态手势为上文中的静态手势判断完成后继续维持静态的手势动作),以取值1表示滑动的手势动作,以取值2表示形态变化的手势动作。换言之,第三指令元素对应的取值集合即为{0,1,2}。
第四指令元素用于表示手势动作的进一步的子分类对应的代号,例如在手势动作保持静态的情况下,以取值0表示短时保持静态,以取值1表示长时保持静态。同样地,在手势动作为滑动的情况下,以取值0表示手势上滑,以取值1表示手势下滑,以取值2表示手势左滑,以取值3表示手势右滑。同样地,在手势动作为形态变化的情况下,以取值0表示变化到伸开手掌的手势,以取值1表示变化到握拳的手势,以取值2表示变化到赞手势,以取值3表示变化到不赞手势。换言之,上述第四指令元素对应的取值集合即为{0,1,2,3}。
应用上述指令元素组成的手势指令例如下文所述:
手势指令为2012,即表示手势识别的功能模块进行识别后得到的,使用者伸开手掌向左滑动的手势动作所对应的手势指令;
手势指令为2102,即表示手势识别的功能模块进行识别后得到的,使用者握拳并保持长时间静态的手势动作。
手势指令为2323,即表示手势识别的功能模块进行识别后得到的,使用者比出赞手势,并且变化到不赞手势的手势动作。
上述举例并不能穷尽手势指令的类型,任何以上文中所述的技术方案衍生得到的手势指令的类型均应包括在本发明的保护范围内。
本发明的较佳的实施例中,还提供一种智能设备,其中采用上文中所述的手势动作识别方法。
以上所述仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。
Claims (9)
1.一种手势动作识别方法,适用于智能设备;其特征在于,包括:
步骤S1,采用一图像采集装置获取外部的手势图像,并获取所述手势图像处于YUV色彩空间中的Y值分量;
步骤S2,根据所述Y值分量,获取关联于所述手势图像的灰度图像;
步骤S3,依据预设的手势分类器,对所述灰度图像进行识别,以得到对应于所述手势图像的手势动作;
步骤S4,根据所述手势动作赋予相应的手势指令,并根据所述手势指令控制所述智能设备执行操作。
2.如权利要求1所述的手势动作识别方法,其特征在于,所述图像采集装置为单目摄像头设备。
3.如权利要求1所述的手势动作识别方法,其特征在于,所述步骤S1具体包括:
步骤S11,获取处于所述YUV色彩空间中的彩色图像的数据帧,所述数据帧中包括所述手势图像;
步骤S12,将所述数据帧转化为Mat图像类型的数据处理帧;
步骤S13,根据所述数据处理帧获取关联于所述手势图像的所述Y值分量。
4.如权利要求1所述的手势动作识别方法,其特征在于,所述步骤S3中,在判断得到所述手势动作之前,首先判断所述手势图像对应的所述手势动作的动作类型,步骤具体包括:
步骤S31,根据连续多帧所述数据处理帧的对比,判断所述手势图像对应的手势动作是否为静态的所述手势动作,并在判断结果为静态的所述手势动作时转向步骤S32;
步骤S32,根据连续多帧所述数据处理帧的对比,判断所述手势动作是否为滑动的所述手势动作:
若是,则输出所述手势动作为滑动的所述手势动作的判断结果,随后继续执行所述步骤S3;
步骤S33,根据连续多帧所述数据处理帧的对比,判断所述手势动作是否为形态变化的所述手势动作:
若是,则输出所述手势动作为形态变化的所述手势动作,随后继续执行所述步骤S3;
若否,则退出。
5.如权利要求1所述的手势动作识别方法,其特征在于,所述步骤S4中,设置一消息监听通道,并持续监听所述手势图像的识别结果,在监听到存在成功识别的所述手势图像对应的所述手势指令后,获取所述手势指令并控制所述智能设备执行相应的操作。
6.如权利要求1所述的手势动作识别方法,其特征在于,所述手势指令中包括预设的多个指令元素,每个所述指令元素分别对应一预设的取值集合,每个所述取值集合中包括多个离散取值;
则所述步骤S4中,根据所述手势动作确定每个所述指令元素的所述离散取值,并将所有所述指令元素组合形成与所述手势动作相匹配的所述手势指令并输出。
7.如权利要求6所述的手势动作识别方法,其特征在于,所述指令元素包括:
用于表示识别所述手势动作的功能模块的第一指令元素;以及
用于表示所述手势动作的形态分类的第二指令元素。
8.如权利要求7所述的手势动作识别方法,其特征在于,所述指令元素中还包括:
用于表示所述手势动作的分类的第三指令元素;和/或
用于表示所述手势动作的子分类的第四指令元素。
9.一种智能设备,其特征在于,采用如权利要求1-8所述的手势动作识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201511031676.8A CN106934334A (zh) | 2015-12-31 | 2015-12-31 | 一种手势动作识别方法及智能设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201511031676.8A CN106934334A (zh) | 2015-12-31 | 2015-12-31 | 一种手势动作识别方法及智能设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106934334A true CN106934334A (zh) | 2017-07-07 |
Family
ID=59444218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201511031676.8A Pending CN106934334A (zh) | 2015-12-31 | 2015-12-31 | 一种手势动作识别方法及智能设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106934334A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108549489A (zh) * | 2018-04-27 | 2018-09-18 | 哈尔滨拓博科技有限公司 | 一种基于手部形态、姿态、位置及运动特征的手势控制方法和系统 |
CN110046603A (zh) * | 2019-04-25 | 2019-07-23 | 合肥工业大学 | 一种中国普乐手语编码的手势动作识别方法 |
CN112750437A (zh) * | 2021-01-04 | 2021-05-04 | 欧普照明股份有限公司 | 控制方法、控制装置及电子设备 |
CN114697474A (zh) * | 2020-12-25 | 2022-07-01 | Oppo广东移动通信有限公司 | 电子设备的控制方法、电子设备及计算机可读存储介质 |
WO2022165736A1 (zh) * | 2021-02-02 | 2022-08-11 | 豪威芯仑传感器(上海)有限公司 | 一种识别手部滑动方向的方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102214300A (zh) * | 2011-07-19 | 2011-10-12 | 吉林大学 | 基于dsp的手形识别系统 |
CN104571482A (zh) * | 2013-10-22 | 2015-04-29 | 中国传媒大学 | 一种基于体感识别的数字设备操控方法 |
CN105204351A (zh) * | 2015-08-24 | 2015-12-30 | 珠海格力电器股份有限公司 | 空调机组的控制方法及装置 |
-
2015
- 2015-12-31 CN CN201511031676.8A patent/CN106934334A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102214300A (zh) * | 2011-07-19 | 2011-10-12 | 吉林大学 | 基于dsp的手形识别系统 |
CN104571482A (zh) * | 2013-10-22 | 2015-04-29 | 中国传媒大学 | 一种基于体感识别的数字设备操控方法 |
CN105204351A (zh) * | 2015-08-24 | 2015-12-30 | 珠海格力电器股份有限公司 | 空调机组的控制方法及装置 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108549489A (zh) * | 2018-04-27 | 2018-09-18 | 哈尔滨拓博科技有限公司 | 一种基于手部形态、姿态、位置及运动特征的手势控制方法和系统 |
CN108549489B (zh) * | 2018-04-27 | 2019-12-13 | 哈尔滨拓博科技有限公司 | 一种基于手部形态、姿态、位置及运动特征的手势控制方法和系统 |
CN110046603A (zh) * | 2019-04-25 | 2019-07-23 | 合肥工业大学 | 一种中国普乐手语编码的手势动作识别方法 |
CN110046603B (zh) * | 2019-04-25 | 2020-11-27 | 合肥工业大学 | 一种中国普乐手语编码的手势动作识别方法 |
CN114697474A (zh) * | 2020-12-25 | 2022-07-01 | Oppo广东移动通信有限公司 | 电子设备的控制方法、电子设备及计算机可读存储介质 |
CN114697474B (zh) * | 2020-12-25 | 2023-07-21 | Oppo广东移动通信有限公司 | 电子设备的控制方法、电子设备及计算机可读存储介质 |
CN112750437A (zh) * | 2021-01-04 | 2021-05-04 | 欧普照明股份有限公司 | 控制方法、控制装置及电子设备 |
WO2022165736A1 (zh) * | 2021-02-02 | 2022-08-11 | 豪威芯仑传感器(上海)有限公司 | 一种识别手部滑动方向的方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106934334A (zh) | 一种手势动作识别方法及智能设备 | |
CN110569795B (zh) | 一种图像识别方法、装置以及相关设备 | |
Betancourt et al. | The evolution of first person vision methods: A survey | |
CN109685037B (zh) | 一种实时动作识别方法、装置及电子设备 | |
CN105204351B (zh) | 空调机组的控制方法及装置 | |
CN105373785A (zh) | 基于深度神经网络的手势识别检测方法与装置 | |
CN107654406A (zh) | 风扇送风控制设备、风扇送风控制方法及装置 | |
CN108197534A (zh) | 一种人头部姿态检测方法、电子设备及存储介质 | |
US20210035336A1 (en) | Augmented reality display method of simulated lip makeup | |
CN106547356A (zh) | 智能交互方法和装置 | |
CN106873893A (zh) | 用于智能机器人的多模态交互方法及装置 | |
Mohammed | Efficient eye blink detection method for disabled-helping domain | |
CN107357414A (zh) | 一种点击动作的识别方法及点击动作识别装置 | |
CN111860078A (zh) | 人脸静默活体检测方法、装置、可读存储介质及设备 | |
Kim et al. | Using human gaze to improve robustness against irrelevant objects in robot manipulation tasks | |
CN107450717A (zh) | 一种信息处理方法及穿戴式设备 | |
CN107578015B (zh) | 一种基于深度学习的第一印象识别与回馈系统及方法 | |
CN109886070A (zh) | 一种设备控制方法、装置、存储介质及设备 | |
CN109299641A (zh) | 一种列车调度员疲劳监测图像自适应处理算法 | |
EP3200092A1 (en) | Method and terminal for implementing image sequencing | |
CN115223239A (zh) | 一种手势识别方法、系统、计算机设备以及可读存储介质 | |
CN112437226B (zh) | 图像处理方法、设备及存储介质 | |
Kumar et al. | Facial emotion recognition and detection using cnn | |
Ray et al. | Design and implementation of affective e-learning strategy based on facial emotion recognition | |
Vignolo et al. | The complexity of biological motion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170707 |
|
RJ01 | Rejection of invention patent application after publication |