CN109697394A - 手势检测方法和手势检测设备 - Google Patents
手势检测方法和手势检测设备 Download PDFInfo
- Publication number
- CN109697394A CN109697394A CN201711000019.6A CN201711000019A CN109697394A CN 109697394 A CN109697394 A CN 109697394A CN 201711000019 A CN201711000019 A CN 201711000019A CN 109697394 A CN109697394 A CN 109697394A
- Authority
- CN
- China
- Prior art keywords
- gesture
- frame
- original image
- detection
- frame original
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 347
- 238000000034 method Methods 0.000 title claims abstract description 85
- 230000033001 locomotion Effects 0.000 claims abstract description 47
- 238000012545 processing Methods 0.000 claims abstract description 30
- 238000007689 inspection Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 abstract description 6
- 230000003993 interaction Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 210000003128 head Anatomy 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004040 coloring Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000000556 factor analysis Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241000905957 Channa melasoma Species 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- HUTDUHSNJYTCAR-UHFFFAOYSA-N ancymidol Chemical compound C1=CC(OC)=CC=C1C(O)(C=1C=NC=NC=1)C1CC1 HUTDUHSNJYTCAR-UHFFFAOYSA-N 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000000554 iris Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种手势检测方法和手势检测设备。该手势检测方法,包括:对第一帧原始图像进行缩放处理和背景建模,以生成第一帧背景图像;对所述第一帧背景图像进行运动检测,以确定所述第一帧背景图像的运动区域;根据所述第一帧背景图像的运动区域,在所述第一帧原始图像中确定第一手势检测区域;在所述第一手势检测区域内进行手势检测。该手势检测方法通过运动检测减少手势检测器的扫描范围,降低计算量,提高计算速度,在不影响手势识别功能的前提下,保证电子设备流畅运行。
Description
技术领域
本公开的实施例涉及一种手势检测方法和手势检测设备。
背景技术
目前,人机交互的方式越来越多。随着虚拟技术的发展,基于手势的人机交互方式受到越来越多的关注,其在硬件成本和操作方式上都具有极大的优势。电视机、电子相框等电子设备中可以融入手势识别功能,以实现基于手势的人机交互。电子设备通过摄像头采集用户的手部动作,并通过模式识别算法对采集的图像中的手部特征进行检测和跟踪,将手部的运动信息转化为电子设备上的光标的运动信息,从而触发电子设备上相应的操作命令,例如视频播放控制、网页切换以及游戏互动等。手势识别技术基于电子设备所配备的摄像头和相应的识别软件,即可实现基于手势的人机交互。
发明内容
本公开至少一实施例提供一种手势检测方法,其包括:对第一帧原始图像进行缩放处理和背景建模,以生成第一帧背景图像;对所述第一帧背景图像进行运动检测,以确定所述第一帧背景图像的运动区域;根据所述第一帧背景图像的运动区域,在所述第一帧原始图像中确定第一手势检测区域;以及在所述第一手势检测区域内进行手势检测。
例如,本公开至少一实施例提供的手势检测方法还包括:当确定所述第一手势检测区域内存在第一手势时,在所述第一帧原始图像中确定所述第一手势的第一手势范围;以及根据所述第一帧原始图像的第一手势范围确定第二帧原始图像的第二手势检测区域。
例如,在本公开至少一实施例提供的手势检测方法中,根据所述第一帧原始图像的第一手势范围确定第二帧原始图像的第二手势检测区域包括:根据所述第一手势范围的中心坐标确定所述第二帧原始图像的第二手势检测区域的中心坐标;根据所述第一手势范围的尺寸确定所述第二帧原始图像的第二手势检测区域的尺寸,其中,所述第二帧原始图像的第二手势检测区域的尺寸为W×H,H为所述第一手势范围的最长边长的X倍,W为所述第一手势范围的最长边长的Y倍,X和Y均为大于0的整数。
例如,本公开至少一实施例提供的手势检测方法,还包括:判断所述第二帧原始图像的第二手势检测区域的尺寸是否大于预设检测区域的尺寸,如果是,则对所述第二帧原始图像的第二手势检测区域进行缩放处理,以使所述第二帧原始图像的第二手势检测区域的尺寸与所述预设检测区域的尺寸相同,如果不是,则保持所述第二帧原始图像的第二手势检测区域的尺寸不变。
例如,在本公开至少一实施例提供的手势检测方法中,所述第一帧原始图像的第一手势检测区域的尺寸大于所述预设检测区域的尺寸。
例如,本公开至少一实施例提供的手势检测方法还包括:在所述第二手势检测区域内进行手势检测。
例如,本公开至少一实施例提供的手势检测方法还包括:确定所述第二手势检测区域内存在第二手势,并在所述第二帧原始图像中确定所述第二手势的第二手势范围;根据所述第二手势范围确定第三帧原始图像的第三手势检测区域。
例如,在本公开至少一实施例提供的手势检测方法中,根据所述第二手势范围确定第三帧原始图像的第三手势检测区域,包括:根据所述第二手势范围的中心坐标确定所述第三帧原始图像的第三手势检测区域的中心坐标;根据所述第二手势范围的尺寸确定所述第三帧原始图像的第三手势检测区域的尺寸,其中,所述第三帧原始图像的第三手势检测区域的尺寸为W×H,H为所述第二手势范围的最长边长的X倍,W为所述第二手势范围的最长边长的Y倍,X和Y均为大于0的整数。
例如,本公开至少一实施例提供的手势检测方法还包括:当确定所述第二手势检测区域内不存在第二手势时,对第三帧原始图像进行缩放处理和背景建模,以生成第三帧背景图像;对所述第三帧背景图像进行运动检测,以确定所述第三帧背景图像的运动区域;根据所述第三帧背景图像的运动区域,在所述第三帧原始图像中确定所述第三手势检测区域;在所述第三手势检测区域内进行手势检测。
例如,在本公开至少一实施例提供的手势检测方法中,对所述第一帧背景图像进行运动检测,以确定所述第一帧背景图像的运动区域,包括:在所述第一帧背景图像中对运动物体进行检测,以确定所述运动物体的轮廓区域;判断所述轮廓区域是否大于运动区域阈值,如果是,则确定所述轮廓区域为所述第一帧背景图像的运动区域。
本公开至少一实施例提供一种手势检测设备,包括处理器和存储器,所述存储器用于存储计算机指令,其中,所述计算机指令被所述处理器执行时实现以下操作:对第一帧原始图像进行缩放处理和背景建模,以生成第一帧背景图像;对所述第一帧背景图像进行运动检测,以确定所述第一帧背景图像的运动区域;根据所述第一帧背景图像的运动区域,在所述第一帧原始图像中确定第一手势检测区域;以及在所述第一手势检测区域内进行手势检测。
例如,在本公开至少一实施例提供的手势检测设备中,所述计算机指令被所述处理器执行时还实现以下操作:当确定所述第一手势检测区域内存在第一手势时,在所述第一帧原始图像中确定所述第一手势的第一手势范围;以及根据所述第一帧原始图像的第一手势范围确定第二帧原始图像的第二手势检测区域。
例如,在本公开至少一实施例提供的手势检测设备中,所述计算机指令被所述处理器执行时还实现以下操作:根据所述第一手势范围的中心坐标确定所述第二帧原始图像的第二手势检测区域的中心坐标;根据所述第一手势范围的尺寸确定所述第二帧原始图像的第二手势检测区域的尺寸,其中,所述第二帧原始图像的第二手势检测区域的尺寸为W×H,H为所述第一手势范围的最长边长的X倍,W为所述第一手势范围的最长边长的Y倍,X和Y均为大于0的整数。
例如,在本公开至少一实施例提供的手势检测设备中,所述计算机指令被所述处理器执行时还实现以下操作:判断所述第二帧原始图像的第二手势检测区域的尺寸是否大于预设检测区域的尺寸,如果是,则对所述第二帧原始图像的第二手势检测区域进行缩放处理,以使所述第二帧原始图像的第二手势检测区域的尺寸与所述预设检测区域的尺寸相同,如果不是,则保持所述第二帧原始图像的第二手势检测区域的尺寸不变。
例如,在本公开至少一实施例提供的手势检测设备中,所述第一帧原始图像的第一手势检测区域的尺寸大于所述预设检测区域的尺寸。
例如,在本公开至少一实施例提供的手势检测设备中,所述计算机指令被所述处理器执行时还实现以下操作:在所述第二手势检测区域内进行手势检测。
例如,在本公开至少一实施例提供的手势检测设备中,所述计算机指令被所述处理器执行时还实现以下操作:确定所述第二手势检测区域内存在第二手势,并在所述第二帧原始图像中确定所述第二手势的第二手势范围;根据所述第二手势范围确定第三帧原始图像的第三手势检测区域。
例如,在本公开至少一实施例提供的手势检测设备中,所述计算机指令被所述处理器执行时还实现以下操作:根据所述第二手势范围的中心坐标确定所述第三帧原始图像的第三手势检测区域的中心坐标;根据所述第二手势范围的尺寸确定所述第三帧原始图像的第三手势检测区域的尺寸,其中,所述第三帧原始图像的第三手势检测区域的尺寸为W×H,H为所述第二手势范围的最长边长的X倍,W为所述第二手势范围的最长边长的Y倍,X和Y均为大于0的整数。
例如,在本公开至少一实施例提供的手势检测设备中,所述计算机指令被所述处理器执行时还实现以下操作:当确定所述第二手势检测区域内不存在第二手势时,对第三帧原始图像进行缩放处理和背景建模,以生成第三帧背景图像;对所述第三帧背景图像进行运动检测,以确定所述第三帧背景图像的运动区域;根据所述第三帧背景图像的运动区域,在所述第三帧原始图像中确定所述第三手势检测区域;在所述第三手势检测区域内进行手势检测。
例如,在本公开至少一实施例提供的手势检测设备中,所述计算机指令被所述处理器执行时还实现以下操作:在所述第一帧背景图像中对运动物体进行检测,以确定所述运动物体的轮廓区域;判断所述轮廓区域是否大于运动区域阈值,如果是,则确定所述轮廓区域为所述第一帧背景图像的运动区域。
本公开至少一实施例提供一种手势检测方法和手势检测设备,其通过运动检测减少手势检测器的扫描范围,降低计算量,提高计算速度,在不影响手势识别功能的前提下,保证电子设备流畅运行。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例的附图作简单地介绍,显而易见地,下面描述中的附图仅仅涉及本公开的一些实施例,而非对本公开的限制。
图1为本公开一实施例提供的一种手势检测方法的示意性流程图;
图2A为本公开一实施例提供的第一帧原始图像的示意图;
图2B为图2A所示的第一帧原始图像的第一帧背景图像的示意图;
图3A为图2B所示的第一帧背景图像的运动区域的示意图;
图3B为图2A所示的第一帧原始图像中第一手势检测区域的示意图;
图3C为从图3B所示的第一帧原始图像中截取的第一手势检测区域的示意图;
图4为本公开一实施例提供的一种手势检测方法的又一示意性流程图;
图5A和图5B为本公开一实施例提供的第二帧原始图像的第二手势检测区域的示意图;
图6为图4中操作S20的示意性流程图;以及
图7为本公开一实施例提供的一种手势检测设备的示意性框图。
具体实施方式
为了使得本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例的附图,对本公开实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本公开的一部分实施例,而不是全部的实施例。基于所描述的本公开的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
除非另外定义,本公开使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。本公开中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
为了保持本公开实施例的以下说明清楚且简明,本公开省略了已知功能和已知部件的详细说明。
人机交互(Human-Computer Interaction,简写为HCI,或者,human machineinteraction)主要研究人与计算机(或者其他机器)之间的互动方式,其可以包括多种交互方式。人们与计算机(或者其他机器)之间可以通过鼠标、键盘和触摸屏等进行交互,还可以通过语音、手势、表情等进行交互。手势交互是利用计算机图形学等技术识别用户的肢体语言,并转化为命令来操作设备的一种交互方式。手势识别主要通过数学算法来识别用户的手势,从而使用户能够与计算机(或者其他机器)进行手势交互。
按照是否需要佩戴辅助设备,手势识别可以分为基于数据手套的手势识别和基于机器视觉的手势识别。基于数据手套的手势识别需要佩戴数据手套,其识别速度快,准确率较高,但数据手套的成本较高。基于机器视觉的手势识别则直接利用用户的手进行识别,其可以直观且方便地实现人机交互。又例如,按照表示手势的方法,手势识别可以分为静态手势识别和动态手势识别。静态手势识别用于识别用户手部的单个姿态,例如,手指伸展和弯曲、手掌打开或关闭等。动态手势识别则用于识别用户手部的运动轨迹和行进规律。
具有手势识别的电子设备通常使用常规的网络摄像头实时获取手势图像,同时使用鲁棒性较强的手势检测算法检测手势,以实现手势识别,其需要进行全屏检测,识别速度较慢,难以在终端设备上流畅运行。
本公开至少一实施例提供一种手势检测方法和手势检测设备,其通过运动检测减少手势检测器的扫描范围,降低计算量,提高计算速度,在不影响手势识别功能的前提下,保证电子设备流畅运行。
下面结合附图对本公开的实施例进行详细说明,但是本公开并不限于这些具体的实施例。
图1示出了本公开一实施例提供的一种手势检测方法的示意性流程图。
例如,如图1所示,本公开实施例提供的手势检测方法包括如下操作:
操作S10:对第一帧原始图像进行缩放处理和背景建模,以生成第一帧背景图像;
操作S12:对第一帧背景图像进行运动检测,以确定第一帧背景图像的运动区域;
操作S14:根据第一帧背景图像的运动区域,在第一帧原始图像中确定第一手势检测区域;以及
操作S16:在第一手势检测区域内进行手势检测。
例如,在操作S10中,可以采用插值算法对第一帧原始图像进行缩放处理,以缩小第一帧原始图像的尺寸。插值算法例如包括拉格朗日插值、最近邻插值、高斯插值、双线性插值、二次插值、三次插值、牛顿插值等。
例如,在操作S10中,背景建模可以采用帧间差分法、高斯建模法、近似中值滤波、卡尔曼滤波、基于颜色信息的背景建模法以及核密度估计方法等。帧间差分法的原理是在图像序列相邻两帧或三帧间采用基于像素的时间差分来提取出图像中的运动区域。高斯建模法是基于像素样本统计信息的背景表示方法,其利用像素在较长时间内大量样本值的概率密度等统计信息(例如模式数量、每个模式的均值和标准差)表示背景,然后使用统计差分(例如3σ原则)进行目标像素判断,可以对复杂动态背景进行建模。高斯建模法例如可以包括单高斯模型和混合高斯模型等。
例如,若电子设备采用安卓(Android)操作系统,根据安卓操作系统的计算能力,可以调整背景建模的种类和升级速度,以使其适应安卓操作系统。例如,计算机可以每秒处理30帧图像,而安卓操作系统则只能每秒处理10帧图像。也就是说,相对于计算机,电子设备上的相邻帧图像之间的差异较大,那么电子设备上需要设置更为敏感的参数,从而使用户在电子设备上的手势操作的体验感与在计算机上的手势操作的体验感接近。
例如,如果手势变化较快,相邻帧原始图像之间的差异较大,在背景建模的过程中,可以设置更为敏感的背景建模参数,以减少背景图像和原始图像之间的误差,提高手势检测的正确率。例如,对于帧间差分法,若物体的运动较快,则可以选择较小的时间间隔;若物体的运动速度较慢,则可以选择较大的时间间隔。
图2A为本公开一实施例提供的第一帧原始图像的示意图,图2B为本公开一实施例提供的第一帧背景图像的示意图。
例如,图2B所示的第一帧背景图像由图2A所示的第一帧原始图像经过缩放处理和背景建模而形成。如图2B所示,在第一帧背景图像中,白色部分表示发生运动的运动区域,黑色部分表示未发生运动的区域。
例如,若手势为拳头,则手势识别需要手势所占区域的最小分辨率为40×40(例如,以像素为单位)。假设手势识别的操作距离是2米,那么各帧原始图像的分辨率需要大约为1280×960,才能使手势所占区域的最小分辨率大约为40×40。需要说明的是,操作距离表示用户的手与电子设备的图像采集端(例如,摄像头)之间的距离。例如,操作距离的范围为0.5米-2米。
需要说明的是,在本公开实施例中,图像的分辨率和尺寸均可以以像素为单位。例如,原始图像的分辨率为1280×960,即表示原始图像具有1280行960列的像素矩阵。
例如,电子设备可以为终端设备。终端设备例如可以包括智能手机、平板电脑、个人计算机、游戏设备等。图像采集端可以为智能手机的摄像头、平板电脑的摄像头、个人计算机的摄像头等,图像采集端还可以为数码照相机的镜头、网络摄像头等。在一些实施例中,终端设备和图像采集端可以为不同的设备,彼此分离;在另一些实施例中,图像采集端可以被包括在终端设备中。例如,图像采集端可以为终端设备内嵌的或外挂的摄像头。
需要说明的是,电子设备也可以是液晶电视等。本公开实施例对电子设备的类型不作限制。
例如,在一个示例中,第一帧原始图像的分辨率可以为1280×960,第一帧背景图像的分辨率可以为320×240。
例如,第一帧原始图像可以为彩色图像,也可以为灰度图像。
需要说明的是,在对第一帧原始图像进行背景建模前,手势检测方法还可以包括对第一帧原始图像进行预处理的操作。预处理可以消除第一帧原始图像中的无关信息或噪声信息。预处理例如可以包括对第一帧原始图像进行伽玛(Gamma)校正、肤色提取、膨胀操作、灰度变换、色彩空间转换、图像增强或降噪滤波等处理。例如,第一帧原始图像的滤波操作可以包括空域方法和频域方法。空域方法主要包括平滑和滤波操作,频域方法主要包括傅里叶变换等各种频域变换操作。
例如,操作S12可以包括:在第一帧背景图像中对运动物体进行检测,以确定运动物体的轮廓区域;判断轮廓区域是否大于运动区域阈值,在确定轮廓区域大于或等于运动区域阈值的情况下,则确定轮廓区域为第一帧背景图像的运动区域,在确定轮廓区域小于运动区域阈值的情况下,则确定该轮廓区域属于噪声区域。
例如,在检测过程中,第一帧背景图像中的物体的运动都可以被检测到。因此,在第一帧背景图像中对运动物体进行检测后,可以获取多个运动物体的轮廓区域。若运动物体的轮廓区域较小,则确定其属于噪声区域,需要去除。
例如,运动区域阈值的分辨率可以为100个像素,即,当运动物体的轮廓区域的分辨率小于100个像素,则确定该运动物体的轮廓区域属于噪声区域。但不限于此,运动区域阈值的分辨率还可以为其他值,对此不作限制。
例如,操作S14可以包括:确定第一帧背景图像的运动区域的中心坐标;将第一帧背景图像的运动区域的中心坐标映射到第一帧原始图像上,以在第一帧原始图像上确定第一手势检测区域的中心坐标;以及根据第一手势检测区域的中心坐标,在第一帧原始图像上截取预定尺寸的区域作为第一手势检测区域。预定尺寸将在下面进行说明。
图3A为本公开一实施例提供的第一帧背景图像的运动区域的示意图;图3B为本公开一实施例提供的第一帧原始图像的第一手势检测区域的示意图;图3C为从图3B所示的第一帧原始图像中截取的第一手势检测区域的示意图。
图3B中的第一手势检测区域由图3A中的第一帧背景图像的运动区域映射到第一帧原始图像后得到。
例如,如图3A和3B所示,在一个示例中,第一帧背景图像的运动区域可以为图3A中圆形框圈出的白色轮廓的区域,圆形框可以为白色轮廓的外接圆。第一帧背景图像的运动区域的中心坐标例如可以为圆形框的圆心坐标。第一手势检测区域可以为图3B中矩形框圈出的区域。在第一帧原始图像中的第一手势检测区域(即图3B中矩形框圈出的区域)例如与图3A中的第一帧背景图像的矩形框圈出的区域相对应。也就是说,第一手势检测区域映射到第一帧背景图像上即得到图3A中的矩形框圈出的区域。
需要说明的是,在图3A和3B中,第一手势检测区域为矩形,但不限于此。根据实际需求,第一手势检测区域还可以为圆形、椭圆形、多边形等。
例如,在操作S14中,可以根据在操作S10中的缩放比例将第一帧背景图像的运动区域的中心坐标映射到第一帧原始图像上。在操作S10中,若第一帧原始图像按照比例F进行缩放处理以生成第一帧背景图像,且第一帧背景图像的运动区域的中心坐标为(x1,y1),即图3A中圆形框的圆心坐标为(x1,y1),其映射到第一帧原始图像上的坐标可以为(x2,y2),则x2=x1*F,y2=y1*F,即第一手势检测区域的中心坐标可以为(x1*F,y1*F)。在一个示例中,第一帧原始图像的分辨率为1280×960,第一帧背景图像的分辨率为320×240,则F为1280/320,即x2=x1*1280/320,y2=y1*960/240。
例如,在操作S14中,第一手势检测区域的预定尺寸可以为200×150。预定尺寸与第一帧原始图像的分辨率和操作距离相关。操作距离越小,则预定尺寸越大。第一帧原始图像的分辨率越高,则预定尺寸越大。预定尺寸可以根据实际应用需求而设置,只要保证该预定尺寸的区域能够将第一帧原始图像中的第一手势范围覆盖即可。例如,如图3A所示,在第一帧背景图像中,圆形框圈出的区域表示第一帧背景图像的运动区域,即圆形框圈出的区域可以与第一帧原始图像中的第一手势范围相对应,矩形框圈出的区域可以与第一帧原始图像中的预定尺寸的区域(即第一手势检测区域)相对应。矩形框圈出的区域覆盖圆形框圈出的区域,也就是说,第一帧原始图像中的第一手势检测区域覆盖第一帧原始图像中的第一手势范围。需要说明的是,第一手势范围将在下面进行说明。
例如,操作S16可以包括通过手势检测器使用第一尺度范围内的第一组尺度分别扫描第一手势检测区域,以实现手势检测。例如,第一尺度范围可以为40×40到150×150。第一组尺度可以包括多个不同大小的尺度。第一组尺度例如可以包括40×40、60×60、80×80、120×120等尺度。第一组尺度的数量和具体尺度可以根据实际情况设置,本公开对此不作限制。
本公开实施例提供的手势检测方法中,手势检测器仅需要在第一手势检测区域内进行手势检测,第一手势检测区域的尺寸小于第一帧原始图像的尺寸,从而可以减少计算量,提高手势检测的速度。
例如,手势检测主要包括手势分割、手势分析和手势识别。手势分割用于从第一手势检测区域中提取出第一手势范围,手势分割的方法可以包括基于运动检测的方法、基于运动模板的方法、基于颜色信息的方法等。手势分析用于获取手势的形状特征或运动轨迹。手势分析的方法包括边缘轮廓提取法、质心手指等多特征结合法以及指关节式跟踪法等。手势识别是将模型参数空间里的轨迹(或点)分类到该空间里某个子集的过程,其包括静态手势识别和动态手势识别。例如,手势识别的方法可以包括模板匹配法、神经网络法和隐马尔可夫模型法等。
例如,手势检测器可以采用基于模板匹配方法、线性子空间方法、基于概率统计的方法和神经网络方法等进行手势检测。例如,线性子空间方法包括主元分析(PrincipalComponent Analysis,PCA)方法、线性判别分析(Linear Discriminate Analysis,LDA)方法和因素分析(Factor Analysis,FA)方法等。基于概率统计的方法包括隐马尔科夫模型(Hidden Markov Models,HMM)的方法、基于Kullback信息理论的方法、支撑向量机(Support Vector Machine,SVM)方法、贝叶斯(Bayes)决策方法和迭代(AdaBoost)方法等。神经网络方法可以包括径向基函数神经网络、卷积神经网络(CNN)、概率神经网络(PNN)等。
例如,在一个示例中,手势检测器可以包括神经网络。神经网络可以提取在第一手势检测区域内的第一原始图像的特征信息,并基于提取的特征信息确定第一手势的类型。利用手势检测器进行手势检测前,需要利用大量样本手势图像对手势检测器的神经网络进行训练。样本手势图像可以包括不同类型的手势图像,从而可以得到神经网络与不同类型的手势图像相对应的参数和特征模型。根据实际应用需求,样本手势图像可以包括握拳手势图像、手掌伸展手势图像、剪刀手手势图像等。例如,样本手势图像可以包括对不同年龄段、不同地方的人进行采样得到的手势图像,从而提高神经网络检测和识别手势的准确性。
图4为本公开一实施例提供的一种手势检测方法的又一示意性流程图,图5A和图5B为本公开一实施例提供的第二帧原始图像的第二手势检测区域的示意图;图6为图4中操作S20的示意性流程图。
例如,本公开实施例提供的手势检测方法可以包括运动检测阶段和连续手势追踪检测阶段。如图4所示,运动检测阶段包括操作S10至操作S16;连续手势追踪检测阶段包括操作S18至操作S22。
需要说明的是,操作S10至操作S16是以第一帧原始图像为例描述运动检测阶段,但不限于此,运动检测阶段可以适用于各帧原始图像,例如,第二帧原始图像、第三帧原始图像等。相应地,操作S18至操作S22是以第二帧原始图像为例描述连续手势追踪检测阶段,但不限于此,连续手势追踪检测阶段可以适用于各帧原始图像,例如,第三帧原始图像、第四帧原始图像等,只要把操作S18至操作S22中的第一帧原始图像和第二帧原始图像替换为相邻的两帧原始图像(例如,第三帧原始图像和第四帧原始图像)即可。
例如,如图4所示,操作S16还包括判断第一手势检测区域内是否存在第一手势。在第一手势检测区域内不存在第一手势的情况下,该手势检测方法还可以包括:对第二帧原始图像进行缩放处理和背景建模,以生成第二帧背景图像;对第二帧背景图像进行运动检测,以确定第二帧背景图像的运动区域;根据第二帧背景图像的运动区域,在第二帧原始图像中确定第二手势检测区域;以及在第二手势检测区域内进行手势检测。即,在第一手势检测区域内不存在第一手势的情况下,对第二帧原始图像执行运动检测操作。
若在各帧原始图像内没有检测到手势时,电子设备只需要对相应的各帧背景图像(例如,背景图像的分辨率为320×240)进行运动检测操作即可,从而节约计算时间。在运动检测过程中,如果电子设备检测到运动信息(例如,用户无意间摇头、图像采集端前有人路过等非主观行为),但没有检测到手势,则电子设备循环执行运动检测,即对每帧背景图像执行一次运动检测。
例如,如图4所示,在第一手势检测区域内存在第一手势的情况下,则从第二帧原始图像开始进行连续手势追踪检测。也就是说,在运动检测过程中,如果电子设备检测到手势运动(例如,挥手、抬手等),则电子设备可以根据相邻上一帧原始图像的手势范围确定相邻下一帧原始图像的手势检测区域,并在各帧原始图像的手势检测区域内进行手势检测,从而实现连续手势追踪检测。
例如,如图4所示,在连续手势追踪检测阶段,本公开实施例提供的手势检测方法包括以下操作:
操作S18:在确定第一手势检测区域内存在第一手势时,在第一帧原始图像中确定第一手势的第一手势范围;以及
操作S20:根据第一帧原始图像的第一手势范围确定第二帧原始图像的第二手势检测区域。
例如,如图3C所示,区域50为第一帧原始图像中的第一手势范围,第一手势范围50可以为检测到的第一手势的外接矩形。但不限于此。根据实际需求,第一手势范围还可以为圆形、椭圆形、多边形等,只要第一手势范围能覆盖第一手势即可。
例如,第一手势可以为拳头、手掌伸展、剪刀手、食指伸展等。
例如,第一手势范围与第一手势的类型相关。不同类型的第一手势,则第一手势范围不相同。例如,若第一手势为拳头,第一手势范围可以为40×40;若第一手势为手掌伸展,则第一手势范围可以为40×60;若第一手势为剪刀手,则第一手势范围可以为30×60。但不限于此,第一手势的类型和第一手势范围可以根据用户实际需求预先设定。例如,当第一手势为拳头,第一手势范围也可以设定为50×50。
例如,第一手势范围还与操作距离和第一帧原始图像的分辨率相关。例如,操作距离越远,第一手势范围越小。第一帧原始图像的分辨率越高,第一手势范围的分辨率越高。
例如,关于第二帧原始图像的详细说明可以参考第一帧原始图像的描述,重复之处不再赘述。
例如,如图6所示,操作S20可以包括以下操作:
操作S201:根据第一手势范围的中心坐标确定第二帧原始图像的第二手势检测区域的中心坐标;
操作S202:根据第一手势范围的尺寸确定第二帧原始图像的第二手势检测区域的尺寸。
例如,在操作S201中,第二帧原始图像的第二手势检测区域的中心坐标即为第一手势范围的中心坐标,从而保证第一手势范围可以完全被第二手势检测区域覆盖。
例如,在操作S202中,第二帧原始图像的第二手势检测区域的尺寸可以表示为W1×H1,W1为第一手势范围的最长边长的Y(例如,3)倍,H1为第一手势范围的最长边长的X(例如,2)倍,X、Y均为大于0的整数。例如,如图5A所示,H1表示第二手势检测区域的高度,W1表示第二手势检测区域的宽度。
需要说明的是,上面对X、Y的说明仅是示意性的,而非限制性的。根据实际情况,X、Y还可以为其他值,例如,X可以为3,Y可以为4。本公开实施例对X、Y的值不作具体限制。
例如,如图6所示,在一个示例中,在执行操作S202后,手势检测方法还包括:
操作S203:判断第二帧原始图像的第二手势检测区域的尺寸是否大于预设检测区域的尺寸,如果是,则执行操作S204,即对第二帧原始图像的第二手势检测区域进行缩放处理,以使第二帧原始图像的第二手势检测区域的尺寸与预设检测区域的尺寸相同;如果不是,则执行操作S205,即保持第二帧原始图像的第二手势检测区域的尺寸不变。
本公开实施例提供的手势检测方法可以保证手势检测器在小范围内进行扫描检测,节约计算时间,同时又能对移动的手势做出连续的识别,该手势检测方法的计算速度并不受各帧原始图像大小的影响,所以可以允许原始图像具有较高的分辨率,从而延长手势识别的有效距离。
例如,在操作S202中,若用户的手与电子设备的图像采集端之间的距离较近,则检测到的第一手势范围较大,从而导致第二手势检测区域的尺寸较大。在对第二手势检测区域进行处理时,数据计算量有可能会超出安卓操作系统的计算能力。因此,若第二帧手势检测区域的尺寸大于预设检测区域的尺寸,则对第二帧手势检测区域进行缩放处理,以使第二帧手势检测区域的尺寸与预设检测区域的尺寸相同,然后利用手势检测器对缩小后的第二帧手势检测区域进行手势识别与检测,检测到第二手势后再把第二手势的坐标和边长拉伸映射到第二帧原始图像上相应的位置。
需要说明的是,在上述描述中,以第二帧原始图像为例进行说明,但不限于此。例如,在连续手势追踪检测阶段,可以对每一帧原始图像的手势检测区域执行操作S203。这样就可以固定每一帧原始图像的手势检测区域的检测时间的上限,防止由于各帧原始图像的手势检测区域的尺寸不一致而出现卡顿现象,进一步提高电子设备的流畅性。
例如,第一帧原始图像的第一手势检测区域的尺寸可以大于预设检测区域的尺寸。由于对第一帧原始图像进行运动检测后,检测到的是手或其他物体的晃动范围,还无法定位手的中心点或手的轮廓外接矩形的尺寸,即第一手势检测区域为人手的待检测区域,因此,需要加大检测范围以保证获得人手的确定位置和尺寸,为连续手势追踪检测提供优化的依据。
例如,预设检测区域的尺寸可以表示为P×Q。P为手势所占最小区域的最长边长的Y(例如,3)倍,Q为手势所占最小区域的最长边长的X(例如2)倍,X、Y均为大于0的整数。例如,在一个示例中,若手势为拳头,则手势所占区域的尺寸可以为40×40,从而预设检测区域的尺寸可以为120×80。在另一个示例中,若手势为剪刀手,则手势所占区域的尺寸可以为30×60,从而预设检测区域的尺寸可以为180×120。
例如,在执行操作S20后,如图4所示,该手势检测方法还包括:
操作S22:在第二手势检测区域内进行手势检测。
例如,操作S22可以包括通过手势检测器使用第二尺度范围内的第二组尺度分别扫描第二手势检测区域,以实现手势检测。
例如,第二尺度范围小于第一尺度范围。第二尺度范围与手势的类型相关。例如,在一个示例中,手势为拳头,则第二尺度范围可以为40×40到60×60。第二组尺度可以包括多个不同大小的尺度。第二组尺度例如可以包括40×40、50×50、55×55、60×60等尺度。第二组尺度的数量和具体尺度可以根据实际情况设置,本公开对此不作限制。
当人手与图像采集端之间的距离不同时,其手势范围也不同。人手与图像采集端之间的距离较远,例如2米,则手势范围较小;人手与图像采集端之间的距离较近,例如0.5米,则手势范围较大。为了确保无论人手与图像采集端之间的距离较远或较近,手势检测器都能检测到手势。在通过手势检测器进行手势检测的时候,需要设置参数使手势检测器采用不同的尺度多次扫描手势检测区域,从而保证检测出不同类型的手势。若手势检测器采用第一尺度范围(例如,40×40到150×150)内的所有尺度扫描手势检测区域,则会导致扫描时间较长。然而,在连续手势追踪检测阶段,对每一帧原始图像的手势检测区域进行缩放处理后,则可以采用第二尺度范围(例如,40×40到60×60)内的多个尺度在预设检测区域进行手势检测,从而减少计算时间,提高响应速度。
例如,如图4所示,操作S22还包括判断第二手势检测区域内是否存在第二手势。在第二手势检测区域内不存在第二手势的情况下,则确定在第二帧原始图像内手势检测丢失,然后对第三帧原始图像执行运动检测操作。例如,在一个示例中,在确定第二手势检测区域内不存在第二手势的情况下,该手势检测方法还包括:对第三帧原始图像进行缩放处理和背景建模,以生成第三帧背景图像;对第三帧背景图像进行运动检测,以确定第三帧背景图像的运动区域;根据第三帧背景图像的运动区域,在第三帧原始图像中确定第三手势检测区域;以及在第三手势检测区域内进行手势检测。
例如,在第二手势检测区域内存在第二手势的情况下,则对第三帧原始图像执行连续手势追踪检测操作。例如,在一个示例中,在第二手势检测区域内存在第二手势的情况下,手势检测方法还包括:
操作S24:确定第二手势检测区域内存在第二手势,在第二帧原始图像中确定第二手势的第二手势范围;
操作S26:根据第二手势范围确定第三帧原始图像的第三手势检测区域。
由于在每一帧原始图像中手势的尺寸和位置不会发生跳变,而是以一个合理的速度发生变化。即用户的手势经过一帧时间后仍然在相邻的上一帧原始图像的手势检测区域内,只是手势的位置发生了变化。因此,可以在第二手势检测区域内检测第二手势,并根据第二手势范围确定第三手势检测区域的尺寸。
例如,如图5B所示,区域51表示第二手势范围,区域60表示根据第一手势范围确定的第二手势检测区域。区域51可以为检测到的第二手势的外接矩形,第二手势检测区域60可以为矩形。但不限于此,根据实际需求,第二手势范围51还可以为圆形、椭圆形、多边形等,只要第二手势范围51能覆盖第二手势即可。相应地,第二手势检测区域60也可以为圆形、椭圆形、多边形等。
例如,第二手势也可以为拳头、手掌伸展、剪刀手、食指伸展等。
需要说明的是,关于第二手势和第二手势范围详细说明可以参考上述第一手势和第一手势范围的描述,关于第二帧原始图像的详细说明可以参考上述第一帧原始图像的描述,重复之处不再赘述。
例如,操作S26可以包括以下操作:
操作S261:根据第二手势范围的中心坐标确定第三帧原始图像的第三手势检测区域的中心坐标;
操作S262:根据第二手势范围的尺寸确定第三帧原始图像的第三手势检测区域的尺寸。
例如,在操作S261中,第三帧原始图像的第三手势检测区域的中心坐标即为第二手势范围的中心坐标,从而保证第二手势范围可以完全被第三手势检测区域覆盖。例如,如图5B所示,区域61表示根据第二手势范围确定的第三手势检测区域。第二手势范围51位于第三手势检测区域61的中心。
例如,如图5B所示,第二手势范围51为矩形,则第三手势检测区域61也可以为矩形。但不限于此,第三手势检测区域61也可以为圆形、椭圆形、多边形等。
例如,在操作S262中,第三帧原始图像的第三手势检测区域的尺寸可以表示为W2×H2,W2为第二手势范围的最长边长的Y(例如,3)倍,H2为第二手势范围的最长边长的X(例如,2)倍,X、Y均为大于0的整数。H2表示第三手势检测区域的高度,W2表示第三手势检测区域的宽度。
需要说明的是,在本公开以上说明中,仅以第一帧、第二帧和第三帧为例进行描述。但不限于此,对于第四帧、第五帧等各帧图像的手势检测操作,可以参考第一帧、第二帧和第三帧的相关描述。各帧图像均包括原始图像和背景图像。例如,第一帧包括第一帧原始图像和第一帧背景图像。
图7为本公开一实施例提供的一种手势检测设备的示意性框图。
例如,如图7所示,本公开实施例提供的手势检测设备可以包括处理器70和存储器75。应当注意,图7所示的手势检测设备的组件只是示例性的,而非限制性的,根据实际应用需要,该手势检测设备还可以具有其他组件。
例如,处理器70和存储器75之间可以通过网络连接进行通信。网络可以包括无线网络、有线网络、和/或无线网络和有线网络的任意组合。网络可以包括局域网、互联网、电信网、基于互联网和/或电信网的物联网(Internet of Things)、和/或以上网络的任意组合等。有线网络例如可以采用双绞线、同轴电缆或光纤传输等方式进行通信,无线网络例如可以采用3G/4G/5G移动通信网络、蓝牙、Zigbee或者WiFi等通信方式。本公开对网络的类型和功能在此不作限制。
例如,处理器70和存储器75之间还可以通过总线系统(未示出)和/或其它形式的连接机构互连。
例如,处理器70可以控制手势检测设备中的其它组件以执行期望的功能。处理器70可以是中央处理单元(CPU)或者具有数据处理能力和/或程序执行能力的其它形式的处理单元,例如,图像处理单元(GPU)、现场可编程门阵列(FPGA)或张量处理单元(TPU)等。中央处理器(CPU)可以为X86或ARM架构等。GPU可以单独地直接集成到主板上,或者内置于主板的北桥芯片中。GPU也可以内置于中央处理器(CPU)上。
例如,存储器75可以包括一个或多个计算机程序产品的任意组合,计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。非易失性存储器例如可以包括只读存储器(ROM)、硬盘、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器、闪存等。在存储器75上可以存储一个或多个计算机指令,处理器70可以运行所述计算机指令,以实现各种功能。在计算机可读存储介质中还可以存储各种应用程序和各种数据,例如第一组尺度、第二组尺度、预设检测区域以及应用程序使用和/或产生的各种数据等。
例如,如图7所示,手势检测设备还可以包括输出装置80。输出装置80可以用于向外部(例如,用户等)输出各种操作信息(例如,手势操作的结果等)。例如,输出装置80可以为显示器、投影仪或扬声器等中的一个或多个。显示器可以通过图像或文字的方式输出各种操作信息,扬声器可以通过声音的方式输出各种操作信息。
例如,如图7所示,手势检测设备还可以包括输入装置85。输入装置85例如可以为智能手机的摄像头、平板电脑的摄像头、个人计算机的摄像头、或者甚至可以是网络摄像头等。输入装置85可以用于从外部(例如,用户等)接收手势指令,从而实现手势交互。
例如,计算机指令被处理器70执行时可以实现以下操作:对第一帧原始图像进行缩放处理和背景建模,以生成第一帧背景图像;对第一帧背景图像进行运动检测,以确定第一帧背景图像的运动区域;根据第一帧背景图像的运动区域,在第一帧原始图像中确定第一手势检测区域;以及在第一手势检测区域内进行手势检测。
例如,在一个示例中,计算机指令被处理器70执行时实现的“对第一帧背景图像进行运动检测,以确定第一帧背景图像的运动区域”的操作,包括:在第一帧背景图像中对运动物体进行检测,以确定运动物体的轮廓区域;判断轮廓区域是否大于运动区域阈值,如果是,则确定轮廓区域为第一帧背景图像的运动区域。
例如,在一个示例中,计算机指令被处理器70执行时实现的“根据第一帧背景图像的运动区域,在第一帧原始图像中确定第一手势检测区域”的操作,包括:确定第一帧背景图像的运动区域的中心坐标;将第一帧背景图像的运动区域的中心坐标映射到第一帧原始图像上,以在第一帧原始图像上确定第一手势检测区域的中心坐标;以及根据第一手势检测区域的中心坐标,在第一帧原始图像上截取预定尺寸的区域作为第一手势检测区域。
例如,在一个示例中,在确定第一手势检测区域内不存在第一手势的情况下,计算机指令被处理器70执行时还可以实现以下操作:对第二帧原始图像进行缩放处理和背景建模,以生成第二帧背景图像;对第二帧背景图像进行运动检测,以确定第二帧背景图像的运动区域;根据第二帧背景图像的运动区域,在第二帧原始图像中确定第二手势检测区域;以及在第二手势检测区域内进行手势检测。
例如,在另一个示例中,在确定第一手势检测区域内存在第一手势的情况下,计算机指令被处理器70执行时还可以实现以下操作:在第一帧原始图像中确定第一手势的第一手势范围;根据第一帧原始图像的第一手势范围确定第二帧原始图像的第二手势检测区域。
例如,在一个示例中,计算机指令被处理器70执行时实现的“根据第一帧原始图像的第一手势范围确定第二帧原始图像的第二手势检测区域”的操作,包括:根据第一手势范围的中心坐标确定第二帧原始图像的第二手势检测区域的中心坐标;根据第一手势范围的尺寸确定第二帧原始图像的第二手势检测区域的尺寸。
例如,第二帧原始图像的第二手势检测区域的尺寸为W1×H1,H1为第一手势范围的最长边长的X(例如,2)倍,W1为第一手势范围的最长边长的Y(例如,3)倍,X和Y均为大于0的整数。
例如,在一个示例中,计算机指令被处理器70执行时还实现以下操作:判断第二帧原始图像的第二手势检测区域的尺寸是否大于预设检测区域的尺寸,如果是,则对第二帧原始图像的第二手势检测区域进行缩放处理,以使第二帧原始图像的第二手势检测区域的尺寸与预设检测区域的尺寸相同,如果不是,则保持第二帧原始图像的第二手势检测区域的尺寸不变。
例如,第一帧原始图像的第一手势检测区域的尺寸大于预设检测区域的尺寸。
例如,在一个示例中,计算机指令被处理器70执行时还实现以下操作:在第二手势检测区域内进行手势检测。
例如,在一个示例中,在确定第二手势检测区域内存在第二手势的情况下,计算机指令被处理器70执行时还可以实现以下操作:在第二帧原始图像中确定第二手势的第二手势范围;根据第二手势范围确定第三帧原始图像的第三手势检测区域。
例如,在一个示例中,计算机指令被处理器70执行时实现的“根据第二手势范围确定第三帧原始图像的第三手势检测区域”的操作,包括:根据第二手势范围的中心坐标确定第三帧原始图像的第三手势检测区域的中心坐标;根据第二手势范围的尺寸确定第三帧原始图像的第三手势检测区域的尺寸。
例如,第三帧原始图像的第三手势检测区域的尺寸为W2×H2,H2为第二手势范围的最长边长的X(例如,2)倍,W2为第二手势范围的最长边长的Y(例如,3)倍,X和Y均为大于0的整数。
例如,在另一个示例中,在确定第二手势检测区域内不存在第二手势的情况下,计算机指令被处理器70执行时还可以实现以下操作:对第三帧原始图像进行缩放处理和背景建模,以生成第三帧背景图像;对第三帧背景图像进行运动检测,以确定第三帧背景图像的运动区域;根据第三帧背景图像的运动区域,在第三帧原始图像中确定第三手势检测区域;以及在第三手势检测区域内进行手势检测。
需要说明的是,关于第一手势、第二手势、第一手势范围、第二手势范围、第一手势检测区域的尺寸、第二手势检测区域的尺寸、预设检测区域的尺寸等的详细说明可以参考手势检测方法的实施例中的相关描述,重复之处在此不再赘述。
对于本公开,还有以下几点需要说明:
(1)本公开实施例附图只涉及到与本公开实施例涉及到的结构,其他结构可参考通常设计。
(2)在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合以得到新的实施例。
以上所述仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,本公开的保护范围应以所述权利要求的保护范围为准。
Claims (20)
1.一种手势检测方法,包括:
对第一帧原始图像进行缩放处理和背景建模,以生成第一帧背景图像;
对所述第一帧背景图像进行运动检测,以确定所述第一帧背景图像的运动区域;
根据所述第一帧背景图像的运动区域,在所述第一帧原始图像中确定第一手势检测区域;以及
在所述第一手势检测区域内进行手势检测。
2.根据权利要求1所述的手势检测方法,还包括:
当确定所述第一手势检测区域内存在第一手势时,在所述第一帧原始图像中确定所述第一手势的第一手势范围;以及
根据所述第一帧原始图像的第一手势范围确定第二帧原始图像的第二手势检测区域。
3.根据权利要求2所述的手势检测方法,其中,根据所述第一帧原始图像的第一手势范围确定第二帧原始图像的第二手势检测区域包括:
根据所述第一手势范围的中心坐标确定所述第二帧原始图像的第二手势检测区域的中心坐标;
根据所述第一手势范围的尺寸确定所述第二帧原始图像的第二手势检测区域的尺寸,
其中,所述第二帧原始图像的第二手势检测区域的尺寸为W×H,H为所述第一手势范围的最长边长的X倍,W为所述第一手势范围的最长边长的Y倍,X和Y均为大于0的整数。
4.根据权利要求3所述的手势检测方法,还包括:
判断所述第二帧原始图像的第二手势检测区域的尺寸是否大于预设检测区域的尺寸,
如果是,则对所述第二帧原始图像的第二手势检测区域进行缩放处理,以使所述第二帧原始图像的第二手势检测区域的尺寸与所述预设检测区域的尺寸相同,
如果不是,则保持所述第二帧原始图像的第二手势检测区域的尺寸不变。
5.根据权利要求4所述的手势检测方法,其中,所述第一帧原始图像的第一手势检测区域的尺寸大于所述预设检测区域的尺寸。
6.根据权利要求2-5任一项所述的手势检测方法,还包括:
在所述第二手势检测区域内进行手势检测。
7.根据权利要求6所述的手势检测方法,还包括:
确定所述第二手势检测区域内存在第二手势,并在所述第二帧原始图像中确定所述第二手势的第二手势范围;
根据所述第二手势范围确定第三帧原始图像的第三手势检测区域。
8.根据权利要求7所述的手势检测方法,其中,根据所述第二手势范围确定第三帧原始图像的第三手势检测区域,包括:
根据所述第二手势范围的中心坐标确定所述第三帧原始图像的第三手势检测区域的中心坐标;
根据所述第二手势范围的尺寸确定所述第三帧原始图像的第三手势检测区域的尺寸,
其中,所述第三帧原始图像的第三手势检测区域的尺寸为W×H,H为所述第二手势范围的最长边长的X倍,W为所述第二手势范围的最长边长的Y倍,X和Y均为大于0的整数。
9.根据权利要求6所述的手势检测方法,还包括:
当确定所述第二手势检测区域内不存在第二手势时,
对第三帧原始图像进行缩放处理和背景建模,以生成第三帧背景图像;
对所述第三帧背景图像进行运动检测,以确定所述第三帧背景图像的运动区域;
根据所述第三帧背景图像的运动区域,在所述第三帧原始图像中确定所述第三手势检测区域;
在所述第三手势检测区域内进行手势检测。
10.根据权利要求1所述的手势检测方法,其中,对所述第一帧背景图像进行运动检测,以确定所述第一帧背景图像的运动区域,包括:
在所述第一帧背景图像中对运动物体进行检测,以确定所述运动物体的轮廓区域;
判断所述轮廓区域是否大于运动区域阈值,如果是,则确定所述轮廓区域为所述第一帧背景图像的运动区域。
11.一种手势检测设备,包括处理器和存储器,所述存储器用于存储计算机指令,其中,所述计算机指令被所述处理器执行时实现以下操作:
对第一帧原始图像进行缩放处理和背景建模,以生成第一帧背景图像;
对所述第一帧背景图像进行运动检测,以确定所述第一帧背景图像的运动区域;
根据所述第一帧背景图像的运动区域,在所述第一帧原始图像中确定第一手势检测区域;以及
在所述第一手势检测区域内进行手势检测。
12.根据权利要求11所述的手势检测设备,其中,所述计算机指令被所述处理器执行时还实现以下操作:
当确定所述第一手势检测区域内存在第一手势时,在所述第一帧原始图像中确定所述第一手势的第一手势范围;以及
根据所述第一帧原始图像的第一手势范围确定第二帧原始图像的第二手势检测区域。
13.根据权利要求12所述的手势检测设备,其中,所述计算机指令被所述处理器执行时还实现以下操作:
根据所述第一手势范围的中心坐标确定所述第二帧原始图像的第二手势检测区域的中心坐标;
根据所述第一手势范围的尺寸确定所述第二帧原始图像的第二手势检测区域的尺寸,
其中,所述第二帧原始图像的第二手势检测区域的尺寸为W×H,H为所述第一手势范围的最长边长的X倍,W为所述第一手势范围的最长边长的Y倍,X和Y均为大于0的整数。
14.根据权利要求13所述的手势检测设备,其中,所述计算机指令被所述处理器执行时还实现以下操作:
判断所述第二帧原始图像的第二手势检测区域的尺寸是否大于预设检测区域的尺寸,
如果是,则对所述第二帧原始图像的第二手势检测区域进行缩放处理,以使所述第二帧原始图像的第二手势检测区域的尺寸与所述预设检测区域的尺寸相同,
如果不是,则保持所述第二帧原始图像的第二手势检测区域的尺寸不变。
15.根据权利要求14所述的手势检测设备,其中,所述第一帧原始图像的第一手势检测区域的尺寸大于所述预设检测区域的尺寸。
16.根据权利要求12-15任一项所述的手势检测设备,其中,所述计算机指令被所述处理器执行时还实现以下操作:
在所述第二手势检测区域内进行手势检测。
17.根据权利要求16所述的手势检测设备,其中,所述计算机指令被所述处理器执行时还实现以下操作:
确定所述第二手势检测区域内存在第二手势,并在所述第二帧原始图像中确定所述第二手势的第二手势范围;
根据所述第二手势范围确定第三帧原始图像的第三手势检测区域。
18.根据权利要求17所述的手势检测设备,其中,所述计算机指令被所述处理器执行时还实现以下操作:
根据所述第二手势范围的中心坐标确定所述第三帧原始图像的第三手势检测区域的中心坐标;
根据所述第二手势范围的尺寸确定所述第三帧原始图像的第三手势检测区域的尺寸,
其中,所述第三帧原始图像的第三手势检测区域的尺寸为W×H,H为所述第二手势范围的最长边长的X倍,W为所述第二手势范围的最长边长的Y倍,X和Y均为大于0的整数。
19.根据权利要求16所述的手势检测设备,其中,所述计算机指令被所述处理器执行时还实现以下操作:
当确定所述第二手势检测区域内不存在第二手势时,
对第三帧原始图像进行缩放处理和背景建模,以生成第三帧背景图像;
对所述第三帧背景图像进行运动检测,以确定所述第三帧背景图像的运动区域;
根据所述第三帧背景图像的运动区域,在所述第三帧原始图像中确定所述第三手势检测区域;
在所述第三手势检测区域内进行手势检测。
20.根据权利要求11所述的手势检测设备,其中,所述计算机指令被所述处理器执行时还实现以下操作:
在所述第一帧背景图像中对运动物体进行检测,以确定所述运动物体的轮廓区域;
判断所述轮廓区域是否大于运动区域阈值,如果是,则确定所述轮廓区域为所述第一帧背景图像的运动区域。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711000019.6A CN109697394B (zh) | 2017-10-24 | 2017-10-24 | 手势检测方法和手势检测设备 |
EP18870443.1A EP3702956A4 (en) | 2017-10-24 | 2018-10-19 | GESTURE RECOGNITION METHOD, GESTURE PROCESSING DEVICE AND COMPUTER-READABLE STORAGE MEDIUM |
US16/492,104 US11169614B2 (en) | 2017-10-24 | 2018-10-19 | Gesture detection method, gesture processing device, and computer readable storage medium |
PCT/CN2018/111080 WO2019080780A1 (zh) | 2017-10-24 | 2018-10-19 | 手势检测方法、手势处理设备和计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711000019.6A CN109697394B (zh) | 2017-10-24 | 2017-10-24 | 手势检测方法和手势检测设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109697394A true CN109697394A (zh) | 2019-04-30 |
CN109697394B CN109697394B (zh) | 2021-12-28 |
Family
ID=66227673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711000019.6A Expired - Fee Related CN109697394B (zh) | 2017-10-24 | 2017-10-24 | 手势检测方法和手势检测设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11169614B2 (zh) |
EP (1) | EP3702956A4 (zh) |
CN (1) | CN109697394B (zh) |
WO (1) | WO2019080780A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111624572A (zh) * | 2020-05-26 | 2020-09-04 | 京东方科技集团股份有限公司 | 一种人体手部与人体手势识别的方法及装置 |
CN113408352A (zh) * | 2019-05-28 | 2021-09-17 | 浙江大华技术股份有限公司 | 行人异常行为检测方法、图像处理装置及存储装置 |
CN114399632A (zh) * | 2022-01-19 | 2022-04-26 | 重庆文理学院 | 动态手势识别方法及系统 |
CN114967905A (zh) * | 2021-02-26 | 2022-08-30 | 广州视享科技有限公司 | 手势控制方法、装置、计算机可读存储介质和电子设备 |
CN115809006A (zh) * | 2022-12-05 | 2023-03-17 | 北京拙河科技有限公司 | 一种画面控制人工指令的方法及装置 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112166435B (zh) * | 2019-12-23 | 2024-08-13 | 商汤国际私人有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
CN112507955B (zh) * | 2020-12-21 | 2023-04-18 | 西南交通大学 | 一种婴儿手部精细动作识别方法及系统 |
CN113536942B (zh) * | 2021-06-21 | 2024-04-12 | 上海赫千电子科技有限公司 | 一种基于神经网络的道路交通标志识别方法 |
CN113392821B (zh) * | 2021-08-17 | 2021-12-07 | 南昌虚拟现实研究院股份有限公司 | 动态手势识别方法、装置、电子设备及可读存储介质 |
CN113657346A (zh) * | 2021-08-31 | 2021-11-16 | 深圳市比一比网络科技有限公司 | 一种基于目标检测和关键点检测结合的司机动作识别方法 |
CN116627260A (zh) * | 2023-07-24 | 2023-08-22 | 成都赛力斯科技有限公司 | 一种隔空操作方法、装置、计算机设备和存储介质 |
CN117911936A (zh) * | 2023-11-29 | 2024-04-19 | 江苏华远信息技术有限公司 | 一种用于安防监控的图像数据处理方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1402551A (zh) * | 2001-08-07 | 2003-03-12 | 三星电子株式会社 | 自动跟踪移动目标的设备和方法 |
CN102074000A (zh) * | 2010-11-23 | 2011-05-25 | 天津市亚安科技电子有限公司 | 一种利用方差率最优解自适应调整窗宽的跟踪方法 |
CN102831439A (zh) * | 2012-08-15 | 2012-12-19 | 深圳先进技术研究院 | 手势跟踪方法及系统 |
CN103530613A (zh) * | 2013-10-15 | 2014-01-22 | 无锡易视腾科技有限公司 | 一种基于单目视频序列的目标人手势交互方法 |
CN103985136A (zh) * | 2014-03-21 | 2014-08-13 | 南京大学 | 一种基于局部特征点特征流型的目标跟踪方法 |
KR20150002040A (ko) * | 2013-06-28 | 2015-01-07 | (주) 세인 | 호그 연속기법에 기반한 칼만 필터와 클러스터링 알고리즘을 이용하여 실시간으로 보행자를 인식하고 추적하는 방법 |
CN106204649A (zh) * | 2016-07-05 | 2016-12-07 | 西安电子科技大学 | 一种基于tld算法的目标跟踪方法 |
CN106934333A (zh) * | 2015-12-31 | 2017-07-07 | 芋头科技(杭州)有限公司 | 一种手势识别方法及系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3784474B2 (ja) * | 1996-11-20 | 2006-06-14 | 日本電気株式会社 | ジェスチャー認識方法および装置 |
KR100978929B1 (ko) * | 2008-06-24 | 2010-08-30 | 한국전자통신연구원 | 기준 제스처 데이터 등록방법, 이동단말의 구동방법 및이를 수행하는 이동단말 |
CN101437124A (zh) | 2008-12-17 | 2009-05-20 | 三星电子(中国)研发中心 | 面向电视控制的动态手势识别信号处理方法 |
CN101763515B (zh) | 2009-09-23 | 2012-03-21 | 中国科学院自动化研究所 | 一种基于计算机视觉的实时手势交互方法 |
US8792722B2 (en) * | 2010-08-02 | 2014-07-29 | Sony Corporation | Hand gesture detection |
US9646200B2 (en) * | 2012-06-08 | 2017-05-09 | Qualcomm Incorporated | Fast pose detector |
CN106325485B (zh) * | 2015-06-30 | 2019-09-10 | 芋头科技(杭州)有限公司 | 一种手势检测识别方法及系统 |
CN105739702B (zh) | 2016-01-29 | 2019-01-22 | 电子科技大学 | 用于自然人机交互的多姿态指尖跟踪方法 |
EP3203412A1 (en) * | 2016-02-05 | 2017-08-09 | Delphi Technologies, Inc. | System and method for detecting hand gestures in a 3d space |
CN106371614A (zh) | 2016-11-24 | 2017-02-01 | 朱兰英 | 手势识别的优化方法和装置 |
-
2017
- 2017-10-24 CN CN201711000019.6A patent/CN109697394B/zh not_active Expired - Fee Related
-
2018
- 2018-10-19 EP EP18870443.1A patent/EP3702956A4/en active Pending
- 2018-10-19 WO PCT/CN2018/111080 patent/WO2019080780A1/zh unknown
- 2018-10-19 US US16/492,104 patent/US11169614B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1402551A (zh) * | 2001-08-07 | 2003-03-12 | 三星电子株式会社 | 自动跟踪移动目标的设备和方法 |
CN102074000A (zh) * | 2010-11-23 | 2011-05-25 | 天津市亚安科技电子有限公司 | 一种利用方差率最优解自适应调整窗宽的跟踪方法 |
CN102831439A (zh) * | 2012-08-15 | 2012-12-19 | 深圳先进技术研究院 | 手势跟踪方法及系统 |
KR20150002040A (ko) * | 2013-06-28 | 2015-01-07 | (주) 세인 | 호그 연속기법에 기반한 칼만 필터와 클러스터링 알고리즘을 이용하여 실시간으로 보행자를 인식하고 추적하는 방법 |
CN103530613A (zh) * | 2013-10-15 | 2014-01-22 | 无锡易视腾科技有限公司 | 一种基于单目视频序列的目标人手势交互方法 |
CN103985136A (zh) * | 2014-03-21 | 2014-08-13 | 南京大学 | 一种基于局部特征点特征流型的目标跟踪方法 |
CN106934333A (zh) * | 2015-12-31 | 2017-07-07 | 芋头科技(杭州)有限公司 | 一种手势识别方法及系统 |
CN106204649A (zh) * | 2016-07-05 | 2016-12-07 | 西安电子科技大学 | 一种基于tld算法的目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
VAHID KHODADADI: "Optimized kalman filter based on second momentum and triple rectangular for cell tracking on sequential microscopic images", 《2015 22ND IRANIAN CONFERENCE ON BIOMEDICAL ENGINEERING (ICBME)》 * |
杜金辉: "基于快速SIFT匹配的行人信息检测", 《电子器件》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408352A (zh) * | 2019-05-28 | 2021-09-17 | 浙江大华技术股份有限公司 | 行人异常行为检测方法、图像处理装置及存储装置 |
CN111624572A (zh) * | 2020-05-26 | 2020-09-04 | 京东方科技集团股份有限公司 | 一种人体手部与人体手势识别的方法及装置 |
US11797098B2 (en) | 2020-05-26 | 2023-10-24 | Boe Technology Group Co., Ltd. | Methods for recognizing human hand and hand gesture from human, and display apparatus |
CN114967905A (zh) * | 2021-02-26 | 2022-08-30 | 广州视享科技有限公司 | 手势控制方法、装置、计算机可读存储介质和电子设备 |
CN114399632A (zh) * | 2022-01-19 | 2022-04-26 | 重庆文理学院 | 动态手势识别方法及系统 |
CN115809006A (zh) * | 2022-12-05 | 2023-03-17 | 北京拙河科技有限公司 | 一种画面控制人工指令的方法及装置 |
CN115809006B (zh) * | 2022-12-05 | 2023-08-08 | 北京拙河科技有限公司 | 一种画面控制人工指令的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
US11169614B2 (en) | 2021-11-09 |
CN109697394B (zh) | 2021-12-28 |
WO2019080780A1 (zh) | 2019-05-02 |
EP3702956A1 (en) | 2020-09-02 |
EP3702956A4 (en) | 2021-08-11 |
US20200387230A1 (en) | 2020-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109697394A (zh) | 手势检测方法和手势检测设备 | |
US11734851B2 (en) | Face key point detection method and apparatus, storage medium, and electronic device | |
Huang et al. | Improved Viola-Jones face detection algorithm based on HoloLens | |
JP6288530B2 (ja) | 視線追跡のための方法 | |
WO2020078119A1 (zh) | 模拟用户穿戴服装饰品的方法、装置和系统 | |
WO2017132010A1 (en) | Machine learning through parallelized stochastic gradient descent | |
Xu et al. | Robust hand gesture recognition based on RGB-D Data for natural human–computer interaction | |
CN104407696B (zh) | 移动设备的虚拟球模拟及控制的方法 | |
CN113516113A (zh) | 一种图像内容识别方法、装置、设备及存储介质 | |
WO2018178228A1 (en) | System and method for recognition of objects from ink elements | |
Zhang et al. | Handsense: smart multimodal hand gesture recognition based on deep neural networks | |
CN112198966A (zh) | 基于fmcw雷达系统的笔画识别方法以及系统 | |
CN111291713B (zh) | 一种基于骨架的手势识别方法及系统 | |
CN115131604A (zh) | 一种多标签图像分类方法、装置、电子设备及存储介质 | |
Feng et al. | [Retracted] Research and Application of Multifeature Gesture Recognition in Human‐Computer Interaction Based on Virtual Reality Technology | |
Ueng et al. | Vision based multi-user human computer interaction | |
Jian et al. | RD-Hand: a real-time regression-based detector for dynamic hand gesture | |
Zerrouki et al. | Exploiting deep learning-based LSTM classification for improving hand gesture recognition to enhance visitors’ museum experiences | |
CN202385184U (zh) | 基于人脸识别技术的自适应视线跟踪装置 | |
Vančo et al. | Dynamic gesture recognition for next generation home multimedia | |
Khanum et al. | Smart Presentation Control by Hand Gestures Using computer vision and Google’s Mediapipe | |
CN111143741A (zh) | 模型构件移动方法及相关装置 | |
Hannuksela et al. | Camera‐Based Motion Recognition for Mobile Interaction | |
Zhang et al. | A Non-parametric RDP Algorithm Based on Leap Motion | |
Kirci et al. | Hand gesture detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20211228 |