CN108197534A - 一种人头部姿态检测方法、电子设备及存储介质 - Google Patents

一种人头部姿态检测方法、电子设备及存储介质 Download PDF

Info

Publication number
CN108197534A
CN108197534A CN201711377327.0A CN201711377327A CN108197534A CN 108197534 A CN108197534 A CN 108197534A CN 201711377327 A CN201711377327 A CN 201711377327A CN 108197534 A CN108197534 A CN 108197534A
Authority
CN
China
Prior art keywords
key point
head part
human face
face region
detecting method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711377327.0A
Other languages
English (en)
Inventor
穆绪臣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MGA Technology Shenzhen Co Ltd
Original Assignee
MGA Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MGA Technology Shenzhen Co Ltd filed Critical MGA Technology Shenzhen Co Ltd
Priority to CN201711377327.0A priority Critical patent/CN108197534A/zh
Publication of CN108197534A publication Critical patent/CN108197534A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种人头部姿态检测方法,包括以下步骤:图像获取步骤:获取拍摄到的视频,所述视频包括多帧视频图像,对其视频图像进行亮度均衡处理;第一关键点提取步骤:获取均衡处理后视频图像中的人脸区域,并提取人脸区域中的关键点;姿态获取步骤:根据提取的关键点的位置变化以得用户姿态信息。本发明还提供了一种电子设备以及计算机可读存储介质。本发明的人头部姿态检测方法通过分析人脸部关键点的位置变化来获取用户的姿态变化,从而识别用户当前动作,通过设置非接触的人机交互方式,给用户提供了更多的交互选择。

Description

一种人头部姿态检测方法、电子设备及存储介质
技术领域
本发明涉及一种人机交互技术领域,尤其涉及一种人头部姿态检测方法、电子设备及存储介质。
背景技术
目前,市面上交互产品,从原理分接触和非接触的方式,触摸方式的比如鼠标,触摸屏,指纹考勤;触摸屏是一种通过接触来进行交互的产品形式;非接触的主要采用摄像头,图像分析的原理进行交互。目前应用广泛的人机交互是触摸屏领域,作为鲁棒的交互方式红外触摸屏在工控消费领域占据了很大的市场,但是接触式是交互存在距离的限制,需要用户进行触摸产生信号变化,但是有时用户与机器的交互信息并不需要那么精确,有时只是一些点头摇头等简单的操作;当前的交互设备电脑性能大幅度提高,摄像头都是必备的设备,用摄像头进行辅助分析处理,不需要用户接触触摸的交互,可以远距离的操作,给用户更多的选择空间,给红外触摸屏添加新的功能,提高产品竞争力,是一种很有潜力的技术,市场前景巨大。
发明内容
为了克服现有技术的不足,本发明的目的之一在于提供一种人头部姿态检测方法,其能解决人头部姿态变化的技术问题。
本发明的目的之二在于提供一种电子设备,其能解决人头部姿态变化的技术问题。
本发明的目的之三在于提供一种计算机可读存储介质,其能解决人头部姿态变化的技术问题。
本发明的目的之一采用如下技术方案实现:
一种人头部姿态检测方法,包括以下步骤:
图像获取步骤:获取拍摄到的视频,所述视频包括多帧视频图像,对其视频图像进行亮度均衡处理;
第一关键点提取步骤:获取均衡处理后视频图像中的人脸区域,并提取人脸区域中的关键点;
姿态获取步骤:根据提取的关键点的位置变化以得用户姿态信息。
进一步地,在姿态获取步骤之后还包括模型输出步骤:将获取到的关键点加载人脸candide模型,并将用户姿态信息输出至candide模型上。
进一步地,所述亮度均衡处理主要包括以下步骤:
将获取到的图像从BGR空间中转换到YCbCr空间;
对空间转换后中的亮度通道Y进行直方均衡化。
进一步地,所述第一关键点提取步骤具体包括以下子步骤:
人脸获取步骤:获取均衡处理后视频图像中的人脸区域;
空间转换步骤:将人脸区域转换到HSV空间,并设置各个通道的肤色区间;
反向投影步骤:分析人脸区域,并分离出H通道,计算反向投影图;
人脸定位步骤:采用camshift原理提取当前视频帧的人脸区域定位;
矩形跟踪步骤:提取该区域的最小面积的外接矩形;
第二关键点提取步骤:提取外接矩形中的关键点。
进一步地,所述空间转换步骤中的肤色区间为:H为0到50;S为40到255;V为40到255。
进一步地,所述人脸获取步骤中,接收用户点选的均衡处理后视频图像中的人脸区域。
进一步地,所述人脸获取步骤中,通过Haar特征识别均衡处理后视频图像中的人脸区域。
进一步地,所述姿态获取步骤具体包括以下子步骤:
对获取到的关键点进行标记;
记录人脸轮廓上的所有关键点的中心值;
根据关键点的中心值的位置变化以得到用户姿态信息。
本发明的目的之二采用如下技术方案实现:
一种电子设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现本发明目的之一中任意一项所述的人头部姿态检测方法。
本发明的目的之三采用如下技术方案实现:
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现本发明目的之一中任意一项所述的方法。
相比现有技术,本发明的有益效果在于:
本发明的人头部姿态检测方法通过分析人脸部关键点的位置变化来获取用户的姿态变化,从而识别用户当前动作,通过设置非接触的人机交互方式,给用户提供了更多的交互选择。
附图说明
图1为本发明的人头部姿态检测的方法的流程示意图;
图2为发明的人头部姿态检测的方法的具体流程图;
图3为本发明的人头部中各关键点的位置示意图。
具体实施方式
下面,结合附图以及具体实施方式,对本发明做进一步描述,需要说明的是,在不相冲突的前提下,以下描述的各实施例之间或各技术特征之间可以任意组合形成新的实施例。
如图1和图2所示,本实施例提供了一种电子设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现人头部姿态检测方法:
本发明主要包括一下几个步骤,涉及图像预处理,人脸定位、关键点定位和最终姿态输出模块;该方法首先加载人脸candide模型,人脸定位模型分类器参数,作为后续人脸分析定位,效果呈现的配置参数;
S1:获取拍摄到的视频,所述视频包括多帧视频图像,对其视频图像进行亮度均衡处理;所述亮度均衡处理主要包括以下步骤:
将获取到的图像从BGR空间中转换到YCbCr空间;
对空间转换后的亮度通道Y进行直方均衡化。对图像进行亮度均衡,将其转换BGR空间转到YCbCr空间,对亮度通道Y进行直方图均衡,亮度更均匀,为后续人脸进行检测做准备;亮度均衡是一个必要的环节,因为现实中场景太复杂,阴阳脸这种现象还是很多;也可以用很多其他的均衡、增强的方法,比如Retinex等等,进行图像均衡化的方式有多种,在本实施例中将亮度均衡转换到YCbCr空间的方法是一种常用的方法。其他的进行亮度均衡转换的方式也属于处于本发明所要保护的范围之内;
S2:获取均衡处理后视频图像中的人脸区域,并提取人脸区域中的关键点;步骤S2具体包括以下子步骤:
S21:获取均衡处理后视频图像中的人脸区域;人脸区域的获取有两种方式,一种是接收用户点选的均衡处理后视频图像中的人脸区域;另一种是通过Haar特征识别均衡处理后视频图像中的人脸区域。这种两种方式都可以进行实施,在具体的实践中可以择一选择;
对图像进行人机干预的方式选择人脸区域,其直接通过相应的输入装置去进行点选人脸区域即可;Haar特征识别方法是通过编写计算机程序,通过运行计算机程序判断识别包含人脸的区域,具体的实施方法如下:对视频帧进行金字塔下采样2次,从第二层进行基于Haar特征的人脸检测,如果存在人脸,则以人脸区域作为肤色特征的后续区域,构建人脸图像模型,提取人脸特征,对后续视频帧进行直方图匹配的方式跟着人脸区域;如果该层不存在人脸,那么在第一层进行Haar特征的人脸检测,如果不存在人脸,那么进行下一视频帧的处理,如果存在人脸,同第二层找到人脸的情况一样处理,构建人脸模型,进行后续视频帧跟踪处理;
S22:将人脸区域转换到HSV空间,并设置各个通道的肤色区间;其中更为优选地,所述肤色区间为:H为0到50;S为40到255;V为40到255。对S21中找到的人脸候选区域FaceArea,转换到HSV空间,针对人脸肤色模型,设置各个通道的肤色区间,优先的:H(0,50),S(40,255),V(40,255)。
S23:分析人脸区域,并分离出H通道,计算反向投影图;
S24:采用camshift原理提取当前视频帧的人脸区域定位;
S25:提取该区域的最小面积的外接矩形;根据上述得到的反向投影图backProject,对当前帧进行处理,采用camShift原理,提取当前视频帧的人脸区域定位,估算人脸存在的最可能的区域,得到对应的人脸区域,提取该区域的最小面积的外接矩形minAreaRect,并分析计算出对应的倾斜角度,记为angleRotate;Camshift算法的过程由下面步骤组成:
(1)确定初始目标及其区域;
(2)计算出目标的色度(Hue)分量的直方图;
(3)利用直方图计算输入图像的反向投影图;
(4)利用MeanShift算法在反向投影图中迭代收索,直到其收敛或达到最大迭代次数。并保存零次矩;
(5)从第(4)步中获得收索窗口的中心位置和计算出新的窗口大小,以此为参数,进入到下一帧的目标跟踪。(即跳转到第(2)步);
几点说明:1.在输入图像进行反向投影图之前在HSV空间内做了一个阀值处理,用以滤掉一些噪声。2.反向投影图则是概率分布图,在反向投影图中某一像素点的值指的是这个点符合目标的概率分布的概率是多少,或者直接说其为目标图像像素点的像素点是多少。计算方法为:根据像素点的像素值查找目标的直方图,其对应像素值的概率是多少就作为该点在反向投影图中的值。3.Camshit算法到底自适应调整窗口的大小的。包括扩大:Canshift算法在计算窗口大小前,在MeanShift算出的窗口的四个方向上增大了TOLERANCE,即高和宽都增大了2TOLERANCE(此值自己调整设置),这才有可能使得窗口能够变大。缩小:在扩大的窗口内重新计算0阶矩,1阶矩和2阶矩,利用矩的值重新计算高和宽。因此Camshif算法相当于在MeanShift的结果上,再做了一个调整,从而使得跟踪的窗口大小能够随目标的大小变化。这种算法的效率会比较的高。
S26:提取外接矩形中的关键点。提取minAreaRect的外接矩形boundingRect,对该ROI(Region Of Interest)区域进行自动识别定位人脸,如图3所示,提取出对应的人脸特征,特征包含眼睛,鼻子,嘴巴的轮廓点,位置;依次:脸的外部轮廓点(0~16),眉毛轮廓点(17~26),鼻子(27~35),眼睛(36~45),嘴巴(46~65);
S3:根据提取的关键点的位置变化以得用户姿态信息。所述步骤S3具体包括以下子步骤:
对获取到的关键点进行标记;记录人脸轮廓上的所有关键点的中心值;根据关键点的中心值的位置变化以得到用户姿态信息。按照轮廓上的点,提取对应的关键点进行跟踪识别,记录对应的眼睛,鼻子,以及嘴巴等关键点的位置相对位置关系;
记录人脸轮廓上所有关键点的中心值,作为人脸区域的中心FaceC;
左边眼睛中心记为:eyeL,左眼上眼皮中心eye,记为eye右眼睛中心:eyeR;左边眉毛的边缘点M,记为eyeBrL,右边眉毛的边缘点N,记为eyeBroR,两个眉毛的中心位置B,记为eyeBrC;鼻子中心o,记为noseC,鼻尖位置l,记为noseB;上嘴唇中心,记为mouthUp,下嘴唇中心D,记为mouthDown;脸颊左边水平s,记为faceLeft,脸颊右边水平位置t,记为faceRight;
计算左眼角s,右眼角p,左嘴角m,右嘴角n.
旋转角度为<sot的大小;
那么对应俯仰角度:(<pol-<sol+<mol-<nol)/4;
分析对应的长宽比例为|DB|/|MN|的比例关系;
通过统计前后两图像帧上嘴唇下嘴唇的位置变化识别对应的张嘴状态和幅度;
通过统计前后两图像帧眼睛上关键点的变化识别对应的眨眼行为;所有的这些识别都是通过获取不同视频帧上相对应的点从而得到的,比如,我在第一帧上得到一个旋转角度<sot,在第二帧上得到一个旋转角度<sot,通过两帧得到的旋转角度的差值,从而可以得到其头部的动作;同理对应的俯仰角度、嘴唇的变换和眼睛的眨动都是通过这种方式进行的;
按照信息,把对应的姿态的,点头,旋转,张嘴眨眼操作,输出到candidte模型上;显示人脸中心FaceC信息,作为人头的姿态点头,摇头,旋转等动作分析;该方法可以在尽量保留真实性的情况下快速生成有一定还原度的简易三维人脸模型,操作相较于传统的方法简单便捷,在系统开销上占用很小,能够很快的生成纹理与最终产出的模型。
本发明从视频处理的角度,考虑目前工控领域交换设备的性能条件,提出了一种人机交互的方法,给传统的触摸输入提供了新的解决方案,给用户带来更好的交互体验,非接触式人机交互给用户更多的选择,分析用户的头部的姿态,从而完成一些头部基本操作,旋转,上下点头,左右摇头的识别,准确率高,实时性强。并把采集到的人头姿态和面部器官的动作在三维人脸上进行实时显示,提供了更多的应用选择支持。
上述实施方式仅为本发明的优选实施方式,不能以此来限定本发明保护的范围,本领域的技术人员在本发明的基础上所做的任何非实质性的变化及替换均属于本发明所要求保护的范围。

Claims (10)

1.一种人头部姿态检测方法,其特征在于,包括以下步骤:
图像获取步骤:获取拍摄到的视频,所述视频包括多帧视频图像,对其视频图像进行亮度均衡处理;
第一关键点提取步骤:获取均衡处理后视频图像中的人脸区域,并提取人脸区域中的关键点;
姿态获取步骤:根据提取的关键点的位置变化获得用户姿态信息。
2.如权利要求1所述的人头部姿态检测方法,其特征在于,在姿态获取步骤之后还包括模型输出步骤:将获取到的关键点加载人脸candide模型,并将用户姿态信息输出至candide模型上。
3.如权利要求1或2所述的人头部姿态检测方法,其特征在于,所述亮度均衡处理主要包括以下步骤:
将获取到的图像从BGR空间中转换到YCbCr空间;
对空间转换后的亮度通道Y进行直方均衡化。
4.如权利要求3所述的人头部姿态检测方法,其特征在于,所述第一关键点提取步骤具体包括以下子步骤:
人脸获取步骤:获取均衡处理后视频图像中的人脸区域;
空间转换步骤:将人脸区域转换到HSV空间,并设置各个通道的肤色区间;
反向投影步骤:分析人脸区域,并分离出H通道,计算反向投影图;
人脸定位步骤:采用camshift原理提取当前视频帧的人脸区域定位;
矩形跟踪步骤:提取该区域的最小面积的外接矩形;
第二关键点提取步骤:提取外接矩形中的关键点。
5.如权利要求4所述的人头部姿态检测方法,其特征在于,所述空间转换步骤中的肤色区间为:H为0到50;S为40到255;V为40到255。
6.如权利要求4或5所述的人头部姿态检测方法,其特征在于,所述人脸获取步骤中,接收用户点选的均衡处理后视频图像中的人脸区域。
7.如权利要求4或5所述的人头部姿态检测方法,其特征在于,所述人脸获取步骤中,通过Haar特征识别均衡处理后视频图像中的人脸区域。
8.如权利要求1所述的人头部姿态检测方法,其特征在于,所述姿态获取步骤具体包括以下子步骤:
对获取到的关键点进行标记;
记录人脸轮廓上的所有关键点的中心值;
根据关键点的中心值的位置变化以得到用户姿态信息。
9.一种电子设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1-8中任意一项所述的人头部姿态检测方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现如权利要求1-8任意一项所述的方法。
CN201711377327.0A 2017-12-19 2017-12-19 一种人头部姿态检测方法、电子设备及存储介质 Pending CN108197534A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711377327.0A CN108197534A (zh) 2017-12-19 2017-12-19 一种人头部姿态检测方法、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711377327.0A CN108197534A (zh) 2017-12-19 2017-12-19 一种人头部姿态检测方法、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN108197534A true CN108197534A (zh) 2018-06-22

Family

ID=62576987

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711377327.0A Pending CN108197534A (zh) 2017-12-19 2017-12-19 一种人头部姿态检测方法、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN108197534A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109272804A (zh) * 2018-09-14 2019-01-25 温州大学 一种飞行座舱约束下飞行员头部运动的正交视频定位方法
CN110188728A (zh) * 2019-06-06 2019-08-30 四川长虹电器股份有限公司 一种头部姿态估计的方法及系统
CN111104816A (zh) * 2018-10-25 2020-05-05 杭州海康威视数字技术股份有限公司 一种目标物的姿态识别方法、装置及摄像机
CN111176448A (zh) * 2019-12-26 2020-05-19 腾讯科技(深圳)有限公司 非触摸实现时间设置的方法、装置、电子设备及存储介质
WO2020248950A1 (zh) * 2019-06-11 2020-12-17 华为技术有限公司 一种面部特征的有效性判定方法及电子设备
CN112101063A (zh) * 2019-06-17 2020-12-18 福建天晴数码有限公司 歪斜人脸检测方法及计算机可读存储介质
CN112416140A (zh) * 2019-08-23 2021-02-26 亮风台(上海)信息科技有限公司 一种用于输入字符的方法与设备
CN112766205A (zh) * 2021-01-28 2021-05-07 电子科技大学 一种基于颜色模态图像的鲁棒性静默活体检测方法
CN113222925A (zh) * 2021-04-30 2021-08-06 陕西科技大学 一种基于ImagePy的水敏纸雾滴参数测量装置及其测量方法
CN113705280A (zh) * 2020-05-21 2021-11-26 北京聚匠艺传媒有限公司 一种基于面部特征的人机交互方法及装置
WO2022088819A1 (zh) * 2020-10-29 2022-05-05 陈志立 视频处理方法、视频处理装置和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101777116A (zh) * 2009-12-23 2010-07-14 中国科学院自动化研究所 一种基于动作跟踪的脸部表情分析方法
CN103593680A (zh) * 2013-11-19 2014-02-19 南京大学 一种基于隐马尔科夫模型自增量学习的动态手势识别方法
CN106557750A (zh) * 2016-11-22 2017-04-05 重庆邮电大学 一种基于肤色和深度二叉特征树的人脸检测方法
CN106803067A (zh) * 2016-12-28 2017-06-06 浙江大华技术股份有限公司 一种人脸图像质量评估方法及装置
CN107358154A (zh) * 2017-06-02 2017-11-17 广州视源电子科技股份有限公司 一种头部运动检测方法和装置及活体识别方法和系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101777116A (zh) * 2009-12-23 2010-07-14 中国科学院自动化研究所 一种基于动作跟踪的脸部表情分析方法
CN103593680A (zh) * 2013-11-19 2014-02-19 南京大学 一种基于隐马尔科夫模型自增量学习的动态手势识别方法
CN106557750A (zh) * 2016-11-22 2017-04-05 重庆邮电大学 一种基于肤色和深度二叉特征树的人脸检测方法
CN106803067A (zh) * 2016-12-28 2017-06-06 浙江大华技术股份有限公司 一种人脸图像质量评估方法及装置
CN107358154A (zh) * 2017-06-02 2017-11-17 广州视源电子科技股份有限公司 一种头部运动检测方法和装置及活体识别方法和系统

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109272804A (zh) * 2018-09-14 2019-01-25 温州大学 一种飞行座舱约束下飞行员头部运动的正交视频定位方法
CN109272804B (zh) * 2018-09-14 2020-11-24 温州大学 一种飞行座舱约束下飞行员头部运动的正交视频定位方法
CN111104816A (zh) * 2018-10-25 2020-05-05 杭州海康威视数字技术股份有限公司 一种目标物的姿态识别方法、装置及摄像机
CN111104816B (zh) * 2018-10-25 2023-11-03 杭州海康威视数字技术股份有限公司 一种目标物的姿态识别方法、装置及摄像机
CN110188728A (zh) * 2019-06-06 2019-08-30 四川长虹电器股份有限公司 一种头部姿态估计的方法及系统
WO2020248950A1 (zh) * 2019-06-11 2020-12-17 华为技术有限公司 一种面部特征的有效性判定方法及电子设备
CN112101063A (zh) * 2019-06-17 2020-12-18 福建天晴数码有限公司 歪斜人脸检测方法及计算机可读存储介质
CN112416140A (zh) * 2019-08-23 2021-02-26 亮风台(上海)信息科技有限公司 一种用于输入字符的方法与设备
CN112416140B (zh) * 2019-08-23 2024-04-26 亮风台(上海)信息科技有限公司 一种用于输入字符的方法与设备
CN111176448A (zh) * 2019-12-26 2020-05-19 腾讯科技(深圳)有限公司 非触摸实现时间设置的方法、装置、电子设备及存储介质
CN113705280B (zh) * 2020-05-21 2024-05-10 北京聚匠艺传媒有限公司 一种基于面部特征的人机交互方法及装置
CN113705280A (zh) * 2020-05-21 2021-11-26 北京聚匠艺传媒有限公司 一种基于面部特征的人机交互方法及装置
WO2022088819A1 (zh) * 2020-10-29 2022-05-05 陈志立 视频处理方法、视频处理装置和存储介质
CN112766205B (zh) * 2021-01-28 2022-02-11 电子科技大学 一种基于颜色模态图像的鲁棒性静默活体检测方法
CN112766205A (zh) * 2021-01-28 2021-05-07 电子科技大学 一种基于颜色模态图像的鲁棒性静默活体检测方法
CN113222925B (zh) * 2021-04-30 2023-01-31 陕西科技大学 一种基于ImagePy的水敏纸雾滴参数测量装置及其测量方法
CN113222925A (zh) * 2021-04-30 2021-08-06 陕西科技大学 一种基于ImagePy的水敏纸雾滴参数测量装置及其测量方法

Similar Documents

Publication Publication Date Title
CN108197534A (zh) 一种人头部姿态检测方法、电子设备及存储介质
CN104680121B (zh) 一种人脸图像的处理方法及装置
CN104318558B (zh) 复杂场景下基于多信息融合的手势分割方法
CN104794693B (zh) 一种人脸关键区域自动检测蒙版的人像优化方法
CN110221699B (zh) 一种前置摄像头视频源的眼动行为识别方法
Nguyen et al. Static hand gesture recognition using artificial neural network
CN106200971A (zh) 基于手势识别的人机交互系统装置及操作方法
Papadopoulos et al. Human action recognition using 3d reconstruction data
Zhao et al. Applying contrast-limited adaptive histogram equalization and integral projection for facial feature enhancement and detection
CN109325408A (zh) 一种手势判断方法及存储介质
CN113591763B (zh) 人脸脸型的分类识别方法、装置、存储介质及计算机设备
CN104008364A (zh) 人脸识别方法
Cheong et al. A novel face detection algorithm using thermal imaging
Vishwakarma et al. Simple and intelligent system to recognize the expression of speech-disabled person
Perimal et al. Hand-gesture recognition-algorithm based on finger counting
Wu et al. Appearance-based gaze block estimation via CNN classification
Venkatesh et al. A novel approach to classification of facial expressions from 3D-mesh datasets using modified PCA
Van den Bergh et al. Real-time body pose recognition using 2D or 3D haarlets
US11361467B2 (en) Pose selection and animation of characters using video data and training techniques
Lee et al. Efficient Face Detection and Tracking with extended camshift and haar-like features
Yamamoto et al. Algorithm optimizations for low-complexity eye tracking
Zhang et al. Hand tracking algorithm based on superpixels feature
Shitole et al. Dynamic hand gesture recognition using PCA, Pruning and ANN
Kondo et al. Pupil center detection for infrared irradiation eye image using CNN
Rahman et al. Face detection and sex identification from color images using adaboost with SVM based component classifier

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180622

RJ01 Rejection of invention patent application after publication