CN108197533A - 一种基于用户表情的人机交互方法、电子设备及存储介质 - Google Patents

一种基于用户表情的人机交互方法、电子设备及存储介质 Download PDF

Info

Publication number
CN108197533A
CN108197533A CN201711377320.9A CN201711377320A CN108197533A CN 108197533 A CN108197533 A CN 108197533A CN 201711377320 A CN201711377320 A CN 201711377320A CN 108197533 A CN108197533 A CN 108197533A
Authority
CN
China
Prior art keywords
expression
user
man
key point
machine interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711377320.9A
Other languages
English (en)
Inventor
胡春亚
胡志强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MGA Technology Shenzhen Co Ltd
Original Assignee
MGA Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MGA Technology Shenzhen Co Ltd filed Critical MGA Technology Shenzhen Co Ltd
Priority to CN201711377320.9A priority Critical patent/CN108197533A/zh
Publication of CN108197533A publication Critical patent/CN108197533A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于用户表情的人机交互方法,包括以下步骤:图像获取步骤:获取拍摄到的视频,所述视频包括多帧视频图像,对其视频图像进行亮度均衡处理;第一关键点提取步骤:获取均衡处理后视频图像中的人脸区域,并提取人脸区域中的关键点;表情获取步骤:根据提取的关键点的位置变化以得用户表情状态;交互步骤:根据用户的表情状态播放相应的声音或者视频。本发明还提供了一种电子设备以及计算机可读存储介质。本发明的基于用户表情的人机交互方法,其通过分析面部关键器官的关键点位置信息估算对应表情相似度,然后得到最终的表情识别结果,然后根据相应的表情识别结果以播放相应的声音或者视频,增加更多的人机交互方式。

Description

一种基于用户表情的人机交互方法、电子设备及存储介质
技术领域
本发明涉及一种图像识别技术领域,尤其涉及一种基于用户表情的人机交互方法、电子设备及存储介质。
背景技术
目前,表情识别是研究和应用比较广泛的人机交互应用技术,主要涉及正常(Neutral),快乐(Happy),惊讶(Surprise),愤怒(Angry),厌恶(Disgust),恐惧(Fear)和悲伤(Sad)等几种表情的识别。通过分析面部多块肌肉组合,得到最终的面部表情。从1978年开始,开发面部运动编码系统FACS(Facial Action Coding System),描述面部表情和研究人类的认知行为。根据人脸解剖学的特点,将其划分成大约46个既相互独立又相互联系的运动单元(AU),并分析这些运动单元的运动特征及其所控制的主要区域以及与之相关的表情。目前流行的表情识别技术主要应用在表情分析、行为分析,并没有关于表情识别与机器进行智能交互的产品。
发明内容
为了克服现有技术的不足,本发明的目的之一在于提供一种基于用户表情的人机交互方法,其能解决基于用户表情的人机交互的问题。
本发明的目的之二在于提供一种电子设备,其能解决基于用户表情的人机交互的问题。
本发明的目的之三在于提供一种计算机可读存储介质,其能解决基于用户表情的人机交互的问题。
本发明的目的之一采用如下技术方案实现:
一种基于用户表情的人机交互方法,包括以下步骤:
图像获取步骤:获取拍摄到的视频,所述视频包括多帧视频图像,对其视频图像进行亮度均衡处理;
第一关键点提取步骤:获取均衡处理后视频图像中的人脸区域,并提取人脸区域中的关键点;
表情获取步骤:根据提取的关键点的位置变化以得用户表情状态;
交互步骤:根据用户的表情状态播放相应的声音或者视频。
进一步地,在表情获取步骤之后还包括模型输出步骤:将获取到的关键点加载人脸candide模型,并将用户表情状态输出至candide模型上。
进一步地,所述亮度均衡处理包括以下步骤:
将获取到的图像从BGR空间中转换到YCbCr空间;
对空间转换后的亮度通道Y进行直方均衡化。
进一步地,所述第一关键点提取步骤具体包括以下子步骤:
人脸获取步骤:获取均衡处理后视频图像中的人脸区域;
空间转换步骤:将人脸区域转换到HSV空间,并设置各个通道的肤色区间;
反向投影步骤:分析人脸区域,并分离出H通道,计算反向投影图;
人脸定位步骤:采用camshift原理提取当前视频帧的人脸区域定位;
矩形跟踪步骤:提取该区域的最小面积的外接矩形;
第二关键点提取步骤:提取外接矩形中的关键点。
进一步地,所述空间转换步骤中的肤色区间为:H为0到50;S为40到255;V为40到255。
进一步地,所述人脸获取步骤中,接收用户点选的均衡处理后视频图像中的人脸区域。
进一步地,所述人脸获取步骤中,通过Haar特征识别均衡处理后视频图像中的人脸区域。
进一步地,所述表情获取步骤具体包括以下子步骤:
比对步骤:将提取的关键点的位置变化与表情特征库中的信息进行比对以得比对结果;
结果获取步骤:根据比对结果以得到用户表情状态,所述用户表情状态包括高兴、吃惊、悲伤、愤怒和害怕。
进一步地,所述比对步骤具体包括以下子步骤:
根据提取的关键点的位置变化与表情特征库中的信息进行比对以得到与相应的表情的相似值;
判断相似值是否大于预设值,如果是,则将其加入有效表情状态集;
将有效表情状态集中相似值最大所对应的表情作为比对结果。
本发明的目的之二采用如下技术方案实现:
一种电子设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现本发明目的之一中任意一项所述的人头部姿态检测方法。
本发明的目的之三采用如下技术方案实现:
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现本发明目的之一中任意一项所述的方法。
相比现有技术,本发明的有益效果在于:
本发明的基于用户表情的人机交互方法,其通过分析面部关键器官的关键点位置信息估算对应表情相似度,然后得到最终的表情识别结果,然后根据相应的表情识别结果以播放相应的声音或者视频,增加更多的人机交互方式。
附图说明
图1为本发明的基于用户表情的人机交互方法的流程示意图;
图2为本发明的人头部中各关键点的位置示意图。
具体实施方式
下面,结合附图以及具体实施方式,对本发明做进一步描述,需要说明的是,在不相冲突的前提下,以下描述的各实施例之间或各技术特征之间可以任意组合形成新的实施例。
如图1所示,本实施例提供了一种电子设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现人头部姿态检测方法:
本发明主要包括以下几个步骤,涉及图像预处理,人脸定位、关键点定位和最终姿态输出模块;该方法首先加载人脸candide模型,人脸定位模型分类器参数,作为后续人脸分析定位,效果呈现的配置参数;
S1:获取拍摄到的视频,所述视频包括多帧视频图像,对其视频图像进行亮度均衡处理;所述亮度均衡处理主要包括以下步骤:
将获取到的图像从BGR空间中转换到YCbCr空间;
对空间转换后的亮度通道Y进行直方均衡化。对图像进行亮度均衡,将其转换BGR空间转到YCbCr空间,对亮度通道Y进行直方图均衡,亮度更均匀,为后续人脸进行检测做准备;亮度均衡是一个必要的环节,因为现实中场景太复杂,阴阳脸这种现象还是很多;也可以用很多其他的均衡、增强的方法,比如Retinex等等,进行图像均衡化的方式有多种,在本实施例中将亮度均衡转换到YCbCr空间的方法是一种常用的方法。其他的进行亮度均衡转换的方式也属于处于本发明所要保护的范围之内;
S2:获取均衡处理后视频图像中的人脸区域,并提取人脸区域中的关键点;步骤S2具体包括以下子步骤:
S21:获取均衡处理后视频图像中的人脸区域;人脸区域的获取有两种方式,一种是接收用户点选的均衡处理后视频图像中的人脸区域;另一种是通过Haar特征识别均衡处理后视频图像中的人脸区域。这种两种方式都可以进行实施,在具体的实践中可以择一选择;
对图像进行人机干预的方式选择人脸区域,其直接通过相应的输入装置去进行点选人脸区域即可;Haar特征识别方法是通过编写计算机程序,通过运行计算机程序判断识别包含人脸的区域,具体的实施方法如下:对视频帧进行金字塔下采样2次,从第二层进行基于Haar特征的人脸检测,如果存在人脸,则以人脸区域作为肤色特征的后续区域,构建人脸图像模型,提取人脸特征,对后续视频帧进行直方图匹配的方式跟着人脸区域;如果该层不存在人脸,那么在第一层进行Haar特征的人脸检测,如果不存在人脸,那么进行下一视频帧的处理,如果存在人脸,同第二层找到人脸的情况一样处理,构建人脸模型,进行后续视频帧跟踪处理;
S22:将人脸区域转换到HSV空间,并设置各个通道的肤色区间;其中更为优选地,所述肤色区间为:H为0到50;S为40到255;V为40到255。对S21中找到的人脸候选区域FaceArea,转换到HSV空间,针对人脸肤色模型,设置各个通道的肤色区间,优先的:H(0,50),S(40,255),V(40,255)。
S23:分析人脸区域,并分离出H通道,计算反向投影图;
S24:采用camshift原理提取当前视频帧的人脸区域定位;
S25:提取该区域的最小面积的外接矩形;根据上述得到的反向投影图backProject,对当前帧进行处理,采用camShift原理,提取当前视频帧的人脸区域定位,估算人脸存在的最可能的区域,得到对应的人脸区域,提取该区域的最小面积的外接矩形minAreaRect,并分析计算出对应的倾斜角度,记为angleRotate;Camshift算法的过程由下面步骤组成:
(1)确定初始目标及其区域;
(2)计算出目标的色度(Hue)分量的直方图;
(3)利用直方图计算输入图像的反向投影图;
(4)利用MeanShift算法在反向投影图中迭代收索,直到其收敛或达到最大迭代次数。并保存零次矩;
(5)从第(4)步中获得收索窗口的中心位置和计算出新的窗口大小,以此为参数,进入到下一帧的目标跟踪。(即跳转到第(2)步);
几点说明:1.在输入图像进行反向投影图之前在HSV空间内做了一个阀值处理,用以滤掉一些噪声。2.反向投影图则是概率分布图,在反向投影图中某一像素点的值指的是这个点符合目标的概率分布的概率是多少,或者直接说其为目标图像像素点的像素点是多少。计算方法为:根据像素点的像素值查找目标的直方图,其对应像素值的概率是多少就作为该点在反向投影图中的值。3.Camshit算法到底自适应调整窗口的大小的。包括扩大:Canshift算法在计算窗口大小前,在MeanShift算出的窗口的四个方向上增大了TOLERANCE,即高和宽都增大了2TOLERANCE(此值自己调整设置),这才有可能使得窗口能够变大。缩小:在扩大的窗口内重新计算0阶矩,1阶矩和2阶矩,利用矩的值重新计算高和宽。因此Camshif算法相当于在MeanShift的结果上,再做了一个调整,从而使得跟踪的窗口大小能够随目标的大小变化。这种算法的效率会比较的高。
S26:提取外接矩形中的关键点。提取minAreaRect的外接矩形boundingRect,对该ROI(Region Of Interest)区域进行自动识别定位人脸,如图2所示,提取出对应的人脸特征,特征包含眼睛,鼻子,嘴巴的轮廓点,位置;依次:脸的外部轮廓点(0~16),眉毛轮廓点(17~26),鼻子(27~35),眼睛(36~45),嘴巴(46~65);
S3:根据提取的关键点的位置变化以得用户表情状态;对获取到的关键点进行标记;记录人脸轮廓上的所有关键点的中心值;根据关键点的中心值的位置变化以得到用户姿态信息。按照轮廓上的点,提取对应的关键点进行跟踪识别,记录对应的眼睛,鼻子,以及嘴巴等关键点的位置相对位置关系;
所述表情获取步骤具体包括以下子步骤:
比对步骤:将提取的关键点的位置变化与表情特征库中的信息进行比对以得比对结果;所述比对步骤具体包括以下子步骤:
根据提取的关键点的位置变化与表情特征库中的信息进行比对以得到与相应的表情的相似值;表情特征库中的信息也即指的是针对高兴、吃惊、悲伤、愤怒和害怕都会存储有不同的模板特征向量集,然后根据获取到的关键点的位置变化以得到相应的当前特征向量,然后与模板特征向量集中的内容进行比对以确认其属于那种表情状态;
判断相似值是否大于预设值,如果是,则将其加入有效表情状态集;每种表情分析的结果得到权重Wi,如果Wi大于0.6,认为该表情是有效的表情;表情分析完成后,会得到一个有效表情的结果集合,然后从结果集合中,挑选权重Wi最大的表情作为最终表情结果输出;
将有效表情状态集中相似值最大所对应的表情作为比对结果。对提取到的关键点信息,分析几种表情关键点的相对位置关系,作为表情判别的基础,针对每种表情,分析关键器官的轮廓点的信息,提取出相似度权重,然后最后得到对应表情输出;优选的,按照如下轮廓信息判断表情状态。
高兴:嘴部张开,分析嘴角的上扬,眉毛下弯;
吃惊:眉毛和上眼张开,嘴巴张开;
悲伤:嘴角(46,64)向下,嘴巴显出明显下弯的弧线;眉头(17,26)抬起;
愤怒:嘴唇紧闭,眉头(21,22)紧皱;
害怕:嘴巴微张,眼睛睁大,眉毛抬起;针对于不同的表情状态会存储有不同的模板特征向量集;
结果获取步骤:根据比对结果以得用户表情状态,所述用户表情状态包括高兴、吃惊、悲伤、愤怒和害怕。
S4:根据用户的表情状态播放相应的声音或者视频。输出当前表情,对应的语音输出提示:如果是高兴就播放高兴欢快的音乐;如果是悲伤,就播放开导的语音和用户进行互动。
本方法从实际应用中出发,让智能交互更能贴近生活,通过识别用户面部表情,进行面部表情的捕捉,进行判断喜怒哀乐,从而播放数据中的音乐,达到与用户智能交互的方法和系统;让游戏玩具交互性更好,更能提高产品竞争力。
本发明提出一种基于用户表情的人机交互方法,能更准确快速的定位分析人脸面部表情;通过分析面部关键器官的关键点位置信息估算对应表情相似度,然后得到最终的表情识别结果,作为人工智能的一个应用领域,市面上人机交互的产品、玩具越来越多,人工智能和日常生活紧密结合,大众用户也从思想上接受了人工智能,并对人工智能产品有了很高的期待,把表情识别应用到日常生活产品中,让生活充满乐趣,产品更有竞争力。
上述实施方式仅为本发明的优选实施方式,不能以此来限定本发明保护的范围,本领域的技术人员在本发明的基础上所做的任何非实质性的变化及替换均属于本发明所要求保护的范围。

Claims (10)

1.一种基于用户表情的人机交互方法,其特征在于,包括以下步骤:
图像获取步骤:获取拍摄到的视频,所述视频包括多帧视频图像,对其视频图像进行亮度均衡处理;
第一关键点提取步骤:获取均衡处理后视频图像中的人脸区域,并提取人脸区域中的关键点;
表情获取步骤:根据提取的关键点的位置变化以得用户表情状态;
交互步骤:根据用户的表情状态播放相应的声音或者视频。
2.如权利要求1所述的基于用户表情的人机交互方法,其特征在于,在表情获取步骤之后还包括模型输出步骤:将获取到的关键点加载人脸candide模型,并将用户表情状态输出至candide模型上。
3.如权利要求1或2所述的基于用户表情的人机交互方法,其特征在于,所述亮度均衡处理包括以下步骤:
将获取到的图像从BGR空间中转换到YCbCr空间;
对空间转换后的亮度通道Y进行直方均衡化。
4.如权利要求3所述的基于用户表情的人机交互方法,其特征在于,所述第一关键点提取步骤具体包括以下子步骤:
人脸获取步骤:获取均衡处理后视频图像中的人脸区域;
空间转换步骤:将人脸区域转换到HSV空间,并设置各个通道的肤色区间;
反向投影步骤:分析人脸区域,并分离出H通道,计算反向投影图;
人脸定位步骤:采用camshift原理提取当前视频帧的人脸区域定位;
矩形跟踪步骤:提取该区域的最小面积的外接矩形;
第二关键点提取步骤:提取外接矩形中的关键点。
5.如权利要求4所述的基于用户表情的人机交互方法,其特征在于,所述人脸获取步骤中,接收用户点选的均衡处理后视频图像中的人脸区域。
6.如权利要求5所述的基于用户表情的人机交互方法,其特征在于,所述人脸获取步骤中,通过Haar特征识别均衡处理后视频图像中的人脸区域。
7.如权利要求1所述的基于用户表情的人机交互方法,其特征在于,所述表情获取步骤具体包括以下子步骤:
比对步骤:将提取的关键点的位置变化与表情特征库中的信息进行比对以得比对结果;
结果获取步骤:根据比对结果以得到用户表情状态,所述用户表情状态包括高兴、吃惊、悲伤、愤怒和害怕。
8.如权利要求7所述的基于用户表情的人机交互方法,其特征在于,所述比对步骤具体包括以下子步骤:
根据提取的关键点的位置变化与表情特征库中的信息进行比对以得到与相应的表情的相似值;
判断相似值是否大于预设值,如果是,则将其加入有效表情状态集;
将有效表情状态集中相似值最大所对应的表情作为比对结果。
9.一种电子设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1-8中任意一项所述的基于用户表情的人机交互方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现如权利要求1-8任意一项所述的基于用户表情的人机交互方法。
CN201711377320.9A 2017-12-19 2017-12-19 一种基于用户表情的人机交互方法、电子设备及存储介质 Pending CN108197533A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711377320.9A CN108197533A (zh) 2017-12-19 2017-12-19 一种基于用户表情的人机交互方法、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711377320.9A CN108197533A (zh) 2017-12-19 2017-12-19 一种基于用户表情的人机交互方法、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN108197533A true CN108197533A (zh) 2018-06-22

Family

ID=62576989

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711377320.9A Pending CN108197533A (zh) 2017-12-19 2017-12-19 一种基于用户表情的人机交互方法、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN108197533A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108875656A (zh) * 2018-06-26 2018-11-23 魏巧萍 一种智能多媒体播放系统
CN108905193A (zh) * 2018-07-03 2018-11-30 百度在线网络技术(北京)有限公司 游戏操控处理方法、设备及存储介质
CN109147017A (zh) * 2018-08-28 2019-01-04 百度在线网络技术(北京)有限公司 动态图像生成方法、装置、设备及存储介质
CN109542230A (zh) * 2018-11-28 2019-03-29 北京旷视科技有限公司 图像处理方法、装置、电子设备及存储介质
CN110177205A (zh) * 2019-05-20 2019-08-27 深圳壹账通智能科技有限公司 终端设备、基于微表情的拍照方法及计算机可读存储介质
WO2020103649A1 (zh) * 2018-11-20 2020-05-28 青岛海尔洗衣机有限公司 家用电器输出视听信息的控制方法
CN111882567A (zh) * 2020-08-03 2020-11-03 深圳传音控股股份有限公司 Ar效果的处理方法、电子设备及可读存储介质
CN112017403A (zh) * 2020-09-15 2020-12-01 青岛联合创智科技有限公司 一种社区-居家一体化的智能服务电子牌
CN113158707A (zh) * 2020-01-22 2021-07-23 青岛海尔电冰箱有限公司 冰箱交互控制方法、冰箱、计算机可读存储介质
CN113553946A (zh) * 2021-07-22 2021-10-26 深圳市慧鲤科技有限公司 信息提示方法及装置、电子设备和存储介质
CN115089975A (zh) * 2022-02-24 2022-09-23 上海怡佳雨科技有限公司 一种智能玩具
WO2022262473A1 (zh) * 2021-06-16 2022-12-22 北京字跳网络技术有限公司 图像处理方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101777116A (zh) * 2009-12-23 2010-07-14 中国科学院自动化研究所 一种基于动作跟踪的脸部表情分析方法
CN103593680A (zh) * 2013-11-19 2014-02-19 南京大学 一种基于隐马尔科夫模型自增量学习的动态手势识别方法
TW201521415A (zh) * 2013-11-18 2015-06-01 Hon Hai Prec Ind Co Ltd 通訊裝置及其來電管理方法
CN107145326A (zh) * 2017-03-28 2017-09-08 浙江大学 一种基于目标面部表情采集的音乐自动播放系统及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101777116A (zh) * 2009-12-23 2010-07-14 中国科学院自动化研究所 一种基于动作跟踪的脸部表情分析方法
TW201521415A (zh) * 2013-11-18 2015-06-01 Hon Hai Prec Ind Co Ltd 通訊裝置及其來電管理方法
CN103593680A (zh) * 2013-11-19 2014-02-19 南京大学 一种基于隐马尔科夫模型自增量学习的动态手势识别方法
CN107145326A (zh) * 2017-03-28 2017-09-08 浙江大学 一种基于目标面部表情采集的音乐自动播放系统及方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108875656A (zh) * 2018-06-26 2018-11-23 魏巧萍 一种智能多媒体播放系统
CN108905193A (zh) * 2018-07-03 2018-11-30 百度在线网络技术(北京)有限公司 游戏操控处理方法、设备及存储介质
CN108905193B (zh) * 2018-07-03 2022-04-15 百度在线网络技术(北京)有限公司 游戏操控处理方法、设备及存储介质
CN109147017A (zh) * 2018-08-28 2019-01-04 百度在线网络技术(北京)有限公司 动态图像生成方法、装置、设备及存储介质
WO2020103649A1 (zh) * 2018-11-20 2020-05-28 青岛海尔洗衣机有限公司 家用电器输出视听信息的控制方法
CN109542230A (zh) * 2018-11-28 2019-03-29 北京旷视科技有限公司 图像处理方法、装置、电子设备及存储介质
CN110177205A (zh) * 2019-05-20 2019-08-27 深圳壹账通智能科技有限公司 终端设备、基于微表情的拍照方法及计算机可读存储介质
CN113158707A (zh) * 2020-01-22 2021-07-23 青岛海尔电冰箱有限公司 冰箱交互控制方法、冰箱、计算机可读存储介质
CN111882567A (zh) * 2020-08-03 2020-11-03 深圳传音控股股份有限公司 Ar效果的处理方法、电子设备及可读存储介质
CN112017403A (zh) * 2020-09-15 2020-12-01 青岛联合创智科技有限公司 一种社区-居家一体化的智能服务电子牌
WO2022262473A1 (zh) * 2021-06-16 2022-12-22 北京字跳网络技术有限公司 图像处理方法、装置、设备及存储介质
CN113553946A (zh) * 2021-07-22 2021-10-26 深圳市慧鲤科技有限公司 信息提示方法及装置、电子设备和存储介质
CN115089975A (zh) * 2022-02-24 2022-09-23 上海怡佳雨科技有限公司 一种智能玩具

Similar Documents

Publication Publication Date Title
CN108197533A (zh) 一种基于用户表情的人机交互方法、电子设备及存储介质
CN107491726B (zh) 一种基于多通道并行卷积神经网络的实时表情识别方法
Song et al. Geometry-aware face completion and editing
CN109508669B (zh) 一种基于生成式对抗网络的人脸表情识别方法
CN114514562B (zh) 预测性个性化三维身体模型
WO2021253939A1 (zh) 一种用于眼底视网膜血管图像分割的粗糙集神经网络方法
Yang et al. Exploring temporal preservation networks for precise temporal action localization
CN109919830B (zh) 一种基于美学评价的带参考人眼图像修复方法
CN108510500B (zh) 一种基于人脸肤色检测的虚拟人物形象的头发图层处理方法及系统
CN109685813A (zh) 一种自适应尺度信息的u型视网膜血管分割方法
CN108256421A (zh) 一种动态手势序列实时识别方法、系统及装置
CN108197534A (zh) 一种人头部姿态检测方法、电子设备及存储介质
CN109472198A (zh) 一种姿态鲁棒的视频笑脸识别方法
CN104794693B (zh) 一种人脸关键区域自动检测蒙版的人像优化方法
CN109902558A (zh) 一种基于cnn-lstm的人体健康深度学习预测方法
Aydogdu et al. Comparison of three different CNN architectures for age classification
CN111339847A (zh) 一种基于图卷积神经网络的人脸情绪识别方法
CN113591763B (zh) 人脸脸型的分类识别方法、装置、存储介质及计算机设备
WO2022127494A1 (zh) 位姿识别模型训练方法、装置、位姿识别方法和终端设备
CN108960093A (zh) 脸部转动角度的识别方法及设备
Cornejo et al. Emotion recognition from occluded facial expressions using weber local descriptor
CN109583331A (zh) 基于深度学习的人手腕脉口位置精准定位方法
CN104008364A (zh) 人脸识别方法
CN106845456A (zh) 一种视频监控系统中人体摔倒监测的方法
CN106326980A (zh) 机器人和机器人模拟人脸面部运动的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180622