CN106775360B - 一种电子设备的控制方法、系统及电子设备 - Google Patents

一种电子设备的控制方法、系统及电子设备 Download PDF

Info

Publication number
CN106775360B
CN106775360B CN201710048442.7A CN201710048442A CN106775360B CN 106775360 B CN106775360 B CN 106775360B CN 201710048442 A CN201710048442 A CN 201710048442A CN 106775360 B CN106775360 B CN 106775360B
Authority
CN
China
Prior art keywords
expressive features
facial
facial expression
image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710048442.7A
Other languages
English (en)
Other versions
CN106775360A (zh
Inventor
高婧雯
易斌
赵杰明
宋江涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gree Electric Appliances Inc of Zhuhai
Original Assignee
Gree Electric Appliances Inc of Zhuhai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gree Electric Appliances Inc of Zhuhai filed Critical Gree Electric Appliances Inc of Zhuhai
Priority to CN201710048442.7A priority Critical patent/CN106775360B/zh
Publication of CN106775360A publication Critical patent/CN106775360A/zh
Application granted granted Critical
Publication of CN106775360B publication Critical patent/CN106775360B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种电子设备的控制方法,包括以下步骤:获取面部图像,对面部图像进行分析,提取出第一面部表情特征;将第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,在预设表情识别模型库中提取出与第一面部表情特征相匹配的第二面部表情特征;基于第二面部表情特征,调取与第二面部表情特征相对应的控制标签;基于控制标签生成控制目标电子设备的控制指令。本发明还提供了一种电子设备的控制系统和电子设备。

Description

一种电子设备的控制方法、系统及电子设备
技术领域
本发明涉及电子设备技术领域,更具体地说,涉及一种电子设备的控制方法、系统及电子设备。
背景技术
随着手机的不断发展,除了利用按键和触屏来操作手机外,现在还可利用语音和手势对手机发出操作指令。虽然手机的操作方式越来越简单,但无论何种操作方式,都还是需要用户刻意的做出相应的操作,手机才能做出相应的反应,智能化不足。
发明内容
有鉴于此,本发明的目的在于提供一种电子设备的控制方法,能够识别用户的面部表情,通过用户的面部表情对电子设备进行控制,使电子设备更加人性化、智能化。
为实现上述目的,本发明提供如下技术方案:一种电子设备的控制方法,包括以下步骤:
获取面部图像;
对所述面部图像进行分析,提取出第一面部表情特征;
将所述第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,在所述预设表情识别模型库中提取出与所述第一面部表情特征相匹配的第二面部表情特征;
基于所述第二面部表情特征,调取与所述第二面部表情特征相对应的控制标签;
基于所述控制标签生成控制目标电子设备的控制指令,所述目标电子设备为待控制电子设备。
优选地,对所述面部图像进行分析,提取出第一面部表情特征包括:
基于预设分区规则将所述面部图像划分为两个或两个以上的子图像区域;
提取每个子图像区域对应的第三面部表情特征。
优选地,将所述第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,在所述预设表情识别模型库中提取出与所述第一面部表情特征相匹配的第二面部表情特征包括:
将所述每个子图像区域对应的第三面部表情特征,分别与预设表情识别模型库中存储的表情特征进行比对,在所述预设表情识别模型库中提取出与每个子图像区域对应的第三面部表情特征相匹配的子表情特征,其中所述子表情特征的集合构成与所述第一面部表情特征相匹配的表情特征。
优选地,所述基于第二面部表情特征,调取与所述第二面部表情特征相对应的控制标签包括:
分别对与每个子图像区域对应的第三面部表情特征相匹配的子表情特征进行评分;
根据所述与每个子图像区域对应的第三面部表情特征相匹配的子表情特征的评分,计算出所述第二面部表情特征的总分;
基于所述总分确定与所述第二面部表情特征相对应的控制标签。
优选地,所述预设分区规则包括:按面部肌肉线条和五官进行分区的规则。
一种电子设备的控制系统,包括:
获取模块,用于获取面部图像;
分析模块,用于对所述面部图像进行分析,提取出第一面部表情特征;
匹配模块,用于将所述第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,在所述预设表情识别模型库中提取出与所述第一面部表情特征相匹配的第二面部表情特征;
调取模块,用于基于所述第二面部表情特征,调取与所述第二面部表情特征相对应的控制标签;
生成模块,用于基于所述控制标签生成控制目标电子设备的控制指令,所述目标电子设备为待控制电子设备。
优选地,所述分析模块包括:
划分单元,用于基于预设分区规则将所述面部图像划分为两个或两个以上的子图像区域;
提取单元,用于提取每个子图像区域对应的第三面部表情特征。
优选地,所述匹配模块包括:
比对单元,用于将所述每个子图像区域对应的第三面部表情特征,分别与预设表情识别模型库中存储的表情特征进行比对,在所述预设表情识别模型库中提取出与每个子图像区域对应的第三面部表情特征相匹配的子表情特征,其中所述子表情特征的集合构成与所述第一面部表情特征相匹配的表情特征。
优选地,所述调取模块包括:
评分单元,用于分别对与每个子图像区域对应的第三面部表情特征相匹配的子表情特征进行评分;
计算单元,用于根据所述与每个子图像区域对应的第三面部表情特征相匹配的子表情特征的评分,计算出所述第二面部表情特征的总分;
确定单元,用于基于所述总分确定与所述第二面部表情特征相对应的控制标签。
优选地,所述预设分区规则包括:按面部肌肉线条和五官进行分区的规则。
一种电子设备,包括:控制系统;其中:
所述控制系统包括:
获取模块,用于获取面部图像;
分析模块,用于对所述面部图像进行分析,提取出第一面部表情特征;
匹配模块,用于将所述第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,在所述预设表情识别模型库中提取出与所述第一面部表情特征相匹配的第二面部表情特征;
调取模块,用于基于所述第二面部表情特征,调取与所述第二面部表情特征相对应的控制标签;
生成模块,用于基于所述控制标签生成控制目标电子设备的控制指令,所述目标电子设备为待控制电子设备。
从上述技术方案可以看出,本发明提供了一种电子设备的控制方法,首先获取面部图像,然后对面部图像进行分析,提取出第一面部表情特征,将第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,在预设表情识别模型库中提取出与第一面部表情特征相匹配的第二面部表情特征,基于第二面部表情特征,调取与第二面部表情特征相对应的控制标签,最后基于控制标签生成控制目标电子设备的控制指令。本发明能够通过用户的面部表情对电子设备进行控制,使电子设备更加人性化、智能化。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明公开的一种电子设备的控制方法实施例一的方法流程图;
图2为本发明公开的一种电子设备的控制方法实施例二的方法流程图;
图3为本发明公开的一种电子设备的控制系统实施例一的结构示意图;
图4为本发明公开的一种电子设备的控制系统实施例二的结构示意图;
图5为本发明公开的一种电子设备实施例一的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
如图1所示,为本发明公开的一种电子设备的控制方法实施例1的方法流程图,该方法应用于电子设备,所述电子设备可以为手机、平板电脑、笔记本电脑等智能终端。该方法可以包含以下步骤:
S101、获取面部图像;
当需要通过用户的面部表情对电子设备进行控制时,启动待控制电子设备的面部表情控制功能。启动待控制电子设备的面部表情控制功能后,获取用户在使用目标电子设备即待控制电子设备时的面部图像。
需要说明的是,在获取用户在使用目标电子设备时的面部图像时,可以通过目标电子设备自带的摄像头对用户的面部进行拍摄,将拍摄到的用户的面部图像发送至系统。在获取用户在使用目标电子设备时的面部图像时,还可以采用其他图像采集装置对用户的面部进行图像采集,图像采集装置将采集到的用户的面部图像通过有线或无线的方式发送至目标电子设备的控制系统。
需要说明的是,在上述对用户的面部进行图像采集时,可以以一定的周期频率进行采集。例如,周期T可在10~20秒范围内取值。因为用户在观看电子设备上的内容时,情绪会立即因看到的内容产生变化,从而不经意的产生相对应的表情,但是经过一段时间对所看到内容的接收和理解后,有很大可能用户对所看到的内容所产生情绪会发生变化,从而导致表情的变化。若周期间隔太短,则可能会错误的预测用户的意图,进行不必要的动作;若周期间隔太长,又会不能及时满足用户的需求,因此在对用户的面部进行图像采集时,设置合理的采集周期,能够更加准确的对电子设备进行控制,进而可较好的满足用户的需求,提升用户体验。
S102、对面部图像进行分析,提取出第一面部表情特征;
当获取到面部图像后,对获取到的面部图像进行处理分析,提取出面部图像中能够表征用户情绪变化的面部表情特征。例如,提取出用户微笑或难过时对应的面部表情特征,如嘴角上扬或嘴角向下弯曲等面部表情特征。
S103、将第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,在预设表情识别模型库中提取出与第一面部表情特征相匹配的第二面部表情特征;
当基于面部图像提取出的第一面部表情特征后,将提取到的表征用户情绪的第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,其中,预设表情识别模型库中预先存储有若干个能够表征情绪的表情特征。需要说明的是,预设表情识别模型库中存储的表情特征可根据实际需求进行增添、删除或更改。在将用户的第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配的过程中,即将提取到的用户的面部表情特征与预设表情识别模型库中存储的表情特征进行一一的对比,通过对比当用户的面部表情特征与预设表情识别模型库中存储的其中一种表情特征的相似度大于某一设定阈值时,例如相似度大于80%时,将预设表情识别模型库中的该面部表情特征作为与用户的面部表情特征相匹配的表情特征。
S104、基于第二面部表情特征,调取与所述第二面部表情特征相对应的控制标签;
在所述预设表情识别模型库中存储的每一种表情特征均有控制标签与其对应,所述的控制标签为用于对电子设备进行控制的标签。需要说明的是,预设表情识别模型库中存储的每一种表情特征可以有一个或一个以上的控制标签与其对应。
当在预设表情识别模型库中确定出与用户的面部表情特征相匹配的表情特征后,进一步调取与该表情特征相对应的控制标签。
S105、基于所述控制标签生成控制目标电子设备的控制指令,所述目标电子设备为待控制电子设备。
最后,根据调取到的控制标签生成相应的控制指令,基于生成的控制指令对目标电子设备进行相应的控制操作。当调取到多个控制标签时,针对每一个控制标签生成相应的控制指令,并基于生成的不同控制指令对目标电子设备进行多个操作。例如,当提取到的表情特征为表征用户高兴的情绪时,可以对应打开音乐播放器的控制标签,以及在音乐播放器中选择愉悦歌曲的控制标签。
综上所述,在上述实施例中,首先获取用户在使用目标电子设备时的面部图像,然后对面部图像进行分析,提取出用户的面部表情特征,将用户的面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,在预设表情识别模型库中提取出与用户的面部表情特征相匹配的表情特征,基于提取的表情特征,调取与表情特征相对应的控制标签,最后基于控制标签生成控制目标电子设备的控制指令。本发明能够通过用户的面部表情对电子设备进行控制,使电子设备更加人性化、智能化。
如图2所示,为本发明公开的一种电子设备的控制方法实施例2的方法流程图,该方法应用于电子设备,所述电子设备可以为手机、平板电脑、笔记本电脑等智能终端。该方法可以包含以下步骤:
S201、获取面部图像;
当需要通过用户的面部表情对电子设备进行控制时,启动待控制电子设备的面部表情控制功能。启动待控制电子设备的面部表情控制功能后,获取用户在使用目标电子设备即待控制电子设备时的面部图像。
需要说明的是,在获取用户在使用目标电子设备时的面部图像时,可以通过目标电子设备自带的摄像头对用户的面部进行拍摄,将拍摄到的用户的面部图像发送至系统。在获取用户在使用目标电子设备时的面部图像时,还可以采用其他图像采集装置对用户的面部进行图像采集,图像采集装置将采集到的用户的面部图像通过有线或无线的方式发送至目标电子设备的控制系统。
需要说明的是,在上述对用户的面部进行图像采集时,可以以一定的周期频率进行采集。例如,周期T可在10~20秒范围内取值。因为用户在观看电子设备上的内容时,情绪会立即因看到的内容产生变化,从而不经意的产生相对应的表情,但是经过一段时间对所看到内容的接收和理解后,有很大可能用户对所看到的内容所产生情绪会发生变化,从而导致表情的变化。若周期间隔太短,则可能会错误的预测用户的意图,进行不必要的动作;若周期间隔太长,又会不能及时满足用户的需求,因此在对用户的面部进行图像采集时,设置合理的采集周期,能够更加准确的对电子设备进行控制,进而可较好的满足用户的需求,提升用户体验。
S202、基于预设分区规则将所述面部图像划分为两个或两个以上的子图像区域;
当获取到用户在使用目标电子设备时的面部图像后,根据预设分区规则将面部图像划分为若干个子图像区域。具体的,预设分区规则可以为将面部图像按照肌肉线条和五官进行分区的规则。例如,可将面部图像分为眼区、眉区、额区、鼻区、唇区、颊区、眶下区、腮区、颏区和颌区。根据所分区域的不同提取不同的表情特征,以唇区为例,人在不满时往往嘴角向下弯曲,人在喜悦时嘴角往往向上弯曲,因此嘴角的弯曲方向即为唇区需要记录的表情特征之一。
S203、提取每个子图像区域对应的第三面部表情特征;
基于预设分区规则将面部图像划分为若干个子图像区域后,分别提取出每个子图像区域对应的第三面部表情特征。
S204、将所述每个子图像区域对应的第三面部表情特征,分别与预设表情识别模型库中存储的表情特征进行比对,在所述预设表情识别模型库中提取出与每个子图像区域对应的第三面部表情特征相匹配的子表情特征,其中所述子表情特征的集合构成与所述第一面部表情特征相匹配的表情特征;
当提取出每个子图像区域对应的用户的表情特征后,分别将每个子图像区域对应的用户的表情特征与预设表情识别模型库中存储的表情特征进行匹配,其中,预设表情识别模型库中预先存储有若干个能够表征情绪的表情特征。需要说明的是,预设表情识别模型库中存储的表情特征可根据实际需求进行增添、删除或更改。在将每个子图像区域对应的用户的表情特征与预设表情识别模型库中存储的表情特征进行匹配的过程中,即将每个子图像区域对应的用户的表情特征与预设表情识别模型库中存储的表情特征进行一一的对比,通过对比当子图像区域对应的用户的表情特征与预设表情识别模型库中存储的其中一种表情特征的相似度大于某一设定阈值时,例如相似度大于80%时,将预设表情识别模型库中的该面部表情特征作为该子图像区域对应的用户的子表情特征。
S205、分别对与每个子图像区域对应的第三面部表情特征相匹配的子表情特征进行评分;
然后分别对每个子表情特征进行评分,例如,按评分范围从0~10分算,若用户只是轻微皱眉,此时眉区表情特征仅为双眉外侧末端向下弯曲,眉区评分为2分;若用户眉头紧锁,眉区表情特征为双眉外侧末端向下弯曲,且双眉内侧向上拱起,眉区评分为6分,且用户撇嘴,嘴角向下弯,嘴唇变薄,唇区评分5分。
S206、根据所述与每个子图像区域对应的第三面部表情特征相匹配的子表情特征的评分,计算出第二面部表情特征的总分;
如上述两种情况,用户的表情虽然都确定为不满。但一种情况总分为2分,另一种情况总分为11分。需要注意的是,此处两种情况均为举例,并不是只对眉区和唇区评分,为了便于理解,其他未提到的区域的表情特征的评分均为0分。
S207、基于所述总分确定与第二面部表情特征相对应的控制标签;
根据计算得到的总分选择与总分对应的控制标签,即根据不同的分数选择对电子设备进行不同控制方式的控制标签。以上述例子为例,在用户表情为不满时,若表情总分为2分,则选择的控制标签的功能是使电子设备仍运行当前程序,但切换其他显示内容;若表情总分为11分,则选择的控制标签的功能是使电子设备停止运行当前程序。
S208、基于所述控制标签生成控制目标电子设备的控制指令,所述目标电子设备为待控制电子设备。
最后,根据调取到的控制标签生成相应的控制指令,基于生成的控制指令对目标电子设备进行相应的控制操作。当调取到多个控制标签时,针对每一个控制标签生成相应的控制指令,并基于生成的不同控制指令对目标电子设备进行多个操作。例如,当提取到的表情特征为表征用户高兴的情绪时,可以对应打开音乐播放器的控制标签,以及在音乐播放器中选择愉悦歌曲的控制标签。
综上所述,在上述实施例的基础上,采用将用户的面部图像分区域对比进而确认用户表情的方法。分区域后,因单个区域内的表情特征远少于整个面部图像内的表情特征,因此对比难度远低于未分区域前,降低了本方法对硬件要求,扩大了本方法的适用范围。
此外,采用分区域方式,表情识别模型库内只需要存储每个区域的不同表情识别模型,而不需要存放每个区域的不同表情识别模型组合起来的整个面部的表情识别模型,极大地减少了需要存储的表情识别模型的数量,节约了存储空间。
如图3所示,为本发明公开的一种电子设备的控制系统实施例1的结构示意图,该系统应用于电子设备,所述电子设备可以为手机、平板电脑、笔记本电脑等智能终端。该系统可以包含:
获取模块301,用于获取面部图像;
当需要通过用户的面部表情对电子设备进行控制时,启动待控制电子设备的面部表情控制功能。启动待控制电子设备的面部表情控制功能后,获取用户在使用目标电子设备即待控制电子设备时的面部图像。
需要说明的是,在获取用户在使用目标电子设备时的面部图像时,可以通过目标电子设备自带的摄像头对用户的面部进行拍摄,将拍摄到的用户的面部图像发送至系统。在获取用户在使用目标电子设备时的面部图像时,还可以采用其他图像采集装置对用户的面部进行图像采集,图像采集装置将采集到的用户的面部图像通过有线或无线的方式发送至目标电子设备的控制系统。
需要说明的是,在上述对用户的面部进行图像采集时,可以以一定的周期频率进行采集。例如,周期T可在10~20秒范围内取值。因为用户在观看电子设备上的内容时,情绪会立即因看到的内容产生变化,从而不经意的产生相对应的表情,但是经过一段时间对所看到内容的接收和理解后,有很大可能用户对所看到的内容所产生情绪会发生变化,从而导致表情的变化。若周期间隔太短,则可能会错误的预测用户的意图,进行不必要的动作;若周期间隔太长,又会不能及时满足用户的需求,因此在对用户的面部进行图像采集时,设置合理的采集周期,能够更加准确的对电子设备进行控制,进而可较好的满足用户的需求,提升用户体验。
分析模块302,用于对面部图像进行分析,提取出第一面部表情特征;
当获取到目标电子设备的面部图像后,对获取到的用户的面部图像进行处理分析,提取出面部图像中能够表征用户情绪变化的面部表情特征。例如,提取出用户微笑或难过时对应的面部表情特征,如嘴角上扬或嘴角向下弯曲等面部表情特征。
匹配模块303,用于将第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,在预设表情识别模型库中提取出与第一面部表情特征相匹配的第二面部表情特征;
当基于面部图像提取出的第一面部表情特征后,将提取到的表征用户情绪的第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,其中,预设表情识别模型库中预先存储有若干个能够表征情绪的表情特征。需要说明的是,预设表情识别模型库中存储的表情特征可根据实际需求进行增添、删除或更改。在将用户的第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配的过程中,即将提取到的用户的面部表情特征与预设表情识别模型库中存储的表情特征进行一一的对比,通过对比当用户的面部表情特征与预设表情识别模型库中存储的其中一种表情特征的相似度大于某一设定阈值时,例如相似度大于80%时,将预设表情识别模型库中的该面部表情特征作为与用户的面部表情特征相匹配的表情特征。
调取模块304,用于基于第二面部表情特征,调取与所述第二面部表情特征相对应的控制标签;
在所述预设表情识别模型库中存储的每一种表情特征均有控制标签与其对应,所述的控制标签为用于对电子设备进行控制的标签。需要说明的是,预设表情识别模型库中存储的每一种表情特征可以有一个或一个以上的控制标签与其对应。
当在预设表情识别模型库中确定出与用户的面部表情特征相匹配的表情特征后,进一步调取与该表情特征相对应的控制标签。
生成模块305,用于基于所述控制标签生成控制目标电子设备的控制指令,所述目标电子设备为待控制电子设备。
最后,根据调取到的控制标签生成相应的控制指令,基于生成的控制指令对目标电子设备进行相应的控制操作。当调取到多个控制标签时,针对每一个控制标签生成相应的控制指令,并基于生成的不同控制指令对目标电子设备进行多个操作。例如,当提取到的表情特征为表征用户高兴的情绪时,可以对应打开音乐播放器的控制标签,以及在音乐播放器中选择愉悦歌曲的控制标签。
综上所述,在上述实施例中,首先获取用户在使用目标电子设备时的面部图像,然后对面部图像进行分析,提取出用户的面部表情特征,将用户的面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,在预设表情识别模型库中提取出与用户的面部表情特征相匹配的表情特征,基于提取的表情特征,调取与表情特征相对应的控制标签,最后基于控制标签生成控制目标电子设备的控制指令。本发明能够通过用户的面部表情对电子设备进行控制,使电子设备更加人性化、智能化。
如图4所示,为本发明公开的一种电子设备的控制系统实施例2的结构示意图,该系统应用于电子设备,所述电子设备可以为手机、平板电脑、笔记本电脑等智能终端。该系统可以包含:
获取模块401,用于获取面部图像;
当需要通过用户的面部表情对电子设备进行控制时,启动待控制电子设备的面部表情控制功能。启动待控制电子设备的面部表情控制功能后,获取用户在使用目标电子设备即待控制电子设备时的面部图像。
需要说明的是,在获取用户在使用目标电子设备时的面部图像时,可以通过目标电子设备自带的摄像头对用户的面部进行拍摄,将拍摄到的用户的面部图像发送至系统。在获取用户在使用目标电子设备时的面部图像时,还可以采用其他图像采集装置对用户的面部进行图像采集,图像采集装置将采集到的用户的面部图像通过有线或无线的方式发送至目标电子设备的控制系统。
需要说明的是,在上述对用户的面部进行图像采集时,可以以一定的周期频率进行采集。例如,周期T可在10~20秒范围内取值。因为用户在观看电子设备上的内容时,情绪会立即因看到的内容产生变化,从而不经意的产生相对应的表情,但是经过一段时间对所看到内容的接收和理解后,有很大可能用户对所看到的内容所产生情绪会发生变化,从而导致表情的变化。若周期间隔太短,则可能会错误的预测用户的意图,进行不必要的动作;若周期间隔太长,又会不能及时满足用户的需求,因此在对用户的面部进行图像采集时,设置合理的采集周期,能够更加准确的对电子设备进行控制,进而可较好的满足用户的需求,提升用户体验。
划分单元402,用于基于预设分区规则将所述面部图像划分为两个或两个以上的子图像区域;
当获取到用户在使用目标电子设备时的面部图像后,根据预设分区规则将面部图像划分为若干个子图像区域。具体的,预设分区规则可以为将面部图像按照肌肉线条和五官进行分区的规则。例如,可将面部图像分为眼区、眉区、额区、鼻区、唇区、颊区、眶下区、腮区、颏区和颌区。根据所分区域的不同提取不同的表情特征,以唇区为例,人在不满时往往嘴角向下弯曲,人在喜悦时嘴角往往向上弯曲,因此嘴角的弯曲方向即为唇区需要记录的表情特征之一。
提取单元403,用于提取每个子图像区域对应的第三面部表情特征;
基于预设分区规则将面部图像划分为若干个子图像区域后,分别提取出每个子图像区域对应的第三面部表情特征。
比对单元404,用于将所述每个子图像区域对应的第三面部表情特征,分别与预设表情识别模型库中存储的表情特征进行比对,在所述预设表情识别模型库中提取出与每个子图像区域对应的第三面部表情特征相匹配的子表情特征,其中所述子表情特征的集合构成与所述第一面部表情特征相匹配的表情特征;
当提取出每个子图像区域对应的用户的表情特征后,分别将每个子图像区域对应的用户的表情特征与预设表情识别模型库中存储的表情特征进行匹配,其中,预设表情识别模型库中预先存储有若干个能够表征情绪的表情特征。需要说明的是,预设表情识别模型库中存储的表情特征可根据实际需求进行增添、删除或更改。在将每个子图像区域对应的用户的表情特征与预设表情识别模型库中存储的表情特征进行匹配的过程中,即将每个子图像区域对应的用户的表情特征与预设表情识别模型库中存储的表情特征进行一一的对比,通过对比当子图像区域对应的用户的表情特征与预设表情识别模型库中存储的其中一种表情特征的相似度大于某一设定阈值时,例如相似度大于80%时,将预设表情识别模型库中的该面部表情特征作为该子图像区域对应的用户的子表情特征。
评分单元405,用于分别对与每个子图像区域对应的第三面部表情特征相匹配的子表情特征进行评分;
然后分别对每个子表情特征进行评分,例如,按评分范围从0~10分算,若用户只是轻微皱眉,此时眉区表情特征仅为双眉外侧末端向下弯曲,眉区评分为2分;若用户眉头紧锁,眉区表情特征为双眉外侧末端向下弯曲,且双眉内侧向上拱起,眉区评分为6分,且用户撇嘴,嘴角向下弯,嘴唇变薄,唇区评分5分。
计算单元406,用于根据所述与每个子图像区域对应的第三面部表情特征相匹配的子表情特征的评分,计算出第二面部表情特征的总分;
如上述两种情况,用户的表情虽然都确定为不满。但一种情况总分为2分,另一种情况总分为11分。需要注意的是,此处两种情况均为举例,并不是只对眉区和唇区评分,为了便于理解,其他未提到的区域的表情特征的评分均为0分。
确定单元407,用于基于所述总分确定与第二面部表情特征相对应的控制标签;
根据计算得到的总分选择与总分对应的控制标签,即根据不同的分数选择对电子设备进行不同控制方式的控制标签。以上述例子为例,在用户表情为不满时,若表情总分为2分,则选择的控制标签的功能是使电子设备仍运行当前程序,但切换其他显示内容;若表情总分为11分,则选择的控制标签的功能是使电子设备停止运行当前程序。
生成模块408,用于基于所述控制标签生成控制目标电子设备的控制指令,所述目标电子设备为待控制电子设备。
最后,根据调取到的控制标签生成相应的控制指令,基于生成的控制指令对目标电子设备进行相应的控制操作。当调取到多个控制标签时,针对每一个控制标签生成相应的控制指令,并基于生成的不同控制指令对目标电子设备进行多个操作。例如,当提取到的表情特征为表征用户高兴的情绪时,可以对应打开音乐播放器的控制标签,以及在音乐播放器中选择愉悦歌曲的控制标签。
综上所述,在上述实施例的基础上,采用将用户的面部图像分区域对比进而确认用户表情的方法。分区域后,因单个区域内的表情特征远少于整个面部图像内的表情特征,因此对比难度远低于未分区域前,降低了本方法对硬件要求,扩大了本方法的适用范围。
此外,采用分区域方式,表情识别模型库内只需要存储每个区域的不同表情识别模型,而不需要存放每个区域的不同表情识别模型组合起来的整个面部的表情识别模型,极大地减少了需要存储的表情识别模型的数量,节约了存储空间。
如图5所示,为本发明公开的一种电子设备实施例1的结构示意图,所述电子设备可以为手机、平板电脑、笔记本电脑等智能终端。所述电子设备包括控制系统51;
其中,所述控制系统51包括:
获取模块511,用于获取面部图像;
当需要通过用户的面部表情对电子设备进行控制时,启动待控制电子设备的面部表情控制功能。启动待控制电子设备的面部表情控制功能后,获取用户在使用目标电子设备即待控制电子设备时的面部图像。
需要说明的是,在获取用户在使用目标电子设备时的面部图像时,可以通过目标电子设备自带的摄像头对用户的面部进行拍摄,将拍摄到的用户的面部图像发送至系统。在获取用户在使用目标电子设备时的面部图像时,还可以采用其他图像采集装置对用户的面部进行图像采集,图像采集装置将采集到的用户的面部图像通过有线或无线的方式发送至目标电子设备的控制系统。
需要说明的是,在上述对用户的面部进行图像采集时,可以以一定的周期频率进行采集。例如,周期T可在10~20秒范围内取值。因为用户在观看电子设备上的内容时,情绪会立即因看到的内容产生变化,从而不经意的产生相对应的表情,但是经过一段时间对所看到内容的接收和理解后,有很大可能用户对所看到的内容所产生情绪会发生变化,从而导致表情的变化。若周期间隔太短,则可能会错误的预测用户的意图,进行不必要的动作;若周期间隔太长,又会不能及时满足用户的需求,因此在对用户的面部进行图像采集时,设置合理的采集周期,能够更加准确的对电子设备进行控制,进而可较好的满足用户的需求,提升用户体验。
分析模块512,用于对面部图像进行分析,提取出第一面部表情特征;
当获取到目标电子设备的面部图像后,对获取到的用户的面部图像进行处理分析,提取出面部图像中能够表征用户情绪变化的面部表情特征。例如,提取出用户微笑或难过时对应的面部表情特征,如嘴角上扬或嘴角向下弯曲等面部表情特征。
匹配模块513,用于将第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,在预设表情识别模型库中提取出与第一面部表情特征相匹配的第二面部表情特征;
当基于面部图像提取出的第一面部表情特征后,将提取到的表征用户情绪的第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,其中,预设表情识别模型库中预先存储有若干个能够表征情绪的表情特征。需要说明的是,预设表情识别模型库中存储的表情特征可根据实际需求进行增添、删除或更改。在将用户的第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配的过程中,即将提取到的用户的面部表情特征与预设表情识别模型库中存储的表情特征进行一一的对比,通过对比当用户的面部表情特征与预设表情识别模型库中存储的其中一种表情特征的相似度大于某一设定阈值时,例如相似度大于80%时,将预设表情识别模型库中的该面部表情特征作为与用户的面部表情特征相匹配的表情特征。
调取模块514,用于基于第二面部表情特征,调取与所述第二面部表情特征相对应的控制标签;
在所述预设表情识别模型库中存储的每一种表情特征均有控制标签与其对应,所述的控制标签为用于对电子设备进行控制的标签。需要说明的是,预设表情识别模型库中存储的每一种表情特征可以有一个或一个以上的控制标签与其对应。
当在预设表情识别模型库中确定出与用户的面部表情特征相匹配的表情特征后,进一步调取与该表情特征相对应的控制标签。
生成模块515,用于基于所述控制标签生成控制目标电子设备的控制指令,所述目标电子设备为待控制电子设备。
最后,根据调取到的控制标签生成相应的控制指令,基于生成的控制指令对目标电子设备进行相应的控制操作。当调取到多个控制标签时,针对每一个控制标签生成相应的控制指令,并基于生成的不同控制指令对目标电子设备进行多个操作。例如,当提取到的表情特征为表征用户高兴的情绪时,可以对应打开音乐播放器的控制标签,以及在音乐播放器中选择愉悦歌曲的控制标签。
综上所述,在上述实施例中,首先获取用户在使用目标电子设备时的面部图像,然后对面部图像进行分析,提取出用户的面部表情特征,将用户的面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,在预设表情识别模型库中提取出与用户的面部表情特征相匹配的表情特征,基于提取的表情特征,调取与表情特征相对应的控制标签,最后基于控制标签生成控制目标电子设备的控制指令。本发明能够通过用户的面部表情对电子设备进行控制,使电子设备更加人性化、智能化。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (9)

1.一种电子设备的控制方法,其特征在于,包括以下步骤:
获取面部图像;
对所述面部图像进行分析,提取出第一面部表情特征;
将所述第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,在所述预设表情识别模型库中提取出与所述第一面部表情特征相匹配的第二面部表情特征;
基于所述第二面部表情特征,调取与所述第二面部表情特征相对应的控制标签;
基于所述控制标签生成控制目标电子设备的控制指令,所述目标电子设备为待控制电子设备;
所述第一面部表情特征包括:所述面部图像的多个子区域中每个子区域所对应的第三面部表情特征;所述与所述第一面部表情特征相匹配的第二面部表情特征包括:所述预设表情识别模型库中所存储的与各个所述第三面部表情特征中的每个第三面部表情特征相匹配的表情特征;
则所述基于第二面部表情特征,调取与所述第二面部表情特征相对应的控制标签包括:分别对与每个子图像区域对应的第三面部表情特征相匹配的子表情特征进行评分;根据所述与每个子图像区域对应的第三面部表情特征相匹配的子表情特征的评分,计算出所述第二面部表情特征的总分;基于所述总分确定与所述第二面部表情特征相对应的控制标签。
2.根据权利要求 1所述的方法,其特征在于,对所述面部图像进行分析,提取出第一面部表情特征包括:
基于预设分区规则将所述面部图像划分为两个或两个以上的子图像区域;
提取每个子图像区域对应的第三面部表情特征。
3.根据权利要求2所述的方法,其特征在于,将所述第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,在所述预设表情识别模型库中提取出与所述第一面部表情特征相匹配的第二面部表情特征包括:
将所述每个子图像区域对应的第三面部表情特征,分别与预设表情识别模型库中存储的表情特征进行比对,在所述预设表情识别模型库中提取出与每个子图像区域对应的第三面部表情特征相匹配的子表情特征,其中所述子表情特征的集合构成与所述第一面部表情特征相匹配的表情特征。
4.根据权利要求3所述的方法,其特征在于,所述预设分区规则包括:按面部肌肉线条和五官进行分区的规则。
5.一种电子设备的控制系统,其特征在于,包括:
获取模块,用于获取面部图像;
分析模块,用于对所述面部图像进行分析,提取出第一面部表情特征;
匹配模块,用于将所述第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,在所述预设表情识别模型库中提取出与所述第一面部表情特征相匹配的第二面部表情特征;
调取模块,用于基于所述第二面部表情特征,调取与所述第二面部表情特征相对应的控制标签;
生成模块,用于基于所述控制标签生成控制目标电子设备的控制指令,所述目标电子设备为待控制电子设备;
所述第一面部表情特征包括:所述面部图像的多个子区域中每个子区域所对应的第三面部表情特征;所述与所述第一面部表情特征相匹配的第二面部表情特征包括:所述预设表情识别模型库中所存储的与各个所述第三面部表情特征中的每个第三面部表情特征相匹配的表情特征;
则所述调取模块包括:评分单元,用于分别对与每个子图像区域对应的第三面部表情特征相匹配的子表情特征进行评分;计算单元,用于根据所述与每个子图像区域对应的第三面部表情特征相匹配的子表情特征的评分,计算出所述第二面部表情特征的总分;确定单元,用于基于所述总分确定与所述第二面部表情特征相对应的控制标签。
6.根据权利要求5所述的系统,其特征在于,所述分析模块包括:
划分单元,用于基于预设分区规则将所述面部图像划分为两个或两个以上的子图像区域;
提取单元,用于提取每个子图像区域对应的第三面部表情特征。
7.根据权利要求6所述的系统,其特征在于,所述匹配模块包括:
比对单元,用于将所述每个子图像区域对应的第三面部表情特征,分别与预设表情识别模型库中存储的表情特征进行比对,在所述预设表情识别模型库中提取出与每个子图像区域对应的第三面部表情特征相匹配的子表情特征,其中所述子表情特征的集合构成与所述第一面部表情特征相匹配的表情特征。
8.根据权利要求7所述的系统,其特征在于,所述预设分区规则包括:按面部肌肉线条和五官进行分区的规则。
9.一种电子设备,其特征在于,包括:控制系统;其中:
所述控制系统包括:
获取模块,用于获取面部图像;
分析模块,用于对所述面部图像进行分析,提取出第一面部表情特征;
匹配模块,用于将所述第一面部表情特征与预设表情识别模型库中存储的表情特征进行匹配,在所述预设表情识别模型库中提取出与所述第一面部表情特征相匹配的第二面部表情特征;
调取模块,用于基于所述第二面部表情特征,调取与所述第二面部表情特征相对应的控制标签;
生成模块,用于基于所述控制标签生成控制目标电子设备的控制指令,所述目标电子设备为待控制电子设备;
所述第一面部表情特征包括:所述面部图像的多个子区域中每个子区域所对应的第三面部表情特征;所述与所述第一面部表情特征相匹配的第二面部表情特征包括:预设表情识别模型库中所存储的与各个所述第三面部表情特征中的每个第三面部表情特征相匹配的表情特征;
则所述调取模块包括:评分单元,用于分别对与每个子图像区域对应的第三面部表情特征相匹配的子表情特征进行评分;计算单元,用于根据所述与每个子图像区域对应的第三面部表情特征相匹配的子表情特征的评分,计算出所述第二面部表情特征的总分;确定单元,用于基于所述总分确定与所述第二面部表情特征相对应的控制标签。
CN201710048442.7A 2017-01-20 2017-01-20 一种电子设备的控制方法、系统及电子设备 Active CN106775360B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710048442.7A CN106775360B (zh) 2017-01-20 2017-01-20 一种电子设备的控制方法、系统及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710048442.7A CN106775360B (zh) 2017-01-20 2017-01-20 一种电子设备的控制方法、系统及电子设备

Publications (2)

Publication Number Publication Date
CN106775360A CN106775360A (zh) 2017-05-31
CN106775360B true CN106775360B (zh) 2018-11-30

Family

ID=58943287

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710048442.7A Active CN106775360B (zh) 2017-01-20 2017-01-20 一种电子设备的控制方法、系统及电子设备

Country Status (1)

Country Link
CN (1) CN106775360B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107329760A (zh) * 2017-06-30 2017-11-07 珠海市魅族科技有限公司 信息提示方法、装置、终端及存储介质
CN107665074A (zh) * 2017-10-18 2018-02-06 维沃移动通信有限公司 一种色温调节方法及移动终端
CN108626854B (zh) * 2018-04-25 2019-11-12 珠海格力电器股份有限公司 空调的控制方法和装置
CN108985152A (zh) * 2018-06-04 2018-12-11 珠海格力电器股份有限公司 一种动态面部表情的识别方法及装置
CN109522059B (zh) * 2018-11-28 2023-01-06 广东小天才科技有限公司 一种程序唤醒方法及系统
CN109829996A (zh) * 2018-12-15 2019-05-31 深圳壹账通智能科技有限公司 应用签到方法、装置、计算机装置及存储介质
CN109840485B (zh) * 2019-01-23 2021-10-08 科大讯飞股份有限公司 一种微表情特征提取方法、装置、设备及可读存储介质
CN109978996B (zh) * 2019-03-28 2021-06-11 北京达佳互联信息技术有限公司 生成表情三维模型的方法、装置、终端及存储介质
CN110662129A (zh) * 2019-09-26 2020-01-07 联想(北京)有限公司 一种控制方法及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103309449A (zh) * 2012-12-17 2013-09-18 广东欧珀移动通信有限公司 基于面部表情识别自动切换壁纸的移动终端及其方法
CN105528080A (zh) * 2015-12-21 2016-04-27 魅族科技(中国)有限公司 一种对移动终端进行控制的方法及装置
CN105677025A (zh) * 2015-12-31 2016-06-15 宇龙计算机通信科技(深圳)有限公司 一种终端应用的启动方法、装置及终端
CN106126017A (zh) * 2016-06-20 2016-11-16 北京小米移动软件有限公司 智能识别方法、装置和终端设备
CN106257489A (zh) * 2016-07-12 2016-12-28 乐视控股(北京)有限公司 表情识别方法及系统
CN106778545A (zh) * 2016-11-29 2017-05-31 重庆重智机器人研究院有限公司 表情特征提取方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103309449A (zh) * 2012-12-17 2013-09-18 广东欧珀移动通信有限公司 基于面部表情识别自动切换壁纸的移动终端及其方法
CN105528080A (zh) * 2015-12-21 2016-04-27 魅族科技(中国)有限公司 一种对移动终端进行控制的方法及装置
CN105677025A (zh) * 2015-12-31 2016-06-15 宇龙计算机通信科技(深圳)有限公司 一种终端应用的启动方法、装置及终端
CN106126017A (zh) * 2016-06-20 2016-11-16 北京小米移动软件有限公司 智能识别方法、装置和终端设备
CN106257489A (zh) * 2016-07-12 2016-12-28 乐视控股(北京)有限公司 表情识别方法及系统
CN106778545A (zh) * 2016-11-29 2017-05-31 重庆重智机器人研究院有限公司 表情特征提取方法及装置

Also Published As

Publication number Publication date
CN106775360A (zh) 2017-05-31

Similar Documents

Publication Publication Date Title
CN106775360B (zh) 一种电子设备的控制方法、系统及电子设备
CN108525305B (zh) 图像处理方法、装置、存储介质及电子设备
TWI484422B (zh) 用以提供姿態分析之方法、裝置和電腦程式產品
CN109637518A (zh) 虚拟主播实现方法及装置
CN107004073B (zh) 一种面部验证的方法和电子设备
CN109034063A (zh) 人脸特效的多人脸跟踪方法、装置和电子设备
CN102938815A (zh) 手机情景模式切换方法及系统
CN102868934A (zh) 基于智能电视的视频对象信息检索方法及装置
CN107871001B (zh) 音频播放方法、装置、存储介质及电子设备
CN109086276B (zh) 数据翻译方法、装置、终端及存储介质
CN103716456A (zh) 一种基于人脸特征信息的手机解锁方法
CN107809654A (zh) 电视机系统及电视机控制方法
CN103019369A (zh) 基于脸部表情播放文档的电子装置及方法
CN108279777A (zh) 脑电波控制方法及相关设备
CN110349577A (zh) 人机交互方法、装置、存储介质及电子设备
CN112149599B (zh) 表情追踪方法、装置、存储介质和电子设备
JP6051991B2 (ja) 信号処理装置、信号処理方法、及び信号処理プログラム
CN107025041A (zh) 指纹录入方法及终端
CN110197171A (zh) 基于用户的动作信息的交互方法、装置和电子设备
CN111459262A (zh) 智能音箱、手势处理方法、装置及电子设备
CN105139038A (zh) 肌电信号模式识别方法
CN108391049A (zh) 拍摄控制方法及相关设备
CN110347247A (zh) 人机交互方法、装置、存储介质及电子设备
CN109871128B (zh) 一种题型识别方法及装置
CN112887782A (zh) 图像输出方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant