CN108509890B - 用于提取信息的方法和装置 - Google Patents

用于提取信息的方法和装置 Download PDF

Info

Publication number
CN108509890B
CN108509890B CN201810257842.3A CN201810257842A CN108509890B CN 108509890 B CN108509890 B CN 108509890B CN 201810257842 A CN201810257842 A CN 201810257842A CN 108509890 B CN108509890 B CN 108509890B
Authority
CN
China
Prior art keywords
target user
face
face image
image
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810257842.3A
Other languages
English (en)
Other versions
CN108509890A (zh
Inventor
杨锐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201810257842.3A priority Critical patent/CN108509890B/zh
Publication of CN108509890A publication Critical patent/CN108509890A/zh
Application granted granted Critical
Publication of CN108509890B publication Critical patent/CN108509890B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本申请实施例公开了用于提取信息的方法和装置。该方法的一具体实施方式包括:获取目标用户的第一脸部图像;基于第一脸部图像,确定目标用户是否面对目标物体;响应于确定目标用户面对目标物体,获取目标用户的第二脸部图像,以及基于第二脸部图像对目标用户进行面部动作识别,得到用户面部动作信息;响应于确定用户面部动作信息符合预设条件,提取预设的、针对目标物体的控制信息。该实施方式提高了信息处理的准确性和灵活性。

Description

用于提取信息的方法和装置
技术领域
本申请实施例涉及计算机技术领域,具体涉及用于提取信息的方法和装置。
背景技术
机器视觉技术,是一门涉及人工智能、神经生物学、心理物理学、计算机科学、图像处理、模式识别等诸多领域的交叉学科。机器视觉技术主要用计算机来模拟人的视觉功能,从客观事物的图像中提取信息,进行处理并加以理解,最终用于实际检测、测量和控制。目前,机器视觉技术被广泛地应用于各个领域,例如智能家电领域、自动驾驶领域、残疾人辅助领域等。
发明内容
本申请实施例提出了用于提取信息的方法和装置。
第一方面,本申请实施例提供了一种用于提取信息的方法,该方法包括:获取目标用户的第一脸部图像;基于第一脸部图像,确定目标用户是否面对目标物体;响应于确定目标用户面对目标物体,获取目标用户的第二脸部图像,以及基于第二脸部图像对目标用户进行面部动作识别,得到用户面部动作信息;响应于确定用户面部动作信息符合预设条件,提取预设的、针对目标物体的控制信息。
在一些实施例中,基于第一脸部图像,确定目标用户是否面对目标物体,包括:对第一脸部图像进行人脸姿态估计,确定第一脸部图像表征的目标用户的正面姿态角,其中,正面姿态角用于表征目标用户的人脸的正面朝向相对于拍摄得到第一脸部图像的设备的偏转程度;基于正面姿态角确定目标用户是否面对目标物体。
在一些实施例中,对第一脸部图像进行人脸姿态估计,确定目标用户的正面姿态角,包括:将第一脸部图像输入预先训练的人脸识别模型,得到目标用户的正面姿态角,其中,人脸识别模型用于表征第一脸部图像与第一脸部图像所表征的人脸的正面姿态角的对应关系。
在一些实施例中,基于正面姿态角确定目标用户是否面对目标物体,包括:确定正面姿态角是否在预设角度范围内;响应于确定正面姿态角在预设角度范围内,确定目标用户面对目标物体。
在一些实施例中,基于第一脸部图像,确定目标用户是否面对目标物体,包括:从第一脸部图像中提取眼部图像;针对眼部图像进行视线估计,确定目标用户的双眼视线交点位置信息;响应于确定双眼视线交点位置信息表征双眼视线交点位于目标物体所在的位置,确定目标用户面对目标物体。
在一些实施例中,针对眼部图像进行视线估计,确定目标用户的双眼视线交点的位置,包括:将眼部图像输入预先训练的视线估计模型,得到目标用户的双眼视线交点位置信息,其中,视线估计模型用于表征眼部图像与双眼视线交点的位置的对应关系。
在一些实施例中,视线估计模型通过如下步骤训练得到:获取多个样本眼部图像和多个样本眼部图像中的每个样本眼部图像对应的样本双眼视线交点位置信息;利用机器学习方法,将多个样本眼部图像中的每个样本眼部图像作为输入,将输入的样本眼部图像对应的样本双眼视线交点位置信息作为输出,训练得到视线估计模型。
第二方面,本申请实施例提供了一种用于提取信息的装置,该装置包括:获取单元,配置用于获取目标用户的第一脸部图像;确定单元,配置用于基于第一脸部图像,确定目标用户是否面对目标物体;识别单元,配置用于响应于确定目标用户面对目标物体,获取目标用户的第二脸部图像,以及基于第二脸部图像对目标用户进行面部动作识别,得到用户面部动作信息;提取单元,配置用于响应于确定用户面部动作信息符合预设条件,提取预设的、针对目标物体的控制信息。
在一些实施例中,确定单元包括:第一估计模块,配置用于对第一脸部图像进行人脸姿态估计,确定第一脸部图像表征的目标用户的正面姿态角,其中,正面姿态角用于表征目标用户的人脸的正面朝向相对于拍摄得到第一脸部图像的设备的偏转程度;第一确定模块,配置用于基于正面姿态角确定目标用户是否面对目标物体。
在一些实施例中,第一估计模块进一步配置用于:将第一脸部图像输入预先训练的人脸识别模型,得到目标用户的正面姿态角,其中,人脸识别模型用于表征第一脸部图像与第一脸部图像所表征的人脸的正面姿态角的对应关系。
在一些实施例中,第一确定模块包括:第一确定子模块,配置用于确定正面姿态角是否在预设角度范围内;第二确定子模块,配置用于响应于确定正面姿态角在预设角度范围内,确定目标用户面对目标物体。
在一些实施例中,确定单元包括:提取模块,配置用于从第一脸部图像中提取眼部图像;第二估计模块,配置用于针对眼部图像进行视线估计,确定目标用户的双眼视线交点位置信息;第二确定模块,配置用于响应于确定双眼视线交点位置信息表征双眼视线交点位于目标物体所在的位置,确定目标用户面对目标物体。
在一些实施例中,第二估计模块进一步配置用于:将眼部图像输入预先训练的视线估计模型,得到目标用户的双眼视线交点位置信息,其中,视线估计模型用于表征眼部图像与双眼视线交点的位置的对应关系。
在一些实施例中,视线估计模型通过如下步骤训练得到:获取多个样本眼部图像和多个样本眼部图像中的每个样本眼部图像对应的样本双眼视线交点位置信息;利用机器学习方法,将多个样本眼部图像中的每个样本眼部图像作为输入,将输入的样本眼部图像对应的样本双眼视线交点位置信息作为输出,训练得到视线估计模型。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于提取信息的方法和装置,通过首先获取目标用户的第一脸部图像,再基于第一脸部图像确定目标用户是否面对目标物体,如果面对目标物体,再获取第二脸部图像,并识别目标用户的面部动作,最后响应于识别出的面部动作信息符合预设条件,提取针对目标物体的控制信息,从而提高了信息处理的准确性和灵活性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的用于提取信息的方法的一个实施例的流程图;
图3是根据本申请的用于提取信息的方法的一个正面姿态角的示例性示意图;
图4是根据本申请的用于提取信息的方法的一个应用场景的示意图;
图5是根据本申请的用于提取信息的方法的又一个实施例的流程图;
图6是根据本申请的用于提取信息的装置的一个实施例的结构示意图;
图7是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请实施例的用于提取信息的方法或用于提取信息的装置的示例性系统架构100。
如图1所示,系统架构100可以包括控制设备101、被控设备102、摄像头103。其中,控制设备101分别与被控设备102和摄像头103通信连接。上述通信连接可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以通过控制设备101对被控设备102进行控制,以使被控设备执行针对目标物体的操作。控制设备101可以是硬件,也可以是软件。当控制设备101为硬件时,可以是具有数据处理能力的各种电子设备,包括但不限于微处理芯片、智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。当控制设备101为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
被控设备102可以是根据接收的控制信息进行相应操作的各种电子设备,例如机械臂、手机等。
需要说明的是,本申请实施例所提供的用于提取信息的方法一般由控制设备101执行,相应地,用于提取信息的装置一般设置于控制设备101中。
应该理解,图1中的控制设备、被控设备和摄像头的数目仅仅是示意性的。根据实现需要,可以具有任意数目的控制设备、被控设备和摄像头。
继续参考图2,示出了根据本申请的用于提取信息的方法的一个实施例的流程200。该用于提取信息的方法,包括以下步骤:
步骤201,获取目标用户的第一脸部图像。
在本实施例中,用于提取信息的方法的执行主体(例如图1所示的控制设备)可以通过有线连接方式或者无线连接方式从远程或从本地获取目标用户的第一脸部图像。其中,第一脸部图像可以是如图1所示的摄像头拍摄得到的目标用户的脸部图像。目标用户可以是上述摄像头的拍摄范围内出现的人员。
步骤202,基于第一脸部图像,确定目标用户是否面对目标物体。
在本实施例中,基于步骤201中得到的第一脸部图像,上述执行主体可以基于第一脸部图像,确定目标用户是否面对目标物体。其中,目标物体可以是预先放置在指定位置的物体,目标物体可以是具有数据收发功能的电子设备(例如手机、平板电脑等),也可以是其他物体(例如水杯、书籍等)。上述执行主体可以利用各种方法(例如人脸姿态估计的方法、确定人眼视线交点的方法等),确定目标用户是否面对目标物体。
在本实施例的一些可选的实现方式中,上述执行主体可以按照如下步骤确定目标用户是否面对目标物体:
首先,对第一脸部图像进行人脸姿态估计,确定第一脸部图像表征的目标用户的正面姿态角。其中,正面姿态角用于表征目标用户的人脸的正面朝向相对于拍摄得到第一脸部图像的设备的偏转程度。具体地,正面姿态角可以包括俯仰角(pitch)、偏航角(yaw)、翻滚角(roll)三种角度,分别代表上下翻转,左右翻转,平面内旋转的角度。如图3所示,x轴、y轴、z轴是直角坐标系的三个轴。其中,z轴可以为摄像头301的光轴,y轴可以为在人的头部不发生侧转的状态下、通过人的头顶轮廓的中心点且与水平面垂直的直线。俯仰角可以为人脸绕x轴旋转的角度,偏航角可以为人脸绕y轴旋转的角度,翻滚角可以为人脸绕z轴旋转的角度。在图3中的直角坐标系中,则当人的头部转动时,确定以该直角坐标系的原点为端点、且通过人的两个眼球中心点的连线的中点的射线,该射线的方向可以为人脸的正面朝向,该射线分别与x轴、y轴、z轴的角度可以确定为正面姿态角。
然后,基于正面姿态角确定目标用户是否面对目标物体。
在本实施例的一些可选的实现方式中,上述执行主体可以按照如下步骤对第一脸部图像进行人脸姿态估计,确定目标用户的正面姿态角:将第一脸部图像输入预先训练的人脸识别模型,得到目标用户的正面姿态角。其中,人脸识别模型用于表征第一脸部图像与第一脸部图像所表征的人脸的正面姿态角的对应关系。上述人脸识别模型可以是技术人员基于对大量的脸部图像和正面姿态角的统计而预先制定的、存储有多个脸部图像与正面姿态角的对应关系的对应关系表。上述人脸识别模型也可以是基于现有的人工神经网络(例如卷积神经网络)进行有监督地训练而得到的人脸识别模型。
可选地,上述人脸识别模型可以按照如下步骤训练得到:首先,获取多个样本脸部图像和多个样本脸部图像中的每个样本脸部图像对应的样本正面姿态角。然后,利用机器学习方法,将多个样本脸部图像中的每个样本脸部图像作为输入,将输入的样本脸部图像对应的样本正面姿态角作为输出,训练得到人脸识别模型。上述人脸识别模型可以是对初始化的人工神经网络进行训练得到的模型。初始化的人工神经网络可以是未经训练的人工神经网络或未训练完成的人工神经网络。初始化的人工神经网络的各层可以设置有初始参数,参数在人工神经网络的训练过程中可以被不断地调整。初始化的人工神经网络可以是各种类型的未经训练或未训练完成的人工神经网络。例如,初始化的人工神经网络可以是未经训练的卷积神经网络(例如可以包括卷积层、池化层、预设大小的卷积核等)。
在本实施例的一些可选的实现方式中,上述执行主体可以基于正面姿态角,按照如下步骤确定目标用户是否面对目标物体:首先,确定正面姿态角是否在预设角度范围内。然后,响应于确定正面姿态角在预设角度范围内,确定目标用户面对目标物体。例如,根据目标物体的放置位置信息(例如目标物体在图3所示的直角坐标系中所在位置的坐标值)和上述摄像头的安装位置信息(例如摄像头在图3所示的直角坐标系中所在位置的坐标值),可以预先估算出摄像头拍摄的人脸的人脸姿态角的预设角度范围,如果人脸姿态角在该预设角度范围内,则确定人脸面对目标物体。
可选地,上述执行主体可以获取预设的目标物体的放置位置信息,以及基于所确定正面姿态角和上述放置位置信息,确定目标用户是否面对目标物体。其中,上述放置位置信息可以用于表征目标物体所占据的三维空间的位置和大小。例如,放置位置信息可以为在以图3所示的直角坐标系中的三维坐标信息(例如当目标设备为立方体时,三维坐标信息可以包括立方体的各个角点的坐标)。具体地,上述执行主体可以确定用于指示目标用户的正面朝向的射线是否通过上述放置位置信息表征的三维空间。当上述执行主体确定用于指示目标用户的正面朝向的射线通过上述放置位置信息表征的三维空间时,则确定目标用户面对目标物体。
步骤203,响应于确定目标用户面对目标物体,获取目标用户的第二脸部图像,以及基于第二脸部图像对目标用户进行面部动作识别,得到用户面部动作信息。
在本实施例中,上述执行主体可以首先响应于确定目标用户面对目标物体,获取目标用户的第二脸部图像。其中,第二脸部图像可以是上述摄像头再次对目标用户进行拍摄得到的脸部图像。并且,第二脸部图像可以是单幅的静态图像,也可以是由多幅图像组成的图像序列。然后,上述执行主体基于第二脸部图像对目标用户进行面部动作识别,得到用户面部动作信息。具体地,上述执行主体可以按照现有的各种面部动作识别方法,对目标用户进行面部动作识别。
作为示例,上述面部动作识别方法可以包括但不限于以下至少一种:基于模板的匹配方法、基于神经网络的方法、基于概率模型的方法。上述执行主体可以首先从第二脸部图像中提取面部动作特征(例如面部形状特征,面部表情特征)向量,然后基于现有的分类方法(例如支持向量机),对提取的面部动作特征数据分类,得到用户面部动作信息。也可以将上述面部动作特征向量确定为用户面部动作信息。
需要说明的是,上述面部动作识别方法是目前广泛研究和应用的公知技术,在此不再赘述。
步骤204,响应于确定用户面部动作信息符合预设条件,提取预设的、针对目标物体的控制信息。
在本实施例中,上述执行主体可以响应于确定用户面部动作信息符合预设条件,提取预设的、针对目标物体的控制信息。其中,面部动作信息的形式可以是表征目标用户的面部动作(例如眨眼、张嘴等)的类别信息或特征向量。特征向量可以是从第二脸部图像中提取的用于表征第二脸部图像的颜色特征、形状特征等的向量。预设条件可以是用户面部动作信息与预设的面部信息集合中的面部信息相同或相似度大于预设的相似度阈值。上述执行主体可以基于现有的计算相似度的方法(例如计算余弦相似度的方法、计算皮尔森相关系数的方法),得到所提取的至少一个关键词中的关键词与预设的关键词集合中的关键词的相似度大于预设的相似度。
作为示例,假设面部动作信息是表征目标用户眨一下眼的信息“001”,预设的面部动作信息集合中包括信息“001”,则确定用户面部动作信息符合预设条件。随后提取针对信息“001”的控制信息。
上述控制信息可以是使如图1所示的被控设备执行预设的操作的信息。例如,假设被控设备为机械臂,目标物体为放置在预设位置的杯子,则上述执行主体在提取控制信息后,可以将控制信息发送至机械臂,机械臂收到控制信息后,执行预设的、将杯子抓起并放置在指定位置的动作。
继续参见图4,图4是根据本实施例的用于提取信息的方法的应用场景的一个示意图。在图4的应用场景中,摄像头402首先拍摄得到目标用户的第一脸部图像403。然后,摄像头402将第一脸部图像403发送至控制设备401。随后,控制设备401根据第一脸部图像402进行人脸姿态估计,确定目标用户面对目标物体(例如杯子)。接着,控制设备401获取摄像头402对目标用户拍摄得到的第二脸部图像404,以及基于第二脸部图像404对目标用户进行面部动作识别,得到用户面部动作信405(例如表征目标用户张嘴的信息)。控制设备401确定用户面部动作信息405与预设的面部动作信息一致,提取针对目标物体的控制信息406。控制设备401可以将控制信息406发送至被控设备407(例如机械臂),被控设备407接收到控制信息406后执行相应的操作(例如机械臂将杯子移动至指定位置)。
本申请的上述实施例提供的方法,通过首先获取目标用户的第一脸部图像,再基于第一脸部图像确定目标用户是否面对目标物体,如果面对目标物体,再获取第二脸部图像,并识别目标用户的面部动作,最后响应于识别出的面部动作信息符合预设条件,提取针对目标物体的控制信息,从而提高了信息处理的准确性和灵活性。
进一步参考图5,其示出了用于提取信息的方法的又一个实施例的流程500。该用于提取信息的方法的流程500,包括以下步骤:
步骤501,获取目标用户的第一脸部图像。
在本实施例中,步骤501与图2对应实施例中的步骤201基本一致,这里不再赘述。
步骤502,从第一脸部图像中提取眼部图像。
在本实施例中,用于提取信息的方法的执行主体(例如图1所示的控制设备)可以从第一脸部图像中提取眼部图像。其中,上述执行主体可以利用现有的方法(例如基于脸部特征点的方法、基于神经网络的方法)提取眼部图像。
步骤503,针对眼部图像进行视线估计,确定目标用户的双眼视线交点位置信息。
在本实施例中,上述执行主体可以利用各种方法(例如基于硬件设备的视线检测方法、基于光学设备的视线检测方法、基于图像处理的视线检测方法等)针对上述眼部图像进行视线估计。上述双眼视线交点位置信息可以用于表征目标用户的双眼视线的交点(及目标用户注视的目标位置)。双眼视线交点位置信息可以是目标用户的双眼视线的交点在如图3所示的直角坐标系中的坐标值。
在本实施例的一些可选的实现方式中,上述执行主体可以按照如下步骤进行视线估计:将眼部图像输入预先训练的视线估计模型,得到目标用户的双眼视线交点位置信息。其中,视线估计模型用于表征眼部图像与双眼视线交点的位置的对应关系。上述视线估计模型可以是技术人员基于对大量的眼部图像和双眼视线交点的位置信息的统计而预先制定的、存储有多个眼部图像与双眼视线交点位置信息的对应关系的对应关系表。上述视线估计模型也可以是基于现有的人工神经网络(例如卷积神经网络)进行有监督地训练而得到的模型。
可选地,上述视线估计模型可以按照如下步骤训练得到:首先,获取多个样本眼部图像和多个样本眼部图像中的每个样本眼部图像对应的样本双眼视线交点位置信息。然后,利用机器学习方法,将多个样本眼部图像中的每个样本眼部图像作为输入,将输入的样本眼部图像对应的样本双眼视线交点位置信息作为输出,训练得到视线估计模型。上述视线估计模型可以是对初始化的人工神经网络进行训练得到的模型。初始化的人工神经网络可以是未经训练的人工神经网络或未训练完成的人工神经网络。初始化的人工神经网络的各层可以设置有初始参数,参数在人工神经网络的训练过程中可以被不断地调整。初始化的人工神经网络可以是各种类型的未经训练或未训练完成的人工神经网络。例如,初始化的人工神经网络可以是未经训练的卷积神经网络(例如可以包括卷积层、池化层、预设大小的卷积核等)。
步骤504,响应于确定双眼视线交点位置信息表征双眼视线交点位于目标物体所在的位置,确定目标用户面对目标物体。
在本实施例中,上述执行主体可以响应于确定双眼视线交点位置信息表征双眼视线交点位于目标物体所在的位置,确定目标用户面对目标物体。上述执行主体可以首先获取目标物体的位置信息,然后确定双眼视线交点位置信息表征的双眼视线交点是否位于目标物体的位置信息表征的目标位置占据的三维空间范围内。如果上述执行主体确定双眼视线交点位于上述三维空间范围内,则确定目标用户面对目标物体。
步骤505,响应于确定目标用户面对目标物体,获取目标用户的第二脸部图像,以及基于第二脸部图像对目标用户进行面部动作识别,得到用户面部动作信息。
在本实施例中,步骤505与图2对应实施例中的步骤203基本一致,这里不再赘述。
步骤506,响应于确定用户面部动作信息符合预设条件,提取预设的、针对目标物体的控制信息。
在本实施例中,步骤506与图2对应实施例中的步骤204基本一致,这里不再赘述。
从图5中可以看出,与图2对应的实施例相比,本实施例中的用于提取信息的方法的流程500突出了提取第一脸部图像中的眼部图像以及基于眼部图像进行视线估计的步骤,由此可以进一步提高信息处理的灵活性。
进一步参考图6,作为对上述各图所示方法的实现,本申请提供了一种用于提取信息的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的用于提取信息的装置600包括:获取单元601,配置用于获取目标用户的第一脸部图像;确定单元602,配置用于基于第一脸部图像,确定目标用户是否面对目标物体;识别单元603,配置用于响应于确定目标用户面对目标物体,获取目标用户的第二脸部图像,以及基于第二脸部图像对目标用户进行面部动作识别,得到用户面部动作信息;提取单元604,配置用于响应于确定用户面部动作信息符合预设条件,提取预设的、针对目标物体的控制信息。
在本实施例中,上述获取单元601可以通过有线连接方式或者无线连接方式从远程或从本地获取目标用户的第一脸部图像。其中,第一脸部图像可以是如图1所示的摄像头拍摄得到的目标用户的脸部图像。目标用户可以是上述摄像头的拍摄范围内出现的人员。
在本实施例中,基于获取单元601得到的第一脸部图像,上述确定单元602可以基于第一脸部图像,确定目标用户是否面对目标物体。其中,目标物体可以是预先放置在指定位置的物体,目标物体可以是具有数据收发功能的电子设备(例如手机、平板电脑等),也可以是其他物体(例如水杯、书籍等)。上述上述确定单元602可以利用各种方法(例如人脸姿态估计的方法、确定人眼视线交点的方法等),确定目标用户是否面对目标物体。
在本实施例中,上述识别单元603可以首先响应于确定目标用户面对目标物体,获取目标用户的第二脸部图像。其中,第二脸部图像可以是上述摄像头再次对目标用户进行拍摄得到的脸部图像。并且,第二脸部图像可以是单幅的静态图像,也可以是由多幅图像组成的图像序列。然后,上述识别单元603基于第二脸部图像对目标用户进行面部动作识别,得到用户面部动作信息。具体地,上述识别单元603可以按照现有的各种面部动作识别方法,对目标用户进行面部动作识别。
在本实施例中,上述提取单元604可以响应于确定用户面部动作信息符合预设条件,提取预设的、针对目标物体的控制信息。其中,面部动作信息的形式可以是表征目标用户的面部动作(例如眨眼、张嘴等)的类别信息或特征向量。特征向量可以是从第二脸部图像中提取的用于表征第二脸部图像的颜色特征、形状特征等的向量。预设条件可以是用户面部动作信息与预设的面部信息集合中的面部信息相同或相似度大于预设的相似度阈值。上述提取单元604可以基于现有的计算相似度的方法(例如计算余弦相似度的方法、计算皮尔森相关系数的方法),得到所提取的至少一个关键词中的关键词与预设的关键词集合中的关键词的相似度大于预设的相似度。
在本实施例的一些可选的实现方式中,确定单元602可以包括:第一估计模块(图中未示出),配置用于对第一脸部图像进行人脸姿态估计,确定第一脸部图像表征的目标用户的正面姿态角,其中,正面姿态角用于表征目标用户的人脸的正面朝向相对于拍摄得到第一脸部图像的设备的偏转程度;第一确定模块(图中未示出),配置用于基于正面姿态角确定目标用户是否面对目标物体。
在本实施例的一些可选的实现方式中,第一估计模块可以进一步配置用于:将第一脸部图像输入预先训练的人脸识别模型,得到目标用户的正面姿态角,其中,人脸识别模型用于表征第一脸部图像与第一脸部图像所表征的人脸的正面姿态角的对应关系。
在本实施例的一些可选的实现方式中,第一确定模块可以包括:第一确定子模块(图中未示出),配置用于确定正面姿态角是否在预设角度范围内;第二确定子模块(图中未示出),配置用于响应于确定正面姿态角在预设角度范围内,确定目标用户面对目标物体。
在本实施例的一些可选的实现方式中,确定单元602可以包括:提取模块(图中未示出),配置用于从第一脸部图像中提取眼部图像;第二估计模块(图中未示出),配置用于针对眼部图像进行视线估计,确定目标用户的双眼视线交点位置信息;第二确定模块(图中未示出),配置用于响应于确定双眼视线交点位置信息表征双眼视线交点位于目标物体所在的位置,确定目标用户面对目标物体。
在本实施例的一些可选的实现方式中,第二估计模块可以进一步配置用于:将眼部图像输入预先训练的视线估计模型,得到目标用户的双眼视线交点位置信息,其中,视线估计模型用于表征眼部图像与双眼视线交点的位置的对应关系。
在本实施例的一些可选的实现方式中,视线估计模型可以通过如下步骤训练得到:获取多个样本眼部图像和多个样本眼部图像中的每个样本眼部图像对应的样本双眼视线交点位置信息;利用机器学习方法,将多个样本眼部图像中的每个样本眼部图像作为输入,将输入的样本眼部图像对应的样本双眼视线交点位置信息作为输出,训练得到视线估计模型。
本申请的上述实施例提供的装置,通过获取单元首先获取目标用户的第一脸部图像,再确定单元基于第一脸部图像确定目标用户是否面对目标物体,如果面对目标物体,再识别单元获取第二脸部图像,并识别目标用户的面部动作,最后提取单元响应于识别出的面部动作信息符合预设条件,提取针对目标物体的控制信息,从而提高了信息处理的准确性和灵活性。
下面参考图7,其示出了适于用来实现本申请实施例的电子设备(例如控制设备)的计算机系统700的结构示意图。图7示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图7所示,计算机系统700包括中央处理单元(CPU)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有系统700操作所需的各种程序和数据。CPU 701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
以下部件连接至I/O接口705:包括键盘、鼠标等的输入部分706;包括诸如液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被中央处理单元(CPU)701执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读介质或者是上述两者的任意组合。计算机可读介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、确定单元、识别单元和提取单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取目标用户的第一脸部图像的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取目标用户的第一脸部图像;基于第一脸部图像,确定目标用户是否面对目标物体;响应于确定目标用户面对目标物体,获取目标用户的第二脸部图像,以及基于第二脸部图像对目标用户进行面部动作识别,得到用户面部动作信息;响应于确定用户面部动作信息符合预设条件,提取预设的、针对目标物体的控制信息。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (14)

1.一种用于提取信息的方法,包括:
获取目标用户的第一脸部图像;
基于所述第一脸部图像,确定所述目标用户是否面对目标物体;
响应于确定所述目标用户面对所述目标物体,获取所述目标用户的第二脸部图像,以及基于所述第二脸部图像对所述目标用户进行面部动作识别,得到用户面部动作信息;
响应于确定所述用户面部动作信息符合预设条件,提取预设的、针对所述目标物体的控制信息;
其中,所述基于所述第一脸部图像,确定所述目标用户是否面对目标物体,包括:
从所述第一脸部图像中提取眼部图像;
针对所述眼部图像进行视线估计,确定所述目标用户的双眼视线交点位置信息;
获取目标物体的位置信息;
响应于确定所述双眼视线交点位置信息表征的双眼视线交点位于所述位置信息表征的目标位置占据的三维空间范围内,确定所述目标用户面对所述目标物体。
2.根据权利要求1所述的方法,其中,所述基于所述第一脸部图像,确定所述目标用户是否面对目标物体,包括:
对所述第一脸部图像进行人脸姿态估计,确定所述第一脸部图像表征的所述目标用户的正面姿态角,其中,所述正面姿态角用于表征所述目标用户的人脸的正面朝向相对于拍摄得到所述第一脸部图像的设备的偏转程度;
基于所述正面姿态角确定所述目标用户是否面对目标物体。
3.根据权利要求2所述的方法,其中,所述对所述第一脸部图像进行人脸姿态估计,确定所述目标用户的正面姿态角,包括:
将所述第一脸部图像输入预先训练的人脸识别模型,得到所述目标用户的正面姿态角,其中,所述人脸识别模型用于表征第一脸部图像与第一脸部图像所表征的人脸的正面姿态角的对应关系。
4.根据权利要求2或3所述的方法,其中,所述基于所述正面姿态角确定所述目标用户是否面对目标物体,包括:
确定所述正面姿态角是否在预设角度范围内;
响应于确定所述正面姿态角在预设角度范围内,确定所述目标用户面对目标物体。
5.根据权利要求1所述的方法,其中,所述针对所述眼部图像进行视线估计,确定所述目标用户的双眼视线交点的位置,包括:
将所述眼部图像输入预先训练的视线估计模型,得到所述目标用户的双眼视线交点位置信息,其中,所述视线估计模型用于表征眼部图像与双眼视线交点的位置的对应关系。
6.根据权利要求5所述的方法,其中,所述视线估计模型通过如下步骤训练得到:
获取多个样本眼部图像和所述多个样本眼部图像中的每个样本眼部图像对应的样本双眼视线交点位置信息;
利用机器学习方法,将所述多个样本眼部图像中的每个样本眼部图像作为输入,将输入的样本眼部图像对应的样本双眼视线交点位置信息作为输出,训练得到视线估计模型。
7.一种用于提取信息的装置,包括:
获取单元,配置用于获取目标用户的第一脸部图像;
确定单元,配置用于基于所述第一脸部图像,确定所述目标用户是否面对目标物体;
识别单元,配置用于响应于确定所述目标用户面对所述目标物体,获取所述目标用户的第二脸部图像,以及基于所述第二脸部图像对所述目标用户进行面部动作识别,得到用户面部动作信息;
提取单元,配置用于响应于确定所述用户面部动作信息符合预设条件,提取预设的、针对所述目标物体的控制信息;
其中,所述确定单元包括:
提取模块,配置用于从所述第一脸部图像中提取眼部图像;
第二估计模块,配置用于针对所述眼部图像进行视线估计,确定所述目标用户的双眼视线交点位置信息;
获取模块,配置用于获取目标物体的位置信息
第二确定模块,配置用于响应于确定所述双眼视线交点位置信息表征的双眼视线交点位于所述位置信息表征的目标位置占据的三维空间范围内,确定所述目标用户面对所述目标物体。
8.根据权利要求7所述的装置,其中,所述确定单元包括:
第一估计模块,配置用于对所述第一脸部图像进行人脸姿态估计,确定所述第一脸部图像表征的所述目标用户的正面姿态角,其中,所述正面姿态角用于表征所述目标用户的人脸的正面朝向相对于拍摄得到所述第一脸部图像的设备的偏转程度;
第一确定模块,配置用于基于所述正面姿态角确定所述目标用户是否面对目标物体。
9.根据权利要求8所述的装置,其中,所述第一估计模块进一步配置用于:将所述第一脸部图像输入预先训练的人脸识别模型,得到所述目标用户的正面姿态角,其中,所述人脸识别模型用于表征第一脸部图像与第一脸部图像所表征的人脸的正面姿态角的对应关系。
10.根据权利要求8或9所述的装置,其中,所述第一确定模块包括:
第一确定子模块,配置用于确定所述正面姿态角是否在预设角度范围内;
第二确定子模块,配置用于响应于确定所述正面姿态角在预设角度范围内,确定所述目标用户面对目标物体。
11.根据权利要求7所述的装置,其中,所述第二估计模块进一步配置用于:将所述眼部图像输入预先训练的视线估计模型,得到所述目标用户的双眼视线交点位置信息,其中,所述视线估计模型用于表征眼部图像与双眼视线交点的位置的对应关系。
12.根据权利要求11所述的装置,其中,所述视线估计模型通过如下步骤训练得到:
获取多个样本眼部图像和所述多个样本眼部图像中的每个样本眼部图像对应的样本双眼视线交点位置信息;
利用机器学习方法,将所述多个样本眼部图像中的每个样本眼部图像作为输入,将输入的样本眼部图像对应的样本双眼视线交点位置信息作为输出,训练得到视线估计模型。
13.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
14.一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-6中任一所述的方法。
CN201810257842.3A 2018-03-27 2018-03-27 用于提取信息的方法和装置 Active CN108509890B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810257842.3A CN108509890B (zh) 2018-03-27 2018-03-27 用于提取信息的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810257842.3A CN108509890B (zh) 2018-03-27 2018-03-27 用于提取信息的方法和装置

Publications (2)

Publication Number Publication Date
CN108509890A CN108509890A (zh) 2018-09-07
CN108509890B true CN108509890B (zh) 2022-08-16

Family

ID=63378715

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810257842.3A Active CN108509890B (zh) 2018-03-27 2018-03-27 用于提取信息的方法和装置

Country Status (1)

Country Link
CN (1) CN108509890B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112083795A (zh) * 2019-06-12 2020-12-15 北京迈格威科技有限公司 对象控制方法及装置、存储介质和电子设备
CN110555426A (zh) * 2019-09-11 2019-12-10 北京儒博科技有限公司 视线检测方法、装置、设备及存储介质
CN110849317B (zh) * 2019-11-28 2022-04-29 咪咕文化科技有限公司 显示屏幕间夹角的确定方法、电子设备及存储介质
CN111660312A (zh) * 2020-06-19 2020-09-15 哈尔滨理工大学 一种基于面部表情驱动的机械臂系统
CN112527103B (zh) * 2020-11-24 2022-07-22 安徽鸿程光电有限公司 显示设备的遥控方法、装置、设备及计算机可读存储介质
CN115086095A (zh) * 2021-03-10 2022-09-20 Oppo广东移动通信有限公司 设备控制方法及相关装置
CN115953813B (zh) * 2022-12-19 2024-01-30 北京字跳网络技术有限公司 一种表情驱动方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101393597A (zh) * 2007-09-19 2009-03-25 上海银晨智能识别科技有限公司 识别人脸是否为正面脸的方法
CN102156537A (zh) * 2010-02-11 2011-08-17 三星电子株式会社 一种头部姿态检测设备及方法
CN107239139A (zh) * 2017-05-18 2017-10-10 刘国华 基于正视的人机交互方法与系统
CN107741784A (zh) * 2017-10-09 2018-02-27 济南大学 一种适用于重度瘫痪病人的娱乐交互方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101393597A (zh) * 2007-09-19 2009-03-25 上海银晨智能识别科技有限公司 识别人脸是否为正面脸的方法
CN102156537A (zh) * 2010-02-11 2011-08-17 三星电子株式会社 一种头部姿态检测设备及方法
CN107239139A (zh) * 2017-05-18 2017-10-10 刘国华 基于正视的人机交互方法与系统
CN107741784A (zh) * 2017-10-09 2018-02-27 济南大学 一种适用于重度瘫痪病人的娱乐交互方法

Also Published As

Publication number Publication date
CN108509890A (zh) 2018-09-07

Similar Documents

Publication Publication Date Title
CN108509890B (zh) 用于提取信息的方法和装置
US10068135B2 (en) Face detection, identification, and tracking system for robotic devices
Memo et al. Head-mounted gesture controlled interface for human-computer interaction
CN104978548B (zh) 一种基于三维主动形状模型的视线估计方法与装置
CN108491823B (zh) 用于生成人眼识别模型的方法和装置
Yamazoe et al. Remote gaze estimation with a single camera based on facial-feature tracking without special calibration actions
US11816880B2 (en) Face recognition method and apparatus, computer device, and storage medium
CN108135469A (zh) 使用眼睛姿态测量的眼睑形状估计
KR102526700B1 (ko) 전자 장치 및 그의 3d 이미지 표시 방법
CN109359514B (zh) 一种面向deskVR的手势跟踪识别联合策略方法
JP7146087B2 (ja) ニューラルネットワークのトレーニング方法、視線追跡方法及び装置並びに電子機器
CN111062328B (zh) 一种图像处理方法、装置及智能机器人
CN108447159A (zh) 人脸图像采集方法、装置和出入口管理系统
CN113227878A (zh) 用于视线估计的方法和系统
Schauerte et al. Saliency-based identification and recognition of pointed-at objects
CN108388889B (zh) 用于分析人脸图像的方法和装置
CN108229375B (zh) 用于检测人脸图像的方法和装置
CN114120432A (zh) 基于视线估计的在线学习注意力跟踪方法及其应用
JP2021531601A (ja) ニューラルネットワーク訓練、視線検出方法及び装置並びに電子機器
CN114140880A (zh) 步态识别方法和装置
CN114078278A (zh) 注视点定位方法与装置、电子设备和存储介质
CN112528957A (zh) 人体运动基础信息检测方法、系统及电子设备
CN111626087A (zh) 神经网络训练及眼睛睁闭状态检测方法、装置及设备
Perra et al. Adaptive eye-camera calibration for head-worn devices
Li et al. Visual interpretation of natural pointing gestures in 3D space for human-robot interaction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant