CN112381001A - 基于专注度的智能电视用户识别方法及装置 - Google Patents
基于专注度的智能电视用户识别方法及装置 Download PDFInfo
- Publication number
- CN112381001A CN112381001A CN202011280404.2A CN202011280404A CN112381001A CN 112381001 A CN112381001 A CN 112381001A CN 202011280404 A CN202011280404 A CN 202011280404A CN 112381001 A CN112381001 A CN 112381001A
- Authority
- CN
- China
- Prior art keywords
- concentration degree
- information
- human body
- determining
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/441—Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
- H04N21/4415—Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Social Psychology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Biomedical Technology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明涉及图像处理技术领域,本发明旨在解决现有在多人场景的智能电视用户识别方法存在操作不便的问题,提出一种基于专注度识别的智能电视用户识别方法及装置,包括:获取智能电视前的图像,判断图像中是否包含多个人体;若是,则在预设时间段内,分别检测图像中每个人体对应的人脸状态信息、姿态信息、人脸状态保持的第一时间信息以及姿态保持的第二时间信息,并确定对应人脸状态信息和对应姿态信息的专注度得分;根据人脸状态信息和姿态信息对应的专注度得分确定对应人体的整体专注度,确定出图像中每个人体的整体专注度;确定整体专注度最高的人体对应的用户身份,并将其作为智能电视的实际使用用户。本发明减少了用户操作,适用于家庭场景。
Description
技术领域
本发明涉及图像处理技术领域,具体来说涉及一种基于专注度的智能电视用户识别方法及装置。
背景技术
为了给智能电视用户提供更加个性化的服务,例如,给用户推荐其偏好的影视节目,或者根据用户的历史观看记录自动进行进度跳转等等。因此,在用户在使用智能电视时,通常需要对当前智能电视的当前用户身份进行识别。
现有的智能电视自动识别用户进度控制方式大致有两种,第一种是借助遥控器上安装识别设备,通过遥控器传感器唯一的识别控制电视的用户,例如:指纹、虹膜等。第二种是借助图像识别技术,当摄像头前只有一个用户的场景时,通过人脸识别设备,唯一的识别出电视前的用户,多人场景还需要依赖遥控器或相关传感器辅助识别,并且还需要用户手动操作,非常不方便。
发明内容
本发明旨在解决现有在多人场景的智能电视用户识别方法存在操作不便的问题,提出一种基于专注度的智能电视用户识别方法及装置。
本发明解决上述技术问题所采用的技术方案是:基于专注度的智能电视用户识别方法,包括以下步骤:
步骤1、获取智能电视前的图像,判断所述图像中是否包含多个人体,若是,则进入步骤2;
步骤2、在预设时间段内,分别检测所述图像中每个人体对应的人脸状态信息、姿态信息、人脸状态保持的第一时间信息以及姿态保持的第二时间信息,并根据所述第一时间信息确定对应人脸状态信息的专注度得分,根据所述第二时间信息确定对应姿态信息的专注度得分;
步骤3、根据所述人脸状态信息对应的专注度得分和姿态信息对应的专注度得分确定对应人体的整体专注度,确定出图像中每个人体的整体专注度;
步骤4、确定整体专注度最高的人体对应的用户身份,并将其作为智能电视的实际使用用户。
进一步的,所述人脸状态信息至少包括:眼睛闭合状态和低头状态。
进一步的,所述人体对应的人脸状态信息的检测方法包括:
采用LBP面部图像的特征提取方法提取人脸的面部特征,根据所述面部特征并基于SVM分类器识别是否闭眼和是否低头。
进一步的,所述姿态信息至少包括:坐立状态、四肢状态和面部朝向。
进一步的,所述人体对应的姿态信息通过Faster-RCNN算法进行检测。
进一步的,所述人脸状态保持的第一时间信息的检测方法包括:
判断人体的人脸状态信息是否发生改变,若是,则记录当前节点的时间信息,根据记录的节点的时间信息确定人脸状态保持的第一时间信息。
进一步的,所述姿态保持的第二时间信息的检测方法包括:
判断人体的姿态信息是否发生改变,若是,则记录当前节点的时间信息,根据记录的节点的时间信息确定姿态保持的第二时间信息。
进一步的,所述对应人体的整体专注度的确定方法包括:
对所述人脸状态信息对应的专注度得分和姿态信息对应的专注度得分进行加权和计算得到对应人体的整体专注度。
进一步的,所述整体专注度最高的人体对应的用户身份的确定方法包括:
获取各用户的人脸图像,从获取的各用户人脸图像中提取并保存对应的第一人脸特征向量数据;
从整体专注度最高的人体的人脸图像中提取第二人脸特征向量数据,将所述第二人脸特征向量数据与第一人脸特征向量数据进行相似度比较,根据相似度大于预设阈值的第二人脸特征向量数据对应的用户人脸图像确定整体专注度最高的人体对应的用户身份。
本发明还提出一种基于专注度的智能电视用户识别装置,包括:获取单元、检测单元和确定单元;
所述获取单元,用于获取智能电视前的图像,判断所述图像中是否包含多个人体;
所述检测单元,用于在预设时间段内,分别检测所述图像中每个人体对应的人脸状态信息、姿态信息、人脸状态保持的第一时间信息以及姿态保持的第二时间信息;
所述确定单元,用于根据所述第一时间信息确定对应人脸状态信息的专注度得分,根据所述第二时间信息确定对应姿态信息的专注度得分;根据所述人脸状态信息对应的专注度得分和姿态信息对应的专注度得分确定对应人体的整体专注度,确定出图像中每个人体的整体专注度;以及确定整体专注度最高的人体对应的用户身份,并将其作为智能电视的实际使用用户。
本发明的有益效果是:本发明所述的基于专注度的智能电视用户识别方法及装置,在多人场景下,通过对每个用户进行专注度识别,并且以专注度最高的用户作为智能电视的实际使用用户,不需要设置识别用户身份的传感器,也不需要用户手动操作,方便了用户的操作,提升了用户体验。此外,本发明基于用户的人脸状态信息和坐姿信息,并结合相应的时间信息来进行专注度识别,识别的准确度较高。
附图说明
图1为本发明实施例所述的基于专注度的智能电视用户识别方法的流程示意图;
图2为本发明实施例所述的基于专注度的智能电视用户识别方法的结构示意图。
具体实施方式
下面将结合附图对本发明的实施方式进行详细描述。
本发明旨在解决现有在多人场景的智能电视用户识别方法存在操作不便的问题,提出一种基于专注度的智能电视用户识别方法及装置,其主要的技术构思为:获取智能电视前的图像,判断所述图像中是否包含多个人体;若是,则在预设时间段内,分别检测所述图像中每个人体对应的人脸状态信息、姿态信息、人脸状态保持的第一时间信息以及姿态保持的第二时间信息,并根据所述第一时间信息确定对应人脸状态信息的专注度得分,根据所述第二时间信息确定对应姿态信息的专注度得分;根据所述人脸状态信息对应的专注度得分和姿态信息对应的专注度得分确定对应人体的整体专注度,确定出图像中每个人体的整体专注度;确定整体专注度最高的人体对应的用户身份,并将其作为智能电视的实际使用用户。
在实际使用智能电视之前,可以通过摄像头获取智能电视前的图像,当获取的图像中包含多个人体时,表示智能电视前有多个用户,此时需要从多个用户中确定出智能电视的实际使用用户。首先,在预设时间段内,确定出每个用户的人脸状态信息、姿态信息以及每种人脸和姿态保持的时间信息,其中,每种人脸状态信息及其对应的第一时间信息、姿态信息及其对应的第二时间信息对应一个专注度得分,通过在预设时间段内,每个用户出现的每种人脸状态信息及其对应的第一时间信息以及每种姿态信息及其对应的第二时间信息所对应的专注度得分,确定出每个用户最终的整体专注度,最后将整体专注度最高的用户作为智能电视的实际使用用户。进而根据该用户进行个性资源推荐或进度的跳转。
实施例
下面以家庭场景为例详细介绍本发明的具体实施方式。
首先,可以在智能电视上设置一个图像获取装置,例如,摄像头。首次使用时,需要每个家庭成员录入人脸信息,录入人脸信息后提取并保存每个人脸的人脸特征向量。
本发明实施例所述的基于专注度的智能电视用户识别方法,如图1所示,包括以下步骤:
步骤S1、获取智能电视前的图像,判断所述图像中是否包含多个人体,若是,则进入步骤S2;
具体而言,在智能电视开机后,通过图像获取装置获取智能电视前的图像,当获取的图像中包含多个人体时,表示智能电视前有多个用户,此时需要从多个用户中确定出智能电视的实际使用用户,进入步骤S2.
步骤S2、在预设时间段内,分别检测所述图像中每个人体对应的人脸状态信息、姿态信息、人脸状态保持的第一时间信息以及姿态保持的第二时间信息,并根据所述第一时间信息确定对应人脸状态信息的专注度得分,根据所述第二时间信息确定对应姿态信息的专注度得分;
本实施例中,可以预存在不同的第一时间信息下的每种人脸状态信息以及在不同第二时间信息下的每种姿态信息与专注度得分的对应关系。
具体而言,在图像获取装置获取智能电视前的图像后,可以通过LBP面部图像的特征提取方法提取人脸的面部特征,根据所述面部特征并基于SVM分类器识别人脸状态信息。通过Faster-RCNN算法检测图像中每个人体的姿态信息。人体的人脸状态信息和姿态信息还可以通过其他算法识别,此处不再赘述。
本实施通过以下方法实现对人脸状态保持的第一时间信息以及姿态保持的第二时间信息的统计:在识别完每个人体的人脸状态信息和姿态信息后,记录初始节点的时间信息。判断人体的人脸状态信息是否发生改变,若是,则记录人脸状态信息发生改变对应节点的时间信息,根据记录的初始节点以及人脸状态发生改变对应节点的时间信息即可确定出该人脸状态保持的第一时间信息。依次推类,直到达到预设时间。由此即可确定出预设时间段内,每个用户出现的各种人脸状态以及各种人脸状态保持的时间。
同理,还判断人体的姿态信息是否发生改变,若是,则记录姿态信息发生改变对应节点的时间信息,根据记录的初始节点以及姿态发生改变对应节点的时间信息即可确定出该姿态保持的第二时间信息。依次推类,直到达到预设时间。由此即可确定出预设时间段内,每个用户出现的各种姿态以及各种姿态保持的时间。
其中,预设时间段可以根据实际情况具体设置,为了保证用户识别的准确度以及用户体验,本实施例优选为三分钟。
然后,根据在不同的第一时间信息下的每种人脸状态信息以及在不同第二时间信息下的每种姿态信息与专注度得分的对应关系即可确定出每个用户在预设时间段内,出现的各种人脸状态和出现的各种姿态所对应的专注度得分。
本实施例中,所述人脸状态信息至少包括:眼睛闭合状态和低头状态。所述姿态信息至少包括:坐立状态、四肢状态和面部朝向。
当识别到长时间保持用户眼睛闭合或者低头时,则对应的专注度得分较低,若用户眼睛闭合或者低头的时间较短或者没有闭合眼睛或者低头,则对应的专注度得分较高。对于姿态信息而言,本实施例划分为:
(1)、认真看电视:身体坐着,胳膊保持相对稳定,面部朝前,手部没有动作。
(2)、比较认真看电视:身体坐着,胳膊乱动,面部不朝前,手部有动作,后面三个出现一个。
(3)、躺着看电视:身体躺着,胳膊保持相对稳定,面部朝前,手部没有动作。
(4)、不太认真看电视:身体坐着,胳膊乱动,面部不朝前,手部有动作,后面三个出现两个。
(5)、不看电视:身体坐着或坐着,胳膊乱动,面部不朝前,手部有动作。
以上情况对应的专注度得分递减,对于专注看电视的情况而言,对应的姿态保持的时间越长,则对应的专注度得分越高,对于不专注看电视的情况而言,对应的姿态保持的时间越长,则对应的专注度得分越低。
步骤S3、根据所述人脸状态信息对应的专注度得分和姿态信息对应的专注度得分确定对应人体的整体专注度,确定出图像中每个人体的整体专注度;
本实施例中,所述对应人体的整体专注度的确定方法可以包括:对所述人脸状态信息对应的专注度得分、姿态信息对应的专注度得分、第一时间信息对应的专注度得分以及第二时间信息对应的专注度得分进行加权和计算得到对应人体的整体专注度。
可以理解,对于每种人脸状态信息和姿态信息,设置不同的权重,通过每种人脸状态信息和姿态信息的加权和来计算用户的整体专注度,能够进一步提高专注度识别的准确度。例如,考虑到看电视是坐姿是相对最能保持专注的,所以在分类时,将坐姿作为主要研究,如果检测出的姿势不是坐姿,我们会认为你不能保持长时间专注度,所以给予的权重会比较低。
为了减少算法流程,本实施例中,还可以通过仅识别反面的不专注的人脸状态和姿态来确定用户的整体专注度。具体的,当识别到不专注的人脸状态或姿态时,根据其持续的时间并按照梯度下降的方式降低用户的整体专注度。例如用户睡着了,这是一个持续的不专注的状态,按照我们的方法就可以将其的专注度值在较短的时间里降为最低。
此外,还可以通过仅识别正面的专注的人脸状态和姿态来确定用户的整体专注度。具体的,当识别到专注的人脸状态或姿态时,根据其持续的时间并按照梯度递增的方式增加用户的整体专注度。
步骤S4、确定整体专注度最高的人体对应的用户身份,并将其作为智能电视的实际使用用户。
在确定智能电视前的所有用户的整体专注度后,将整体专注度最高的用户作为智能电视的实际使用用户。进而根据智能电视的实际使用用户进行个性资源推荐或进度的跳转。
具体的,从整体专注度最高的人体的人脸图像中提取第二人脸特征向量数据,将所述第二人脸特征向量数据与预存的第一人脸特征向量数据进行相似度比较,根据相似度大于预设阈值的第二人脸特征向量数据对应的用户人脸图像确定整体专注度最高的人体对应的用户身份。
基于上述技术方案,本发明实施例还提出一种基于专注度的智能电视用户识别装置,如图2所示,包括:获取单元、检测单元和确定单元;
所述获取单元,用于获取智能电视前的图像,判断所述图像中是否包含多个人体;
所述检测单元,用于在预设时间段内,分别检测所述图像中每个人体对应的人脸状态信息、姿态信息、人脸状态保持的第一时间信息以及姿态保持的第二时间信息;
所述确定单元,用于根据所述第一时间信息确定对应人脸状态信息的专注度得分,根据所述第二时间信息确定对应姿态信息的专注度得分;根据所述人脸状态信息对应的专注度得分和姿态信息对应的专注度得分确定对应人体的整体专注度,确定出图像中每个人体的整体专注度;以及确定整体专注度最高的人体对应的用户身份,并将其作为智能电视的实际使用用户。
可以理解,由于本发明实施例所述的基于专注度的智能电视用户识别装置是用于实现实施例所述基于专注度的智能电视用户识别方法的装置,对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的较为简单,相关之处参见方法的部分说明即可。
Claims (10)
1.基于专注度的智能电视用户识别方法,其特征在于,包括以下步骤:
步骤1、获取智能电视前的图像,判断所述图像中是否包含多个人体,若是,则进入步骤2;
步骤2、在预设时间段内,分别检测所述图像中每个人体对应的人脸状态信息、姿态信息、人脸状态保持的第一时间信息以及姿态保持的第二时间信息,并根据所述第一时间信息确定对应人脸状态信息的专注度得分,根据所述第二时间信息确定对应姿态信息的专注度得分;
步骤3、根据所述人脸状态信息对应的专注度得分和姿态信息对应的专注度得分确定对应人体的整体专注度,确定出图像中每个人体的整体专注度;
步骤4、确定整体专注度最高的人体对应的用户身份,并将其作为智能电视的实际使用用户。
2.如权利要求1所述的基于专注度的智能电视用户识别方法,其特征在于,所述人脸状态信息至少包括:眼睛闭合状态和低头状态。
3.如权利要求2所述的基于专注度的智能电视用户识别方法,其特征在于,所述人体对应的人脸状态信息的检测方法包括:
采用LBP面部图像的特征提取方法提取人脸的面部特征,根据所述面部特征并基于SVM分类器识别是否闭眼和是否低头。
4.如权利要求1所述的基于专注度的智能电视用户识别方法,其特征在于,所述姿态信息至少包括:坐立状态、四肢状态和面部朝向。
5.如权利要求1所述的基于专注度的智能电视用户识别方法,其特征在于,所述人体对应的姿态信息通过Faster-RCNN算法进行检测。
6.如权利要求1所述的基于专注度的智能电视用户识别方法,其特征在于,所述人脸状态保持的第一时间信息的检测方法包括:
判断人体的人脸状态信息是否发生改变,若是,则记录当前节点的时间信息,根据记录的节点的时间信息确定人脸状态保持的第一时间信息。
7.如权利要求1所述的基于专注度的智能电视用户识别方法,其特征在于,所述姿态保持的第二时间信息的检测方法包括:
判断人体的姿态信息是否发生改变,若是,则记录当前节点的时间信息,根据记录的节点的时间信息确定姿态保持的第二时间信息。
8.如权利要求1所述的基于专注度的智能电视用户识别方法,其特征在于,所述对应人体的整体专注度的确定方法包括:
对所述人脸状态信息对应的专注度得分和姿态信息对应的专注度得分进行加权和计算得到对应人体的整体专注度。
9.如权利要求1所述的基于专注度的智能电视用户识别方法,其特征在于,所述整体专注度最高的人体对应的用户身份的确定方法包括:
获取各用户的人脸图像,从获取的各用户人脸图像中提取并保存对应的第一人脸特征向量数据;
从整体专注度最高的人体的人脸图像中提取第二人脸特征向量数据,将所述第二人脸特征向量数据与第一人脸特征向量数据进行相似度比较,根据相似度大于预设阈值的第二人脸特征向量数据对应的用户人脸图像确定整体专注度最高的人体对应的用户身份。
10.基于专注度的智能电视用户识别装置,其特征在于,包括:获取单元、检测单元和确定单元;
所述获取单元,用于获取智能电视前的图像,判断所述图像中是否包含多个人体;
所述检测单元,用于在预设时间段内,分别检测所述图像中每个人体对应的人脸状态信息、姿态信息、人脸状态保持的第一时间信息以及姿态保持的第二时间信息;
所述确定单元,用于根据所述第一时间信息确定对应人脸状态信息的专注度得分,根据所述第二时间信息确定对应姿态信息的专注度得分;根据所述人脸状态信息对应的专注度得分和姿态信息对应的专注度得分确定对应人体的整体专注度,确定出图像中每个人体的整体专注度;以及确定整体专注度最高的人体对应的用户身份,并将其作为智能电视的实际使用用户。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011280404.2A CN112381001A (zh) | 2020-11-16 | 2020-11-16 | 基于专注度的智能电视用户识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011280404.2A CN112381001A (zh) | 2020-11-16 | 2020-11-16 | 基于专注度的智能电视用户识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112381001A true CN112381001A (zh) | 2021-02-19 |
Family
ID=74584779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011280404.2A Pending CN112381001A (zh) | 2020-11-16 | 2020-11-16 | 基于专注度的智能电视用户识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112381001A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105163139A (zh) * | 2014-05-28 | 2015-12-16 | 青岛海尔电子有限公司 | 信息推送方法、信息推送服务器和智能电视 |
CN107194371A (zh) * | 2017-06-14 | 2017-09-22 | 易视腾科技股份有限公司 | 基于层次化卷积神经网络的用户专注度识别方法及系统 |
CN107239139A (zh) * | 2017-05-18 | 2017-10-10 | 刘国华 | 基于正视的人机交互方法与系统 |
CN109299659A (zh) * | 2018-08-21 | 2019-02-01 | 中国农业大学 | 一种基于rgb相机和深度学习的人体姿态识别方法与系统 |
CN109522815A (zh) * | 2018-10-26 | 2019-03-26 | 深圳博为教育科技有限公司 | 一种专注度评估方法、装置及电子设备 |
CN110175501A (zh) * | 2019-03-28 | 2019-08-27 | 重庆电政信息科技有限公司 | 基于人脸识别的多人场景专注度识别方法 |
-
2020
- 2020-11-16 CN CN202011280404.2A patent/CN112381001A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105163139A (zh) * | 2014-05-28 | 2015-12-16 | 青岛海尔电子有限公司 | 信息推送方法、信息推送服务器和智能电视 |
CN107239139A (zh) * | 2017-05-18 | 2017-10-10 | 刘国华 | 基于正视的人机交互方法与系统 |
CN107194371A (zh) * | 2017-06-14 | 2017-09-22 | 易视腾科技股份有限公司 | 基于层次化卷积神经网络的用户专注度识别方法及系统 |
CN109299659A (zh) * | 2018-08-21 | 2019-02-01 | 中国农业大学 | 一种基于rgb相机和深度学习的人体姿态识别方法与系统 |
CN109522815A (zh) * | 2018-10-26 | 2019-03-26 | 深圳博为教育科技有限公司 | 一种专注度评估方法、装置及电子设备 |
CN110175501A (zh) * | 2019-03-28 | 2019-08-27 | 重庆电政信息科技有限公司 | 基于人脸识别的多人场景专注度识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105184246B (zh) | 活体检测方法和活体检测系统 | |
CN110175514B (zh) | 一种刷脸支付提示方法、装置及设备 | |
CN104635920B (zh) | 姿势识别装置及姿势识别装置的控制方法 | |
US20180129870A1 (en) | Identifying facial expressions in acquired digital images | |
EP3555799B1 (en) | A method for selecting frames used in face processing | |
CN105072327B (zh) | 一种防闭眼的人像拍摄处理的方法和装置 | |
US8964127B2 (en) | User-sensing remote control system and method | |
Khan et al. | Saliency-based framework for facial expression recognition | |
Missimer et al. | Blink and wink detection for mouse pointer control | |
US20140253710A1 (en) | Information processing apparatus for watching, information processing method and non-transitory recording medium recorded with program | |
CN106911962B (zh) | 基于场景的移动视频智能播放交互控制方法 | |
JP2006293644A (ja) | 情報処理装置、情報処理方法 | |
CN112770186A (zh) | 电视机观看模式的确定方法、电视机和存储介质 | |
US9013591B2 (en) | Method and system of determing user engagement and sentiment with learned models and user-facing camera images | |
Le et al. | Eye blink detection for smart glasses | |
KR20140055819A (ko) | 얼굴인식장치 및 그 제어방법 | |
CN112651334B (zh) | 机器人视频交互方法和系统 | |
CN102054165A (zh) | 图像处理装置及图像处理方法 | |
Whitehill et al. | Automatic facial expression recognition | |
KR102664418B1 (ko) | 디스플레이 장치 및 그의 서비스 제공 방법 | |
CN111442464B (zh) | 空调器及其控制方法 | |
CN111447497A (zh) | 智能播放设备及其节能控制方法 | |
CN112364825A (zh) | 用于人脸识别的方法、装置和计算机可读存储介质 | |
CN112381001A (zh) | 基于专注度的智能电视用户识别方法及装置 | |
CN114694200A (zh) | 一种监督儿童健康观影的方法及智能终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210219 |