CN109871807A - 人脸图像处理方法和装置 - Google Patents

人脸图像处理方法和装置 Download PDF

Info

Publication number
CN109871807A
CN109871807A CN201910130258.6A CN201910130258A CN109871807A CN 109871807 A CN109871807 A CN 109871807A CN 201910130258 A CN201910130258 A CN 201910130258A CN 109871807 A CN109871807 A CN 109871807A
Authority
CN
China
Prior art keywords
user
information
facial image
state
emotional state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910130258.6A
Other languages
English (en)
Other versions
CN109871807B (zh
Inventor
莫仁鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201910130258.6A priority Critical patent/CN109871807B/zh
Publication of CN109871807A publication Critical patent/CN109871807A/zh
Application granted granted Critical
Publication of CN109871807B publication Critical patent/CN109871807B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例公开了人脸图像处理方法和装置。该方法的一具体实施方式包括:获取当前时刻用户的人脸图像;基于已训练的情绪识别模型对人脸图像进行情绪识别,得到用户的当前情绪状态信息;响应于确定用户的当前情绪状态信息满足预设的条件,推送用于引导用户切换工作状态的提示信息。该实施方式实现了基于情绪识别的工作辅助,能够有效帮助用户合理规划工作,提升工作效率。

Description

人脸图像处理方法和装置
技术领域
本申请实施例涉及计算机技术领域,具体涉及人工智能领域,尤其涉及人脸图像处理方法和装置。
背景技术
随着计算机技术的发展,人工智能技术被应用到越来越多的领域。其中,人脸识别利用了人脸独特的生物特征来进行身份鉴别,技术已被广泛地应用在各类身份鉴别场景中,例如门禁系统、安防监控、社保管理等。现有的人脸识别技术的研究热点主要集中于通过各种算法提升人脸识别对于多场景、光照条件、用户非配合状态等情形下的准确率。
在工作场景中,人脸识别技术可以用于对用户的权限进行控制。例如可以通过人脸识别确保特定的数据的保密性。然而除了身份特征之外,人脸还包含了丰富的表情特征。但目前工作场景中人脸识别技术的应用通常忽略了用户的表情所表征的用户情绪和心理需求。
发明内容
本申请实施例提出了人脸图像处理方法和装置。
第一方面,本申请实施例提供了一种人脸图像处理方法,包括:获取当前时刻用户的人脸图像;基于已训练的情绪识别模型对人脸图像进行情绪识别,得到用户的当前情绪状态信息;响应于确定用户的当前情绪状态信息满足预设的条件,推送用于引导用户切换工作状态的提示信息。
在一些实施例中,上述情绪状态信息包括情绪类别信息;在基于已训练的情绪识别模型对人脸图像进行情绪识别,得到用户的当前情绪状态信息之后,方法还包括:基于已获取的用户在当前时刻之前的情绪状态信息,确定用户的情绪状态在当前情绪状态信息所表征的情绪状态的持续时间;以及上述响应于确定用户的当前情绪状态信息满足预设的条件,推送用于引导用户切换工作状态的提示信息,包括:响应于确定情绪类别信息为预设的负面情绪类别信息,且用户的情绪状态在当前情绪状态信息所指示的情绪状态的持续时间超过预设的时间阈值,推送用于引导用户切换工作状态的提示信息。
在一些实施例中,上述推送用于引导用户切换工作状态的提示信息,包括:获取用户的情绪类别信息为预设的正面情绪类别信息时的场景信息;基于场景信息生成用于引导用户切换工作状态的提示信息;推送提示信息。
在一些实施例中,上述方法还包括:基于样本人脸图像集合训练得出已训练的情绪识别模型,其中,样本人脸图像集合包括样本人脸图像以及样本人脸图像对应的用户情绪状态的标注信息。
在一些实施例中,上述方法还包括:获取对提示信息的用户反馈信息;基于反馈信息生成当前时刻用户的人脸图像对应的户情绪状态的标注信息,并将当前时刻用户的人脸图像添加至样本人脸图像集合中。
第二方面,本申请实施例提供了一种人脸图像处理装置,包括:获取单元,被配置为获取当前时刻用户的人脸图像;识别单元,被配置为基于已训练的情绪识别模型对人脸图像进行情绪识别,得到用户的当前情绪状态信息;推送单元,被配置为响应于确定用户的当前情绪状态信息满足预设的条件,推送用于引导用户切换工作状态的提示信息。
在一些实施例中,上述情绪状态信息包括情绪类别信息;上述装置还包括:确定单元,被配置为基于已获取的用户在当前时刻之前的情绪状态信息,确定用户的情绪状态在当前情绪状态信息所表征的情绪状态的持续时间;以及上述推送单元进一步被配置为:响应于确定情绪类别信息为预设的负面情绪类别信息,且用户的情绪状态在当前情绪状态信息所指示的情绪状态的持续时间超过预设的时间阈值,推送用于引导用户切换工作状态的提示信息。
在一些实施例中,上述推送单元进一步被配置为按照如下方式推送用于引导用户切换工作状态的提示信息:获取用户的情绪类别信息为预设的正面情绪类别信息时的场景信息;基于场景信息生成用于引导用户切换工作状态的提示信息;推送提示信息。
在一些实施例中,上述装置还包括:训练单元,被配置为基于样本人脸图像集合训练得出已训练的情绪识别模型,其中,样本人脸图像集合包括样本人脸图像以及样本人脸图像对应的用户情绪状态的标注信息。
在一些实施例中,上述装置还包括反馈单元,被配置为:获取对提示信息的用户反馈信息;基于反馈信息生成当前时刻用户的人脸图像对应的户情绪状态的标注信息,并将当前时刻用户的人脸图像添加至样本人脸图像集合中。
第三方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面提供的人脸图像处理方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现第一方面提供的人脸图像处理方法。
本申请上述实施例的人脸图像处理方法和装置,通过获取当前时刻用户的人脸图像,基于已训练的情绪识别模型对人脸图像进行情绪识别,得到用户的当前情绪状态信息,响应于确定用户的当前情绪状态信息满足预设的条件,推送用于引导用户切换工作状态的提示信息,实现了基于情绪识别的工作辅助,能够有效帮助用户合理规划工作,提升工作效率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的人脸图像处理方法的一个实施例的流程图;
图3是根据本申请的人脸图像处理方法的另一个实施例的流程图;
图4是根据本申请的人脸图像处理方法的又一个实施例的流程图;
图5是本申请的人脸图像处理装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的人脸图像处理方法或人脸图像处理装置的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104以及服务器105。网络104用以在终端设备101、102、103和服务器105之间、终端设备101、102、103之间提供通信链路的介质。网络可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备101、102、103可以是具有图像采集功能的电子设备,终端设备101、102、103可以采集其成像范围内的用户(例如图1所示用户110)的人脸图像,将用户的人脸图像通过网络104发送至服务器105。终端设备设备101可例如是各种监控摄像头,还可以是诸如手机、平板电脑、智能手表等包含图像采集器件的移动电子设备。
服务器105可以是提供人脸图像处理服务的服务器。服务器105可以接收终端设备发送的人脸图像,基于人脸图像识别用户的情绪状态,并根据用户的情绪状态生成提示信息,将提示信息推送至终端设备101、102、103。终端设备101、102、103接收到服务器105发送的提示信息后可以向用户展示提示信息。
本申请实施例所提供的人脸图像处理方法可以由服务器105执行,相应地,人脸图像处理装置可以设置于服务器105中。在一些场景中,终端设备101、102、103可以具有执行复杂运算的处理器(例如GPU等),则本申请实施例所提供的人脸图像处理方法可以终端设备101、102、103执行,人脸图像处理装置可以设置于终端设备101、102、103中。在这些场景中,上述系统架构可以不包含服务器105。
应该理解,图1中的终端设备、网络、服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络、服务器。
继续参考图2,其示出了根据本申请的人脸图像处理方法的一个实施例的流程200。该人脸图像处理方法,包括以下步骤:
步骤201,获取当前时刻用户的人脸图像。
在本实施例中,人脸图像处理方法的执行主体(例如图1所示的服务器)可以获取图像采集设备在当前时刻采集的用户的人脸图像。这里的用户可以是工作场景中的用户,该图像采集设备可以设置于用户使用其进行工作的电子设备上,例如笔记本电脑;也可以设置于工作场景中的固定位置,例如位于办公区域的摄像头。
可以将获取到的包含人脸的图像作为当前时刻用户的人脸图像。例如可以对获取到的图像进行人脸检测,若检测到存在人脸,则将其作为当前时刻用户的人脸图像。
在实施例的一些可选的实现方式中,上述执行主体可以从图像采集设备当前时刻采集的图像中确定出人脸区域,进而提取出被用户的人脸图像。例如,当采集的图像中包含多个人脸时,可以采用人脸检测方法,从采集的图像中提取出不同用户的人脸区域,并从原图像中分割出来,形成对应的各用户的人脸图像。进一步可选地,还可以预先设定注册用户,在注册时采集注册用户的人脸图像并提取特征保存至数据库中。则在获取到当前时刻图像采集设备采集的图像并提取出至少一个人脸图像之后,可以基于提取出的人脸图像进行人脸识别,判断该人脸图像中的人脸所属的用户是否为预先设定的注册用户,若是,则将提取出的该用户的人脸图像作为获取得到当前时刻用户的人脸图像。
步骤202,基于已训练的情绪识别模型对人脸图像进行情绪识别,得到用户的当前情绪状态信息。
可以将步骤201获取到的人脸图像输入已训练的情绪识别模型中。已训练的情绪识别模型可以基于输入的人脸图像预测对应用户的情绪状态。该已训练的情绪识别模型可以从人脸图像中提取出用户的表情特征,并基于表情特征进行分类识别,得到用户的当前情绪状态信息。
情绪状态信息可以是表征用户的情绪状态的信息。情绪状态可以包括但不限于:悲伤、烦躁、开心、轻松、紧张、愤怒,等等。已训练的情绪识别模型可以对人脸图像进行特征提取,并基于提取出的特征将人脸图像对应的用户的情绪确定为以上情绪状态中的一种或多种。
在本实施例的一些可选的实现方式中,情绪状态信息可以采用预先设定的情绪状态等级表示,每个情绪状态等级对应一种或多种情绪状态。例如在工作场景中,可以设定情绪状态的多个等级,第一级表示用户的情绪良好,例如开心、平静等情绪可以被划分为第一级;第二级表示用户的情绪较差,例如焦虑、烦躁、紧张等情绪可以被划分为第二级;第三级表示用户的情绪极差,例如愤怒、痛苦等情绪可以被划分为第三级。这样,上述已训练的情绪识别模型对人脸图像进行情绪识别得到的情绪状态信息是用户的情绪状态等级。
在情绪识别模型的训练过程中,可以将情绪状态标签或情绪状态等级标签作为输出结果,基于机器学习模型构建初始的情绪识别模型,在训练过程中不断调整情绪识别模型的参数,使得情绪识别模型得出的情绪识别结果趋于用户当前时刻真实的情绪状态。
步骤203,响应于确定用户的当前情绪状态信息满足预设的条件,推送用于引导用户切换工作状态的提示信息。
在本实施例中,可以判断用户的当前情绪状态是否满足预设的条件,若是,则可以推送用于引导用户切换工作状态的提示信息。在这里,用户的当前情绪状态满足预设的条件可以是用户的当前情绪状态信息为预设的情绪状态信息,例如用户的情绪状态等级为上述示例中的第二级或第三级;用户的当前情绪状态满足预设的条件也可以是当前情绪状态信息与已获取的上一情绪状态信息之间的差异超过预设的范围,例如上一时刻为5分钟前,情绪状态信息为开心(第一级),当前时刻的情绪状态信息为愤怒或悲伤(第三级),等等。
用于引导用户切换工作状态的提示信息可以是引导用户暂停当前的工作、进行其他工作的提示信息,也可以是引导用户停止工作的提示信息。在本实施例中,引导用户切换工作状态的提示信息可以为预先设定的,例如该提示信息可以为提示用户听舒缓音乐的信息,或者可以是提示用户处理工作列表中比较简单的工作的信息。
在一些实施例中,可以基于用户的当前情绪状态生成相应的用于引导用户切换工作状态的提示信息。可以预先设置用户在不同情绪状态下的提示信息,例如用户当前的情绪状态为烦躁时生成引导用户播放舒缓音乐的提示信息,用户当前的情绪状态为愤怒时生成引导用户暂停处理工作的提示信息,等等。
上述提示信息可以是文本提示信息、图片提示信息、语音提示信息等各种形式的提示信息。在实际场景中,可以推送提示信息并通过用户端的电子设备呈现提示信息。
返回参考图1,本申请上述实施例的一个示例性的应用场景为,终端设备101采集到当前时刻用户110的人脸图像之后,通过网络104发送至服务器105。服务器105可以对用户的人脸图像进行情绪识别,具体可以采用已训练的情绪识别模型对用户的人脸图像进行处理,得到用户的当前情绪状态信息。当用户当前的情绪状态信息指示用户当前处于烦躁等不利于正常处理工作事务的情绪状态时,可以生成用于引导用户切换工作状态的提示信息,并向终端设备101推送该提示信息、或者在用户预先授权通过电子设备接收推送信息的前提下,向用户110的其他电子设备推送提示信息。
本申请上述实施例的人脸图像处理方法,通过获取当前时刻用户的人脸图像,基于已训练的情绪识别模型对人脸图像进行情绪识别,得到用户的当前情绪状态信息,响应于确定用户的当前情绪状态信息满足预设的条件,推送用于引导用户切换工作状态的提示信息,实现了基于情绪识别的工作辅助,能够有效帮助用户合理规划工作,提升工作效率。
继续参考图3,其示出了是根据本申请的人脸图像处理方法的另一个实施例的流程图。如图3所示,本实施例的人脸图像处理方法的流程300,可以包括以下步骤:
步骤301,获取当前时刻用户的人脸图像。
在本实施例中,人脸图像处理方法的执行主体(例如图1所示的服务器)可以获取图像采集设备在当前时刻采集的用户的人脸图像。这里的用户可以是工作场景中的用户,该图像采集设备可以设置于用户使用其进行工作的电子设备上,例如笔记本电脑;也可以设置于工作场景中的固定位置,例如位于办公区域的摄像头。
可以将获取到的包含人脸的图像作为当前时刻用户的人脸图像。例如可以对获取到的图像进行人脸检测,若检测到存在人脸,则将其作为当前时刻用户的人脸图像。
本实施例的步骤301与前述实施例的步骤201一致,步骤301的具体实现方式可以参考前述实施例中步骤201的描述,此处不再赘述。
步骤302,基于已训练的情绪识别模型对人脸图像进行情绪识别,得到用户的当前情绪状态信息。
可以将步骤301获取到的人脸图像输入已训练的情绪识别模型中。已训练的情绪识别模型可以基于输入的人脸图像预测对应用户的情绪状态。该已训练的情绪识别模型可以从人脸图像中提取出用户的表情特征,并基于表情特征进行分类识别,得到用户的当前情绪状态信息。
情绪状态信息可以是表征用户的情绪状态的信息。在本实施例中,情绪状态信息可以包括情绪类别信息。情绪类别信息是表征情绪状态所属类别的信息,在一些实施例中,情绪类别可以包括但不限于:正面情绪、负面情绪。或者可以将负面情绪进行更细化的划分,包括轻微负面情绪、强烈负面情绪,等等。在另一些实施例中,情绪类别可以包括但不限于:高兴、兴奋、激动、惊讶、生气、紧张、焦虑、愤怒、忧郁、难过。
步骤303,基于已获取的用户在当前时刻之前的情绪状态信息,确定用户的情绪状态在当前情绪状态信息所表征的情绪状态的持续时间。
在本实施例的场景中,可以周期性地或持续地采集用户的人脸图像,并利用已训练的情绪识别模型识别用户在每个采集时刻的情绪状态。可以基于当前时刻之前该用户的情绪状态信息,确定用户持续处于当前情绪状态的时间。
作为示例,可以每隔10分钟采集一次用户的人脸图像进行情绪识别,若上一采集时刻用户的情绪状态为“高兴”,当前时刻用户的情绪状态为“焦虑”,则用户的情绪状态在当前情绪状态的持续时间小于10分钟。若上一采集时刻用户的情绪状态与当前时刻用户的情绪状态均为“焦虑”,则用户的情绪状态在当前情绪状态的持续时间不少于10分钟。
步骤304,响应于确定情绪类别信息为预设的负面情绪类别信息,且用户的情绪状态在当前情绪状态信息所指示的情绪状态的持续时间超过预设的时间阈值,推送用于引导用户切换工作状态的提示信息。
可以基于步骤303的统计结果判断用户的情绪状态在当前情绪状态信息所指示的情绪状态的持续时间超过预设的时间阈值,例如判断用户是否在同一情绪状态持续的时间超过10分钟。同时判断用户的当前情绪状态是否为预设的负面情绪状态,预设的负面情绪状态可以包括以下一项或多项:焦虑、烦躁、愤怒、忧郁,等等。若用户的当前情绪状态为预设的负面情绪状态,且在当前情绪状态持续的时间爱你超过预设的时间阈值,则可以生成用于引导用户切换工作状态的提示信息,并向用户推送该提示信息。
用于引导用户切换工作状态的提示信息可以是引导用户处理其他工作的提示信息,也可以是引导用户进行其他活动(例如喝水、休息、运动)的提示信息。该提示信息可以是预先设定的。可选地,可以预先针对不同的负面情绪状态设定不同的提示信息,例如针对焦虑的情绪设定提示用户开启轻音乐或休息的提示信息、针对愤怒的情绪设定提示用户停止工作的提示信息。则在步骤304中可以生成该提示信息并推送至用户的电子设备。
从图3可以看出,本实施例中通过结合用户情绪状态类别的识别和用户情绪状态时长的统计,能够在用户持续较长时间负面情绪时进行切换工作状态的引导提示,避免在用户短时间处于负面情绪时进行提示对用户的工作状态造成干扰,实现了更有针对性的引导提示。
在图3所示实施例的一些可选的实现方式中,上述推送用于引导用户切换工作状态的提示信息的步骤可以包括:获取用户的情绪类别信息为预设的正面情绪类别信息时的场景信息;基于场景信息生成用于引导用户切换工作状态的提示信息;推送提示信息。
具体来说,可以周期性地或持续地获取用户的人脸图像,并利用已训练的情绪识别模型识别得出各个时刻用户的情绪状态信息。可以获取用户的情绪状态为预设的正面情绪类别时的场景信息,场景信息可以包括光照时间、地理位置信息、场景中的声音信息、场景中的其他用户(例如家人、同事)的个人信息、用户正在访问的网络数据或正在处理的工作内容,等等。可以根据用户的情绪状态为预设的正面情绪类别时的这些场景信息,采用模型来模拟用户的正面情绪与这些场景信息之间的关联关系,进而确定可引导用户由负面情绪转向正面情绪的场景信息,并基于可引导用户由负面情绪转向正面情绪的场景信息生成上述提示信息进行推送。
作为示例,当用户在“轻松”的情绪状态中时,场景中正在播放钢琴曲,则可以将音乐类型“钢琴曲”与用户的正面情绪关联。在用户当前处于负面情绪(例如“焦虑”的情绪状态)的时间持续了超过10分钟时,可以生成引导用户播放钢琴曲的提示信息。这样,可以及时地引导用户通过改变工作场景中的场景信息来调节情绪,进而有效地帮助用户提升工作效率。
继续参考图4,其示出了根据本申请的人脸图像处理方法的又一个实施例的流程图。如图4所示,本实施例的人脸图像处理方法的流程400,包括以下步骤:
步骤401,基于样本人脸图像集合训练得出已训练的情绪识别模型。
在本实施例中,可以首先获取样本人脸图像集合,该样本人脸图像集合包括样本人脸图像以及样本人脸图像对应的用户情绪状态的标注信息。在这里,样本人脸图像对应的用户的情绪状态的标注信息可以通过人工标注获取,该标注信息可以是用于表征情绪状态的标签。
具体来说,可以按照如下方式训练得出已训练的情绪识别模型:
首先,基于神经网络构建待训练的情绪识别模型,初始化神经网络中每一层的参数,将样本人脸图像集合输入待训练的情绪识别模型,得到当前待训练的情绪识别模型对样本人脸图像集合对应的用户的情绪状态的预测结果。
上述待训练的情绪识别模型可以例如为卷积神经网络、循环神经网络等。
接着,可以基于预设的损失函数,迭代调整待训练的情绪识别模型的参数,使得预设的损失函数的值满足预设的收敛条件。其中,预设的损失函数的值用于表征待训练的情绪识别模型对样本人脸图像集合对应的用户的情绪状态预测结果偏离样本人脸图像集合对应的情绪状态标注信息的置信度。
可以基于待训练的情绪识别模型对样本人脸图像对应的用户的情绪状态预测结果与样本人脸图像对应的用户的情绪状态的标注信息之间的差异、或二者之间偏离的置信度构建损失函数。待训练的情绪识别模型对样本人脸图像对应的用户的情绪状态的预测结果偏离样本人脸图像对应的用户的情绪状态的标注信息的置信度越高,损失函数的值越大。
在得出当前待训练的情绪识别模型对样本人脸图像集合的情绪状态预测结果之后,可以计算当前的损失函数的值,然后判断损失函数的值是否达到预设的收敛条件。若损失函数的值未达到预设的收敛条件,则可以采用反向传播算法将当前待训练的情绪识别模型的预测误差传播回待训练的情绪识别模型中,使待训练的情绪识别模型基于损失函数进行参数的调整。在调整参数后可以重新利用待训练的情绪识别模型对样本人脸图像集合的情绪状态进行检测,接着计算损失函数的值,若损失函数的值不满足预设的收敛条件,则继续反向传播调整待训练的情绪识别模型的参数。这样,通过多次迭代调整待训练的情绪识别模型的参数,使待训练的情绪识别模型对样本人脸图像对应的情绪状态的识别结果逼近对应的标注信息。在损失函数的值满足预设的收敛条件时,可以停止调整待训练的情绪识别模型的参数,得到已训练的情绪识别模型。其中,预设的收敛条件可以是损失函数的值小于预设的阈值,也可以是损失函数的值经过了预设次数的更新,也即迭代调整参数的次数达到了预设的次数。
步骤402,获取当前时刻用户的人脸图像。
在本实施例中,人脸图像处理方法的执行主体(例如图1所示的服务器)可以获取图像采集设备在当前时刻采集的用户的人脸图像。这里的用户可以是工作场景中的用户,该图像采集设备可以设置于用户使用其进行工作的电子设备上,例如笔记本电脑;也可以设置于工作场景中的固定位置,例如办公区域的摄像头。
可以将获取到的包含人脸的图像作为当前时刻用户的人脸图像。例如可以对获取到的图像进行人脸检测,若检测到存在人脸,则将其作为当前时刻用户的人脸图像。
步骤403,基于已训练的情绪识别模型对人脸图像进行情绪识别,得到用户的当前情绪状态信息。
可以将步骤402获取到的人脸图像输入已训练的情绪识别模型中。已训练的情绪识别模型可以基于输入的人脸图像预测对应用户的情绪状态。该已训练的情绪识别模型可以从人脸图像中提取出用户的表情特征,并基于表情特征进行分类识别,得到用户的当前情绪状态信息。
本实施例的步骤402、步骤403分别与前述实施例的步骤201、步骤202一致,步骤402、步骤403的具体实现方式还可以分别参考前述实施例中步骤201、步骤202的描述,此处不再赘述。
本实施例中通过增加基于样本人脸图像集合训练得出已训练的情绪识别模型的步骤401,能够训练得出的可准确对用户的情绪状态进行分类的情绪识别模型。
在图4所示实施例的一些可选的实现方式中,人脸图像处理的方法流程还可以包括:获取对提示信息用户反馈信息;基于反馈信息生成当前时刻用户的人脸图像对应的户情绪状态的标注信息,并将当前时刻用户的人脸图像添加至样本人脸图像集合中。
在推送上述用于引导用户切换工作状态的提示信息之后,用户可以提交反馈信息。举例来说,用户收到提示信息后,可以提交该提示信息是否可以有效帮助用户调节情绪、提升工作效率的反馈信息。上述执行主体可以获取该反馈信息。若该反馈信息表明用户的情绪得到了有效的调节,则可以认为情绪识别模型的识别结果是准确的。
上述执行主体还可以通过其他方式获取针对上述提示信息的用户反馈信息。例如可以继续监测用户的情绪,判断用户在根据提示信息切换工作状态后,情绪是否由负面转向正面,若是,则生成正面的用户反馈信息。若用户在根据提示信息切换工作状态后,情绪仍然为负面情绪,则表明情绪识别模型识别错误或推送的提示信息不能有效帮助用户调节情绪,这时可以生成负面的用户反馈信息。
可以根据获取的用户反馈信息生成当前时刻用户的人脸图像对应的户情绪状态的标注信息,例如当用户反馈信息为用户根据提示信息执行切换工作状态的操作之后情绪状态由负面情绪转为正面情绪,则表明当前时刻的人脸图像对应的真实的用户情绪即为已训练的情绪识别模型识别得出的情绪状态信息,这时,可以将该情绪状态信息作为当前时刻用户的人脸图像的标注信息,将当前时刻用户的人脸图像作为样本人脸图像添加至样本人脸图像集合中,实现对样本人脸图像集合的更新,进而可以基于更新后的样本人脸图像继续训练情绪识别模型,进一步提升情绪识别模型的精确度。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种人脸图像处理装置的一个实施例,该装置实施例与图2、图3、图4所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的人脸图像处理装置500包括:获取单元501、识别单元502以及推送单元503。其中,获取单元501被配置为获取当前时刻用户的人脸图像;识别单元502被配置为基于已训练的情绪识别模型对人脸图像进行情绪识别,得到用户的当前情绪状态信息;推送单元503被配置为响应于确定用户的当前情绪状态信息满足预设的条件,推送用于引导用户切换工作状态的提示信息。
在一些实施例中,上述情绪状态信息可以包括情绪类别信息;上述装置500还可以包括:确定单元,被配置为基于已获取的用户在当前时刻之前的情绪状态信息,确定用户的情绪状态在当前情绪状态信息所表征的情绪状态的持续时间;以及上述推送单元503可以进一步被配置为:响应于确定情绪类别信息为预设的负面情绪类别信息,且用户的情绪状态在当前情绪状态信息所指示的情绪状态的持续时间超过预设的时间阈值,推送用于引导用户切换工作状态的提示信息。
在一些实施例中,上述推送单元503可以进一步被配置为按照如下方式推送用于引导用户切换工作状态的提示信息:获取用户的情绪类别信息为预设的正面情绪类别信息时的场景信息;基于场景信息生成用于引导用户切换工作状态的提示信息;推送提示信息。
在一些实施例中,上述装置500还可以包括:训练单元,被配置为基于样本人脸图像集合训练得出已训练的情绪识别模型,其中,样本人脸图像集合包括样本人脸图像以及样本人脸图像对应的用户情绪状态的标注信息。
在一些实施例中,上述装置500还可以包括反馈单元,被配置为:获取对提示信息的用户反馈信息;基于反馈信息生成当前时刻用户的人脸图像对应的户情绪状态的标注信息,并将当前时刻用户的人脸图像添加至样本人脸图像集合中。
本申请上述实施例的人脸图像处理装置500,通过获取当前时刻用户的人脸图像,基于已训练的情绪识别模型对人脸图像进行情绪识别,得到用户的当前情绪状态信息,响应于确定用户的当前情绪状态信息满足预设的条件,推送用于引导用户切换工作状态的提示信息,实现了基于情绪识别的工作辅助,能够有效帮助用户合理规划工作,提升工作效率。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备的计算机系统600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、识别单元和推送单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取当前时刻用户的人脸图像的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取当前时刻用户的人脸图像;基于已训练的情绪识别模型对人脸图像进行情绪识别,得到用户的当前情绪状态信息;响应于确定用户的当前情绪状态信息满足预设的条件,推送用于引导用户切换工作状态的提示信息。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (12)

1.一种人脸图像处理方法,包括:
获取当前时刻用户的人脸图像;
基于已训练的情绪识别模型对所述人脸图像进行情绪识别,得到所述用户的当前情绪状态信息;
响应于确定所述用户的当前情绪状态信息满足预设的条件,推送用于引导用户切换工作状态的提示信息。
2.根据权利要求1所述的方法,其中,所述情绪状态信息包括情绪类别信息;
在所述基于已训练的情绪识别模型对所述人脸图像进行情绪识别,得到所述用户的当前情绪状态信息之后,所述方法还包括:
基于已获取的所述用户在当前时刻之前的情绪状态信息,确定所述用户的情绪状态在所述当前情绪状态信息所表征的情绪状态的持续时间;以及
所述响应于确定所述用户的当前情绪状态信息满足预设的条件,推送用于引导用户切换工作状态的提示信息,包括:
响应于确定所述情绪类别信息为预设的负面情绪类别信息,且所述用户的情绪状态在所述当前情绪状态信息所指示的情绪状态的持续时间超过预设的时间阈值,推送用于引导用户切换工作状态的提示信息。
3.根据权利要求2所述的方法,其中,所述推送用于引导用户切换工作状态的提示信息,包括:
获取所述用户的情绪类别信息为预设的正面情绪类别信息时的场景信息;
基于所述场景信息生成所述用于引导用户切换工作状态的提示信息;
推送所述提示信息。
4.根据权利要求1-3任一项所述的方法,其中,所述方法还包括:
基于样本人脸图像集合训练得出所述已训练的情绪识别模型,其中,所述样本人脸图像集合包括样本人脸图像以及样本人脸图像对应的用户情绪状态的标注信息。
5.根据权利要求4所述的方法,其中,所述方法还包括:
获取对所述提示信息的用户反馈信息;
基于所述反馈信息生成所述当前时刻用户的人脸图像对应的户情绪状态的标注信息,并将所述当前时刻用户的人脸图像添加至所述样本人脸图像集合中。
6.一种人脸图像处理装置,包括:
获取单元,被配置为获取当前时刻用户的人脸图像;
识别单元,被配置为基于已训练的情绪识别模型对所述人脸图像进行情绪识别,得到所述用户的当前情绪状态信息;
推送单元,被配置为响应于确定所述用户的当前情绪状态信息满足预设的条件,推送用于引导用户切换工作状态的提示信息。
7.根据权利要求6所述的装置,其中,所述情绪状态信息包括情绪类别信息;
所述装置还包括:
确定单元,被配置为基于已获取的所述用户在当前时刻之前的情绪状态信息,确定所述用户的情绪状态在所述当前情绪状态信息所表征的情绪状态的持续时间;以及
所述推送单元进一步被配置为:
响应于确定所述情绪类别信息为预设的负面情绪类别信息,且所述用户的情绪状态在所述当前情绪状态信息所指示的情绪状态的持续时间超过预设的时间阈值,推送用于引导用户切换工作状态的提示信息。
8.根据权利要求7所述的装置,其中,所述推送单元进一步被配置为按照如下方式推送用于引导用户切换工作状态的提示信息:
获取所述用户的情绪类别信息为预设的正面情绪类别信息时的场景信息;
基于所述场景信息生成所述用于引导用户切换工作状态的提示信息;
推送所述提示信息。
9.根据权利要求6-8任一项所述的装置,其中,所述装置还包括:
训练单元,被配置为基于样本人脸图像集合训练得出所述已训练的情绪识别模型,其中,所述样本人脸图像集合包括样本人脸图像以及样本人脸图像对应的用户情绪状态的标注信息。
10.根据权利要求9所述的装置,其中,所述装置还包括反馈单元,被配置为:
获取对所述提示信息的用户反馈信息;
基于所述反馈信息生成所述当前时刻用户的人脸图像对应的户情绪状态的标注信息,并将所述当前时刻用户的人脸图像添加至所述样本人脸图像集合中。
11.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
12.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-5中任一所述的方法。
CN201910130258.6A 2019-02-21 2019-02-21 人脸图像处理方法和装置 Active CN109871807B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910130258.6A CN109871807B (zh) 2019-02-21 2019-02-21 人脸图像处理方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910130258.6A CN109871807B (zh) 2019-02-21 2019-02-21 人脸图像处理方法和装置

Publications (2)

Publication Number Publication Date
CN109871807A true CN109871807A (zh) 2019-06-11
CN109871807B CN109871807B (zh) 2023-02-10

Family

ID=66919058

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910130258.6A Active CN109871807B (zh) 2019-02-21 2019-02-21 人脸图像处理方法和装置

Country Status (1)

Country Link
CN (1) CN109871807B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110379234A (zh) * 2019-07-23 2019-10-25 广东小天才科技有限公司 一种学习辅导方法及装置
CN110838357A (zh) * 2019-11-19 2020-02-25 上海青鸿教育科技有限公司 基于人脸识别及动捕的注意力全息智能训练系统
CN110991322A (zh) * 2019-11-29 2020-04-10 上海能塔智能科技有限公司 情绪识别模型的更新处理方法、装置、电子设备与介质
CN113144374A (zh) * 2021-04-09 2021-07-23 上海探寻信息技术有限公司 一种基于智能穿戴设备调节用户状态的方法及设备
CN113705392A (zh) * 2021-08-16 2021-11-26 百度在线网络技术(北京)有限公司 工作状态切换方法、装置、设备、存储介质及程序产品
CN114710553A (zh) * 2020-12-30 2022-07-05 本田技研工业(中国)投资有限公司 信息获取方法、信息推送方法以及终端设备
CN115047824A (zh) * 2022-05-30 2022-09-13 青岛海尔科技有限公司 数字孪生多模态设备控制方法、存储介质及电子装置

Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101822863A (zh) * 2010-01-28 2010-09-08 深圳先进技术研究院 情绪调节装置和方法
CN102467668A (zh) * 2010-11-16 2012-05-23 鸿富锦精密工业(深圳)有限公司 情绪侦测及舒缓系统及方法
CN103530912A (zh) * 2013-09-27 2014-01-22 深圳市迈瑞思智能技术有限公司 一种具有情绪识别功能的考勤系统及方法
CN103617435A (zh) * 2013-12-16 2014-03-05 苏州大学 一种主动学习图像分类方法和系统
CN104239465A (zh) * 2014-09-02 2014-12-24 百度在线网络技术(北京)有限公司 一种基于场景信息进行搜索的方法及装置
US20150186712A1 (en) * 2013-02-08 2015-07-02 Emotient Collection of machine learning training data for expression recognition
CN105354527A (zh) * 2014-08-20 2016-02-24 南京普爱射线影像设备有限公司 一种消极表情识别鼓励系统
CN106341538A (zh) * 2016-08-31 2017-01-18 维沃移动通信有限公司 一种歌词海报的推送方法及移动终端
CN106562792A (zh) * 2015-10-08 2017-04-19 松下电器(美国)知识产权公司 信息提示装置的控制方法和信息提示装置
CN106650621A (zh) * 2016-11-18 2017-05-10 广东技术师范学院 一种基于深度学习的情绪识别方法及系统
CN107122807A (zh) * 2017-05-24 2017-09-01 努比亚技术有限公司 一种家庭监控方法、服务端及计算机可读存储介质
CN107169426A (zh) * 2017-04-27 2017-09-15 广东工业大学 一种基于深度神经网络的人群情绪异常检测和定位方法
CN107330420A (zh) * 2017-07-14 2017-11-07 河北工业大学 基于深度学习带有旋转信息的人脸表情识别方法
CN107807914A (zh) * 2016-09-09 2018-03-16 阿里巴巴集团控股有限公司 情感倾向的识别方法、对象分类方法及数据处理系统
CN108536802A (zh) * 2018-03-30 2018-09-14 百度在线网络技术(北京)有限公司 基于儿童情绪的交互方法及装置
CN108734096A (zh) * 2018-04-11 2018-11-02 北京搜狗科技发展有限公司 一种数据处理方法、装置和用于数据处理的装置
CN108831505A (zh) * 2018-05-30 2018-11-16 百度在线网络技术(北京)有限公司 用于识别应用的使用场景的方法和装置
CN109086828A (zh) * 2018-08-10 2018-12-25 北京百度网讯科技有限公司 用于检测电池极片的方法和装置
CN109165691A (zh) * 2018-09-05 2019-01-08 北京奇艺世纪科技有限公司 用于识别作弊用户的模型的训练方法、装置及电子设备
CN109190487A (zh) * 2018-08-07 2019-01-11 平安科技(深圳)有限公司 人脸情绪识别方法、装置、计算机设备及存储介质
CN109241336A (zh) * 2018-08-23 2019-01-18 珠海格力电器股份有限公司 音乐推荐方法和装置

Patent Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101822863A (zh) * 2010-01-28 2010-09-08 深圳先进技术研究院 情绪调节装置和方法
CN102467668A (zh) * 2010-11-16 2012-05-23 鸿富锦精密工业(深圳)有限公司 情绪侦测及舒缓系统及方法
US20150186712A1 (en) * 2013-02-08 2015-07-02 Emotient Collection of machine learning training data for expression recognition
CN103530912A (zh) * 2013-09-27 2014-01-22 深圳市迈瑞思智能技术有限公司 一种具有情绪识别功能的考勤系统及方法
CN103617435A (zh) * 2013-12-16 2014-03-05 苏州大学 一种主动学习图像分类方法和系统
CN105354527A (zh) * 2014-08-20 2016-02-24 南京普爱射线影像设备有限公司 一种消极表情识别鼓励系统
CN104239465A (zh) * 2014-09-02 2014-12-24 百度在线网络技术(北京)有限公司 一种基于场景信息进行搜索的方法及装置
CN106562792A (zh) * 2015-10-08 2017-04-19 松下电器(美国)知识产权公司 信息提示装置的控制方法和信息提示装置
CN106341538A (zh) * 2016-08-31 2017-01-18 维沃移动通信有限公司 一种歌词海报的推送方法及移动终端
CN107807914A (zh) * 2016-09-09 2018-03-16 阿里巴巴集团控股有限公司 情感倾向的识别方法、对象分类方法及数据处理系统
CN106650621A (zh) * 2016-11-18 2017-05-10 广东技术师范学院 一种基于深度学习的情绪识别方法及系统
CN107169426A (zh) * 2017-04-27 2017-09-15 广东工业大学 一种基于深度神经网络的人群情绪异常检测和定位方法
CN107122807A (zh) * 2017-05-24 2017-09-01 努比亚技术有限公司 一种家庭监控方法、服务端及计算机可读存储介质
CN107330420A (zh) * 2017-07-14 2017-11-07 河北工业大学 基于深度学习带有旋转信息的人脸表情识别方法
CN108536802A (zh) * 2018-03-30 2018-09-14 百度在线网络技术(北京)有限公司 基于儿童情绪的交互方法及装置
CN108734096A (zh) * 2018-04-11 2018-11-02 北京搜狗科技发展有限公司 一种数据处理方法、装置和用于数据处理的装置
CN108831505A (zh) * 2018-05-30 2018-11-16 百度在线网络技术(北京)有限公司 用于识别应用的使用场景的方法和装置
CN109190487A (zh) * 2018-08-07 2019-01-11 平安科技(深圳)有限公司 人脸情绪识别方法、装置、计算机设备及存储介质
CN109086828A (zh) * 2018-08-10 2018-12-25 北京百度网讯科技有限公司 用于检测电池极片的方法和装置
CN109241336A (zh) * 2018-08-23 2019-01-18 珠海格力电器股份有限公司 音乐推荐方法和装置
CN109165691A (zh) * 2018-09-05 2019-01-08 北京奇艺世纪科技有限公司 用于识别作弊用户的模型的训练方法、装置及电子设备

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
SHAN LI 等: "Deep Facial Expression Recognition: A Survey", 《ARXIV》 *
唐爽: "基于深度神经网络的微表情识别", 《电子技术与软件工程》 *
张波: "连续对话语音愤怒情绪检测算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
李春玲 等: "基于面部和动作表情的双模态情绪强度估计", 《系统仿真学报》 *
田欧: "基于用户上下文的推荐系统", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
邵增珍 等: "具有学习机制及情绪特征的连续进化博弈仿真", 《计算机科学》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110379234A (zh) * 2019-07-23 2019-10-25 广东小天才科技有限公司 一种学习辅导方法及装置
CN110838357A (zh) * 2019-11-19 2020-02-25 上海青鸿教育科技有限公司 基于人脸识别及动捕的注意力全息智能训练系统
CN110991322A (zh) * 2019-11-29 2020-04-10 上海能塔智能科技有限公司 情绪识别模型的更新处理方法、装置、电子设备与介质
CN114710553A (zh) * 2020-12-30 2022-07-05 本田技研工业(中国)投资有限公司 信息获取方法、信息推送方法以及终端设备
CN113144374A (zh) * 2021-04-09 2021-07-23 上海探寻信息技术有限公司 一种基于智能穿戴设备调节用户状态的方法及设备
CN113705392A (zh) * 2021-08-16 2021-11-26 百度在线网络技术(北京)有限公司 工作状态切换方法、装置、设备、存储介质及程序产品
CN113705392B (zh) * 2021-08-16 2023-09-05 百度在线网络技术(北京)有限公司 工作状态切换方法、装置、设备、存储介质及程序产品
CN115047824A (zh) * 2022-05-30 2022-09-13 青岛海尔科技有限公司 数字孪生多模态设备控制方法、存储介质及电子装置

Also Published As

Publication number Publication date
CN109871807B (zh) 2023-02-10

Similar Documents

Publication Publication Date Title
CN109871807A (zh) 人脸图像处理方法和装置
CN108009521B (zh) 人脸图像匹配方法、装置、终端及存储介质
CN109726624B (zh) 身份认证方法、终端设备和计算机可读存储介质
CN107153496B (zh) 用于输入表情图标的方法和装置
CN108205627A (zh) 交互式助理模块对访问的有条件提供
CN108335696A (zh) 语音唤醒方法和装置
CN108428446A (zh) 语音识别方法和装置
CN109783642A (zh) 多人会议场景的结构化内容处理方法、装置、设备及介质
WO2017100334A1 (en) Vpa with integrated object recognition and facial expression recognition
US11776544B2 (en) Artificial intelligence apparatus for recognizing speech of user and method for the same
CN110874716A (zh) 面试测评方法、装置、电子设备及存储介质
CN109508687A (zh) 人机交互控制方法、装置、存储介质和智能设备
CN107748500A (zh) 用于控制智能设备的方法和装置
KR20190031167A (ko) 전자 장치 및 이의 제어 방법
US11468886B2 (en) Artificial intelligence apparatus for performing voice control using voice extraction filter and method for the same
US11531881B2 (en) Artificial intelligence apparatus for controlling auto stop system based on driving information and method for the same
CN109474658A (zh) 用外部设备支持任务运行的电子设备、服务器和记录介质
CN108334498A (zh) 用于处理语音请求的方法和装置
KR20190136706A (ko) 개인 관심상황 발생 예측/인지 장치 및 방법
KR20190140801A (ko) 영상, 음성, 텍스트 정보를 기반으로 사용자의 감정, 나이, 성별을 인식하는 방법
CN109895781A (zh) 用于控制车辆的方法和装置
KR20200080418A (ko) 단말기 및 그의 동작 방법
CN108762847A (zh) 用于处理信息的方法
KR20190133579A (ko) 사용자와 대화하며 내면 상태를 이해하고 긴밀한 관계를 맺을 수 있는 감성지능형 개인비서 시스템
CN109427332A (zh) 使用语音命令执行操作的电子设备及其操作方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant