CN105574478A - 一种信息处理的方法和装置 - Google Patents
一种信息处理的方法和装置 Download PDFInfo
- Publication number
- CN105574478A CN105574478A CN201510284414.6A CN201510284414A CN105574478A CN 105574478 A CN105574478 A CN 105574478A CN 201510284414 A CN201510284414 A CN 201510284414A CN 105574478 A CN105574478 A CN 105574478A
- Authority
- CN
- China
- Prior art keywords
- emotional
- information
- face
- image
- emotional information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/175—Static expression
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明实施例公开了一种信息处理方法及装置。其中的信息处理方法包括:接收目标对象的面部图像;根据所述面部图像识别所述目标对象当前的情绪信息;根据所述情绪信息及对应关系输出预设的提示语或者播放预设的多媒体文件,其中所述对应关系为不同情绪信息与不同提示语或多媒体文件之间的对应关系。本发明通过获取目标对象的面部图像,识别出当前的情绪,根据不同的情绪采取不同的动作,不仅操作简单,而且识别效率高,便于使用。
Description
技术领域
本发明涉及数据处理领域,尤其涉及一种信息处理方法和装置。
背景技术
现代社会中,人们往往需要面对来自工作、生活、学习和情感多方面的压力,沉重的压力会导致人们情绪不良,学习效率下降,生活质量降低,甚至引发疾病,因此,情绪管理已经成为了很重要的一种舒缓压力、改善情绪的方法。现有的情绪管理方法中,首先需要对人们的情绪进行识别,在识别的基础上才能进行管理。然而,现有技术中由于没有好的识别手段,往往是要求人们自行识别并管理自己的情绪,这不仅不实用,而且操作也不方便,效率很低。
发明内容
本发明实施例提供一种信息处理方法和装置,能够识别情绪信息,进而能够更好的对情绪进行改善和管理。
本发明第一方面提供了一种信息处理方法,包括:
接收目标对象的面部图像;
根据所述面部图像识别所述目标对象当前的情绪信息;
根据所述情绪信息及对应关系输出预设的提示语或者播放预设的多媒体文件,其中所述对应关系为不同情绪信息与不同提示语或多媒体文件之间的对应关系。
优选地,接收目标对象的面部图像,包括:通过拍摄模块直接获取目标对象的面部图像;或者通过无线网络接收其他设备发送的目标对象的面部图像。
优选地,根据所述面部图像识别所述目标对象当前的情绪信息,包括:解析所述面部图像,得到面部表情特征,其中,所述面部表情特征包括:嘴唇、眼球、眼角、以及面部肌肉的动作特征;根据所述面部表情特征识别当前情绪信息。
优选地,根据所述情绪信息及对应关系输出预设的提示语或者播放预设的多媒体文件,还包括:输出所述情绪信息,其中,所述情绪信息包括情绪的名称以及情绪的等级。
优选地,还包括:存储当前的情绪信息与当前的时间信息;根据存储的多个情绪信息生成一定时间段内的情绪曲线;根据所述情绪曲线相对于预设基准值的偏离度推荐情绪管理信息,其中,所述情绪管理信息包括预设的书籍或文章。
本发明第二方面提供了一种信息处理装置,包括:
接收模块,用于接收目标对象的面部图像;
识别模块,用于根据所述面部图像识别所述目标对象当前的情绪信息;
处理模块,用于根据所述情绪信息及对应关系输出预设的提示语或者播放预设的多媒体文件,其中所述对应关系为不同情绪信息与不同提示语或多媒体文件之间的对应关系。
优选地,还包括:拍摄模块,用于获取目标对象的面部图像,所述接收模块接收拍摄模块获取的所述目标对象的面部图像。
优选地,所述接收模块通过无线网络接收其他设备发送的目标对象的面部图像。
优选地,所述识别模块解析所述面部图像,得到面部表情特征,其中,所述面部表情特征包括:嘴唇、眼球、眼角、以及面部肌肉的动作特征;根据所述面部表情特征识别当前情绪信息。
优选地,还包括:显示模块,用于输出所述情绪信息,其中所述情绪信息包括情绪的类别以及等级。
优选地,还包括:存储模块,用于存储当前的情绪信息与当前的时间信息;生成模块,用于根据存储的多个情绪信息生成一定时间段内的情绪曲线;所述处理模块还用于根据所述情绪曲线相对于预设基准值的偏离度推荐情绪管理信息,其中,所述情绪管理信息包括预设的书籍或文章。
实施本发明实施例,具有如下有益效果:
本发明实施例中,能够根据目标对象的面部图像,对目标对象的情绪进行识别,并根据不同的情绪采取不同的动作,不仅操作简单,而且识别效率高,便于使用。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的信息处理方法第一实施例的流程图。
图2为本发明实施例提供的信息处理方法第二实施例的流程图。
图3为本发明实施例提供的信息处理方法第三实施例的流程图。
图4为本发明实施例提供的一种信息处理装置第一实施例的结构示意图。
图5为本发明实施例提供的一种信息处理装置第二实施例的结构示意图。
图6为本发明实施例提供的一种信息处理装置第三实施例的结构示意图。
图7为本发明实施例提供的一种信息处理装置第四实施例的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例提供的信息处理方法第一实施例的流程图。在本实施例中,信息处理的方法可执行于智能终端上,智能终端可以为智能手机、平板电脑、电脑等电子装置。特别的,智能终端也可以为具备摄像功能和数据处理功能的智能镜子、智能梳妆镜等。该信息处理的方法包括以下步骤S101-S103。
在步骤S101中,接收目标对象的面部图像。
具体的,为了实现对目标对象的情绪识别,本发明实施例采用的方法为识别面部图像,首先接收目标对象的面部图像。
在本实施方式中,可以通过拍摄模块直接获取目标对象的面部图像。比如,信息处理的方法执行于智能终端上,智能终端具有拍摄模块,此时,智能终端通过拍摄模块直接获取目标对象的面部图像。
在其他实施方式中,也可以通过无线网络接收其他设备发送的目标对象的面部图像。其他设备可以是具有拍摄功能的装置,如智能终端、智能镜子等。其他设备拍摄目标对象的面部图像之后,通过无线网络发送面部对象。其中,无线网络方式可以为红外线、蓝牙等,本发明并不以此为限。
在步骤S102中,根据所述面部图像识别所述目标对象当前的情绪信息。
具体的,在接收到目标对象的面部图像之后,对面部图像进行解析,得到面部表情特征,其中,所述面部表情特征包括:嘴唇、眼球、眼角、以及面部肌肉的动作特征,根据所述面部表情特征识别当前的情绪信息。研究表明,情绪会根据面部的表情动作进行表达,因此通过识别面部的表情特征,可以真实的了解当前的情绪。比如,如果笑的时候只牵动了颧大肌,就是一个假笑,因为真正的笑容除了颧大肌以外眼轮匝肌也会被牵动。在本实施例中,在获取面部表情特征之后,可以根据所述面部表情特征识别当前真实的情绪信息。在其他实施方式中,也可以采用其他面部识别的方法,比如采用Affectiva公司的Affdex面部表情识别系统进行识别,本发明并不以此为限。
在步骤S103中,根据所述情绪信息及对应关系输出预设的提示语或者播放预设的多媒体文件。
具体的,所述对应关系为不同情绪信息与不同提示语或多媒体文件之间的对应关系。在步骤S102中对情绪信息进行识别了之后,在本步骤中,会根据具体的情绪信息,作出相对于的改善动作,改善动作具体为输出与不同情绪对应的预设的提示语,或者播放预设的多媒体文件,其中,多媒体文件包括视频文件或音频文件。在本实施方式中,情绪被分为七种,分别是:快乐、悲伤、蔑视、恐惧、愤怒、厌恶以及惊讶。针对这七种不同的情绪,先预设不同的提示语和多媒体文件与之对应。比如,当情绪为愤怒时,与之对应的提示语可以是:“深呼吸,生气对身体不好”,与之对应的多媒体文件可以是一段舒缓的音乐,或者是一个搞笑视频;当情绪为快乐时,与之对应的提示语可以是:“再接再厉,继续保持”,与之对应的多媒体文件可以是一段慷慨激昂的音乐。这样,按照不同的情绪,以及不同的改善方法,形成对应关系。在识别出当前的情绪信息了之后,就按照该情绪信息以及将对应关系输出预设的提示语或者播放预设的多媒体文件。
上述可知,本发明实施例中的信息处理方法,通过对目标对象的面部图像进行识别,识别出当前的情绪,根据不同的情绪采取不同的动作,不仅操作简单,而且识别效率高,便于使用。
图2为本发明实施例提供的信息处理方法第二实施例的流程图。该方法包括以下步骤S201-S204。本实施例中S201-S202与上一实施例中S101-S102的步骤相同,S204与上一实施例中S103中步骤相同,在此不赘述。下面仅对步骤S203进行详细的说明。
在步骤S203中,输出所述情绪信息,其中,所述情绪信息包括情绪的名称以及情绪的等级。
具体的,在本步骤中,在识别出当前的情绪信息了之后,对当前的情绪信息进行显示,以供目标对象了解。其中,情绪信息包括情绪的名称以及情绪的等级。在本实施方式中,情绪被分为七种,分别是:快乐、悲伤、蔑视、恐惧、愤怒、厌恶以及惊讶。在每一种情绪中,又被分为1-10十个等级,等级越高,表明情绪越突出。这样在显示情绪信息的时候,就会显示出详细的情绪信息,包括该当前情绪的名称以及当前情绪的级别。比如:快乐7级或者愤怒3级等。特别的,为了进一步的提醒目标对象注意,供目标对象生动的了解自己当前的情绪,不同的情绪类别可以对应为不同的颜色。七种情绪分别对应为:快乐—绿色、悲伤—蓝色、蔑视—橙色、恐惧—紫色、愤怒—红色、厌恶—青色以及惊讶—黄色。每种情绪下面的不同等级则对应不同的颜色深浅。在对情绪信息进行显示时,可以是直接采用不同颜色的文字形式,也可以是直接将显示屏幕的背景全部更换为对应的颜色,这样能够引起目标对象的注意,促使目标对象认识到自己此刻的情绪,便于后续进行情绪的改善和调节。
上述可知,本发明实施例中的信息处理方法,通过对目标对象的面部图像进行识别,识别出当前的情绪,并显示情绪信息,根据不同的情绪采取不同的动作,不仅操作简单,识别效率高,便于使用,还能够更加生动的让人们识别自己的情绪,同时能够帮助人们更好的对情绪进行改善、调节和管理。
图3为本发明实施例提供的信息处理方法第三实施例的流程图。该方法包括以下步骤S301-S305。本实施例中S301-S304与上一实施例中S201-S204的步骤相同,在此不赘述。下面仅对步骤S305进行详细的说明。
在步骤S305中,存储当前的情绪信息与当前的时间信息。
具体的,将目标对象当前的情绪信息与当前的时间信息一一对应,进行存储。因为每天不同的时刻,由于遇到不同的人和事,情绪也会有变化,将情绪信息与时间信息进行存储,可以保存情绪与时间之间的关系,便于后续对情绪的进一步分析和管理。
在步骤S306中,根据存储的多个情绪信息生成一定时间段内的情绪曲线。
具体的,在保存了不同时间的多个情绪信息之后,根据存储的多个情绪信息生成一定时间段内的情绪曲线。时间段可以自行设置,可以是一天、一周或者半个月。在情绪曲线的坐标系中,横轴为时间,纵轴为情绪信息,根据不同的情绪以及情绪的等级形成情绪曲线。
在步骤S307中,根据所述情绪曲线相对于预设基准值的偏离度推荐情绪管理信息,其中,所述情绪管理信息包括预设的书籍或文章。
具体的,根据情绪曲线相对于预设基准值的偏离度,可以看出情绪的波动。根据情绪的波动特性,推荐情绪管理信息,其中,所述情绪管理信息包括相应的情绪管理书籍和情绪管理的文章。现有的科学研究中,针对不同的情绪,有着很多对应的情绪管理方法。本步骤中,在识别了情绪波动特性之后,根据情绪波动推荐相应的情绪管理方法供参考,从而进一步的提升目标对象管理情绪的能力。
上述可知,本发明实施例中的信息处理方法,通过对目标对象的面部图像进行识别,识别出当前的情绪,并显示情绪信息,根据不同的情绪采取不同的动作,并通过一定时间段内的情绪曲线推荐情绪管理信息,能够根据情绪的波动特性,推荐相应的情绪管理方法,从而帮助人们更好的对情绪进行改善、调节和管理。
图4为本发明实施例提供的一种信息处理装置第一实施例的结构示意图。该信息处理装置可以应用于智能终端上,智能终端可以为:智能手机、平板电脑、电脑等;也可以应用于智能镜子上,比如具备摄像功能和数据处理功能的智能镜子、智能梳妆镜等。该信息处理装置包括:接收模块401、识别模块402以及处理模块403。
接收模块401用于接收目标对象的面部图像。
具体的,为了实现对目标对象的情绪识别,信息处理装置首先接收目标对象的面部图像。
在本实施方式中,接收模块401通过无线网络接收其他设备发送的目标对象的面部图像。其他设备可以是具有拍摄功能的装置,如智能终端、智能镜子等。其他设备拍摄目标对象的面部图像之后,通过无线网络发送面部对象。其中,无线网络方式可以为红外线、蓝牙等,本发明并不以此为限。
在其他实施方式中,如图5所示,为本发明实施例提供的一种信息处理装置第二实施例的结构示意图,在本实施例中,信息处理装置还包括拍摄模块404。拍摄模块404用于获取目标对象的面部图像,所述接收模块401还用于接收拍摄模块404获取的所述目标对象的面部图像。即,在本实施例中,是由信息处理装置自身直接获取到目标对象的面部图像。
识别模块402用于根据所述面部图像识别所述目标对象当前的情绪信息。
具体的,在接收模块401接收到目标对象的面部图像之后。识别模块402对面部图像进行解析,得到面部表情特征,其中,所述面部表情特征包括:嘴唇、眼球、眼角、以及面部肌肉的动作特征,根据所述面部表情特征识别当前的情绪信息。研究表明,情绪会根据面部的表情动作进行表达,因此通过识别面部的表情特征,可以真实的了解当前的情绪。比如,如果笑的时候只牵动了颧大肌,就是一个假笑,因为真正的笑容除了颧大肌以外眼轮匝肌也会被牵动。在本实施例中,识别模块402在获取面部表情特征之后,可以根据所述面部表情特征识别当前真实的情绪信息。在其他实施方式中,识别模块402也可以采用其他面部识别的方法,比如采用Affectiva公司的Affdex面部表情识别系统进行识别,本发明并不以此为限。
处理模块403用于根据所述情绪信息及对应关系输出预设的提示语或者播放预设的多媒体文件。
具体的,所述对应关系为不同情绪信息与不同提示语或多媒体文件之间的对应关系。在识别模块402中对情绪信息进行识别了之后,处理模块403会根据具体的情绪信息,作出相对于的改善动作,改善动作具体为输出与不同情绪对应的预设的提示语,或者播放预设的多媒体文件,其中,多媒体文件包括视频文件或音频文件。在本实施方式中,情绪被分为七种,分别是:快乐、悲伤、蔑视、恐惧、愤怒、厌恶以及惊讶。针对这七种不同的情绪,先预设不同的提示语和多媒体文件与之对应。比如,当情绪为愤怒时,与之对应的提示语可以是:“深呼吸,生气对身体不好”,与之对应的多媒体文件可以是一段舒缓的音乐,或者是一个搞笑视频;当情绪为快乐时,与之对应的提示语可以是:“再接再厉,继续保持”,与之对应的多媒体文件可以是一段慷慨激昂的音乐。这样,按照不同的情绪,以及不同的改善方法,形成对应关系。在识别模块402识别出当前的情绪信息了之后,处理模块403就按照该情绪信息以及将对应关系输出预设的提示语或者播放预设的多媒体文件。
上述可知,本发明实施例中的信息处理装置,通过对目标对象的面部图像进行识别,识别出当前的情绪,根据不同的情绪采取不同的动作,不仅操作简单,而且识别效率高,便于使用。
图6为本发明实施例提供的一种信息处理装置第三实施例的结构示意图。在本实施例中,信息处理装置包括:接收模块601、识别模块602、处理模块603以及显示模块604。其中,接收模块601、识别模块602以及处理模块603与第一实施例中接收模块401、识别模块402以及处理模块403实现的功能相同。
接收模块601用于接收目标对象的面部图像。
识别模块602用于根据所述面部图像识别所述目标对象当前的情绪信息。
显示模块604用于输出所述情绪信息,其中所述情绪信息包括情绪的类别以及等级。
具体的,在识别模块602识别出当前的情绪信息了之后,显示模块604对当前的情绪信息进行显示,以供目标对象了解。其中,情绪信息包括情绪的名称以及情绪的等级。在本实施方式中,情绪被分为七种,分别是:快乐、悲伤、蔑视、恐惧、愤怒、厌恶以及惊讶。在每一种情绪中,又被分为1-10十个等级,等级越高,表明情绪越突出。这样在显示模块604显示情绪信息的时候,就会显示出详细的情绪信息,包括该当前情绪的名称以及当前情绪的级别。比如:快乐7级或者愤怒3级等。特别的,为了进一步的提醒目标对象注意,供目标对象生动的了解自己当前的情绪,不同的情绪类别可以对应为不同的颜色。七种情绪分别对应为:快乐—绿色、悲伤—蓝色、蔑视—橙色、恐惧—紫色、愤怒—红色、厌恶—青色以及惊讶—黄色。每种情绪下面的不同等级则对应不同的颜色深浅。显示模块604在对情绪信息进行显示时,可以是直接采用不同颜色的文字形式,也可以是直接将显示屏幕的背景全部更换为对应的颜色,这样能够引起目标对象的注意,促使目标对象认识到自己此刻的情绪,便于后续进行情绪的改善和调节。
处理模块603用于根据所述情绪信息及对应关系输出预设的提示语或者播放预设的多媒体文件。
上述可知,本发明实施例中的信息处理装置,通过对目标对象的面部图像进行识别,识别出当前的情绪,并显示情绪信息,根据不同的情绪采取不同的动作,不仅操作简单,识别效率高,便于使用,还能够更加生动的让人们识别自己的情绪,同时能够帮助人们更好的对情绪进行改善、调节和管理。
图7为本发明实施例提供的一种信息处理装置第四实施例的结构示意图。相比图6第三实施例中的信息处理装置,在本实施例中,信息处理装置还包括:存储模块705以及生成模块706。
在本实施例中,接收模块701、识别模块702、处理模块703以及显示模块704的功能与图6第三实施例中相同,在此不再赘述。
存储模块705用于存储当前的情绪信息与当前的时间信息。
具体的,存储模块705将目标对象当前的情绪信息与当前的时间信息一一对应,进行存储。因为每天不同的时刻,由于遇到不同的人和事,情绪也会有变化,将情绪信息与时间信息进行存储,可以保存情绪与时间之间的关系,便于后续对情绪的进一步分析和管理。
生成模块706用于根据存储的多个情绪信息生成一定时间段内的情绪曲线。
具体的,在存储模块705保存了不同时间的多个情绪信息之后,生成模块706根据存储的多个情绪信息生成一定时间段内的情绪曲线。时间段可以自行设置,可以是一天、一周或者半个月。在情绪曲线的坐标系中,横轴为时间,纵轴为情绪信息,根据不同的情绪以及情绪的等级形成情绪曲线。
处理模块703还用于根据所述情绪曲线相对于预设基准值的偏离度推荐情绪管理信息,其中,所述情绪管理信息包括预设的书籍或文章。
具体的,根据情绪曲线相对于预设基准值的偏离度,可以看出情绪的波动。处理模块703根据情绪的波动特性,推荐情绪管理信息,其中,所述情绪管理信息包括相应的情绪管理书籍和情绪管理的文章。现有的科学研究中,针对不同的情绪,有着很多对应的情绪管理方法。处理模块703在识别了情绪波动特性之后,根据情绪波动推荐相应的情绪管理方法供参考,从而进一步的提升目标对象管理情绪的能力。
上述可知,本发明实施例中的信息处理装置,通过对目标对象的面部图像进行识别,识别出当前的情绪,并显示情绪信息,根据不同的情绪采取不同的动作,并通过一定时间段内的情绪曲线推荐情绪管理信息,能够根据情绪的波动特性,推荐相应的情绪管理方法,从而帮助人们更好的对情绪进行改善、调节和管理。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-OnlyMemory,ROM)或随机存储记忆体(RandomAccessMemory,RAM)等。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (11)
1.一种信息处理方法,其特征在于,包括:
接收目标对象的面部图像;
根据所述面部图像识别所述目标对象当前的情绪信息;
根据所述情绪信息及对应关系输出预设的提示语或者播放预设的多媒体文件,其中所述对应关系为不同情绪信息与不同提示语或多媒体文件之间的对应关系。
2.如权利要求1所述的信息处理方法,其特征在于,接收目标对象的面部图像,包括:
通过拍摄模块直接获取目标对象的面部图像;或者
通过无线网络接收其他设备发送的目标对象的面部图像。
3.如权利要求2所述的信息处理方法,其特征在于,根据所述面部图像识别所述目标对象当前的情绪信息,包括:
解析所述面部图像,得到面部表情特征,其中,所述面部表情特征包括:嘴唇、眼球、眼角、以及面部肌肉的动作特征;
根据所述面部表情特征识别当前情绪信息。
4.如权利要求3所述的信息处理方法,其特征在于,根据所述情绪信息及对应关系输出预设的提示语或者播放预设的多媒体文件,还包括:
输出所述情绪信息,其中,所述情绪信息包括情绪的名称以及情绪的等级。
5.如权利要求4所述的信息处理方法,其特征在于,还包括:
存储当前的情绪信息与当前的时间信息;
根据存储的多个情绪信息生成一定时间段内的情绪曲线;
根据所述情绪曲线相对于预设基准值的偏离度推荐情绪管理信息,其中,所述情绪管理信息包括预设的书籍或文章。
6.一种信息处理装置,其特征在于,包括:
接收模块,用于接收目标对象的面部图像;
识别模块,用于根据所述面部图像识别所述目标对象当前的情绪信息;
处理模块,用于根据所述情绪信息及对应关系输出预设的提示语或者播放预设的多媒体文件,其中所述对应关系为不同情绪信息与不同提示语或多媒体文件之间的对应关系。
7.如权利要求6所述的信息处理装置,其特征在于,还包括:
拍摄模块,用于获取目标对象的面部图像,所述接收模块接收拍摄模块获取的所述目标对象的面部图像。
8.如权利要求6所述的信息处理装置,其特征在于:
所述接收模块通过无线网络接收其他设备发送的目标对象的面部图像。
9.如权利要求7或8所述的信息处理装置,其特征在于:
所述识别模块解析所述面部图像,得到面部表情特征,其中,所述面部表情特征包括:嘴唇、眼球、眼角、以及面部肌肉的动作特征;根据所述面部表情特征识别当前情绪信息。
10.如权利要求9所述的信息处理装置,其特征在于,还包括:
显示模块,用于输出所述情绪信息,其中所述情绪信息包括情绪的类别以及等级。
11.如权利要求10所述的信息处理装置,其特征在于,还包括:
存储模块,用于存储当前的情绪信息与当前的时间信息;
生成模块,用于根据存储的多个情绪信息生成一定时间段内的情绪曲线;
所述处理模块还用于根据所述情绪曲线相对于预设基准值的偏离度推荐情绪管理信息,其中,所述情绪管理信息包括预设的书籍或文章。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510284414.6A CN105574478A (zh) | 2015-05-28 | 2015-05-28 | 一种信息处理的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510284414.6A CN105574478A (zh) | 2015-05-28 | 2015-05-28 | 一种信息处理的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105574478A true CN105574478A (zh) | 2016-05-11 |
Family
ID=55884588
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510284414.6A Pending CN105574478A (zh) | 2015-05-28 | 2015-05-28 | 一种信息处理的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105574478A (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106125929A (zh) * | 2016-06-23 | 2016-11-16 | 中国地质大学(武汉) | 基于人脸表情识别与颜色情感反馈的人镜交互方法及系统 |
CN107038413A (zh) * | 2017-03-08 | 2017-08-11 | 合肥华凌股份有限公司 | 食谱推荐方法、装置及冰箱 |
CN107317927A (zh) * | 2017-06-22 | 2017-11-03 | 深圳市沃特沃德股份有限公司 | 与用户互动的方法及智能终端 |
CN107423351A (zh) * | 2017-05-24 | 2017-12-01 | 维沃移动通信有限公司 | 一种信息处理方法及电子设备 |
CN107730483A (zh) * | 2016-08-10 | 2018-02-23 | 阿里巴巴集团控股有限公司 | 移动设备、处理脸部生物特征的方法、装置和系统 |
CN108174293A (zh) * | 2017-12-01 | 2018-06-15 | 咪咕视讯科技有限公司 | 信息处理方法及装置、服务器及存储介质 |
CN108577866A (zh) * | 2018-04-03 | 2018-09-28 | 中国地质大学(武汉) | 一种多维情感识别与缓解的系统及方法 |
CN108810625A (zh) * | 2018-06-07 | 2018-11-13 | 腾讯科技(深圳)有限公司 | 一种多媒体数据的播放控制方法、装置及终端 |
CN109241336A (zh) * | 2018-08-23 | 2019-01-18 | 珠海格力电器股份有限公司 | 音乐推荐方法和装置 |
CN109522059A (zh) * | 2018-11-28 | 2019-03-26 | 广东小天才科技有限公司 | 一种程序唤醒方法及系统 |
CN109829362A (zh) * | 2018-12-18 | 2019-05-31 | 深圳壹账通智能科技有限公司 | 安检辅助分析方法、装置、计算机设备和存储介质 |
WO2019192096A1 (zh) * | 2018-04-03 | 2019-10-10 | 平安科技(深圳)有限公司 | 信息传递方法、接收终端设备、发送终端设备及存储介质 |
CN110764618A (zh) * | 2019-10-25 | 2020-02-07 | 郑子龙 | 一种仿生交互系统、方法及相应的生成系统和方法 |
CN112330579A (zh) * | 2020-10-30 | 2021-02-05 | 中国平安人寿保险股份有限公司 | 视频背景更换方法、装置、计算机设备及计算机可读介质 |
CN113572893A (zh) * | 2021-07-13 | 2021-10-29 | 青岛海信移动通信技术股份有限公司 | 一种终端设备、情绪反馈方法及存储介质 |
WO2021232744A1 (zh) * | 2020-05-21 | 2021-11-25 | 北京百度网讯科技有限公司 | 一种用户交互方法、装置、设备及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102300163A (zh) * | 2011-09-22 | 2011-12-28 | 宇龙计算机通信科技(深圳)有限公司 | 信息推送方法、移动终端和系统 |
US20120120219A1 (en) * | 2010-11-15 | 2012-05-17 | Hon Hai Precision Industry Co., Ltd. | Electronic device and emotion management method using the same |
CN102961150A (zh) * | 2012-11-23 | 2013-03-13 | 苏州市职业大学 | 心情记录仪 |
CN103136321A (zh) * | 2012-09-06 | 2013-06-05 | 北京天宇朗通通信设备股份有限公司 | 多媒体信息处理方法和装置及移动终端 |
CN103902046A (zh) * | 2014-04-10 | 2014-07-02 | 深圳市中兴移动通信有限公司 | 智能提醒方法和终端 |
CN103974657A (zh) * | 2011-12-16 | 2014-08-06 | 皇家飞利浦有限公司 | 用户的活动和相关联的情绪状态的历史日志 |
CN104462468A (zh) * | 2014-12-17 | 2015-03-25 | 百度在线网络技术(北京)有限公司 | 信息提供方法及装置 |
-
2015
- 2015-05-28 CN CN201510284414.6A patent/CN105574478A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120120219A1 (en) * | 2010-11-15 | 2012-05-17 | Hon Hai Precision Industry Co., Ltd. | Electronic device and emotion management method using the same |
CN102300163A (zh) * | 2011-09-22 | 2011-12-28 | 宇龙计算机通信科技(深圳)有限公司 | 信息推送方法、移动终端和系统 |
CN103974657A (zh) * | 2011-12-16 | 2014-08-06 | 皇家飞利浦有限公司 | 用户的活动和相关联的情绪状态的历史日志 |
CN103136321A (zh) * | 2012-09-06 | 2013-06-05 | 北京天宇朗通通信设备股份有限公司 | 多媒体信息处理方法和装置及移动终端 |
CN102961150A (zh) * | 2012-11-23 | 2013-03-13 | 苏州市职业大学 | 心情记录仪 |
CN103902046A (zh) * | 2014-04-10 | 2014-07-02 | 深圳市中兴移动通信有限公司 | 智能提醒方法和终端 |
CN104462468A (zh) * | 2014-12-17 | 2015-03-25 | 百度在线网络技术(北京)有限公司 | 信息提供方法及装置 |
Non-Patent Citations (1)
Title |
---|
JEFF JOHNSON: "《GUI设计禁忌》", 31 December 2005, 北京:机械工业出版社 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106125929A (zh) * | 2016-06-23 | 2016-11-16 | 中国地质大学(武汉) | 基于人脸表情识别与颜色情感反馈的人镜交互方法及系统 |
CN107730483A (zh) * | 2016-08-10 | 2018-02-23 | 阿里巴巴集团控股有限公司 | 移动设备、处理脸部生物特征的方法、装置和系统 |
CN107038413A (zh) * | 2017-03-08 | 2017-08-11 | 合肥华凌股份有限公司 | 食谱推荐方法、装置及冰箱 |
CN107423351A (zh) * | 2017-05-24 | 2017-12-01 | 维沃移动通信有限公司 | 一种信息处理方法及电子设备 |
CN107317927A (zh) * | 2017-06-22 | 2017-11-03 | 深圳市沃特沃德股份有限公司 | 与用户互动的方法及智能终端 |
CN108174293A (zh) * | 2017-12-01 | 2018-06-15 | 咪咕视讯科技有限公司 | 信息处理方法及装置、服务器及存储介质 |
WO2019192096A1 (zh) * | 2018-04-03 | 2019-10-10 | 平安科技(深圳)有限公司 | 信息传递方法、接收终端设备、发送终端设备及存储介质 |
CN108577866A (zh) * | 2018-04-03 | 2018-09-28 | 中国地质大学(武汉) | 一种多维情感识别与缓解的系统及方法 |
CN108810625A (zh) * | 2018-06-07 | 2018-11-13 | 腾讯科技(深圳)有限公司 | 一种多媒体数据的播放控制方法、装置及终端 |
CN109241336A (zh) * | 2018-08-23 | 2019-01-18 | 珠海格力电器股份有限公司 | 音乐推荐方法和装置 |
CN109522059A (zh) * | 2018-11-28 | 2019-03-26 | 广东小天才科技有限公司 | 一种程序唤醒方法及系统 |
CN109522059B (zh) * | 2018-11-28 | 2023-01-06 | 广东小天才科技有限公司 | 一种程序唤醒方法及系统 |
CN109829362A (zh) * | 2018-12-18 | 2019-05-31 | 深圳壹账通智能科技有限公司 | 安检辅助分析方法、装置、计算机设备和存储介质 |
CN110764618A (zh) * | 2019-10-25 | 2020-02-07 | 郑子龙 | 一种仿生交互系统、方法及相应的生成系统和方法 |
WO2021232744A1 (zh) * | 2020-05-21 | 2021-11-25 | 北京百度网讯科技有限公司 | 一种用户交互方法、装置、设备及介质 |
CN113703565A (zh) * | 2020-05-21 | 2021-11-26 | 北京百度网讯科技有限公司 | 一种用户交互方法、装置、设备及介质 |
CN112330579A (zh) * | 2020-10-30 | 2021-02-05 | 中国平安人寿保险股份有限公司 | 视频背景更换方法、装置、计算机设备及计算机可读介质 |
CN113572893A (zh) * | 2021-07-13 | 2021-10-29 | 青岛海信移动通信技术股份有限公司 | 一种终端设备、情绪反馈方法及存储介质 |
CN113572893B (zh) * | 2021-07-13 | 2023-03-14 | 青岛海信移动通信技术股份有限公司 | 一种终端设备、情绪反馈方法及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105574478A (zh) | 一种信息处理的方法和装置 | |
US11334804B2 (en) | Cognitive music selection system and method | |
CN106658129B (zh) | 基于情绪的终端控制方法、装置及终端 | |
US8494338B2 (en) | Electronic apparatus, video content editing method, and program | |
Jannat et al. | Ubiquitous emotion recognition using audio and video data | |
CN111198958A (zh) | 匹配背景音乐的方法、装置及终端 | |
Triantafyllopoulos et al. | Deep speaker conditioning for speech emotion recognition | |
US20120120219A1 (en) | Electronic device and emotion management method using the same | |
CN107589828A (zh) | 基于知识图谱的人机交互方法及系统 | |
CN110442867B (zh) | 图像处理方法、装置、终端及计算机存储介质 | |
CN113556603B (zh) | 调整视频播放效果的方法及装置、电子设备 | |
CN107316641B (zh) | 一种语音控制方法及电子设备 | |
Varni et al. | Computational study of primitive emotional contagion in dyadic interactions | |
CN102244788A (zh) | 信息处理方法、信息处理装置、场景元数据提取装置、丢失恢复信息生成装置和程序 | |
US9706168B1 (en) | Room conferencing system with heat map annotation of documents | |
WO2021159896A1 (zh) | 视频处理方法和视频处理的设备、存储介质 | |
CN108521589A (zh) | 视频处理方法和装置 | |
US11503375B2 (en) | Systems and methods for displaying subjects of a video portion of content | |
CN113496156A (zh) | 一种情感预测方法及其设备 | |
CN112149599B (zh) | 表情追踪方法、装置、存储介质和电子设备 | |
Szwoch | On facial expressions and emotions RGB-D database | |
CN117033556A (zh) | 基于人工智能的记忆保存和记忆提取方法及相关设备 | |
CN114035686B (zh) | 融合触觉的多模态微动效广告情境构建方法 | |
CN108549483B (zh) | 一种智能画框的控制方法及控制系统 | |
CN108429932A (zh) | 视频处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160511 |
|
RJ01 | Rejection of invention patent application after publication |