CN106469297A - 情绪识别方法、装置和终端设备 - Google Patents
情绪识别方法、装置和终端设备 Download PDFInfo
- Publication number
- CN106469297A CN106469297A CN201610789402.3A CN201610789402A CN106469297A CN 106469297 A CN106469297 A CN 106469297A CN 201610789402 A CN201610789402 A CN 201610789402A CN 106469297 A CN106469297 A CN 106469297A
- Authority
- CN
- China
- Prior art keywords
- data
- emotion
- user
- category feature
- emotion identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/432—Query formulation
- G06F16/433—Query formulation using audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/435—Filtering based on additional data, e.g. user or group profiles
- G06F16/436—Filtering based on additional data, e.g. user or group profiles using biological or physiological data of a human being, e.g. blood pressure, facial expression, gestures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Physiology (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本公开是关于一种情绪识别方法、装置和终端设备,该方法包括:获取用户的至少两类特征数据,其中,所述至少两类特征数据包括面部图像数据,语音数据或者睡眠数据;分别基于所述至少两类特征数据进行情绪识别,得到对应的至少两个用户情绪数据,其中,每个用户情绪数据包括情绪识别结果以及准确度;根据所述至少两个用户情绪数据确定用户情绪。本公开提供的情绪识别方法、装置和终端设备能够提高情绪识别的精确性。
Description
技术领域
本公开涉及情绪识别技术领域,尤其涉及一种情绪识别方法、装置和终端设备。
背景技术
主观情绪在人们生活和工作的各个方面起到了不可或缺的重要作用,而且在生活压力越来越大的今天,更多的人在不同程度上受到负面情绪的影响,尤其是一些特殊工作的人,比如从事航空航天、军事、心理医生、客服等工作人员,长时间工作环境单一、枯燥,容易产生消极情绪,而消极的情绪不但会降低工作效率,还会对身心健康造成不利的影响,因此,对情绪的自动识别研究显得尤为重要,且具有实际意义。
发明内容
本公开提供一种情绪识别方法、装置和终端设备,用以对用户的情绪进行准确的识别。
根据本公开实施例的第一方面,提供一种情绪识别方法,包括:
获取用户的至少两类特征数据,其中,所述至少两类特征数据包括面部图像数据,语音数据或者睡眠数据;
分别基于所述至少两类特征数据进行情绪识别,得到对应的至少两个用户情绪数据,其中,每个用户情绪数据包括情绪识别结果以及准确度;
根据所述至少两个用户情绪数据确定用户情绪。
该技术方案可以包括以下有益效果:通过获取用户的面部图像数据,语音数据或者睡眠数据等的至少两类特征数据,并基于获取到的特征数据进行情绪识别,获得对应的至少两个用户情绪数据,,从而根据获得的至少两个用户情绪数据确定用户的情绪,实现了用户情绪的精准识别。
在第一方面的第一种可能的实现方式中,所述分别基于所述至少两类特征数据进行情绪识别,得到对应的至少两个用户情绪数据,包括:
将所述至少两类特征数据分别与数据库中存储的对应的参考数据进行对比,确定每类特征数据和对应参考数据之间的相似度;
根据所述相似度,确定每类特征数据对应的情绪识别结果以及所述情绪识别结果的准确度。
该技术方案可以包括以下有益效果:通过将包含用户的面部图像数据,语音数据或者睡眠数据的至少两类特征数据分别与数据库中存储的对应的参考数据进行对比,确定每类特征数据和对应参考数据之间的相似度,并根据获得的相似度,确定每类特征数据对应的情绪识别结果以及情绪识别结果的准确度。从而根据各情绪识别结果以及各情绪识别结果对应的准确度,确定用户的情绪。,实现了用户情绪的精准识别。
根据第一方面的第一种可能的实现方式,在第一方面的第二种可能的实现方式中,所述参考数据包括:积极情绪对应的面部图像数据和负面情绪对应的面部图像数据,积极情绪对应的语音数据和负面情绪对应的语音数据,积极情绪对应的睡眠数据和负面情绪对应的睡眠数据。
该技术方案可以包括以下有益效果:通过将积极情绪对应的面部图像数据和负面情绪对应的面部图像数据,积极情绪对应的语音数据和负面情绪对应的语音数据,以及积极情绪对应的睡眠数据和负面情绪对应的睡眠数据存储在数据库中,方便了数据比较,有助于用户情绪的识别。
根据第一方面的第二种可能的实现方式,在第一方面的第三种可能的实现方式中,所述面部图像数据至少包括眼睛形态数据、眉毛形态数据以及嘴部形态数据中的一种。
根据第一方面的第二种可能的实现方式,在第一方面的第四种可能的实现方式中,所述语音数据包括语音信号的频谱数据。
根据第一方面,以及第一方面的第一种可能,第二种可能、第三种可能和第四种可能中的任意一种实现方式,所述根据所述至少两个用户情绪数据确定用户情绪,包括:
根据各情绪识别结果对应的准确度,确定对应准确度最大的情绪识别结果为所述用户的情绪。
该技术方案可以包括以下有益效果:通过将各情绪识别结果对应的准确度进行对比,将对应准确度最大的情绪识别结果作为用户的情绪,能够减少误识别的发生,提高用户情绪识别结果的准确定。
根据本公开实施例的第二方面,提供一种情绪识别装置,包括:
获取模块,被配置为获取用户的至少两类特征数据,其中,所述至少两类特征数据包括面部图像数据,语音数据或者睡眠数据;
识别模块,被配置为别基于所述至少两类特征数据进行情绪识别,得到对应的至少两个用户情绪数据,其中,每个用户情绪数据包括情绪识别结果以及准确度;
确定模块,被配置为根据所述至少两个用户情绪数据确定用户情绪。
该技术方案可以包括以下有益效果:通过获取用户的面部图像数据,语音数据或者睡眠数据等的至少两类特征数据,并基于获取到的特征数据进行情绪识别,获得对应的至少两个用户情绪数据,,从而根据获得的至少两个用户情绪数据确定用户的情绪,实现了用户情绪的精准识别。
在第二方面的第一种可能的实现方式中,所述识别模块包括:
第一确定子模块,被配置为将所述至少两类特征数据分别与数据库中存储的对应的参考数据进行对比,确定每类特征数据和对应参考数据之间的相似度;
第二确定子模块,被配置为根据所述相似度,确定每类特征数据对应的情绪识别结果以及所述情绪识别结果的准确度。
该技术方案可以包括以下有益效果:通过将包含用户的面部图像数据,语音数据或者睡眠数据的至少两类特征数据分别与数据库中存储的对应的参考数据进行对比,确定每类特征数据和对应参考数据之间的相似度,并根据获得的相似度,确定每类特征数据对应的情绪识别结果以及情绪识别结果的准确度。从而根据各情绪识别结果以及各情绪识别结果对应的准确度,确定用户的情绪,,实现了用户情绪的精准识别。
根据第二方面的第一种可能的实现方式,在第二方面的第二种可能的实现方式中,所述参考数据包括:积极情绪对应的面部图像数据和负面情绪对应的面部图像数据,积极情绪对应的语音数据和负面情绪对应的语音数据,积极情绪对应的睡眠数据和负面情绪对应的睡眠数据。
该技术方案可以包括以下有益效果:通过将积极情绪对应的面部图像数据和负面情绪对应的面部图像数据,积极情绪对应的语音数据和负面情绪对应的语音数据,以及积极情绪对应的睡眠数据和负面情绪对应的睡眠数据存储在数据库中,方便了数据比较,有助于用户情绪的识别。
根据第二方面的第二种可能的实现方式,在第二方面的第三种可能的实现方式中,所述面部图像数据至少包括眼睛形态数据、眉毛形态数据以及嘴部形态数据中的一种。
根据第二方面的第二种可能的实现方式,在第二方面的第四种可能的实现方式中,所述语音数据包括语音信号的频谱数据。
根据第二方面,以及第二方面的第一种可能,第二种可能、第三种可能和第四种可能中的任意一种实现方式,所述确定模块,被配置为根据各情绪识别结果对应的准确度,确定对应准确度最大的情绪识别结果为所述用户的情绪。
该技术方案可以包括以下有益效果:通过将各情绪识别结果对应的准确度进行对比,将对应准确度最大的情绪识别结果作为用户的情绪,能够减少误识别的发生,提高用户情绪识别结果的准确定。
根据本公开实施例的第三方面,提供一种情绪识别终端设备,包括:
处理器;
被配置为存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
获取用户的至少两类特征数据,其中,所述至少两类特征数据包括面部图像数据,语音数据或者睡眠数据;
分别基于所述至少两类特征数据进行情绪识别,得到对应的至少两个用户情绪数据,其中,每个用户情绪数据包括情绪识别结果以及准确度;
根据所述至少两个用户情绪数据确定用户情绪。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种情绪识别方法实施例一的流程图;
图2是根据一示例性实施例示出的一种情绪识别方法实施例二的流程图;
图3是根据一示例性实施例示出的一种情绪识别装置实施例一的框图;
图4是根据一示例性实施例示出的一种情绪识别装置实施例二的框图;
图5是根据一示例性实施例示出的一种情绪识别终端设备的框图;
图6是根据一示例性实施例示出的另一种情绪识别终端设备的框图。
通过上述附图,已示出本公开明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实施例为本领域技术人员说明本公开的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
图1是根据一示例性实施例示出的一种情绪识别方法实施例一的流程图,该方法可以由情绪识别装置来执行,该情绪识别装置可以集成在情绪识别终端设备中,如图1所示,该方法包括以下步骤:
在步骤101中,获取用户的至少两类特征数据,其中,所述至少两类特征数据包括面部图像数据,语音数据或者睡眠数据。
本实施例中,用户的面部图像数据主要包括用户在发生面部表情时最明显,且便于分析的几个区域的数据,例如用户的眉毛形态数据、眼睛形态数据以及嘴部形态数据等。
实际应用中,用户的面部图像数据可以从用户的面部照片或视频图像中获得,以视频图像为例,当对用户的情绪进行识别时,启动终端设备的摄像头进行视频录像,在获得用户的视频录像后,从该视频录像中随机抽取若干帧(例如3帧)包含用户面部图像的视频帧,并对该视频帧中用户的面部图像进行识别和扫描,从而提取出用户的面部图像数据。其中,对于视频帧中用户面部图像的扫描,可以将用户的面部图像划分为若干个不重叠的区域,通过对各区域进行不重合的扫描来获得用户的面部图像数据。另外,从用户的面部照片中获得用户的面部图像数据的方法与上述从视频帧中获取面部图像数据的方法类似,在这里不再赘述。
本实施例中,用户的语音数据主要包括用户语音信号的频谱数据。其中,用户的语音信号可通过设置在终端设备上的语音采集装置(例如麦克风等)采集获得,在获得用户的语音信号后通过对语音信号进行频谱变换获得语音信号的频谱数据。
睡眠数据,包括用户的深度睡眠时间、浅度睡眠时间、清醒时间等。可选的,睡眠数据可由与终端设备配合使用的睡眠采集装置采集获得,例如可以通过小米手环对用户的睡眠数据进行采集,并将采集获得的数据发送给终端设备。当然此处仅是举例说明,而并不是对睡眠采集装置的唯一限定。
在步骤102中,分别基于所述至少两类特征数据进行情绪识别,得到对应的至少两个用户情绪数据,其中,每个用户情绪数据包括情绪识别结果以及准确度。
实际应用中,在获得用户的面部图像数据后,可以根据预先存储的表情分类规则,确定用户的面部图像数据对应的表情分类,从而根据用户的面部图像数据对应的表情分类确定用户面部图像数据对应的用户情绪。其中,本实施中用户的情绪可以包括积极情绪和负面情绪,表情分类可分为,纠结难过,欣喜高兴,平淡等。比如当用户的面部图像数据反映用户当前正处于皱眉状态,嘴角呈下弯的状态,眼睛呈半开合状态时,则可将用户的表情分类为纠结、难过的表情类中,从而可以判定用户当前可能处于消极的情绪中。而根据用户的眉形和嘴形等数据与预设的消极情绪对应的眉形和嘴形数据的相似度,可以进一步确定用户处于消极情绪的概率,概率越高说明识别用户为消极情绪的准确度越高,例如可以设定为当用户嘴角的下弯程度和皱眉程度越大时,用户处于消极情绪的概率越大,识别用户处于消极情绪的结果越准确。当然此处仅为举例说明,而不是唯一限定,而根据用户的面部图像数据确定用户的其他情绪的方法与此类似,在这里不再赘述。
本实施例中根据用户的语音数据确定用户的情绪的方法,可以是基于用户语音的频谱特性进行的,例如根据语音数据的频谱特性,可以采用梅尔倒谱系数,线性预测倒谱系数;对数频率功率系数,感知线性预测,线性预测系数等方法确定用户的情绪,此与现有技术类似,在这里不再赘述。进一步的,语音数据对应的用户情绪可以根据语音数据与预设的样本语音数据的相似程度来确定的,例如,当采集获得的用户的语音数据与数据库中存储的表示积极情绪的样本语音数据的相似度超过预设阈值,则语音数据对应的用户情绪为积极情绪,另外,相似度越大,则说明此时的识别结果越准确。
另外,根据睡眠数据确定用户情绪的方法,可以是预先为不同的用户情绪设置对应的参考睡眠数据,其中参考睡眠数据包括对应积极情绪的睡眠数据和对应消极情绪的睡眠数据,当获取用户的睡眠数据后,只需将获得的睡眠数据与预先设置的参考睡眠数据进行匹配,确定采集获得的睡眠数据与参考睡眠数据之间的相似度,若采集获得的数据与预先设定的对应积极情绪的睡眠数据相似度超过某一预设阈值,则确定用户的的情绪为积极情绪,反之亦然,另外,需要说明的是,采集数据与预设的参考数据之间的相似度,能够反映用户情绪识别的准确度,采集数据与预设参考数据之间的相似度越高,则说明此时,用户情绪的识别结果越准确。
进一步的,为了使情绪识别跟更加符合用户的个性化特定,可以通过定期采集用户面部图像数据、语音数据、睡眠数据的方式建立属于用户自己的,符合用户个性化的数据库。该数据库中存储有:根据历史获得的用户面部图像数据、语音数据、睡眠数据,分析获得的符合用户个性特点的积极情绪对应的面部图像数据、语音数据、睡眠数据,以及消极情绪对应的面部图像数据、语音数据、睡眠数据。当确定在进行用户情绪识别时,可以直接将获取到的用户面部图像数据、语音数据、睡眠数据分别与数据库中的对应数据进行对比,以获得更准确的识别结果。
在步骤103中,根据所述至少两个用户情绪数据确定用户情绪。
实际应用中,在获得各类特征数据对应的情绪识别结果以及情绪结果对应的准确度后,可选的,可以通过将各情绪识别结果对应的准确度进行对比的方式,从各情绪识别结果中,获得准确度最高的情绪识别结果作为用户当前的情绪。从而达到降低误识别率,提高情绪识别准确率的目的。
举例来说,当用户的面部图像数据对应的用户情绪为消极情绪,且采集数据与对应为消极情绪的参考数据之间的相似度为60%、语音数据对应的用户情绪为积极情绪,且采集数据与对应为积极情绪的参考数据之间的相似度为90%,睡眠数据对应的用户情绪为积极情绪,采集数据与对应为积极情绪的参考数据之间的相似度为70%,则确定相似度90%对应的用户情绪为用户当前的情绪状态,即用户当前处于积极情绪中。
本实施例中,通过获取用户的面部图像数据,语音数据或者睡眠数据等的至少两类特征数据,并基于获取到的特征数据进行情绪识别,获得对应的至少两个用户情绪数据,,从而根据获得的至少两个用户情绪数据确定用户的情绪,实现了用户情绪的精准识别。。
图2是根据一示例性实施例示出的一种情绪识别方法实施例二的流程图,如图2所示,该方法可以包括如下的步骤:
在步骤201中,获取用户的至少两类特征数据,其中,所述至少两类特征数据包括面部图像数据,语音数据或者睡眠数据。
步骤201与步骤101的执行方法类似在这里不再赘述。
在步骤202中,将所述至少两类特征数据分别与数据库中存储的对应的参考数据进行对比,确定每类特征数据和对应参考数据之间的相似度。
本实施例中,参考数据包括:用户的积极情绪对应的面部图像数据和负面情绪对应的面部图像数据,用户的积极情绪对应的语音数据和负面情绪对应的语音数据,用户的积极情绪对应的睡眠数据和负面情绪对应的睡眠数据。
实际应用中,数据库是通过定期采集用户面部图像数据、语音数据、睡眠数据的方式建立属于用户自己的,符合用户个性化的数据库。该数据库中存储有:根据历史获得的用户面部图像数据、语音数据、睡眠数据,分析获得的符合用户个性特点的积极情绪对应的面部图像数据、语音数据、睡眠数据,以及消极情绪对应的面部图像数据、语音数据、睡眠数据。当进行用户情绪识别时,可以直接将获取到的用户面部图像数据、语音数据或者睡眠数据分别与数据库中的对应数据进行对比,以获得准确的识别结果。
以语音数据为例,当进行情绪识别时,首先将采集获得的用户的语音数据分别与数据库中存储的表示积极情绪的语音数据和表示消极情绪的语音数据进行对比,确定采集获得的语音数据与数据库中存储的各语音数据之间的相似程度。其中,采集获得的语音数据与数据库中存储的各语音数据之间的相似程度可以通过一预设函数来确定,该函数可以根据具体需要具体设置,本实施例中不作具体限定。另外,本实施例中,用户的面部图像数据与数据库中存储的各面部图像数据之间的相似度的确定方法,以及用户的睡眠数据与数据库中存储的各睡眠数据之间的相似度的确定方法与用户的语音数据的判断方法类似,在这不再赘述。
在步骤203中,根据所述相似度,确定每类特征数据对应的情绪识别结果以及所述情绪识别结果的准确度。
承接上例,假设采集获得语音数据与数据库中表示消极情绪的语音数据更相似,则确定采集获得的语音数据对应的用户情绪为消极情绪。进一步的,可以根据采集数据与数据库中存储的数据之间的相似度,确定情绪识别的准确度,即采集数据和数据库中存储的数据之间的相似度越大,则用户情绪识别的准确度越高,反之越低。另外,根据面部图像数据和睡眠数据判断用户情绪的方法与语音数据的判断方法类似,在这里不再赘述。
在步骤204中,根据所述至少两个用户情绪数据确定用户情绪。
步骤204与步骤103的执行方式和有益效果类似,在这里不再赘述。
本实施例中,通过将包含用户的面部图像数据,语音数据或者睡眠数据的至少两类特征数据分别与数据库中存储的对应的参考数据进行对比,确定每类特征数据和对应参考数据之间的相似度,并根据获得的相似度,确定每类特征数据对应的情绪识别结果以及情绪识别结果的准确度。从而根据各情绪识别结果以及各情绪识别结果对应的准确度,确定用户的情绪。,实现了用户情绪的精准识别。
图3是根据一示例性实施例示出的一种情绪识别装置实施例一的框图,如图3所示,该装置包括:
获取模块11,被配置为获取用户的至少两类特征数据,其中,所述至少两类特征数据包括面部图像数据,语音数据或者睡眠数据;
识别模块12,被配置为分别基于所述至少两类特征数据进行情绪识别,得到对应的至少两个用户情绪数据,其中,每个用户情绪数据包括情绪识别结果以及准确度;
确定模块13,被配置为根据所述至少两个用户情绪数据确定用户情绪。
其中,面部图像数据至少包括眼睛形态数据、眉毛形态数据以及嘴部形态数据中的一种。语音数据包括语音信号的频谱数据。
特别的,所述确定模块13,被配置为根据各情绪识别结果对应的准确度,确定对应准确度最大的情绪识别结果为所述用户的情绪。
本实施例提供的情绪识别装置可以用于执行图1所示方法实施例的技术方案。其执行方式和有益效果与图1所示实施例类似,在这里不再赘述。
图4是根据一示例性实施例示出的一种情绪识别装置实施例二的框图,如图4所示,在图3所示实施例的基础上,所述识别模块12包括:
第一确定子模块121,被配置为将所述至少两类特征数据分别与数据库中存储的对应的参考数据进行对比,确定每类特征数据和对应参考数据之间的相似度;
第二确定子模块122,被配置为根据所述相似度,确定每类特征数据对应的情绪识别结果以及所述情绪识别结果的准确度。
其中,参考数据包括:用户的积极情绪对应的面部图像数据和负面情绪对应的面部图像数据,用户的积极情绪对应的语音数据和负面情绪对应的语音数据,用户的积极情绪对应的睡眠数据和负面情绪对应的睡眠数据。
本实施例提供的情绪识别装置可以用于执行图2所示方法实施例的技术方案,其执行方式和有益效果与图2所示实施例类似,在这里不再赘述。
以上描述了情绪识别装置的内部功能和结构,如图5所示,实际中,该情绪识别装置可实现为情绪识别终端设备,包括:
处理器;
被配置为存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
获取用户的至少两类特征数据,其中,所述至少两类特征数据包括面部图像数据,语音数据或者睡眠数据;
分别基于所述至少两类特征数据进行情绪识别,得到对应的至少两个用户情绪数据,其中,每个用户情绪数据包括情绪识别结果以及准确度;
根据所述至少两个用户情绪数据确定用户情绪。
本实施例中,通过获取用户的面部图像数据,语音数据或者睡眠数据等的至少两类特征数据,并基于获取到的特征数据进行情绪识别,获得对应的至少两个用户情绪数据,,从而根据获得的至少两个用户情绪数据确定用户的情绪,实现了用户情绪的精准识别。
图6是根据一示例性实施例示出的另一种情绪识别终端设备的框图。例如,情绪识别终端设备800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图6,情绪识别终端设备800可以包括以下一个或多个组件:处理组件802,存储器804,电力组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制情绪识别终端设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在设备800的操作。这些数据的示例包括用于在情绪识别终端设备800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件806为情绪识别终端设备800的各种组件提供电力。电力组件806可以包括电源管理系统,一个或多个电源,及其他与为情绪识别终端设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述情绪识别终端设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当情绪识别终端设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为情绪识别终端设备800提供各个方面的状态评估。例如,传感器组件814可以检测到设备800的打开/关闭状态,组件的相对定位,例如所述组件为情绪识别终端设备800的显示器和小键盘,传感器组件814还可以检测情绪识别终端设备800或情绪识别终端设备800一个组件的位置改变,用户与情绪识别终端设备800接触的存在或不存在,情绪识别终端设备800方位或加速/减速和情绪识别终端设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于情绪识别终端设备800和其他设备之间有线或无线方式的通信。情绪识别终端设备800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,情绪识别终端设备800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由情绪识别终端设备800的处理器820执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行一种情绪识别处理方法,所述方法包括:
获取用户的面部图像数据、语音数据以及睡眠数据;
分别确定所述面部图像数据、所述语音数据以及所述睡眠数据三者对应的用户情绪,以及所述三者各自对应为所述用户情绪的概率;
确定所述概率最大的用户情绪为所述用户的情绪。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (13)
1.一种情绪识别方法,其特征在于,所述方法包括:
获取用户的至少两类特征数据,其中,所述至少两类特征数据包括面部图像数据,语音数据或者睡眠数据;
分别基于所述至少两类特征数据进行情绪识别,得到对应的至少两个用户情绪数据,其中,每个用户情绪数据包括情绪识别结果以及准确度;
根据所述至少两个用户情绪数据确定用户情绪。
2.根据权利要求1所述的方法,其特征在于,所述分别基于所述至少两类特征数据进行情绪识别,得到对应的至少两个用户情绪数据,包括:
将所述至少两类特征数据分别与数据库中存储的对应的参考数据进行对比,确定每类特征数据和对应参考数据之间的相似度;
根据所述相似度,确定每类特征数据对应的情绪识别结果以及所述情绪识别结果的准确度。
3.根据权利要求2所述的方法,其特征在于,所述参考数据包括:积极情绪对应的面部图像数据和负面情绪对应的面部图像数据,积极情绪对应的语音数据和负面情绪对应的语音数据,积极情绪对应的睡眠数据和负面情绪对应的睡眠数据。
4.根据权利要求3所述的方法,其特征在于,所述面部图像数据至少包括眼睛形态数据、眉毛形态数据以及嘴部形态数据中的一种。
5.根据权利要求3所述的方法,其特征在于,所述语音数据包括语音信号的频谱数据。
6.根据权利要求1-5中任一项所述的方法,其特征在于,所述根据所述至少两个用户情绪数据确定用户情绪,包括:
根据各情绪识别结果对应的准确度,确定对应准确度最大的情绪识别结果为所述用户的情绪。
7.一种情绪识别装置,其特征在于,包括:
获取模块,被配置为获取用户的至少两类特征数据,其中,所述至少两类特征数据包括面部图像数据,语音数据或者睡眠数据;
识别模块,被配置为分别基于所述至少两类特征数据进行情绪识别,得到对应的至少两个用户情绪数据,其中,每个用户情绪数据包括情绪识别结果以及准确度;
确定模块,被配置为根据所述至少两个用户情绪数据确定用户情绪。
8.根据权利要求7所述的装置,其特征在于,所述识别模块,包括;
第一确定子模块,被配置为将所述至少两类特征数据分别与数据库中存储的对应的参考数据进行对比,确定每类特征数据和对应参考数据之间的相似度;
第二确定子模块,被配置为根据所述相似度,确定每类特征数据对应的情绪识别结果以及所述情绪识别结果的准确度。
9.根据权利要求8所述的装置,其特征在于,所述参考数据包括:积极情绪对应的面部图像数据和负面情绪对应的面部图像数据,积极情绪对应的语音数据和负面情绪对应的语音数据,积极情绪对应的睡眠数据和负面情绪对应的睡眠数据。
10.根据权利要求9所述的装置,其特征在于,所述面部图像数据至少包括眼睛形态数据、眉毛形态数据以及嘴部形态数据中的一种。
11.根据权利要求9所述的装置,其特征在于,所述语音数据包括语音信号的频谱数据。
12.根据权利要求7-11中任一项所述的装置,其特征在于,所述确定模块,被配置为根据各情绪识别结果对应的准确度,确定对应准确度最大的情绪识别结果为所述用户的情绪。
13.一种情绪识别终端设备,其特征在于,包括:
处理器;
被配置为存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
获取用户的至少两类特征数据,其中,所述至少两类特征数据包括面部图像数据,语音数据或者睡眠数据;
分别基于所述至少两类特征数据进行情绪识别,得到对应的至少两个用户情绪数据,其中,每个用户情绪数据包括情绪识别结果以及准确度;
根据所述至少两个用户情绪数据确定用户情绪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610789402.3A CN106469297A (zh) | 2016-08-31 | 2016-08-31 | 情绪识别方法、装置和终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610789402.3A CN106469297A (zh) | 2016-08-31 | 2016-08-31 | 情绪识别方法、装置和终端设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106469297A true CN106469297A (zh) | 2017-03-01 |
Family
ID=58230374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610789402.3A Pending CN106469297A (zh) | 2016-08-31 | 2016-08-31 | 情绪识别方法、装置和终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106469297A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107392124A (zh) * | 2017-07-10 | 2017-11-24 | 珠海市魅族科技有限公司 | 情绪识别方法、装置、终端及存储介质 |
CN107458381A (zh) * | 2017-07-21 | 2017-12-12 | 陕西科技大学 | 一种基于人工智能的机动车驾驶许可装置 |
CN107919138A (zh) * | 2017-11-30 | 2018-04-17 | 维沃移动通信有限公司 | 一种语音中的情绪处理方法及移动终端 |
CN107948503A (zh) * | 2017-11-08 | 2018-04-20 | 维沃移动通信有限公司 | 一种拍照方法、拍照装置及移动终端 |
CN107972028A (zh) * | 2017-07-28 | 2018-05-01 | 北京物灵智能科技有限公司 | 人机交互方法、装置及电子设备 |
CN109829363A (zh) * | 2018-12-18 | 2019-05-31 | 深圳壹账通智能科技有限公司 | 表情识别方法、装置、计算机设备和存储介质 |
CN110389667A (zh) * | 2018-04-17 | 2019-10-29 | 北京搜狗科技发展有限公司 | 一种输入方法及装置 |
CN110399837A (zh) * | 2019-07-25 | 2019-11-01 | 深圳智慧林网络科技有限公司 | 用户情绪识别方法、装置以及计算机可读存储介质 |
CN111127830A (zh) * | 2018-11-01 | 2020-05-08 | 奇酷互联网络科技(深圳)有限公司 | 基于监控设备的报警方法、报警系统和可读存储介质 |
CN114816036A (zh) * | 2021-01-19 | 2022-07-29 | 北京搜狗科技发展有限公司 | 一种情绪处理方法、装置和介质 |
CN116935480A (zh) * | 2023-09-18 | 2023-10-24 | 四川天地宏华导航设备有限公司 | 一种情绪识别方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102355527A (zh) * | 2011-07-22 | 2012-02-15 | 深圳市无线开锋科技有限公司 | 一种手机感应心情装置及方法 |
CN103024521A (zh) * | 2012-12-27 | 2013-04-03 | 深圳Tcl新技术有限公司 | 节目筛选方法、系统及具有该系统的电视 |
CN104035558A (zh) * | 2014-05-30 | 2014-09-10 | 小米科技有限责任公司 | 终端设备控制方法及装置 |
CN104423574A (zh) * | 2013-08-21 | 2015-03-18 | 三星电子株式会社 | 用于增强系统可用性的设备和方法 |
CN104768309A (zh) * | 2015-04-23 | 2015-07-08 | 天脉聚源(北京)传媒科技有限公司 | 一种根据用户情绪调节灯光的方法及装置 |
CN105681900A (zh) * | 2015-12-31 | 2016-06-15 | 宇龙计算机通信科技(深圳)有限公司 | 一种信息处理方法及移动终端 |
-
2016
- 2016-08-31 CN CN201610789402.3A patent/CN106469297A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102355527A (zh) * | 2011-07-22 | 2012-02-15 | 深圳市无线开锋科技有限公司 | 一种手机感应心情装置及方法 |
CN103024521A (zh) * | 2012-12-27 | 2013-04-03 | 深圳Tcl新技术有限公司 | 节目筛选方法、系统及具有该系统的电视 |
CN104423574A (zh) * | 2013-08-21 | 2015-03-18 | 三星电子株式会社 | 用于增强系统可用性的设备和方法 |
CN104035558A (zh) * | 2014-05-30 | 2014-09-10 | 小米科技有限责任公司 | 终端设备控制方法及装置 |
CN104768309A (zh) * | 2015-04-23 | 2015-07-08 | 天脉聚源(北京)传媒科技有限公司 | 一种根据用户情绪调节灯光的方法及装置 |
CN105681900A (zh) * | 2015-12-31 | 2016-06-15 | 宇龙计算机通信科技(深圳)有限公司 | 一种信息处理方法及移动终端 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107392124A (zh) * | 2017-07-10 | 2017-11-24 | 珠海市魅族科技有限公司 | 情绪识别方法、装置、终端及存储介质 |
CN107458381A (zh) * | 2017-07-21 | 2017-12-12 | 陕西科技大学 | 一种基于人工智能的机动车驾驶许可装置 |
CN107972028A (zh) * | 2017-07-28 | 2018-05-01 | 北京物灵智能科技有限公司 | 人机交互方法、装置及电子设备 |
CN107948503A (zh) * | 2017-11-08 | 2018-04-20 | 维沃移动通信有限公司 | 一种拍照方法、拍照装置及移动终端 |
CN107919138B (zh) * | 2017-11-30 | 2021-01-08 | 维沃移动通信有限公司 | 一种语音中的情绪处理方法及移动终端 |
CN107919138A (zh) * | 2017-11-30 | 2018-04-17 | 维沃移动通信有限公司 | 一种语音中的情绪处理方法及移动终端 |
CN110389667A (zh) * | 2018-04-17 | 2019-10-29 | 北京搜狗科技发展有限公司 | 一种输入方法及装置 |
CN111127830A (zh) * | 2018-11-01 | 2020-05-08 | 奇酷互联网络科技(深圳)有限公司 | 基于监控设备的报警方法、报警系统和可读存储介质 |
CN109829363A (zh) * | 2018-12-18 | 2019-05-31 | 深圳壹账通智能科技有限公司 | 表情识别方法、装置、计算机设备和存储介质 |
CN110399837A (zh) * | 2019-07-25 | 2019-11-01 | 深圳智慧林网络科技有限公司 | 用户情绪识别方法、装置以及计算机可读存储介质 |
CN110399837B (zh) * | 2019-07-25 | 2024-01-05 | 深圳智慧林网络科技有限公司 | 用户情绪识别方法、装置以及计算机可读存储介质 |
CN114816036A (zh) * | 2021-01-19 | 2022-07-29 | 北京搜狗科技发展有限公司 | 一种情绪处理方法、装置和介质 |
CN116935480A (zh) * | 2023-09-18 | 2023-10-24 | 四川天地宏华导航设备有限公司 | 一种情绪识别方法及装置 |
CN116935480B (zh) * | 2023-09-18 | 2023-12-29 | 四川天地宏华导航设备有限公司 | 一种情绪识别方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106469297A (zh) | 情绪识别方法、装置和终端设备 | |
TWI710964B (zh) | 圖像聚類方法及裝置、電子設備和儲存介質 | |
EP2727104B1 (en) | Identifying people that are proximate to a mobile device user via social graphs, speech models, and user context | |
CN106155504B (zh) | 模组唤醒方法及装置 | |
CN104850827B (zh) | 指纹识别方法及装置 | |
CN109389162B (zh) | 样本图像筛选方法和装置、电子设备及存储介质 | |
CN104021350A (zh) | 隐私信息隐藏方法及装置 | |
CN105302315A (zh) | 图片处理方法及装置 | |
CN104378441A (zh) | 日程创建方法和装置 | |
CN110992989B (zh) | 语音采集方法、装置及计算机可读存储介质 | |
CN105933539A (zh) | 音频播放的控制方法、装置及终端 | |
CN110717399A (zh) | 人脸识别方法和电子终端设备 | |
CN106355549A (zh) | 拍照方法及设备 | |
CN103886284B (zh) | 人物属性信息识别方法、装置及电子设备 | |
CN106409317B (zh) | 梦话提取方法、装置及用于提取梦话的装置 | |
CN105447150A (zh) | 基于面孔相册的音乐播放方法、装置和终端设备 | |
CN105301183B (zh) | 空气质量检测方法和装置 | |
CN104077563A (zh) | 人脸识别方法和装置 | |
CN105100193A (zh) | 云名片推荐方法及装置 | |
CN106471493B (zh) | 用于管理数据的方法和装置 | |
CN108154091A (zh) | 图像展示方法、图像处理方法及装置 | |
CN105528077A (zh) | 主题设置方法和装置 | |
CN105094297A (zh) | 显示内容的缩放方法及装置 | |
CN104268149A (zh) | 聚类方法及装置 | |
CN107454359B (zh) | 播放视频的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170301 |