CN116563829A - 一种驾驶员情绪识别方法、装置、电子设备和存储介质 - Google Patents
一种驾驶员情绪识别方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN116563829A CN116563829A CN202310610781.5A CN202310610781A CN116563829A CN 116563829 A CN116563829 A CN 116563829A CN 202310610781 A CN202310610781 A CN 202310610781A CN 116563829 A CN116563829 A CN 116563829A
- Authority
- CN
- China
- Prior art keywords
- emotion
- heart rate
- preset
- determining
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 33
- 230000008451 emotion Effects 0.000 claims abstract description 206
- 230000001815 facial effect Effects 0.000 claims abstract description 105
- 238000005070 sampling Methods 0.000 claims abstract description 30
- 230000005856 abnormality Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 7
- 230000036651 mood Effects 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 11
- 238000013145 classification model Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/70—Multimodal biometrics, e.g. combining information from different biometric modalities
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Child & Adolescent Psychology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种驾驶员情绪识别方法、装置、电子设备和存储介质,该方法包括:按预设采样频率获取驾驶员的面部图像,根据所述面部图像的表情特征数据确定与所述面部图像对应的表情类型;根据所述表情类型在预设历史时长内的统计数据确定面部情绪得分;若所述面部情绪得分超出预设范围,对所述驾驶员的语音和心率进行采集,得到语音数据和心率数据;根据所述面部情绪得分、所述语音数据和所述心率数据确定所述驾驶员的情绪识别结果,以此通过多个维度确定驾驶员的情绪状态,从而更加准确的对驾驶员的情绪进行识别,进而提高了驾驶安全性。
Description
技术领域
本申请涉及车辆驾驶情况识别技术领域,更具体地,涉及一种驾驶员情绪识别方法、装置、电子设备和存储介质。
背景技术
随着生活水平的提高,汽车逐渐成为我们生活的一部分。汽车的不断增多,加大了道路交通安全的问题。为了加强交通安全,加上通信技术的发展,车辆安全驾驶提醒系统应运而生。
现有技术中存在根据驾驶员的情绪状态进行安全驾驶提醒的方式,例如通过对驾驶员的人脸图像或语音进行情绪识别,根据情绪识别结果进行提醒,但现有驾驶员驾驶过程中的情绪状态的判定参数均比较单一,误报率较高,不容易判断出驾驶员真实的主观情绪状态,进而对驾驶员的不安全驾驶起不到很好的提醒作用。
因此,如何更加准确的对驾驶员的情绪进行识别,提高驾驶安全性,是目前有待解决的技术问题。
发明内容
本申请实施例提供一种驾驶员情绪识别方法、装置、电子设备和存储介质,用以更加准确的对驾驶员的情绪进行识别,提高驾驶安全性。
第一方面,提供一种驾驶员情绪识别方法,所述方法包括:按预设采样频率获取驾驶员的面部图像,根据所述面部图像的表情特征数据确定与所述面部图像对应的表情类型;根据所述表情类型在预设历史时长内的统计数据确定面部情绪得分;若所述面部情绪得分超出预设范围,对所述驾驶员的语音和心率进行采集,得到语音数据和心率数据;根据所述面部情绪得分、所述语音数据和所述心率数据确定所述驾驶员的情绪识别结果。
第二方面,提供一种驾驶员情绪识别装置,所述装置包括:第一确定模块,用于按预设采样频率获取驾驶员的面部图像,根据所述面部图像的表情特征数据确定与所述面部图像对应的表情类型;第二确定模块,用于根据所述表情类型在预设历史时长内的统计数据确定面部情绪得分;采集模块,用于若所述面部情绪得分超出预设范围,对所述驾驶员的语音和心率进行采集,得到语音数据和心率数据;第三确定模块,用于根据所述面部情绪得分、所述语音数据和所述心率数据确定所述驾驶员的情绪识别结果。
第三方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行第一方面所述的驾驶员情绪识别方法。
第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现第一方面所述的驾驶员情绪识别方法。
通过应用以上技术方案,按预设采样频率获取驾驶员的面部图像,根据所述面部图像的表情特征数据确定与所述面部图像对应的表情类型;根据所述表情类型在预设历史时长内的统计数据确定面部情绪得分;若所述面部情绪得分超出预设范围,对所述驾驶员的语音和心率进行采集,得到语音数据和心率数据;根据所述面部情绪得分、所述语音数据和所述心率数据确定所述驾驶员的情绪识别结果,以此通过多个维度确定驾驶员的情绪状态,从而更加准确的对驾驶员的情绪进行识别,进而提高了驾驶安全性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明实施例提出的一种驾驶员情绪识别方法的流程示意图;
图2示出了本发明实施例提出的一种驾驶员情绪识别装置的结构示意图;
图3示出了本发明实施例提出的一种电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由权利要求部分指出。
应当理解的是,本申请并不局限于下面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
本申请可用于众多通用或专用的计算装置环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器装置、包括以上任何装置或设备的分布式计算环境等等。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本申请实施例提供一种驾驶员情绪识别方法,如图1所示,该方法包括以下步骤:
步骤S101,按预设采样频率获取驾驶员的面部图像,根据所述面部图像的表情特征数据确定与所述面部图像对应的表情类型。
本实施例中,可通过预置在驾驶舱中的摄像头按预设采样频率从多个角度(如正面、侧面、俯视、仰视等)对驾驶员的面部进行拍照,获取驾驶员的面部图像,然后对面部图像进行特征提取,得到表情特征数据,然后根据表情特征数据确定与面部图像对应的表情类型。
具体的,可预先根据面部图像的多个关键点建立预设特征提取模型,如deepface模型,根据预设特征提取模型对面部图像进行特征提取,得到表情特征数据,该表情特征数据可包括眼睛、眉毛、嘴巴等面部器官的尺度和相互之间的距离,以及基于局部二值模式的局部纹理特征等。在得到表情特征数据后,按预设分类模型从多个预设表情类型中确定与表情特征数据对应的表情类型,预设分类模型可以为基于KNN(K-NearestNeighbor,K最邻近分类算法)的分类模型,也可以为基于深度学习的分类模型。
步骤S102,根据所述表情类型在预设历史时长内的统计数据确定面部情绪得分。
在获取表情类型后,获取表情类型在预设历史时长内的统计数据,根据该统计数据确定面部情绪得分,该面部情绪得分可表征驾驶员在预设历史时长内的情绪状态。
在本申请一些实施例中,所述预设历史时长由多个单位区间组成,所述统计数据包括所述表情类型在各所述单位区间的出现次数和持续时长,所述根据所述表情类型在预设历史时长内的统计数据确定面部情绪得分,包括:
确定所述单位区间内单种所述表情类型的出现次数占所有表情类型的总出现次数的第一比例,以及确定所述单位区间内单种所述表情类型的持续时长占所述单位区间的第二比例;
若当前单位区间中与当前表情类型对应的第一比例高于第一预设比例,将所述当前单位区间作为第一目标单位区间,若所述第一目标单位区间的数量高于第一预设数量,从多个基础情绪中确定与所述当前表情类型对应的目标基础情绪,并根据所述目标基础情绪的得分值确定所述面部情绪得分;或,
若所述当前单位区间中与所述当前表情类型对应的第二比例高于第二预设比例,将所述当前单位区间作为第二目标单位区间,若所述第二目标单位区间的数量高于第二预设数量,根据所述目标基础情绪的得分值确定所述面部情绪得分。
本实施例中,预设历史时长由多个单位区间组成,通过统计表情类型在各所述单位区间的出现次数和持续时长确定统计数据。预先设定多种基础情绪,每种基础情绪配置了相应的得分值,根据每种基础情绪的不同表现程度,设定与每个基础情绪对应的多种表情类型,在本申请具体的应用场景中,设定了7种基础情绪,包括高兴,愤怒,惊讶,害怕,悲伤,厌恶,压力等情绪,每种基础情绪对应多种表情类型,表情类型的总数为21种,包括注意力集中,皱额头,额头上扬,内额头上扬,闭眼,皱鼻子,上嘴唇上扬,吮吸嘴唇,撅嘴,咬(压)嘴唇,张嘴,唇角凹陷,下巴抬高,假笑,微笑等。
在根据统计数据确定面部情绪得分时,先确定单位区间内单种表情类型的出现次数占所有表情类型的总出现次数的第一比例,以及确定单位区间内单种表情类型的持续时长占单位区间的第二比例。
然后依次将各表情类型作为当前表情类型,再依次对每个单位区间进行判断,若当前单位区间中与当前表情类型对应的第一比例高于第一预设比例,将当前单位区间作为第一目标单位区间,若第一目标单位区间的数量高于第一预设数量,说明当前表情类型在预设历史时长内的出现次数较多,从多个基础情绪中确定与当前表情类型对应的目标基础情绪,并根据目标基础情绪的得分值确定所述面部情绪得分;
或者,若所述当前单位区间中与所述当前表情类型对应的第二比例高于第二预设比例,将所述当前单位区间作为第二目标单位区间,若所述第二目标单位区间的数量高于第二预设数量,说明当前表情类型在预设历史时长内的持续时长较长,根据所述目标基础情绪的得分值确定面部情绪得分,以此通过出现次数和持续时长两方面在多个单位区间进行统计,从而使面部情绪得分更加符合驾驶员的情绪。
可选的,各单位区间对应的第一预设比例可以相同,也可根据不同的单位区间选择不同的第一预设比例,相应的,各单位区间对应的第二预设比例可以相同,也可根据不同的单位区间选择不同的第二预设比例。
可选的,目标基础情绪的得分值可以是一个预设数值,也可以对每种表情类型设置相应的得分值,将目标基础情绪下所有表情类型的得分值相加后得到目标基础情绪的得分值。
在本申请一些实施例中,所述单位区间包括多个采样周期,所述持续时长的获取过程包括:
若本次获取的本次表情类型和上次获取的上次表情类型相同,将与所述本次表情类型和所述上次表情类型对应的表情类型的持续时长增加一个所述采样周期;
若所述本次表情类型和所述上次表情类型不同,且所述上次表情类型的第一得分减去所述本次表情类型的第二得分的得分差值小于预设差值,将所述上次表情类型的持续时长增加一个所述采样周期;
若所述本次表情类型和所述上次表情类型不同,且所述得分差值不小于所述预设差值,将所述上次表情类型的持续时长增加一个所述采样周期的一半,并将所述本次表情类型的持续时长增加一个所述采样周期的一半。
本实施例中,每个单位区间包括多个采样周期,可以理解的是,本次获取的本次表情类型和上次获取的上次表情类型之间相隔一个采样周期,若本次表情类型和上次表情类型相同,说明表情类型未发生变化,将持续时长进行累加。若本次表情类型和上次表情类型不同,且上次表情类型的第一得分减去本次表情类型的第二得分的得分差值小于预设差值,说明虽然本次表情类型和上次表情类型不同,但相应的表情变化较小,将上次表情类型的持续时长增加一个采样周期。若本次表情类型和上次表情类型不同,且所述得分差值不小于所述预设差值,说明表情变化较大,将两个表情类型的持续时长分别增加一个采样周期的一半,从而保证了持续时长准确性。
在本申请一些实施例中,在根据所述表情类型在预设历史时长内的统计数据确定面部情绪得分之后,所述方法还包括:
保存所述面部情绪得分,并确定预设周期内的各已保存面部情绪得分的平均值,并展示所述平均值。
本实施例中,通过确定预设周期内的各已保存面部情绪得分的平均值,可以确定驾驶员在预设周期内的情绪状态,提升了用户体验。可选的,预设周期可以为半小时、或多个小时、或多天等。
步骤S103,若所述面部情绪得分超出预设范围,对所述驾驶员的语音和心率进行采集,得到语音数据和心率数据。
本实施例中,在确定面部情绪得分后,若面部情绪得分超出预设范围,说明驾驶员的情绪状态可能存在异常,为了进一步确定是否存在情绪异常,对驾驶员的语音和心率进行采集,得到语音数据和心率数据。具体的,可通过驾驶舱内的麦克风对驾驶员的语音进行录音,得到语音数据,可选的,还可在得到语音数据后,按预设滤波算法进行滤波,以滤除噪声,从而提高语音数据质量。可通过驾驶员的智能穿戴设备(如手环、手表等)获取驾驶员的心率数据,还可根据方向盘上的心率检测模块获取驾驶员的心率数据。另外,本实施例中,在面部情绪得分超出预设范围时才进行语音和心率采集,避免了在面部情绪正常时进行不必要的语音和心率采集,可以提高情绪识别效率。
可以理解的是,若面部情绪得分未超出预设范围,确定驾驶员没有出现情绪异常。
步骤S104,根据所述面部情绪得分、所述语音数据和所述心率数据确定所述驾驶员的情绪识别结果。
本实施例中,在确定驾驶员的面部情绪得分、语音数据和心率数据后,根据三者确定驾驶员的情绪识别结果,从而同时考虑到面部图像、语音和心率,从多个维度确定驾驶员的情绪状态,从而更加准确的对驾驶员的情绪进行识别,提高了驾驶安全性。
在本申请一些实施例中,所述根据所述面部情绪得分、所述语音数据和所述心率数据确定所述驾驶员的情绪识别结果,包括:
将所述面部情绪得分与第一预设权重相乘,得到面部情绪值;
根据所述语音数据的语义信息和音频信息确定语音情绪得分,并将所述语音情绪得分与第二预设权重相乘,得到语音情绪值;
根据所述心率数据确定心率情绪得分,并将所述心率情绪得分与第三预设权重相乘,得到心率情绪值;
将所述面部情绪值、所述语音情绪值与所述心率情绪值相加得到综合情绪值,根据所述综合情绪值确定所述情绪类别。
本实施例中,预先分别对面部情绪得分、语音情绪得分和心率情绪得分设置相应的权重,根据语音数据的语义信息和音频信息确定语音情绪得分,根据心率数据确定心率情绪得分,然后对面部情绪得分、语音情绪得分和心率情绪得分进行加权融合,得到综合情绪值,根据综合情绪值确定情绪类别。其中,不同的情绪类别对应不同的预设情绪值,可将综合情绪值与多个预设情绪值区间进行比对,根据与综合情绪值匹配的预设情绪值区间确定情绪类别。
可选的,第二预设权重和第三预设权重均小于第一预设权重,从而将语音和心率作为图像识别情绪的辅助手段,可提高情绪识别的准确性和效率。
可选的,还可将面部情绪得分、所述语音数据和所述心率数据输入预先建立的情绪预测模型,得到情绪识别结果。
在本申请一些实施例中,所述根据所述语音数据的语义信息和音频信息确定语音情绪得分,包括:
将所述语义信息和所述音频信息输入预设情绪预测模型,得到语音情绪类型;
根据与所述语音情绪类型对应的得分值确定所述语音情绪得分。
本实施例中,预先建立预设情绪预测模型,在得到将语义信息和音频信息输入预设情绪预测模型,根据预设情绪预测模型的输出结果得到语音情绪类型,不同的语音情绪类型对应不同的得分值,根据与语音情绪类型对应的得分值确定语音情绪得分,从而使语音情绪得分更加符合驾驶员的情绪。
可选的,预设情绪预测模型可以为基于隐马尔可夫模型的预测模型,基于多种音频特征对预设隐马尔可夫模型进行训练,得到预设情绪预测模型,例如,可根据高音、中音、低音频次占比和时长占比,以及语速快、中、慢次数占比和时长占比等音频特征对预设隐马尔可夫模型进行训练。在对预设隐马尔可夫模型进行训练时,样本语音的时长大于预设时长,如2分钟,相应的,语音数据的时长大于预设时长。
在本申请一些实施例中,在将所述语义信息和所述音频信息输入预设情绪预测模型,得到语音情绪类型之前,所述方法还包括:
基于多个预设语义维度对所述语音数据进行打分,得到所述语义信息;
基于多个预设音频维度对所述语音数据进行打分,得到所述音频信息。
本实施例中,获取语音数据后,需要先确定语音数据的语义信息和音频信息,以便后续根据语义信息和音频信息确定语音情绪得分。基于多个预设语义维度对语音数据进行打分,得到所述语义信息,具体的,可通过语音识别模型对语音数据进行语音识别,得到相应的文本数据,然后基于多个预设语义维度对文本数据进行打分,确定与文本数据最匹配的情绪类型,根据匹配出的情绪类型的得分得到语义信息。同时,基于多个预设音频维度对语音数据进行打分,确定与语音数据最匹配的情绪类型,根据匹配出的情绪类型的得分得到音频信息,从而提高了语义信息和音频信息的准确性。
可选的,预设语义维度为包括地域、性别、关键字中的至少两种维度,预设音频维度为包括基频、语速、共振峰频率、单个音节的持续时间、音节之间的停顿时间、线性预测系数、Mel倒谱系数中的至少两种维度。
在本申请一些实施例中,所述根据所述心率数据确定心率情绪得分,包括:
若所述心率数据高于预设心率值,或上次采集的心率数据与本次采集的心率数据之间的心率差值大于预设心率差值,确定存在心率异常,根据第一预设心率得分确定所述心率情绪得分;
若所述心率数据不高于所述预设心率值,且所述心率差值不大于所述预设心率差值,确定不存在心率异常,根据第二预设心率得分确定所述心率情绪得分;
其中,所述预设心率值为所述驾驶员的历史平均心率值与预设数值之和。
本实施例中,预先根据驾驶员的历史平均心率值与预设数值之和确定预设心率值,并设置预设心率差值。在获取心率数据后,将心率数据与预设心率值比较,并确定上次采集的心率数据与本次采集的心率数据之间的心率差值,将心率差值与预设心率差值进行比较。若心率数据高于预设心率值,或心率差值大于预设心率差值,确定存在心率异常,根据第一预设心率得分确定心率情绪得分;若心率数据不高于预设心率值,且心率差值不大于预设心率差值,确定不存在心率异常,根据第二预设心率得分确定心率情绪得分,从而使心率情绪得分更加符合驾驶员的情绪。
可选的,历史平均心率值为驾驶员在最近30天的心率平均值,预设心率差值为20,预设数值为20。
通过应用以上技术方案,按预设采样频率获取驾驶员的面部图像,根据所述面部图像的表情特征数据确定与所述面部图像对应的表情类型;根据所述表情类型在预设历史时长内的统计数据确定面部情绪得分;若所述面部情绪得分超出预设范围,对所述驾驶员的语音和心率进行采集,得到语音数据和心率数据;根据所述面部情绪得分、所述语音数据和所述心率数据确定所述驾驶员的情绪识别结果,以此通过多个维度确定驾驶员的情绪状态,从而更加准确的对驾驶员的情绪进行识别,进而提高了驾驶安全性。
本申请实施例还提出了一种驾驶员情绪识别装置,如图2所示,所述装置包括:第一确定模块201,用于按预设采样频率获取驾驶员的面部图像,根据所述面部图像的表情特征数据确定与所述面部图像对应的表情类型;第二确定模块202,用于根据所述表情类型在预设历史时长内的统计数据确定面部情绪得分;采集模块203,用于若所述面部情绪得分超出预设范围,对所述驾驶员的语音和心率进行采集,得到语音数据和心率数据;第三确定模块204,用于根据所述面部情绪得分、所述语音数据和所述心率数据确定所述驾驶员的情绪识别结果。
在具体的应用场景中,第三确定模块204,具体用于:将所述面部情绪得分与第一预设权重相乘,得到面部情绪值;根据所述语音数据的语义信息和音频信息确定语音情绪得分,并将所述语音情绪得分与第二预设权重相乘,得到语音情绪值;根据所述心率数据确定心率情绪得分,并将所述心率情绪得分与第三预设权重相乘,得到心率情绪值;将所述面部情绪值、所述语音情绪值与所述心率情绪值相加得到综合情绪值,根据所述综合情绪值确定所述情绪类别。
在具体的应用场景中,第三确定模块204,还具体用于:将所述语义信息和所述音频信息输入预设情绪预测模型,得到语音情绪类型;根据与所述语音情绪类型对应的得分值确定所述语音情绪得分。
在具体的应用场景中,第三确定模块204,还具体用于:基于多个预设语义维度对所述语音数据进行打分,得到所述语义信息;基于多个预设音频维度对所述语音数据进行打分,得到所述音频信息。
在具体的应用场景中,第三确定模块204,还具体用于:若所述心率数据高于预设心率值,或上次采集的心率数据与本次采集的心率数据之间的心率差值大于预设心率差值,确定存在心率异常,根据第一预设心率得分确定所述心率情绪得分;若所述心率数据不高于所述预设心率值,且所述心率差值不大于所述预设心率差值,确定不存在心率异常,根据第二预设心率得分确定所述心率情绪得分;其中,所述预设心率值为所述驾驶员的历史平均心率值与预设数值之和。
在具体的应用场景中,所述预设历史时长由多个单位区间组成,所述统计数据包括所述表情类型在各所述单位区间的出现次数和持续时长,第二确定模块202,具体用于:确定所述单位区间内单种所述表情类型的出现次数占所有表情类型的总出现次数的第一比例,以及确定所述单位区间内单种所述表情类型的持续时长占所述单位区间的第二比例;若当前单位区间中与当前表情类型对应的第一比例高于第一预设比例,将所述当前单位区间作为第一目标单位区间,若所述第一目标单位区间的数量高于第一预设数量,从多个基础情绪中确定与所述当前表情类型对应的目标基础情绪,并根据所述目标基础情绪的得分值确定所述面部情绪得分;或,若所述当前单位区间中与所述当前表情类型对应的第二比例高于第二预设比例,将所述当前单位区间作为第二目标单位区间,若所述第二目标单位区间的数量高于第二预设数量,根据所述目标基础情绪的得分值确定所述面部情绪得分。
在具体的应用场景中,所述单位区间包括多个采样周期,所述持续时长的获取过程包括:若本次获取的本次表情类型和上次获取的上次表情类型相同,将与所述本次表情类型和所述上次表情类型对应的表情类型的持续时长增加一个所述采样周期;若所述本次表情类型和所述上次表情类型不同,且所述上次表情类型的第一得分减去所述本次表情类型的第二得分的得分差值小于预设差值,将所述上次表情类型的持续时长增加一个所述采样周期;若所述本次表情类型和所述上次表情类型不同,且所述得分差值不小于所述预设差值,将所述上次表情类型的持续时长增加一个所述采样周期的一半,并将所述本次表情类型的持续时长增加一个所述采样周期的一半。
本发明实施例还提供了一种电子设备,如图3所示,包括处理器301、通信接口302、存储器303和通信总线304,其中,处理器301,通信接口302,存储器303通过通信总线304完成相互间的通信,
存储器303,用于存储处理器的可执行指令;
处理器301,被配置为经由执行所述可执行指令来执行:
按预设采样频率获取驾驶员的面部图像,根据所述面部图像的表情特征数据确定与所述面部图像对应的表情类型;根据所述表情类型在预设历史时长内的统计数据确定面部情绪得分;若所述面部情绪得分超出预设范围,对所述驾驶员的语音和心率进行采集,得到语音数据和心率数据;根据所述面部情绪得分、所述语音数据和所述心率数据确定所述驾驶员的情绪识别结果。
上述通信总线可以是PCI (Peripheral Component Interconnect,外设部件互连标准)总线或EISA (Extended Industry Standard Architecture,扩展工业标准结构)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述终端与其他设备之间的通信。
存储器可以包括RAM (Random Access Memory,随机存取存储器),也可以包括非易失性存储器,例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括CPU (Central Processing Unit,中央处理器)、NP (Network Processor,网络处理器)等;还可以是DSP (Digital SignalProcessing,数字信号处理器)、ASIC (Application Specific Integrated Circuit,专用集成电路)、FPGA (Field Programmable Gate Array,现场可编程门阵列)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的驾驶员情绪识别方法。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行如上所述的驾驶员情绪识别方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘)等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (10)
1.一种驾驶员情绪识别方法,其特征在于,所述方法包括:
按预设采样频率获取驾驶员的面部图像,根据所述面部图像的表情特征数据确定与所述面部图像对应的表情类型;
根据所述表情类型在预设历史时长内的统计数据确定面部情绪得分;
若所述面部情绪得分超出预设范围,对所述驾驶员的语音和心率进行采集,得到语音数据和心率数据;
根据所述面部情绪得分、所述语音数据和所述心率数据确定所述驾驶员的情绪识别结果。
2.如权利要求1所述的方法,其特征在于,所述根据所述面部情绪得分、所述语音数据和所述心率数据确定所述驾驶员的情绪识别结果,包括:
将所述面部情绪得分与第一预设权重相乘,得到面部情绪值;
根据所述语音数据的语义信息和音频信息确定语音情绪得分,并将所述语音情绪得分与第二预设权重相乘,得到语音情绪值;
根据所述心率数据确定心率情绪得分,并将所述心率情绪得分与第三预设权重相乘,得到心率情绪值;
将所述面部情绪值、所述语音情绪值与所述心率情绪值相加得到综合情绪值,根据所述综合情绪值确定所述情绪类别。
3.如权利要求2所述的方法,其特征在于,所述根据所述语音数据的语义信息和音频信息确定语音情绪得分,包括:
将所述语义信息和所述音频信息输入预设情绪预测模型,得到语音情绪类型;
根据与所述语音情绪类型对应的得分值确定所述语音情绪得分。
4.如权利要求3所述的方法,其特征在于,在将所述语义信息和所述音频信息输入预设情绪预测模型,得到语音情绪类型之前,所述方法还包括:
基于多个预设语义维度对所述语音数据进行打分,得到所述语义信息;
基于多个预设音频维度对所述语音数据进行打分,得到所述音频信息。
5.如权利要求2所述的方法,其特征在于,所述根据所述心率数据确定心率情绪得分,包括:
若所述心率数据高于预设心率值,或上次采集的心率数据与本次采集的心率数据之间的心率差值大于预设心率差值,确定存在心率异常,根据第一预设心率得分确定所述心率情绪得分;
若所述心率数据不高于所述预设心率值,且所述心率差值不大于所述预设心率差值,确定不存在心率异常,根据第二预设心率得分确定所述心率情绪得分;
其中,所述预设心率值为所述驾驶员的历史平均心率值与预设数值之和。
6.如权利要求1所述的方法,其特征在于,所述预设历史时长由多个单位区间组成,所述统计数据包括所述表情类型在各所述单位区间的出现次数和持续时长,所述根据所述表情类型在预设历史时长内的统计数据确定面部情绪得分,包括:
确定所述单位区间内单种所述表情类型的出现次数占所有表情类型的总出现次数的第一比例,以及确定所述单位区间内单种所述表情类型的持续时长占所述单位区间的第二比例;
若当前单位区间中与当前表情类型对应的第一比例高于第一预设比例,将所述当前单位区间作为第一目标单位区间,若所述第一目标单位区间的数量高于第一预设数量,从多个基础情绪中确定与所述当前表情类型对应的目标基础情绪,并根据所述目标基础情绪的得分值确定所述面部情绪得分;或,
若所述当前单位区间中与所述当前表情类型对应的第二比例高于第二预设比例,将所述当前单位区间作为第二目标单位区间,若所述第二目标单位区间的数量高于第二预设数量,根据所述目标基础情绪的得分值确定所述面部情绪得分。
7.如权利要求6所述的方法,其特征在于,所述单位区间包括多个采样周期,所述持续时长的获取过程包括:
若本次获取的本次表情类型和上次获取的上次表情类型相同,将与所述本次表情类型和所述上次表情类型对应的表情类型的持续时长增加一个所述采样周期;
若所述本次表情类型和所述上次表情类型不同,且所述上次表情类型的第一得分减去所述本次表情类型的第二得分的得分差值小于预设差值,将所述上次表情类型的持续时长增加一个所述采样周期;
若所述本次表情类型和所述上次表情类型不同,且所述得分差值不小于所述预设差值,将所述上次表情类型的持续时长增加一个所述采样周期的一半,并将所述本次表情类型的持续时长增加一个所述采样周期的一半。
8.一种驾驶员情绪识别装置,其特征在于,所述装置包括:
第一确定模块,用于按预设采样频率获取驾驶员的面部图像,根据所述面部图像的表情特征数据确定与所述面部图像对应的表情类型;
第二确定模块,用于根据所述表情类型在预设历史时长内的统计数据确定面部情绪得分;
采集模块,用于若所述面部情绪得分超出预设范围,对所述驾驶员的语音和心率进行采集,得到语音数据和心率数据;
第三确定模块,用于根据所述面部情绪得分、所述语音数据和所述心率数据确定所述驾驶员的情绪识别结果。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求 1~7中任意一项所述的驾驶员情绪识别方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~7中任意一项所述的驾驶员情绪识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310610781.5A CN116563829A (zh) | 2023-05-26 | 2023-05-26 | 一种驾驶员情绪识别方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310610781.5A CN116563829A (zh) | 2023-05-26 | 2023-05-26 | 一种驾驶员情绪识别方法、装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116563829A true CN116563829A (zh) | 2023-08-08 |
Family
ID=87498084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310610781.5A Pending CN116563829A (zh) | 2023-05-26 | 2023-05-26 | 一种驾驶员情绪识别方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116563829A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117414135A (zh) * | 2023-10-20 | 2024-01-19 | 郑州师范学院 | 一种行为心理异常检测方法、系统及存储介质 |
CN117496580A (zh) * | 2023-11-23 | 2024-02-02 | 好心情健康产业集团有限公司 | 一种基于多人同步交互式的面部表情智能识别机器人终端 |
CN117657170A (zh) * | 2024-02-02 | 2024-03-08 | 江西五十铃汽车有限公司 | 一种新能源汽车智能安全和整车控制方法及系统 |
-
2023
- 2023-05-26 CN CN202310610781.5A patent/CN116563829A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117414135A (zh) * | 2023-10-20 | 2024-01-19 | 郑州师范学院 | 一种行为心理异常检测方法、系统及存储介质 |
CN117496580A (zh) * | 2023-11-23 | 2024-02-02 | 好心情健康产业集团有限公司 | 一种基于多人同步交互式的面部表情智能识别机器人终端 |
CN117496580B (zh) * | 2023-11-23 | 2024-05-07 | 好心情健康产业集团有限公司 | 一种基于多人同步交互式的面部表情智能识别机器人终端 |
CN117657170A (zh) * | 2024-02-02 | 2024-03-08 | 江西五十铃汽车有限公司 | 一种新能源汽车智能安全和整车控制方法及系统 |
CN117657170B (zh) * | 2024-02-02 | 2024-05-17 | 江西五十铃汽车有限公司 | 一种新能源汽车智能安全和整车控制方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180020285A1 (en) | System and method for assessing speaker spatial orientation | |
CN116563829A (zh) | 一种驾驶员情绪识别方法、装置、电子设备和存储介质 | |
US11837249B2 (en) | Visually presenting auditory information | |
CN112131383A (zh) | 特定目标的情感极性分类方法 | |
CN112102850B (zh) | 情绪识别的处理方法、装置、介质及电子设备 | |
CN109658921B (zh) | 一种语音信号处理方法、设备及计算机可读存储介质 | |
Yang et al. | Enhanced multiclass SVM with thresholding fusion for speech-based emotion classification | |
CN110717410A (zh) | 语音情感和面部表情双模态识别系统 | |
CN112418172A (zh) | 基于多模信息智能处理单元的多模信息融合情感分析方法 | |
Gupta et al. | Speech emotion recognition using SVM with thresholding fusion | |
KR20220071059A (ko) | 감정 분석 모델에 기초한 감정 평가 방법 및 이를 이용한 디바이스 | |
CN113853651B (zh) | 用量化的情感状态进行语音-情感识别的装置和方法 | |
CN116649980B (zh) | 基于人工智能的情绪监测方法、系统、设备及存储介质 | |
CN114595692A (zh) | 一种情绪识别方法、系统及终端设备 | |
CN114141271B (zh) | 心理状态检测方法及系统 | |
CN114155882B (zh) | 一种基于语音识别的“路怒”情绪判断方法和装置 | |
CN114120425A (zh) | 一种情绪识别方法、装置、电子设备及存储介质 | |
Sweeney et al. | Leveraging audio gestalt to predict media memorability | |
CN114786059A (zh) | 视频生成方法、视频生成装置、电子设备、存储介质 | |
CN114582373A (zh) | 用于在人机对话中识别用户情绪的方法及装置 | |
CN113111855A (zh) | 一种多模态情感识别方法、装置、电子设备及存储介质 | |
CN114492579A (zh) | 情绪识别方法、摄像装置、情绪识别装置及存储装置 | |
Rheault et al. | Multimodal techniques for the study of a ect in political videos | |
US20200013428A1 (en) | Emotion estimation system and non-transitory computer readable medium | |
Singh et al. | Automatic articulation error detection tool for Punjabi language with aid for hearing impaired people |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20240117 Address after: Room 1502, 13th Floor, No. 52 North Fourth Ring West Road, Haidian District, Beijing, 102200 Applicant after: Good Feeling Health Industry Group Co.,Ltd. Address before: Room 1101-2, Building 1, Yard 22, Longshui Road, Changping District, Beijing 102200 Applicant before: Beijing Haoxin Internet Hospital Co.,Ltd. |
|
TA01 | Transfer of patent application right |