CN112418059B - 一种情绪识别的方法、装置、计算机设备及存储介质 - Google Patents

一种情绪识别的方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN112418059B
CN112418059B CN202011302981.7A CN202011302981A CN112418059B CN 112418059 B CN112418059 B CN 112418059B CN 202011302981 A CN202011302981 A CN 202011302981A CN 112418059 B CN112418059 B CN 112418059B
Authority
CN
China
Prior art keywords
emotion
feature
features
training sample
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011302981.7A
Other languages
English (en)
Other versions
CN112418059A (zh
Inventor
赵涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Huasheng Pan Asia Human Resources Service Co ltd
Shenzhen Lian Intellectual Property Service Center
Original Assignee
Harbin Huasheng Pan Asia Human Resources Service Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Huasheng Pan Asia Human Resources Service Co ltd filed Critical Harbin Huasheng Pan Asia Human Resources Service Co ltd
Priority to CN202011302981.7A priority Critical patent/CN112418059B/zh
Publication of CN112418059A publication Critical patent/CN112418059A/zh
Application granted granted Critical
Publication of CN112418059B publication Critical patent/CN112418059B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本申请公开了一种情绪识别的方法、装置、计算机设备和存储介质,属于人工智能技术领域,所述方法通过提取训练样本的情绪特征,其中,情绪特征还包括生理特征;基于特征权重算法,计算情绪特征的特征权重,并对特征权重进行组合,得到训练样本的特征权重组合;基于训练样本以及训练样本的特征权重组合对的初始识别模型进行训练,得到情绪识别模型;通过情绪识别模型对用户信息进行识别,输出情绪识别结果。本申请还涉及区块链技术,上述用户信息可以存储于区块链节点上。本申请利用人体各个情绪特征以及各个情绪特征的特征权重综合对用户的情绪进行识别,提高了情绪识别的准确率。

Description

一种情绪识别的方法、装置、计算机设备及存储介质
技术领域
本申请属于人工智能技术领域,具体涉及一种情绪识别的方法、装置、计算机设备和存储介质。
背景技术
情绪在人们的生活中起着举足轻重的作用,对人们的思维、决策和行为产生很大程度的影响,如果一个人常常面临繁重的精神压力,长期处于不良情绪容易导致失眠以及增加焦虑症、抑郁症等心理疾病发病率,威胁人们健康甚至生命。因此,目前对情绪易失控的人群,例如残障人士的情绪进行识别,并给出相应反馈,能够有效缓解这类人群的精神压力,改善人体的身心健康状况。
为解决上述问题,现有技术主要通过人脸面部表情识别、语音情感识别以及语音文本信息识别来实现情绪识别。通过情绪产生过程中的面部表情变化、声音变化和文字表露来推断所处的情绪状态,从而达到情绪识别的目的。现有情绪识别方案均是通过对面部信息、声音信息等人体外在信息进行分析,从而获得当前的情绪状态,情绪识别的最终结果为人体外在表现对应的表情情绪,但现有情绪识别方案忽略了人体内在实际情绪,存在较大的缺陷,其识别结果和人体内在实际情绪可能存在较大差异,即不能准确地反应用户当前情绪状态。
发明内容
本申请实施例的目的在于提出一种情绪识别的方法、装置、计算机设备及存储介质,以解决现有的情绪识别方案在进行人体情绪识别时只关注人体外在的表情情绪,而忽略了人体内在情绪,导致的情绪识别结果不能准确地反应当前情绪的技术问题。
为了解决上述技术问题,本申请实施例提供一种情绪识别的方法,采用了如下所述的技术方案:
一种情绪识别的方法,应用于通过情绪特征进行情绪识别的系统中,其中,情绪特征包括面部特征和声音特征,包括:
从预设的数据库中获取训练样本集,并从训练样本集中提取训练样本的情绪特征,其中,情绪特征还包括生理特征;
基于特征权重算法,计算情绪特征中面部特征、声音特征以及生理特征的特征权重,并基于预设组合策略对特征权重进行组合,得到训练样本的特征权重组合;
基于训练样本以及训练样本的特征权重组合对预设的初始识别模型进行训练,得到情绪识别模型;
当接收到情绪识别指令时,基于情绪识别指令获取待识别用户的用户信息,并通过情绪识别模型对用户信息进行识别,输出情绪识别结果。
进一步地,基于特征权重算法,计算情绪特征中面部特征、声音特征以及生理特征的特征权重,并基于预设组合策略对特征权重进行组合,得到训练样本的特征权重组合的步骤,具体包括:
为情绪特征中的面部特征、声音特征以及生理特征均赋予相同的初始权重;
对赋予初始权重后的情绪特征进行分类,得到若干个情绪特征组合;
基于特征权重算法,计算情绪特征组合中每一个情绪特征的特征权重;
基于预设组合策略对所有的特征权重进行组合,得到训练样本的特征权重组合。
进一步地,基于特征权重算法,计算情绪特征组合中每一个情绪特征的特征权重的步骤,具体包括:
计算同一类别的情绪特征组合中情绪特征的相似度,得到第一相似度;
计算不同类别的情绪特征组合之间情绪特征的相似度,得到第二相似度;
基于第一相似度和第二相似度对情绪特征的初始权重进行调整,得到每一个情绪特征的特征权重。
进一步地,初始识别模型包括输入层、卷积层和输出层,基于训练样本以及训练样本的特征权重组合对预设的初始识别模型进行训练,得到情绪识别模型的步骤,具体包括:
将训练样本导入到初始识别模型的输入层,以及将训练样本的特征权重组合导入到初始识别模型的输出层;
通过输入层获取训练样本的初始特征向量,通过卷积层对初始特征向量进行特征运算,得到初始特征矩阵,以及在输出层中基于训练样本的特征权重组合对初始特征矩阵进行整合,得到训练样本的特征矩阵;
基于训练样本的特征矩阵调整预设的初始识别模型的模型参数,得到情绪识别模型。
进一步地,通过输入层获取训练样本的初始特征向量,通过卷积层对初始特征向量进行特征运算,得到初始特征矩阵,以及在输出层中基于训练样本的特征权重组合对初始特征矩阵进行整合,得到训练样本的特征矩阵的步骤,具体包括:
通过输入层对训练样本中的每一个情绪特征进行向量特征转换,得到每一个情绪特征的初始特征向量;
通过卷积层对每一个情绪特征的初始特征向量进行卷积运算,得到每一个情绪特征的初始特征矩阵;
在输出层中基于训练样本的特征权重组合对每一个情绪特征的初始特征矩阵进行矩阵拼接,得到训练样本的特征矩阵。
进一步地,在从预设的数据库中获取训练样本集,并从训练样本集中提取训练样本的情绪特征的步骤之前,还包括:
从预设的数据库中获取训练样本,并对训练样本进行标注;
对标注过后的训练样本进行随机组合,得到训练样本集和验证数据集;
将训练样本集和验证数据集存储到预设的数据库中。
进一步地,在基于训练样本以及训练样本的特征权重组合对预设的初始识别模型进行训练,得到情绪识别模型的步骤之后,还包括:
从预设的数据库中获取验证数据集,并将验证数据集导入到训练完成的情绪识别模型进行验证,输出验证结果;
基于验证结果与预设标准结果,使用反向传播算法进行拟合,获取识别误差;
将识别误差与预设阈值进行比较,若识别误差大于预设阈值,则对情绪识别模型进行迭代更新,直到识别误差小于或等于预设阈值为止;
输出识别误差小于或等于预设阈值的情绪识别模型。
为了解决上述技术问题,本申请实施例还提供一种情绪识别的装置,采用了如下所述的技术方案:
一种情绪识别的装置,应用于通过情绪特征进行情绪识别的系统中,其中,情绪特征包括面部特征和声音特征,包括:
特征提取模块,用于从预设的数据库中获取训练样本集,并从训练样本集中提取训练样本的情绪特征,其中,情绪特征还包括生理特征;
权重计算模块,用于基于特征权重算法,计算情绪特征中面部特征、声音特征以及生理特征的特征权重,并基于预设组合策略对特征权重进行组合,得到训练样本的特征权重组合;
模型训练模块,用于基于训练样本以及训练样本的特征权重组合对预设的初始识别模型进行训练,得到情绪识别模型;
情绪识别模块,用于当接收到情绪识别指令时,基于情绪识别指令获取待识别用户的用户信息,并通过情绪识别模型对用户信息进行识别,输出情绪识别结果。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,包括存储器和处理器,存储器中存储有计算机可读指令,处理器执行计算机可读指令时实现如上述任一项的情绪识别的方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,计算机可读存储介质上存储有计算机可读指令,计算机可读指令被处理器执行时实现如上述任一项的情绪识别的方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
本申请公开了一种情绪识别的方法、装置、计算机设备和存储介质,属于人工智能技术领域,本申请通过提取训练样本的情绪特征,其中,本申请的情绪特征至少包括多维度人体情绪特征,如面部特征、声音特征和生理特征。本申请基于特征权重算法,计算情绪特征中面部特征、声音特征以及生理特征的特征权重,通过训练样本以及训练样本的特征权重组合训练情绪识别模型,通过训练好的情绪识别模型判断用户的情绪,本申请综合了人体的面部特征、声音特征和生理特征等多维度情绪特征以及各个情绪特征的特征权重以实现对用户情绪进行综合识别,提高了情绪识别的准确率。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本申请可以应用于其中的示例性系统架构图;
图2示出了根据本申请的情绪识别的方法的一个实施例的流程图;
图3示出了图2中步骤S202的一种具体实施方式的流程图;
图4示出了图2中步骤S203的一种具体实施方式的流程图;
图5示出了根据本申请的情绪识别的装置的一个实施例的结构示意图;
图6示出了根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的情绪识别的方法一般由服务器执行,相应地,情绪识别的装置一般设置于服务器中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的情绪识别的的方法的一个实施例的流程图。本申请的情绪识别的的方法应用于通过情绪特征进行情绪识别的系统中,其中,情绪特征包括面部特征和声音特征,所述的情绪识别的方法,包括以下步骤:
S201,从预设的数据库中获取训练样本集,并从训练样本集中提取训练样本的情绪特征,其中,情绪特征还包括生理特征。
现有技术进行情绪识别时,通过对人体外在信息进行分析,从而获得当前的情绪状态,但采用现有技术进行情绪识别获得的最终结果为人体外在表现(如面部表情、声音等)对应的表情情绪,和人体内在实际情绪可能存在差异,因此现有的情绪识别方案不能准确地反应用户当前真正情绪状态。本提案综合了人体面部特征、声音特征和生理特征的多维度情绪特征以及这些情绪特征的特征权重对用户的情绪进行综合识别,以提高了情绪识别的准确率。
具体的,在本提案中,情绪特征至少包括面部特征、声音特征和生理特征,预设的数据库中存储有用于训练情绪识别模型的训练样本集和验证数据集,每一个训练样本集或每一个验证数据集中至少包括试验者某个时刻或某个时段内的面部照片、音频片段和生理参数。通过面部照片获取面部特征,根据音频片段获取声音特征,根据生理参数获取生理特征,面部特征又包含多个面部子特征如额宽、鼻高、嘴长等等,声音特征又包含多个声音子特征如音量、音调等等,生理特征又包含生理声音子特征如心跳、心率、血压、体温等等。在获取情绪特征之前需要对面部照片、音频片段和生理参数进行相应的预处理,如对面部照片进行增强降噪处理,对音频片段进行分帧和傅里叶变换处理,以及对生理参数小波变换进行去噪处理。
S202,基于特征权重算法,计算情绪特征中面部特征、声音特征以及生理特征的特征权重,并基于预设组合策略对特征权重进行组合,得到训练样本的特征权重组合。
其中,Relief算法是一种特征权重(Feature weighting algorithms)算法,根据各个特征和类别的相关性赋予特征不同的权重,权重小于某个阈值的特征将被移除,Relief算法中特征和类别的相关性是基于特征对近距离样本的区分能力。Relief算法的运行时间随着样本的抽样次数和原始特征个数的增加线性增加,因而运行效率非常高。
具体的,从训练样本集中提取训练样本的情绪特征后,基于特征权重算法,计算情绪特征中面部特征、声音特征以及生理特征的特征权重,并基于预设组合策略对特征权重进行组合,得到每一个训练样本的特征权重组合。其中,某一个情绪特征的特征权重反应的是该情绪特征对于情绪识别结果的影响程度,通过特征权重组合可以确定在情绪识别过程中每一个情绪特征所作出的贡献大小。在本申请一种具体的实施例中,基于预设组合策略对特征权重进行组合具体为对情绪特征的特征权重进行排序,基于情绪特征的特征权重的排序结果对特征权重进行组合,得到训练样本的特征权重组合。需要说明的是,在本申请另一种具体的实施例中,也可以根据实际的需求设定组合策略,本申请在此并不做限定。
S203,基于训练样本以及训练样本的特征权重组合对预设的初始识别模型进行训练,得到情绪识别模型。
其中,预设的初始识别模型采用的是深度卷积神经网络模型,卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一。卷积神经网络具有表征学习(representation learning)能力,能够按其阶层结构对输入信息进行平移不变分类(shift-invariant classification),因此也被称为“平移不变人工神经网络”。卷积神经网络仿造生物的视知觉(visual perception)机制构建,可以进行监督学习和非监督学习,其卷积层内的卷积核参数共享和层间连接的稀疏性使得卷积神经网络能够以较小的计算量对格点化(grid-like topology)特征,例如像素和音频进行学习,有稳定的效果且对数据没有额外的特征工程要求。
具体的,初始识别模型包括输入层、卷积层和输出层,训练数据集包括多个训练样本,将训练数据集中的训练样本导入到初始识别模型的输入层,将训练样本的特征权重组合导入到初始识别模型的输出层,通过输入层获取训练样本情绪特征的初始特征向量,通过卷积层对初始特征向量进行处理得到初始特征矩阵,通过输出层并基于特征权重组合对多个情绪特征的初始特征矩阵拼接,得到特征矩阵,通过特征矩阵调整预设的初始识别模型的模型参数,得到情绪识别模型。
S204,当接收到情绪识别指令时,基于情绪识别指令获取待识别用户的用户信息,并通过情绪识别模型对用户信息进行识别,输出情绪识别结果。
具体的,在上述步骤S203中完成情绪识别模型训练后,得到一个成熟的情绪识别模型,通过得到情绪识别模型可以对用户的情绪进行识别。当接收到情绪识别指令时,基于情绪识别指令获取待识别用户的用户信息,并通过情绪识别模型对用户信息进行识别,输出情绪识别结果。其中,用户信息包括当前用户的面部信息、音频信息和生理参数信息。
在本实施例中,情绪识别的方法运行于其上的电子设备(例如图1所示的服务器/终端设备)可以通过有线连接方式或者无线连接方式接收情绪识别指令。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
本申请公开了一种情绪识别的方法,属于人工智能技术领域,所述方法通过提取训练样本的情绪特征,其中,本申请的情绪特征至少包括多维度人体情绪特征,如面部特征、声音特征和生理特征。本申请基于特征权重算法,计算情绪特征中面部特征、声音特征以及生理特征的特征权重,通过训练样本以及训练样本的特征权重组合训练情绪识别模型,通过训练好的情绪识别模型判断用户的情绪,本申请综合了人体的面部特征、声音特征和生理特征等多维度情绪特征以及各个情绪特征的特征权重以实现对用户情绪进行综合识别,提高了情绪识别的准确率。
进一步地,请参考图3,图3示出了图2中步骤S202的一种具体实施方式的流程图,基于特征权重算法,计算每一个情绪特征的特征权重,并对特征权重进行组合,得到每一个训练样本的特征权重组合的步骤,具体包括:
S301,为情绪特征中的面部特征、声音特征以及生理特征均赋予相同的初始权重;
S302,对赋予初始权重后的情绪特征进行分类,得到若干个情绪特征组合;
S303,基于特征权重算法,计算情绪特征组合中每一个情绪特征的特征权重;
S304,基于预设组合策略对所有的特征权重进行组合,得到训练样本的特征权重组合。
进一步地,基于特征权重算法,计算情绪特征组合中每一个情绪特征的特征权重的步骤,具体包括:
计算同一类别的情绪特征组合中情绪特征的相似度,得到第一相似度;
计算不同类别的情绪特征组合之间情绪特征的相似度,得到第二相似度;
基于第一相似度和第二相似度对情绪特征的初始权重进行调整,得到每一个情绪特征的特征权重。
具体的,在本申请一种具体的实施例中,可以根据情绪特征的类别对情绪特征进行分类,得到若干个情绪特征组合。如面部特征类、音频特征类、生理特征类等等。当然在本申请另一种具体的实施例中,也可按照情绪特征的具体参数或者其他分类方式对情绪特征进行分类,本申请在此并不做限定。
其中,Relief算法从任意一个情绪特征组合D中随机选择一个样本R,然后从D中寻找与样本R最近邻的样本H,样本H称为Near Hit,从其他情绪特征组合中寻找与样本R最近邻样本M,样本M称为NearMiss,然后根据以下规则更新每个特征的权重:如果R和Near Hit在某个特征上的距离小于R和Near Miss上的距离,这里的距离即两个情绪特征之间的相似度,则说明该特征对区分同类和不同类的最近邻是有益的,则增加该特征的权重;反之,如果R和Near Hit在某个特征的距离大于R和Near Miss上的距离,说明该特征对区分同类和不同类的最近邻起负面作用,则降低该特征的权重。以上过程重复m次,最后得到各特征的平均权重,特征的权重越大,表示该特征的分类能力越强,反之,表示该特征分类能力越弱。Relief算法的运行时间随着样本的抽样次数m和原始特征个数N的增加线性增加,因而运行效率非常高。
在上述实施例中,通过为为情绪特征中的面部特征、声音特征以及生理特征均赋予相同的初始权重,即为面部特征、声音特征以及生理特征的各个子特征均赋予相同的初始权重,对赋予初始权重后的各个子特征进行分类,得到若干个情绪特征组合,基于特征权重算法,计算情绪特征组合中每一个情绪特征的特征权重,对计算得到的所有特征权重进行组合,可以计算得到每一个训练样本的特征权重组合,特征权重组合用于后续情绪识别模型训练,以提高情绪识别的准确率。
进一步地,请参考图4,图4示出了图2中步骤S203的一种具体实施方式的流程图,初始识别模型包括输入层、卷积层和输出层,基于训练数据集以及每一个训练样本的特征权重组合对预设的初始识别模型进行训练,得到情绪识别模型的步骤,具体包括:
S401,将训练样本导入到初始识别模型的输入层,以及将训练样本的特征权重组合导入到初始识别模型的输出层;
S402,通过输入层获取训练样本的初始特征向量,通过卷积层对初始特征向量进行特征运算,得到初始特征矩阵,以及在输出层中基于训练样本的特征权重组合对初始特征矩阵进行整合,得到训练样本的特征矩阵;
S403,基于训练样本的特征矩阵调整预设的初始识别模型的模型参数,得到情绪识别模型。
进一步地,通过输入层获取训练数据集中每一个训练样本的初始特征向量,通过卷积层对初始特征向量进行特征运算,得到初始特征矩阵,以及在输出层中对初始特征矩阵进行整合,得到训练样本的特征矩阵的步骤,具体包括:
通过输入层对训练样本的每一个情绪特征进行向量特征转换,得到每一个情绪特征的初始特征向量;
通过卷积层对每一个情绪特征的初始特征向量进行卷积运算,得到每一个情绪特征的初始特征矩阵;
在输出层中基于训练样本的特征权重组合对每一个情绪特征的初始特征矩阵进行矩阵拼接,得到训练样本的特征矩阵。
其中,初始识别模型的输入层设置有向量转换端口,通过向量转换端口完成向量特征转换处理;初始识别模型的卷积层预设有卷积核,通过卷积核对每一个情绪特征的初始特征向量进行卷积运算。卷积运算的处理过程为:对于一m*n的矩阵,以1维卷积为例,构建一x*n的卷积核,该卷积核在初始矩阵上进行滑动运算。例如m的值为5,x的值为1,则卷积核自上而下滑动,x首先与第一行的n维向量相乘并求和,得到一个值,随后x继续往下滑动与第2行,第3行…进行卷积运算,共得到5*1的矩阵,即为卷积运算结果。
具体的,将训练样本导入到初始识别模型的输入层,将训练样本的特征权重组合导入到初始识别模型的输出层,通过输入层对训练样本的每一个情绪特征进行向量特征转换,得到每一个情绪特征的初始特征向量,通过卷积层对每一个情绪特征的初始特征向量进行卷积运算,得到每一个情绪特征的初始特征矩阵,在输出层中基于训练样本的特征权重组合对每一个情绪特征的初始特征矩阵进行矩阵拼接,得到训练样本的特征矩阵,基于训练样本的特征矩阵调整预设的初始识别模型的模型参数,得到情绪识别模型。通过人体面部特征、声音特征和生理特征等情绪特征以及各个情绪特征的特征权重综合训练情绪识别模型,以提高情绪识别的准确率。
进一步地,在从预设的数据库中获取训练样本集,并从训练样本集中提取训练样本的情绪特征,其中,每一个训练样本均包含若干个情绪特征的步骤之前,还包括:
从预设的数据库中获取训练样本,并对训练样本进行标注;
对标注过后的训练样本进行随机组合,得到训练样本集和验证数据集;
将训练样本集和验证数据集存储到预设的数据库中。
具体的,从预设数据库中获取样本数据,对样本数据进行标注,样本数据包括面部照片、音频片段和生理参数,标注时可以针对面部特征、声音特征和生理参数特征进行标注。对标注后的样本数据进行随机组合,得到训练样本集和验证数据集,如可以将标注后的样本数据随机分为10等份的样本子集,其中,随机组合9样本子集作为训练样本集,将剩余的样本子集作为验证数据集。将训练样本集导入到初始识别模型中进行模型训练,得到训练好的情绪识别模型,通过验证数据集对训练好的情绪识别模型进行验证,输出验证通过的情绪识别模型。在上述实施例,通过构建训练样本集和验证数据集,并分别通过训练样本集和验证数据集对初始识别模型进行训练和验证,可以快速获得情绪识别模型。
进一步地,在基于训练数据集以及每一个训练样本的特征权重组合对预设的初始识别模型进行训练,得到情绪识别模型的步骤之后,还包括:
从预设的数据库中获取验证数据集,并将验证数据集导入到训练完成的情绪识别模型进行验证,输出验证结果;
基于验证结果与预设标准结果,使用反向传播算法进行拟合,获取识别误差;
将识别误差与预设阈值进行比较,若识别误差大于预设阈值,则对情绪识别模型进行迭代更新,直到识别误差小于或等于预设阈值为止;
输出识别误差小于或等于预设阈值的情绪识别模型。
其中,反向传播算法,即误差反向传播算法(Backpropagationalgorithm,BP算法)适合于多层神经元网络的一种学习算法,它建立在梯度下降法的基础上,用于深度学习网络的误差计算。BP网络的输入、输出关系实质上是一种映射关系:一个n输入m输出的BP神经网络所完成的功能是从n维欧氏空间向m维欧氏空间中一有限域的连续映射,这一映射具有高度非线性。BP算法的学习过程由正向传播过程和反向传播过程组成。在正向传播过程中,输入信息通过输入层经隐含层,逐层处理并传向输出层,并转入反向传播,逐层求出目标函数对各神经元权值的偏导数,构成目标函数对权值向量的梯量,以作为修改权值的依据。
具体的,从预设的数据库中获取验证数据集,将验证数据集导入到训练完成的情绪识别模型进行验证,输出验证结果;基于验证结果与预设标准结果,使用反向传播算法进行拟合计算,获取识别误差;将识别误差与预设误差阈值进行比较,若识别误差大于预设误差阈值,则基于情绪识别模型的损失函数对训练完成的情绪识别模型进行迭代更新,直到识别误差小于或等于预设误差阈值为止,获取验证通过的情绪识别模型。其中,预设标准结果和预设误差阈值可以提前设定。在上述实施例中,通过反向传播算法对训练完成的情绪识别模型进行验证和迭代,得到符合要求的人脸特征识别模型。
需要强调的是,为进一步保证上述用户信息的私密和安全性,上述用户信息还可以存储于一区块链的节点中。
本申请所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图5,作为对上述图2所示方法的实现,本申请提供了一种情绪识别的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例所述的情绪识别的装置包括:
特征提取模块501,用于从预设的数据库中获取训练样本集,并从训练样本集中提取训练样本的情绪特征,其中,情绪特征还包括生理特征;
权重计算模块502,用于基于特征权重算法,计算情绪特征中面部特征、声音特征以及生理特征的特征权重,并基于预设组合策略对特征权重进行组合,得到训练样本的特征权重组合;
模型训练模块503,用于基于训练样本以及训练样本的特征权重组合对预设的初始识别模型进行训练,得到情绪识别模型;
情绪识别模块504,用于当接收到情绪识别指令时,基于情绪识别指令获取待识别用户的用户信息,并通过情绪识别模型对用户信息进行识别,输出情绪识别结果。
进一步地,权重计算模块502具体包括:
权重赋值单元,用于为情绪特征中的面部特征、声音特征以及生理特征均赋予相同的初始权重;
数据分类单元,用于对赋予初始权重后的情绪特征进行分类,得到若干个情绪特征组合;
权重计算单元,用于基于特征权重算法,计算情绪特征组合中每一个情绪特征的特征权重;
权重组合单元,用于基于预设组合策略对所有的特征权重进行组合,得到训练样本的特征权重组合。
进一步地,权重计算单元具体包括:
第一相似度计算子单元,用于计算同一类别的情绪特征组合中情绪特征的相似度,得到第一相似度;
第二相似度计算子单元,用于计算不同类别的情绪特征组合之间情绪特征的相似度,得到第二相似度;
权重调整子单元,用于基于第一相似度和第二相似度对情绪特征的初始权重进行调整,得到每一个情绪特征的特征权重。
进一步地,模型训练模块503具体包括:
数据导入单元,用于将训练样本导入到初始识别模型的输入层,以及将训练样本的特征权重组合导入到初始识别模型的输出层;
模型训练单元,用于通过输入层获取训练样本的初始特征向量,通过卷积层对初始特征向量进行特征运算,得到初始特征矩阵,以及在输出层中基于训练样本的特征权重组合对初始特征矩阵进行整合,得到训练样本的特征矩阵;
模型调整单元,用于基于训练样本的特征矩阵调整预设的初始识别模型的模型参数,得到情绪识别模型。
进一步地,模型训练单元具体包括:
向量转换子单元,用于通过输入层对训练样本中的每一个情绪特征进行向量特征转换,得到每一个情绪特征的初始特征向量;
卷积运算子单元,用于通过卷积层对每一个情绪特征的初始特征向量进行卷积运算,得到每一个情绪特征的初始特征矩阵;
矩阵拼接子单元,用于在输出层中基于训练样本的特征权重组合对每一个情绪特征的初始特征矩阵进行矩阵拼接,得到训练样本的特征矩阵。
进一步地,该情绪识别的装置还包括:
样本标注模块,用于从预设的数据库中获取训练样本,并对训练样本进行标注;
样本组合模块,用于对标注过后的训练样本进行随机组合,得到训练样本集和验证数据集;
样本存储模块,用于将训练样本集和验证数据集存储到预设的数据库中。
进一步地,该情绪识别的装置还包括:
模型验证模块,用于从预设的数据库中获取验证数据集,并将验证数据集导入到训练完成的情绪识别模型进行验证,输出验证结果;
误差计算模块,用于基于验证结果与预设标准结果,使用反向传播算法进行拟合,获取识别误差;
模型迭代模块,用于将识别误差与预设阈值进行比较,若识别误差大于预设阈值,则对情绪识别模型进行迭代更新,直到识别误差小于或等于预设阈值为止;
模型输出模块,用于输出识别误差小于或等于预设阈值的情绪识别模型。
本申请公开了一种情绪识别的装置,属于人工智能技术领域,所述装置通过提取训练样本的情绪特征,其中,本申请的情绪特征至少包括多维度人体情绪特征,如面部特征、声音特征和生理特征。本申请基于特征权重算法,计算情绪特征中面部特征、声音特征以及生理特征的特征权重,通过训练样本以及训练样本的特征权重组合训练情绪识别模型,通过训练好的情绪识别模型判断用户的情绪,本申请综合了人体的面部特征、声音特征和生理特征等多维度情绪特征以及各个情绪特征的特征权重以实现对用户情绪进行综合识别,提高了情绪识别的准确率。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图6,图6为本实施例计算机设备基本结构框图。
所述计算机设备6包括通过系统总线相互通信连接存储器61、处理器62、网络接口63。需要指出的是,图中仅示出了具有组件61-63的计算机设备6,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器61至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器61可以是所述计算机设备6的内部存储单元,例如该计算机设备6的硬盘或内存。在另一些实施例中,所述存储器61也可以是所述计算机设备6的外部存储设备,例如该计算机设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器61还可以既包括所述计算机设备6的内部存储单元也包括其外部存储设备。本实施例中,所述存储器61通常用于存储安装于所述计算机设备6的操作系统和各类应用软件,例如情绪识别的方法的计算机可读指令等。此外,所述存储器61还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器62在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器62通常用于控制所述计算机设备6的总体操作。本实施例中,所述处理器62用于运行所述存储器61中存储的计算机可读指令或者处理数据,例如运行所述情绪识别的方法的计算机可读指令。
所述网络接口63可包括无线网络接口或有线网络接口,该网络接口63通常用于在所述计算机设备6与其他电子设备之间建立通信连接。
本申请公开了一种计算机设备,属于人工智能技术领域,本申请通过提取训练样本的情绪特征,其中,本申请的情绪特征至少包括多维度人体情绪特征,如面部特征、声音特征和生理特征。本申请基于特征权重算法,计算情绪特征中面部特征、声音特征以及生理特征的特征权重,通过训练样本以及训练样本的特征权重组合训练情绪识别模型,通过训练好的情绪识别模型判断用户的情绪,本申请综合了人体的面部特征、声音特征和生理特征等多维度情绪特征以及各个情绪特征的特征权重以实现对用户情绪进行综合识别,提高了情绪识别的准确率。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的情绪识别的方法的步骤。
本申请公开了一种存储介质,属于人工智能技术领域,本申请通过提取训练样本的情绪特征,其中,本申请的情绪特征至少包括多维度人体情绪特征,如面部特征、声音特征和生理特征。本申请基于特征权重算法,计算情绪特征中面部特征、声音特征以及生理特征的特征权重,通过训练样本以及训练样本的特征权重组合训练情绪识别模型,通过训练好的情绪识别模型判断用户的情绪,本申请综合了人体的面部特征、声音特征和生理特征等多维度情绪特征以及各个情绪特征的特征权重以实现对用户情绪进行综合识别,提高了情绪识别的准确率。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。

Claims (8)

1.一种情绪识别的方法,应用于通过情绪特征进行情绪识别的系统中,其中,所述情绪特征包括面部特征和声音特征,其特征在于,包括:
从预设的数据库中获取训练样本集,并从所述训练样本集中提取训练样本的情绪特征,其中,所述情绪特征还包括生理特征;
基于特征权重算法,计算所述情绪特征中面部特征、声音特征以及生理特征的特征权重,并基于预设组合策略对所述特征权重进行组合,得到所述训练样本的特征权重组合;
基于所述训练样本以及所述训练样本的特征权重组合对预设的初始识别模型进行训练,得到情绪识别模型;
当接收到情绪识别指令时,基于所述情绪识别指令获取待识别用户的用户信息,并通过所述情绪识别模型对所述用户信息进行识别,输出情绪识别结果;
所述基于特征权重算法,计算所述情绪特征中面部特征、声音特征以及生理特征的特征权重,并基于预设组合策略对所述特征权重进行组合,得到所述训练样本的特征权重组合的步骤,具体包括:
为所述情绪特征中的面部特征、声音特征以及生理特征均赋予相同的初始权重;
对赋予初始权重后的所述情绪特征进行分类,得到若干个情绪特征组合;
基于特征权重算法,计算所述情绪特征组合中每一个情绪特征的特征权重;
基于预设组合策略对所有的所述特征权重进行组合,得到所述训练样本的特征权重组合;
所述基于特征权重算法,计算所述情绪特征组合中每一个情绪特征的特征权重的步骤,具体包括:
计算同一类别的情绪特征组合中所述情绪特征的相似度,得到第一相似度;
计算不同类别的情绪特征组合之间所述情绪特征的相似度,得到第二相似度;
基于所述第一相似度和所述第二相似度对所述情绪特征的初始权重进行调整,得到每一个所述情绪特征的特征权重。
2.如权利要求1所述的情绪识别的方法,其特征在于,所述初始识别模型包括输入层、卷积层和输出层,所述基于所述训练样本以及所述训练样本的特征权重组合对预设的初始识别模型进行训练,得到情绪识别模型的步骤,具体包括:
将所述训练样本导入到所述初始识别模型的输入层,以及将所述训练样本的特征权重组合导入到所述初始识别模型的输出层;
通过所述输入层获取所述训练样本的初始特征向量,通过卷积层对所述初始特征向量进行特征运算,得到初始特征矩阵,以及在所述输出层中基于训练样本的特征权重组合对所述初始特征矩阵进行整合,得到所述训练样本的特征矩阵;
基于所述训练样本的特征矩阵调整预设的所述初始识别模型的模型参数,得到所述情绪识别模型。
3.如权利要求2所述的情绪识别的方法,其特征在于,所述通过所述输入层获取所述训练样本的初始特征向量,通过卷积层对所述初始特征向量进行特征运算,得到初始特征矩阵,以及在所述输出层中基于训练样本的特征权重组合对所述初始特征矩阵进行整合,得到所述训练样本的特征矩阵的步骤,具体包括:
通过所述输入层对所述训练样本中的每一个情绪特征进行向量特征转换,得到每一个所述情绪特征的初始特征向量;
通过所述卷积层对每一个所述情绪特征的初始特征向量进行卷积运算,得到每一个所述情绪特征的初始特征矩阵;
在所述输出层中基于所述训练样本的特征权重组合对每一个所述情绪特征的初始特征矩阵进行矩阵拼接,得到所述训练样本的特征矩阵。
4.如权利要求1至3任一项所述的情绪识别的方法,其特征在于,在所述从预设的数据库中获取训练样本集,并从所述训练样本集中提取训练样本的情绪特征的步骤之前,还包括:
从预设的数据库中获取训练样本,并对所述训练样本进行标注;
对标注过后的所述训练样本进行随机组合,得到训练样本集和验证数据集;
将所述训练样本集和所述验证数据集存储到所述预设的数据库中。
5.如权利要求4所述的情绪识别的方法,其特征在于,在所述基于所述训练样本以及所述训练样本的特征权重组合对预设的初始识别模型进行训练,得到情绪识别模型的步骤之后,还包括:
从预设的数据库中获取所述验证数据集,并将所述验证数据集导入到训练完成的所述情绪识别模型进行验证,输出验证结果;
基于所述验证结果与预设标准结果,使用反向传播算法进行拟合,获取识别误差;
将所述识别误差与预设阈值进行比较,若所述识别误差大于预设阈值,则对所述情绪识别模型进行迭代更新,直到所述识别误差小于或等于预设阈值为止;
输出所述识别误差小于或等于预设阈值的情绪识别模型。
6.一种情绪识别的装置,应用于通过情绪特征进行情绪识别的系统中,其中,所述情绪特征包括面部特征和声音特征,其特征在于,包括:
特征提取模块,用于从预设的数据库中获取训练样本集,并从所述训练样本集中提取训练样本的情绪特征,其中,所述情绪特征还包括生理特征;
权重计算模块,用于基于特征权重算法,计算所述情绪特征中面部特征、声音特征以及生理特征的特征权重,并基于预设组合策略对所述特征权重进行组合,得到所述训练样本的特征权重组合;
模型训练模块,用于基于所述训练样本以及所述训练样本的特征权重组合对预设的初始识别模型进行训练,得到情绪识别模型;
情绪识别模块,用于当接收到情绪识别指令时,基于所述情绪识别指令获取待识别用户的用户信息,并通过所述情绪识别模型对所述用户信息进行识别,输出情绪识别结果;
所述权重计算模块具体包括:
权重赋值单元,用于为情绪特征中的面部特征、声音特征以及生理特征均赋予相同的初始权重;
数据分类单元,用于对赋予初始权重后的情绪特征进行分类,得到若干个情绪特征组合;
权重计算单元,用于基于特征权重算法,计算情绪特征组合中每一个情绪特征的特征权重;
权重组合单元,用于基于预设组合策略对所有的特征权重进行组合,得到训练样本的特征权重组合;
所述权重计算单元具体包括:
第一相似度计算子单元,用于计算同一类别的情绪特征组合中情绪特征的相似度,得到第一相似度;
第二相似度计算子单元,用于计算不同类别的情绪特征组合之间情绪特征的相似度,得到第二相似度;
权重调整子单元,用于基于第一相似度和第二相似度对情绪特征的初始权重进行调整,得到每一个情绪特征的特征权重。
7.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至5中任一项所述的情绪识别的方法的步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至5中任一项所述的情绪识别的方法的步骤。
CN202011302981.7A 2020-11-19 2020-11-19 一种情绪识别的方法、装置、计算机设备及存储介质 Active CN112418059B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011302981.7A CN112418059B (zh) 2020-11-19 2020-11-19 一种情绪识别的方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011302981.7A CN112418059B (zh) 2020-11-19 2020-11-19 一种情绪识别的方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN112418059A CN112418059A (zh) 2021-02-26
CN112418059B true CN112418059B (zh) 2024-01-05

Family

ID=74773622

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011302981.7A Active CN112418059B (zh) 2020-11-19 2020-11-19 一种情绪识别的方法、装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN112418059B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113254491A (zh) * 2021-06-01 2021-08-13 平安科技(深圳)有限公司 一种信息推荐的方法、装置、计算机设备及存储介质
TWI767775B (zh) * 2021-06-30 2022-06-11 國立陽明交通大學 影像式情緒辨識系統和方法
CN116072102A (zh) * 2021-11-04 2023-05-05 中兴通讯股份有限公司 情绪识别方法、装置、设备及存储介质
CN114089642B (zh) * 2022-01-24 2022-04-05 慕思健康睡眠股份有限公司 一种智能家居系统的数据交互方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919001A (zh) * 2019-01-23 2019-06-21 深圳壹账通智能科技有限公司 基于情绪识别的客服监测方法、装置、设备和存储介质
WO2020073665A1 (zh) * 2018-10-11 2020-04-16 平安科技(深圳)有限公司 在频谱上对语音进行情绪识别的方法、系统及存储介质
CN111414839A (zh) * 2020-03-16 2020-07-14 清华大学 基于姿态的情感识别方法及装置
CN111523389A (zh) * 2020-03-25 2020-08-11 中国平安人寿保险股份有限公司 情绪智能识别方法、装置、电子设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8965762B2 (en) * 2007-02-16 2015-02-24 Industrial Technology Research Institute Bimodal emotion recognition method and system utilizing a support vector machine

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020073665A1 (zh) * 2018-10-11 2020-04-16 平安科技(深圳)有限公司 在频谱上对语音进行情绪识别的方法、系统及存储介质
CN109919001A (zh) * 2019-01-23 2019-06-21 深圳壹账通智能科技有限公司 基于情绪识别的客服监测方法、装置、设备和存储介质
CN111414839A (zh) * 2020-03-16 2020-07-14 清华大学 基于姿态的情感识别方法及装置
CN111523389A (zh) * 2020-03-25 2020-08-11 中国平安人寿保险股份有限公司 情绪智能识别方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN112418059A (zh) 2021-02-26

Similar Documents

Publication Publication Date Title
CN112418059B (zh) 一种情绪识别的方法、装置、计算机设备及存储介质
CN110796190B (zh) 具有深度学习特征的指数建模
WO2022007823A1 (zh) 一种文本数据处理方法及装置
CN112732911B (zh) 基于语义识别的话术推荐方法、装置、设备及存储介质
CN112395979B (zh) 基于图像的健康状态识别方法、装置、设备及存储介质
WO2022068314A1 (zh) 神经网络训练的方法、神经网络的压缩方法以及相关设备
CN112231569B (zh) 新闻推荐方法、装置、计算机设备及存储介质
WO2019136909A1 (zh) 基于深度学习的语音活体检测方法、服务器及存储介质
WO2022042043A1 (zh) 机器学习模型的训练方法、装置和电子设备
CN111898550B (zh) 建立表情识别模型方法、装置、计算机设备及存储介质
CN111357051B (zh) 语音情感识别方法、智能装置和计算机可读存储介质
CN113707299A (zh) 基于问诊会话的辅助诊断方法、装置及计算机设备
CN111816300A (zh) 基于深度强化学习的数据分类方法、装置、设备及介质
CN112749737A (zh) 图像分类方法及装置、电子设备、存储介质
CN112995414B (zh) 基于语音通话的行为质检方法、装置、设备及存储介质
CN117557331A (zh) 一种产品推荐方法、装置、计算机设备及存储介质
CN114241411B (zh) 基于目标检测的计数模型处理方法、装置及计算机设备
CN111354364B (zh) 一种基于rnn聚合方式的声纹识别方法与系统
CN113643283A (zh) 一种人体衰老状况的检测方法、装置、设备及存储介质
Rajasekhar et al. A novel speech emotion recognition model using mean update of particle swarm and whale optimization-based deep belief network
CN116612745A (zh) 一种语音情感识别方法、装置、设备及其存储介质
CN114449701B (zh) 基于病历信息的灯光类型调控方法、装置及电子设备
CN116364223B (zh) 特征处理方法、装置、计算机设备及存储介质
WO2024082891A1 (zh) 一种数据处理方法及相关设备
CN116798623A (zh) 基于人工智能的睡眠评估方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20231207

Address after: Office Building 1406-B08, Junkang Building, Intersection of Qunli Sixth Avenue and Langjiang Road, Daoli District, Harbin City, Heilongjiang Province, 150000 yuan

Applicant after: Harbin Huasheng Pan Asia Human Resources Service Co.,Ltd.

Address before: 518000 Room 202, block B, aerospace micromotor building, No.7, Langshan No.2 Road, Xili street, Nanshan District, Shenzhen City, Guangdong Province

Applicant before: Shenzhen LIAN intellectual property service center

Effective date of registration: 20231207

Address after: 518000 Room 202, block B, aerospace micromotor building, No.7, Langshan No.2 Road, Xili street, Nanshan District, Shenzhen City, Guangdong Province

Applicant after: Shenzhen LIAN intellectual property service center

Address before: 518000 Room 201, building A, No. 1, Qian Wan Road, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong (Shenzhen Qianhai business secretary Co., Ltd.)

Applicant before: PING AN PUHUI ENTERPRISE MANAGEMENT Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant