CN114863521A - 表情识别方法、表情识别装置、电子设备及存储介质 - Google Patents

表情识别方法、表情识别装置、电子设备及存储介质 Download PDF

Info

Publication number
CN114863521A
CN114863521A CN202210438909.XA CN202210438909A CN114863521A CN 114863521 A CN114863521 A CN 114863521A CN 202210438909 A CN202210438909 A CN 202210438909A CN 114863521 A CN114863521 A CN 114863521A
Authority
CN
China
Prior art keywords
expression
feature vector
target
image
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210438909.XA
Other languages
English (en)
Inventor
刘钊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Life Insurance Company of China Ltd
Original Assignee
Ping An Life Insurance Company of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Life Insurance Company of China Ltd filed Critical Ping An Life Insurance Company of China Ltd
Priority to CN202210438909.XA priority Critical patent/CN114863521A/zh
Publication of CN114863521A publication Critical patent/CN114863521A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例提供了一种表情识别方法、表情识别装置、电子设备及存储介质,属于人工智能技术领域。该方法包括:获取目标人脸图像;通过预设的表情识别模型的编码网络对目标人脸图像进行多尺度编码处理,得到目标人脸特征向量;通过表情识别模型的解码网络对目标人脸特征向量进行多尺度解码处理,得到目标表情特征向量;对目标人脸特征向量和目标表情特征向量进行特征融合,得到融合图像特征向量;通过预设的分类函数对融合图像特征向量进行分类概率计算,得到分类概率值;根据分类概率值对预设表情类别标签进行筛选处理,得到目标人脸图像对应的目标表情类别标签。本申请实施例能够提高表情识别的准确性。

Description

表情识别方法、表情识别装置、电子设备及存储介质
技术领域
本申请涉及人工智能技术领域,尤其涉及一种表情识别方法、表情识别装置、电子设备及存储介质。
背景技术
目前,常见的表情识别方法大多数基于深度学习的方法实现,即通过卷积神经网络模型提取人脸图像的图像特征,对图像特征进行表情识别处理,从而输出人脸图像对应的表情类别,而卷积神经网络模型的训练往往需要大量的标注数据,而获取大量的高质量标注数据成本较高,使得卷积神经网络模型的训练效果不佳,影响表情识别的准确性,因此,如何提高表情识别的准确性,成为了亟待解决的技术问题。
发明内容
本申请实施例的主要目的在于提出一种表情识别方法、表情识别装置、电子设备及存储介质,旨在提高表情识别的准确性。
为实现上述目的,本申请实施例的第一方面提出了一种表情识别方法,所述方法包括:
获取目标人脸图像;
通过预设的表情识别模型的编码网络对所述目标人脸图像进行多尺度编码处理,得到目标人脸特征向量;
通过所述表情识别模型的解码网络对所述目标人脸特征向量进行多尺度解码处理,得到目标表情特征向量;
对所述目标人脸特征向量和所述目标表情特征向量进行特征融合,得到融合图像特征向量;
通过预设的分类函数对所述融合图像特征向量进行分类概率计算,得到分类概率值;
根据所述分类概率值对预设表情类别标签进行筛选处理,得到所述目标人脸图像对应的目标表情类别标签。
在一些实施例,所述获取目标人脸图像的步骤,包括:
获取原始人脸图像;
对所述原始人脸图像进行标准化处理,得到初始人脸图像;
对所述初始人脸图像进行归一化处理,得到所述目标人脸图像。
在一些实施例,所述目标人脸特征向量包括第一人脸特征向量、第二人脸特征向量和第三人脸特征向量,所述编码网络包括第一编码层、第二编码层以及第三编码层,所述通过预设的表情识别模型的编码网络对所述目标人脸图像进行多尺度编码处理,得到目标人脸特征向量的步骤,包括:
通过所述第一编码层对所述目标人脸图像进行第一编码处理,得到第一人脸特征向量;
通过所述第二编码层对所述第一人脸特征向量进行第二编码处理,得到第二人脸特征向量;
通过所述第三编码层对所述第二人脸特征向量进行第三编码处理,得到所述第三人脸特征向量。
在一些实施例,所述目标表情特征向量包括第一表情特征向量、第二表情特征向量和第三表情特征向量,所述解码网络包括第一解码层、第二解码层以及第三解码层,所述通过所述表情识别模型的解码网络对所述目标人脸特征向量进行多尺度解码处理,得到目标表情特征向量的步骤,包括:
通过所述第一解码层对所述目标人脸特征向量进行第一解码处理,得到第一表情特征向量;
通过所述第二编码层对所述第一表情特征向量进行第二解码处理,得到第二表情特征向量;
通过所述第三编码层对所述第二表情特征向量进行第三解码处理,得到所述第三表情特征向量。
在一些实施例,所述目标人脸特征向量包括第一人脸特征向量、第二人脸特征向量和第三人脸特征向量,所述目标表情特征向量包括第一表情特征向量、第二表情特征向量和第三表情特征向量,所述对所述目标人脸特征向量和所述目标表情特征向量进行特征融合,得到融合图像特征向量的步骤,包括:
对所述第一人脸特征向量与所述第三表情特征向量进行求差处理,得到第一特征差向量;
对所述第二人脸特征向量与所述第二表情特征向量进行求差处理,得到第二特征差向量;
对所述第三人脸特征向量与所述第一表情特征向量进行求差处理,得到第三特征差向量;
对所述第一特征差向量、所述第二特征差向量和所述第三特征差向量进行拼接处理,得到所述融合图像特征向量。
在一些实施例,所述根据所述分类概率值对预设表情类别标签进行筛选处理,得到所述目标人脸图像对应的目标表情类别标签的步骤,包括:
比对所述分类概率值与预设的分类概率阈值;
选取所述分类概率值大于或者等于所述分类概率阈值的预设表情类别标签作为所述目标表情类别标签。
在一些实施例,所述通过预设的表情识别模型的编码网络对所述目标人脸图像进行多尺度编码处理,得到目标人脸特征向量的步骤,所述方法还包括训练所述表情识别模型,具体包括:
获取样本表情图像;
通过所述表情识别模型对所述样本表情图像进行对称重构处理,得到所述样本表情图像对应的融合表情特征;
通过所述表情识别模型的损失函数对所述融合表情特征进行分类损失计算,得到分类损失值;
根据所述分类损失值进行反向梯度传播,以优化所述表情识别模型。
为实现上述目的,本申请实施例的第二方面提出了一种表情识别装置,所述装置包括:
图像获取模块,用于获取目标人脸图像;
编码模块,用于通过预设的表情识别模型的编码网络对所述目标人脸图像进行多尺度编码处理,得到目标人脸特征向量;
解码模块,用于通过所述表情识别模型的解码网络对所述目标人脸特征向量进行多尺度解码处理,得到目标表情特征向量;
特征融合模块,用于对所述目标人脸特征向量和所述目标表情特征向量进行特征融合,得到融合图像特征向量;
计算模块,用于通过预设的分类函数对所述融合图像特征向量进行分类概率计算,得到分类概率值;
筛选模块,用于根据所述分类概率值对预设表情类别标签进行筛选处理,得到所述目标人脸图像对应的目标表情类别标签。
为实现上述目的,本申请实施例的第三方面提出了一种电子设备,所述电子设备包括存储器、处理器、存储在所述存储器上并可在所述处理器上运行的程序以及用于实现所述处理器和所述存储器之间的连接通信的数据总线,所述程序被所述处理器执行时实现上述第一方面所述的方法。
为实现上述目的,本申请实施例的第四方面提出了一种存储介质,所述存储介质为计算机可读存储介质,用于计算机可读存储,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述第一方面所述的方法。
本申请提出的表情识别方法、表情识别装置、电子设备及存储介质,其通过获取目标人脸图像,通过预设的表情识别模型的编码网络对目标人脸图像进行多尺度编码处理,得到目标人脸特征向量,并通过表情识别模型的解码网络对目标人脸特征向量进行多尺度解码处理,得到目标表情特征向量,这一方式通过编码网络和解码网络的对称重构能够有效地提取目标人脸图像中的表情特征,减少人脸表情图像中不相关特征对表情识别造成的干扰。进一步地,对目标人脸特征向量和目标表情特征向量进行特征融合,得到融合图像特征向量,在特征融合阶段充分地利用不同尺度下的表情特征,能够消除目标人脸图像中表情强度差异对识别结果造成的影响,有助于提高识别精度。最后,通过预设的分类函数对融合图像特征向量进行分类概率计算,得到分类概率值,并根据分类概率值对预设表情类别标签进行筛选处理,得到目标人脸图像对应的目标表情类别标签,通过对分类情况的量化处理,能够更为清楚地反映出目标人脸图像属于每一预设表情类别标签的可能性,从而确定出最终的表情类别,提高了人脸表情识别的准确性。
附图说明
图1是本申请实施例提供的表情识别方法的流程图;
图2是图1中的步骤S101的流程图;
图3是本申请实施例提供的表情识别方法的另一流程图;
图4是图1中的步骤S102的流程图;
图5是图1中的步骤S103的流程图;
图6是图1中的步骤S104的流程图;
图7是图1中的步骤S106的流程图;
图8是本申请实施例提供的表情识别装置的结构示意图;
图9是本申请实施例提供的电子设备的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
首先,对本申请中涉及的若干名词进行解析:
人工智能(Artificial Intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
自然语言处理(Natural Language Processing,NLP):NLP用计算机来处理、理解以及运用人类语言(如中文、英文等),NLP属于人工智能的一个分支,是计算机科学与语言学的交叉学科,又常被称为计算语言学。自然语言处理包括语法分析、语义分析、篇章理解等。自然语言处理常用于机器翻译、手写体和印刷体字符识别、语音识别及文语转换、信息意图识别、信息抽取与过滤、文本分类与聚类、舆情分析和观点挖掘等技术领域,它涉及与语言处理相关的数据挖掘、机器学习、知识获取、知识工程、人工智能研究和与语言计算相关的语言学研究等。
信息抽取(Information Extraction):从自然语言文本中抽取指定类型的实体、关系、事件等事实信息,并形成结构化数据输出的文本处理技术。信息抽取是从文本数据中抽取特定信息的一种技术。文本数据是由一些具体的单位构成的,例如句子、段落、篇章,文本信息正是由一些小的具体的单位构成的,例如字、词、词组、句子、段落或是这些具体的单位的组合。抽取文本数据中的名词短语、人名、地名等都是文本信息抽取,当然,文本信息抽取技术所抽取的信息可以是各种类型的信息。
电子计算机断层扫描(Computed Tomography,CT):它是利用精确准直的X线束、γ射线、超声波等,与灵敏度极高的探测器一同围绕人体的某一部位作一个接一个的断面扫描,具有扫描时间快,图像清晰等特点,可用于多种疾病的检查;根据所采用的射线不同可分为:X射线CT(X-CT)以及γ射线CT(γ-CT)等。
磁共振成像(Magnetic Resonance Imaging,MRI)核磁共振是一种物理现象,作为一种分析手段广泛应用于物理、化学生物等领域,到1973年才将它用于医学临床检测。为了避免与核医学中放射成像混淆,把它称为磁共振成像术(MRI)。MRI通过对静磁场中的人体施加某种特定频率的射频脉冲,使人体中的氢质子受到激励而发生磁共振现象。停止脉冲后,质子在弛豫过程中产生MR信号。通过对MR信号的接收、空间编码和图像重建等处理过程,即产生MR信号。
医学图像:医学成像有多种图像模态,诸如MR、CT、超声成像等等。成像可以获得反映二维和三维区域人体的生理和物理特性的图像,二维图像中的每个元素称为像素,三维区域中每个元素称为体素,在某些情形下,可以把三维图像表示为一系列的二维切片进行观察,优点是计算复杂度低且需要的内存较小。
Softmax分类器:为逻辑回归分类器面对多个分类的一般化归纳,输出的是属于不同类别的概率值。
编码(Encoder):就是将输入序列转化成一个固定长度的向量。
解码(Decoder):就是将之前生成的固定向量再转化成输出序列;其中,输入序列可以是文字、语音、图像、视频;输出序列可以是文字、图像。
目前,常见的表情识别方法大多数基于深度学习的方法实现,即通过卷积神经网络模型提取人脸图像的图像特征,对图像特征进行表情识别处理,从而输出人脸图像对应的表情类别,而卷积神经网络模型的训练往往需要大量的标注数据,而获取大量的高质量标注数据成本较高,有限可采集的样本数据无法体现出人脸表情的差异变化,且容易受到无关人脸特征的干扰,使得卷积神经网络模型的训练效果不佳,影响表情识别的准确性,因此,如何提高表情识别的准确性,成为了亟待解决的技术问题。
基于此,本申请实施例提供了一种表情识别方法、表情识别装置、电子设备及存储介质,旨在提高表情识别的准确性。
本申请实施例提供的表情识别方法、表情识别装置、电子设备及存储介质,具体通过如下实施例进行说明,首先描述本申请实施例中的表情识别方法。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的表情识别方法,涉及人工智能技术领域。本申请实施例提供的表情识别方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现表情识别方法的应用等,但并不局限于以上形式。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
图1是本申请实施例提供的表情识别方法的一个可选的流程图,图1中的方法可以包括但不限于包括步骤S101至步骤S106。
步骤S101,获取目标人脸图像;
步骤S102,通过预设的表情识别模型的编码网络对目标人脸图像进行多尺度编码处理,得到目标人脸特征向量;
步骤S103,通过表情识别模型的解码网络对目标人脸特征向量进行多尺度解码处理,得到目标表情特征向量;
步骤S104,对目标人脸特征向量和目标表情特征向量进行特征融合,得到融合图像特征向量;
步骤S105,通过预设的分类函数对融合图像特征向量进行分类概率计算,得到分类概率值;
步骤S106,根据分类概率值对预设表情类别标签进行筛选处理,得到目标人脸图像对应的目标表情类别标签。
本申请实施例所示意的步骤S101至步骤S106,通过预设的表情识别模型的编码网络对目标人脸图像进行多尺度编码处理,得到目标人脸特征向量,并通过表情识别模型的解码网络对目标人脸特征向量进行多尺度解码处理,得到目标表情特征向量,通过编码网络和解码网络的对称重构能够有效地提取目标人脸图像中的表情特征,减少人脸表情图像中不相关特征对表情识别造成的干扰。通过对目标人脸特征向量和目标表情特征向量进行特征融合,得到融合图像特征向量,在特征融合阶段充分地利用不同尺度下的表情特征,能够消除目标人脸图像中表情强度差异对识别结果造成的影响,有助于提高识别精度。通过预设的分类函数对融合图像特征向量进行分类概率计算,得到分类概率值,并根据分类概率值对预设表情类别标签进行筛选处理,得到目标人脸图像对应的目标表情类别标签,通过对分类情况的量化处理,能够更为清楚地反映出目标人脸图像属于每一预设表情类别标签的可能性,从而确定出最终的表情类别,提高了人脸表情识别的准确性。
请参阅图2,在一些实施例中,步骤S101可以包括但不限于包括步骤S201至步骤S203:
步骤S201,获取原始人脸图像;
步骤S202,对原始人脸图像进行标准化处理,得到初始人脸图像;
步骤S203,对初始人脸图像进行归一化处理,得到目标人脸图像。
在一些实施例的步骤S201中,原始人脸图像可以为三维图像,该三维图像可以是通过计算机断层扫描或者核磁共振成像得来。
在一些医学应用场景中,上述的原始人脸图像可以为医学影像,皮肤图像包含的对象所属类型为病灶,即机体上发生病变的部分。医学影像是指为了医疗或医学研究,以非侵入方式取得的内部组织,比如,电子计算机断层扫描、磁共振成像、超声、X光图像以及光学摄影灯由医学仪器生成的图像。
在一些实施例的步骤S202中,可以通过对原始人脸图像去均值实现中心化的处理,以实现原始人脸图像的标准化,得到初始人脸图像。其中,标准化公式如公式(1)所示:
Figure BDA0003614249550000081
其中,
Figure BDA0003614249550000082
其中,image_standardization为初始人脸图像,μ是原始人脸图像的均值,σ是标准方差,N是原始人脸图像的像素数量。
需要说明的是,初始人脸图像的大小、通道数目与原始人脸图像相同。
在一些实施例的步骤S203中,可以通过最大最小值归一化方法对初始人脸图像进行处理,得到目标人脸图像。其中,归一化公式如公式(2)所示:
Figure BDA0003614249550000083
其中,xi为初始人脸图像的像素点值,max(x)为初始人脸图像的像素最大值,min(x)为初始人脸图像的像素最小值。
通过步骤S201至步骤S203能够对原始人脸图像进行预处理,消除原始人脸图像中无关的信息,恢复有用的真实信息,增强有关信息的可检测性,还能够最大限度地简化数据,提高表情识别的可靠性。
请参阅图3,在一些实施例的步骤S102之前,表情识别方法还包括预先训练表情识别模型,具体可以包括但不限于包括步骤S301至步骤S304:
步骤S301,获取样本表情图像;
步骤S302,通过表情识别模型对样本表情图像进行对称重构处理,得到样本表情图像对应的融合表情特征;
步骤S303,通过表情识别模型的损失函数对融合表情特征进行分类损失计算,得到分类损失值;
步骤S304,根据分类损失值进行反向梯度传播,以优化表情识别模型。
在一些实施例的步骤S301中,样本表情图像可以是通过计算机断层扫描或者核磁共振成像得来。同时,还需要采用人工标注等方式对样本表情图像进行标注处理,使得每一样本表情图像附带有对应的表情标签文本。需要说明的是,样本表情图像包括两种类型,即带有显著表情特征的第一表情图像(即带表情人脸图像),以及无显著表情特征的第二表情图像(即中性人脸图像)。
在一些具体实施例中,带标签的样本表情图像可以从公开的人脸表情数据集中获得到,例如,CK+、RAF-DB、AffectNet等数据集,也可根据实际的业务需求进行实际的人物表情图像的收集并对这些人物表情图像进行标注处理,其中,表情标签包括平静、开心、惊讶、害怕、厌恶、生气、悲伤等等,通过对收集到的人脸表情图像进行标注分类,可以方便地获取到不同人物包括的所有第一表情图像和第二表情图像。
进一步地,将样本表情图像输入到表情识别模型中。表情识别模型基于深度学习网络构建而成,包括一个编码网络和一个解码网络,通过编码网络和解码网络形成一个对称网络结构,其中,编码网络包括三个编码层,即第一编码层、第二编码层以及第三编码层,通过不同的编码层能够对不同深度的语义信息进行编码处理,同样地,解码网络包括三个解码层,即第一解码层、第二解码层以及第三解码层,通过不同的解码网络能够对不同深度的语义信息进行解码处理。
在一些实施例的步骤S302中,以样本表情图像中的带有显著表情特征的第一表情图像(即带表情人脸图像)作为输入,通过编码网络的第一编码层、第二编码层以及第三编码层依次对第一表情图像进行编码处理,得到带有基础语义信息的高层抽象特征。进一步地,通过解码网络的第一解码层、第二解码层以及第三解码层依次对这一高层抽象特征进行解码处理,得到第一表情图像对应的无显著表情特征的第二表情图像(即中性人脸图像)。根据编码网络和解码网络的对称关系,对不同层次的图像特征进行特征求差处理,得到多个特征差向量,并对这些特征差向量进行向量相加,得到对应的融合表情特征。
在一些实施例的步骤S303中,为了减少异常样本对模型训练的影响,在通过损失函数对融合表情特征进行分类损失计算时,采用交叉熵损失函数作为分类损失计算的函数,其中,损失函数可以表示如公式(3)所示:
Figure BDA0003614249550000091
其中,i为图像样本的序号,yi是预测结果,即通过编码网络和解码网络处理之后得到的实际第二表情图像,y i是与输入的第一表情图像对应的标注第二表情图像,通过上述损失函数可以方便地计算出融合表情特征的分类损失值,将分类损失值与预设的分类损失阈值进行比对,根据分类损失值与分类损失阈值的大小关系,即可确定当前的第一表情图像的分类结果是否准确。
在一些实施例的步骤S304中,为了提高表情识别模型的分类准确性,在模型的训练过程中引入反向梯度传播方法,具体地,将分类损失值大于分类损失阈值的样本表情图像归为一类,作为第一样本群,将分类损失值小于或者等于分类损失阈值的样本表情图像归为另一类,作为第二样本群,其中,第一样本群为分类结果较差的样本群,第二样本群为分类结果较好的样本群。
进一步地,对第二样本群的样本表情图像进行特征反向推导,选取样本表情图像中激活响应较高的一些特征区域作为重要特征区域。例如,在某一个表示惊讶的样本表情图像中,眉毛中心以及嘴部特征对最终的分类结果的判断影响较大,因此,在构建样本表情图像对应的表情热力图上,这些区域的特征会表现的更为明显;而在表示悲伤的样本表情图像中,鼻梁中部以及嘴部特征对最终的分类结果的判断影响较大,因此,在构建样本表情图像对应的表情热力图上,这些区域的特征会表现的更为明显。以此类推,在反向推导的过程中,根据分类结果较准确的第二样本群,可以找到对分类损失值影响较大的面部区域,并对这些面部区域进行统计,最终得到重要特征区域。
对于分类结果较差的第一样本群,可以根据分类损失值对损失函数进行优化,在原先的损失函数上添加重要特征区域的激活强度加权值,通过优化之后的损失函数对第一样本群再次进行迭代训练,直到分类损失值小于或者等于预设的分类损失阈值,或者达到预设的迭代次数,停止优化,得到最终的表情识别模型。
需要说明的是,为了进一步提高模型效果,还可以将第二表情图像作为输入,将第二表情图像通过编码网络和解码网络进行处理,得到实际第一表情图像,并将实际第一表情图像与标注第一表情图像进行比对,以输入样本表情图像中的无显著表情特征的第二表情图像(即中性人脸图像)进行模型训练的过程与上述过程基本相同,此处不再赘述。
请参阅图4,在一些实施例中,目标人脸特征向量包括第一人脸特征向量、第二人脸特征向量和第三人脸特征向量,编码网络包括第一编码层、第二编码层以及第三编码层,步骤S102可以包括但不限于包括步骤S401至步骤S403:
步骤S401,通过第一编码层对目标人脸图像进行第一编码处理,得到第一人脸特征向量;
步骤S402,通过第二编码层对第一人脸特征向量进行第二编码处理,得到第二人脸特征向量;
步骤S403,通过第三编码层对第二人脸特征向量进行第三编码处理,得到第三人脸特征向量。
在一些实施例的步骤S401中,通过第一编码层对目标人脸图像进行第一编码处理,将目标人脸图像转化为带有高级语义信息的浅层抽象特征,得到第一人脸特征向量A1。
在一些实施例的步骤S402中,通过第二编码层对第一人脸特征向量A1进行第二编码处理,将浅层抽象特征转化为带有低级语义信息的中层抽象特征,得到第二人脸特征向量A2。
在一些实施例的步骤S403中,通过第三编码层对第二人脸特征向量A2进行第三编码处理,将中层抽象特征转化为带有基础语义信息的高层抽象特征,得到第三人脸特征向量A3。
需要说明的是,上述的第一编码层、第二编码层以及第三编码层包含有一级或者多级神经元,通过神经元对不同的特征向量进行编码处理。
请参阅图5,在一些实施例中,目标表情特征向量包括第一表情特征向量、第二表情特征向量和第三表情特征向量,解码网络包括第一解码层、第二解码层以及第三解码层,步骤S103还可以包括但不限于包括步骤S501至步骤S503:
步骤S501,通过第一解码层对目标人脸特征向量进行第一解码处理,得到第一表情特征向量;
步骤S502,通过第二编码层对第一表情特征向量进行第二解码处理,得到第二表情特征向量;
步骤S503,通过第三编码层对第二表情特征向量进行第三解码处理,得到第三表情特征向量。
在一些实施例的步骤S501中,通过第一解码层对第三表情特征向量A3进行第一解码处理,将带基础语义信息的高层抽象特征转化为带有低级语义信息的中层抽象特征,得到第一表情特征向量B1。
在一些实施例的步骤S502中,通过第二解码层对第一表情特征向量B1进行第二解码处理,将带有低级语义信息的中层抽象特征转化带有高级语义信息的浅层抽象特征,得到第二表情特征向量B2。
在一些实施例的步骤S503中,通过第三解码层对第二表情特征向量B2进行第三解码处理,得到与输入的目标人脸图像对应的第三表情特征向量B3。
需要说明的是,上述的第一解码层、第二解码层以及第三解码层包含有一级或者多级神经元,通过神经元对不同的特征向量进行解码处理。
上述步骤S401至步骤S403、步骤S501至步骤S503通过编码网络和解码网络的对称重构能够有效地提取目标人脸图像中的表情特征,减少人脸表情图像中不相关特征对表情识别造成的干扰。
请参阅图6,在一些实施例,目标人脸特征向量包括第一人脸特征向量、第二人脸特征向量和第三人脸特征向量,目标表情特征向量包括第一表情特征向量、第二表情特征向量和第三表情特征向量,步骤S104还包括但不限于包括步骤S601至步骤S604:
步骤S601,对第一人脸特征向量与第三表情特征向量进行求差处理,得到第一特征差向量;
步骤S602,对第二人脸特征向量与第二表情特征向量进行求差处理,得到第二特征差向量;
步骤S603,对第三人脸特征向量与第一表情特征向量进行求差处理,得到第三特征差向量;
步骤S604,对第一特征差向量、第二特征差向量和第三特征差向量进行拼接处理,得到融合图像特征向量。
在一些实施例的步骤S601中,对第一人脸特征向量A1与第三表情特征向量B3进行求差处理,得到第一特征差向量d1,其中,d1=|A1-B3|。
在一些实施例的步骤S602中,对第二人脸特征向量A2与第二表情特征向量B2进行求差处理,得到第二特征差向量d2,其中,d2=|A2-B2|。
在一些实施例的步骤S605中,对第三人脸特征向量A3与第一表情特征向量B1进行求差处理,得到第三特征差向量d3,其中,d3=|A3-B1|。
在一些实施例的步骤S604中,由于第一特征差向量、第二特征差向量及第三特征向量的向量维度不同,因此,在进行向量拼接之前,还需要根据预设的特征维度对第一特征差向量、第二特征差向量以及第三特征差向量进行变维处理,使得这些特征差向量处于相同维度,进而对处于相同维度的第一特征差向量、第二特征差向量及第三特征向量进行向量相加或者向量拼接,得到融合图像特征向量。
上述步骤S601至步骤S604在特征融合阶段充分地利用不同尺度下的表情特征,能够消除目标人脸图像中表情强度差异对识别结果造成的影响,有助于提高识别精度。
在一些实施例的步骤S105中,通过预设的分类函数对融合图像特征向量进行分类概率计算,得到分类概率值时,分类函数可以为softmax函数,通过softmax函数对融合图像特征向量在每一预设表情类别标签上创建一个概率分布,根据概率分布情况可以直观地反映出融合图像特征向量属于每一预设表情类别标签的分类概率值。在一些其他实施例中,还可以通过交叉熵函数等来计算融合图像特征向量的分类概率值,不做限制。
请参阅图7,在一些实施例中,步骤S106还可以包括但不限于包括步骤S701至步骤S702:
步骤S701,比对分类概率值与预设的分类概率阈值;
步骤S702,选取分类概率值大于或者等于分类概率阈值的预设表情类别标签作为目标表情类别标签。
在一些实施例的步骤S701中,预设的分类概率阈值可以根据实际业务需求进行设置,不做限制。例如,预设的分类概率阈值可以为0.8。比对分类概率值与预设的分类概率值的大小,分类概率值越高,则表明目标人脸图像属于对应预设表情类别的可能性越高。
在一些实施例的步骤S702中,选取分类概率值大于或者等于分类概率阈值的预设表情类别标签,这些预设表情类别标签即为目标人脸图像可能对应的表情类别,将这些预设表情类别标签作为目标表情类别标签,能够方便地确定标人脸图像属于哪种表情,从而确定出最终的表情类别,提高了人脸表情识别的准确性。
本申请实施例的表情识别方法,其通过获取目标人脸图像,通过预设的表情识别模型的编码网络对目标人脸图像进行多尺度编码处理,得到目标人脸特征向量,并通过表情识别模型的解码网络对目标人脸特征向量进行多尺度解码处理,得到目标表情特征向量,这一方式通过编码网络和解码网络的对称重构能够有效地提取目标人脸图像中的表情特征,减少人脸表情图像中不相关特征对表情识别造成的干扰。进一步地,对目标人脸特征向量和目标表情特征向量进行特征融合,得到融合图像特征向量,在特征融合阶段充分地利用不同尺度下的表情特征,能够消除目标人脸图像中表情强度差异对识别结果造成的影响,有助于提高识别精度。最后,通过预设的分类函数对融合图像特征向量进行分类概率计算,得到分类概率值,并根据分类概率值对预设表情类别标签进行筛选处理,得到目标人脸图像对应的目标表情类别标签,通过对分类情况的量化处理,能够更为清楚地反映出目标人脸图像属于每一预设表情类别标签的可能性,从而确定出最终的表情类别,提高了人脸表情识别的准确性。
请参阅图8,本申请实施例还提供一种表情识别装置,可以实现上述表情识别方法,该装置包括:
图像获取模块801,用于获取目标人脸图像;
编码模块802,用于通过预设的表情识别模型的编码网络对目标人脸图像进行多尺度编码处理,得到目标人脸特征向量;
解码模块803,用于通过表情识别模型的解码网络对目标人脸特征向量进行多尺度解码处理,得到目标表情特征向量;
特征融合模块804,用于对目标人脸特征向量和目标表情特征向量进行特征融合,得到融合图像特征向量;
计算模块805,用于通过预设的分类函数对融合图像特征向量进行分类概率计算,得到分类概率值;
筛选模块806,用于根据分类概率值对预设表情类别标签进行筛选处理,得到目标人脸图像对应的目标表情类别标签。
在一些实施例中,图像获取模块801包括:
原始图像获取单元,用于获取原始人脸图像;
标准化单元,用于对原始人脸图像进行标准化处理,得到初始人脸图像;
归一化单元,用于对初始人脸图像进行归一化处理,得到目标人脸图像。
在一些实施例中,目标人脸特征向量包括第一人脸特征向量、第二人脸特征向量和第三人脸特征向量,编码网络包括第一编码层、第二编码层以及第三编码层,编码模块802包括:
第一编码单元,用于通过第一编码层对目标人脸图像进行第一编码处理,得到第一人脸特征向量;
第二编码单元,用于通过第二编码层对第一人脸特征向量进行第二编码处理,得到第二人脸特征向量;
第三编码单元,用于通过第三编码层对第二人脸特征向量进行第三编码处理,得到第三人脸特征向量。
在一些实施例中,目标表情特征向量包括第一表情特征向量、第二表情特征向量和第三表情特征向量,解码网络包括第一解码层、第二解码层以及第三解码层,解码模块803包括:
第一解码单元,用于通过第一解码层对目标人脸特征向量进行第一解码处理,得到第一表情特征向量;
第二解码单元,用于通过第二编码层对第一表情特征向量进行第二解码处理,得到第二表情特征向量;
第三解码单元,用于通过第三编码层对第二表情特征向量进行第三解码处理,得到第三表情特征向量。
在一些实施例中,目标人脸特征向量包括第一人脸特征向量、第二人脸特征向量和第三人脸特征向量,目标表情特征向量包括第一表情特征向量、第二表情特征向量和第三表情特征向量,特征融合模块804包括:
第一求差单元,用于对第一人脸特征向量与第三表情特征向量进行求差处理,得到第一特征差向量;
第二求差单元,用于对第二人脸特征向量与第二表情特征向量进行求差处理,得到第二特征差向量;
第三求差单元,用于对第三人脸特征向量与第一表情特征向量进行求差处理,得到第三特征差向量;
拼接单元,用于对第一特征差向量、第二特征差向量和第三特征差向量进行拼接处理,得到融合图像特征向量。
在一些实施例中,筛选模块806包括:
比对单元,用于比对分类概率值与预设的分类概率阈值;
标签筛选单元,用于选取分类概率值大于或者等于分类概率阈值的预设表情类别标签作为目标表情类别标签。
该表情识别装置的具体实施方式与上述表情识别方法的具体实施例基本相同,在此不再赘述。
本申请实施例还提供了一种电子设备,电子设备包括:存储器、处理器、存储在存储器上并可在处理器上运行的程序以及用于实现处理器和存储器之间的连接通信的数据总线,程序被处理器执行时实现上述表情识别方法。该电子设备可以为包括平板电脑、车载电脑等任意智能终端。
请参阅图9,图9示意了另一实施例的电子设备的硬件结构,电子设备包括:
处理器901,可以采用通用的CPU(CentralProcessingUnit,中央处理器)、微处理器、应用专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案;
存储器902,可以采用只读存储器(ReadOnlyMemory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(RandomAccessMemory,RAM)等形式实现。存储器902可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器902中,并由处理器901来调用执行本申请实施例的表情识别方法;
输入/输出接口903,用于实现信息输入及输出;
通信接口904,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;
总线905,在设备的各个组件(例如处理器901、存储器902、输入/输出接口903和通信接口904)之间传输信息;
其中处理器901、存储器902、输入/输出接口903和通信接口904通过总线905实现彼此之间在设备内部的通信连接。
本申请实施例还提供了一种存储介质,存储介质为计算机可读存储介质,用于计算机可读存储,存储介质存储有一个或者多个程序,一个或者多个程序可被一个或者多个处理器执行,以实现上述表情识别方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请实施例提供的表情识别方法、表情识别装置、电子设备及存储介质,其通过获取目标人脸图像,通过预设的表情识别模型的编码网络对目标人脸图像进行多尺度编码处理,得到目标人脸特征向量,并通过表情识别模型的解码网络对目标人脸特征向量进行多尺度解码处理,得到目标表情特征向量,这一方式通过编码网络和解码网络的对称重构能够有效地提取目标人脸图像中的表情特征,减少人脸表情图像中不相关特征对表情识别造成的干扰。进一步地,对目标人脸特征向量和目标表情特征向量进行特征融合,得到融合图像特征向量,在特征融合阶段充分地利用不同尺度下的表情特征,能够消除目标人脸图像中表情强度差异对识别结果造成的影响,有助于提高识别精度。最后,通过预设的分类函数对融合图像特征向量进行分类概率计算,得到分类概率值,并根据分类概率值对预设表情类别标签进行筛选处理,得到目标人脸图像对应的目标表情类别标签,通过对分类情况的量化处理,能够更为清楚地反映出目标人脸图像属于每一预设表情类别标签的可能性,从而确定出最终的表情类别,能够满足多种场景下的人物表情识别需求,提高了人脸表情识别的准确性。另外,在训练表情识别模型的过程中,通过反向梯度传播的方式能够方便地判断出融合特征向量中激活强度较高的位置,进而对模型进行训练优化,能够提高对复杂样本图像分类的准确性,从而改善模型性能。
本申请实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图1-7中示出的技术方案并不构成对本申请实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例的方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本申请实施例的优选实施例,并非因此局限本申请实施例的权利范围。本领域技术人员不脱离本申请实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本申请实施例的权利范围之内。

Claims (10)

1.一种表情识别方法,其特征在于,所述方法包括:
获取目标人脸图像;
通过预设的表情识别模型的编码网络对所述目标人脸图像进行多尺度编码处理,得到目标人脸特征向量;
通过所述表情识别模型的解码网络对所述目标人脸特征向量进行多尺度解码处理,得到目标表情特征向量;
对所述目标人脸特征向量和所述目标表情特征向量进行特征融合,得到融合图像特征向量;
通过预设的分类函数对所述融合图像特征向量进行分类概率计算,得到分类概率值;
根据所述分类概率值对预设表情类别标签进行筛选处理,得到所述目标人脸图像对应的目标表情类别标签。
2.根据权利要求1所述的表情识别方法,其特征在于,所述获取目标人脸图像的步骤,包括:
获取原始人脸图像;
对所述原始人脸图像进行标准化处理,得到初始人脸图像;
对所述初始人脸图像进行归一化处理,得到所述目标人脸图像。
3.根据权利要求1所述的表情识别方法,其特征在于,所述目标人脸特征向量包括第一人脸特征向量、第二人脸特征向量和第三人脸特征向量,所述编码网络包括第一编码层、第二编码层以及第三编码层,所述通过预设的表情识别模型的编码网络对所述目标人脸图像进行多尺度编码处理,得到目标人脸特征向量的步骤,包括:
通过所述第一编码层对所述目标人脸图像进行第一编码处理,得到第一人脸特征向量;
通过所述第二编码层对所述第一人脸特征向量进行第二编码处理,得到第二人脸特征向量;
通过所述第三编码层对所述第二人脸特征向量进行第三编码处理,得到所述第三人脸特征向量。
4.根据权利要求1所述的表情识别方法,其特征在于,所述目标表情特征向量包括第一表情特征向量、第二表情特征向量和第三表情特征向量,所述解码网络包括第一解码层、第二解码层以及第三解码层,所述通过所述表情识别模型的解码网络对所述目标人脸特征向量进行多尺度解码处理,得到目标表情特征向量的步骤,包括:
通过所述第一解码层对所述目标人脸特征向量进行第一解码处理,得到第一表情特征向量;
通过所述第二编码层对所述第一表情特征向量进行第二解码处理,得到第二表情特征向量;
通过所述第三编码层对所述第二表情特征向量进行第三解码处理,得到所述第三表情特征向量。
5.根据权利要求1所述的表情识别方法,其特征在于,所述目标人脸特征向量包括第一人脸特征向量、第二人脸特征向量和第三人脸特征向量,所述目标表情特征向量包括第一表情特征向量、第二表情特征向量和第三表情特征向量,所述对所述目标人脸特征向量和所述目标表情特征向量进行特征融合,得到融合图像特征向量的步骤,包括:
对所述第一人脸特征向量与所述第三表情特征向量进行求差处理,得到第一特征差向量;
对所述第二人脸特征向量与所述第二表情特征向量进行求差处理,得到第二特征差向量;
对所述第三人脸特征向量与所述第一表情特征向量进行求差处理,得到第三特征差向量;
对所述第一特征差向量、所述第二特征差向量和所述第三特征差向量进行拼接处理,得到所述融合图像特征向量。
6.根据权利要求1至5任一项所述的表情识别方法,其特征在于,所述根据所述分类概率值对预设表情类别标签进行筛选处理,得到所述目标人脸图像对应的目标表情类别标签的步骤,包括:
比对所述分类概率值与预设的分类概率阈值;
选取所述分类概率值大于或者等于所述分类概率阈值的预设表情类别标签作为所述目标表情类别标签。
7.根据权利要求1至5任一项所述的表情识别方法,其特征在于,所述通过预设的表情识别模型的编码网络对所述目标人脸图像进行多尺度编码处理,得到目标人脸特征向量的步骤,所述方法还包括训练所述表情识别模型,具体包括:
获取样本表情图像;
通过所述表情识别模型对所述样本表情图像进行对称重构处理,得到所述样本表情图像对应的融合表情特征;
通过所述表情识别模型的损失函数对所述融合表情特征进行分类损失计算,得到分类损失值;
根据所述分类损失值进行反向梯度传播,以优化所述表情识别模型。
8.一种表情识别装置,其特征在于,所述装置包括:
图像获取模块,用于获取目标人脸图像;
编码模块,用于通过预设的表情识别模型的编码网络对所述目标人脸图像进行多尺度编码处理,得到目标人脸特征向量;
解码模块,用于通过所述表情识别模型的解码网络对所述目标人脸特征向量进行多尺度解码处理,得到目标表情特征向量;
特征融合模块,用于对所述目标人脸特征向量和所述目标表情特征向量进行特征融合,得到融合图像特征向量;
计算模块,用于通过预设的分类函数对所述融合图像特征向量进行分类概率计算,得到分类概率值;
筛选模块,用于根据所述分类概率值对预设表情类别标签进行筛选处理,得到所述目标人脸图像对应的目标表情类别标签。
9.一种电子设备,其特征在于,所述电子设备包括存储器、处理器、存储在所述存储器上并可在所述处理器上运行的程序以及用于实现所述处理器和所述存储器之间的连接通信的数据总线,所述程序被所述处理器执行时实现如权利要求1至7任一项所述的表情识别方法的步骤。
10.一种存储介质,所述存储介质为计算机可读存储介质,用于计算机可读存储,其特征在于,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现权利要求1至7中任一项所述的表情识别方法的步骤。
CN202210438909.XA 2022-04-25 2022-04-25 表情识别方法、表情识别装置、电子设备及存储介质 Pending CN114863521A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210438909.XA CN114863521A (zh) 2022-04-25 2022-04-25 表情识别方法、表情识别装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210438909.XA CN114863521A (zh) 2022-04-25 2022-04-25 表情识别方法、表情识别装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN114863521A true CN114863521A (zh) 2022-08-05

Family

ID=82632823

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210438909.XA Pending CN114863521A (zh) 2022-04-25 2022-04-25 表情识别方法、表情识别装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN114863521A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024074118A1 (zh) * 2022-10-08 2024-04-11 北京字跳网络技术有限公司 图像处理方法、装置、设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024074118A1 (zh) * 2022-10-08 2024-04-11 北京字跳网络技术有限公司 图像处理方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
EP3961484A1 (en) Medical image segmentation method and device, electronic device and storage medium
CN111316281A (zh) 基于机器学习的自然语言情境中数值数据的语义分类
CN112015859A (zh) 文本的知识层次抽取方法及装置、计算机设备及可读介质
CN114386528B (zh) 模型的训练方法和装置、计算机设备、存储介质
CN114723996A (zh) 模型的训练方法、图像描述生成方法和装置、设备、介质
WO2023165012A1 (zh) 问诊方法和装置、电子设备及存储介质
CN114358007A (zh) 多标签识别方法、装置、电子设备及存储介质
CN114722826B (zh) 模型的训练方法和装置、电子设备、存储介质
CN115239675A (zh) 分类模型的训练方法、图像分类方法和装置、设备及介质
CN115205880A (zh) 一种医学影像报告生成方法及装置
CN114519356A (zh) 目标词语的检测方法、装置、电子设备及存储介质
CN116050352A (zh) 文本编码方法和装置、计算机设备及存储介质
CN113935957A (zh) 医疗图像对比方法、装置、电子设备及存储介质
CN114549859A (zh) 骨龄预测方法、装置、电子设备及存储介质
CN114708976A (zh) 辅助诊断技术的方法、装置、设备及存储介质
CN114863521A (zh) 表情识别方法、表情识别装置、电子设备及存储介质
CN114613462A (zh) 医疗数据处理方法和装置、电子设备及存储介质
CN112216379A (zh) 一种基于智能联合学习的疾病诊断系统
CN113096756A (zh) 病情演变分类方法、装置、电子设备和存储介质
CN117373591A (zh) 电子病历的疾病识别方法和装置、电子设备及存储介质
CN115205648A (zh) 图像分类方法、图像分类装置、电子设备及存储介质
CN114781393B (zh) 图像描述生成方法和装置、电子设备及存储介质
CN116956925A (zh) 电子病历命名实体识别方法和装置、电子设备及存储介质
CN114241261A (zh) 基于图像处理的皮肤病识别方法、装置、设备及存储介质
CN115662565A (zh) 一种融合标签信息的医学影像报告生成方法及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination