CN111144348A - 图像处理方法、装置、电子设备及存储介质 - Google Patents

图像处理方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111144348A
CN111144348A CN201911398384.6A CN201911398384A CN111144348A CN 111144348 A CN111144348 A CN 111144348A CN 201911398384 A CN201911398384 A CN 201911398384A CN 111144348 A CN111144348 A CN 111144348A
Authority
CN
China
Prior art keywords
face
image
expression
key points
sample image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911398384.6A
Other languages
English (en)
Inventor
武文琦
叶泽雄
肖万鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201911398384.6A priority Critical patent/CN111144348A/zh
Publication of CN111144348A publication Critical patent/CN111144348A/zh
Priority to PCT/CN2020/121349 priority patent/WO2021135509A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种图像处理方法、装置、电子设备及存储介质,所述方法包括:获取待处理的人脸图像;提取所述人脸图像的人脸关键点;基于所述人脸关键点,定位所述人脸图像中的表情敏感区域,所述表情敏感区域为表情表达集中的人脸局部区域;基于所述表情敏感区域,对所述人脸图像进行表情识别。本公开实施例能够提高表情识别的准确率。

Description

图像处理方法、装置、电子设备及存储介质
技术领域
本公开涉及人工智能领域,具体涉及一种对图像处理方法、装置、电子设备及存储介质。
背景技术
随着互联网技术的高度发展,许多涉及到人工智能领域的系统(例如:情感分析系统、人机交互系统)在进行图像处理时需要进行表情识别。表情识别的准确率越高,对于后续的处理便越有利,用户的体验也会更佳。现有技术中在进行图像处理时,对于表情特征的表达不够全面、精准,从而导致表情识别的准确率较低。
发明内容
本公开的一个目的在于提出一种图像处理方法、装置、电子设备及存储介质,能够提高表情识别的准确率。
根据本公开实施例的一方面,公开了一种图像处理方法,所述方法包括:
获取待处理的人脸图像;
提取所述人脸图像的人脸关键点;
基于所述人脸关键点,定位所述人脸图像中的表情敏感区域,所述表情敏感区域为表情表达集中的人脸局部区域;
基于所述表情敏感区域,对所述人脸图像进行表情识别。
根据本公开实施例的一方面,公开了一种图像处理装置,所述装置包括:
获取模块,配置为获取待处理的人脸图像;
提取模块,配置为提取所述人脸图像的关键点;
定位模块,配置为基于所述关键点,定位所述人脸图像中的表情敏感区域,所述表情敏感区域为表情表达集中的人脸局部区域;
识别模块,配置为基于所述表情敏感区域,对所述人脸图像进行表情识别。
根据本公开实施例的一方面,公开了一种图像处理电子设备,包括:存储器,存储有计算机可读指令;处理器,读取存储器存储的计算机可读指令,以执行以上权利要求中的任一个所述的方法。
根据本公开实施例的一方面,公开了一种计算机可读存储介质,其上存储有计算机可读指令,当所述计算机可读指令被计算机的处理器执行时,使计算机执行以上权利要求中的任一个所述的方法。
本公开实施例获取到待处理的人脸图像,提取出该人脸图像的人脸关键点,进而基于提取出的人脸关键点定位该人脸图像中的表情敏感区域,基于表情敏感区域对该人脸图像进行表情识别。其中,表情敏感区域为表情表达集中的人脸局部区域,例如:眼部区域、嘴部区域。由于在进行表情识别时特别引入了对表情敏感区域的考虑,使得进行表情识别所需的特征表达更为全面,从而提高了表情识别的精准度。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本公开。
附图说明
通过参考附图详细描述其示例实施例,本公开的上述和其它目标、特征及优点将变得更加显而易见。
图1示出了根据本公开一个实施例的图像处理方法的流程图。
图2示出了根据本公开一个实施例的使用预训练的神经网络进行图像处理的过程。
图3示出了根据本公开一个实施例的主网络结构的内部具体结构。
图4示出了根据本公开一个实施例的ResBlock残差块的内部具体结构。
图5示出了根据本公开一个实施例的注意力模块的内部具体结构。
图6示出了根据本公开一个实施例的图像处理装置的方框图。
图7示出了根据本公开一个实施例的图像处理电子设备的硬件图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些示例实施方式使得本公开的描述将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多示例实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的示例实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、步骤等。在其它情况下,不详细示出或描述公知结构、方法、实现或者操作以避免喧宾夺主而使得本公开的各方面变得模糊。
附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本公开实施例涉及人工智能领域,具体的,主要涉及到人工智能领域中的计算机视觉技术、机器学习。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
本公开实施例的执行主体可以为任一具有足够运算能力的图像处理终端:可以为云端服务器,可以为本地计算机集群,也可以为个人电脑终端,也可以为多个相互协作的终端。
需要说明的是,本公开实施例可由图像处理终端中预训练的神经网络执行。具体的,图像处理终端中预训练的神经网络获取到待处理的人脸图像后,基于预训练生成的神经网络参数——提取该人脸图像的人脸关键点;基于人脸关键点定位人脸图像中的表情敏感区域;基于表情敏感区域对人脸图像进行表情识别。可以理解的,可以由单独一个预训练的神经网络执行本公开实施例的所有步骤,以实现表情识别;也可以由多个预训练的神经网络分别执行本公开实施例的部分步骤,以实现表情识别,例如:预训练三个神经网络——用于提取人脸关键点的神经网络1,用于定位表情敏感区域的神经网络2,用于进行表情识别的神经网络3。从而神经网络1执行获取人脸图像以及提取人脸关键点的步骤、神经网络2执行定位表情敏感区域的步骤、神经网络3执行基于表情敏感区域进行表情识别的步骤,从而实现表情识别。
下面对本公开的具体实施过程进行详细描述。
参考图1所示,一种图像处理方法,包括:
步骤110、获取待处理的人脸图像;
步骤120、提取所述人脸图像的人脸关键点;
步骤130、基于所述人脸关键点,定位所述人脸图像中的表情敏感区域,所述表情敏感区域为表情表达集中的人脸局部区域;
步骤140、基于所述表情敏感区域,对所述人脸图像进行表情识别。
本公开实施例获取到待处理的人脸图像,提取出该人脸图像的人脸关键点,进而基于提取出的人脸关键点定位该人脸图像中的表情敏感区域,基于表情敏感区域对该人脸图像进行表情识别。其中,表情敏感区域为表情表达集中的人脸局部区域,例如:眼部区域、嘴部区域。由于在进行表情识别时特别引入了对表情敏感区域的考虑,使得进行表情识别所需的特征表达更为全面,从而提高了表情识别的精准度。
在步骤110中,获取待处理的人脸图像。
在一实施例中,获取待处理的人脸图像,包括:
获取待处理的输入图像;
基于预设的人脸检测算法对该输入图像进行处理,定位该输入图像中人脸所在位置;
基于该人脸所在位置对该输入图像进行裁剪,获取该输入图像中待处理的人脸图像。
该实施例中,图像处理终端中预设有人脸检测算法(例如:基于二进小波变换的人脸检测算法、基于面部双眼结构特征的人脸检测算法),以进行人脸检测。图像处理终端获取到待处理的输入图像后,基于该人脸检测算法对输入图像进行处理,于该输入图像中定位出人脸所在位置(例如:输入图像中,包含有人脸的矩形区域的位置)。进而对该输入图像进行裁剪——将该人脸所在位置之外的部分裁去,得到待处理的人脸图像。必要的话,还可以对裁剪后的输入图像进行缩放,以使得得到的待处理的人脸图像更便于后续的图像处理。
需要说明的是,该实施例只是示例性的说明,不应对本公开的功能和使用范围造成限制。
在步骤120中,提取该人脸图像的人脸关键点。
在步骤130中,基于人脸关键点,定位该人脸图像中的表情敏感区域,该表情敏感区域为表情表达集中的人脸局部区域。
本公开实施例中,图像处理终端提取到人脸图像的人脸关键点后,基于人脸关键点,定位该人脸图像中的表情敏感区域。
在一实施例中,表情敏感区域为预设的一个人脸局部区域,例如:包含双眼的眼部区域、或者包含嘴唇的嘴部区域、或者包含双眼以及双眉的区域。
需要说明的是,该实施例只是示例性的说明,不应对本公开的功能和使用范围造成限制。
在一实施例中,该表情敏感区域包括至少两个人脸局部区域,基于该人脸关键点,定位该人脸图像中的表情敏感区域,包括:
从该人脸关键点中,定位该至少两个人脸局部区域分别对应的区域关键点;
基于该区域关键点,分别定位该至少两个人脸局部区域。
区域关键点指的是组成对应人脸局部区域的人脸关键点,例如:组成嘴部区域的人脸关键点,即,嘴部关键点为——左嘴角、右嘴角、鼻尖。
该实施例中,待定位的表情敏感区域包括至少两个人脸局部区域。图像处理终端提取到人脸关键点后,定位该至少两个人脸局部区域分别对应的区域关键点。其中,区域关键点的定位可以基于预先对人脸关键点的统计进行。具体的,可以理解,正常情况下,区域关键点在人脸中的位置是较为固定的,对人脸关键点进行统计,可以得到区域关键点的统计特征(例如:鼻尖处于人脸的中间线上;左嘴角与右嘴角分别位于鼻尖的两侧,且左嘴角、右嘴角、鼻尖相互连线,可以组成一等腰三角形)。通过预先对人脸关键点的统计,即可在得到的统计特征的基础上,对提取到的人脸关键点进行定位。
定位到人脸局部区域分别对应的区域关键点后,即可根据对应于同一人脸局部区域的各区域关键点的坐标位置,确定各区域关键点所围成的区域,从而定位到该人脸局部区域。
需要说明的是,该实施例只是示例性的说明,不应对本公开的功能和使用范围造成限制。
在一实施例中,至少两个人脸局部区域包括眼部区域、嘴部区域。
从该人脸关键点中,定位该至少两个人脸局部区域分别对应的区域关键点,包括:从该人脸关键点中,定位该眼部区域对应的眼部关键点、该嘴部区域对应的嘴部关键点。
基于该区域关键点,分别定位该至少两个人脸局部区域,包括:
基于该眼部关键点,定位该眼部区域;
基于该嘴部关键点,定位该嘴部区域。
该实施例中,待定位的表情敏感区域包括眼部区域、嘴部区域。图像处理终端提取到人脸关键点后,从中定位到眼部区域对应的眼部关键点(例如:左眼外眼角、右眼外眼角、鼻尖)、嘴部区域对应的嘴部关键点(例如:左嘴角、右嘴角、鼻尖)。进而基于定位到的眼部关键点,定位该眼部区域(例如:将预设宽边宽度、下长边经过鼻尖、以左眼外眼角与右眼外眼角的连接线段长度为长边长度、以该连接线段为平分对折线的矩形区域定位为该眼部区域);基于定位到的嘴部关键点,定位该嘴部区域(例如:将预设宽边宽度、上长边经过鼻尖、以左嘴角与右嘴角的连接线段长度为长边长度、以该连接线段为平分对折线的矩形区域定位为该嘴部区域)。
需要说明的是,该实施例只是示例性的说明,不应对本公开的功能和使用范围造成限制。
在步骤140中,基于该表情敏感区域,对该人脸图像进行表情识别。
在一实施例中,基于该表情敏感区域,对该人脸图像进行表情识别,包括:
提取该人脸图像对应的全局特征;
从该表情敏感区域中提取该表情敏感区域对应的区域特征;
基于该全局特征以及该区域特征,对该人脸图像进行表情识别。
该实施例中,图像处理终端将人脸图像对应的全局特征以及表情敏感区域对应的区域特征相结合,在此基础上对人脸图像进行表情识别。由于相比起人脸图像中的其他区域,表情敏感区域的表情表达更为集中,也就是说,表情敏感区域中表情相关特征更为丰富。通过单独提取出表情敏感区域对应的区域特征,实现了对表情敏感区域中的表情相关特征的增强,从而提高了对特征的表达能力,使得在此基础上进行的表情识别的精准度得到提高。
在一实施例中,该表情敏感区域包括至少两个人脸局部区域,从该表情敏感区域中提取该表情敏感区域对应的区域特征,包括:从该至少两个人脸局部区域中分别提取该至少两个人脸局部区域分别对应的区域特征。
在基于该全局特征以及该区域特征,对该人脸图像进行表情识别之前,还包括:
对该至少两个人脸局部区域分别对应的区域特征进行拼接,获取该至少两个人脸局部区域的拼接特征;
对该拼接特征进行融合,获取该至少两个人脸局部区域的融合特征。
基于该全局特征以及该区域特征,对该人脸图像进行表情识别,包括:基于该全局特征以及该融合特征,对该人脸图像进行表情识别。
全局特征指的是人脸图像整体所表现的特征,例如:人脸图像整体的纹理特征、整体像素灰度值的分布特征。
区域特征指的是对应人脸局部区域所表现的特征,例如:眼部区域的纹理特征、眼部区域像素灰度值的分布特征、眼部的轮廓特征。
该实施例中,待定位的表情敏感区域包括至少两个人脸局部区域,图像处理终端分别定位到该至少两个人脸局部区域后,从该至少两个人脸局部区域中分别提取到该至少两个人脸局部区域分别对应的区域特征。例如:待定位的表情敏感区域包括眼部区域、嘴部区域,分别定位到该眼部区域、该嘴部区域后,从该眼部区域中提取到眼部特征,从该嘴部区域中提取到嘴部特征。
图像处理终端提取到该至少两个人脸局部区域分别对应的区域特征后,对这至少两个区域特征进行拼接,获取到对应的拼接特征。例如:提取到眼部区域对应的眼部特征、嘴部区域对应的嘴部特征后,将该眼部特征与该嘴部特征进行拼接,得到对应的拼接特征。具体的,在神经网络的处理中,眼部特征、嘴部特征均可以以特征图(feature map)的形式存在——眼部特征图、嘴部特征图。对眼部特征与嘴部特征进行拼接,即为对该眼部特征图与该嘴部特征图在相同的空间位置进行堆放,相当于将“眼部特征图”这张纸与“嘴部特征图”这张纸进行叠放。
图像处理终端获取到拼接特征后,对该拼接特征进行融合,获取到这至少两个区域特征的融合特征。其中,对拼接特征进行融合得到对应的融合特征的主要目的在于对拼接特征进行降维,以方便后续的处理。例如:获取到对眼部特征与嘴部特征进行拼接得到的拼接特征后,对该拼接特征进行融合,获取到该眼部特征与该嘴部特征的融合特征。具体的,在神经网络的处理中,若将对眼部特征与嘴部特征进行拼接看作将“眼部特征图”这张纸与“嘴部特征图”这张纸进行叠放,则可以将融合过程看作将叠放着的“眼部特征图”这张纸与“嘴部特征图”这张纸融为同一张纸。
图像处理终端获取到这至少两个人脸局部区域的融合特征后,与人脸图像的全局特征进行结合,进而对人脸图像进行表情识别。例如:获取到小明的人脸图像后——提取出小明人脸的全局特征;提取出小明的眼部特征;提取出小明的嘴部特征。进而将小明的眼部特征与嘴部特征进行拼接,得到对应的拼接特征;对该拼接特征进行融合,得到对应的融合特征;再结合小明人脸的全局特征与该融合特征,对小明的表情进行识别。
需要说明的是,该实施例只是示例性的说明,不应对本公开的功能和使用范围造成限制。
在一实施例中,对眼部特征图与嘴部特征图的拼接过程可以表达为:
Figure BDA0002346916440000101
在此之后的融合过程可以表达为:yconv=ycat*f+b。
其中,ycat表示特征拼接后的特征图;fcat表示拼接过程;
Figure BDA0002346916440000102
表示眼部特征图;
Figure BDA0002346916440000103
表示嘴部特征图;yconv表示融合后的特征图;f表示滤波器,用于降低特征的维度,并在相同的空间位置融合
Figure BDA0002346916440000104
Figure BDA0002346916440000105
b为偏置项。具体的,可以采用尺寸为1×1×2D×DC的卷积滤波器来降低特征的维度,并在相同的空间位置融合
Figure BDA0002346916440000106
Figure BDA0002346916440000107
其中,DC表示输出通道数。
需要说明的是,该实施例只是示例性的说明,不应对本公开的功能和使用范围造成限制。
通过上述说明可知,本公开实施例可由图像处理终端中预训练的神经网络执行。具体的,神经网络的预训练可以由预训练终端执行。可以理解的,该预训练终端可以与图像处理终端为同一终端,也可以为不同终端。下面对预训练神经网络的过程中,作出的用以提高特征表达精准度的改进作出详细说明。
下面对预训练神经网络所使用的损失函数作出的改进进行详细说明。
在一实施例中,基于引入类间距离的中心损失函数LIC,对用于该图像处理的神经网络进行预训练。
其中,该类间距离包括当前输入特征对应的第一中心表情、与该当前输入特征对应的第二中心表情之间的距离,该中心损失函数LIC表达为如下公式:
Figure BDA0002346916440000108
其中,xi为该当前输入特征,cyi为该第一中心表情,ck为该第二中心表情,m为训练该神经网络时所使用的训练数据集所包含的训练数据的数量,该当前输入特征为该训练数据集中的一训练数据,n为表情的类别数,β为预设的平衡因子。
该实施例中,对现有的中心损失函数进行改进——于现有的中心损失函数中引入对类间距离的考虑,即,引入对各中心表情之间距离的考虑。
现有的中心损失函数对于每一个类别学习出一个类别中心,并通过一个惩罚函数对当前输入特征和该当前输入特征对应的类别中心之间的距离进行惩罚,从而实现减小类内距离的目的。换言之,在表情识别的情况下,现有的中心损失函数对于每一类表情学习出一个作为标准的中心表情,并通过一个惩罚函数对当前输入特征和该当前输入特征对应的中心表情之间的距离进行惩罚,从而减小属于同一类表情的各表情间的距离,使得同一类表情更加向对应的中心表情进行靠拢。
然而现有的中心损失函数在这一过程中,只考虑了不同类别的类内距离,而忽略了不同类之间的类间距离,如果两个类别中心距离过近时将会导致特征的聚类失败。换言之,在表情识别的情况下,现有的中心损失函数只考虑同一类表情之间的距离,而未考虑各中心表情之间的距离。即使与中心表情A属于同一类表情的各表情均向中心表情A靠拢、与中心表情B属于同一类表情的各表情均向中心表情B靠拢,若中心表情A与中心表情B之间的距离过近,将会导致这两类表情覆盖的范围会出现部分重叠的情况(类似于两个圆发生部分重叠),这就会导致重叠范围内的表情既有50%左右的可能被判定为与中心表情A属于同一类表情,也有50%左右的可能被判定为与中心表情B属于同一类表情。聚类失败,极易发生混淆的情况。
该实施例中,预训练终端引入对类间距离的考虑,在减小当前输入特征与中心表情的类内距离的同时,增大不同中心表情之间的类间距离。得到如下所示的中心损失函数LIC
Figure BDA0002346916440000111
其中,xi为所述当前输入特征,cyi为所述第一中心表情,ck为所述第二中心表情,m为训练所述神经网络时所使用的训练数据集所包含的训练数据的数量,所述当前输入特征为所述训练数据集中的一训练数据,n为表情的类别数,β为预设的平衡因子。
需要说明的是,该实施例只是示例性的说明,不应对本公开的功能和使用范围造成限制。
在一实施例中,对该神经网络进行预训练,包括:基于预设的softmax损失函数LS与该中心损失函数LIC组成的联合损失函数L,对该神经网络进行联合监督预训练。
其中,该联合损失函数L表达为如下公式:
L=LS+λLIC,其中,λ为预设的尺度因子。
该实施例中,预训练终端采用预设的softmax损失函数与引入了类间距离的中心损失函数LIC组成的联合损失函数L,对神经网络进行联合监督预训练。具体的,该联合损失函数L可以表达为:
Figure BDA0002346916440000121
其中,加号的前面部分即为softmax损失函数LS,加号的后面部分即为引入了类间距离的中心损失函数LIC。w表示权重;b表示偏置项;λ为预设的尺度因子LIC,用于平衡LS与LIC。当λ被设置为0时,联合监督的损失函数变成传统的softmax损失函数。
需要说明的是,该实施例只是示例性的说明,不应对本公开的功能和使用范围造成限制。
下面对预训练神经网络所使用的样本图像集作出的改进进行详细说明。
在一实施例中,对神经网络进行预训练,包括:
获取包含样本图像的样本图像集;
基于对该样本图像的变换,扩充该样本图像集;
基于该扩充后的样本图像集,对用于该图像处理的神经网络进行预训练。
预训练终端在对神经网络进行预训练时,需要将样本图像输入神经网络,进而根据神经网络反馈的结果对神经网络参数进行调整。当样本图像集中样本图像的数量不足时,易出现过拟合的现象——可以看作神经网络“学习”到的“知识”过于狭隘。该实施例中,对样本图像进行变换,扩充样本图像集,进而基于扩充后的样本图像集对神经网络进行预训练,以避免过拟合现象的发生。
在一实施例中,基于对该样本图像的变换,扩充该样本图像集,包括:
对该样本图像进行翻转,获取该样本图像对应的翻转图像;
将该翻转图像加入该样本图像集中,以扩充该样本图像集。
该实施例中,预训练终端扩充样本图像集时,对样本图像进行的变换为对样本图像进行翻转(例如:水平翻转、垂直翻转),获取到对应的翻转图像。若对每一样本图像都进行一次翻转,并将得到的对应的翻转图像加入样本图像集中,则该样本图像集被扩充为原先的2倍大小。
需要说明的是,该实施例只是示例性的说明,不应对本公开的功能和使用范围造成限制。
在一实施例中,基于对该样本图像的变换,扩充该样本图像集,包括:
对该样本图像进行预设角度的旋转,获取该样本图像对应的旋转图像;
将该旋转图像加入该样本图像集中,以扩充该样本图像集。
该实施例中,预训练终端扩充样本图像集时,对样本图像进行的变换为对样本图像进行旋转,获取到对应的旋转图像。每对每一样本均进行一次预设角度的旋转,并将得到的对应的旋转图像加入样本图像集中,则该样本图像集都会被多扩充1倍。
需要说明的是,该实施例只是示例性的说明,不应对本公开的功能和使用范围造成限制。
在一实施例中,对神经网络进行预训练,包括:
获取包含样本图像的样本图像集;
对该样本图像进行人脸检测,获取该样本图像中的人脸图像;
对该人脸图像进行预设的裁剪、缩放,获取包含该裁剪、缩放后的人脸图像的人脸图像集;
基于该人脸图像集,对用于该图像处理的神经网络进行预训练。
该实施例中,为了降低人脸尺度的变化——预训练终端对样本图像进行人脸检测,获取样本图像中的人脸图像;对该人脸图像进行预设的裁剪、缩放,获取到预设像素大小的人脸图像;进而基于由该像素大小的人脸图像组成的人脸图像集,对神经网络进行预训练。
例如:预训练终端对样本图像进行人脸检测,检测出样本图像中人脸图像所在的人脸框;将人脸框之外的部分裁掉,得到人脸图像;将人脸图像缩放至122×96像素;进而基于由122×96像素大小的人脸图像组成的人脸图像集,对神经网络进行预训练。
需要说明的是,该实施例只是示例性的说明,不应对本公开的功能和使用范围造成限制。
在一实施例中,在获取包含该裁剪、缩放后的人脸图像的人脸图像集后,包括:基于对该裁剪、缩放后的人脸图像的变换,扩充该人脸图像集。
基于该人脸图像集,对用于该图像处理的神经网络进行预训练,包括:基于该扩充后的人脸图像集,对该神经网络进行预训练。
该实施例中,预训练终端对人脸图像进行预设的裁剪、缩放后,得到人脸图像集后,还可以在此基础上进一步对该人脸图像进行变换,以扩充该人脸图像集,在降低了人脸尺度的变化的基础上,进一步地防止过拟合现象的出现。可以理解的,对该人脸图像进行的变换可以参考上述实施例中对样本图像进行的变换,故在此不再赘述。
需要说明的是,该实施例只是示例性的说明,不应对本公开的功能和使用范围造成限制。
下面参考图2对本公开一实施例中使用预训练的神经网络进行图像处理的过程进行示例性的详细描述。
参考图2所示,在一实施例中提出了一种表情敏感区域增强网络ESAEnNet(Expression Sensitive Area Enhancement Network)对人脸图像进行图像处理。该网络通过多任务级联卷积网络MTCNN(Multitask Cascaded Convolutional Network)提取人脸图像中的人脸关键点——左眼外眼角、右眼外眼角、鼻尖、左嘴角、右嘴角,从而定位到人脸图像中的眼部区域、嘴部区域。
该网络的主网络结构采用HCNet64,其中,HCNet64的内部具体结构参考图3。该网络通过HCNet64对眼部区域、嘴部区域进行处理,提取出眼部区域的眼部特征、嘴部区域的嘴部特征;该网络通过HCNet64对人物图像的原始图像进行处理,提取出人物图像的全局特征。
提取出的眼部特征、嘴部特征于特征拼接层进行拼接,然后经过卷积层、池化层和Fusion Dense Block的微调后,进行融合。其中,Fusion Dense Block的网络结构包含6层,依次为:BN(Batch Normalization)层、ReLU(Rectified linear unit)函数、1×1卷积核的卷积层、BN层、ReLU函数、3×3卷积核的卷积层。每个卷积层包含12个滤波器,除了全局平均池化层以外所有池化层的核大小均为2×2,并且步长为2。
全局特征在提取过程中会经过三组注意力模块(Attention Block)——注意力模块1、注意力模块2、注意力模块3,注意力模块的内部具体结构参考图5。三组注意力模块的引入可以有效提高表情特征的表达能力。
最后,该网络通过全卷积层,即,FC层,将眼部特征、嘴部特征、全局特征进行融合,进而在此基础上进行表情识别。
需要说明的是,该实施例只是示例性的说明,不应对本公开的功能和使用范围造成限制。
图3示出了本公开一实施例HCNet64的内部具体结构。该实施例中,HCNet64由4ResBlock、8ResBlock、4ResBlock组成。
需要说明的是,该实施例只是示例性的说明,不应对本公开的功能和使用范围造成限制。
图4示出了本公开一实施例的ResBlock残差块的内部具体结构。其中,每个ResBlock残差块由两个1×1卷积核的卷积层、一个3×3卷积核的卷积层连接而成。
需要说明的是,该实施例只是示例性的说明,不应对本公开的功能和使用范围造成限制。
图5示出了本公开一实施例卷积注意力模块的内部具体结构。该实施例中,卷积注意力模块CBAM(Convolutional Block Attention Module)主要由频道注意力模块(Channel Attention Module)、空间注意力模块(Spatial Attention Module)组成。输入特征(Input Feature)输入注意力模块后,依次经由频道注意力模块、空间注意力模块的处理后,提取出精炼特征(Refined Feature)。
需要说明的是,该实施例只是示例性的说明,不应对本公开的功能和使用范围造成限制。
下面对本公开实施例在实际应用中的实验表现进行展示。具体的,在相同数据集的基础上,对现有的可进行表情识别的方法:LBP-TOP、HOG3D、MSR、STM-ExpLet、DTAGN-Joint、3D-CNN、3D-CNN-DAP、GCNetS1R1、IDEnNet进行表情识别的准确率,与本公开实施例进行表情识别的准确率进行对比。
在一实施例中,基于CK+数据集对本公开实施例的实验表现进行展示。其中,CK+数据集是一个最具有代表性的表情识别数据集,也是现如今最被广泛应用的数据集。CK+数据集中包含了123各用户的593个视频序列;CK+数据集中的样本图像被标注为7种不同的表情:不屑、生气、厌恶、害怕、高兴、悲伤、吃惊。
下表1示出了本公开实施例所提出的ESAEnNet与其他方法在CK+数据集上的表情识别准确率。
方法 准确率(%)
3D-CNN 85.90
LBP-top 88.99
HOG 3D 91.40
MSR 91.44
3D-CNN-DAP 92.40
STM-ExpLet 94.19
DTAGN-Joint 97.25
GCNetS1R1 97.93
IDEnNet 98.23
ESAEnNet 99.06
表1
下表2示出了本公开实施例在CK+数据集上进行应用,所得到的混淆矩阵。
生气 不屑 厌恶 害怕 高兴 悲伤 吃惊
生气 100% 0% 0% 0% 0% 0% 0%
不屑 0% 98.8% 0% 0.8% 0.4% 0% 0%
厌恶 0% 0.1% 98.6% 0.3% 0% 1.2% 0%
害怕 0% 0% 0% 98.8% 0% 0.5% 0.7%
高兴 0% 0% 0% 0% 100% 0% 0%
悲伤 0% 0% 1.1% 0.7% 0% 98.2% 0%
吃惊 0% 0% 0% 0% 0% 1.1% 98.9%
表2
其中,混淆矩阵的行表头表示实际识别的表情,列表头表示预先标注的表情,对应的数值则表示对应预先标注的表情有多少被识别为对应实际识别的表情。以表2中第2行(不计入表头)的数据为例:第2行第2列的数值为98.8%,则说明本公开实施例在将98.8%的预先标注为“不屑”的表情正确识别为“不屑”;第2行第4列的数值为0.8%,则说明本公开实施例将0.8%的预先标注为“不屑”的表情错误识别为“害怕”;第2行第5列的数值为0.4%,则说明本公开实施例将0.4%的预先标注为“不屑”的表情错误识别为“高兴”。
在一实施例中,基于MMI数据集对本公开实施例的实验表现进行展示。MMI数据集中包含了30个用户的312个视频序列;MMI数据集中的样本图像被标注了6种不同的表情——生气、厌恶、害怕、高兴、悲伤、吃惊。
下表3示出了本公开实施例所提出的ESAEnNet与其他方法在MMI数据集上的表情识别准确率。
方法 准确率(%)
3D-CNN 53.20
LBP-top 59.51
HOG 3D 60.89
3D-CNN-DAP 63.40
DTAGN-Joint 70.24
CSPL 73.53
STM-ExpLet 75.12
GCNetS1R1 81.53
IDEnNet 91.97
ESAEnNet 93.41
表3
下表4示出了本公开实施例在MMI数据集上进行应用,所得到的混淆矩阵。
Figure BDA0002346916440000171
Figure BDA0002346916440000181
表4
在一实施例中,基于Oulu-CASIA数据集的VIS子集对本公开实施例的实验表现进行展示。Oulu-CASIA数据集中包含了80个用户的480个视频序列;Oulu-CASIA数据集中的样本图像被标注了6种不同的表情——生气、厌恶、害怕、高兴、悲伤、吃惊。其中,Oulu-CASIA数据集的VIS子集,是指通过VIS相机在强光条件下捕捉到的视频序列。
下表5示出了本公开实施例所提出的ESAEnNet与其他方法在Oulu-CASIA数据集的VIS子集上的表情识别准确率。
方法 准确率(%)
HOG 3D 70.60
AdaLBP 73.54
STM-ExpLet 74.59
Atlases 75.52
DTAGN-Joint 81.46
PPDN 84.59
GCNetS1R1 86.39
FN2EN 87.71
IDEnNet 87.18
ESAEnNet 91.08
表5
下表6示出了本公开实施例在Oulu-CASIA数据集的VIS子集上进行应用,所得到的混淆矩阵。
Figure BDA0002346916440000182
Figure BDA0002346916440000191
表6
通过以上实验数据可见:本公开实施例的表情识别的准确率,无论是在CK+数据集上的表现、在MMI数据集上的表现、还是在强光条件下的Oulu-CASIA数据集的VIS子集上的表现,相较现有的图像处理方法的表情识别的准确率,均存在明显的提升。
根据本公开一实施例,如图6所示,还提供了一种图像处理装置,所述装置包括:
获取模块210,配置为获取待处理的人脸图像;
提取模块220,配置为提取所述人脸图像的关键点;
定位模块230,配置为基于所述关键点,定位所述人脸图像中的表情敏感区域,所述表情敏感区域为表情表达集中的人脸局部区域;
识别模块240,配置为基于所述表情敏感区域,对所述人脸图像进行表情识别。
在本公开的一示例性实施例中,所述表情敏感区域包括至少两个人脸局部区域,所述定位模块230配置为:
从所述人脸关键点中,定位所述至少两个人脸局部区域分别对应的区域关键点;
基于所述区域关键点,分别定位所述至少两个人脸局部区域。
在本公开的一示例性实施例中,所述至少两个人脸局部区域包括眼部区域、嘴部区域,所述定位模块230配置为:
从所述人脸关键点中,定位所述眼部区域对应的眼部关键点、所述嘴部区域对应的嘴部关键点;
基于所述眼部关键点,定位所述眼部区域;
基于所述嘴部关键点,定位所述嘴部区域。
在本公开的一示例性实施例中,所述识别模块240配置为:提取所述人脸图像对应的全局特征;
从所述表情敏感区域中提取所述表情敏感区域对应的区域特征;
基于所述全局特征以及所述区域特征,对所述人脸图像进行表情识别。
在本公开的一示例性实施例中,所述表情敏感区域包括至少两个人脸局部区域,所述识别模块240配置为:
从所述至少两个人脸局部区域中分别提取所述至少两个人脸局部区域分别对应的区域特征;
对所述至少两个人脸局部区域分别对应的区域特征进行拼接,获取所述至少两个人脸局部区域的拼接特征;
对所述拼接特征进行融合,获取所述至少两个人脸局部区域的融合特征;
基于所述全局特征以及所述融合特征,对所述人脸图像进行表情识别。
在本公开的一示例性实施例中,所述装置配置为:基于引入类间距离的中心损失函数LIC,对用于所述图像处理的神经网络进行预训练,其中,所述类间距离包括当前输入特征对应的第一中心表情、与所述当前输入特征对应的第二中心表情之间的距离,所述中心损失函数LIC表达为如下公式:
Figure BDA0002346916440000201
其中,xi为所述当前输入特征,cyi为所述第一中心表情,ck为所述第二中心表情,m为训练所述神经网络时所使用的训练数据集所包含的训练数据的数量,所述当前输入特征为所述训练数据集中的一训练数据,n为表情的类别数,β为预设的平衡因子。
在本公开的一示例性实施例中,所述装置配置为:基于预设的softmax损失函数LS与所述中心损失函数LIC组成的联合损失函数L,对所述神经网络进行联合监督预训练,其中,所述联合损失函数L表达为如下公式:
L=LS+λLIC,其中,λ为预设的尺度因子。
在本公开的一示例性实施例中,所述装置配置为:
获取包含样本图像的样本图像集;
基于对所述样本图像的变换,扩充所述样本图像集;
基于所述扩充后的样本图像集,对用于所述图像处理的神经网络进行预训练。
在本公开的一示例性实施例中,所述装置配置为:
对所述样本图像进行翻转,获取所述样本图像对应的翻转图像;
将所述翻转图像加入所述样本图像集中,以扩充所述样本图像集。
在本公开的一示例性实施例中,所述装置配置为:
对所述样本图像进行预设角度的旋转,获取所述样本图像对应的旋转图像;
将所述旋转图像加入所述样本图像集中,以扩充所述样本图像集。
在本公开的一示例性实施例中,所述装置配置为:
获取包含样本图像的样本图像集;
对所述样本图像进行人脸检测,获取所述样本图像中的人脸图像;
对所述人脸图像进行预设的裁剪、缩放,获取包含所述裁剪、缩放后的人脸图像的人脸图像集;
基于所述人脸图像集,对用于所述图像处理的神经网络进行预训练。
在本公开的一示例性实施例中,所述装置配置为:
基于对所述裁剪、缩放后的人脸图像的变换,扩充所述人脸图像集;
基于所述扩充后的人脸图像集,对所述神经网络进行预训练。
下面参考图7来描述根据本公开实施例的图像处理电子设备30。图7显示的图像处理电子设备30仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,图像处理电子设备30以通用计算设备的形式表现。图像处理电子设备30的组件可以包括但不限于:上述至少一个处理单元310、上述至少一个存储单元320、连接不同系统组件(包括存储单元320和处理单元310)的总线330。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元310执行,使得所述处理单元310执行本说明书上述示例性方法的描述部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元310可以执行如图1中所示的各个步骤。
存储单元320可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)3201和/或高速缓存存储单元3202,还可以进一步包括只读存储单元(ROM)5203。
存储单元320还可以包括具有一组(至少一个)程序模块3205的程序/实用工具3204,这样的程序模块3205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线330可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
图像处理电子设备30也可以与一个或多个外部设备400(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该图像处理电子设备30交互的设备通信,和/或与使得该图像处理电子设备30能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口350进行。输入/输出(I/O)接口350与显示单元340相连。并且,图像处理电子设备30还可以通过网络适配器360与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器360通过总线330与图像处理电子设备30的其它模块通信。应当明白,尽管图中未示出,可以结合图像处理电子设备30使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有计算机可读指令,当所述计算机可读指令被计算机的处理器执行时,使计算机执行上述方法实施例部分描述的方法。
根据本公开的一个实施例,还提供了一种用于实现上述方法实施例中的方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RGM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如JAVA、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(KGN)或广域网(WGN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。

Claims (15)

1.一种图像处理方法,其特征在于,所述方法包括:
获取待处理的人脸图像;
提取所述人脸图像的人脸关键点;
基于所述人脸关键点,定位所述人脸图像中的表情敏感区域,所述表情敏感区域为表情表达集中的人脸局部区域;
基于所述表情敏感区域,对所述人脸图像进行表情识别。
2.根据权利要求1所述的方法,其特征在于,所述表情敏感区域包括至少两个人脸局部区域,基于所述人脸关键点,定位所述人脸图像中的表情敏感区域,包括:
从所述人脸关键点中,获取所述至少两个人脸局部区域分别对应的区域关键点;
基于所述区域关键点,分别定位所述至少两个人脸局部区域。
3.根据权利要求2所述的方法,其特征在于,所述至少两个人脸局部区域包括眼部区域和嘴部区域,
从所述人脸关键点中,获取所述至少两个人脸局部区域分别对应的区域关键点,包括:从所述人脸关键点中,获取所述眼部区域对应的眼部关键点、所述嘴部区域对应的嘴部关键点;
基于所述区域关键点,分别定位所述至少两个人脸局部区域,包括:
基于所述眼部关键点,定位所述眼部区域;
基于所述嘴部关键点,定位所述嘴部区域。
4.根据权利要求1所述的方法,其特征在于,基于所述表情敏感区域,对所述人脸图像进行表情识别,包括:
提取所述人脸图像对应的全局特征;
从所述表情敏感区域中提取所述表情敏感区域对应的区域特征;
基于所述全局特征以及所述区域特征,对所述人脸图像进行表情识别。
5.根据权利要求4所述的方法,其特征在于,所述表情敏感区域包括至少两个人脸局部区域,从所述表情敏感区域中提取所述表情敏感区域对应的区域特征,包括:从所述至少两个人脸局部区域中分别提取所述至少两个人脸局部区域分别对应的区域特征;
在基于所述全局特征以及所述区域特征,对所述人脸图像进行表情识别之前,还包括:
对所述至少两个人脸局部区域分别对应的区域特征进行拼接,获取所述至少两个人脸局部区域的拼接特征;
对所述拼接特征进行融合,获取所述至少两个人脸局部区域的融合特征;
基于所述全局特征以及所述区域特征,对所述人脸图像进行表情识别,包括:基于所述全局特征以及所述融合特征,对所述人脸图像进行表情识别。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:基于引入类间距离的中心损失函数LIC,对用于所述图像处理的神经网络进行预训练,
其中,所述类间距离包括当前输入特征对应的第一中心表情、与所述当前输入特征对应的第二中心表情之间的距离,所述中心损失函数LIC表达为如下公式:
Figure FDA0002346916430000021
其中,xi为所述当前输入特征,cyi为所述第一中心表情,ck为所述第二中心表情,m为训练所述神经网络时所使用的训练数据集所包含的训练数据的数量,所述当前输入特征为所述训练数据集中的一训练数据,n为表情的类别数,β为预设的平衡因子。
7.根据权利要求6所述的方法,其特征在于,对所述神经网络进行预训练,包括:基于预设的softmax损失函数LS与所述中心损失函数LIC组成的联合损失函数L,对所述神经网络进行联合监督预训练,
其中,所述联合损失函数L表达为如下公式:
L=LS+λLIC,其中,λ为预设的尺度因子。
8.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取包含样本图像的样本图像集;
基于对所述样本图像的变换,扩充所述样本图像集;
基于所述扩充后的样本图像集,对用于所述图像处理的神经网络进行预训练。
9.根据权利要求8所述的方法,其特征在于,基于对所述样本图像的变换,扩充所述样本图像集,包括:
对所述样本图像进行翻转,获取所述样本图像对应的翻转图像;
将所述翻转图像加入所述样本图像集中,以扩充所述样本图像集。
10.根据权利要求8所述的方法,其特征在于,基于对所述样本图像的变换,扩充所述样本图像集,包括:
对所述样本图像进行预设角度的旋转,获取所述样本图像对应的旋转图像;
将所述旋转图像加入所述样本图像集中,以扩充所述样本图像集。
11.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取包含样本图像的样本图像集;
对所述样本图像进行人脸检测,获取所述样本图像中的人脸图像;
对所述人脸图像进行预设的裁剪、缩放,获取包含所述裁剪、缩放后的人脸图像的人脸图像集;
基于所述人脸图像集,对用于所述图像处理的神经网络进行预训练。
12.根据权利要求11所述的方法,其特征在于,在获取包含所述裁剪、缩放后的人脸图像的人脸图像集后,包括:基于对所述裁剪、缩放后的人脸图像的变换,扩充所述人脸图像集;
基于所述人脸图像集,对用于所述图像处理的神经网络进行预训练,包括:基于所述扩充后的人脸图像集,对所述神经网络进行预训练。
13.一种图像处理装置,其特征在于,所述装置包括:
获取模块,配置为获取待处理的人脸图像;
提取模块,配置为提取所述人脸图像的关键点;
定位模块,配置为基于所述关键点,定位所述人脸图像中的表情敏感区域,所述表情敏感区域为表情表达集中的人脸局部区域;
识别模块,配置为基于所述表情敏感区域,对所述人脸图像进行表情识别。
14.一种图像处理电子设备,其特征在于,包括:
存储器,存储有计算机可读指令;
处理器,读取存储器存储的计算机可读指令,以执行权利要求1-12中的任一个所述的方法。
15.一种计算机可读存储介质,其特征在于,其上存储有计算机可读指令,当所述计算机可读指令被计算机的处理器执行时,使计算机执行权利要求1-12中的任一个所述的方法。
CN201911398384.6A 2019-12-30 2019-12-30 图像处理方法、装置、电子设备及存储介质 Pending CN111144348A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201911398384.6A CN111144348A (zh) 2019-12-30 2019-12-30 图像处理方法、装置、电子设备及存储介质
PCT/CN2020/121349 WO2021135509A1 (zh) 2019-12-30 2020-10-16 图像处理方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911398384.6A CN111144348A (zh) 2019-12-30 2019-12-30 图像处理方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN111144348A true CN111144348A (zh) 2020-05-12

Family

ID=70521940

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911398384.6A Pending CN111144348A (zh) 2019-12-30 2019-12-30 图像处理方法、装置、电子设备及存储介质

Country Status (2)

Country Link
CN (1) CN111144348A (zh)
WO (1) WO2021135509A1 (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111967353A (zh) * 2020-07-31 2020-11-20 北京金山云网络技术有限公司 图片识别方法、装置、电子设备以及介质
CN112085035A (zh) * 2020-09-14 2020-12-15 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备和计算机可读介质
CN112257635A (zh) * 2020-10-30 2021-01-22 杭州魔点科技有限公司 人脸误检过滤的方法、系统、电子装置和存储介质
CN112329683A (zh) * 2020-11-16 2021-02-05 常州大学 一种基于注意力机制融合的多通道卷积神经网络人脸表情识别方法
CN112614213A (zh) * 2020-12-14 2021-04-06 杭州网易云音乐科技有限公司 人脸表情确定方法、表情参数确定模型、介质及设备
CN112651301A (zh) * 2020-12-08 2021-04-13 浙江工业大学 一种整合人脸全局和局部特征的表情识别方法
WO2021135509A1 (zh) * 2019-12-30 2021-07-08 腾讯科技(深圳)有限公司 图像处理方法、装置、电子设备及存储介质
CN113111789A (zh) * 2021-04-15 2021-07-13 山东大学 一种基于视频流的面部表情识别方法及系统
CN113486867A (zh) * 2021-09-07 2021-10-08 北京世纪好未来教育科技有限公司 人脸微表情识别方法、装置、电子设备及存储介质
WO2021232209A1 (zh) * 2020-05-18 2021-11-25 深圳市大疆创新科技有限公司 图像处理方法、设备、可移动平台和存储介质
CN114612987A (zh) * 2022-03-17 2022-06-10 深圳集智数字科技有限公司 一种表情识别方法及装置
CN115661909A (zh) * 2022-12-14 2023-01-31 深圳大学 人脸图像处理方法、设备及计算机可读存储介质
CN115937372A (zh) * 2022-12-19 2023-04-07 北京字跳网络技术有限公司 一种面部表情的模拟方法、装置、设备及存储介质
CN116912924A (zh) * 2023-09-12 2023-10-20 深圳须弥云图空间科技有限公司 一种目标图像识别方法和装置
WO2024001095A1 (zh) * 2022-06-27 2024-01-04 闻泰通讯股份有限公司 面部表情识别方法、终端设备及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113658582B (zh) * 2021-07-15 2024-05-07 中国科学院计算技术研究所 一种音视协同的唇语识别方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105095827A (zh) * 2014-04-18 2015-11-25 汉王科技股份有限公司 人脸表情识别装置和方法
CN105825192A (zh) * 2016-03-24 2016-08-03 深圳大学 一种人脸表情识别方法及系统
CN107292256A (zh) * 2017-06-14 2017-10-24 西安电子科技大学 基于辅任务的深度卷积小波神经网络表情识别方法
CN108256450A (zh) * 2018-01-04 2018-07-06 天津大学 一种基于深度学习的人脸识别和人脸验证的监督学习方法
CN108573232A (zh) * 2018-04-17 2018-09-25 中国民航大学 基于卷积神经网络的人体动作识别方法
CN109344693A (zh) * 2018-08-13 2019-02-15 华南理工大学 一种基于深度学习的人脸多区域融合表情识别方法
GB201911689D0 (en) * 2019-08-15 2019-10-02 Facesoft Ltd Facial image processing

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295566B (zh) * 2016-08-10 2019-07-09 北京小米移动软件有限公司 人脸表情识别方法及装置
CA3089025A1 (en) * 2018-01-19 2019-07-25 Board Of Regents, The University Of Texas System Systems and methods for evaluating individual, group, and crowd emotion engagement and attention
CN111144348A (zh) * 2019-12-30 2020-05-12 腾讯科技(深圳)有限公司 图像处理方法、装置、电子设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105095827A (zh) * 2014-04-18 2015-11-25 汉王科技股份有限公司 人脸表情识别装置和方法
CN105825192A (zh) * 2016-03-24 2016-08-03 深圳大学 一种人脸表情识别方法及系统
CN107292256A (zh) * 2017-06-14 2017-10-24 西安电子科技大学 基于辅任务的深度卷积小波神经网络表情识别方法
CN108256450A (zh) * 2018-01-04 2018-07-06 天津大学 一种基于深度学习的人脸识别和人脸验证的监督学习方法
CN108573232A (zh) * 2018-04-17 2018-09-25 中国民航大学 基于卷积神经网络的人体动作识别方法
CN109344693A (zh) * 2018-08-13 2019-02-15 华南理工大学 一种基于深度学习的人脸多区域融合表情识别方法
GB201911689D0 (en) * 2019-08-15 2019-10-02 Facesoft Ltd Facial image processing

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WENQI WU ET AL: ""Facial Expression Recognition for Different Pose Faces Based on Special Landmark Detection"" *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021135509A1 (zh) * 2019-12-30 2021-07-08 腾讯科技(深圳)有限公司 图像处理方法、装置、电子设备及存储介质
WO2021232209A1 (zh) * 2020-05-18 2021-11-25 深圳市大疆创新科技有限公司 图像处理方法、设备、可移动平台和存储介质
CN111967353B (zh) * 2020-07-31 2024-05-14 北京金山云网络技术有限公司 图片识别方法、装置、电子设备以及介质
CN111967353A (zh) * 2020-07-31 2020-11-20 北京金山云网络技术有限公司 图片识别方法、装置、电子设备以及介质
CN112085035A (zh) * 2020-09-14 2020-12-15 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备和计算机可读介质
CN112257635A (zh) * 2020-10-30 2021-01-22 杭州魔点科技有限公司 人脸误检过滤的方法、系统、电子装置和存储介质
CN112329683A (zh) * 2020-11-16 2021-02-05 常州大学 一种基于注意力机制融合的多通道卷积神经网络人脸表情识别方法
CN112329683B (zh) * 2020-11-16 2024-01-26 常州大学 一种多通道卷积神经网络人脸表情识别方法
CN112651301A (zh) * 2020-12-08 2021-04-13 浙江工业大学 一种整合人脸全局和局部特征的表情识别方法
CN112614213A (zh) * 2020-12-14 2021-04-06 杭州网易云音乐科技有限公司 人脸表情确定方法、表情参数确定模型、介质及设备
CN112614213B (zh) * 2020-12-14 2024-01-23 杭州网易云音乐科技有限公司 人脸表情确定方法、表情参数确定模型、介质及设备
CN113111789A (zh) * 2021-04-15 2021-07-13 山东大学 一种基于视频流的面部表情识别方法及系统
CN113111789B (zh) * 2021-04-15 2022-12-20 山东大学 一种基于视频流的面部表情识别方法及系统
CN113486867B (zh) * 2021-09-07 2021-12-14 北京世纪好未来教育科技有限公司 人脸微表情识别方法、装置、电子设备及存储介质
CN113486867A (zh) * 2021-09-07 2021-10-08 北京世纪好未来教育科技有限公司 人脸微表情识别方法、装置、电子设备及存储介质
CN114612987A (zh) * 2022-03-17 2022-06-10 深圳集智数字科技有限公司 一种表情识别方法及装置
WO2024001095A1 (zh) * 2022-06-27 2024-01-04 闻泰通讯股份有限公司 面部表情识别方法、终端设备及存储介质
CN115661909A (zh) * 2022-12-14 2023-01-31 深圳大学 人脸图像处理方法、设备及计算机可读存储介质
CN115937372A (zh) * 2022-12-19 2023-04-07 北京字跳网络技术有限公司 一种面部表情的模拟方法、装置、设备及存储介质
CN115937372B (zh) * 2022-12-19 2023-10-03 北京字跳网络技术有限公司 一种面部表情的模拟方法、装置、设备及存储介质
CN116912924A (zh) * 2023-09-12 2023-10-20 深圳须弥云图空间科技有限公司 一种目标图像识别方法和装置
CN116912924B (zh) * 2023-09-12 2024-01-05 深圳须弥云图空间科技有限公司 一种目标图像识别方法和装置

Also Published As

Publication number Publication date
WO2021135509A1 (zh) 2021-07-08

Similar Documents

Publication Publication Date Title
CN111144348A (zh) 图像处理方法、装置、电子设备及存储介质
CN111563502B (zh) 图像的文本识别方法、装置、电子设备及计算机存储介质
Kamarol et al. Spatiotemporal feature extraction for facial expression recognition
Zhang et al. Actively learning human gaze shifting paths for semantics-aware photo cropping
CN111931592B (zh) 对象识别方法、装置及存储介质
CN108830237B (zh) 一种人脸表情的识别方法
Sun et al. Facial expression recognition using optimized active regions
Raut Facial emotion recognition using machine learning
Paul et al. Extraction of facial feature points using cumulative histogram
WO2022161302A1 (zh) 动作识别方法、装置、设备、存储介质及计算机程序产品
US20220207913A1 (en) Method and device for training multi-task recognition model and computer-readable storage medium
CN110837777A (zh) 基于改进VGG-Net的部分遮挡的人脸表情识别方法
Sultan et al. Sign language identification and recognition: A comparative study
Wei et al. Learning two groups of discriminative features for micro-expression recognition
Li et al. Findnet: Can you find me? boundary-and-texture enhancement network for camouflaged object detection
CN117556067B (zh) 数据检索方法、装置、计算机设备和存储介质
CN113781387A (zh) 模型训练方法、图像处理方法、装置、设备及存储介质
Perera et al. Sri lankan sign language to sinhala text using convolutional neural network combined with scale invariant feature transform (sift)
Muthukumar et al. Vision based hand gesture recognition for Indian sign languages using local binary patterns with support vector machine classifier
Cho et al. Learning local attention with guidance map for pose robust facial expression recognition
Sönmez et al. Convolutional neural networks with balanced batches for facial expressions recognition
CN111144374B (zh) 人脸表情识别方法及装置、存储介质和电子设备
CN115147434A (zh) 图像处理方法、装置、终端设备及计算机可读存储介质
CN113762237A (zh) 文本图像处理方法、装置、设备及存储介质
Boddu et al. Novel heuristic recurrent neural network framework to handle automatic telugu text categorization from handwritten text image

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination