CN109657582A - 人脸情绪的识别方法、装置、计算机设备及存储介质 - Google Patents

人脸情绪的识别方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN109657582A
CN109657582A CN201811503847.6A CN201811503847A CN109657582A CN 109657582 A CN109657582 A CN 109657582A CN 201811503847 A CN201811503847 A CN 201811503847A CN 109657582 A CN109657582 A CN 109657582A
Authority
CN
China
Prior art keywords
images
data
face
recognized
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811503847.6A
Other languages
English (en)
Other versions
CN109657582B (zh
Inventor
盛建达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201811503847.6A priority Critical patent/CN109657582B/zh
Publication of CN109657582A publication Critical patent/CN109657582A/zh
Application granted granted Critical
Publication of CN109657582B publication Critical patent/CN109657582B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种人脸情绪的识别方法、装置、计算机设备及存储介质,所述方法包括:对待识别的人脸图像进行预处理,得到待识别图像,并使用预设的稠密卷积神经网络模型的输入层对待识别图像进行通道数据提取,得到人脸图像数据,在每个卷积层中,将人脸图像数据和排列于该卷积层之前的所有卷积层的输出数据共同作为该卷积层的输入数据,对输入数据进行卷积计算和特征重标定处理,得到待识别图像的人脸特征,使用全连接层对人脸特征进行分类回归,得到待识别图像的情绪状态。本发明实施例通过使用预设的稠密卷积神经网络模型对待识别图像进行识别,能够提取到待识别图像中更深层次的特征信息进行识别,提高机器模型对人脸情绪的识别准确率。

Description

人脸情绪的识别方法、装置、计算机设备及存储介质
技术领域
本发明涉及生物识别技术领域,尤其涉及一种人脸情绪的识别方法、装置、计算机设备及存储介质。
背景技术
情绪识别是人工智能领域的关键技术,人脸情绪的识别对于人机交互与情感计算的研究有重要的意义,一般地,人脸的基本情绪可以分为7种,即开心、悲伤、恐惧、生气、惊讶、厌恶和平静,而面部表情是情绪的外显行为的一个重要方面,通过对人脸面部表情进行识别分析能够达到对人的情绪的判断。
目前,传统的情绪识别方法一般采用LBP(Local Binary Pattern,局部二值模式)方法对人脸图像进行特征提取之后,再使用SVM(Support Vector Machine,支持向量机)分类器进行情绪分类,但是由于人脸表情的分类较多,以及规律较复杂,因此,现有的人脸表情识别方法的通用性不强,并且对人脸表情进行识别的准确率也不高。
发明内容
本发明实施例中提供一种人脸情绪的识别方法、装置、计算机设备及存储介质,以解决目前人物情绪识别的准确率低的问题。
一种人脸情绪的识别方法,包括:
获取待识别的人脸图像;
按照预设的处理方式对所述待识别的人脸图像进行预处理,得到待识别图像;
将所述待识别图像输入预设的稠密卷积神经网络模型中,其中,所述预设的稠密卷积神经网络模型包括输入层、N个卷积层和全连接层,N为正整数;
使用所述输入层对所述待识别图像进行通道数据提取,得到所述待识别图像的人脸图像数据;
将所述人脸图像数据作为第一个所述卷积层的输入数据,在每个所述卷积层中,对所述输入数据进行卷积计算和特征重标定处理,得到输出数据,将所述人脸图像数据和前i-1个所述卷积层的输出数据共同作为第i个所述卷积层的输入数据,并将第N个所述卷积层的输出数据作为人脸特征,其中,i为大于1并且小于等于N的正整数;
使用所述全连接层对所述人脸特征进行分类回归,得到所述待识别图像的识别结果,其中,所述识别结果包括所述待识别图像中人脸的情绪状态。
一种人脸情绪的识别装置,包括:
图像获取模块,用于获取待识别的人脸图像;
图像处理模块,用于按照预设的处理方式对所述待识别的人脸图像进行预处理,得到待识别图像;
图像识别模块,用于将所述待识别图像输入预设的稠密卷积神经网络模型中,其中,所述预设的稠密卷积神经网络模型包括输入层、N个卷积层和全连接层,N为正整数;
数据提取模块,用于使用所述输入层对所述待识别图像进行通道数据提取,得到所述待识别图像的人脸图像数据;
特征获取模块,用于将所述人脸图像数据作为第一个所述卷积层的输入数据,在每个所述卷积层中,对所述输入数据进行卷积计算和特征重标定处理,得到输出数据,将所述人脸图像数据和前i-1个所述卷积层的输出数据共同作为第i个所述卷积层的输入数据,并将第N个所述卷积层的输出数据作为人脸特征,其中,i为大于1并且小于等于N的正整数;
情绪输出模块,用于使用所述全连接层对所述人脸特征进行分类回归,得到所述待识别图像的识别结果,其中,所述识别结果包括所述待识别图像中人脸的情绪状态。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述人脸情绪的识别方法。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述人脸情绪的识别方法。
上述人脸情绪的识别方法、装置、计算机设备及存储介质,通过获取待识别的人脸图像,按照预设的处理方式对待识别的人脸图像进行预处理,得到待识别图像,将待识别图像输入预设的稠密卷积神经网络模型中,使用稠密卷积神经网络模型中的输入层对待识别图像进行通道数据提取,得到待识别图像的人脸图像数据,再采用卷积层对人脸图像数据进行卷积计算和特征重标定处理,得到人脸特征,最后使用全连接层对人脸特征进行分类回归,得到待识别图像的识别结果,从而确定待识别图像中人脸的情绪状态。通过使用训练好的稠密卷积神经网络模型对待识别的人脸图像进行识别,能够识别得到待识别图像中人脸的情绪状态,并且,在稠密卷积神经网络模型的卷积层对待识别图像进行卷积计算和特征重标定处理,能够使得模型从图像中识别出的特征信息的灵敏度和特异性更高,提高模型对人脸情绪的识别准确率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中人脸情绪的识别方法的一应用环境示意图;
图2是本发明一实施例中人脸情绪的识别方法的一流程图;
图3是图2中步骤S50的一具体流程图;
图4是图2中步骤S40的一具体流程图;
图5是图2中步骤S20的一具体流程图;
图6是图2中步骤S60的一具体流程图;
图7是本发明一实施例中人脸情绪的识别装置的一原理框图;
图8是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请实施例提供的人脸情绪的识别方法,可应用在如图1的应用环境中,该应用环境包括服务端和客户端,其中,用户在客户端输入待识别的人脸图像,服务端通过网络接收待识别的人脸图像,并使用预设的稠密卷积神经网络模型对待识别的人脸图像进行识别,得到待识别的人脸图像中人物的情绪状态。客户端具体可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务端具体可以用独立的服务器或者多个服务器组成的服务器集群实现。本发明实施例提供人脸情绪的识别的方法应用于服务端。
在一实施例中,图2示出本实施例中人脸情绪的识别方法的一流程图,该方法应用在图1中的服务端,用于识别人脸图像中人物的情绪,提高人脸情绪识别的准确率。如图2所示,该人脸情绪的识别方法包括步骤S10至步骤S60,详述如下:
S10:获取待识别的人脸图像。
在本实施例中,待识别的人脸图像是指需要对图像中人物的情绪进行识别的人脸图像,该待识别的人脸图像的图像格式包括但不限于jpg、png和jpeg等格式,具体可以是从互联网中获取的人脸图像,也可以是用户通过客户端拍摄的人脸图像,或者是摄像机拍摄的单帧人脸图像等等。
其中,服务端获取待识别的人脸图像的具体方式具有多样性,可以是从客户端获取用户上传的人脸图像,也可以是获取服务端中预设路径下的存储图像,或者是从互联网中获取的人脸图像作为待识别的人脸图像,但并不限于此,该待识别的人脸图像具体可以根据实际应用的需要进行获取,此处不做限制。
S20:按照预设的处理方式对待识别的人脸图像进行预处理,得到待识别图像。
其中,预设的处理方式是指预先设置对待识别的人脸图像进行尺寸、灰度和形状等变换处理的方式,用于将待识别的人脸图像转换成预设规格的待识别图像,该预设规格包括但不限于预设的尺寸、预设的灰度等级和预设的形状等,以便后续的图像处理更加高效,提高图像的数据处理效率。
其中,待识别图像的预设规格可以根据实际应用的需要进行设置,此处不做限制,例如,待识别图像的像素的尺寸可以设置为168*168,也可以设置为256*256等。
具体地,服务端先使用预设的人脸检测算法获取待识别的人脸图像中的人脸区域,该预设的人脸检测算法可以根据图像中的人脸五官检测得到人脸区域,从待识别的人脸图像中裁剪出人脸所在的区域,得到裁剪后的人脸图像,再将裁剪得到的人脸图像的像素的尺寸转换为预设尺寸的图像,得到预设尺寸的图像,再对该预设尺寸的图像进行灰度化和去噪等处理,消除待识别的人脸图像中的噪声信息,增强与人脸相关的信息的可检测性和简化图像数据,并将预处理之后的图像作为待识别图像,实现对待识别的人脸图像的预处理。
例如,可以预先将待识别图像的像素尺寸设置为168*168,对一尺寸为[1280,720]的待识别的人脸图像,通过预设的人脸检测算法检测出待识别的人脸图像中人脸的区域,并从待识别的人脸图像中裁剪出人脸所在的区域,再将裁剪得到的待识别的人脸图像的尺寸转换为[168,168]尺寸的图像,并且通过对预设尺寸的图像进行灰度化和去噪等处理,从而得到预设规格的待识别图像。
S30:将待识别图像输入预设的稠密卷积神经网络模型中,其中,该预设的稠密卷积神经网络模型包括输入层、N个卷积层和全连接层,N为正整数。
在本实施例中,预设的稠密卷积神经网络模型是基于Densnet(DenseConvolutional Network,稠密卷积神经网络)构建的神经网络模型,Densnet是一种深度学习的神经网络,能够加强图像的特征信息在Densnet中的各个网络层之间的传递,更有效地利用了图像各个层次的特征信息,提高神经网络模型的识别准确率。
其中,该预设的稠密卷积神经网络模型包括输入层、N个卷积层和全连接层,输入层是用于对图像的通道数据进行提取的网络层,卷积层是用于对图像的特征信息进行提取的网络层,全连接层是用于将提取到的特征信息进行回归分析的网络层,其中,N为正整数,可以根据实际应用的需要进行设置,此处不做限制。
可选地,N可以设置为48,将传统的Densnet中的64个卷积层缩减为48个卷积层,能够减小预设的稠密卷积神经网络模型的模型大小。
S40:使用输入层对待识别图像进行通道数据提取,得到待识别图像的人脸图像数据。
具体地,在预设的稠密卷积神经网络模型中,使用输入层中预设的通道对待识别图像进行通道数据提取,能够得到用于描述待识别图像的图像特征的人脸图像数据。
需要说明的是,通道数据是待识别图像的基础,通道数据包括单通道数据和多通道数据,针对图像中的一个像素点,若可以用一个数值就能够给描述该像素点,则该数值为图像的单通道数据;若需要用多个数值进行描述该像素点,则该多个数值组成的向量即为图像的多通道数据。
可选地,本发明实施例中输入层的通道个数可以设置为3,通过R(红)、G(绿)和B(蓝)三个分量进行描述待识别图像中的像素点,也即,可以使用向量(R、G、B)表示待识别图像中的像素点,其中,每个通道的分量的取值范围均为[0,255],0表示纯黑色,255表示纯白色。
S50:将人脸图像数据作为第一个卷积层的输入数据,在每个卷积层中,对输入数据进行卷积计算和特征重标定处理,得到输出数据,将人脸图像数据和前i-1个卷积层的输出数据共同作为第i个卷积层的输入数据,并将第N个卷积层的输出数据作为人脸特征,其中,i为大于1并且小于等于N的正整数。
在本实施例中,预设的稠密卷积神经网络模型包括N个压缩卷积层,该N个压缩卷积层按照预设的顺序排列,根据步骤S40得到的人脸图像数据,将人脸图像数据作为第一个卷积层的输入数据,对人脸图像数据进行卷积计算和特征重标定处理,得到第一个卷积层的输出数据,第一层卷积层可能只能提取待识别图像中的一些低层次的特征信息,例如,图像的边缘、线条和角等低层次的特征信息,越深层级的卷积层能从低层次特征中迭代计算获取待识别图像中更复杂的特征信息。
其中,卷积计算是用于分析得到表示待识别图像的特征信息的卷积数据,特征重标定处理是指,对每个卷积层的卷积计算后得到的特征信息重新进行标定,使得待识别图像中人脸的特征信息更具特异性,能够更加准确地描述待识别图像的信息,因为不同的特征信息对于模型后续的预测结果产生的影响不一样,在特征重标定处理之后,能够使得待识别图像中低层次的特征信息更具普遍性,而高层次的特征信息具有更高的特异性。
具体地,预设的稠密卷积神经网络模型的N个卷积层的模型运算过程为,在每个卷积层中,将人脸图像数据和排列于该卷积层之前的所有卷积层的输出数据,共同作为该卷积层的输入数据,并对该卷积层的输入数据进行卷积计算和特征重标定的操作,以便提取待识别图像中不同层次的特征信息,从而将各个卷积层提取的特征信息进行综合,充分利用每个卷积层提取的特征信息,解决了特征信息在多层次的神经网络模型结果中传递的信息消息的问题,提高模型的机器学习效果。
例如,在第二个卷积层中,将人脸图像数据和第一个卷积层的输出数据,共同作为第二个卷积层的输入数据,并对第二个卷积层的输入数据进行卷积计算和特征重标定处理,得到第二个卷积层输出数据。
可以理解的是,在第N个卷积层中,将人脸图像数据和第一个到第N-1个卷积层的输出数据,共同作为第N个卷积层的输入数据,并对第N个卷积层的输入数据进行卷积计算和特征重标定处理,得到第N个卷积层输出数据。
获取第N个卷积层的输出数据作为待识别图像的人脸特征。
S60:使用全连接层对人脸特征进行分类回归,得到待识别图像的识别结果,其中,该识别结果包括待识别图像中人脸的情绪状态。
具体地,服务端在预设的稠密卷积神经网络模型的全连接层中,使用全连接层中预设的激活函数对人脸特征进行回归分析,得到待识别图像的人脸特征属于每个预设的情绪状态的概率值,从而实现对人脸特征的分类,并将概率值最大的情绪状态输出作为待识别图像的识别结果,得到待识别图像中人物的情绪状态,其中,预先设置的人物的情绪状态包括但不限于开心、悲伤、恐惧、生气、惊讶、厌恶和平静等情绪,但并不限于此,具体可以根据实际应用的需要设置情绪的类别。
进一步地,激活函数用于对待识别图像中人脸的特征信息进行回归分析,得到待识别图像中人脸的特征信息与预设的情绪状态之间的相关性的函数,激活函数具体可以是sigmoid、rule和Softmax等激活函数,本实施例中,可以采用Softmax激活函数对输入全连接层的人脸特征进行分类回归,能够直观地比较稠密卷积神经网络模型预测待识别图像中的人脸属于每个情绪状态的概率值。
在图2对应的实施例中,通过获取待识别的人脸图像,按照预设的处理方式对待识别的人脸图像进行预处理,得到待识别图像,将待识别图像输入预设的稠密卷积神经网络模型中,使用稠密卷积神经网络模型中的输入层对待识别图像进行通道数据提取,得到待识别图像的人脸图像数据,再采用卷积层对人脸图像数据进行卷积计算和特征重标定处理,得到人脸特征,最后使用全连接层对人脸特征进行分类回归,得到待识别图像的识别结果,从而确定待识别图像中人脸的情绪状态。通过使用训练好的稠密卷积神经网络模型对待识别的人脸图像进行识别,能够识别得到待识别图像中人脸的情绪状态,并且,在稠密卷积神经网络模型的卷积层对待识别图像进行卷积计算和特征重标定处理,能够使得模型从图像中识别出的特征信息的灵敏度和特异性更高,提高模型对人脸情绪的识别准确率。
在一实施例中,如图3所示,本实施例对步骤S50中所提及的在每个卷积层中,对输入数据进行卷积计算和特征重标定处理,得到输出数据的具体实现方法进行详细说明。
S51:在每个卷积层中,对输入数据进行卷积操作,得到卷积数据。
在本实施例中,每个卷积层中设置不同预设尺寸的视觉感知范围的卷积核,根据每个卷积层中的卷积核确定该卷积层的卷积计算函数,并对每个卷积层中的输入数据进行卷积计算,将输入卷积层的输入数据与卷积核相乘,提取待识别图像的特征信息,其中,卷积核的尺寸可以根据实际应用的需要进行设置,例如,卷积核可以预先设置为1×1、3×3或者5×5等,卷积核的单位为像素。
S52:对卷积数据进行挤压操作,得到图像压缩特征。
具体地,根据步骤S51得到的卷积数据,对卷积数据进行挤压操作,在空间维度上对卷积数据进行特征压缩,将卷积数据转换成一个实数,降低特征信息的维度,并且,该实数具有全局的感受野,感受野是指在某一层的输出结果中一个元素所对应的输入层的区域大小。
例如,将卷积数据H*W*C转换成图像压缩特征1*1*Cx,实现卷积数据在空间维度上的特征压缩,其中,H为通道的高,W为通道的宽,C为通道的个数,Cx为特征压缩后的实数。
S53:对图像压缩特征进行激励操作,得到通道依赖系数。
具体地,根据步骤S52得到的图像压缩特征,对图像压缩特征进行激励操作,获取各个通道的数据之间的相关性,并使用Sigmoid函数将图像压缩特征映射到(0,1)的区间,将通道的数据之间的相关性进行归一化,得到通道依赖系数,用于描述对应的通道中数据的重要性程度,其中,Sigmoid函数是一种激励函数,用于增加神经网络各层之间的非线性关系,可以更好地拟合通道间复杂的相关性。
S54:使用通道依赖系数和卷积数据进行求积运算处理,得到输出数据。
具体地,将通道依赖系数作为卷积数据的权重,根据通道中数据的重要性程度,增强有效的特征信息的权重,以及减小无效或者效果较小的特征的权重,并使用通道依赖系数和卷积数据相乘,将通道依赖系数加权到卷积数据中,得到输出数据,实现对卷积计算提取到的特征信息重新标定,使得每个通道的数据变得更具特异性,提高特征信息的表达能力,能够更加准确地对待识别图像进行描述。
在图3对应的实施例中,通过在每个卷积层中,对输入数据进行卷积操作,得到卷积数据,并对卷积数据进行挤压操作,得到图像压缩特征,再对图像压缩特征进行激励操作,得到通道依赖系数,最后,使用通道依赖系数和卷积数据进行求积运算处理,得到输出数据,实现对待识别图像的特征信息的提取和特征信息的重新标定,使得待识别图像的特征信息的灵敏度和特异性增强,表达出待识别图像中更多的细节特征,提高模型对待识别图像的识别准确率。
在一实施例中,本实施例对步骤S40中所提及的使用输入层对待识别图像进行图像数据提取,得到待识别图像的人脸图像数据的具体实现方法进行详细说明。
请参阅图4,图4示出了步骤S40的一具体流程图,详述如下:
S41:使用输入层提取待识别图像中的图像通道数据。
具体地,图像通道数据是用于表示待识别图像的数据,通过使用稠密卷积神经网络模型的输入层对待识别图像进行图像数据提取,能够得到待识别图像的图像通道数据,从而将图像中的信息进行数字化,便于机器模型的识别分析。
S42:对图像通道数据和预设的乘宽系数进行求积运算处理,得到人脸图像数据,其中,该预设的乘宽系数为A,A∈(0,1)。
具体地,根据图像通道数据与模型的识别准确率之间的线性函数关系,在随着图像通道数据的增加而模型的识别准确率的增幅最小时,获取该图像通道数据对应的参数数量作为优选参数数量,并根据模型在输入层提取到的图像通道数据的参数数量,设置一个乘宽系数A,A为大于0并且小于1的一个实数,该乘宽系数具体可以根据实际应用的需要进行设置,以便用于减少参与模型识别运算的图像通道数据,使得模型在输入层提取到的图像通道数据与乘宽系数相乘后得到的参数数量等于优选参数数量,得到人脸图像数据。
需要说明的是,图像通道数据越多,越有利于稠密卷积神经网络对于待识别图像的识别,但是,当图像通道数据达到一定数量时,随着图像通道数据的增加,模型的识别准确率将趋于平缓,不再有明显的变化,因此,在模型的识别准确率的增幅最小时对应的图像通道数据的参数数量比较适合用于进行模型的识别运算。
在图4对应的实施例中,通过使用输入层提取待识别图像中的图像通道数据,并对图像通道数据和预设的乘宽系数进行求积运算处理,得到人脸图像数据,在保证模型的识别准确率的同时,按比例减少图像通道数据的参数数量,从而减少模型的参数数量,使得稠密卷积神经网络模型的模型大小减小,并且,由于用于参与模型识别运算的通道数据中的参数数量的减少,能够提高模型的运算速率。
在一实施例中,本实施例对步骤S20中所提及的按照预设的处理方式对待识别的人脸图像进行预处理,得到待识别图像的具体实现方法进行详细说明。
请参阅图5,图5示出了步骤S20的一具体流程图,详述如下:
S21:对待识别的人脸图像进行灰度级变换处理,得到灰度图像。
具体地,按照公式(1)使用预设的灰度值变换函数对待识别的人脸图像进行灰度级变换处理:
g(x,y)=T(f(x,y))公式(1)
其中,f为待识别的人脸图像,T为预设的灰度值变换函数,g为灰度图像,x和y分别表示待识别的人脸图像中的横坐标与纵坐标,f(x,y)表示待识别的人脸图像中坐标点(x,y)对应的像素值,g(x,y)表示灰度图像中坐标点(x,y)对应的像素值。
S22:对灰度图像进行去噪处理,得到待识别图像。
具体地,图像噪声是指存在于图像数据中的不必要的或多余的干扰信息,例如,图像噪声包括高斯噪声、瑞利噪声、伽马噪声和椒盐噪声等,噪声的存在会对图像的识别造成影响,因此,可以采用均值滤波、中值滤波或者维纳滤波等方法对灰度图像进行噪声去除处理。
可选地,服务端可以采用中值滤波对灰度图像进行噪声去除处理,中值滤波法是一种非线性的信号处理技术,通过将噪声点的灰度值替换为该噪声点的邻域窗口内的所有像素点的灰度值的中值,使得周围的像素点的灰度值接近的真实值,从而消除孤立的噪声点。
在图5对应的实施例中,通过对待识别的人脸图像进行灰度级变换处理,得到灰度图像,并对灰度图像进行去噪处理,得到待识别图像,得到的待识别图像更加规范化,使得待识别图像的细节更加清楚,易于被识别,以便后续的模型训练过程对待识别图像的处理能够更加高效,并且减少待识别图像的复杂度和信息处理量,从而提高机器学习模型的训练速率和识别准确率。
在一实施例中,全连接层包括L个分类器,其中,L为正整数,本实施例对步骤S60中所提及的使用全连接层对人脸特征进行分类回归,得到待识别图像的识别结果的具体实现方法进行详细说明。
请参阅图6,图6示出了步骤S60的一具体流程图,详述如下:
S61:使用全连接层的L个分类器对人脸特征进行回归计算,得到每个分类器的概率值,共得到待识别图像对应的L种情绪状态的概率值,其中,每个分类器对应一种情绪状态。
具体地,预设的稠密卷积神经网络模型的全连接层中有L个训练好的分类器,该分类器具体可以是Softmax回归分类器,用于对输入全连接层的人脸特征进行回归计算,得到该人脸特征与每个分类器对应的情绪状态的相似度,该相似度具体可以由概率值表示,共得到待识别图像对应的L种情绪状态的概率值,以表示待识别图像中的人脸属于每种情绪状态的概率,其中,每个分类器对应一种情绪状态,情绪状态的具体种类可以根据实际应用的需要进行设置,并且,分类器的概率值越大,则特征数据与每个分类器对应的情绪状态的相似度越高。
S62:从L种情绪状态的概率值中,获取概率值最大的情绪状态作为待识别图像中人脸的情绪状态,得到待识别图像的识别结果。
具体地,根据步骤S61得到的待识别图像中的人脸属于每种情绪状态的概率值,从L种情绪状态的概率中,选取概率值最大的情绪状态作为待识别图像中人脸的情绪状态,并将该情绪状态输出,作为待识别图像的识别结果。
例如,如表1所示,全连接层一共有7个训练好的分类器,分类器1到分类器7对应的情绪状态分别为开心、悲伤、恐惧、生气、惊讶、厌恶和平静,表1示出了预设的稠密卷积神经网络模型对一待识别图像进行预测,得到该待识别图像中的人脸属于每一种情绪状态的概率值的预测结果,根据表1可知,由于该待识别图像中的人脸属于分类器4对应的情绪状态“生气”的概率值最大,因此,可以确定该待识别图像中人物的情绪状态为生气。
表1.待识别图像的预测结果
在图6对应的实施例中,通过使用全连接层的分类器对人脸特征进行回归计算,得到每个分类器的概率值,能够直观地对待识别图像中的人脸属于每个情绪状态的概率值进行比较,并获取概率值最大的情绪状态作为待识别图像的识别结果,从而确定待识别图像中人物的情绪状态,实现了对待识别图像中人物的情绪的预测。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种人脸情绪的识别装置,该人脸情绪的识别装置与上述实施例中人脸情绪的识别方法一一对应。如图7所示,该人脸情绪的识别装置包括:图像获取模块71、图像处理模块72、图像识别模块73、数据提取模块74、特征获取模块75和情绪输出模块76。各功能模块详细说明如下:
图像获取模块71,用于获取待识别的人脸图像;
图像处理模块72,用于按照预设的处理方式对待识别的人脸图像进行预处理,得到待识别图像;
图像识别模块73,用于将待识别图像输入预设的稠密卷积神经网络模型中,其中,该预设的稠密卷积神经网络模型包括输入层、N个卷积层和全连接层,N为正整数;
数据提取模块74,用于使用输入层对待识别图像进行通道数据提取,得到待识别图像的人脸图像数据;
特征获取模块75,用于将人脸图像数据作为第一个卷积层的输入数据,在每个卷积层中,对输入数据进行卷积计算和特征重标定处理,得到输出数据,将人脸图像数据和前i-1个卷积层的输出数据共同作为第i个卷积层的输入数据,并将第N个卷积层的输出数据作为人脸特征,其中,i为大于1并且小于等于N的正整数;
情绪输出模块76,用于使用全连接层对人脸特征进行分类回归,得到待识别图像的识别结果,其中,该识别结果包括待识别图像中人脸的情绪状态。
进一步地,特征获取模块75包括:
卷积处理子模块751,用于在每个卷积层中,对输入数据进行卷积操作,得到卷积数据;
挤压处理子模块752,用于对卷积数据进行挤压操作,得到图像压缩特征;
激励处理子模块753,用于对图像压缩特征进行激励操作,得到通道依赖系数;
标定处理子模块754,用于使用通道依赖系数和卷积数据进行求积运算处理,得到输出数据。
进一步地,数据提取模块74包括:
数据提取子模块741,用于使用输入层提取待识别图像中的图像通道数据;
数据缩减子模块742,用于对图像通道数据和预设的乘宽系数进行求积运算处理,得到人脸图像数据,其中,该预设的乘宽系数为A,A∈(0,1)。
进一步地,图像处理模块72包括:
第一处理子模块721,用于对待识别的人脸图像进行灰度级变换处理,得到灰度图像;
第二处理子模块722,用于对灰度图像进行去噪处理,得到待识别图像。
进一步地,全连接层包括L个分类器,其中,L为正整数,情绪输出模块76包括:
概率计算子模块761,用于使用全连接层的L个分类器对人脸特征进行回归计算,得到每个分类器的概率值,共得到待识别图像对应的L种情绪状态的概率值,其中,每个分类器对应一种情绪状态;
情绪确定子模块762,用于从L种情绪状态的概率值中,获取概率值最大的情绪状态作为待识别图像中人脸的情绪状态,得到待识别图像的识别结果。
关于人脸情绪的识别装置的具体限定可以参见上文中对于人脸情绪的识别方法的限定,在此不再赘述。上述人脸情绪的识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种人脸情绪的识别方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中人脸情绪的识别方法中的步骤,例如图2所示的步骤S10至步骤S60,或者,处理器执行计算机程序时实现上述实施例中人脸情绪的识别装置的各模块的功能,例如图7所示模块71至模块76的功能。为避免重复,这里不再赘述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例人脸情绪的识别方法中的步骤,例如图2所示的步骤S10至步骤S60,或者,处理器执行计算机程序时实现上述实施例中人脸情绪的识别装置的各模块的功能,例如图7所示模块71至模块76的功能。为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种人脸情绪的识别方法,其特征在于,所述人脸情绪的识别方法包括:
获取待识别的人脸图像;
按照预设的处理方式对所述待识别的人脸图像进行预处理,得到待识别图像;
将所述待识别图像输入预设的稠密卷积神经网络模型中,其中,所述预设的稠密卷积神经网络模型包括输入层、N个卷积层和全连接层,N为正整数;
使用所述输入层对所述待识别图像进行通道数据提取,得到所述待识别图像的人脸图像数据;
将所述人脸图像数据作为第一个所述卷积层的输入数据,在每个所述卷积层中,对所述输入数据进行卷积计算和特征重标定处理,得到输出数据,将所述人脸图像数据和前i-1个所述卷积层的输出数据共同作为第i个所述卷积层的输入数据,并将第N个所述卷积层的输出数据作为人脸特征,其中,i为大于1并且小于等于N的正整数;
使用所述全连接层对所述人脸特征进行分类回归,得到所述待识别图像的识别结果,其中,所述识别结果包括所述待识别图像中人脸的情绪状态。
2.如权利要求1所述的人脸情绪的识别方法,其特征在于,所述在每个所述卷积层中,对所述输入数据进行卷积计算和特征重标定处理,得到输出数据包括:
在每个所述卷积层中,对所述输入数据进行卷积操作,得到卷积数据;
对所述卷积数据进行挤压操作,得到图像压缩特征;
对所述图像压缩特征进行激励操作,得到通道依赖系数;
使用所述通道依赖系数和所述卷积数据进行求积运算处理,得到所述输出数据。
3.如权利要求1所述的人脸情绪的识别方法,其特征在于,所述使用所述输入层对所述待识别图像进行通道数据提取,得到所述待识别图像的人脸图像数据包括:
使用所述输入层提取所述待识别图像中的图像通道数据;
对所述图像通道数据和预设的乘宽系数进行求积运算处理,得到所述人脸图像数据,其中,所述预设的乘宽系数为A,A∈(0,1)。
4.如权利要求1所述的人脸情绪的识别方法,其特征在于,所述按照预设的处理方式对所述待识别的人脸图像进行预处理,得到待识别图像包括:
对所述待识别的人脸图像进行灰度级变换处理,得到灰度图像;
对所述灰度图像进行去噪处理,得到所述待识别图像。
5.如权利要求1至4任一项所述的人脸情绪的识别方法,其特征在于,所述全连接层包括L个分类器,其中,L为正整数,所述使用所述全连接层对所述人脸特征进行分类回归,得到所述待识别图像的识别结果包括:
使用所述全连接层的L个所述分类器对所述人脸特征进行回归计算,得到每个所述分类器的概率值,共得到所述待识别图像对应的L种情绪状态的概率值,其中,每个所述分类器对应一种所述情绪状态;
从L种所述情绪状态的概率值中,获取概率值最大的情绪状态作为所述待识别图像中人脸的情绪状态,得到所述待识别图像的所述识别结果。
6.一种人脸情绪的识别装置,其特征在于,所述人脸情绪的识别装置包括:
图像获取模块,用于获取待识别的人脸图像;
图像处理模块,用于按照预设的处理方式对所述待识别的人脸图像进行预处理,得到待识别图像;
图像识别模块,用于将所述待识别图像输入预设的稠密卷积神经网络模型中,其中,所述预设的稠密卷积神经网络模型包括输入层、N个卷积层和全连接层,N为正整数;
数据提取模块,用于使用所述输入层对所述待识别图像进行通道数据提取,得到所述待识别图像的人脸图像数据;
特征获取模块,用于将所述通道数据作为第一个所述卷积层的输入数据,在每个所述卷积层中,对所述输入数据进行卷积计算和特征重标定处理,得到输出数据,将所述人脸图像数据和前i-1个所述卷积层的输出数据共同作为第i个所述卷积层的输入数据,并将第N个所述卷积层的输出数据作为人脸特征,其中,i为大于1并且小于等于N的正整数;
情绪输出模块,用于使用所述全连接层对所述人脸特征进行分类回归,得到所述待识别图像的识别结果,其中,所述识别结果包括所述待识别图像中人脸的情绪状态。
7.如权利要求6所述的人脸情绪的识别装置,其特征在于,所述特征获取模块包括:
卷积处理子模块,用于在每个所述卷积层中,对所述输入数据进行卷积操作,得到卷积数据;
挤压处理子模块,用于对所述卷积数据进行挤压操作,得到图像压缩特征;
激励处理子模块,用于对所述图像压缩特征进行激励操作,得到通道依赖系数;
标定处理子模块,用于使用所述通道依赖系数和所述卷积数据进行求积运算处理,得到所述输出数据。
8.如权利要求6所述的人脸情绪的识别装置,其特征在于,所述数据提取模块包括:
数据提取子模块,用于使用所述输入层提取所述待识别图像中的图像通道数据;
数据缩减子模块,用于对所述图像通道数据和预设的乘宽系数进行求积运算处理,得到所述人脸图像数据,其中,所述预设的乘宽系数为A,A∈(0,1)。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述人脸情绪的识别方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述人脸情绪的识别方法。
CN201811503847.6A 2018-12-10 2018-12-10 人脸情绪的识别方法、装置、计算机设备及存储介质 Active CN109657582B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811503847.6A CN109657582B (zh) 2018-12-10 2018-12-10 人脸情绪的识别方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811503847.6A CN109657582B (zh) 2018-12-10 2018-12-10 人脸情绪的识别方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN109657582A true CN109657582A (zh) 2019-04-19
CN109657582B CN109657582B (zh) 2023-10-31

Family

ID=66113612

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811503847.6A Active CN109657582B (zh) 2018-12-10 2018-12-10 人脸情绪的识别方法、装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN109657582B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110263673A (zh) * 2019-05-31 2019-09-20 合肥工业大学 面部表情识别方法、装置、计算机设备及存储介质
CN110298394A (zh) * 2019-06-18 2019-10-01 中国平安财产保险股份有限公司 一种图像识别方法和相关装置
CN110428678A (zh) * 2019-08-12 2019-11-08 重庆工业职业技术学院 一种计算机在线教学管理系统
CN110472668A (zh) * 2019-07-22 2019-11-19 华北电力大学(保定) 一种图像分类方法
CN110619391A (zh) * 2019-09-19 2019-12-27 华南理工大学 一种检测模型压缩方法、装置和计算机可读存储介质
CN111144285A (zh) * 2019-12-25 2020-05-12 中国平安人寿保险股份有限公司 胖瘦程度识别方法、装置、设备及介质
CN111265317A (zh) * 2020-02-10 2020-06-12 上海牙典医疗器械有限公司 一种牙齿正畸过程预测方法
CN111666890A (zh) * 2020-06-08 2020-09-15 平安科技(深圳)有限公司 脊柱变形人群识别方法、装置、计算机设备及存储介质
CN112949446A (zh) * 2021-02-25 2021-06-11 山东英信计算机技术有限公司 一种物体识别方法、装置、设备及介质
CN114287938A (zh) * 2021-12-13 2022-04-08 重庆大学 建筑环境中人体参数的安全区间获得方法和设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012139273A1 (en) * 2011-04-11 2012-10-18 Intel Corporation Method of detecting facial attributes
CN107633203A (zh) * 2017-08-17 2018-01-26 平安科技(深圳)有限公司 面部情绪识别方法、装置及存储介质
KR20180093632A (ko) * 2017-02-14 2018-08-22 영남대학교 산학협력단 멀티 모달 데이터 기반 표정인식방법 및 장치
CN108491835A (zh) * 2018-06-12 2018-09-04 常州大学 面向面部表情识别的双通道卷积神经网络
CN108615010A (zh) * 2018-04-24 2018-10-02 重庆邮电大学 基于平行卷积神经网络特征图融合的人脸表情识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012139273A1 (en) * 2011-04-11 2012-10-18 Intel Corporation Method of detecting facial attributes
KR20180093632A (ko) * 2017-02-14 2018-08-22 영남대학교 산학협력단 멀티 모달 데이터 기반 표정인식방법 및 장치
CN107633203A (zh) * 2017-08-17 2018-01-26 平安科技(深圳)有限公司 面部情绪识别方法、装置及存储介质
CN108615010A (zh) * 2018-04-24 2018-10-02 重庆邮电大学 基于平行卷积神经网络特征图融合的人脸表情识别方法
CN108491835A (zh) * 2018-06-12 2018-09-04 常州大学 面向面部表情识别的双通道卷积神经网络

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
卢宏涛等: "深度卷积神经网络在计算机视觉中的应用研究综述", 数据采集与处理, vol. 31, no. 01, pages 1 - 15 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110263673B (zh) * 2019-05-31 2022-10-14 合肥工业大学 面部表情识别方法、装置、计算机设备及存储介质
CN110263673A (zh) * 2019-05-31 2019-09-20 合肥工业大学 面部表情识别方法、装置、计算机设备及存储介质
CN110298394A (zh) * 2019-06-18 2019-10-01 中国平安财产保险股份有限公司 一种图像识别方法和相关装置
CN110298394B (zh) * 2019-06-18 2024-04-05 中国平安财产保险股份有限公司 一种图像识别方法和相关装置
CN110472668A (zh) * 2019-07-22 2019-11-19 华北电力大学(保定) 一种图像分类方法
CN110428678A (zh) * 2019-08-12 2019-11-08 重庆工业职业技术学院 一种计算机在线教学管理系统
CN110619391A (zh) * 2019-09-19 2019-12-27 华南理工大学 一种检测模型压缩方法、装置和计算机可读存储介质
CN110619391B (zh) * 2019-09-19 2023-04-18 华南理工大学 一种检测模型压缩方法、装置和计算机可读存储介质
CN111144285A (zh) * 2019-12-25 2020-05-12 中国平安人寿保险股份有限公司 胖瘦程度识别方法、装置、设备及介质
CN111265317A (zh) * 2020-02-10 2020-06-12 上海牙典医疗器械有限公司 一种牙齿正畸过程预测方法
CN111666890B (zh) * 2020-06-08 2023-06-30 平安科技(深圳)有限公司 脊柱变形人群识别方法、装置、计算机设备及存储介质
CN111666890A (zh) * 2020-06-08 2020-09-15 平安科技(深圳)有限公司 脊柱变形人群识别方法、装置、计算机设备及存储介质
CN112949446A (zh) * 2021-02-25 2021-06-11 山东英信计算机技术有限公司 一种物体识别方法、装置、设备及介质
CN114287938A (zh) * 2021-12-13 2022-04-08 重庆大学 建筑环境中人体参数的安全区间获得方法和设备
CN114287938B (zh) * 2021-12-13 2024-02-13 重庆大学 建筑环境中人体参数的安全区间获得方法和设备

Also Published As

Publication number Publication date
CN109657582B (zh) 2023-10-31

Similar Documents

Publication Publication Date Title
CN109657582A (zh) 人脸情绪的识别方法、装置、计算机设备及存储介质
Jia et al. A semisupervised Siamese network for hyperspectral image classification
CN107767408B (zh) 图像处理方法、处理装置和处理设备
CN110399821B (zh) 基于人脸表情识别的顾客满意度获取方法
CN110472627A (zh) 一种端到端的sar图像识别方法、装置及存储介质
CN109784153A (zh) 情绪识别方法、装置、计算机设备及存储介质
CN109409198A (zh) Au检测模型训练方法、au检测方法、装置、设备及介质
CN110020582A (zh) 基于深度学习的人脸情绪识别方法、装置、设备及介质
CN107784316A (zh) 一种图像识别方法、装置、系统和计算设备
CN112651333B (zh) 静默活体检测方法、装置、终端设备和存储介质
CN107944398A (zh) 基于深度特征联合表示图像集人脸识别方法、装置和介质
CN110390673A (zh) 一种监控场景下基于深度学习的香烟自动检测方法
Xu et al. LMO-YOLO: A ship detection model for low-resolution optical satellite imagery
CN109784154A (zh) 基于深度神经网络的情绪识别方法、装置、设备及介质
JP7225731B2 (ja) 多変数データシーケンスの画像化
Abbas et al. Improving deep learning-based image super-resolution with residual learning and perceptual loss using SRGAN model
CN111445545B (zh) 一种文本转贴图方法、装置、存储介质及电子设备
CN116740808A (zh) 基于深度学习目标检测和图像分类的动物行为识别方法
Diqi et al. Implementation of CNN for plant leaf classification
CN115731620A (zh) 检测对抗攻击的方法和训练对抗攻击检测模型的方法
TWI722383B (zh) 應用於深度學習之預特徵萃取方法
CN113674383A (zh) 生成文本图像的方法及装置
Zhang An image recognition algorithm based on self-encoding and convolutional neural network fusion
Zhu et al. Self-Adaptive PCNN Based on Maximum Entropy and its Application in Handwritten Digit Recognition
US11704901B2 (en) Method of detecting wrinkles based on artificial neural network and apparatus therefor

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant