CN112070009B - 基于改进的lbp算子的卷积神经网络表情识别方法 - Google Patents
基于改进的lbp算子的卷积神经网络表情识别方法 Download PDFInfo
- Publication number
- CN112070009B CN112070009B CN202010934580.7A CN202010934580A CN112070009B CN 112070009 B CN112070009 B CN 112070009B CN 202010934580 A CN202010934580 A CN 202010934580A CN 112070009 B CN112070009 B CN 112070009B
- Authority
- CN
- China
- Prior art keywords
- lbp
- neural network
- image
- convolutional neural
- rotation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000012549 training Methods 0.000 claims abstract description 19
- 239000011159 matrix material Substances 0.000 claims abstract description 12
- 238000006243 chemical reaction Methods 0.000 claims abstract description 4
- 239000000284 extract Substances 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 30
- 238000004364 calculation method Methods 0.000 claims description 27
- 238000011176 pooling Methods 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 14
- 238000007477 logistic regression Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 11
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 125000004122 cyclic group Chemical group 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 abstract description 4
- 230000008921 facial expression Effects 0.000 description 6
- 230000008451 emotion Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000006806 disease prevention Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于改进的LBP算子的卷积神经网络表情识别方法,属于图像识别技术领域。包括以下步骤:输入人脸图像并进行灰度值转化和归一化尺寸的预处理;对图像进行LBP‑HF纹理特征的提取;将提取到的LBP‑HF纹理特征矩阵输入到卷积神经网络中进行样本训练;卷积神经网络利用多层卷积层对图像进行进一步的特征提取;通过分类器对表情进行识别。本发明在浅层的卷积神经网络下能有效提高表情识别的识别率,加快神经网络的训练速度,在识别准确性、训练收敛速度上都具有较大优势。
Description
技术领域
本发明涉及一种识别方法,特别是一种基于改进的LBP算子的卷积神经网络表情识别方法,属于图像识别技术领域。
背景技术
人类情感体系中最重要的表现形式就是面部表情,它是一个人情感状态的真实反映,更是人与人之间重要交流方式。在人际交往活动中,最为自然的表达方式则是人脸表情,它是情感信息传播媒介,能够补充语言或文字无法表达的内容,识别人脸表情不仅能够促进人际关系,同时还能推动社会的和谐发展。近年来随着人工智能技术的飞速发展,人脸识别方法越发成熟,如:模式识别、情感计算等,它已经成为了重要研究方向。
人脸表情识别主要由人脸获取、人脸特征提取以及对人脸表情识别三部分构成。随着信息技术提升,计算机可以通过人脸表情识别区分出6种基本情感,促进了人机交互的发展。近几年来,人脸识别在人们的生活中得到了广泛应用,如:人类与高级机器人交互、人类行为分析、疾病预防诊断、学习教育、交通安全等方面都发挥了重要的作用。随着计算机性能不断提高,人工智能快速发展,深度学习的趋势已在全球蔓延,卷积神经网络以其出色的学习和表现能力,在计算机领域发挥更高价值,特别是在人脸识别、追踪目标等方面具有很大应用潜力。
发明内容
基于现有技术的上述分析,本发明提出了一种基于改进的LBP算子的卷积神经网络表情识别方法,用以解决在浅层卷积神经网络下增加表情识别率,加快卷积神经网络训练的问题。
为实现上述目的,本发明采用的技术方案为:
一种基于改进的LBP算子的卷积神经网络表情识别方法,该方法包括以下步骤:
步骤1:输入人脸图像并进行灰度值转化和归一化尺寸的预处理;
步骤2:对图像进行LBP-HF纹理特征的提取,包括:
计算圆形邻域上的图像全局的原始模式LBP值;
步骤3:将提取到的LBP-HF纹理特征矩阵输入到卷积神经网络中进行样本训练;
步骤4:卷积神经网络利用多层卷积层对图像进行进一步的特征提取;
步骤5:通过分类器对表情进行识别。
进一步地,所述步骤2中,计算圆形邻域上的图像全局的原始LBP值包括:
设图像核心像素点周围为不同规格圆形邻域系统,计算过程如下:
gp,r=[gp,r,0,gp,r,1,…gp,r,p-2,gp,r,p-1]T
其中,(i,j)表示像素点;gc表示像素灰度值;r表示圆形邻区半径;p表示区域中分布的像素数量;s(x)是符号函数;n是像素点对应的位置;gp,r,n是圆区第n个像素的灰度值;gp,r是圆区像素的灰度值;LBPp,r为原始LBP算子模式。
U值代表在LBP模式中圆周相邻的二元值变化次数,变化界定在0与1之间;
图像Iα(x,y)中心点位置设定为(x,y),旋转角度是α角,当点(x,y)旋转了α角度之后,就会形成对应点,设定为(x',y');
hI(Up(n,r))能够反映出旋转不变等价模式直方图;
hIα(Up(n,r+kmodp))=hI(Up(n,r))
对旋转不变等价模式直方图的循环位移hI(Up(n,r))第n行进行离散傅立叶变换得到向量 H(n,u),具体计算公式如下:
H(n,u)=∑hI(Up(n,r))e-i2πur/p
在离散傅立叶变换中,输入数据发生了循环位移变化,从而形成了离散傅立叶变换系数改变,若存在
h'(Up(n,r))=h(Up(n,r-k)),那么:
H'(n,u)=H(n,u)e-i2πuk/p
因此,任意1≤n1,n2≤p-1有:
其中,k=0,1,2,…,p-2,p-1;
进一步地,所述步骤2中,原始模式LBP值计算时,设定图像尺寸为M×N,设定直方图为h,导入下面公式可以计算出:
0≤k<d(d=2p),表示在p邻域点LBP模式中共计有2p种,则纹理图像原始模式LBP直方图矢量维数为2p。
进一步地,所述步骤3中,所述卷积神经网络主要分三个部分:输入层、隐层和输出层,其中隐层包括卷积层、池化层、全连接层、损失函数层;每一层都可以得到多个特征图,不同的特征图是通过不同卷积核提取。
进一步地,所述卷积处理过程就是对通过卷积核对图像实时加权处理,卷积的表达式如下:
s[x]=∫f(u)g(x-u)du
上面的计算公式,表达了函数经过旋转处理和平移处理之后,g的重叠部分面积;在二维图像结构中每一个像素点都是互相离散的,所以当处理这些离散信号的时候,可以将整个二维图像矩阵当成函数f,在将另一个二维矩阵g作为卷积核,表示如下公式:
s[x]=∑f[k]g[x-k]
其中的g相当于是一个滤波器,即对图像f的卷积,就是在计算机视觉中常常成为g对f 的滤波。
进一步地,池化是卷积网络中另一个很重要的概念,它实际上是一个降采样的过程;图像通过第一层卷积层提取了特征后,往往获得的特征向量的维数都是很高的,这样就非常容易导致过拟合的产生,所以第二层池化就是在保证图像具有旋转不变性的前提下依旧能够有效地降低特征图的维数;现在的池化被分为最大池化和均值池化这两种池化方法,最大池化就是选取池化区域内的最大特征值作为代表点进入特征图,均值池化即是选取平均值作为特征点进入特征图。
进一步地,全连接层运用了Softmax实现了层层连接,激活函数对于卷积神经网络可以实现较好的分类处理,而连Softmax就是通过逻辑回归分析,实现的二分类推广,通过Softmax 激活函数完成连接,具体计算公式如下:
上述公式中:θ表示训练参数;x表示输入数据,对样本进行逻辑回归计算,其函数公式如下表示:
Softmax函数与逻辑回归有一定关联,该函数能够解决关于分类漏掉的问题,在样本计算中能够将m 个样本进行分类,并对k个分类问题进行分析,通过训练形成了集合,可以用{(x(1),y(1)),…(x(m),y(m))},其中y(i)∈{1,2,…,k}表示,每一个输入样本,需要对其分类概率进行评估,用p(y=j/x)表示,其中在第k个概率上需要设定k维向量,设定函数公式如下:
通过代价函数的逻辑回归分析得出:
相对于现有技术,本发明具有如下技术效果:
本发明在浅层的卷积神经网络下提高了表情识别的识别率,加快了神经网络的训练速度。改进的LBP算子LBP-HF有很好的纹理特征提取效果和旋转不变性,大幅度降低了维数,减少了计算量,能够在保持卷积神经网络结构不变的条件下,提高表情识别的准确率,优化卷积神经网络的训练过程。通过实验和直接卷积神经网络训练分类对比分析,在识别准确性、训练收敛速度上都具有较大优势,验证了结合LBP-HF的CNN(卷积神经网络)表情识别方法法具有可行性和科学性。
附图说明
图1是本发明的算法流程图;
图2是人脸表情原图和提取的LBP-HF特征图。
具体实施方式
下面结合附图和具体实施方式对本发明做进一步详细地说明。
如图1-2所示,本发明的一种基于改进的LBP算子的卷积神经网络表情识别方法,包括以下步骤:
步骤1:输入人脸图像并进行灰度值转化和归一化尺寸的预处理;
步骤2:对图像进行LBP-HF纹理特征的提取,包括:
计算圆形邻域上的图像全局的原始模式LBP值。
原始模式LBP值计算时,设定图像尺寸为M×N,设定直方图为h,导入下面公式可以计算出:
0≤k<d(d=2p),表示在p邻域点LBP模式中共计有2p种,则纹理图像原始模式 LBP直方图矢量维数为2p。
设图像核心像素点周围为不同规格圆形邻域系统,计算过程如下:
gp,r=[gp,r,0,gp,r,1,…gp,r,p-2,gp,r,p-1]T
其中,(i,j)表示像素点;gc表示像素灰度值;r表示圆形邻区半径;p表示区域中分布的像素数量;s(x)是符号函数;n是像素点对应的位置;gp,r,n是圆区第n个像素的灰度值;gp,r是圆区像素的灰度值;LBPp,r为原始LBP算子模式。
U值代表在LBP模式中圆周相邻的二元值变化次数,变化界定在0与1之间;
图像Iα(x,y)中心点位置设定为(x,y),旋转角度是α角,当点(x,y)旋转了α角度之后,就会形成对应点,设定为(x',y');
hI(Up(n,r))能够反映出旋转不变等价模式直方图;
hIα(Up(n,r+kmodp))=hI(Up(n,r))
对旋转不变等价模式直方图的循环位移hI(Up(n,r))第n行进行离散傅立叶变换得到向量 H(n,u),具体计算公式如下:
H(n,u)=∑hI(Up(n,r))e-i2πur/p
在离散傅立叶变换中,输入数据发生了循环位移变化,从而形成了离散傅立叶变换系数改变,若存在
h'(Up(n,r))=h(Up(n,r-k)),那么:
H'(n,u)=H(n,u)e-i2πuk/p
因此,任意1≤n1,n2≤p-1有:
其中,k=0,1,2,…,p-2,p-1;
步骤3:将提取到的LBP-HF纹理特征矩阵输入到卷积神经网络中进行样本训练。卷积神经网络主要分三个部分:输入层、隐层和输出层,其中隐层包括卷积层、池化层、全连接层、损失函数层;每一层都可以得到多个特征图,不同的特征图是通过不同卷积核提取。
步骤4:卷积神经网络利用多层卷积层对图像进行进一步的特征提取。
卷积处理过程就是对通过卷积核对图像实时加权处理,卷积的表达式如下:
s[x]=∫f(u)g(x-u)du
上面的计算公式,表达了函数经过旋转处理和平移处理之后,g的重叠部分面积;在二维图像结构中每一个像素点都是互相离散的,所以当处理这些离散信号的时候,可以将整个二维图像矩阵当成函数f,在将另一个二维矩阵g作为卷积核,表示如下公式:
s[x]=∑f[k]g[x-k]
其中的g相当于是一个滤波器,即对图像f的卷积,就是在计算机视觉中常常成为g对f 的滤波。
池化是卷积网络中一个降采样的过程;池化分为最大池化和均值池化这两种,最大池化就是选取池化区域内的最大特征值作为代表点进入特征图,均值池化即是选取平均值作为特征点进入特征图。
全连接层运用了Softmax实现了层层连接,激活函数对于卷积神经网络可以实现较好的分类处理,而连Softmax就是通过逻辑回归分析,实现的二分类推广,通过Softmax激活函数完成连接,具体计算公式如下:
上述公式中:θ表示训练参数;x表示输入数据,对样本进行逻辑回归计算,其函数公式如下表示:
Softmax函数与逻辑回归有一定关联,该函数能够解决关于分类漏掉的问题,在样本计算中能够将m 个样本进行分类,并对k个分类问题进行分析,通过训练形成了集合,可以用{(x(1),y(1)),…(x(m),y(m))},其中y(i)∈{1,2,…,k}表示,每一个输入样本,需要对其分类概率进行评估,用p(y=j/x)表示,其中在第k个概率上需要设定k维向量,设定函数公式如下:
通过代价函数的逻辑回归分析得出:
步骤5:通过分类器对表情进行识别。
本实施例中,LBP-HF特征具有较好的纹理特征提取效果和旋转不变性,将其输入到卷积神经网络中进行样本训练,让卷积神经网络自动再次进一步提取图像特征。当经过多层卷积层的特征提取后,结合LBP-HF的卷积神经网络表情识别方法相比于单纯的基于卷积神经网络的表情识别提取到的特征,在相同的卷积层下,表情特征更为丰富,表情轮廓和边缘特征更为明显。经过LBP-HF算子提取到的特征矩阵相较于原始图片的灰度矩阵大小降低了很多,所以它在卷积神经网络的训练过程中所需的时间、计算机的存储等都是减少的。
上述实施例只是为了更清楚说明本发明的技术方案做出的列举,并非对本发明的限定,本领域的普通技术人员根据本领域的公知常识对本申请技术方案的变通亦均在本申请保护范围之内,总之,上述实施例仅为列举,本申请的保护范围以所附权利要求书范围为准。
Claims (7)
1.一种基于改进的LBP算子的卷积神经网络表情识别方法,其特征在于,该方法包括以下步骤:
步骤1:输入人脸图像并进行灰度值转化和归一化尺寸的预处理;
步骤2:对图像进行LBP-HF纹理特征的提取,包括:
计算圆形邻域上的图像全局的原始模式LBP值;
步骤3:将提取到的LBP-HF纹理特征矩阵输入到卷积神经网络中进行样本训练;
步骤4:卷积神经网络利用多层卷积层对图像进行进一步的特征提取;
步骤5:通过分类器对表情进行识别,
U值代表在LBP模式中圆周相邻的二元值变化次数,变化界定在0与1之间,gc表示像素灰度值,gp,r,n是圆区第n个像素的灰度值;r表示圆形邻区半径,p表示区域中分布的像素数量,n是像素点对应的位置;
图像Iα(x,y)中心点位置设定为(x,y),旋转角度是α角,当点(x,y)旋转了α角度之后,就会形成对应点,设定为(x',y');
hI(Up(n,r))能够反映出旋转不变等价模式直方图;
hIα(Up(n,r+k mod p))=hI(Up(n,r))
对旋转不变等价模式直方图的循环位移hI(Up(n,r))第n行进行离散傅立叶变换得到向量H(n,u),具体计算公式如下:
H(n,u)=∑hI(Up(n,r))e-i2πur/p
在离散傅立叶变换中,输入数据发生了循环位移变化,从而形成了离散傅立叶变换系数改变,若存在
h'(Up(n,r))=h(Up(n,r-k)),那么:
H'(n,u)=H(n,u)e-i2πuk/p
因此,任意1≤n1,n2≤p-1有:
其中,k=0,1,2,…,p-2,p-1;
4.根据权利要求1所述的一种基于改进的LBP算子的卷积神经网络表情识别方法,其特征在于:所述步骤3中,所述卷积神经网络主要分三个部分:输入层、隐层和输出层,其中隐层包括卷积层、池化层、全连接层、损失函数层;每一层都可以得到多个特征图,不同的特征图是通过不同卷积核提取。
5.根据权利要求4所述的一种基于改进的LBP算子的卷积神经网络表情识别方法,其特征在于:所述卷积处理过程就是对通过卷积核对图像实时加权处理,卷积的表达式如下:
s[x]=∫f(u)g(x-u)du
上面的计算公式,表达了函数经过旋转处理和平移处理之后,g的重叠部分面积;在二维图像结构中每一个像素点都是互相离散的,所以当处理这些离散信号的时候,可以将整个二维图像矩阵当成函数f,在将另一个二维矩阵g作为卷积核,表示如下公式:
s[x]=∑f[k]g[x-k]
其中的g相当于是一个滤波器,即对图像f的卷积。
6.根据权利要求5所述的一种基于改进的LBP算子的卷积神经网络表情识别方法,其特征在于:池化是卷积网络中一个降采样的过程;池化分为最大池化和均值池化这两种,最大池化就是选取池化区域内的最大特征值作为代表点进入特征图,均值池化即是选取平均值作为特征点进入特征图。
7.根据权利要求6所述的一种基于改进的LBP算子的卷积神经网络表情识别方法,其特征在于:全连接层运用了Softmax实现了层层连接,激活函数对于卷积神经网络可以实现的分类处理,而连Softmax就是通过逻辑回归分析,实现的二分类推广,通过Softmax激活函数完成连接,具体计算公式如下:
上述公式中:θ表示训练参数;x表示输入数据,对样本进行逻辑回归计算,其函数公式如下表示:
Softmax函数与逻辑回归有一定关联,该函数能够解决关于分类漏掉的问题,在样本计算中能够将m个样本进行分类,并对k个分类问题进行分析,通过训练形成了集合,可以用{(x(1),y(1)),…(x(m),y(m))},其中y(i)∈{1,2,…,k}表示,每一个输入样本,需要对其分类概率进行评估,用p(y=j/x)表示,其中在第k个概率上需要设定k维向量,设定函数公式如下:
通过代价函数的逻辑回归分析得出:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010934580.7A CN112070009B (zh) | 2020-09-08 | 2020-09-08 | 基于改进的lbp算子的卷积神经网络表情识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010934580.7A CN112070009B (zh) | 2020-09-08 | 2020-09-08 | 基于改进的lbp算子的卷积神经网络表情识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112070009A CN112070009A (zh) | 2020-12-11 |
CN112070009B true CN112070009B (zh) | 2023-07-11 |
Family
ID=73664289
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010934580.7A Active CN112070009B (zh) | 2020-09-08 | 2020-09-08 | 基于改进的lbp算子的卷积神经网络表情识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112070009B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113011326B (zh) * | 2021-03-18 | 2024-08-02 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质及计算机设备 |
CN113051216B (zh) * | 2021-04-22 | 2023-07-11 | 南京工业大学 | 一种基于FPGA加速的MobileNet-SSD目标检测装置及方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107729890A (zh) * | 2017-11-30 | 2018-02-23 | 华北理工大学 | 基于lbp和深度学习的人脸识别方法 |
CN109033994A (zh) * | 2018-07-03 | 2018-12-18 | 辽宁工程技术大学 | 一种基于卷积神经网络的人脸表情识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109875579A (zh) * | 2019-02-28 | 2019-06-14 | 京东方科技集团股份有限公司 | 情绪健康管理系统和情绪健康管理方法 |
-
2020
- 2020-09-08 CN CN202010934580.7A patent/CN112070009B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107729890A (zh) * | 2017-11-30 | 2018-02-23 | 华北理工大学 | 基于lbp和深度学习的人脸识别方法 |
CN109033994A (zh) * | 2018-07-03 | 2018-12-18 | 辽宁工程技术大学 | 一种基于卷积神经网络的人脸表情识别方法 |
Non-Patent Citations (1)
Title |
---|
Local generic representation for patch uLBP-based face recognition with single training samole per subject;Taher Khadhraoui等;Multimedia Tools and Applications;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112070009A (zh) | 2020-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111680614B (zh) | 一种基于视频监控中的异常行为检测方法 | |
CN103605972B (zh) | 一种基于分块深度神经网络的非限制环境人脸验证方法 | |
Kadam et al. | Detection and localization of multiple image splicing using MobileNet V1 | |
CN108985217A (zh) | 一种基于深度空间网络的交通标志识别方法及系统 | |
Funk et al. | Beyond planar symmetry: Modeling human perception of reflection and rotation symmetries in the wild | |
CN113221655B (zh) | 基于特征空间约束的人脸欺骗检测方法 | |
Chuang et al. | Deep-learning based joint iris and sclera recognition with yolo network for identity identification | |
CN111414862A (zh) | 基于神经网络融合关键点角度变化的表情识别方法 | |
Shen et al. | In teacher we trust: Learning compressed models for pedestrian detection | |
CN109344856B (zh) | 一种基于多层判别式特征学习的脱机签名鉴别方法 | |
CN110472495B (zh) | 一种基于图形推理全局特征的深度学习人脸识别方法 | |
CN112052772A (zh) | 一种人脸遮挡检测算法 | |
CN112070009B (zh) | 基于改进的lbp算子的卷积神经网络表情识别方法 | |
CN111079514A (zh) | 一种基于clbp和卷积神经网络的人脸识别方法 | |
CN105335760A (zh) | 一种图像数字字符识别方法 | |
CN110046544A (zh) | 基于卷积神经网络的数字手势识别方法 | |
CN113763417B (zh) | 一种基于孪生网络和残差结构的目标跟踪方法 | |
CN106874942A (zh) | 一种基于正则表达式语义的目标模型快速构建方法 | |
Yu et al. | Exemplar-based recursive instance segmentation with application to plant image analysis | |
Li et al. | Fast recognition of pig faces based on improved Yolov3 | |
Yan et al. | Tongue image texture classification based on image inpainting and convolutional neural network | |
Wang | Automatic mushroom species classification model for foodborne disease prevention based on vision transformer | |
CN110969101A (zh) | 一种基于hog和特征描述子的人脸检测与跟踪方法 | |
Ammar et al. | Towards an effective approach for face recognition with DCGANs data augmentation | |
Meng et al. | Facial expression recognition algorithm based on fusion of transformed multilevel features and improved weighted voting SVM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |