CN112883941A - 一种基于并行神经网络的人脸表情识别方法 - Google Patents
一种基于并行神经网络的人脸表情识别方法 Download PDFInfo
- Publication number
- CN112883941A CN112883941A CN202110412784.9A CN202110412784A CN112883941A CN 112883941 A CN112883941 A CN 112883941A CN 202110412784 A CN202110412784 A CN 202110412784A CN 112883941 A CN112883941 A CN 112883941A
- Authority
- CN
- China
- Prior art keywords
- neural network
- features
- layer
- image
- facial expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请涉及一种基于并行神经网络的人脸表情识别方法,包括:人脸检测,获取人脸图像;将人脸图像直方图均衡化处理;提取CS‑LBP局部纹理特征;利用并行神经网络分别进行特征提取;提取的特征送入两层全连接层进行降维;采用加权融合的方法融合特征;送入softmax层进行分类,输出人脸表情。本方法采用并行神经网络架构,充分利用图像的CS‑LBP局部纹理特征,在卷积神经网络中嵌入注意力机制,自动聚焦网络感兴趣的特征区域,抑制无用特征,提高了特征提取的效率。在训练过程中采用隔离损失函数,减小同一类的特征的差异,增大不同类之间特征的空间分布,增强神经网络所提取特征的判别性。
Description
技术领域
本发明涉及一种人脸表情识别方法,属于图像识别领域。
背景技术
人脸表情识别是计算机视觉领域的研究热点,在通信工程,医疗卫生,安全驾驶,社会情感分析等多个领域都显示出了广泛的应用前景。当前的人脸表情识别算法主要是基于传统方法和基于深度学习方法。传统的人脸特征提取算法主要有主成分分析(PrincipalComponent Analysis,PCA)、尺度不变特征变换(Scale-Invariant FeatureTransformation,SIFT)、局部二值模式(Local Binary Patterns,LBP)、Gabor小波变换以及方向梯度直方图(Histogram OfGradient,HOG)等,分类算法主要有支持向量机(SupportVectorMachine,SVM)、K近邻等,随着人工智能技术越来越成熟,深度学习方法在图像识别领域大放异彩,深度神经网络(Deep neural network,DNN)被应用于表情识别并取得了较好的成绩。
然而目前的表情识别方法易受到图片噪声和人为干扰因素的影响造成识别正确率欠佳,而且单通道的神经网络从图像全局出发,容易忽略图像局部特征,造成特征损失的问题,稳定性较差。
发明内容
本发明要解决的技术问题是人脸表情识别过程中单一通道卷积神经网络特征损失的问题,提出了一种基于并行神经网络的人脸表情识别方法。
为了达到上述目的,本发明采用的技术方案是:
S1、对待识别的图像进行人脸检测,获取人脸区域;
S2、对获取的人脸图像做直方图均衡化处理;
S3、提取人脸图像的CS-LBP局部纹理特征;
S4、利用并行神经网络分别对步骤S2和步骤S3获取的图进行特征提取,加入网络注意力机制聚焦有用特征,剔除无效特征;
S5、将步骤S4获取的特征送入两层全连接层进行降维;
S6、将步骤S5中降维后的特征采用加权融合的方式融合成新的特征;
S7、将步骤S6中的新特征送入全连接层利用Softmax激活函数对其进行分类,输出表情。
进一步的,所述步骤S1中人脸检测获取人脸区域采用MTCNN网络模型,其具体方法包括:
S11、将图像进行“金字塔”变换,以解决目标多尺度问题。
S12、将步骤S11中获取的“图片金字塔”输入到卷积神经网络P-net中,得到大量的候选区域。
S13、将步骤S12中经过P-net筛选出来的照片送入较复杂的卷积神经网络R-net中进行精调,对P-net产生的多张人脸区域进行细化选择,并且舍去大部分的错误输入,提高人脸区域的可信度。
S14、将步骤S13中的候选区域输入到神经网路O-net中继续筛选,输出准确的bbox坐标和landmark坐标,获取准确的人脸区域。
进一步的,所述步骤S2中图像直方图均衡化处理的具体方法是:统计直方图每个灰度级出现的次数,累计归一化的直方图,利用映射关系计算新的像素值,处理后的图像灰度范围变大,图像对比度增强。
进一步的,所述步骤S3中CS-LBP的具体内容是:
CS-LBP是一种描述图像局部纹理特征的算子,该算子对光照变化与轮廓模糊具有一定的鲁棒性,还可以表达图像局部纹理的空间结构,计算复杂度低且抗噪声能力强,并且能够准确无误的描述图像中每一点与其相邻点在灰度值上的大小关系。CS-LBP局部纹理特征是通过使用图像对角位置像素对进行编码其计算过程如下:
式中:g(pi,pi+(N/2))计算公式是通过使用像素值做差值,对差值取绝对值后判断与阈值t的大小关系进行计算如下所示:
进一步的,所述步骤S4包括:
S41、将步骤S2中直方图均衡化后的人脸图像X=(x1,x2,...,xn)送入基于网络注意力机制的卷积神经网络CNN1中,经过若干层卷积运算和最大池化运算之后,获得相应的特征fH=(fH 1,fH 2,...,fH m),其中卷积运算过程如下所示:
其中,CBAM为网络注意力机制;L为当前层;L-1为前一层;表示当前层的第j个特征区域;表示前一层第i个特征区域;K表示两个区域的卷积核;当前层第j个特征区域的偏置;Mj为当前层特征区域的数量;f(.)为激活函数。
S42、将步骤S3获取的CS-LBP特征图X'=(x'1,x'2,...,x'n)送入基于注意力机制的卷积神经网络CNN2中,经过若干层卷积运算和最大池化运算之后获取到相应的局部特征fL=(fL 1,fL 2,...,fL k);
进一步的,步骤S5中降维的具体方法为:
全连接层各层结构如下所示:
fc1-1={s1,s2,...,s500}
fc1-2={s1,s2,...,s6}
S52、将步骤S4中提取到的特征向量fL输入到两层全连接层fc2-1和fc2-2中进行降维,各层结构如下所示:
fc2-1={l1,l2,...,l500}
fc2-2={l1,l2,...,l6}
进一步的,所述步骤S6具体为:
当k取0或1的时候表示只有一个单通道的网络。
进一步的,所述步骤S7中Softmax激活函数分类过程如下所示:
其中,Z是上一层的输出,Softmax的输入,维度为C,yi为某一类别的概率值,i的取值代表了类别数。
本发明的先进点在于:
1、本发明采用双通道并行神经网络的方法提取特征,直方图均衡化后的图像用于提取全局特征,CS-LBP局部纹理特征图用于提取图像局部特征,然后采用加权融合的方式,将局部特征和全局特征有效融合,获取更有效的特征信息。
2、在卷积神经网络中引入注意力机制,在特征提取的过程中自动聚焦网络感兴趣的特征区域,抑制无用特征,提高了特征提取的效率。
3、采用新的损失函数—隔离损失,隔离损失不仅能减小同一类的特征的差异,而且能够增大不同类之间特征的空间分布,增强神经网络所提取特征的判别性。
附图说明
图1为基于并行神经网络的人脸表情识别方法流程图。
图2为图像直方图均衡化后的特征提取网络结构示意图。
图3为CS-LBP特征图特征提取网络结构示意图。
图4为并行神经网络整体结构图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1,
参见图1-图4,本实施例1提供了一种基于并行神经网络的人脸表情识别方法,
包括如下步骤:
S1、对待识别的图像进行人脸检测,获取人脸区域;
步骤S1中待识别的图像使用国际中一些人脸表情公开数据集,比如FER2013,CK+,和Jaffe等,或者采用摄像头获取图像,并将图片用于人脸检测和分割,具体步骤为:
S11、将图像进行“金字塔”变换,以解决目标多尺度问题。
S12、将步骤S11中获取的“图片金字塔”输入到卷积神经网络P-net中,得到大量的候选区域。
S13、将步骤S12中经过P-net筛选出来的照片送入较复杂的卷积神经网络R-net中进行精调,对P-net产生的多张人脸区域进行细化选择,并且舍去大部分的错误输入,提高人脸区域的可信度。
S14、将步骤S13中的候选区域输入到神经网路O-net中继续筛选,输出准确的bbox坐标和landmark坐标,获取准确的人脸区域。
具体的说,S1步骤是从人脸表情数据库,或者摄像头获取图像,然后使用MTCNN网络对图像进行人脸检测,筛选出可信度最高的人脸区域,去除图像中背景的干扰,最终获取大小为64*64的人脸灰度图。
S2、对获取的人脸图像做直方图均衡化处理;
具体的说,图像的直方图均衡化的方法是:统计直方图每个灰度级出现的次数,累计归一化的直方图,利用映射关系计算新的像素值,对在图像中像素个数多的灰度值(即对画面起主要作用的灰度值)进行展宽,而对像素个数少的灰度值(即对画面不起主要作用的灰度值)进行归并,从而增大对比度,达到使图像清晰的效果。
S3、提取人脸图像的CS-LBP局部纹理特征;
步骤S3中CS-LBP局部纹理特征是通过使用图像对角位置像素对其进行编码,其计算过程如下:
式中:g(pi,pi+(N/2))计算公式是通过使用像素值做差值,对差值取绝对值后判断与阈值t的大小关系进行计算如下所示:
具体的说,步骤S3计算了图像的CS-LBP局部纹理特征,CS-LBP是一种描述图像局部纹理特征的算子,该算子对光照变化与轮廓模糊具有一定的鲁棒性,还可以表达图像局部纹理的空间结构,计算复杂度低且抗噪声能力强,并且能够准确无误的描述图像中每一点与其相邻点在灰度值上的大小关系。最终获得大小为64*64的CS-LBP的特征图。
S4、利用并行神经网络分别对步骤S2和步骤S3获取的图进行特征提取,加入网络注意力机制聚焦有用特征,剔除无效特征;
步骤S4具体包括:
S41、将步骤S2中直方图均衡化后的人脸图像X=(x1,x2,...,xn)送入基于网络注意力机制的卷积神经网络CNN1中,经过卷积运算和最大池化运算之后,获取相应的全局特征fH=(fH 1,fH 2,...,fH m),其中卷积运算过程如下所示:
其中,CBAM为网络注意力机制;L为当前层;L-1为前一层;表示当前层的第j个特征区域;表示前一层第i个特征区域;K表示两个区域的卷积核;当前层第j个特征区域的偏置;Mj为当前层特征区域的数量;f(.)为激活函数。
参见图2,CNN1的网络的具体结构为:第一层为两个卷积核大小为3*3,通道为64的卷积层,后接一个最大池化层;第二层为两个卷积核大小为3*3,通道为128的卷积层,后接一个最大池化层;第三层为四个卷积核大小为3*3,通道为256的卷积层,后接一个最大池化层;第四层为四个卷积核大小为3*3,通道为256的卷积层,后接一个最大池化层;第五层为四个卷积核大小为3*3,通道为512的卷积层,后接一个最大池化层;最后接入两层全连接层,节点数分别是500和6,在全连接层加入Dropout预防过拟合,设置Dropout值为0.5。
S42、将步骤S3获取的CS-LBP特征图X'=(x'1,x'2,...,x'n)送入基于注意力机制的卷积神经网络CNN2中,采用较小卷积核提取局部特征,经过若干层卷积运算和最大池化运算之后获取到相应的局部特征fL=(fL 1,fL 2,...,fL k);
参见图3,CNN2的网络的具体结构为:第一层是一个卷积核大小为5*5的卷积层,后接一个最大池化层;第二层是卷积核大小为3*3的卷积层,后接一个最大池化层;第3层是卷积核为3*3的卷积层,后接一个最大池化层;特征提取完毕后送入展平层,最后接入两层全连接层节点数分别是500和6,在全连接层加入Dropout预防过拟合,设置Dropout值为0.5。
S5、将步骤S4获取的特征送入两层全连接层进行降维;
步骤S5具体包括:
各层结构如下所示:
fc1-1={s1,s2,...,s500}
fc1-2={s1,s2,...,s6}
S52、将步骤S4中提取到的特征向量fL输入到来两层全连接层fc2-1和fc2-2进行降维,各层结构如下所示:
fc2-1={l1,l2,...,l500}
fc2-2={l1,l2,...,l6}
具体的说,将CNN1和CNN2输出的特征分别降为和输出相同维度的特征,为特征融合做准备。
S6、将步骤S5中降维后的特征利用加权融合的方式融合成新的特征;
当k取0或1的时候表示只有一个单通道的网络。
加权融合的好处就是可以调节不同神经网络输出特征的比例,通过大量实验寻找k的最佳取值,为0.6。
S7、将步骤S6中的新特征送入全连接层利用Softmax激活函数对其进行分类,输出表情;
所述步骤S7中Softmax激活函数分类过程如下所示:
其中,Z是上一层的输出,Softmax的输入,维度为C,yi为某一类别的概率值,i的取值代表了类别数,此处将表情分为6类,分别是生气(anger)、厌恶(disgust)、恐惧(fear)、开心(happy)、伤心(sad)、惊讶(surprised),最后的分类结果为输出最大概率值的神经元节点所对应的类别。
本发明未详述之处,均为本领域技术人员的公知技术。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (8)
1.一种基于并行神经网络的人脸表情识别方法,其特征在于,包括以下几个步骤:
S1、对待识别的图像进行人脸检测,获取人脸区域;
S2、对获取的人脸图像做直方图均衡化处理;
S3、提取人脸图像的CS-LBP局部纹理特征;
S4、利用并行神经网络分别对步骤S2和步骤S3获取的图进行特征提取,加入网络注意力机制聚焦有用特征,剔除无效特征;
S5、将步骤S4获取的特征送入两层全连接层进行降维;
S6、将步骤S5中降维后的特征利用加权融合的方式融合成新的特征;
S7、将步骤S6中的新特征送入全连接层利用Softmax激活函数对其进行分类,输出表情。
2.根据权利要求1所述的基于并行神经网络的人脸表情识别方法,其特征在于,所述步骤S1包括:
S11、将图像进行“金字塔”变换,以解决目标多尺度问题。
S12、将步骤S11中获取的“图片金字塔”输入到卷积神经网络P-net中,得到大量的候选区域。
S13、将步骤S12中经过P-net筛选出来的照片送入较复杂的卷积神经网络R-net中进行精调,对P-net产生的多张人脸区域进行细化选择,并且舍去大部分的错误输入,提高人脸区域的可信度。
S14、将步骤S13中的候选区域输入到神经网路O-net中继续筛选,输出准确的bbox坐标和landmark坐标,获取准确的人脸区域。
3.根据权利要求2所述的基于并行神经网络的人脸表情识别方法,其特征在于,在所述步骤S2中,统计直方图每个灰度级出现的次数,累计归一化的直方图,利用映射关系计算新的像素值,对在图像中像素个数多的灰度值进行展宽,而对像素个数少的灰度值进行归并,获取更清晰的图像。
5.根据权利要求4所述的基于并行神经网络的人脸表情识别方法,其特征在于,在所述步骤S4包括:
S41、将步骤S2中直方图均衡化后的人脸图像X=(x1,x2,...,xn)送入基于网络注意力机制的卷积神经网络CNN1中,经过若干层卷积运算和最大池化运算之后,获取相应的全局特征fH=(fH 1,fH 2,...,fH m),其中卷积运算过程如下所示:
其中,CBAM为网络注意力机制;L为当前层;L-1为前一层;表示当前层的第j个特征区域;表示前一层第i个特征区域;K表示两个区域的卷积核;当前层第j个特征区域的偏置;Mj为当前层特征区域的数量;f(.)为激活函数。
S42、将步骤S3获取的CS-LBP特征图X'=(x'1,x'2,...,x'n)送入基于注意力机制的卷积神经网络CNN2中,经过若干层卷积运算和最大池化运算之后获取到相应的局部特征fL=(fL 1,fL 2,...,fL k);
6.根据权利要求5所述的基于并行神经网络的人脸表情识别方法,其特征在于,在所述步骤S5包括:
各层结构如下所示:
fc1-1={s1,s2,...,s500}
fc1-2={s1,s2,...,s6}
S52、将步骤S4中提取到的特征向量fL输入到来两层全连接层fc2-1和fc2-2进行降维,各层结构如下所示:
fc2-1={l1,l2,...,l500}
fc2-2={l1,l2,...,l6}
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110412784.9A CN112883941A (zh) | 2021-04-16 | 2021-04-16 | 一种基于并行神经网络的人脸表情识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110412784.9A CN112883941A (zh) | 2021-04-16 | 2021-04-16 | 一种基于并行神经网络的人脸表情识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112883941A true CN112883941A (zh) | 2021-06-01 |
Family
ID=76040657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110412784.9A Pending CN112883941A (zh) | 2021-04-16 | 2021-04-16 | 一种基于并行神经网络的人脸表情识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112883941A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221842A (zh) * | 2021-06-04 | 2021-08-06 | 第六镜科技(北京)有限公司 | 模型训练方法、图像识别方法、装置、设备及介质 |
CN113435315A (zh) * | 2021-06-25 | 2021-09-24 | 哈尔滨理工大学 | 一种基于双路神经网络特征聚合的表情识别方法 |
CN113743402A (zh) * | 2021-08-31 | 2021-12-03 | 华动泰越科技有限责任公司 | 狗脸检测方法及装置 |
CN113762143A (zh) * | 2021-09-05 | 2021-12-07 | 东南大学 | 一种基于特征融合的遥感图像烟探测方法 |
CN113869981A (zh) * | 2021-09-29 | 2021-12-31 | 平安银行股份有限公司 | 线下产品推荐方法、装置、设备及可读存储介质 |
CN116030276A (zh) * | 2023-03-29 | 2023-04-28 | 东莞市永惟实业有限公司 | 一种印刷图像识别系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344693A (zh) * | 2018-08-13 | 2019-02-15 | 华南理工大学 | 一种基于深度学习的人脸多区域融合表情识别方法 |
CN109522818A (zh) * | 2018-10-29 | 2019-03-26 | 中国科学院深圳先进技术研究院 | 一种表情识别的方法、装置、终端设备及存储介质 |
CN109815924A (zh) * | 2019-01-29 | 2019-05-28 | 成都旷视金智科技有限公司 | 表情识别方法、装置及系统 |
CN110287846A (zh) * | 2019-06-19 | 2019-09-27 | 南京云智控产业技术研究院有限公司 | 一种基于注意力机制的人脸关键点检测方法 |
CN112597873A (zh) * | 2020-12-18 | 2021-04-02 | 南京邮电大学 | 一种基于深度学习的双通道人脸表情识别方法 |
-
2021
- 2021-04-16 CN CN202110412784.9A patent/CN112883941A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344693A (zh) * | 2018-08-13 | 2019-02-15 | 华南理工大学 | 一种基于深度学习的人脸多区域融合表情识别方法 |
CN109522818A (zh) * | 2018-10-29 | 2019-03-26 | 中国科学院深圳先进技术研究院 | 一种表情识别的方法、装置、终端设备及存储介质 |
CN109815924A (zh) * | 2019-01-29 | 2019-05-28 | 成都旷视金智科技有限公司 | 表情识别方法、装置及系统 |
CN110287846A (zh) * | 2019-06-19 | 2019-09-27 | 南京云智控产业技术研究院有限公司 | 一种基于注意力机制的人脸关键点检测方法 |
CN112597873A (zh) * | 2020-12-18 | 2021-04-02 | 南京邮电大学 | 一种基于深度学习的双通道人脸表情识别方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221842A (zh) * | 2021-06-04 | 2021-08-06 | 第六镜科技(北京)有限公司 | 模型训练方法、图像识别方法、装置、设备及介质 |
CN113221842B (zh) * | 2021-06-04 | 2023-12-29 | 第六镜科技(北京)集团有限责任公司 | 模型训练方法、图像识别方法、装置、设备及介质 |
CN113435315A (zh) * | 2021-06-25 | 2021-09-24 | 哈尔滨理工大学 | 一种基于双路神经网络特征聚合的表情识别方法 |
CN113743402A (zh) * | 2021-08-31 | 2021-12-03 | 华动泰越科技有限责任公司 | 狗脸检测方法及装置 |
CN113762143A (zh) * | 2021-09-05 | 2021-12-07 | 东南大学 | 一种基于特征融合的遥感图像烟探测方法 |
CN113869981A (zh) * | 2021-09-29 | 2021-12-31 | 平安银行股份有限公司 | 线下产品推荐方法、装置、设备及可读存储介质 |
CN116030276A (zh) * | 2023-03-29 | 2023-04-28 | 东莞市永惟实业有限公司 | 一种印刷图像识别系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112883941A (zh) | 一种基于并行神经网络的人脸表情识别方法 | |
Kim et al. | Efficient facial expression recognition algorithm based on hierarchical deep neural network structure | |
CN108460356B (zh) | 一种基于监控系统的人脸图像自动处理系统 | |
CN106529447B (zh) | 一种小样本人脸识别方法 | |
CN106845478B (zh) | 一种字符置信度的二次车牌识别方法及装置 | |
Anagnostopoulos et al. | License plate recognition from still images and video sequences: A survey | |
CN112560831B (zh) | 一种基于多尺度空间校正的行人属性识别方法 | |
CN110097050B (zh) | 行人检测方法、装置、计算机设备及存储介质 | |
CN110929593A (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
CN113592894B (zh) | 一种基于边界框和同现特征预测的图像分割方法 | |
Yang et al. | Facial expression recognition based on dual-feature fusion and improved random forest classifier | |
CN107818299A (zh) | 基于融合hog特征和深度信念网络的人脸识别算法 | |
CN113763417B (zh) | 一种基于孪生网络和残差结构的目标跟踪方法 | |
CN111274987A (zh) | 人脸表情识别方法及人脸表情识别装置 | |
CN112597873A (zh) | 一种基于深度学习的双通道人脸表情识别方法 | |
CN113435315A (zh) | 一种基于双路神经网络特征聚合的表情识别方法 | |
CN111209873A (zh) | 一种基于深度学习的高精度人脸关键点定位方法及系统 | |
CN110910497B (zh) | 实现增强现实地图的方法和系统 | |
Deeksha et al. | Classification of Brain Tumor and its types using Convolutional Neural Network | |
CN112016592B (zh) | 基于交叉领域类别感知的领域适应语义分割方法及装置 | |
Gupta et al. | Real‐Time Gender Recognition for Juvenile and Adult Faces | |
CN116452888A (zh) | 一种基于迁移学习的小样本目标检测系统及检测方法 | |
Tarek et al. | Eye Detection-Based Deep Belief Neural Networks and Speeded-Up Robust Feature Algorithm. | |
CN113642383A (zh) | 一种基于联合损失多特征融合的人脸表情识别方法 | |
Nguyen et al. | LAWNet: A lightweight attention-based deep learning model for wrist vein verification in smartphones using RGB images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210601 |