CN109934158B - 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法 - Google Patents
基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法 Download PDFInfo
- Publication number
- CN109934158B CN109934158B CN201910181136.XA CN201910181136A CN109934158B CN 109934158 B CN109934158 B CN 109934158B CN 201910181136 A CN201910181136 A CN 201910181136A CN 109934158 B CN109934158 B CN 109934158B
- Authority
- CN
- China
- Prior art keywords
- frame
- expression
- training
- equal
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法,其步骤包括:1获取静态表情图片数据集和表情视频数据集,并对表情视频数据集进行预处理;2计算局部强化运动历史图LEMHI;3使用静态图片数据集预训练卷积神经网络VGG16模型;4使用LEMHI微调预训练完成的VGG16模型,得到LEMHI‑CNN模型;5将视频帧输入预训练完成的VGG16模型中提取空间特征;6将空间特征进行堆叠分片、池化后对LSTM神经网络模型进行训练,得到CNN‑LSTM模型;7将LEMHI‑CNN模型和CNN‑LSTM模型的识别结果进行加权融合即得到最终识别结果。本发明能显著提高视频情感识别率。
Description
技术领域
本发明涉及到卷积神经网络,循环神经网络和分类判别,属于模式识别领域,具体地说是一种基于双流神经网络的视频情感识别方法。
背景技术
传统的人机交互,主要通过键盘、鼠标、屏幕等方式,只追求方便和准确,无法理解和适应人们的情绪和心境。如果没有这种理解和表达情感的能力,计算机很难具有类似人一样的智能。情感识别是赋予计算机类似于人一样的观察、理解和产生各种情感特征的能力,最终使计算机能够像人一样能自然、亲切、生动地进行交流、相互。
国内外研究视频情感识别一般分为三个步骤:
(1)人脸表情图片序列截取。该步骤可以抛弃图像中无用的背景信息,使得相关研究集中到所需关注的核心区域中来。
(2)情感特征提取。使用3D卷积核提取时空特征,要想提取出时序距离更远的帧与帧之间的联系,则需要将2D卷积神经网络与循环神经网络相结合。
(3)视频情感的最终分类识别。目前常用的分类方法为在神经网络的输出层中加入Softmax层来生成最终的分类结果。
然而研究表明,针对面部表情识别、人脸检测等人脸相关问题,将原始图像作为输入,并不能很好地利用视频中的运动信息,使得网络的分类能力不高。并且由于表情视频数据集中数据量较少,很容易使得网络过拟合。
发明内容
本发明为克服现有技术的不足之处,提出一种基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法,以期能准确地识别出人的面部表情,判断出人的情感,从而能显著提高视频情感识别率,使得计算机能够像人一样能自然、亲切、生动地进行交流、相互。
本发明为解决技术问题采用如下技术方案:
本发明一种基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法的特点是按如下步骤进行:
步骤1、获取静态表情图片数据集和表情视频数据集,并对所述表情视频数据集进行预处理,得到预处理后的表情训练图片数据集,记为V={v1,v2,…,vt,…,vT},vt表示第t帧表情训练图片,且第t帧表情训练图片vt的大小为Y×Y,1≤t≤T,T表示表情图片训练数据集V内的图片总帧数;
步骤2、计算局部强化运动历史图:
步骤2.1、计算第t帧表情训练图片vt和第t+1帧表情训练图片vt+1的绝对灰度差分图像Dt;
步骤2.3、记第t帧表情训练图片vt中任意一个像素点为vt(x,y),0≤x≤Y且0≤y≤Y;计算像素点vt(x,y)与特征点窗口集合Bt中的每个特征点窗口的曼哈顿距离,并将最小曼哈顿距离记为dt(x,y);
步骤2.4、利用式(1)得到像素点vt(x,y)的特征点模板mt(x,y),从而得到第t帧表情训练图片vt的特征点模板Mt:
式(1)中,α表示阈值,β表示权值;
步骤2.5、将特征点模板Mt与绝对灰度差分图像Dt做哈达玛积计算,得到强化后的差分图像Et;
步骤2.6、采用迭代法获取强化后的差分图像Et的灰度阈值U:
步骤2.6.3、根据阈值U将差分图像Et分为前景和背景;
步骤2.6.4、分别求出前景和背景的平均灰度值;
步骤2.7、利用灰度阈值U过滤差分图像Et中未强化部分区域的运动变化,从而得到二值图像ψt,再利用式(2)更新局部强化运动历史图Ηt,从而得到局部强化运动历史图ΗT-1:
式(2)中,τ表示持续时间,δ表示衰退参数;当t=1时,
步骤3、使用静态表情图片数据集对卷积神经网络模型VGG16进行预训练,得到预训练完成的卷积神经网络模型VGG16;
步骤4、将局部强化运动历史图ΗT-1输入所述预训练完成的卷积神经网络模型VGG16中用于对网络模型进行微调,得到微调后的卷积神经网络模型VGG16及LEMHI-CNN网络的最终分类结果A;
步骤5、提取空间特征:
步骤5.1、从预处理后的表情训练图片数据集V中等间隔按序抽取Q帧表情训练图片,记为V′={v′1,v′2,…,v′q,…,v′Q},v′q表示抽取的第q帧表情训练图片,1≤q≤Q;
步骤5.2、将抽取的Q帧表情训练图片依次输入所述预训练完成的卷积神经网络模型VGG16中用于逐帧提取空间特征,从而得到Q个空间特征{F1,F2,…,Fq,…,FQ},Fq表示抽取的第q帧表情训练图片v′q的空间特征;
步骤6、空间特征的堆叠分片、池化和模型的训练:
步骤6.1、按照所设定的交叉步长ε将Q个空间特征{F1,F2,…,Fq,…,FQ}进行堆叠分片处理,得到K片空间特征矩阵,记为{J1,J2,…,Jk,…,JK},Jk表示第k片空间特征矩阵,且第k片空间特征矩阵Jk包含个空间特征;
步骤6.2、对第k片空间特征矩阵Jk进行池化操作,得到池化后的空间特征矩阵J′k;从而得到池化后的K片空间特征矩阵{J′1,J′2,…,J′k,…,J′K};
步骤6.3、将池化后的K片空间特征矩阵{J′1,J′2,…,J′k,…,J′K}按时序输入到长短期记忆网络模型LSTM中,得到CNN-LSTM网络的最终输出结果h;
步骤6.4、将最终输出结果h输入Softmax多分类器中得到最终分类结果G;
步骤7、利用式(3)对所述LEMHI-CNN网络的最终分类结果A和CNN-LSTM网络的最终分类结果G进行加权融合,得到最终识别结果I:
I=wA+(1-w)G (3)
式(3)中,w为随机搜索方法所确定的决策权值,且0≤w≤1。
与已有技术相比,本发明的有益效果体现在:
1、本发明利用人脸运动历史图像作为手工提取特征,同时结合了人脸特征点,对人脸关键部位的运动进行放大,将得到的局部强化运动历史图作为神经网络的输入进行分类,分类结果与CNN-LSTM模型的分类结果进行决策级融合,得到最终识别结果,从而显著提高了识别准确率。
2、本发明中的CNN网络VGG16使用静态表情图片数据集进行预训练,可以有效防止现有技术中由于训练数据量少以及网络过深引起的过拟合的问题,从而提高了网络的泛化能力。
3、本发明利用人脸运动历史图像作为手工提取特征,同时结合人脸特征点,对人脸关键部位的运动进行放大,将得到的局部强化运动历史图作为神经网络的输入进行分类,相比于现有技术中将原始图像作为输入,这种手工特征提取方法提取出的特征作为卷积神经网络的输入有效地提升了卷积神经网络的分类能力。
4、本发明对LEMHI-CNN和CNN-LSTM这两个网络模型的预测结果采用权重随机搜索的方法加权融合,克服了现有技术中无法很好地利用视频中的运动信息的问题,从而一方面可以有效捕捉人脸特殊部位的运动变化,另一方面可以捕捉局部强化过程中丢失的人脸非关键部位的时空特征,显著提高了神经网络的预测准确性。
附图说明
图1为本发明方法的流程图;
图2是VGG16网络的具体结构图。
具体实施方式
本实施例中,如图1所示,一种基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法,包括如下步骤:获取静态表情图片数据集和表情视频数据集,对视频进行数据扩充,并对表情视频数据集进行预处理。再计算局部强化运动历史图(LEMHI)。使用静态图片数据集预训练卷积神经网络(VGG16)模型,模型结构如图2所示;然后使用LEMHI微调预训练完成的VGG16模型,得到LEMHI-CNN模型。同时将视频帧输入预训练完成的VGG16模型中提取空间特征,并将空间特征进行堆叠分片、池化后对CNN-LSTM神经网络模型进行训练。最终将LEMHI-CNN模型和CNN-LSTM模型的识别结果进行加权融合即得到最终识别结果。本发明显著地提高了视频情感识别率。具体的说,包括如下步骤:
步骤1、获取静态表情图片数据集如JAFFE,SFEW,FER2013和表情视频数据集如AFEW,MMI和CK+,并对表情视频数据集进行预处理,得到预处理后的表情训练图片数据集,记为V={v1,v2,…,vt,…,vT},vt表示第t帧表情训练图片,且第t帧表情训练图片vt的大小为Y×Y,1≤t≤T,T表示表情图片训练数据集V内的图片总帧数;预处理具体包括:视频帧序列截取、人脸检测与对齐、将处理后的图片全部裁剪成固定大小Y*Y、数值归一化。
步骤2、计算局部强化运动历史图:
步骤2.1、计算第t帧表情训练图片vt和第t+1帧表情训练图片vt+1的绝对灰度差分图像Dt;
步骤2.3、记第t帧表情训练图片vt中任意一个像素点为vt(x,y),0≤x≤Y且0≤y≤Y;计算像素点vt(x,y)与特征点窗口集合Bt中的每个特征点窗口的曼哈顿距离,并将最小曼哈顿距离记为dt(x,y);
步骤2.4、利用式(1)得到像素点vt(x,y)的特征点模板mt(x,y),从而得到第t帧表情训练图片vt的特征点模板Mt:
式(1)中,α表示阈值,β表示权值;
步骤2.5、将特征点模板Mt与绝对灰度差分图像Dt做哈达玛积计算,得到强化后的差分图像Et;
步骤2.6、采用迭代法获取强化后的差分图像Et的灰度阈值U:
步骤2.6.3、根据阈值U将差分图像Et分为前景和背景;
步骤2.6.4、分别求出前景和背景的平均灰度值;
步骤2.7、利用灰度阈值U过滤差分图像Et中未强化部分区域的运动变化,从而得到二值图像ψt,再利用式(2)更新局部强化运动历史图Ηt,从而得到局部强化运动历史图ΗT-1:
步骤3、使用静态表情图片数据集FER2013对卷积神经网络模型VGG16进行预训练,得到预训练完成的卷积神经网络模型VGG16;
步骤4、将局部强化运动历史图ΗT-1输入预训练完成的卷积神经网络模型VGG16中用于对网络模型进行微调,本实例中锁定VGG16的前面若干层参数,在训练网络的时候只更新后面层的参数,有效地加快网络的收敛速度。在优化网络的时候只更新后面若干层的参数,这可以有效地加快网络的收敛速度。最终得到微调后的卷积神经网络模型VGG16及LEMHI-CNN网络的最终分类结果A;
步骤5、提取空间特征:
步骤5.1、从预处理后的表情训练图片数据集V中等间隔按序抽取Q帧表情训练图片,记为V′={v′1,v′2,…,v′q,…,v′Q},v′q表示抽取的第q帧表情训练图片,1≤q≤Q;
步骤5.2、将抽取的Q帧表情训练图片依次输入预训练完成的卷积神经网络模型VGG16中用于逐帧提取空间特征,从而得到Q个空间特征{F1,F2,…,Fq,…,FQ},Fq表示抽取的第q帧表情训练图片v′q的空间特征;
步骤6、空间特征的堆叠分片、池化和模型的训练:
步骤6.1、按照所设定的交叉步长ε将Q个空间特征{F1,F2,…,Fq,…,FQ}进行堆叠分片处理,得到K片空间特征矩阵,记为{J1,J2,…,Jk,…,JK},Jk表示第k片空间特征矩阵,且第k片空间特征矩阵Jk包含个空间特征;
步骤6.2、对第k片空间特征矩阵Jk进行池化操作,得到池化后的空间特征矩阵J′k;从而得到池化后的K片空间特征矩阵{J′1,J′2,…,J′k,…,J′K};
步骤6.3、将池化后的K片空间特征矩阵{J′1,J′2,…,J′k,…,J′K}按时序输入到长短期记忆网络模型LSTM中,得到CNN-LSTM网络的最终输出结果h;本实例中所选的LSTM网络结构为单层128神经元。
步骤6.4、将最终输出结果h输入Softmax多分类器中得到最终分类结果G;
步骤7、利用式(3)对LEMHI-CNN网络的最终分类结果A和CNN-LSTM网络的最终分类结果G进行加权融合,得到最终识别结果I:
I=wA+(1-w)G (3)
式(3)中,w为随机搜索方法所确定的决策权值,且0≤w≤1。具体步骤为:
步骤7.1、先在[0,1]中等间隔选取100000个值,获得使得I最大的权值w。
Claims (1)
1.一种基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法,其特征是按如下步骤进行:
步骤1、获取静态表情图片数据集和表情视频数据集,并对所述表情视频数据集进行预处理,得到预处理后的表情训练图片数据集,记为V={v1,v2,…,vt,…,vT},vt表示第t帧表情训练图片,且第t帧表情训练图片vt的大小为Y×Y,1≤t≤T,T表示表情图片训练数据集V内的图片总帧数;
步骤2、计算局部强化运动历史图:
步骤2.1、计算第t帧表情训练图片vt和第t+1帧表情训练图片vt+1的绝对灰度差分图像Dt;
步骤2.3、记第t帧表情训练图片vt中任意一个像素点为vt(x,y),0≤x≤Y且0≤y≤Y;计算像素点vt(x,y)与特征点窗口集合Bt中的每个特征点窗口的曼哈顿距离,并将最小曼哈顿距离记为dt(x,y);
步骤2.4、利用式(1)得到像素点vt(x,y)的特征点模板mt(x,y),从而得到第t帧表情训练图片vt的特征点模板Mt:
式(1)中,α表示阈值,β表示权值;
步骤2.5、将特征点模板Mt与绝对灰度差分图像Dt做哈达玛积计算,得到强化后的差分图像Et;
步骤2.6、采用迭代法获取强化后的差分图像Et的灰度阈值U:
步骤2.6.3、根据阈值U将差分图像Et分为前景和背景;
步骤2.6.4、分别求出前景和背景的平均灰度值;
步骤2.7、利用灰度阈值U过滤差分图像Et中未强化部分区域的运动变化,从而得到二值图像ψt,再利用式(2)更新局部强化运动历史图Ηt,从而得到局部强化运动历史图ΗT-1:
步骤3、使用静态表情图片数据集对卷积神经网络模型VGG16进行预训练,得到预训练完成的卷积神经网络模型VGG16;
步骤4、将局部强化运动历史图ΗT-1输入所述预训练完成的卷积神经网络模型VGG16中用于对网络模型进行微调,得到微调后的卷积神经网络模型VGG16及LEMHI-CNN网络的最终分类结果A;
步骤5、提取空间特征:
步骤5.1、从预处理后的表情训练图片数据集V中等间隔按序抽取Q帧表情训练图片,记为V′={v′1,v′2,…,v′q,…,v′Q},v′q表示抽取的第q帧表情训练图片,1≤q≤Q;
步骤5.2、将抽取的Q帧表情训练图片依次输入所述预训练完成的卷积神经网络模型VGG16中用于逐帧提取空间特征,从而得到Q个空间特征{F1,F2,…,Fq,…,FQ},Fq表示抽取的第q帧表情训练图片v′q的空间特征;
步骤6、空间特征的堆叠分片、池化和模型的训练:
步骤6.1、按照所设定的交叉步长ε将Q个空间特征{F1,F2,…,Fq,…,FQ}进行堆叠分片处理,得到K片空间特征矩阵,记为{J1,J2,…,Jk,…,JK},Jk表示第k片空间特征矩阵,且第k片空间特征矩阵Jk包含个空间特征;
步骤6.2、对第k片空间特征矩阵Jk进行池化操作,得到池化后的空间特征矩阵J′k;从而得到池化后的K片空间特征矩阵{J′1,J′2,…,J′k,…,J′K};
步骤6.3、将池化后的K片空间特征矩阵{J′1,J′2,…,J′k,…,J′K}按时序输入到长短期记忆网络模型LSTM中,得到CNN-LSTM网络的最终输出结果h;
步骤6.4、将最终输出结果h输入Softmax多分类器中得到最终分类结果G;
步骤7、利用式(3)对所述LEMHI-CNN网络的最终分类结果A和CNN-LSTM网络的最终分类结果G进行加权融合,得到最终识别结果I:
I=wA+(1-w)G (3)
式(3)中,w为随机搜索方法所确定的决策权值,且0≤w≤1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910181136.XA CN109934158B (zh) | 2019-03-11 | 2019-03-11 | 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910181136.XA CN109934158B (zh) | 2019-03-11 | 2019-03-11 | 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109934158A CN109934158A (zh) | 2019-06-25 |
CN109934158B true CN109934158B (zh) | 2020-03-17 |
Family
ID=66986701
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910181136.XA Active CN109934158B (zh) | 2019-03-11 | 2019-03-11 | 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109934158B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110852224B (zh) * | 2019-10-31 | 2023-12-08 | 科大讯飞(苏州)科技有限公司 | 一种表情识别方法及相关装置 |
CN112894101B (zh) * | 2019-12-03 | 2022-04-01 | 山东大学 | 一种基于深度学习算法的穿孔等离子弧焊接熔池状态预测方法 |
CN111079655B (zh) * | 2019-12-18 | 2022-08-16 | 航天物联网技术有限公司 | 一种基于融合神经网络的视频中人体行为识别方法 |
CN111310672A (zh) * | 2020-02-19 | 2020-06-19 | 广州数锐智能科技有限公司 | 基于时序多模型融合建模的视频情感识别方法、装置及介质 |
CN112329701A (zh) * | 2020-11-20 | 2021-02-05 | 北京联合大学 | 一种用于低分辨率图像的人脸表情识别方法 |
CN113076813B (zh) * | 2021-03-12 | 2024-04-12 | 首都医科大学宣武医院 | 面具脸特征识别模型训练方法和装置 |
CN113469112B (zh) * | 2021-07-19 | 2022-06-21 | 三门峡市乡村振兴局 | 农作物生长状况图像识别方法及系统 |
CN114424940A (zh) * | 2022-01-27 | 2022-05-03 | 山东师范大学 | 基于多模态时空特征融合的情绪识别方法及系统 |
CN114419739A (zh) * | 2022-03-31 | 2022-04-29 | 深圳市海清视讯科技有限公司 | 行为识别模型的训练方法、行为识别方法及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845415A (zh) * | 2017-01-23 | 2017-06-13 | 中国石油大学(华东) | 一种基于深度学习的行人精细化识别方法及装置 |
CN108133188A (zh) * | 2017-12-22 | 2018-06-08 | 武汉理工大学 | 一种基于运动历史图像与卷积神经网络的行为识别方法 |
CN108647625A (zh) * | 2018-05-04 | 2018-10-12 | 北京邮电大学 | 一种表情识别方法及装置 |
CN108921019A (zh) * | 2018-05-27 | 2018-11-30 | 北京工业大学 | 一种基于GEI和TripletLoss-DenseNet的步态识别方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105096528B (zh) * | 2015-08-05 | 2017-07-11 | 广州云从信息科技有限公司 | 一种疲劳驾驶检测方法及系统 |
US20180082679A1 (en) * | 2016-09-18 | 2018-03-22 | Newvoicemedia, Ltd. | Optimal human-machine conversations using emotion-enhanced natural speech using hierarchical neural networks and reinforcement learning |
CN107808113B (zh) * | 2017-09-13 | 2020-08-04 | 华中师范大学 | 一种基于差分深度特征的人脸表情识别方法及系统 |
CN108550375A (zh) * | 2018-03-14 | 2018-09-18 | 鲁东大学 | 一种基于语音信号的情感识别方法、装置和计算机设备 |
CN109214279A (zh) * | 2018-07-27 | 2019-01-15 | 东南大学 | 基于视频的在线人脸表情预检测方法及装置 |
CN109190479A (zh) * | 2018-08-04 | 2019-01-11 | 台州学院 | 一种基于混合深度学习的视频序列表情识别方法 |
-
2019
- 2019-03-11 CN CN201910181136.XA patent/CN109934158B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845415A (zh) * | 2017-01-23 | 2017-06-13 | 中国石油大学(华东) | 一种基于深度学习的行人精细化识别方法及装置 |
CN108133188A (zh) * | 2017-12-22 | 2018-06-08 | 武汉理工大学 | 一种基于运动历史图像与卷积神经网络的行为识别方法 |
CN108647625A (zh) * | 2018-05-04 | 2018-10-12 | 北京邮电大学 | 一种表情识别方法及装置 |
CN108921019A (zh) * | 2018-05-27 | 2018-11-30 | 北京工业大学 | 一种基于GEI和TripletLoss-DenseNet的步态识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109934158A (zh) | 2019-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109934158B (zh) | 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法 | |
CN108133188B (zh) | 一种基于运动历史图像与卷积神经网络的行为识别方法 | |
CN110210551B (zh) | 一种基于自适应主体敏感的视觉目标跟踪方法 | |
CN113496217B (zh) | 视频图像序列中人脸微表情识别方法 | |
CN108830157B (zh) | 基于注意力机制和3d卷积神经网络的人体行为识别方法 | |
CN108717568B (zh) | 一种基于三维卷积神经网络的图像特征提取与训练方法 | |
US20190228268A1 (en) | Method and system for cell image segmentation using multi-stage convolutional neural networks | |
CN107229914B (zh) | 一种基于深度q学习策略的手写数字识别方法 | |
CN107085704A (zh) | 基于elm自编码算法的快速人脸表情识别方法 | |
AU2018101313A4 (en) | Image recognition of dangerous tools based on deep learning | |
CN110033473A (zh) | 基于模板匹配和深度分类网络的运动目标跟踪方法 | |
CN112307714A (zh) | 一种基于双阶段深度网络的文字风格迁移方法 | |
CN106650617A (zh) | 一种基于概率潜在语义分析的行人异常识别方法 | |
CN110826056B (zh) | 一种基于注意力卷积自编码器的推荐系统攻击检测方法 | |
CN111476178A (zh) | 一种基于2d-3d cnn的微表情识别方法 | |
CN106886798A (zh) | 基于矩阵变量的高斯分布受限玻尔兹曼机的图像识别方法 | |
CN110598737B (zh) | 一种深度学习模型的在线学习方法、装置、设备及介质 | |
CN112883931A (zh) | 基于长短期记忆网络的实时真假运动判断方法 | |
CN112766021A (zh) | 一种基于行人的关键点信息与语义分割信息进行行人重识别的方法 | |
CN110991554B (zh) | 一种基于改进pca的深度网络图像分类方法 | |
Lee et al. | Face and facial expressions recognition system for blind people using ResNet50 architecture and CNN | |
CN111160327B (zh) | 一种基于轻量化卷积神经网络的表情识别方法 | |
CN116884067B (zh) | 一种基于改进的隐式语义数据增强的微表情识别方法 | |
CN117830835A (zh) | 一种基于深度学习的卫星遥感图像分割方法 | |
CN107085700A (zh) | 一种基于稀疏表示与单隐层神经网络技术相结合的人脸识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |