CN112132253A - 3d动作识别方法、装置、计算机可读存储介质及设备 - Google Patents
3d动作识别方法、装置、计算机可读存储介质及设备 Download PDFInfo
- Publication number
- CN112132253A CN112132253A CN201910551198.5A CN201910551198A CN112132253A CN 112132253 A CN112132253 A CN 112132253A CN 201910551198 A CN201910551198 A CN 201910551198A CN 112132253 A CN112132253 A CN 112132253A
- Authority
- CN
- China
- Prior art keywords
- series
- images
- original frame
- image
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 89
- 238000003860 storage Methods 0.000 title claims abstract description 17
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 55
- 238000012549 training Methods 0.000 claims abstract description 53
- 230000009471 action Effects 0.000 claims abstract description 20
- 238000011176 pooling Methods 0.000 claims description 35
- 238000012545 processing Methods 0.000 claims description 27
- 230000015654 memory Effects 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000003909 pattern recognition Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 238000004590 computer program Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 6
- 230000007547 defect Effects 0.000 description 5
- 238000009432 framing Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 210000000857 visual cortex Anatomy 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 229910021389 graphene Inorganic materials 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种3D动作识别方法、装置、计算机可读存储介质及设备,属于模式识别领域。该方法包括:对训练集包括的视频样本进行解析,每个视频样本解析后得到一系列原始帧图像;对每个视频样本的一系列原始帧图像进行对比度增强和色彩增强,得到每个视频样本的一系列对比度增强图像和一系列色彩增强图像;使用所有视频样本的一系列原始帧图像、一系列对比度增强图像和一系列色彩增强图像对3D卷积神经网络进行训练;使用训练后的3D卷积神经网络进行3D动作识别。本发明既提高了识别性能,又缩短了识别时间。
Description
技术领域
本发明涉及模式识别领域,特别是指一种3D动作识别方法、装置、计算机可读存储介质及设备。
背景技术
现阶段用于动作识别的深度学习方法中,包括基于RGB数据训练的模型以及同时基于RGB和Flow训练的Two-stream模型。
(1)基于视频(RGB)的网络
该方法是直接以视频(或者看做是帧图像)作为输入,直接利用视频帧图的RGB信息,通过一个3D卷积神经网络(3D CNN)实现特征提取和动作识别。
基于RGB的3D CNN,单独依靠RGB信息,对于动作识别来说是单一的,视频中的运动信息不能很好的获取,从而影响整个系统的识别准确率。
(2)基于RGB与Flow的Two-stream网络
双流网络(Two-stream),是一种基于两种模态(RGB和Flow)的动作识别方法,其中光流(Flow)是一种简单实用的图像运动表达方式,是物体在三维真实世界中的运动在二维图像平面上的表达。
该方法是基于人类视觉皮层观察事物做识别的双流假设建立,人类视觉皮层包含两条路径:腹侧流,用于识别物体;背侧流,用于识别运动信息。类比人类,用于动作识别的双流网络分别建立两个深度学习网络分支,一个用于提取视频RGB特征,一个用于提取视频的Flow特征,然后将两者融合在一起,得到最终的分类结果。该方法认为,通过光流可以捕捉到视频中的运动信息。
Two-stream动作识别方法认为,通过RGB获取人体外形(appearance)信息,通过光流(Flow)获取运动信息或轨迹信息。双模态的利用保证了模型获取信息的全面性,从而提高了系统的识别性能。但通过对Flow数据的分析研究发现,光流(Flow)在动作识别中表现好的原因在于其对图像的表观不变性而非运动轨迹信息。虽然光流对RGB图会有弥补,但光流提取的过程也相当耗时,这也是光流运用中让人困扰的问题。
发明内容
为解决上述技术问题,本发明提供一种3D动作识别方法、装置、计算机可读存储介质及设备,本发明既提高了识别性能,又缩短了识别时间。
本发明提供技术方案如下:
第一方面,本发明提供一种3D动作识别方法,所述方法包括:
对训练集包括的视频样本进行解析,每个视频样本解析后得到一系列原始帧图像;
对每个视频样本的一系列原始帧图像进行对比度增强和色彩增强,得到每个视频样本的一系列对比度增强图像和一系列色彩增强图像;
使用所有视频样本的一系列原始帧图像、一系列对比度增强图像和一系列色彩增强图像对3D卷积神经网络进行训练;
使用训练后的3D卷积神经网络进行3D动作识别。
进一步的,所述色彩增强包括:
对每一幅原始帧图像,按照R、G、B三个颜色通道分别计算均值和标准差;
在所有原始帧图像上计算协方差矩阵并进行特征值分解,得到特征向量和特征值;
对每一幅原始帧图像进行PCA变换,并对主成分做一个高斯扰动,得到色彩增强图像。
进一步的,所述对比度增强包括:
对每一幅原始帧图像,将其转换为R、G、B分量图像;
对所述R、G、B分量图像做直方图均衡化处理;
将直方图均衡化处理后的R、G、B分量图像组合成RGB图像,得到对比度增强图像。
进一步的,所述使用所有视频样本的一系列原始帧图像、一系列对比度增强图像和一系列色彩增强图像对3D卷积神经网络进行训练,包括:
将每个视频样本的一系列原始帧图像、一系列对比度增强图像和一系列色彩增强图像分别保存一个训练数据,所述训练数据包括视频样本数、图像的帧数、图像的大小和通道数;
使用所有视频样本的训练数据对3D卷积神经网络进行训练。
进一步的,所述3D卷积神经网络依次包括第一卷积层、第一Max-Pooling层、第二卷积层、第三卷积层、第二Max-Pooling层、第一Inception模块、第二Inception模块、第三Max-Pooling层、第三Inception模块、第四Inception模块、第五Inception模块、第六Inception模块、第七Inception模块、第四Max-Pooling层、第八Inception模块、第九Inception模块、Avg-Pooling层、全连接层、Softmax层。
进一步的,所述第一卷积层的卷积核大小为7*7*7,步长为2;所述第一Max-Pooling层的核大小为1*3*3,步长为1,2,2;所述第二卷积层的卷积核大小为1*1*1;所述第三卷积层的卷积核大小为3*3*3;所述第二Max-Pooling层的核大小为1*3*3,步长为1,2,2;所述第三Max-Pooling层的核大小为3*3*3,步长为2;所述第四Max-Pooling层的核大小为2*2*2,步长为2;所述Avg-Pooling层的核大小为2*7*7,所述全连接层的核大小为1*1*1。
第二方面,本发明提供一种3D动作识别装置,所述装置包括:
图像获取模块,用于对训练集包括的视频样本进行解析,每个视频样本解析后得到一系列原始帧图像;
图像增强模块,用于对每个视频样本的一系列原始帧图像进行对比度增强和色彩增强,得到每个视频样本的一系列对比度增强图像和一系列色彩增强图像;
训练模块,用于使用所有视频样本的一系列原始帧图像、一系列对比度增强图像和一系列色彩增强图像对3D卷积神经网络进行训练;
识别模块,用于使用训练后的3D卷积神经网络进行3D动作识别。
进一步的,所述色彩增强包括:
第一计算单元,用于对每一幅原始帧图像,按照R、G、B三个颜色通道分别计算均值和标准差;
第二计算单元,用于在所有原始帧图像上计算协方差矩阵并进行特征值分解,得到特征向量和特征值;
变换单元,用于对每一幅原始帧图像进行PCA变换,并对主成分做一个高斯扰动,得到色彩增强图像。
进一步的,所述对比度增强包括:
转换单元,用于对每一幅原始帧图像,将其转换为R、G、B分量图像;
处理单元,用于对所述R、G、B分量图像做直方图均衡化处理;
组合单元,用于将直方图均衡化处理后的R、G、B分量图像组合成RGB图像,得到对比度增强图像。
进一步的,所述训练模块包括:
数据保存单元,用于将每个视频样本的一系列原始帧图像、一系列对比度增强图像和一系列色彩增强图像分别保存一个训练数据,所述训练数据包括视频样本数、图像的帧数、图像的大小和通道数;
训练单元,用于使用所有视频样本的训练数据对3D卷积神经网络进行训练。
进一步的,所述3D卷积神经网络依次包括第一卷积层、第一Max-Pooling层、第二卷积层、第三卷积层、第二Max-Pooling层、第一Inception模块、第二Inception模块、第三Max-Pooling层、第三Inception模块、第四Inception模块、第五Inception模块、第六Inception模块、第七Inception模块、第四Max-Pooling层、第八Inception模块、第九Inception模块、Avg-Pooling层、全连接层、Softmax层。
进一步的,所述第一卷积层的卷积核大小为7*7*7,步长为2;所述第一Max-Pooling层的核大小为1*3*3,步长为1,2,2;所述第二卷积层的卷积核大小为1*1*1;所述第三卷积层的卷积核大小为3*3*3;所述第二Max-Pooling层的核大小为1*3*3,步长为1,2,2;所述第三Max-Pooling层的核大小为3*3*3,步长为2;所述第四Max-Pooling层的核大小为2*2*2,步长为2;所述Avg-Pooling层的核大小为2*7*7,所述全连接层的核大小为1*1*1。
第三方面,本发明提供一种用于3D动作识别的计算机可读存储介质,包括用于存储处理器可执行指令的存储器,所述指令被所述处理器执行时实现前述第一方面所述3D动作识别方法的步骤。
第四方面,本发明提供一种用于3D动作识别的设备,包括至少一个处理器以及存储计算机可执行指令的存储器,所述处理器执行所述指令时实现前述第一方面所述3D动作识别方法的步骤。
本发明具有以下有益效果:
本发明通过视频分帧处理,将视频解析为原始帧图像,将原始RGB帧图片分别做对比度增强和色彩增强,实现RGB帧图的增强。最后将原始帧图像连同调整后的对比度增强图像和色彩增强图像共同作为训练数据,训练3D CNN动作识别模型。
本发明基于发明人发现的双流网络中的Flow数据对模型的益处来自于其对图像的表观不变性的事实以及Flow数据获取过程耗时的弊端,提出基于多变换RGB图的动作识别方法。通过对RGB图进行包括对比度增强和色彩增强的多种表观的调整,增加数据集的表观多样性,从而帮助3D CNN模型获取更多的表观不变性特征,增强模型的泛化能力,并且RGB图的调整过程相较于Flow数据的获取过程耗时更短。因此本发明既提高了识别性能,又缩短了识别时间。
附图说明
图1为本发明的3D动作识别方法流程图;
图2为本发明的3D卷积神经网络训练的流程图;
图3为本发明的3D卷积神经网络的结构图;
图4为本发明的Inception模块的结构图;
图5为本发明的3D动作识别装置示意图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例对本发明的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:
本发明实施例提供了一种3D动作识别方法,如图1所示,该方法包括:
步骤S100:对训练集包括的视频样本进行解析,每个视频样本解析后得到一系列原始帧图像。
本发明的3D动作识别方法,以视频为输入,通过3D卷积神经网络(3D CNN)实现特征提取和动作识别,3D卷积神经网络需要进行训练。训练时,先要构建训练集,训练集包括多个视频样本(例如是视频片段),因为3D卷积神经网络实际上是对视频中的图像帧进行处理,因此需要对视频片段进行解析,也就是分帧,来获取一系列原始帧图像(可以记为RGB_org帧图)。本发明可以以每秒25帧的帧率对视频进行解析。
步骤S200:对每个视频样本的一系列原始帧图像进行对比度增强和色彩增强,得到每个视频样本的一系列对比度增强图像和一系列色彩增强图像。
步骤S300:使用所有视频样本的一系列原始帧图像、一系列对比度增强图像和一系列色彩增强图像对3D卷积神经网络进行训练。
现有技术的基于视频(RGB)的网络模型,在得到原始帧图像后,直接以原始帧图像对3D CNN进行训练,单独依靠RGB信息,对于动作识别来说是单一的,视频中的运动信息不能很好的获取,从而影响整个系统的识别准确率。双流网络(Two-stream)的Flow数据对RGB图会有弥补,提高了系统的识别性能,但是光流提取的过程相当耗时。
发明人通过对光流(Flow)数据的分析研究发现,光流(Flow)在动作识别中表现好的原因在于其对图像的表观不变性而非运动轨迹信息。因此,本发明对原始帧图像进行包括对比度增强和色彩增强的多种表观调整,实现RGB帧图的增强,增加数据集的表观多样性,从而帮助3D CNN模型获取更多的表观不变性特征,增强模型的泛化能力。
本发明对现有技术的基于视频(RGB)的网络模型进行改进,对原始帧图像进行对比度增强和色彩增强,并将原始帧图像和对比度增强和色彩增强后的图像共同作为训练数据训练3D CNN,使得3D CNN模型获取更多的表观不变性特征,提高了模型的识别性能,达到了类似双流网络的较好的识别效果;并且对比度增强和色彩增强的处理过程较Flow数据的获取过程耗时更短。因此本发明既提高了识别性能,又缩短了识别时间。
在3D CNN训练时,基于叉熵损失,利用反向传播算法完成3D CNN模型参数的更新。优化算法可以采用动量随机梯度下降算法,动量可以设置为0.9。
步骤S400:使用训练后的3D卷积神经网络进行3D动作识别。
训练好3D CNN后,将待识别的视频进行与视频样本类似的处理(与步骤S100-S200相同,此处不再赘述),将得到的该视频样本对应的原始帧图像、对比度增强图像和色彩增强图像输入该3D CNN,得到每个动作类别的概率,完成3D动作识别。
本发明提出了一种基于多变换RGB图的3D动作识别方法。通过视频分帧处理,将视频解析为原始帧图像,将原始RGB帧图片分别做对比度增强和色彩增强,实现RGB帧图的增强。最后将原始帧图像连同调整后的对比度增强图像和色彩增强图像共同作为训练数据,训练3D CNN动作识别模型。
本发明基于发明人发现的双流网络中的Flow数据对模型的益处来自于其对图像的表观不变性的事实以及Flow数据获取过程耗时的弊端,提出基于多变换RGB图的动作识别方法。通过对RGB图进行包括对比度增强和色彩增强的多种表观的调整,增加数据集的表观多样性,从而帮助3D CNN模型获取更多的表观不变性特征,增强模型的泛化能力,并且RGB图的调整过程相较于Flow数据的获取过程耗时更短。因此本发明既提高了识别性能,又缩短了识别时间。
本发明中,色彩增强可以包括:
步骤S210:对每一幅原始帧图像,按照R、G、B三个颜色通道分别计算均值和标准差,对网络的输入数据进行规范化。
步骤S220:在所有原始帧图像上计算协方差矩阵并进行特征值分解,得到特征向量和特征值。
对网络的输入数据进行规范化后,在整个训练集上计算协方差矩阵并进行特征值分解,得到特征向量p和特征值λ。
步骤S230:对每一幅原始帧图像进行PCA变换,并对主成分做一个高斯扰动,得到色彩增强图像。
其中Ixy为原始帧图像的像素,为原始帧图像的像素的R、G、B分量,pi,λi,i=1,2,3是原始帧图像的像素3×3协方差矩阵的第i个特征向量和特征值,αi是高斯扰动,例如是随机抽取的一个满足均值为0,标准差为0.1的高斯变量。
本发明中,对比度增强可以包括:
步骤S210’:对每一幅原始帧图像,将其转换为R、G、B分量图像.
步骤S220’:对R、G、B分量图像做直方图均衡化处理。
步骤S230’:将直方图均衡化处理后的R、G、B分量图像组合成RGB图像,得到对比度增强图像,可以记为RGB_He帧图。
具体的,举例如下:
对于视频样本分帧后得到的每一幅RGB原始帧图像,记为Zrgb,是一个M×N×3的数组(其中M,N分别表示图像的高和宽,3表示通道数)。其中的每一个像素点都对应红、绿、蓝三个分量,因此Zrgb可表示为
其中Zr,Zg,Zb分别表示红色分量图像、绿色分量图像和蓝色分量图像,对于每一个分量图可以看成是灰度图像,利用直方图均衡化分别对Zr,Zg,Zb进行处理,得到增强后的三分量图像Sr,Sg,Sb,最后将Sr,Sg,Sb三个分量组合成增强后的RGB图Srgb(RGB_He帧图)。
作为本发明的一种改进,步骤S300包括:
步骤S310:将每个视频样本的一系列原始帧图像、一系列对比度增强图像和一系列色彩增强图像分别保存一个训练数据,训练数据包括视频样本数、图像的帧数、图像的大小和通道数。
举例说明如下:
对原始帧图像以及对比度增强图像和色彩增强图像分别做同样的处理:每一帧图像保持图像的纵横比并设定最小的尺寸为256像素,并将像素值规范到-1到1之间,随后进行224×224的随机剪裁。最终对于每一个视频片段将其RGB信息(RGB_org,RGB_He,RGB_pca)分别保存为一个(n,frame_num,224,224,3)大小的npy数据。其中n为batch size数,表示一次训练所选取的视频样本数量,例如n=1表示1段视频;frame_num表示这段视频的被分帧数,也就是图像(包括原始帧图像以及对比度增强图像和色彩增强图像)的帧数;两个224表示图像的高与宽,3为通道数。
步骤S320:使用所有视频样本的训练数据对3D卷积神经网络进行训练,训练方法如图2所示。
本发明的3D卷积神经网络依次包括第一卷积层、第一Max-Pooling层、第二卷积层、第三卷积层、第二Max-Pooling层、第一Inception模块、第二Inception模块、第三Max-Pooling层、第三Inception模块、第四Inception模块、第五Inception模块、第六Inception模块、第七Inception模块、第四Max-Pooling层、第八Inception模块、第九Inception模块、Avg-Pooling层、全连接层、Softmax层。
其中,第一卷积层的卷积核大小为7*7*7,步长为2;第一Max-Pooling层的核大小为1*3*3,步长为1,2,2;第二卷积层的卷积核大小为1*1*1;第三卷积层的卷积核大小为3*3*3;第二Max-Pooling层的核大小为1*3*3,步长为1,2,2;第三Max-Pooling层的核大小为3*3*3,步长为2;第四Max-Pooling层的核大小为2*2*2,步长为2;Avg-Pooling层的核大小为2*7*7,全连接层的核大小为1*1*1。
3D CNN的模型如图3所示。将经过步骤S100和S200处理后的视频(帧图)通过上述3D CNN网络逐层提取特征,在全连接层输出连接成一个一维向量,最终通过softmax层得到识别为各个类别的概率。
本发明的Inception模块一个优选的实施方式如下,如图4所示:
上一层的数据分别经过第一操作、第二操作、第三操作和第四操作后,将第一操作、第二操作、第三操作和第四操作的结果通过Concatenation进行连接,输出到下一层。其中:
第一操作包括第一卷积操作;第二操作包括依次连接的第二卷积操作和第三卷积操作;第三操作包括依次连接的第四卷积操作和第五卷积操作;第五操作包括依次连接的第六卷积操作和第七卷积操作。所述的第一卷积操作至第七卷积操作的卷积核大小均为1*1*1。
实施例2:
本发明实施例提供了一种3D动作识别装置,如图5所示,该装置包括:
图像获取模块10,用于对训练集包括的视频样本进行解析,每个视频样本解析后得到一系列原始帧图像。
图像增强模块20,用于对每个视频样本的一系列原始帧图像进行对比度增强和色彩增强,得到每个视频样本的一系列对比度增强图像和一系列色彩增强图像。
训练模块30,用于使用所有视频样本的一系列原始帧图像、一系列对比度增强图像和一系列色彩增强图像对3D卷积神经网络进行训练。
识别模块40,用于使用训练后的3D卷积神经网络进行3D动作识别。
本发明通过视频分帧处理,将视频解析为原始帧图像,将原始RGB帧图片分别做对比度增强和色彩增强,实现RGB帧图的增强。最后将原始帧图像连同调整后的对比度增强图像和色彩增强图像共同作为训练数据,训练3D CNN动作识别模型。
本发明基于发明人发现的双流网络中的Flow数据对模型的益处来自于其对图像的表观不变性的事实以及Flow数据获取过程耗时的弊端,提出基于多变换RGB图的动作识别方法。通过对RGB图进行包括对比度增强和色彩增强的多种表观的调整,增加数据集的表观多样性,从而帮助3D CNN模型获取更多的表观不变性特征,增强模型的泛化能力,并且RGB图的调整过程相较于Flow数据的获取过程耗时更短。因此本发明既提高了识别性能,又缩短了识别时间。
本发明的色彩增强可以包括:
第一计算单元,用于对每一幅原始帧图像,按照R、G、B三个颜色通道分别计算均值和标准差。
第二计算单元,用于在所有原始帧图像上计算协方差矩阵并进行特征值分解,得到特征向量和特征值。
变换单元,用于对每一幅原始帧图像进行PCA变换,并对主成分做一个高斯扰动,得到色彩增强图像。
本发明的对比度增强还可以包括:
转换单元,用于对每一幅原始帧图像,将其转换为R、G、B分量图像。
处理单元,用于对R、G、B分量图像做直方图均衡化处理。
组合单元,用于将直方图均衡化处理后的R、G、B分量图像组合成RGB图像,得到对比度增强图像。
作为本发明的一种改进,训练模块包括:
数据保存单元,用于将每个视频样本的一系列原始帧图像、一系列对比度增强图像和一系列色彩增强图像分别保存一个训练数据,训练数据包括视频样本数、图像的帧数、图像的大小和通道数。
训练单元,用于使用所有视频样本的训练数据对3D卷积神经网络进行训练。
本发明的3D卷积神经网络依次包括第一卷积层、第一Max-Pooling层、第二卷积层、第三卷积层、第二Max-Pooling层、第一Inception模块、第二Inception模块、第三Max-Pooling层、第三Inception模块、第四Inception模块、第五Inception模块、第六Inception模块、第七Inception模块、第四Max-Pooling层、第八Inception模块、第九Inception模块、Avg-Pooling层、全连接层、Softmax层。
其中,第一卷积层的卷积核大小为7*7*7,步长为2;第一Max-Pooling层的核大小为1*3*3,步长为1,2,2;第二卷积层的卷积核大小为1*1*1;第三卷积层的卷积核大小为3*3*3;第二Max-Pooling层的核大小为1*3*3,步长为1,2,2;第三Max-Pooling层的核大小为3*3*3,步长为2;第四Max-Pooling层的核大小为2*2*2,步长为2;Avg-Pooling层的核大小为2*7*7,全连接层的核大小为1*1*1。
本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,前述描述的装置和单元的具体工作过程,均可以参考上述方法实施例中的对应过程,在此不再赘述。
实施例3:
本说明书提供的上述实施例所述的方法可以通过计算机程序实现业务逻辑并记录在存储介质上,所述的存储介质可以计算机读取并执行,实现本说明书实施例1所描述方案的效果。因此,本发明还提供用于3D动作识别的计算机可读存储介质,包括用于存储处理器可执行指令的存储器,指令被处理器执行时实现包括实施例1的3D动作识别方法的步骤。
本发明通过视频分帧处理,将视频解析为原始帧图像,将原始RGB帧图片分别做对比度增强和色彩增强,实现RGB帧图的增强。最后将原始帧图像连同调整后的对比度增强图像和色彩增强图像共同作为训练数据,训练3D CNN动作识别模型。
本发明基于发明人发现的双流网络中的Flow数据对模型的益处来自于其对图像的表观不变性的事实以及Flow数据获取过程耗时的弊端,提出基于多变换RGB图的动作识别方法。通过对RGB图进行包括对比度增强和色彩增强的多种表观的调整,增加数据集的表观多样性,从而帮助3D CNN模型获取更多的表观不变性特征,增强模型的泛化能力,并且RGB图的调整过程相较于Flow数据的获取过程耗时更短。因此本发明既提高了识别性能,又缩短了识别时间。
所述存储介质可以包括用于存储信息的物理装置,通常是将信息数字化后再以利用电、磁或者光学等方式的媒体加以存储。所述存储介质有可以包括:利用电能方式存储信息的装置如,各式存储器,如RAM、ROM等;利用磁能方式存储信息的装置如,硬盘、软盘、磁带、磁芯存储器、磁泡存储器、U盘;利用光学方式存储信息的装置如,CD或DVD。当然,还有其他方式的可读存储介质,例如量子存储器、石墨烯存储器等等。
上述所述的装置根据方法实施例的描述还可以包括其他的实施方式。具体的实现方式可以参照相关方法实施例的描述,在此不作一一赘述。
实施例4:
本发明还提供一种用于3D动作识别的设备,所述的设备可以为单独的计算机,也可以包括使用了本说明书的一个或多个所述方法或一个或多个实施例装置的实际操作装置等。所述用于3D动作识别的设备可以包括至少一个处理器以及存储计算机可执行指令的存储器,处理器执行所述指令时实现上述任意一个或者多个实施例1中所述3D动作识别方法的步骤。
本发明通过视频分帧处理,将视频解析为原始帧图像,将原始RGB帧图片分别做对比度增强和色彩增强,实现RGB帧图的增强。最后将原始帧图像连同调整后的对比度增强图像和色彩增强图像共同作为训练数据,训练3D CNN动作识别模型。
本发明基于发明人发现的双流网络中的Flow数据对模型的益处来自于其对图像的表观不变性的事实以及Flow数据获取过程耗时的弊端,提出基于多变换RGB图的动作识别方法。通过对RGB图进行包括对比度增强和色彩增强的多种表观的调整,增加数据集的表观多样性,从而帮助3D CNN模型获取更多的表观不变性特征,增强模型的泛化能力,并且RGB图的调整过程相较于Flow数据的获取过程耗时更短。因此本发明既提高了识别性能,又缩短了识别时间。
上述所述的设备根据方法或者装置实施例的描述还可以包括其他的实施方式,具体的实现方式可以参照相关方法实施例的描述,在此不作一一赘述。
需要说明的是,本说明书上述所述的装置或者系统根据相关方法实施例的描述还可以包括其他的实施方式,具体的实现方式可以参照方法实施例的描述,在此不作一一赘述。本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于硬件+程序类、存储介质+程序实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、车载人机交互设备、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本说明书一个或多个时可以把各模块的功能在同一个或多个软件和/或硬件中实现,也可以将实现同一功能的模块由多个子模块或子单元的组合实现等。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内部包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书一个或多个实施例可提供为方法、系统或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书一个或多个实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本本说明书一个或多个实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本说明书的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述并不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种3D动作识别方法,其特征在于,所述方法包括:
对训练集包括的视频样本进行解析,每个视频样本解析后得到一系列原始帧图像;
对每个视频样本的一系列原始帧图像进行对比度增强和色彩增强,得到每个视频样本的一系列对比度增强图像和一系列色彩增强图像;
使用所有视频样本的一系列原始帧图像、一系列对比度增强图像和一系列色彩增强图像对3D卷积神经网络进行训练;
使用训练后的3D卷积神经网络进行3D动作识别。
2.根据权利要求1所述的3D动作识别方法,其特征在于,所述色彩增强包括:
对每一幅原始帧图像,按照R、G、B三个颜色通道分别计算均值和标准差;
在所有原始帧图像上计算协方差矩阵并进行特征值分解,得到特征向量和特征值;
对每一幅原始帧图像进行PCA变换,并对主成分做一个高斯扰动,得到色彩增强图像。
3.根据权利要求1或2所述的3D动作识别方法,其特征在于,所述对比度增强包括:
对每一幅原始帧图像,将其转换为R、G、B分量图像;
对所述R、G、B分量图像做直方图均衡化处理;
将直方图均衡化处理后的R、G、B分量图像组合成RGB图像,得到对比度增强图像。
4.根据权利要求3所述的3D动作识别方法,其特征在于,所述使用所有视频样本的一系列原始帧图像、一系列对比度增强图像和一系列色彩增强图像对3D卷积神经网络进行训练,包括:
将每个视频样本的一系列原始帧图像、一系列对比度增强图像和一系列色彩增强图像分别保存一个训练数据,所述训练数据包括视频样本数、图像的帧数、图像的大小和通道数;
使用所有视频样本的训练数据对3D卷积神经网络进行训练。
5.根据权利要求3所述的3D动作识别方法,其特征在于,所述3D卷积神经网络依次包括第一卷积层、第一Max-Pooling层、第二卷积层、第三卷积层、第二Max-Pooling层、第一Inception模块、第二Inception模块、第三Max-Pooling层、第三Inception模块、第四Inception模块、第五Inception模块、第六Inception模块、第七Inception模块、第四Max-Pooling层、第八Inception模块、第九Inception模块、Avg-Pooling层、全连接层、Softmax层。
6.一种3D动作识别装置,其特征在于,所述装置包括:
图像获取模块,用于对训练集包括的视频样本进行解析,每个视频样本解析后得到一系列原始帧图像;
图像增强模块,用于对每个视频样本的一系列原始帧图像进行对比度增强和色彩增强,得到每个视频样本的一系列对比度增强图像和一系列色彩增强图像;
训练模块,用于使用所有视频样本的一系列原始帧图像、一系列对比度增强图像和一系列色彩增强图像对3D卷积神经网络进行训练;
识别模块,用于使用训练后的3D卷积神经网络进行3D动作识别。
7.根据权利要求6所述的3D动作识别装置,其特征在于,所述色彩增强包括:
第一计算单元,用于对每一幅原始帧图像,按照R、G、B三个颜色通道分别计算均值和标准差;
第二计算单元,用于在所有原始帧图像上计算协方差矩阵并进行特征值分解,得到特征向量和特征值;
变换单元,用于对每一幅原始帧图像进行PCA变换,并对主成分做一个高斯扰动,得到色彩增强图像。
8.根据权利要求6或7所述的3D动作识别装置,其特征在于,所述对比度增强包括:
转换单元,用于对每一幅原始帧图像,将其转换为R、G、B分量图像;
处理单元,用于对所述R、G、B分量图像做直方图均衡化处理;
组合单元,用于将直方图均衡化处理后的R、G、B分量图像组合成RGB图像,得到对比度增强图像。
9.一种用于3D动作识别的计算机可读存储介质,其特征在于,包括用于存储处理器可执行指令的存储器,所述指令被所述处理器执行时实现包括权利要求1-5任一所述3D动作识别方法的步骤。
10.一种用于3D动作识别的设备,其特征在于,包括至少一个处理器以及存储计算机可执行指令的存储器,所述处理器执行所述指令时实现权利要求1-5中任意一项所述3D动作识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910551198.5A CN112132253B (zh) | 2019-06-24 | 2019-06-24 | 3d动作识别方法、装置、计算机可读存储介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910551198.5A CN112132253B (zh) | 2019-06-24 | 2019-06-24 | 3d动作识别方法、装置、计算机可读存储介质及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112132253A true CN112132253A (zh) | 2020-12-25 |
CN112132253B CN112132253B (zh) | 2024-06-11 |
Family
ID=73849949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910551198.5A Active CN112132253B (zh) | 2019-06-24 | 2019-06-24 | 3d动作识别方法、装置、计算机可读存储介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112132253B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115223250A (zh) * | 2022-09-13 | 2022-10-21 | 东莞理工学院 | 基于多尺度时空分解卷积网络的上肢康复动作识别方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170032222A1 (en) * | 2015-07-30 | 2017-02-02 | Xerox Corporation | Cross-trained convolutional neural networks using multimodal images |
CN107977682A (zh) * | 2017-12-19 | 2018-05-01 | 南京大学 | 基于极坐标变换数据增强的淋巴类细胞分类方法及其装置 |
CN108288035A (zh) * | 2018-01-11 | 2018-07-17 | 华南理工大学 | 基于深度学习的多通道图像特征融合的人体动作识别方法 |
CN108921117A (zh) * | 2018-07-11 | 2018-11-30 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN109166127A (zh) * | 2018-07-17 | 2019-01-08 | 同济大学 | 一种可穿戴式植物表型感知系统 |
CN109409222A (zh) * | 2018-09-20 | 2019-03-01 | 中国地质大学(武汉) | 一种基于移动端的多视角人脸表情识别方法 |
US20190105009A1 (en) * | 2017-10-10 | 2019-04-11 | Holo Surgical Inc. | Automated segmentation of three dimensional bony structure images |
-
2019
- 2019-06-24 CN CN201910551198.5A patent/CN112132253B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170032222A1 (en) * | 2015-07-30 | 2017-02-02 | Xerox Corporation | Cross-trained convolutional neural networks using multimodal images |
US20190105009A1 (en) * | 2017-10-10 | 2019-04-11 | Holo Surgical Inc. | Automated segmentation of three dimensional bony structure images |
CN107977682A (zh) * | 2017-12-19 | 2018-05-01 | 南京大学 | 基于极坐标变换数据增强的淋巴类细胞分类方法及其装置 |
CN108288035A (zh) * | 2018-01-11 | 2018-07-17 | 华南理工大学 | 基于深度学习的多通道图像特征融合的人体动作识别方法 |
CN108921117A (zh) * | 2018-07-11 | 2018-11-30 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN109166127A (zh) * | 2018-07-17 | 2019-01-08 | 同济大学 | 一种可穿戴式植物表型感知系统 |
CN109409222A (zh) * | 2018-09-20 | 2019-03-01 | 中国地质大学(武汉) | 一种基于移动端的多视角人脸表情识别方法 |
Non-Patent Citations (5)
Title |
---|
AGNIESZKA MIKOŁAJCZYK 等: "Data augmentation for improving deep learning in image classification problem", 《2018 INTERNATIONAL INTERDISCIPLINARY PHDWORKSHOP》》, 12 May 2018 (2018-05-12), pages 117 - 122, XP033360783, DOI: 10.1109/IIPHDW.2018.8388338 * |
ALEX KRIZHEVSKY 等: "ImageNet Classification with Deep Convolutional Neural Networks", 《COMMUNICATIONS OF THE ACM》, vol. 60, pages 84 - 90, XP055401573, DOI: 10.1145/3065386 * |
JO˜AO CARREIRA 等: "Quo Vadis, Action Recognition? A New Model and the Kinetics Dataset", 《ARXIV:1705.07750V3》, pages 1 - 10 * |
龙满生 等: "基于卷积神经网络与迁移学习的油茶病害图像识别", 《农业工程学报》, vol. 34, no. 18, 30 September 2018 (2018-09-30), pages 194 - 201 * |
龙满生 等: "基于卷积神经网络与迁移学习的油茶病害图像识别", 《农业工程学报》, vol. 34, no. 18, pages 194 - 201 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115223250A (zh) * | 2022-09-13 | 2022-10-21 | 东莞理工学院 | 基于多尺度时空分解卷积网络的上肢康复动作识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112132253B (zh) | 2024-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107273800B (zh) | 一种基于注意机制的卷积递归神经网络的动作识别方法 | |
CN109409222B (zh) | 一种基于移动端的多视角人脸表情识别方法 | |
CN109949255B (zh) | 图像重建方法及设备 | |
Kim et al. | Fully deep blind image quality predictor | |
Hara et al. | Learning spatio-temporal features with 3d residual networks for action recognition | |
Zhou et al. | Contextual ensemble network for semantic segmentation | |
WO2021043168A1 (zh) | 行人再识别网络的训练方法、行人再识别方法和装置 | |
Vig et al. | Large-scale optimization of hierarchical features for saliency prediction in natural images | |
US20190228268A1 (en) | Method and system for cell image segmentation using multi-stage convolutional neural networks | |
CN109543548A (zh) | 一种人脸识别方法、装置及存储介质 | |
Jiang et al. | Cascaded subpatch networks for effective CNNs | |
CN112236779A (zh) | 基于卷积神经网络的图像处理方法和图像处理装置 | |
Caroppo et al. | Comparison between deep learning models and traditional machine learning approaches for facial expression recognition in ageing adults | |
CN110020639B (zh) | 视频特征提取方法及相关设备 | |
Hara et al. | Towards good practice for action recognition with spatiotemporal 3d convolutions | |
CN113191489B (zh) | 二值神经网络模型的训练方法、图像处理方法和装置 | |
Tajjour et al. | A novel hybrid artificial neural network technique for the early skin cancer diagnosis using color space conversions of original images | |
CN112861718A (zh) | 一种轻量级特征融合人群计数方法及系统 | |
CN116343287A (zh) | 面部表情识别、模型训练方法、装置、设备及存储介质 | |
Abdelrazik et al. | Efficient hybrid algorithm for human action recognition | |
Salem et al. | Semantic image inpainting using self-learning encoder-decoder and adversarial loss | |
CN116863194A (zh) | 一种足溃疡图像分类方法、系统、设备及介质 | |
Bodavarapu et al. | An optimized neural network model for facial expression recognition over traditional deep neural networks | |
CN112132253B (zh) | 3d动作识别方法、装置、计算机可读存储介质及设备 | |
Kajkamhaeng et al. | SE-SqueezeNet: SqueezeNet extension with squeeze-and-excitation block |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |