CN104281853B - 一种基于3d卷积神经网络的行为识别方法 - Google Patents
一种基于3d卷积神经网络的行为识别方法 Download PDFInfo
- Publication number
- CN104281853B CN104281853B CN201410444276.9A CN201410444276A CN104281853B CN 104281853 B CN104281853 B CN 104281853B CN 201410444276 A CN201410444276 A CN 201410444276A CN 104281853 B CN104281853 B CN 104281853B
- Authority
- CN
- China
- Prior art keywords
- layer
- feature map
- video
- output
- gabor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
该发明公开了一种基于3D卷积神经网络的行为识别方法,涉及机器学习、特征匹配、模式识别和视频图像处理的领域。该方法分为两个阶段:首先是离线训练,通过输入各种行为的样本视频,经过计算得到不同输出,每种输出对应一类行为,再根据输出向量和标签向量之间的误差修正计算过程中参数使各输出数据误差下降,误差满足要求之后,对各输出根据其对应的样本视频的行为名称添加标签;其次进行在线识别,输入需要行为识别的视频,采用与训练阶段相同的方法进行计算后输出,再将该输出和添加标签的样本向量进行匹配,将与之最匹配的样本标签名称视为该输入视频的行为名称,从而具有复杂度低、计算量小、实时性高、准确度高的效果。
Description
技术领域
本发明涉及计算机视觉领域,特别是涉及机器学习、特征匹配、模式识别和视频图像处理的方法。
背景技术
用计算机进行行为识别是从包含人的视频或图像序列中对人的行为进行理解和描述,属于图像分析和理解的范畴。自动检测人以及理解人的行为的能力是智能视频系统的核心功能。在最近几年,由于社会的需要,包括工业安全、交换接口、游戏等,人们对人的行为识别的兴趣不断增加。人的行为识别的研究内容十分丰富,主要涉及到模式识别与机器学习、图像处理、人工智能等学科知识。下面描述行为识别使用的三种现有主流技术方案。
A.底层特征和时空兴趣点(spatio-temporal interest points)
行为识别通常的方法包括稠密光流(dense optical flow)和时空兴趣点(STIPs)。STIPs是Harris角点检测的时空变体,它是在时域和空间域都高强度变化的区域。稠密光流已经也应用在行为识别。比如稠密光流轨迹,可以对运动的视频分割前景和背景。稠密轨迹对无规则断裂的运动比较健壮,在捕获复杂的运动模式比较精确。但特征提取复杂,时间复杂度高,难以满足实时性的要求。
B.轮廓
使用轮廓来分类假设了人的运动能作为一个身体姿势的连续过程来表示。这个方法主要基于背景减除,行为描述子从一系列的轮廓中被抽取出来。一个通常的方法是累积轮廓来产生运动能量图(MEI)以及运动历史图(MHI)。在MEI和MHI中抽取Hu矩作为描述子,运动分类基于每个已知行为和待分类的行为的矩描述子的马氏距离,该方法对稍微复杂的运动类型分辨能力低。
C.中层和高层表示
在更高的层次,使用中高层的特征来进行行为识别,例如长时间跟踪的轨迹和语义。一种方法是用运动轨迹来定位事件发生的位置。轨迹是被类聚的,分析类的属性来分类行为。另一种方法是用storyline来描述行为之间偶然的关系,与或图(AND-OR graphs)用来作为表示storyline模型的机制,对短时简单的动作缺乏分类能力。
发明内容
本发明针对背景技术的不足之处改进设计了一种基于3D卷积神经网络的行为识别方法,该方法对传统的卷积神经网络(CNN)做了3D扩展,结合Gabor滤波器和视频的光流信息,避免过拟合,从而达到复杂度低、计算量小、实时性高、准确度高的目的。
本发明的技术方案是一种基于3D卷积神经网络的行为识别方法,该方法分为两个阶段:离线训练阶段和在线识别阶段,通过对含n类标签的样本进行训练,获得合适的网络参数,再用该神经网络对视频里的行为进行识别。首先是离线训练,通过输入各种行为的样本视频,经过计算得到不同输出,每种输出对应一类行为,再根据输出向量和标签向量之间的误差修改计算过程中参数使各输出数据误差下降,误差满足要求之后,训练完毕,最后对各输出根据其对应的样本视频的行为名称添加标签;其次进行在线识别,输入需要行为识别的视频,采用与训练阶段相同的方法进行计算后输出,再将该输出和添加标签的样本向量进行匹配,将与之最匹配的样本标签名称视为该输入视频的行为名称,从而实现发明目的,因而该方法包括:
(一)离线训练
步骤1:首先进行神经网络的训练,输入样本视频,并对该样本视频进行灰度化等预处理处理;
步骤2:在第一层设置5~9个通道,这些通道包括:1个灰度通道、2~6个Gabor通道、2个光流通道,其中灰度通道包含视频的灰度图像,Gabor通道是灰度化处理后的视频通过不同的Gabor滤波器得到的不同响应;
步骤3:对第一层的每个通道采用尺寸小于原视频的2个或3个不同的3D卷积核进行3D卷积,得到含有2倍或3倍于通道数量的特征map,为第二层;
步骤4:对第二层各特征map在空间域上进行采样单元为2×2或3×3的下采样,时间域上进行采样单元为2的下采样,得到数量相同但时空分辨率减小的特征map,为第三层;
步骤5:对第三层的每个特征map采用尺寸小于该层特征map的2个或3个不同的3D卷积核进行3D卷积,得到含有2倍或3倍于第三层特征map的第四层特征map;
步骤6:对第四层各特征map在空间域上进行采样单元为2×2或3×3的下采样,时间域上进行采样单元为2的下采样,得到数量相同但时空分辨率减小的特征map,为第五层;
步骤7:第六层为100~150个尺寸为1×1的特征map,每个特征map与第五层的所有特征map全连接;
步骤8:第七层为输出层,包含n个输出节点,对应n种分类行为(标签),每个节点与第六层所有特征map全连接;
步骤9:通过BP算法(反向传播算法)对各层之间的计算参数进行调整,使得每个样本的输出与标签之间的误差下降,当误差满足要求后,训练完毕,再对各输出向量根据其对应的样本视频行为名称设置标签;
(二)在线识别
步骤10:对欲视频进行识别,输入需要识别的视频,并对该视频进行灰度化等预处理,采用与步骤2~步骤8的方法对输出视频进行处理,得到输出向量;
步骤11:将步骤10的输出向量与各标签定义的向量进行匹配,找到与之最匹配的标签向量,该标签向量的行为名称为输入视频的行为名称。
其中所述步骤2中设置7个通道,包括:1各灰度通道、4个Gabor通道、2个光流通道,其中4个Gabor通道分别为灰度化视频通过四个不同Gabor滤波器得到的不同响应,这四个Gabor滤波器的Gabor核分别为:方向水平和小尺度、方向垂直和小尺度、方向水平和大尺度、方向垂直和大尺度。
所述步骤7中第六层设置128个个尺寸为1×1的特征map,每个特征map与第五层的所有特征map全连接;
本发明一种基于3D卷积神经网络的行为识别方法,该方法对传统的卷积神经网络做了3D扩展,结合Gabor滤波器和视频的光流信息,避免过拟合,而且对空间域和时间域的同时下采样,使得在时间和空间上都有一定的不变性,从而具有复杂度低、计算量小、实时性高、准确度高的效果。
附图说明
图1是3D卷积和2D卷积的示意图;
图2是Gabor滤波的函数和效果图;
图3是3D卷积神经网络的总体结构。
具体实施方式
训练使用BP算法,但是CNN自身的网络结构和传统的神经网络有很大不同,所以CNN使用的BP算法也与传统的BP算法有不同。由于CNN主要由卷积层和下采样层交替组成,所以,它们各自的计算反向误差δ传播的公式是不同的。
采用平方误差代价函数,输出层δ的计算公式是:
其中,y是网络实际输出向量,t是期望的标签向量,都有n个分量,f函数是S型函数,是Schur乘积,即两个向量对应元素相乘,u是上层节点输出的加权和,计算公式如下:
ul=Wlxl-1+bl
第l-1层的输出x乘上第l层的权重W,再加上偏置b。
卷积层的反向误差公式为:
其中,C是常数,是卷积层的下一个下采样层的下采样尺度。Up是上采样函数。
下采样层的反向误差传播公式:
其中conv3是3D卷积操作,‘full’是卷积边际的类型,它是对缺少的边界补0。rot180是对核k的每一维进行倒置。得到各个层的反向误差后,就可以计算参数的梯度了,计算参数的公式如下:
其中‘valid’是卷积边界类型,它是不对边界做任何的处理,只用数据的有效部分进行卷积。有了参数的梯度以后,就可以像梯度下降算法那样更新参数,从而对网络进行训练,以此对视频行为进行分类。
Gabor滤波器的方向和频率的表达非常类似于人类的视觉系统,并且可以很好地近似单细胞的感受野函数。帧通过Gabor滤波后,会去除很多无用的信息,这可以防止网络过拟合。所以,我们选取了Gabor滤波器作为这种基本特征。Gobor滤波器只作用于空间域,要获取时间域的信息,光流可以满足这一点,所以,我们也选择了光流作为这种基本特征。最后,原始的像素灰度值也作为一个通道,这让网络对原始的数据也学习到相应的基本特征。更高层的特征,网络的更高层会在训练中自动学学得。在一层,人工选取何种特征对分类结果的正确率影响重大,我们选用了一个灰度值、四个Gaborl滤波器获得的特征、两个光流特征。四个Gabor函数分别是:方向水平和小尺度、方向垂直和小尺度、方向水平和大尺度、方向垂直和大尺度。2个光流特征分别是输入视频光流的水平分量和垂直分量。
卷积层可以获取特征,而下采样层则保证了网络对数据的不变性。我们在下采样层,对空间域和时间域都进行了下采样,这使得在时间域和空间域上都有不变性。实验也证明,这样能提高正确率。
整个网络具体的结构和参数如:卷积核的尺寸和数量、下采样尺寸、C6层单元个数、输出层单元个数,可以在实际场景中具体调整来使得网络有更好的分类表现。原视频分辨率为60×80,帧数为22帧,对第一层每个通道进行卷积核尺寸为7×9×9、数量为2的卷积,在第二层得到14个特征map,其分辨率为54×72,帧数为14;对第二层的每个特征map进行空间域上3×3,时间域2的下采样,在第三层得到14个分辨率为18×24,帧数为7的特征map;对第三层的每个特征map进行卷积核尺寸为7×7×3、数量为3的卷积,在第四层得到42个分辨率为12×18、帧数为5的特征map;对第四层的特征map进行空间域3×3下采样,时间域不下采样,在第五层得到42个分辨率为4×6、帧数为5的特征map;第六层为128个尺寸为1×1的特征map,每个特征map与第五层的所有特征map全连接。最后输出层的单元与第六层的128个特征map全连接。
CNN相比传统的神经网络,每个卷积核在同一层参数共享,因此在相同层数的情况下,参数的个数少得多。就我们的3D CNN为例,第i卷积层卷积核尺寸为W(i)×H(i)×F(i),核的个数为N(i),输出层分N(L)类,输出层上一层节点个数为W(L-1)×H(L-1)×F(L-1)(我们的网络这三项都为1,所有乘起来为1),而传统的神经网络都是全连接的方式,特征map的每一个单元都会有一个参数,所以参数个数会比CNN多得多。
比较国内外其他的行为识别方法,我们的方法能够达到更好的效果。在公共数据集的测试上,正确率能够达到94%以上,而现有的同种类型的方法,都不能达到这个效果。
整个网络的结构为七层结构,多一层或者少一层对实际的分类效果都有不利影响。
Claims (1)
1.一种基于3D卷积神经网络的行为识别方法,该方法包括:
一、离线训练
步骤1:首先进行神经网络的训练,输入样本视频,并对该样本视频进行灰度化预处理处理;
步骤2:在第一层设置5~9个通道,这些通道包括:1个灰度通道、2~6个Gabor通道、2个光流通道,其中灰度通道包含视频的灰度图像,Gabor通道是灰度化处理后的视频通过不同的Gabor滤波器得到的不同响应;
步骤3:对第一层的每个通道采用尺寸小于原视频的2个或3个不同的3D卷积核进行3D卷积,得到含有2倍或3倍于通道数量的特征map,为第二层;
步骤4:对第二层各特征map在空间域上进行采样单元为2×2或3×3的下采样,时间域上进行采样单元为2的下采样,得到数量相同但时空分辨率减小的特征map,为第三层;
步骤5:对第三层的每个特征map采用尺寸小于该层特征map的2个或3个不同的3D卷积核进行3D卷积,得到含有2倍或3倍于第三层特征map的第四层特征map;
步骤6:对第四层各特征map在空间域上进行采样单元为2×2或3×3的下采样,时间域上进行采样单元为2的下采样,得到数量相同但时空分辨率减小的特征map,为第五层;
步骤7:第六层为100~150个尺寸为1×1的特征map,每个特征map与第五层的所有特征map全连接;
步骤8:第七层为输出层,包含n个输出节点,对应n种分类行为,每个节点与第六层所有特征map全连接;
步骤9:通过BP算法对各层之间的计算参数进行调整,使得每个样本的输出与标签之间的误差下降,当误差满足要求后,训练完毕,再对各输出向量根据其对应的样本视频行为名称设置标签;
二、在线识别
步骤10:对视频进行识别,输入需要识别的视频,并对该视频进行灰度化预处理,采用与步骤2~步骤8的方法对输入视频进行处理,得到输出向量;
步骤11:将步骤10的输出向量与各标签定义的向量进行匹配,找到与之最匹配的标签向量,该标签向量的行为名称为输入视频的行为名称;
所述步骤2中设置7个通道,包括:1个灰度通道、4个Gabor通道、2个光流通道,其中4个Gabor通道分别为灰度化视频通过四个不同Gabor滤波器得到的不同响应,这四个Gabor 滤波器的Gabor核分别为:方向水平和小尺度、方向垂直和小尺度、方向水平和大尺度、方向垂直和大尺度;所述步骤7中第六层设置128个尺寸为1×1的特征map,每个特征map与第五层的所有特征map全连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410444276.9A CN104281853B (zh) | 2014-09-02 | 2014-09-02 | 一种基于3d卷积神经网络的行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410444276.9A CN104281853B (zh) | 2014-09-02 | 2014-09-02 | 一种基于3d卷积神经网络的行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104281853A CN104281853A (zh) | 2015-01-14 |
CN104281853B true CN104281853B (zh) | 2017-11-17 |
Family
ID=52256713
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410444276.9A Expired - Fee Related CN104281853B (zh) | 2014-09-02 | 2014-09-02 | 一种基于3d卷积神经网络的行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104281853B (zh) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104615983B (zh) * | 2015-01-28 | 2018-07-31 | 中国科学院自动化研究所 | 基于递归神经网络和人体骨架运动序列的行为识别方法 |
CN104573731B (zh) * | 2015-02-06 | 2018-03-23 | 厦门大学 | 基于卷积神经网络的快速目标检测方法 |
CN105068644A (zh) * | 2015-07-24 | 2015-11-18 | 山东大学 | 一种基于卷积神经网络的p300脑电信号检测方法 |
CN105160310A (zh) * | 2015-08-25 | 2015-12-16 | 西安电子科技大学 | 基于3d卷积神经网络的人体行为识别方法 |
CN106874921B (zh) * | 2015-12-11 | 2020-12-04 | 清华大学 | 图像分类方法和装置 |
CN106778604B (zh) * | 2015-12-15 | 2020-04-14 | 西安电子科技大学 | 基于匹配卷积神经网络的行人再识别方法 |
CN105574510A (zh) * | 2015-12-18 | 2016-05-11 | 北京邮电大学 | 一种步态识别方法及装置 |
CN105787458B (zh) * | 2016-03-11 | 2019-01-04 | 重庆邮电大学 | 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法 |
CN106127159A (zh) * | 2016-06-28 | 2016-11-16 | 电子科技大学 | 一种基于卷积神经网络的性别识别方法 |
CN106407903A (zh) * | 2016-08-31 | 2017-02-15 | 四川瞳知科技有限公司 | 基于多尺度卷积神经网络的实时人体异常行为识别方法 |
CN106778854B (zh) * | 2016-12-07 | 2019-12-24 | 西安电子科技大学 | 基于轨迹和卷积神经网络特征提取的行为识别方法 |
US10055692B1 (en) | 2017-02-21 | 2018-08-21 | Google Llc | Parallel processing of reduction and broadcast operations on large datasets of non-scalar data |
CN106971206A (zh) * | 2017-04-13 | 2017-07-21 | 广东工业大学 | 一种护理动作考核方法及系统 |
CN107169415B (zh) * | 2017-04-13 | 2019-10-11 | 西安电子科技大学 | 基于卷积神经网络特征编码的人体动作识别方法 |
CN107330393A (zh) * | 2017-06-27 | 2017-11-07 | 南京邮电大学 | 一种基于视频分析的新生儿疼痛表情识别方法 |
CN107480692A (zh) * | 2017-07-06 | 2017-12-15 | 浙江工业大学 | 一种基于主成份分析的人体行为识别方法 |
CN107274406A (zh) * | 2017-08-07 | 2017-10-20 | 北京深睿博联科技有限责任公司 | 一种检测敏感区域的方法及装置 |
CN107679462B (zh) * | 2017-09-13 | 2021-10-19 | 哈尔滨工业大学深圳研究生院 | 一种基于小波的深度多特征融合分类方法 |
CN108009486B (zh) * | 2017-11-28 | 2021-06-08 | 中科亿海微电子科技(苏州)有限公司 | 基于深度学习训练重构图的视频识别方法及系统 |
CN108460340A (zh) * | 2018-02-05 | 2018-08-28 | 北京工业大学 | 一种基于3d稠密卷积神经网络的步态识别方法 |
CN109255284B (zh) * | 2018-07-10 | 2021-02-12 | 西安理工大学 | 一种基于运动轨迹的3d卷积神经网络的行为识别方法 |
CN109711454B (zh) * | 2018-12-21 | 2020-07-31 | 电子科技大学 | 一种基于卷积神经网络的特征匹配方法 |
CN110059545A (zh) * | 2019-03-08 | 2019-07-26 | 佛山市云米电器科技有限公司 | 一种基于卷积神经网络的智能家居用户行为识别方法 |
CN110443119B (zh) * | 2019-06-25 | 2021-11-30 | 中车工业研究院有限公司 | 车厢内货物状态识别方法及装置 |
US11715010B2 (en) | 2019-08-16 | 2023-08-01 | Google Llc | Cross replica reduction on networks having degraded nodes |
CN111400601B (zh) * | 2019-09-16 | 2023-03-10 | 腾讯科技(深圳)有限公司 | 一种视频推荐的方法及相关设备 |
CN111291634B (zh) * | 2020-01-17 | 2023-07-18 | 西北工业大学 | 基于卷积受限玻尔兹曼机的无人机图像目标检测方法 |
CN111767985B (zh) * | 2020-06-19 | 2022-07-22 | 深圳市商汤科技有限公司 | 一种神经网络的训练方法、视频识别方法及装置 |
CN111814922B (zh) * | 2020-09-07 | 2020-12-25 | 成都索贝数码科技股份有限公司 | 一种基于深度学习的视频片段内容匹配方法 |
CN112257643A (zh) * | 2020-10-30 | 2021-01-22 | 天津天地伟业智能安全防范科技有限公司 | 一种基于视频流的抽烟行为和打电话行为识别方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103020614A (zh) * | 2013-01-08 | 2013-04-03 | 西安电子科技大学 | 基于时空兴趣点检测的人体运动识别方法 |
CN103186775A (zh) * | 2013-03-27 | 2013-07-03 | 西安电子科技大学 | 基于混合描述子的人体运动识别方法 |
-
2014
- 2014-09-02 CN CN201410444276.9A patent/CN104281853B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103020614A (zh) * | 2013-01-08 | 2013-04-03 | 西安电子科技大学 | 基于时空兴趣点检测的人体运动识别方法 |
CN103186775A (zh) * | 2013-03-27 | 2013-07-03 | 西安电子科技大学 | 基于混合描述子的人体运动识别方法 |
Non-Patent Citations (4)
Title |
---|
3D Convolutional Neural Networks for Human Action Recognition;Shuiwang Ji, Wei Xu, Ming Yang;《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》;20130131;正文第2.2节 * |
人运动的视觉分析综述;王亮,胡卫明,谭铁牛;《计算机学报》;20020312(第2002年03期);全文 * |
基于3D卷积神经网络的行为识别:3D Convolutional Neural Networks for Human Action Recognition;Pony_s;《博客园www.cnblogs.com/ponys/archive/2013/11/29/3450177.html》;20131129;全文 * |
基于卷积神经网络的模式分类器;李葆青;《大连大学学报》;20030425(第2003年02期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN104281853A (zh) | 2015-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104281853B (zh) | 一种基于3d卷积神经网络的行为识别方法 | |
CN106650806B (zh) | 一种用于行人检测的协同式深度网络模型方法 | |
CN104217214B (zh) | 基于可配置卷积神经网络的rgb‑d人物行为识别方法 | |
CN104537647B (zh) | 一种目标检测方法及装置 | |
CN110532900A (zh) | 基于U-Net和LS-CNN的人脸表情识别方法 | |
CN108171112A (zh) | 基于卷积神经网络的车辆识别与跟踪方法 | |
CN108830188A (zh) | 基于深度学习的车辆检测方法 | |
WO2018052587A1 (en) | Method and system for cell image segmentation using multi-stage convolutional neural networks | |
CN108109160A (zh) | 一种基于深度学习的免交互式GrabCut舌体分割方法 | |
CN109284670A (zh) | 一种基于多尺度注意力机制的行人检测方法及装置 | |
CN107945153A (zh) | 一种基于深度学习的路面裂缝检测方法 | |
Pathar et al. | Human emotion recognition using convolutional neural network in real time | |
CN106897738A (zh) | 一种基于半监督学习的行人检测方法 | |
CN104992223A (zh) | 基于深度学习的密集人数估计方法 | |
CN109753950A (zh) | 动态人脸表情识别方法 | |
CN106408030A (zh) | 基于中层语义属性和卷积神经网络的sar图像分类方法 | |
CN110046550A (zh) | 基于多层特征学习的行人属性识别系统及方法 | |
CN109635812B (zh) | 图像的实例分割方法及装置 | |
CN106951870A (zh) | 主动视觉注意的监控视频显著事件智能检测预警方法 | |
CN111145145B (zh) | 一种基于MobileNets的图像表面缺陷检测方法 | |
CN109726671A (zh) | 从全局到类别特征表达学习的动作识别方法和系统 | |
CN109815920A (zh) | 基于卷积神经网络和对抗卷积神经网络的手势识别方法 | |
CN107247952A (zh) | 基于深层监督的循环卷积神经网络的视觉显著性检测方法 | |
CN111738178A (zh) | 一种基于深度学习的戴口罩人脸表情识别方法 | |
CN108416795A (zh) | 基于排序池化融合空间特征的视频动作识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20171117 Termination date: 20200902 |