CN109472226B - 一种基于深度学习的睡觉行为检测方法 - Google Patents
一种基于深度学习的睡觉行为检测方法 Download PDFInfo
- Publication number
- CN109472226B CN109472226B CN201811268351.5A CN201811268351A CN109472226B CN 109472226 B CN109472226 B CN 109472226B CN 201811268351 A CN201811268351 A CN 201811268351A CN 109472226 B CN109472226 B CN 109472226B
- Authority
- CN
- China
- Prior art keywords
- sleeping
- detection result
- final
- final detection
- confidence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 136
- 230000006399 behavior Effects 0.000 title claims abstract description 35
- 238000013135 deep learning Methods 0.000 title claims abstract description 15
- 230000036544 posture Effects 0.000 claims abstract description 31
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 18
- 238000000034 method Methods 0.000 claims abstract description 14
- 238000012216 screening Methods 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims description 14
- 238000011176 pooling Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims 1
- 230000004927 fusion Effects 0.000 abstract description 3
- 238000004458 analytical method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 241001282135 Poromitra oscitans Species 0.000 description 1
- 208000032140 Sleepiness Diseases 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 206010048232 Yawning Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- OLBCVFGFOZPWHH-UHFFFAOYSA-N propofol Chemical compound CC(C)C1=CC=CC(C(C)C)=C1O OLBCVFGFOZPWHH-UHFFFAOYSA-N 0.000 description 1
- 229960004134 propofol Drugs 0.000 description 1
- 230000037321 sleepiness Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度学习的睡觉行为检测方法,包括以下步骤:1)获取待测视频流,经切帧处理获得离散图片;2)依次将所述离散图片输入一训练好的卷积神经网络模型,检测获得睡觉姿势初步检测结果及相应置信度;3)基于多尺度检测方法对所有睡觉姿势初步检测结果进行筛选,获得睡觉姿势最终检测结果;4)根据所述睡觉姿势最终检测结果,采用基于位置信息的目标跟踪算法判断是否存在睡觉行为。与现有技术相比,本发明在目标检测模型中采用了特征融合提升准确率,同时采用了高准确率的睡觉行为决策算法,避免睡觉行为误判。
Description
技术领域
本发明涉及深度学习技术领域,尤其是涉及一种基于深度学习的睡觉行为检测方法。
背景技术
在现代视频监控系统中,发展出了大量有用的人类行为分析技术。例如在驾驶员监控系统中,通过分析驾驶员的面部行为来判断驾驶员的疲劳程度;在十字路口监控中分析和预判行人行为来减少车祸发生的概率。在教室中基于视频流的学生行为分析对于教学工作有着很大的帮助,例如可以统计学生的打哈欠行为和睡觉行为来对教学效果进行评估,以及针对不同学生的行为分析,对学生作出有效指导。
但是对于学生的睡觉行为检测有几大难点:一、实时性,由于该技术要求基于视频流,所以对于处理速度有较高的要求;二、尺度多变性,由于透视的原因,教室后排与教室前排的目标尺寸区别明显;三、特征多变性,睡觉的姿势多种多样,不能采取固定的模板形式来进行相似度检测。四、易混淆性,有很多平常的姿势例如低头写字可能会与睡觉姿势非常相近,还有很多图像噪声可能会影响程序的判断。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于深度学习的睡觉行为检测方法。
本发明的目的之一是检测到教室环境中和睡觉相似度较高的姿势。
本发明的目的之二是提高睡觉姿势检测的准确率和检全率。
本发明的目的之三是更准确地判定是否存在睡觉行为。
本发明的目的可以通过以下技术方案来实现:
一种基于深度学习的睡觉行为检测方法,包括以下步骤:
1)获取待测视频流,经切帧处理获得离散图片;
2)依次将所述离散图片输入一训练好的卷积神经网络模型,检测获得睡觉姿势初步检测结果及相应置信度;
3)基于多尺度检测方法对所有睡觉姿势初步检测结果进行筛选,获得睡觉姿势最终检测结果;
4)根据所述睡觉姿势最终检测结果,采用基于位置信息的目标跟踪算法判断是否存在睡觉行为。
进一步地,所述卷积神经网络模型的特征提取过程中,对多个卷积层的输出特征进行融合,输入可变形位置敏感兴趣区域池化,实现补偿。
进一步地,所述卷积神经网络模型的训练过程具体为:
对样本库中的图片进行预处理,所述预处理包括像素缩放和颜色通道处理;
以预处理后的图片输入卷积神经网络模型完成训练。
进一步地,所述基于多尺度检测方法对所有睡觉姿势初步检测结果进行筛选的具体过程包括:
301)将所有的睡觉姿势初步检测结果按照置信度从高到低排列,舍弃置信度小于预选置信度conf1的检测结果;
302)判断剩余检测结果中是否存在同时满足置信度小于入选置信度conf2、长宽平均值小于小框阈值small1和长宽比在长宽比阈值ratio1和ratio2之间的检测结果,若是,则筛选出满足条件的检测结果,若否,则直接执行步骤304);
303)分别以满足条件的检测结果为中心局部放大X倍后再输入所述卷积神经网络模型中,更新各检测结果的置信度;
304)舍弃置信度小于入选置信度conf2的检测结果。
进一步地,所述预选置信度conf1的取值范围为0~0.3,入选置信度conf2的取值范围为0.9~1。
进一步地,所述步骤303)中,X的取值范围为2~3。
进一步地,所述采用基于位置信息的目标跟踪算法判断是否存在睡觉行为具体为:
401)获取当前帧的睡觉姿势最终检测结果,判断当前帧是否为第一帧,若是,则为每个最终检测结果建立记录,并对应设置记录分为基础分N,若否,则执行步骤402);
402)计算上一帧中所有最终检测结果到当前帧中所有最终检测结果的距离,根据距离判断上一帧的各最终检测结果是否与当前帧匹配,对上一帧中存在匹配的最终检测结果对应的记录分增加N1,对上一帧中不存在匹配的最终检测结果对应的记录分减少N2,对当前帧中不存在匹配的最终检测结果设置其记录分为基础分N;
403)判断是否有记录分大于第一设定阈值Nmax的最终检测结果,若是,则判断该最终检测结果存在睡觉行为,若否,则执行步骤404);
404)判断是否有记录分小于第二设定阈值N3最终检测结果,则删除该记录,返回步骤401)。
进一步地,步骤402)中,所述距离的计算公式为:
dist=|center(res1)-center(res2)|2
其中,dist表示结果res1和res2之间的距离,center表示结果中心。
步骤402)中,所述根据距离判断上一帧的各最终检测结果是否与当前帧匹配具体为:
421)对上一帧每个最终检测结果所属的距离值排序,形成链表,移除大于临近距离阈值S的节点,若剩余链表为空,则所有最终检测结果均不匹配;
422)在每个最终检测结果对应的链表中各选择一个节点形成一个组合,遍历所有组合,以距离之和最小的一组作为匹配结果输出;
423)根据所述匹配结果确定上一帧的各最终检测结果与当前帧的各最终检测结果的匹配情况。
与现有技术相比,本发明具有以如下有益效果:
1、本发明的睡觉检测是基于深度模型的,采用了大量样本进行训练,对目标有较强的识别能力和容错率。
2、本发明采取的特征融合和可变形卷积策略提高了模型对于目标的识别能力,提高了准确率。
3、本发明提出的高效率多尺度检测可以大幅减少显存和时间消耗,同时提高召回率。
4、本发明提出的track算法对于教室场景具有较高的准确率。
5、本发明提出的睡觉行为决策算法可以大幅降低由于睡觉检测的漏检和误检造成的睡觉行为的错误判断。
附图说明
图1为本发明卷积神经网络的结构示意图;
图2为本发明高效率多尺度检测流程示意图;
图3为本发明多尺度检测中放大X倍获取图块的示意图;
图4为本发明基于位置信息的目标跟踪流程示意图;
图5为本发明的睡觉行为判定流程示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
本发明实现一种基于深度学习的睡觉行为检测方法,将视频流进行切帧处理,输出离散的图片,然后将每一帧的图片输入到卷积神经网络中,进行特征提取,并对提取到的特征分类,检测到睡觉姿势;利用高效的多尺度检测技术对睡觉姿势的处理;最终采用跟踪算法来追踪睡觉的学生以及对是否睡觉进行判别。
本发明方法的详细技术方案如下:
第一步:收集样本
本发明应用于课堂场景,需要提取课堂中的睡觉姿势样例来进行神经网络对睡觉姿势识别的训练。训练数据集的标注标准可采取PASCAL VOC数据集的样式。在某些实施例中,训练数据集一共标注了4.8千个样本。
第二步:建立卷积神经网络模型
本发明采用的卷积神经网络模型基于ResNet-101实现。如图1所示,在ResNet-101的基础上,对输入到RPN网络中的特征作了改进,将网络中的conv2,conv3,conv4进行融合,融合方式采取加和的方式,取代原本的conv4,从而获取低层特征,判断睡觉姿势更加准确,同时对小目标也有较好的效果;同时将原本网络中的位置敏感兴趣区域池化(Positionsensitive Roi pooling)替换为可变形位置敏感兴趣区域池化(Deformable Positionsensitive Roi pooling),该池化方式对于位置敏感区域提供了一个补偿机制,与原有池化相比,敏感区域可以移动,用来适应多变的睡觉姿势。
第三步:卷积神经网络模型的训练
训练采取MXNet作为框架。首先对样本库中的图片进行预处理,所述预处理包括像素缩放和颜色通道处理,然后以预处理后的图片输入卷积神经网络模型完成训练。
本实施例采取如下的训练策略:将图片缩放至最小边最长为600个像素,最长边最长为1000个像素;图片在输入网络前对每个颜色通道减去其均值[103.96,115.90,123.15]。生成proposal的anchor的种类为9个,分别对应3个尺寸(8,16,32)和3种形状(长宽比为0.5,1,2),学习速率设置为0.0005,一共训练7个epoch,预训练模型采用ResNet-101在ImageNet数据集上的图片分类的训练结果。检测到的睡觉姿势被标出,同时显示出置信度。
第四步:高效率多尺度检测
对于在训练数据集中分布较少的样本,模型的检测效果往往不好。在本发明测试的模型中,对于小睡觉目标的判断相对于正常尺寸准确率较低。应对小目标的一个有效的方法是多尺度检测,即将图片放大后输入到神经网络中,放大后的图片中原来较小的目标变大,使得网络对于其识别能力增强,最后将得到的结果框缩小到原来的尺度,得到检测结果。然而多尺度检测有一个明显的问题即将图片放大后,会即大的增加检测时间以及显存消耗,增幅为O(N2)。本发明提出了一个基于置信度的高效率多尺度检测方法,将时间消耗变为O(N),并且显存消耗不变。在原始的检测模型中,有一个置信度阈值,例如0.9,即置信度低于0.9的检测结果均被舍弃。在本发明中,存在四个阈值,一个是预选置信度conf1(通常设置在0到0.3之间),另一个是入选置信度conf2(通常设置在0.9以上),还有一个是小框阈值small1(长宽的平均值,通常设置在30到50像素之间),最后一个是长宽比阈值ratio1、ratio2(ratio1是下限,通常为0.5左右;ratio2是上限,通常为2左右)。前两个阈值的具体数值可以对测试数据集的结果进行分析得出(例如高于某个置信度的检测结果基本都是正检,则设置该置信度为conf2;低于某个置信度的检测结果基本不是正检,则设置该置信度为conf1),后两个阈值的具体数值可以通过分析数据集中的分布得出。
执行高效率的多尺度检测的流程如图2所示,包括以下步骤:
301)将所有的睡觉姿势初步检测结果按照置信度从高到低排列,舍弃置信度小于预选置信度conf1的检测结果;
302)判断剩余检测结果中是否存在同时满足置信度小于入选置信度conf2、长宽平均值小于小框阈值small1和长宽比在长宽比阈值ratio1和ratio2之间的检测结果,若是,则筛选出满足条件的检测结果,若否,则直接执行步骤304);
303)分别以满足条件的检测结果为中心局部放大X倍(通常取2到3之间)后再输入所述卷积神经网络模型中,如图3所示,更新各检测结果的置信度;
304)舍弃置信度小于入选置信度conf2的检测结果。
第五步:对睡觉目标进行跟踪,并进行决策
首先说明几个概念:1.帧-frame,即从视频流中截取的某一时刻的图片;2.检测结果-res,即将一个frame输入到网络中,并通过高效率多尺度检测得到的检测结果,并且用center(resi)表示resi的中心,mean(resi)表示resi的长宽平均值;3.距离-dist,即两个res之间的距离,但并不是日常生活中所用的欧式距离,在这个算法中dist定义为
dist(res1-res2)=|center(res1)-center(res2)|2
本发明提出一个基于位置信息的课堂目标跟踪算法,如图4和图5所示,具体为:
401)获取当前帧的睡觉姿势最终检测结果,判断当前帧是否为第一帧,若是,则为每个最终检测结果建立记录,并对应设置记录分为基础分N,若否,则执行步骤402);
402)计算上一帧中所有最终检测结果到当前帧中所有最终检测结果的距离,根据距离判断上一帧的各最终检测结果是否与当前帧匹配,对上一帧中存在匹配的最终检测结果对应的记录分增加N1,对上一帧中不存在匹配的最终检测结果对应的记录分减少N2,对当前帧中不存在匹配的最终检测结果设置其记录分为基础分N;
403)判断是否有记录分大于第一设定阈值Nmax的最终检测结果,若是,则判断该最终检测结果存在睡觉行为,若否,则执行步骤404);
404)判断是否有记录分小于第二设定阈值N3最终检测结果,则删除该记录,返回步骤401)。
步骤402)中,所述根据距离判断上一帧的各最终检测结果是否与当前帧匹配具体为:对上一帧每个最终检测结果所属的距离值排序,形成链表,移除大于临近距离阈值S的节点,若剩余链表为空,则所有最终检测结果均不匹配;在每个最终检测结果对应的链表中各选择一个节点形成一个组合,遍历所有组合,以距离之和最小的一组作为匹配结果输出;根据所述匹配结果确定上一帧的各最终检测结果与当前帧的各最终检测结果的匹配情况,存在于该匹配结果中的最终检测结果存在匹配。
例如,现有上一帧frame1和其检测结果resi 1(i=1,2,…),和当前帧frame2和其检测结果resi 2(i=1,2,…);计算resi 1中每一个结果到resj 2中每一个结果的distij,对于每一个resi 1,将对应的distij按照降序排列,并做成链表listi;移除每个链表中dist值大于S的节点;遍历寻找匹配,即对每个resi 1从其链表中挑选一个distij使得frame1中第i个结果和frame2中第j个结果形成匹配,最终找到一个使得每个匹配的两个结果之间的dist之和最小的一种组合,并输出。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (8)
1.一种基于深度学习的睡觉行为检测方法,其特征在于,包括以下步骤:
1)获取待测视频流,经切帧处理获得离散图片;
2)依次将所述离散图片输入一训练好的卷积神经网络模型,检测获得睡觉姿势初步检测结果及相应置信度;
3)基于多尺度检测方法对所有睡觉姿势初步检测结果进行筛选,获得睡觉姿势最终检测结果;
4)根据所述睡觉姿势最终检测结果,采用基于位置信息的目标跟踪算法判断是否存在睡觉行为,具体为:
401)获取当前帧的睡觉姿势最终检测结果,判断当前帧是否为第一帧,若是,则为每个最终检测结果建立记录,并对应设置记录分为基础分N,若否,则执行步骤402);
402)计算上一帧中所有最终检测结果到当前帧中所有最终检测结果的距离,根据距离判断上一帧的各最终检测结果是否与当前帧匹配,对上一帧中存在匹配的最终检测结果对应的记录分增加N1,对上一帧中不存在匹配的最终检测结果对应的记录分减少N2,对当前帧中不存在匹配的最终检测结果设置其记录分为基础分N;
403)判断是否有记录分大于第一设定阈值Nmax的最终检测结果,若是,则判断该最终检测结果存在睡觉行为,若否,则执行步骤404);
404)判断是否有记录分小于第二设定阈值N3最终检测结果,则删除该记录,返回步骤401)。
2.根据权利要求1所述的基于深度学习的睡觉行为检测方法,其特征在于,所述卷积神经网络模型的特征提取过程中,对多个卷积层的输出特征进行融合,输入可变形位置敏感兴趣区域池化,实现补偿。
3.根据权利要求1所述的基于深度学习的睡觉行为检测方法,其特征在于,所述卷积神经网络模型的训练过程具体为:
对样本库中的图片进行预处理,所述预处理包括像素缩放和颜色通道处理;
以预处理后的图片输入卷积神经网络模型完成训练。
4.根据权利要求1所述的基于深度学习的睡觉行为检测方法,其特征在于,所述基于多尺度检测方法对所有睡觉姿势初步检测结果进行筛选的具体过程包括:
301)将所有的睡觉姿势初步检测结果按照置信度从高到低排列,舍弃置信度小于预选置信度conf1的检测结果;
302)判断剩余检测结果中是否存在同时满足置信度小于入选置信度conf2、长宽平均值小于小框阈值small1和长宽比在长宽比阈值ratio1和ratio2之间的检测结果,若是,则筛选出满足条件的检测结果,若否,则直接执行步骤304);
303)分别以满足条件的检测结果为中心局部放大X倍后再输入所述卷积神经网络模型中,更新各检测结果的置信度;
304)舍弃置信度小于入选置信度conf2的检测结果。
5.根据权利要求4所述的基于深度学习的睡觉行为检测方法,其特征在于,所述预选置信度conf1的取值范围为0~0.3,入选置信度conf2的取值范围为0.9~1。
6.根据权利要求4所述的基于深度学习的睡觉行为检测方法,其特征在于,所述步骤303)中,X的取值范围为2~3。
8.根据权利要求1所述的基于深度学习的睡觉行为检测方法,其特征在于,步骤402)中,所述根据距离判断上一帧的各最终检测结果是否与当前帧匹配具体为:
421)对上一帧每个最终检测结果所属的距离值排序,形成链表,移除大于临近距离阈值S的节点,若剩余链表为空,则所有最终检测结果均不匹配;
422)在每个最终检测结果对应的链表中各选择一个节点形成一个组合,遍历所有组合,以距离之和最小的一组作为匹配结果输出;
423)根据所述匹配结果确定上一帧的各最终检测结果与当前帧的各最终检测结果的匹配情况。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811268351.5A CN109472226B (zh) | 2018-10-29 | 2018-10-29 | 一种基于深度学习的睡觉行为检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811268351.5A CN109472226B (zh) | 2018-10-29 | 2018-10-29 | 一种基于深度学习的睡觉行为检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109472226A CN109472226A (zh) | 2019-03-15 |
CN109472226B true CN109472226B (zh) | 2021-07-09 |
Family
ID=65666245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811268351.5A Active CN109472226B (zh) | 2018-10-29 | 2018-10-29 | 一种基于深度学习的睡觉行为检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109472226B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110503002B (zh) * | 2019-07-26 | 2021-11-26 | 瑞芯微电子股份有限公司 | 一种人脸检测方法和存储介质 |
CN110864412B (zh) * | 2019-08-12 | 2021-02-12 | 珠海格力电器股份有限公司 | 空调控制方法及系统 |
CN110796028B (zh) * | 2019-10-11 | 2021-08-17 | 武汉大学 | 基于局部自适应几何变换的无人机图像小目标检测方法和系统 |
CN111401418A (zh) * | 2020-03-05 | 2020-07-10 | 浙江理工大学桐乡研究院有限公司 | 一种基于改进Faster r-cnn的员工着装规范检测方法 |
CN113139530B (zh) * | 2021-06-21 | 2021-09-03 | 城云科技(中国)有限公司 | 一种睡岗行为检测方法、装置及其电子设备 |
CN113688740B (zh) * | 2021-08-26 | 2024-02-27 | 燕山大学 | 一种基于多传感器融合视觉的室内姿势检测方法 |
CN115272973B (zh) * | 2022-08-02 | 2023-06-30 | 上海禹创智能科技有限公司 | 识别睡觉行为的方法、装置、存储介质及处理器 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10019629B2 (en) * | 2016-05-31 | 2018-07-10 | Microsoft Technology Licensing, Llc | Skeleton-based action detection using recurrent neural network |
CN106204653B (zh) * | 2016-07-13 | 2019-04-30 | 浙江宇视科技有限公司 | 一种监控跟踪方法及装置 |
CN107463912A (zh) * | 2017-08-10 | 2017-12-12 | 武汉大学深圳研究院 | 基于运动显著性的视频人体行为识别方法 |
CN107609517B (zh) * | 2017-09-15 | 2020-10-30 | 华中科技大学 | 一种基于计算机视觉的课堂行为检测系统 |
CN108229352B (zh) * | 2017-12-21 | 2021-09-07 | 上海交通大学 | 一种基于深度学习的站立检测方法 |
-
2018
- 2018-10-29 CN CN201811268351.5A patent/CN109472226B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109472226A (zh) | 2019-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109472226B (zh) | 一种基于深度学习的睡觉行为检测方法 | |
CN108960245B (zh) | 轮胎模具字符的检测与识别方法、装置、设备及存储介质 | |
CN111611905B (zh) | 一种可见光与红外融合的目标识别方法 | |
CN106897738B (zh) | 一种基于半监督学习的行人检测方法 | |
Anagnostopoulos et al. | A license plate-recognition algorithm for intelligent transportation system applications | |
Pamula | Road traffic conditions classification based on multilevel filtering of image content using convolutional neural networks | |
CN107316036B (zh) | 一种基于级联分类器的害虫识别方法 | |
CN111783576A (zh) | 基于改进型YOLOv3网络和特征融合的行人重识别方法 | |
CN109325418A (zh) | 基于改进YOLOv3的道路交通环境下行人识别方法 | |
CN110866430B (zh) | 一种车牌识别方法及装置 | |
CN110119726B (zh) | 一种基于YOLOv3模型的车辆品牌多角度识别方法 | |
CN106022231A (zh) | 一种基于多特征融合的行人快速检测的技术方法 | |
CN112232371B (zh) | 一种基于YOLOv3与文本识别的美式车牌识别方法 | |
CN107480585B (zh) | 基于dpm算法的目标检测方法 | |
KR102132407B1 (ko) | 점진적 딥러닝 학습을 이용한 적응적 영상 인식 기반 감성 추정 방법 및 장치 | |
CN111027370A (zh) | 一种多目标跟踪及行为分析检测方法 | |
CN113673298B (zh) | 一种基于时序门控循环单元模型的溢出监测方法 | |
CN108734200B (zh) | 基于bing特征的人体目标视觉检测方法和装置 | |
CN110599463B (zh) | 一种基于轻量级联神经网络的舌像检测及定位算法 | |
CN104615986A (zh) | 利用多检测器对场景变化的视频图像进行行人检测的方法 | |
CN109165658B (zh) | 一种基于Faster-RCNN的强负样本水下目标检测方法 | |
CN111783681B (zh) | 大规模人脸库识别方法、系统、计算机设备及存储介质 | |
CN115311507B (zh) | 基于数据处理的建筑板材分类方法 | |
CN108898623A (zh) | 目标跟踪方法及设备 | |
CN106874825A (zh) | 人脸检测的训练方法、检测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 200030 Dongchuan Road, Minhang District, Minhang District, Shanghai Applicant after: Shanghai Jiaotong University Address before: 200030 Huashan Road, Shanghai, No. 1954, No. Applicant before: Shanghai Jiaotong University |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |