CN106845456A - 一种视频监控系统中人体摔倒监测的方法 - Google Patents
一种视频监控系统中人体摔倒监测的方法 Download PDFInfo
- Publication number
- CN106845456A CN106845456A CN201710118207.2A CN201710118207A CN106845456A CN 106845456 A CN106845456 A CN 106845456A CN 201710118207 A CN201710118207 A CN 201710118207A CN 106845456 A CN106845456 A CN 106845456A
- Authority
- CN
- China
- Prior art keywords
- sample
- human body
- image
- characteristic
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
一种用于视频监控系统中人体摔倒检测的方法,该方法利用Vibe算法提取出前景信息,针对前景信息提取其Hu距特征以及中心变化率、人体高宽比、有效面积比总共10维特征数据,利用Adaboost算法对样本中提取到的特征数据进行训练,得到一个强分类器,并使用强分类器对视频监控系统中的实时图像进行处理,检测是否有摔倒情况。经过试验证明,该方法相对现有其他摔倒检测方法,在提高运算速度和降低内存占用的情况下,检测准确度可达到93%,改善了现有智能监控系统中识别准确度低和实时性差的现状。
Description
技术领域
本发明涉及计算机视觉领域,具体涉及一种视频监控系统中人体摔倒监测的方法。
技术背景
近些年来,随着我国进入“老龄化”社会,关爱老人,空巢老人的养老问题日益凸显,让老人“老有所依,老有所养”成为了如今科学发展的重要命题。由于老人经常会突发致命疾病,一旦由于疾病突发等情况导致晕倒,如未及时发现,极有可能威胁生命,给家人造成难以挽回的遗憾。而在高速发展的今天,可用的人力资源越来越稀缺,老人的看护问题成为了刻不容缓的社会性问题。
目前现有的对人体姿态的检测方法主要分为两大类,第一种是在人体关键部位佩戴加速度传感器,通过对人体运动时三轴方向的加速度进行检测来判断人体是否跌倒,这种方法不仅检测准确度较低,而且极易因人体的正常弯腰,蹲下等行为而导致误检,而且对于用户来说,随身携带硬件设备也是极不方便的。第二种就是依靠智能视频监控系统,实现对运动目标的检测和跟踪,通过对运动人体提取轮廓特征进行分析,有效分析出人体行为。相对于佩戴传感器的方式,在准确度和用户体验度上都有了很大的提高。
目前计算机视觉领域内对于运动目标的检测,最常用的背景建模方法是采用混合高斯模型(GMM)对样本的概率密度分布进行估计,而估计采用的模型是几个高斯模型的加权和,每个高斯模型就代表一个类,然后选取概率最大的类作为判断结果。但是高斯混合模型每一步迭代计算量巨大,并且随着时间推移,运动前景信息极易被污染,逐渐被分类为背景图像,不适合应用在实时监控视频系统中。Vibe背景建模为运动目标检测研究领域开拓了新思路,它是一种新颖快速及有效的运动目标检测算法,其思想简单,易于实现,Vibe通常随机选择邻域20个样本为每个像素建立一个基于样本的背景模型,利用一个二次抽样因子,随机更新背景模型,即在较少样本的前提下保证算法准确性。Vibe算法相对于其他动目标检测算法,大大提高了运算效率,可以满足实时监控系统对运行效率的要求。
智能监控系统对人体行为的检测主要基于获取行为模式与测试序列的相似性,常见的行为分类方法包括直接分类法,模板匹配法和状态空间法。直接分类法往往不考虑时序关系,只针对单帧图像直接对其行为特征进行学习和训练,模板匹配法则是在标准行为模板库中存放已知的行为模板,通过将行为识别过程中提取出的模板与已有模板进行比较,来进行行为分类识别与分类,模板匹配方法计算过程简单,但健壮性较差,受标准行为模板库影响较大。状态空间法则是充分考虑人运动的动态过程,将每一种姿势定义成为几个状态的集合,状态之间的相互切换采用概率统计模型来描述,最常用的状态空间法是隐马尔科夫模型(HMM),但是状态空间法包括大量的迭代运算,计算复杂度高,不适合实时监控场合。
发明内容
为了克服现有技术的上述不足,本发明的目的是提供一种基于计算机视觉的摔倒检测方法。在人体检测跟踪方面,本发明采用的Vibe算法采用单帧初始化,随机更新的策略,大大减少了时间复杂度和空间复杂度,相比传统检测方法,检测速度提高了数十倍,并且随着时间推移,检测前景不会被逐渐污染为背景信息,算法鲁棒性更好。在特征提取方面,本发明采用的提取特征方法只提取前后两帧特征,既保留了人体行为动态信息的描述,又保证了时间效率,而又将人体轮廓的局部描述信息与全局描述信息结合起来,更好地描述了人体运动的过程,大大提高了摔倒检测的准确度。在行为识别方面,本发明采用的AdaBoost算法思想简单易于实现,分类效果的同时,提高了运行效率,整体改善了现有智能监控系统中识别准确度低和实时性差的现状。
为了达到上述目的,本发明所采取的技术方案是:
1、一种视频监控系统中人体摔倒监测的方法,具体实施方式如下:
1)输入视频图像的转换:将标准彩色摄像头所采集的图像转化为灰度图像;
2)图像中动目标与背景的分离:采用Vibe算法,将视频片段中前景图像与背景图像分离,提取出只有前景信息的二值图像;
3)去除图像信息中的噪声:通过形态学处理,结合中值滤波,去除二值图像中的噪声信息;
4)提取人体姿态特征数据:针对去除噪声信息后的前景图像,提取特征数据Hu1~Hu7,Ratio,E,K;
5)生成样本特征矩阵:以视频文件的每两帧作为一个样本,以n个摔倒行为作为正样本、以m个正常行为作为负样本,对提取到的特征数据进行分类,分别生成一个n*10维的正样本特征矩阵和一个m*10维的负样本特征矩阵;
6)形成最终分类器:利用AdaBoost分类器对训练样本的特征数据进行训练,通过AdaBoost对提取出的正、负样本特征矩阵中的样本进行训练,得出错误率最小的强分类器作为最终分类器;
7)处理实时视频图像:将监控系统中的实时视频图像,按照所述步骤1)~4)方法提取特征数据,以实时视频的当前帧以及前一帧的图像信息,生成实时视频的1*10维特征行向量;
8)识别实时视频图像:对所述步骤7)提取出的1*10维特征行向量,利用所述步骤6)得到的最终分类器对特征值进行分类识别,检测是否有摔倒行为发生。
所述步骤4)中的特征数据,由以下数据组成:
1)Hu不变矩:根据图像变化的中心距,提取出7个Hu不变矩Hu1~Hu7作为姿态提取的特征向量;
2)人体高宽比Ratio:提取人体最小外接矩形,取其高度H和宽度W的比值Ratio=H/W作为人体运动的特征向量;
3)有效面积比E:假设人体轮廓面积为S,人体最小外界矩形的面积为S’,有效面积比E=S/S';
4)中心变化率K:假设视频序列中第n帧和第n+1帧的中心点分别为A和A',这两点的坐标分别为A(xn,yn)和A'(xn+1,yn+1),定义中心点A和中心点A'两点之间的连线的斜率为中心变化率K,K由公式(Ⅰ)计算得到:
所述步骤2)采用的Vibe算法,在后续更新背景模型时,采用一定的更新率随机更新背景模型。
所述步骤5)中的样本特征矩阵,以提取到的特征数据的每两帧作为一个样本,以摔倒行为作为正样本,以正常行作为负样本,总共生成n个正样本和m个负样本;每个样本提取一组1*10维行特征向量,分别组成一个n行10列的正样本特征矩阵和一个m行10列的负样本特征矩阵。
所述步骤6)中的最终分类器,是通过AdaBoost分类器训练得到的出错误率最小的强分类器,具体训练方法如下:
1)将所有样本初始化,每一个样本都被赋予相同的权值wi,wi=1/(n+m);
2)如果训练过程中某个样本已经被准确分类,则在构造下一个训练集时它的权值就被降低,相反,如果某个样本点没有被准确的分类,那么它的权值就被提高;
3)将训练后的弱分类器组合成强分类器,加大误差率小的弱分类器的权重,降低误差率大的分类器的权重,迭代多次后形成最终分类器。
附图说明
图1为本发明的检测流程图;
图2a为视频图像中某一帧原图,图2b为原图经过处理生成的灰度图像,图2c为经过Vibe提取前景以及形态学处理后生成的二值图像;
图3是本发明提取特征值的示意图;
图4a是本发明使用的自建数据库,图4b是Weizmann人体行为数据库;
图5是本发明采用Vibe算法与传统GMM算法比较图。
具体实施方式
以下结合附图与实施例对本发明进一步进行叙述,但本发明不局限于以下实施例。
参照图1至图5所示,本发明提供的一种视频监控系统中摔倒检测的方法,包括以下步骤:
1、训练阶段:
1)针对自拍摔倒数据库和Weizmann人体行为数据库中的视频,将其转化为灰度图像,如图2b所示;
2)将灰度图像通过Vibe算法进行处理,提取出前景信息(运动人体),生成二值图像,如图2c所示;
3)将处理过后的图像分为摔倒行为和正常行为(走路,跑步,躺下等)两大类,分别作为正样本和负样本,每两帧图像组成一个样本,即一个N帧的行为视频,一共可以生成N-1个样本。假设共生成n个正样本,m个负样本数据;
4)将正负样本分别提取特征数据,特征数据包括Hu不变矩(7维特征值Hu1~Hu7),人体高宽比Ratio(如图3所示,Ratio=H/W),有效面积比E(图3中矩形框中白色面积S’与矩形框面积S=W*H的比值),中心变化率K(相邻两帧图像中图3中红点位置两点之间连线的斜率),每一个样本形成一个10列的行向量X[Hu1,Hu2,Hu3,Hu4,Hu5,Hu6,Hu7,Ratio,E,K],最后由n个正样本特征行向量组成一个n*10维的正样本特征矩阵,m个负样本特征行向量组成一个m*10维的负样本特征矩阵;
5)利用获取到的特征矩阵训练AdaBoost分类器,最终获得一个错误率最低的强分类器,作为最终分类器。
2、测试阶段
1)将视频监控系统中获取到的原彩色图像转化成灰度图像;
2)将灰度图像通过Vibe算法进行处理,提取出前景信息(运动人体),生成二值图像;
3)系统只需保存当前帧以及前一帧的图像信息,由这两帧组成一个测试样本,提取特征数据组成一个1*10维特征行向量Y[Hu1,Hu2,Hu3,Hu4,Hu5,Hu6,Hu7,Ratio,E,K];
4)使用训练阶段步骤5)得到的AdaBoost最终分类器对测试样本进行分类,得出测试结果。
实施例1
测试环境:计算机采用Intel Core i3-2100CPU@3.10Ghz,4GB内存,软件采用MATLABR2016a实验平台。
测试数据:本实验采用的数据是来自自拍摔倒数据库,如图4a所示,以及Weizmann人体行为数据库,如图4b所示。其中自拍数据库来自5人,分别作出摔倒,行走,跑步,躺下,弯腰,跳跃等动作,共计218段视频文件。Weizmann人体行为数据库一共包括90段视频,分别来自9个人执行了10个不同的动作(bend,jack,jump,pjump,run,side,skip,walk,wave1,wave2),视频的背景,视角以及摄像头都是静止的。
前景信息提取
本实验针对本发明方法所采用的Vibe算法,和传统的GMM算法进行了比较,试验中提取了Weizmann数据库中一段视频进行前景提取,该段视频共计415帧,其中,采用Vibe算法提取前景信息总共用时3.6105秒,平均每帧0.0087秒,采用GMM方法共用时330.7939秒,平均每帧用时0.7971秒,可见从实时性上Vibe算法远优于传统的GMM算法,更适合视频监控系统的应用场景。
对于前景提取效果,参照图5所示:在第15帧时,GMM和Vibe算法提取效果均不错,运动人体轮廓清晰可见;从第30帧时,GMM算法提取的前景图像有明显空洞,而Vibe算法提取人体依旧清晰;而从第130帧可以看出,GMM提取的前景已经消失掉近一半;到了第280帧时,GMM提取的前景已经基本消失,而Vibe算法提取的前景自始至终保持着清晰可辨。综上,Vibe算法时间复杂度低,内存占用小,提取效果好,更加适合应用与视频监控场合。
AdaBoost分类器训练
本轮实验共选取23段人体行为视频片段,共生成258个训练样本,65个测试样本,每次测试首先对258个训练样本训练10轮,其每轮训练平均用时如表1所示,表1为AdaBoost分类器训练每轮所耗平均时间表。
表1
训练次数 | 1 | 2 | 3 | 4 | 5 |
Time/s | 0.1585 | 0.1545 | 0.2037 | 0.2205 | 0.1665 |
训练次数 | 6 | 7 | 8 | 9 | 10 |
Time/s | 0.1475 | 0.1563 | 0.2326 | 0.1893 | 0.2768 |
摔倒行为检测测试
使用训练后的最终分类器,以65个测试样本为一组,分别行了10次测试,测试结果如表2所示,表2为10次测试中最终分类器对摔倒行为的正确识别率。
根据表2所示,本发明方法在摔倒识别过程中可达到93%左右的正确识别率。
以上实验结果表明,本发明提供的一种视频监控系统中摔倒检测的方法,对于摔倒行为具有极高的正确识别率,同时极大提高了运行效率,降低了内存占用,满足了视频监控系统的要求。
Claims (5)
1.一种视频监控系统中人体摔倒监测的方法,其特征在于,具体实施方式如下:
1)输入视频图像的转换:将标准彩色摄像头所采集的图像转化为灰度图像;
2)图像中动目标与背景的分离:采用Vibe算法,将视频片段中前景图像与背景图像分离,提取出只有前景信息的二值图像;
3)去除图像信息中的噪声:通过形态学处理,结合中值滤波,去除二值图像中的噪声信息;
4)提取人体姿态特征数据:针对去除噪声信息后的前景图像,提取特征数据Hu1~Hu7,Ratio,E,K;
5)生成样本特征矩阵:以视频文件的每两帧作为一个样本,以n个摔倒行为作为正样本、以m个正常行为作为负样本,对提取到的特征数据进行分类,分别生成一个n*10维的正样本特征矩阵和一个m*10维的负样本特征矩阵;
6)形成最终分类器:利用AdaBoost分类器对训练样本的特征数据进行训练,通过AdaBoost对提取出的正、负样本特征矩阵中的样本进行训练,得到错误率最小的强分类器作为最终分类器;
7)处理实时视频图像:将监控系统中的实时视频图像,按照所述步骤1)~4)方法提取特征数据,以实时视频的当前帧以及前一帧的图像信息,生成实时视频的1*10维特征行向量;
8)识别实时视频图像:对所述步骤7)提取出的1*10维特征行向量,利用所述步骤6)得到的最终分类器对特征值进行分类识别,检测是否有摔倒行为发生。
2.根据权利要求1所述一种视频监控系统中人体摔倒监测的方法,其特征在于,所述步骤4)中的特征数据,由以下数据组成:
1)Hu不变矩:根据图像变化的中心距,提取出7个Hu不变矩Hu1~Hu7作为姿态提取的特征向量;
2)人体高宽比Ratio:提取人体最小外接矩形,取其高度H和宽度W的比值Ratio=H/W作为人体运动的特征向量;
3)有效面积比E:假设人体轮廓面积为S,人体最小外界矩形的面积为S’,有效面积比E=S/S';
4)中心变化率K:假设视频序列中第n帧和第n+1帧的中心点分别为A和A',这两点的坐标分别为A(xn,yn)和A'(xn+1,yn+1),定义中心点A和中心点A'两点之间的连线的斜率为中心变化率K,K由公式(Ⅰ)计算得到:
3.根据权利要求1所述的一种视频监控系统中人体摔倒监测的方法,其特征在于,所述步骤2)采用的Vibe算法,在后续更新背景模型时,采用一定的更新率随机更新背景模型。
4.根据权利要求1所述的一种视频监控系统中人体摔倒监测的方法,其特征在于,所述步骤5)对提取到的特征数据的每两帧作为一个样本,以摔倒行为作为正样本,以正常行作为负样本,总共生成n个正样本和m个负样本;每个样本提取一组1*10维行特征向量,分别组成一个n行10列的正样本特征矩阵和一个m行10列的负样本特征矩阵。
5.根据权利要求1所述的一种视频监控系统中人体摔倒监测的方法,其特征在于,所述步骤6)中的最终分类器,是通过AdaBoost分类器训练得到的出错误率最小的强分类器,具体训练方法如下:
1)将所有样本初始化,每一个样本都被赋予相同的权值wi,wi=1/(n+m);
2)如果训练过程中某个样本已经被准确分类,则在构造下一个训练集时它的权值就被降低,相反,如果某个样本点没有被准确的分类,那么它的权值就被提高;
3)将训练后的弱分类器组合成强分类器,加大误差率小的弱分类器的权重,降低误差率大的分类器的权重,迭代多次后形成最终分类器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710118207.2A CN106845456A (zh) | 2017-03-01 | 2017-03-01 | 一种视频监控系统中人体摔倒监测的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710118207.2A CN106845456A (zh) | 2017-03-01 | 2017-03-01 | 一种视频监控系统中人体摔倒监测的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106845456A true CN106845456A (zh) | 2017-06-13 |
Family
ID=59137070
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710118207.2A Pending CN106845456A (zh) | 2017-03-01 | 2017-03-01 | 一种视频监控系统中人体摔倒监测的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106845456A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107103733A (zh) * | 2017-07-06 | 2017-08-29 | 司马大大(北京)智能系统有限公司 | 一种摔倒报警方法、装置及设备 |
CN108446733A (zh) * | 2018-03-19 | 2018-08-24 | 上海玺翎智能科技有限公司 | 一种基于多传感器数据的人体行为监测及智能识别方法 |
CN110555394A (zh) * | 2019-08-19 | 2019-12-10 | 西安理工大学 | 基于人体形体特征的跌倒风险评估方法 |
CN110738686A (zh) * | 2019-10-12 | 2020-01-31 | 四川航天神坤科技有限公司 | 静动态结合的视频人车检测方法及系统 |
CN110991274A (zh) * | 2019-11-18 | 2020-04-10 | 杭州电子科技大学 | 一种基于混合高斯模型和神经网络的行人摔倒检测方法 |
CN111626107A (zh) * | 2020-04-17 | 2020-09-04 | 南京邮电大学 | 一种面向智能家居场景下的人形轮廓分析提取方法 |
-
2017
- 2017-03-01 CN CN201710118207.2A patent/CN106845456A/zh active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107103733A (zh) * | 2017-07-06 | 2017-08-29 | 司马大大(北京)智能系统有限公司 | 一种摔倒报警方法、装置及设备 |
CN108446733A (zh) * | 2018-03-19 | 2018-08-24 | 上海玺翎智能科技有限公司 | 一种基于多传感器数据的人体行为监测及智能识别方法 |
CN110555394A (zh) * | 2019-08-19 | 2019-12-10 | 西安理工大学 | 基于人体形体特征的跌倒风险评估方法 |
CN110738686A (zh) * | 2019-10-12 | 2020-01-31 | 四川航天神坤科技有限公司 | 静动态结合的视频人车检测方法及系统 |
CN110738686B (zh) * | 2019-10-12 | 2022-12-02 | 四川航天神坤科技有限公司 | 静动态结合的视频人车检测方法及系统 |
CN110991274A (zh) * | 2019-11-18 | 2020-04-10 | 杭州电子科技大学 | 一种基于混合高斯模型和神经网络的行人摔倒检测方法 |
CN110991274B (zh) * | 2019-11-18 | 2022-03-18 | 杭州电子科技大学 | 一种基于混合高斯模型和神经网络的行人摔倒检测方法 |
CN111626107A (zh) * | 2020-04-17 | 2020-09-04 | 南京邮电大学 | 一种面向智能家居场景下的人形轮廓分析提取方法 |
CN111626107B (zh) * | 2020-04-17 | 2022-07-29 | 南京邮电大学 | 一种面向智能家居场景下的人形轮廓分析提取方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106845456A (zh) | 一种视频监控系统中人体摔倒监测的方法 | |
CN109815826B (zh) | 人脸属性模型的生成方法及装置 | |
CN110458061B (zh) | 一种识别老年人跌倒的方法及陪伴机器人 | |
CN104732208B (zh) | 基于稀疏子空间聚类的视频人体行为识别方法 | |
CN111401144B (zh) | 一种基于视频监控的手扶电梯乘客行为识别方法 | |
CN103984948B (zh) | 一种基于人脸图像融合特征的软双层年龄估计方法 | |
CN108830237B (zh) | 一种人脸表情的识别方法 | |
CN102968643B (zh) | 一种基于李群论的多模态情感识别方法 | |
CN106778852A (zh) | 一种修正误判的图像内容识别方法 | |
CN107133481A (zh) | 基于dcnn‑dnn和pv‑svm的多模态抑郁症估计和分类方法 | |
CN103605972A (zh) | 一种基于分块深度神经网络的非限制环境人脸验证方法 | |
CN105320917B (zh) | 一种基于头肩轮廓及bp神经网络的行人检测及跟踪方法 | |
CN106778687A (zh) | 基于局部评估和全局优化的注视点检测方法 | |
CN111339847A (zh) | 一种基于图卷积神经网络的人脸情绪识别方法 | |
CN110503063A (zh) | 基于沙漏卷积自动编码神经网络的跌倒检测方法 | |
CN104951793B (zh) | 一种基于stdf特征的人体行为识别方法 | |
CN102073841A (zh) | 一种不良视频检测方法及装置 | |
CN104484890A (zh) | 基于复合稀疏模型的视频目标跟踪方法 | |
CN103699874A (zh) | 基于surf流和lle稀疏表示的人群异常行为识别方法 | |
CN105893942A (zh) | 一种基于eSC和HOG的自适应HMM的手语识别方法 | |
CN115346272A (zh) | 基于深度图像序列的实时摔倒检测方法 | |
CN111666813A (zh) | 一种基于非局部信息的三维卷积神经网络的皮下汗腺提取方法 | |
CN114782979A (zh) | 一种行人重识别模型的训练方法、装置、存储介质及终端 | |
CN114758382A (zh) | 基于自适应补丁学习的面部au检测模型建立方法及应用 | |
CN106846377A (zh) | 一种基于颜色属性和主动特征提取的目标跟踪算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170613 |
|
RJ01 | Rejection of invention patent application after publication |