CN105825233B - 一种基于在线学习随机蕨分类器的行人检测方法 - Google Patents
一种基于在线学习随机蕨分类器的行人检测方法 Download PDFInfo
- Publication number
- CN105825233B CN105825233B CN201610148420.3A CN201610148420A CN105825233B CN 105825233 B CN105825233 B CN 105825233B CN 201610148420 A CN201610148420 A CN 201610148420A CN 105825233 B CN105825233 B CN 105825233B
- Authority
- CN
- China
- Prior art keywords
- classifier
- random fern
- random
- testing result
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于在线学习随机蕨分类器的行人检测方法,选取在线学习的随机蕨分类器与之级联,通过在线学习的方法,在检测同时提高整体的分类性能,本发明提供了一种基于在线学习随机蕨分类器的行人检测方法,将初始分类器与在线学习的分类器进行级联,构成多种分类器融合的系统用于视频目标检测,其中初始分类器为HOG特征训练SVM分类器,在线学习的分类器为在线随机蕨分类器,通过在线自动选取正负样本训练随机蕨分类,最终形成在线学习的行人检测体系,通过实验可知,在初始分类器上级联在线学习的随机蕨分类器,通过在线学习算法可有效提高整体视频目标检测精度。
Description
技术领域
本发明涉及一种基于在线学习随机蕨分类器的行人检测方法,属于模式识别领域。
背景技术
行人作为监控环境的主体,行人目标检测与跟踪算法成为智能视频监控系统中的核心问题,也受到了当前诸多研究人员的密切关注。智能视频监控中的行人检测和跟踪技术可应用到智能交通、民用监控、智能家居、机器人技术等众多领域,所以研究相关算法具有重要的实际意义。
行人检测直观理解就是把视频图像中的行人作为目标从背景中分割出来并能实现精确的定位,由于行人所在场景复杂多变,行人的衣着,运动姿态等存在很大差异,并且存在遮挡和其他运动物体的干扰等,这些因素使得行人检测成为计算机视觉领域公认的难题。目前常见的行人检测方法可大概分为两大类,(1)基于图像处理的行人检测方法,如帧间差分法、背景差分法等。(2)基于计算机视觉的行人检测方法,如基于模板匹配的方法,基于统计学习的方法,其中基于统计学习的方法可分为人工神经网络(Artificial NeuralNetworks,简写为ANNs),Adaboost(Adaptive boosting)和SVM(Support Vector Machine)等。对行人检测,常用的特征有Haar特征,梯度方向直方图(Histogram of OrientedGradients,Hog)特征,SIFT(Scale Invariant Feature Transform)特征、Edgelet特征等。Haar特征常与Boosting分类器结合使用,Haar特征在人脸检测中有较好的实时性和鲁棒性。然而,Haar特征应用于行人检测时,性能有所下降。研究表明,在10-1误检率的情况下只有约50%的检测率,并且对场景有着较高的要求。Edgelet利用的是局部特征,该方法对于不同姿态的行人检测及互相遮挡的行人检测,处理效果较好。然而,由于Edgelet特征需要手动标定,所以对该特征的提取比较复杂,对于一些本身较为复杂的曲线,难以通过手动标定的方法得到符合人体曲线的Edgelet特征。SIFT特征对于提取图像的不变特征可以取得非常不错的效果,但是仍然存在很多缺陷,比如:有时候提取的特征点会比较少、实时性一般、无法提取边缘比较模糊的目标对象等。方向梯度直方图(Histogram of OrientedGradient,HOG)特征通过提取目标局部区域的边缘或者梯度的分布状况,可以很好地表达目标轮廓在相应局部区域内不同方向的一种投票统计,从而表现目标的形状。Hog结合SVM是行人检测中最经典的算法之一,该方法由Dala等人在2005的CVPR上提出。通过实验,Hog特征结合SVM分类器在行人检测中取得了很好的效果。因此,选用HOG特征训练的SVM分类器作为初始分类器进行行人检测。
随机蕨分类器算法由Ozuysal提出,该算法通过从样本特征集合随机抽取多个特征构成一个随机蕨,通过随机蕨统计训练样本后验概率分布,再由多个随机蕨的后验概率分布进行样本分类。将该算法与在线学习相结合,利用在线学习的方法不用事先准备大量样本训练分类器,能在很大程度上减轻对样本的获取及标注等工作的优点,形成在线学习的随机蕨分类器。
选用HOG特征训练的SVM分类器作为分类器进行行人检测,效果好坏完全依赖于训练的SVM分类器的分类性能。若SVM性能较差,则需重新选取样本再去训练该分类器,无法在检测过程中提升检测性能,工作繁琐。
发明内容
为了解决现有技术的不足,本发明选取在线学习的随机蕨分类器与之级联,通过在线学习的方法,在检测同时提高整体的分类性能,本发明提供了一种基于在线学习随机蕨分类器的行人检测方法,将初始分类器与在线学习的分类器进行级联,构成多种分类器融合的系统用于视频目标检测,其中初始分类器为HOG特征训练SVM分类器,在线学习的分类器为在线随机蕨分类器,该系统通过在线自动选取正负样本训练随机蕨分类,最终形成在线学习的行人检测体系,通过实验可知,在初始分类器上级联在线学习的随机蕨分类器,通过在线学习算法可有效提高整体视频目标检测精度。
本发明为解决其技术问题所采用的技术方案是:提供了一种基于在线学习随机蕨分类器的行人检测方法,包括以下步骤:
(1)多分类器在线训练:
(1.1)获取初始支持向量机分类器:从已知的行人库选取n个正样本和n个负样本,对每个样本提取方向梯度直方图特征,利用方向梯度直方图特征训练支持向量机分类器;
(1.2)获取初始随机蕨分类器:
(1.2.1)将检测视频的第一帧转化为灰度图像后,在灰度图像中框选一组正样本和一组负样本,对每个样本进行n次仿射变换并将仿射变换后的结果作为初始训练随机蕨分类器的正样本和负样本,在得到的每个样本中随机提取3个像素块;
(1.2.2)对每个像素块,比较其左半部分所有像素值之和Ileft与右半部分所有像素值之和Iright的大小以及上半部分所有像素值之和Itop与下半部分所有像素值之和Ibottom的大小,根据比较结果对每个像素块的特征编码为2位二进制数;构造随机蕨,令随机蕨包含上述3个像素块,则该随机蕨根据3个像素块的特征编码得到一个6位二进制编码;
(1.2.3)统计初始训练随机蕨分类器的正样本和负样本在随机蕨上的后验概率分布,获得初始随机蕨分类器;
(1.3)在线训练初始随机蕨分类器:对于检测视频的第一帧以后的后续帧,执行步骤(1.3.1)和(1.3.2):
(1.3.1)设置检测阈值Tc为0.5~1,利用步骤(1)训练获得的支持向量机分类器对后续帧进行目标检测,得到检测结果;
(1.3.2)将每个检测结果仿射变换n次,得到n个结果作为正样本训练初始随机蕨分类器;在检测结果周围选取与正样本等大的图像块,分别仿射变换n次,将得到的n个结果作为负样本训练初始随机蕨分类器,得到经过训练的随机蕨分类器;
(2)多分类器的视频目标检测:
(2.1)以支持向量机分类器作为初始分类器进行目标检测:降低检测阈值Tc为-0.5~-1,利用支持向量机分类器对检测视频的视频帧进行检测得到检测结果;
(2.2)利用随机蕨分类器对检测结果分类:对步骤(2.1)得到的检测结果,计算每个检测结果在随机蕨上的后验概率P,对大于阈值T1的后验概率P对应的检测结果作为正确检测结果,否则作为虚警删除;
(2.3)在线更新随机蕨分类器,更新条件包括:
(a)将正确检测结果作为正样本更新随机蕨的后验概率分布;
(b)采用改进的光流法对正确检测结果进行跟踪,计算跟踪结果在随机蕨分类器上的后验概率,若后验概率高于阈值T2,则将正确检测结果作为正样本更新随机蕨分类器;
(c)对每个正样本,在其周围选取一组大小相同的区域,用随机蕨分类器计算区域的后验概率,若后验概率小于阈值T3,则将区域作为负样本更新随机蕨分类器;
(2.4)重复步骤(2.1)至步骤(2.3),直到遍历完检测视频的所有视频帧。
所述n设置为800~1200。
所述阈值T1设置为0.35~0.45。
所述阈值T2设置为0.35~0.45。
所述阈值T3设置为0.15~0.25。
重复步骤(1.2)获取2个以上随机蕨分类器,针对每个随机蕨分类器重复步骤(2.3),若一个检测结果经过每个随机蕨分类器分类均为正确检测结果,则该检测结果为最终的正确检测结果,否则作为虚警删除。
步骤(1.2.2)中,所述根据比较结果对每个像素块的特征编码为2位二进制数,编码规则为:
本发明基于其技术方案所具有的有益效果在于:
(1)本发明初始分类器与在线学习的分类器进行级联,构成多种分类器融合的系统用于视频目标检测,其中初始分类器为HOG特征训练SVM分类器,在线学习的分类器为在线随机蕨分类器,通过在线自动选取正负样本训练随机蕨分类,最终形成在线学习的行人检测体系,通过实验可知,在初始分类器上级联在线学习的随机蕨分类器,通过在线学习算法可有效提高整体视频目标检测精度;
(2)本发明在训练随机蕨分类器时,利用支持向量机分类器进行目标检测时,阈值Tc设置较高,能够保证初筛结果的正确性;之后在多分类器视频目标检测过程中,运用支持向量机分类器对视频帧进行检测时,将阈值Tc值降低,提高检测率。
附图说明
图1是本发明整体流程图,其中(a)为多分类器在线训练过程,(b)为多分类器的视频目标检测过程。
图2为像素块选取示意图。
图3为像素块特征提取示意图。
图4为随机蕨分类器的分类结构示意图。
图5示出加入在线学习的随机蕨分类器前后,在三种场景下效果对比,其中,
图(a1)和(a2)分别为场景1的HOG方法的检测效果和本发明方法的检测效果;
图(b1)和(b2)分别为场景2的HOG方法的检测效果和本发明方法的检测效果;
图(c1)和(c2)分别为场景3的HOG方法的检测效果和本发明方法的检测效果。
图6为在三种不同场景下,经过一段时间学习后,本发明与HOG方法检测效果的ROC曲线比较。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
本发明提供了一种基于在线学习随机蕨分类器的行人检测方法,参照图1,包括以下步骤:
(1)多分类器在线训练:
(1.1)获取初始支持向量机分类器:从已知的行人库选取n个正样本和n个负样本,对每个样本提取方向梯度直方图特征,利用方向梯度直方图特征训练支持向量机分类器;
(1.2)获取初始随机蕨分类器:
(1.2.1)将检测视频的第一帧转化为灰度图像后,在灰度图像中框选一组正样本和一组负样本,对每个样本进行n次仿射变换并将仿射变换后的结果作为初始训练随机蕨分类器的正样本和负样本,在得到的每个样本中随机提取3个像素块,3个像素块选取如图2所示;
(1.2.2)比较其左半部分所有像素值之和Ileft与右半部分所有像素值之和Iright的大小以及上半部分所有像素值之和Itop与下半部分所有像素值之和Ibottom的大小,根据比较结果对每个像素块的特征编码为2位二进制数;如图3所示,编码规则为:
构造随机蕨,令随机蕨包含上述3个像素块,则该随机蕨根据3个像素块的特征编码得到一个6位二进制编码;
通过此种方法,每个样本在随机蕨上统计的特征可形成一个六位数的二进制编码,其对应的十进制数有26种可能的数值,通过训练大量的样本,可方便计算后验概率。对于大量的行人样本,由相同位置的3个patch可获得每个样本的随机蕨数值,统计该数值分布即可获得行人样本在该随机蕨的后验概率P(Fl|ck)。
(1.2.3)统计初始训练随机蕨分类器的正样本和负样本在随机蕨上的后验概率分布,获得初始随机蕨分类器;
(1.3)在线训练初始随机蕨分类器:对于检测视频的第一帧以后的后续帧,执行步骤(1.3.1)和(1.3.2):
(1.3.1)设置检测阈值Tc为0.5~1,利用步骤(1)训练获得的支持向量机分类器对后续帧进行目标检测,得到检测结果;
(1.3.2)将每个检测结果仿射变换n次,得到n个结果作为正样本训练初始随机蕨分类器;在检测结果周围选取与正样本等大的图像块,分别仿射变换n次,将得到的n个结果作为负样本训练初始随机蕨分类器,得到经过训练的随机蕨分类器;
(2)多分类器的视频目标检测:
(2.1)以支持向量机分类器作为初始分类器进行目标检测:降低检测阈值Tc为-0.5~-1,利用支持向量机分类器对检测视频的视频帧进行检测得到检测结果;
(2.2)利用随机蕨分类器对检测结果分类:对步骤(2.1)得到的检测结果,计算每个检测结果在随机蕨上的后验概率P,对大于阈值T1的后验概率P对应的检测结果作为正确检测结果,否则作为虚警删除;
随机蕨对检测结果分类的实现过程如下:
设图4(a)所示的待测样本在随机蕨F1中特征值为000011即对应十进制数3,通过每一类的后验概率分布得到数值“3”属于该类的概率P(Fl|ck),k=0,1,..,最大概率对应的类别即随机蕨F1对该样本的分类结果,由图4(b)知,该样本属于C3类。显然一个随机蕨对样本的分类精度不高,可以重复步骤(1.2)获取2个以上随机蕨分类器,针对每个随机蕨分类器重复步骤(2.3),若一个检测结果经过每个随机蕨分类器分类均为正确检测结果,则该检测结果为最终的正确检测结果,否则作为虚警删除。联合多个随机蕨对待测样本进行分类,即为随机蕨分类器
(2.3)在线更新随机蕨分类器,更新条件包括:
(a)将正确检测结果作为正样本更新随机蕨的后验概率分布;
(b)采用改进的光流法对正确检测结果进行跟踪,计算跟踪结果在随机蕨分类器上的后验概率,若后验概率高于阈值T2,则将正确检测结果作为正样本更新随机蕨分类器;
(c)对每个正样本,在其周围选取一组大小相同的区域,用随机蕨分类器计算区域的后验概率,若后验概率小于阈值T3,则将区域作为负样本更新随机蕨分类器;
随机蕨分类器的在线学习通过更新后验概率分布实现。下面以随机蕨F1为例说明随机蕨后验概率更新过程:
计算该样本在随机蕨F1的数值,设为000101,即十进制数5将随机蕨F1的数值也为5的正样本数N加1,负样本数M不变;更新随机蕨F1的后验概率分布,其中数值5的后验概率变为归一化随机蕨F1的后验概率分布;
(2.4)重复步骤(2.1)至步骤(2.3),直到遍历完检测视频的所有视频帧。
通过上述步骤,在对目标进行检测的同时,在线训练并更新随机蕨分类器,并用更新后的随机蕨分类器对检测结果再次分类,检测与学习同步进行,逐步提高检测精度。通过在初始分类器上级联随机蕨分类器,形成多种分类器融合形式,进而提高视频目标检测性能。
所述n设置为800~1200。
所述阈值T1设置为0.35~0.45。
所述阈值T2设置为0.35~0.45。
所述阈值T3设置为0.15~0.25。
图5显示了针对3种不同场景,利用HOG方法检测的效果,和利用本发明进行检测的效果。可以看到,场景1商业中心、场景2业务大厅以及场景3人行通道这3种场景的检测视频帧中,采用HOG方法检测行人产生的虚警较多,(HOG方法将静止物体作为目标结果的情况非常常见),而本发明方法检测结果则准确得多。
将3种场景中的检测结果绘制成ROC(receiver operating characteristiccurve,简称ROC曲线)曲线图,如图6所示,对比结果更为直观。在场景1与场景2这种常见场景下,本发明检测结果与HOG检测结果相比,在同等检测率条件下有更高的检测精度。对场景3,由于视频十分模糊且目标形变极为严重,使得在提升检测精度的同时降低了检测率。
Claims (6)
1.一种基于在线学习随机蕨分类器的行人检测方法,其特征在于包括以下步骤:
(1)多分类器在线训练:
(1.1)获取初始支持向量机分类器:从已知的行人库选取n个正样本和n个负样本,对每个样本提取方向梯度直方图特征,利用方向梯度直方图特征训练支持向量机分类器;
(1.2)获取初始随机蕨分类器:
(1.2.1)将检测视频的第一帧转化为灰度图像后,在灰度图像中框选一组正样本和一组负样本,对每个样本进行n次仿射变换并将仿射变换后的结果作为初始训练随机蕨分类器的正样本和负样本,在得到的每个样本中随机提取3个像素块;
(1.2.2)对每个像素块,比较其左半部分所有像素值之和Ileft与右半部分所有像素值之和Iright的大小以及上半部分所有像素值之和Itop与下半部分所有像素值之和Ibottom的大小,根据比较结果对每个像素块的特征编码为2位二进制数,编码规则为:
构造随机蕨,令随机蕨包含上述3个像素块,则该随机蕨根据3个像素块的特征编码得到一个6位二进制编码;
(1.2.3)统计初始训练随机蕨分类器的正样本和负样本在随机蕨上的后验概率分布,获得初始随机蕨分类器;
(1.3)在线训练初始随机蕨分类器:对于检测视频的第一帧以后的后续帧,执行步骤(1.3.1)和(1.3.2):
(1.3.1)设置检测阈值Tc为0.5~1,利用步骤(1)训练获得的支持向量机分类器对后续帧进行目标检测,得到检测结果;
(1.3.2)将每个检测结果仿射变换n次,得到n个结果作为正样本训练初始随机蕨分类器;在检测结果周围选取与正样本等大的图像块,分别仿射变换n次,将得到的n个结果作为负样本训练初始随机蕨分类器,得到经过训练的随机蕨分类器;
(2)多分类器的视频目标检测:
(2.1)以支持向量机分类器作为初始分类器进行目标检测:降低检测阈值Tc为-0.5~-1,利用支持向量机分类器对检测视频的视频帧进行检测得到检测结果;
(2.2)利用随机蕨分类器对检测结果分类:对步骤(2.1)得到的检测结果,计算每个检测结果在随机蕨上的后验概率P,对大于阈值T1的后验概率P对应的检测结果作为正确检测结果,否则作为虚警删除;
(2.3)在线更新随机蕨分类器,更新条件包括:
(a)将正确检测结果作为正样本更新随机蕨的后验概率分布;
(b)采用改进的光流法对正确检测结果进行跟踪,计算跟踪结果在随机蕨分类器上的后验概率,若后验概率高于阈值T2,则将正确检测结果作为正样本更新随机蕨分类器;
(c)对每个正样本,在其周围选取一组大小相同的区域,用随机蕨分类器计算区域的后验概率,若后验概率小于阈值T3,则将区域作为负样本更新随机蕨分类器;
(2.4)重复步骤(2.1)至步骤(2.3),直到遍历完检测视频的所有视频帧。
2.根据权利要求1所述的基于在线学习随机蕨分类器的行人检测方法,其特征在于:所述n设置为800~1200。
3.根据权利要求1所述的基于在线学习随机蕨分类器的行人检测方法,其特征在于:所述阈值T1设置为0.35~0.45。
4.根据权利要求1所述的基于在线学习随机蕨分类器的行人检测方法,其特征在于:所述阈值T2设置为0.35~0.45。
5.根据权利要求1所述的基于在线学习随机蕨分类器的行人检测方法,其特征在于:所述阈值T3设置为0.15~0.25。
6.根据权利要求1所述的基于在线学习随机蕨分类器的行人检测方法,其特征在于:重复步骤(1.2)获取2个以上随机蕨分类器,针对每个随机蕨分类器重复步骤(2.3),若一个检测结果经过每个随机蕨分类器分类均为正确检测结果,则该检测结果为最终的正确检测结果,否则作为虚警删除。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610148420.3A CN105825233B (zh) | 2016-03-16 | 2016-03-16 | 一种基于在线学习随机蕨分类器的行人检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610148420.3A CN105825233B (zh) | 2016-03-16 | 2016-03-16 | 一种基于在线学习随机蕨分类器的行人检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105825233A CN105825233A (zh) | 2016-08-03 |
CN105825233B true CN105825233B (zh) | 2019-03-01 |
Family
ID=56987890
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610148420.3A Expired - Fee Related CN105825233B (zh) | 2016-03-16 | 2016-03-16 | 一种基于在线学习随机蕨分类器的行人检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105825233B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107292918B (zh) * | 2016-10-31 | 2020-06-19 | 清华大学深圳研究生院 | 基于视频在线学习的跟踪方法和装置 |
CN106803247B (zh) * | 2016-12-13 | 2021-01-22 | 上海交通大学 | 一种基于多级筛选卷积神经网络的微血管瘤图像识别方法 |
CN107092878A (zh) * | 2017-04-13 | 2017-08-25 | 中国地质大学(武汉) | 一种基于混合分类器的可自主学习多目标检测方法 |
CN108038515A (zh) * | 2017-12-27 | 2018-05-15 | 中国地质大学(武汉) | 无监督多目标检测跟踪方法及其存储装置与摄像装置 |
CN109613526A (zh) * | 2018-12-10 | 2019-04-12 | 航天南湖电子信息技术股份有限公司 | 一种基于支持向量机的点迹过滤方法 |
CN110400313B (zh) * | 2019-08-01 | 2021-01-01 | 北京灵医灵科技有限公司 | 一种核磁共振影像的软组织分离方法和分离系统 |
CN112347968A (zh) * | 2020-11-18 | 2021-02-09 | 合肥湛达智能科技有限公司 | 一种基于自主在线学习的目标检测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103593856A (zh) * | 2013-11-20 | 2014-02-19 | 中国科学院深圳先进技术研究院 | 单目标跟踪方法及系统 |
CN104063713A (zh) * | 2014-07-04 | 2014-09-24 | 中国地质大学(武汉) | 一种基于随机蕨分类器的半自主在线学习方法 |
CN104156734A (zh) * | 2014-08-19 | 2014-11-19 | 中国地质大学(武汉) | 一种基于随机蕨分类器的全自主在线学习方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9582006B2 (en) * | 2011-07-06 | 2017-02-28 | Peloton Technology, Inc. | Systems and methods for semi-autonomous convoying of vehicles |
-
2016
- 2016-03-16 CN CN201610148420.3A patent/CN105825233B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103593856A (zh) * | 2013-11-20 | 2014-02-19 | 中国科学院深圳先进技术研究院 | 单目标跟踪方法及系统 |
CN104063713A (zh) * | 2014-07-04 | 2014-09-24 | 中国地质大学(武汉) | 一种基于随机蕨分类器的半自主在线学习方法 |
CN104156734A (zh) * | 2014-08-19 | 2014-11-19 | 中国地质大学(武汉) | 一种基于随机蕨分类器的全自主在线学习方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105825233A (zh) | 2016-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105825233B (zh) | 一种基于在线学习随机蕨分类器的行人检测方法 | |
CN106022300B (zh) | 基于级联深度学习的交通标志识别方法和系统 | |
CN108520226B (zh) | 一种基于躯体分解和显著性检测的行人重识别方法 | |
Zhang et al. | Learning semantic scene models by object classification and trajectory clustering | |
CN108288033B (zh) | 一种基于随机蕨融合多特征的安全帽检测方法 | |
CN111079674B (zh) | 一种基于全局和局部信息融合的目标检测方法 | |
CN107133569A (zh) | 基于泛化多标记学习的监控视频多粒度标注方法 | |
CN104063719A (zh) | 基于深度卷积网络的行人检测方法及装置 | |
CN110084165A (zh) | 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法 | |
CN104751136A (zh) | 一种基于人脸识别的多相机视频事件回溯追踪方法 | |
CN103996018A (zh) | 基于4dlbp的人脸识别方法 | |
CN105069816B (zh) | 一种进出口人流量统计的方法及系统 | |
CN112801019B (zh) | 基于合成数据消除无监督车辆再识别偏差的方法及系统 | |
CN103020614A (zh) | 基于时空兴趣点检测的人体运动识别方法 | |
CN106127112A (zh) | 基于dlle模型的数据降维与特征理解方法 | |
CN105893941B (zh) | 一种基于区域图像的人脸表情识别方法 | |
CN107657276B (zh) | 一种基于寻找语义类簇的弱监督语义分割方法 | |
CN107092878A (zh) | 一种基于混合分类器的可自主学习多目标检测方法 | |
CN108509861A (zh) | 一种基于样本学习和目标检测结合的目标跟踪方法和装置 | |
CN104598898B (zh) | 一种基于多任务拓扑学习的航拍图像快速识别系统及其快速识别方法 | |
US20200034649A1 (en) | Object tracking system, intelligent imaging device, object feature extraction device, and object feature extraction method | |
CN114863464A (zh) | 一种pid图纸图件信息的二阶识别方法 | |
CN105354547A (zh) | 一种结合纹理和彩色特征的行人检测方法 | |
TW201820260A (zh) | 全天候熱影像式行人偵測方法 | |
CN104008374B (zh) | 一种矿井图像中基于条件随机场的矿工检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190301 Termination date: 20210316 |