CN106778570B - 一种行人实时检测与跟踪方法 - Google Patents
一种行人实时检测与跟踪方法 Download PDFInfo
- Publication number
- CN106778570B CN106778570B CN201611103684.3A CN201611103684A CN106778570B CN 106778570 B CN106778570 B CN 106778570B CN 201611103684 A CN201611103684 A CN 201611103684A CN 106778570 B CN106778570 B CN 106778570B
- Authority
- CN
- China
- Prior art keywords
- tracking
- pedestrian
- detection
- foreground
- scale
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种行人实时检测与跟踪方法,包括以下步骤:S1、通过背景建模模块进行前景检测,对前景检测的结果进行处理后找出动态目标所在的区域;S2、通过行人检测模块对动态目标所在的区域进行行人检测;S3、通过行人跟踪模块用行人检测的结果进行行人跟踪,其中对行人跟踪的过程出现的跟踪漂移利用前景检测的结果及时进行校正。本发明实时性好,行人跟踪精度高。
Description
技术领域
本发明涉及运动目标跟踪领域,特别是涉及一种行人实时检测与跟踪方法。
背景技术
由于交通安全管理,生产安全管理,社会治安管理的要求日益提升,效率低下的传统监控已经不能满足实际处理需求。基于视频的智能化视觉检测跟踪系统旨在实时地检测跟踪视频中的多行人目标,自动监控或者辅助监控,提高监控效率以及监控力度,节省人力物力,对非安全行为进行警报,为管理提供支持,带来经济效益和社会效益。
多行人实时检测跟踪技术能够帮助监控人员更快更好的定位目标。人工监控在使用多屏幕监控时难免出现遗漏,如果有行人跟踪技术可以实时地标注监视器中出现的行人,对监控人员的工作效率,监控录像的回放分析都有很大的好处,而采用多行人实时监测跟踪技术就可以达到这样的效果。
目前运动目标跟踪问题的算法主要有两种思路,一种是依靠先验知识,为跟踪目标建模,然后在视频中找到与模型相匹配的运动目标。另一种是不依赖先验知识,利用前景检测算法等直接从视频中将运动目标和背景区分开来,然后进行目标识别,最终跟踪感兴趣的目标。
行人跟踪技术在军事,交通,安全监控等方面都有很重要的作用,目前该技术遇到的共同难题有遮挡,目标尺度变化,跟踪漂移等问题,同时一些技术的速度难以达到实时要求。在目标跟踪的过程中,如果无法处理逐帧的误差累积,及时校正跟踪漂移,就会跟丢目标,一旦跟踪失败,后续的处理就无法进行。而行人在行走过程中和摄像头的距离发生改变时会发生尺度变化,如果不及时改变跟踪框的大小,跟踪框与目标大小不匹配会有负样本的引入,导致跟踪的精度大幅下降,甚至因此跟踪失败。
发明内容
本发明的主要目的在于克服现有技术的不足,提供一种行人实时检测与跟踪方法,解决现有技术中实时性不够好,跟踪漂移以及尺度变换导致跟踪失败的问题。
为实现上述目的,本发明采用以下技术方案:
一种行人实时检测与跟踪方法,包括以下步骤:
S1、通过背景建模模块进行前景检测,对前景检测的结果进行处理后找出动态目标所在的区域;
S2、通过行人检测模块对动态目标所在的区域进行行人检测;
S3、通过行人跟踪模块用行人检测的结果进行行人跟踪,其中对行人跟踪的过程出现的跟踪漂移利用前景检测的结果及时进行校正。
进一步地:
所述行人跟踪模块针对运动目标设置跟踪框,步骤S3中,利用对行人的先验知识,通过运动目标在跟踪框中的占比来进行跟踪漂移的校正。
步骤S3中,进行行人跟踪时,根据运动目标在跟踪框中的前景占比来判断是否发生跟踪漂移,并在判断发生跟踪漂移时向预设的前景占比最合适的区域进行校正。
计算前景占比时,根据与跟踪框中心位置的距离赋予不同权重,离中心越近权重越高。
步骤S3中,进行行人跟踪前,先用行人检测的结果为跟踪器初始化跟踪目标位置。
所述行人跟踪模块针对运动目标设置跟踪框,步骤S3中,进行行人跟踪时,利用前景检测的结果,在跟踪目标出现的尺度变化时对跟踪框的尺度进行调整。
预设不同尺度的跟踪框,以便在跟踪目标出现尺度变换时,及时根据跟踪目标大小变化调整跟踪框。
步骤S3中,采用邻域搜索的方法来进行实时跟踪,将模型的计算转换到频域中进行计算。
步骤S1中,对前景检测的结果进行处理包括利用行人的先验知识,对前景检测的结果进行前置处理,再输入到行人检测模块中;优选地,前置处理利用包括行人的长宽比、身体部位的相对位置信息作为先验知识,根据不同动态区域合并后的长宽比及其中心连线距离来判断是否区域合并。
步骤S1中,背景建模模块使用ViBe算法提取前景图片;步骤S2中,行人检测模块检测的特征采用边缘特征HOG以及融合提取速度快的纹理特征LBP,两种特征互补以提高分类能力,优选地,训练不同的分类器以适应不同行人的检测过程。
本发明的有益效果:
本发明利用背景建模的结果及时校正跟踪漂移,并可利用先验知识解决尺度变换问题。本发明可以实时地处理跟踪漂移和尺度变换的问题,结合了背景建模和检测器和及时校正的机制,行人检测模块可以改正跟踪器的错误,而背景建模模块的结果可以用来对跟踪漂移进行校正,跟踪模块的结果可以用于下一帧背景建模模块的图片后置处理。
相比现有的其他跟踪方法,采用本发明的方法能够获得的独特优势在于:
1.跟踪速度快。首先,本发明的跟踪模块将模型的运算转移到频域中,避免了时域中的卷积、矩阵求逆运算,利用快速傅里叶极快地完成,速度高达300FPS,远超实时性的速度要求。在保证准确率和稳定性的同时,又能极大提高处理速度,完全满足实时性的要求。其次,在跟踪目标的尺度发生变化时,本发明及时改变跟踪框的大小,在跟踪目标变小时及时将跟踪框缩小,避免了计算资源的浪费,提高了运算效率。最后,利用背景建模的结果,在行人检测模块中直接对前景部分及其领域进行检测,不必像以前一样进行全局搜索,进一步节省了运算资源。通过以上三点工作,本发明在提高了运算速度的同时也很好的改善了运算效率。
2.跟踪漂移的及时校正。目前有些跟踪算法已经可以做到对跟踪漂移的校正,但是当运动速度较快的行人跟踪产生漂移时,经常无法及时校正导致漂移连续发生。本发明利用先验知识,通过行人在跟踪框中的占比来进行校正,为了加速计算过程,使用预先建立的权值矩阵,大大提高了校正速度。
3.应对跟踪过程中的尺度变换。利用前景检测的结果来变更跟踪框的尺度,这样做的好处是既可以有准确的外界参照,又不会像渐变尺度模型一样消耗较多运算资源。当目标在跟踪框中占比过小的时候减小跟踪框大小,在占比过大时增大跟踪框大小。
附图说明
图1是本发明实施例利用行人的先验知识对前景图中连通区域进行合并效果图;
图2是本发明实施例行人检测模块的流程图;
图3是本发明实施例在跟踪过程中对跟踪漂移进行校正的示意图;
图4是本发明实施例在跟踪过程中漂移校正、尺度变化处理的例子;
图5是本发明实施例跟踪效果图;
图6是本发明实施例检测与跟踪方法的流程图。
具体实施方式
以下对本发明的实施方式作详细说明。应该强调的是,下述说明仅仅是示例性的,而不是为了限制本发明的范围及其应用。
参阅图1至图6,在一种实施例中,一种行人实时检测与跟踪方法,包括以下步骤:
S1、通过背景建模模块进行前景检测,对前景检测的结果进行处理后找出动态目标所在的区域;
S2、通过行人检测模块对动态目标所在的区域进行行人检测;
S3、通过行人跟踪模块用行人检测的结果进行行人跟踪,其中对行人跟踪的过程出现的跟踪漂移利用前景检测的结果及时进行校正。
在优选的实施例中,所述行人跟踪模块针对运动目标设置跟踪框,步骤S3中,利用对行人的先验知识,通过运动目标在跟踪框中的占比来进行跟踪漂移的校正。
在更优选的实施例中,步骤S3中,进行行人跟踪时,根据运动目标在跟踪框中的前景占比来判断是否发生跟踪漂移,并在判断发生跟踪漂移时向预设的前景占比最合适的区域进行校正。
在更优选的实施例中,计算前景占比时,根据与跟踪框中心位置的距离赋予不同权重,离中心越近权重越高。
在更优选的实施例中,步骤S3中,进行行人跟踪前,先用行人检测的结果为跟踪器初始化跟踪目标位置。
在优选的实施例中,所述行人跟踪模块针对运动目标设置跟踪框,步骤S3中,进行行人跟踪时,利用前景检测的结果,在跟踪目标出现的尺度变化时对跟踪框的尺度进行调整。
在更优选的实施例中,预设不同尺度的跟踪框,以便在跟踪目标出现尺度变换时,及时根据跟踪目标大小变化调整跟踪框。
在优选的实施例中,步骤S3中,采用邻域搜索的方法来进行实时跟踪,将模型的计算转换到频域中进行计算。
在优选的实施例中,步骤S1中,对前景检测的结果进行处理包括利用行人的先验知识,对前景检测的结果进行前置处理,再输入到行人检测模块中;优选地,前置处理利用包括行人的长宽比、身体部位的相对位置信息作为先验知识,根据不同动态区域合并后的长宽比及其中心连线距离来判断是否区域合并。
在优选的实施例中,步骤S1中,背景建模模块使用ViBe(Visual BackgroundExtractor)算法提取前景图片;步骤S2中,行人检测模块检测的特征采用边缘特征HOG(Histograms of Oriented Gradients)以及融合提取速度快的纹理特征LBP(LocalBinary Patterns),两种特征互补以提高分类能力,优选地,训练不同的分类器以适应不同行人的检测过程。
根据本发明优选的实施例,背景建模模块用于区分运动目标和前景,用于校正跟踪漂移。该部分使用ViBe算法提取前景图片,在进行预处理后输入到下一个模块。行人检测模块用于对动态目标所在区域进行行人检测,必要的时候为跟踪器初始化跟踪目标位置,避免跟踪失败。检测的特征采用常用的边缘特征HOG以及融合提取速度快的纹理特征LBP,两种特征互补以提高分类能力。行人跟踪模块用于进行行人跟踪。较佳的,采用邻域搜索的方法,将模型的计算转换到频域中,利用快速傅里叶计算卷积,极大地加快了运算速度,以达到实时跟踪的目的。
以下结合附图进一步描述本发明的具体实施例。
一、背景建模
背景建模用于跟踪漂移的校正,本发明采用的是ViBe算法。ViBe算法将背景建模看成一个将一个新的像素值分类为背景或者前景的分类问题,同时考虑了像素值的邻域点来避免异常值的影响。通过对像素值的邻域点的采样来建立背景模型。这样就不需要选择和估计概率密度函数,只需要将像素值和采样点集合做比较。这跟以往的背景建模方法不同,新的像素值需要与采样背景集合中的大多数像素相近。这样比只需统计少量的值就能获得很高的可信度。
ViB只需要一帧就可以完成初始化,第二帧就提供前景分割的结果,可以有效的在任意长度的视频中使用。当第一帧包含移动前景,在产生鬼影问题时,由于采用了无记忆更新测量,ViBe可在数帧后就消除该问题的影响。
通过ViBe得到背景建模图后,我们进行后置处理,首先统计每个前景点的邻域中其他前景点的数量,如果数量较少则判定为噪点并去除。然后利用前一帧的跟踪结果,以行人的长宽比作为先验依据,将前景图中的行人进行连通域合并,算法的具体实现如下:
Ri代表目标跟踪结果,Rb代表两矩形框中较宽的框,Rs代表两矩形框中较窄的框,Rc代表为合并后的框,Rate代表行人的先验长宽比,Ty和Tr代表用于判断合并的阈值。
1.将目标跟踪结果扩大1+padding倍,成为跟踪的邻域,padding为扩大系数;
2.寻找前景R区域中的连通域集合Sr;
3.对于连通域集合Sr中的两两元素遍历判断是否可以合并,如果可以合并则合并,并重新加入连通域集合中,原先两元素移出连通域集合Sr。
连通域合并判断如下:
1.计算Rb,Rs的Y轴距离Dy;
2.计算Rs的横轴范围是否在Rb的横轴范围内,否则不合并;
3.计算Rc与先验行人框的比例差
4.如果Dy<Ty,Dr<Tr,则合并。
合并的过程见图1,行人的上下半身分成两个区域,判定应合并后的得到合并框Rc。
二、行人检测
本发明中的行人检测模块结合背景建模的后置处理结果,在运动前景及其邻域中进行搜索,行人检测模块的流程如图2所示,检测的特征采用常用的边缘特征HOG以及融合提取速度快的纹理特征LBP,两种特征互补以提高分类能力。为了应对不同行人检测过程中可能出现的尺度问题,我们训练了两种不同的分类器,分别用来检测普通目标和小目标。为了保证检测结果的正确性,本发明对检测出的人的目标进行一定长度的跟踪,连续出现且轨迹平滑的目标便可以判定为行人,可以有效剔除干扰和误检目标。
三、行人跟踪
本发明的跟踪算法采用邻域搜索类型的跟踪算法,邻域搜索的方法中最核心的组件是分类器,给定一些样本和标记(x1,y1),...(xm,ym),一个分类器f(x)被这些样本训练来寻找最小化成本的分类器参数。一个线性分类器的形式为f(x)=<w,x>+b,那么这个最小化问题就是:
其中L(y,f(x))是成本函数,λ是控制参数的规则化。
我们采用最小规则方差法(RLS)作为成本函数:
L(y,f(x))=(y-f(x))2
然后,带核的RLS有一个很简单的解,
α=(K+λI)-1y
其中K是核矩阵,I是单位矩阵,系数矩阵w可以通过向量α求得。在一些合适的条件下,核矩阵可以是循环矩阵,通过n×1的向量u循环平移连接而成,这样就可以用向量的卷积来表示核矩阵,而卷积可以在频域中利用快速傅里叶很快的计算出。对于一个n×n的图像,原来的纯粹的带核RLS实现的算法复杂度是O(n4),而目前的计算方式算法复杂度仅有O(n2logn)。因此,运算速度得到极大提高。
在跟踪过程中,漂移问题难以避免,本发明提出了快速高效的漂移校正方法。首先是漂移的判定,我们利用了行人的先验知识,在背景建模得到的前景图中,行人在跟踪框中占据的位置主要是其内接椭圆,那么行人在矩形框内的占比可以用下列公式计算,其中w和h是跟踪框的长与宽:
为了使漂移能够收敛到正确的位置,以及防止过度校正,需要对中心位置赋予更高的权重,为此,我们在计算实际的前景占比时先利用如下公式进行权值计算,然后再进行归一化处理:
其中为实际的前景加权占比,I(x,y)是前景二值图的像素值,σ用于控制权值分布,σ越小中心位置的权重越高,最终的归一化系数由σ决定。
尺度变化也是行人跟踪过程中可能遇到的难题,我们继续利用背景建模的结果,用如下公式进行尺度更新:
其中Pb和Ps分别是尺度变大和变小的更新参数,step是尺度更新的步长参数,由于尺度并非每帧都改变,因此不能用当前帧数作为下标,pre与now的下标代表之前的尺度和现在的尺度。
模块的整体流程如下:
1)算法的初始化
It代表第t帧图像,Rt代表目前目标的跟踪位置,代表扩充后的R1,Bt代表第t帧前景,αt代表第t帧的分类器系数。
1.扩充目标矩形增加目标负样本;
2.计算大小的窗函数值作为窗采样权值,以及预期输出矩
阵;
3.对I1进行的窗函数值加权采样;
4.计算密集采样的高斯核k;
5.利用公式计算分类器系数。
2)算法的实时处理
1.对It进行的窗函数值加权采样;
2.计算密集采样的高斯核k;
3.利用分类器系数进行分类,公式为
4.找出输出值中的最大位置,并更新位置Rt+1;
5.如果Rt+1的前景加权占比低于阈值,则在Bt的Rt+1附近邻域计算,在归一化后寻找前景加权占比最大的方向,向该方向移动一个步长,作为漂移校正;
6.根据Rt+1的前景加权占比进行尺度更新
7.根据如果其大于2或者小于0.7则有更新采样框大小;
8.对It进行的窗函数值加权采样;
9.计算密集采样的高斯核k;
10.利用公式计算当前分类器系数;
11.利用公式α=(1-λ)α+λαt以λ的更新率更新分类器。
漂移校正的示意图见图3,发生跟踪漂移后,需要对待校正的跟踪框a进行校正,算法在候选校正框b中搜索,最终跟踪框向前景占比最合适的方向移动,成为校正后的框c。
图4是20个连续帧的跟踪结果,这个跟踪过程中出现了目标尺度变化以及跟踪漂移,我们可以看到本发明提出的算法在很短的时间内校正了跟踪漂移,并且跟踪框的尺度随着目标尺度的变化而变化。
为了量化跟踪效果,我们用跟踪框的中心与真实值的中心的像素距离作为跟踪误差,设该距离的阈值为LE(location error),当跟踪误差小于LE时我们认为跟踪是成功的,对某个跟踪视频的评判结果如图5所示,展示了不同的跟踪阈值下SR(success rate)的变化情况。
以上内容是结合具体/优选的实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,其还可以对这些已描述的实施方式做出若干替代或变型,而这些替代或变型方式都应当视为属于本发明的保护范围。
Claims (10)
1.一种行人实时检测与跟踪方法,其特征在于,包括以下步骤:
S1、通过背景建模模块进行前景检测,对前景检测的结果进行处理后找出动态目标所在的区域;
S2、通过行人检测模块对动态目标所在的区域进行行人检测;
S3、通过行人跟踪模块用行人检测的结果进行行人跟踪,其中对行人跟踪的过程出现的跟踪漂移利用前景检测的结果及时进行校正;
所述行人跟踪模块针对运动目标设置跟踪框,步骤S3中,利用对行人的先验知识,通过运动目标在跟踪框中的占比来进行跟踪漂移的校正,利用前景检测的结果,在跟踪目标出现的尺度变化时对跟踪框的尺度进行调整;
步骤S3中,通过行人跟踪模块进行行人跟踪包括:
1)初始化
扩充目标矩形R1增加目标负样本: 代表扩充后的R1,scale代表扩充系数;
计算大小的窗函数值作为窗采样权值,以及预期输出矩阵,
其中σ为窗函数大小的扩充比例,d为像素点的距离参数;
对第1帧图像I1进行的窗函数值加权采样;
计算密集采样的高斯核k;
利用公式计算分类器系数;
2)实时处理
Rt代表目前目标的矩形跟踪框,对第t帧图像It进行的窗函数值加权采样;
计算密集采样的高斯核k;
利用分类器系数进行分类,公式为
找出输出值中的最大位置,并更新位置Rt+1;
如果Rt+1的前景加权占比低于阈值,则在第t帧前景Bt的Rt+1附近邻域计算,在归一化后寻找前景加权占比最大的方向,向该方向移动一个步长,作为漂移矫正;其中I(x,y)是前景二值图的像素值,σ用于控制权值分布,x、y是像素在图中的横纵坐标;
根据Rt+1的前景加权占比进行尺度更新其中Pb和Ps分别是尺度变大和变小的更新参数,step是尺度更新的步长参数,scalepre与scalenow代表之前的尺度和现在的尺度;
根据如果其大于2或者小于0.7则有更新采样框大小,其中scalet+1代表第t+1帧的扩充系数;
对It进行的窗函数值加权采样;
计算密集采样的高斯核k;
利用公式计算当前分类器系数,即第t帧的分类器系数;
利用公式α=(1-λ)α+λαt以更新率λ更新分类器。
2.如权利要求1所述的行人实时检测与跟踪方法,其特征在于,步骤S3中,进行行人跟踪时,根据运动目标在跟踪框中的前景占比来判断是否发生跟踪漂移,并在判断发生跟踪漂移时向预设的前景占比最合适的区域进行校正。
3.如权利要求2所述的行人实时检测与跟踪方法,其特征在于,计算前景占比时,根据与跟踪框中心位置的距离赋予不同权重,离中心越近权重越高。
4.如权利要求2所述的行人实时检测与跟踪方法,其特征在于,步骤S3中,进行行人跟踪前,先用行人检测的结果为跟踪器初始化跟踪目标位置。
5.如权利要求1所述的行人实时检测与跟踪方法,其特征在于,预设不同尺度的跟踪框,以便在跟踪目标出现尺度变换时,及时根据跟踪目标大小变化调整跟踪框。
6.如权利要求1至4任一项所述的行人实时检测与跟踪方法,其特征在于,步骤S3中,采用邻域搜索的方法来进行实时跟踪,将模型的计算转换到频域中进行计算。
7.如权利要求1至4任一项所述的行人实时检测与跟踪方法,其特征在于,步骤S1中,对前景检测的结果进行处理包括利用行人的先验知识,对前景检测的结果进行前置处理,再输入到行人检测模块中。
8.如权利要求7所述的行人实时检测与跟踪方法,其特征在于,前置处理利用包括行人的长宽比、身体部位的相对位置信息作为先验知识,根据不同动态区域合并后的长宽比及其中心连线距离来判断是否区域合并。
9.如权利要求1至4任一项所述的行人实时检测与跟踪方法,其特征在于,步骤S1中,背景建模模块使用ViBe算法提取前景图片;步骤S2中,行人检测模块检测的特征采用边缘特征HOG以及融合提取速度快的纹理特征LBP,两种特征互补以提高分类能力。
10.如权利要求9所述的行人实时检测与跟踪方法,其特征在于,训练不同的分类器以适应不同行人的检测过程。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611103684.3A CN106778570B (zh) | 2016-12-05 | 2016-12-05 | 一种行人实时检测与跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611103684.3A CN106778570B (zh) | 2016-12-05 | 2016-12-05 | 一种行人实时检测与跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106778570A CN106778570A (zh) | 2017-05-31 |
CN106778570B true CN106778570B (zh) | 2018-08-24 |
Family
ID=58883472
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611103684.3A Expired - Fee Related CN106778570B (zh) | 2016-12-05 | 2016-12-05 | 一种行人实时检测与跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106778570B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107168343B (zh) * | 2017-07-14 | 2020-09-15 | 灵动科技(北京)有限公司 | 一种行李箱的控制方法及行李箱 |
CN108875488B (zh) * | 2017-09-29 | 2021-08-06 | 北京旷视科技有限公司 | 对象跟踪方法、对象跟踪装置以及计算机可读存储介质 |
CN108171716B (zh) * | 2017-12-25 | 2021-11-26 | 北京奇虎科技有限公司 | 基于自适应跟踪框分割的视频人物装扮方法及装置 |
CN108062761A (zh) * | 2017-12-25 | 2018-05-22 | 北京奇虎科技有限公司 | 基于自适应跟踪框的图像分割方法、装置及计算设备 |
CN108764338B (zh) * | 2018-05-28 | 2021-05-04 | 上海应用技术大学 | 一种应用于视频分析的行人跟踪方法 |
CN111260696B (zh) * | 2020-01-21 | 2023-04-18 | 北京工业大学 | 一种面向边缘端行人跟踪和人数精确统计的方法 |
CN111479062B (zh) * | 2020-04-15 | 2021-09-28 | 上海摩象网络科技有限公司 | 目标对象的跟踪框显示方法、设备及手持相机 |
CN113936240A (zh) * | 2021-10-22 | 2022-01-14 | 杭州海康威视数字技术股份有限公司 | 确定样本图像的方法、装置、设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103020986A (zh) * | 2012-11-26 | 2013-04-03 | 哈尔滨工程大学 | 一种运动目标跟踪方法 |
CN103116896A (zh) * | 2013-03-07 | 2013-05-22 | 中国科学院光电技术研究所 | 一种基于视觉显著性模型的自动检测跟踪方法 |
CN103886607A (zh) * | 2014-01-24 | 2014-06-25 | 清华大学深圳研究生院 | 一种针对扰动目标的检测及抑制方法 |
CN105100727A (zh) * | 2015-08-14 | 2015-11-25 | 河海大学 | 一种固定位监控图像中指定物品实时跟踪方法 |
CN105760831A (zh) * | 2015-12-07 | 2016-07-13 | 北京航空航天大学 | 一种基于低空航拍红外视频的行人跟踪方法 |
CN106022231A (zh) * | 2016-05-11 | 2016-10-12 | 浙江理工大学 | 一种基于多特征融合的行人快速检测的技术方法 |
CN106056631A (zh) * | 2016-06-06 | 2016-10-26 | 中国矿业大学 | 基于运动区域的行人检测方法 |
US9665776B2 (en) * | 2010-02-01 | 2017-05-30 | Vito Nv | System and method for 2D occupancy sensing |
CN107292908A (zh) * | 2016-04-02 | 2017-10-24 | 上海大学 | 基于klt特征点跟踪算法的行人跟踪方法 |
-
2016
- 2016-12-05 CN CN201611103684.3A patent/CN106778570B/zh not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9665776B2 (en) * | 2010-02-01 | 2017-05-30 | Vito Nv | System and method for 2D occupancy sensing |
CN103020986A (zh) * | 2012-11-26 | 2013-04-03 | 哈尔滨工程大学 | 一种运动目标跟踪方法 |
CN103116896A (zh) * | 2013-03-07 | 2013-05-22 | 中国科学院光电技术研究所 | 一种基于视觉显著性模型的自动检测跟踪方法 |
CN103886607A (zh) * | 2014-01-24 | 2014-06-25 | 清华大学深圳研究生院 | 一种针对扰动目标的检测及抑制方法 |
CN105100727A (zh) * | 2015-08-14 | 2015-11-25 | 河海大学 | 一种固定位监控图像中指定物品实时跟踪方法 |
CN105760831A (zh) * | 2015-12-07 | 2016-07-13 | 北京航空航天大学 | 一种基于低空航拍红外视频的行人跟踪方法 |
CN107292908A (zh) * | 2016-04-02 | 2017-10-24 | 上海大学 | 基于klt特征点跟踪算法的行人跟踪方法 |
CN106022231A (zh) * | 2016-05-11 | 2016-10-12 | 浙江理工大学 | 一种基于多特征融合的行人快速检测的技术方法 |
CN106056631A (zh) * | 2016-06-06 | 2016-10-26 | 中国矿业大学 | 基于运动区域的行人检测方法 |
Non-Patent Citations (4)
Title |
---|
Improved Post-Processing for Human Detection in Railroad Surveillance;Xueying Xin 等;《2014 International Conference on Service Sciences (ICSS)》;20140523;第210-214页 * |
Pedestrian detection in video of outdoor condition;Xiao Pu 等;《International Conference on Security》;20141231;第36-41页 * |
融合先验知识的自适应行人跟踪算法;程有龙 等;《模式识别与人工智能》;20091031;第22卷(第5期);第704-707页 * |
视频监控中人体跟踪的研究与实现;范玉宪;《中国硕士学位论文全文数据库 信息科技辑》;20160415;第I138-1306页 * |
Also Published As
Publication number | Publication date |
---|---|
CN106778570A (zh) | 2017-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106778570B (zh) | 一种行人实时检测与跟踪方法 | |
Yang et al. | Real-time face detection based on YOLO | |
Li et al. | Automatic pavement crack detection by multi-scale image fusion | |
CN102542289B (zh) | 一种基于多高斯计数模型的人流量统计方法 | |
CN107123131B (zh) | 一种基于深度学习的运动目标检测方法 | |
CN103886325B (zh) | 一种分块的循环矩阵视频跟踪方法 | |
CN105260749B (zh) | 基于方向梯度二值模式和软级联svm的实时目标检测方法 | |
CN108154159B (zh) | 一种基于多级检测器的具有自恢复能力的目标跟踪方法 | |
CN103246896B (zh) | 一种鲁棒性车辆实时检测与跟踪方法 | |
CN104615986B (zh) | 利用多检测器对场景变化的视频图像进行行人检测的方法 | |
CN111932583A (zh) | 一种基于复杂背景下的时空信息一体化智能跟踪方法 | |
CN110084165A (zh) | 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法 | |
CN106127807A (zh) | 一种实时的视频多类多目标跟踪方法 | |
CN105404857A (zh) | 一种基于红外的夜间智能车前方行人检测方法 | |
CN104134078B (zh) | 一种人流量统计系统中分类器的自动选择方法 | |
CN104834942A (zh) | 基于掩膜分类的遥感影像变化检测方法及系统 | |
CN112464933B (zh) | 一种地基凝视红外成像弱小目标智能识别方法 | |
CN108764338B (zh) | 一种应用于视频分析的行人跟踪方法 | |
CN103593679A (zh) | 一种基于在线机器学习的视觉人手跟踪方法 | |
CN104599291B (zh) | 基于结构相似度和显著性分析的红外运动目标检测方法 | |
CN104616006A (zh) | 一种面向监控视频的胡须人脸检测方法 | |
CN106023249A (zh) | 一种基于局部二值相似性模式的运动目标检测方法 | |
CN109636834A (zh) | 基于tld改进算法的视频车辆目标跟踪算法 | |
CN107798691A (zh) | 一种基于视觉的无人机自主着陆地标实时检测跟踪方法 | |
CN110245592A (zh) | 一种用于提升监控场景的行人重识别率的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180824 Termination date: 20201205 |
|
CF01 | Termination of patent right due to non-payment of annual fee |