CN105760831B - 一种基于低空航拍红外视频的行人跟踪方法 - Google Patents
一种基于低空航拍红外视频的行人跟踪方法 Download PDFInfo
- Publication number
- CN105760831B CN105760831B CN201610080546.1A CN201610080546A CN105760831B CN 105760831 B CN105760831 B CN 105760831B CN 201610080546 A CN201610080546 A CN 201610080546A CN 105760831 B CN105760831 B CN 105760831B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- infrared
- target
- image
- plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
Abstract
本发明公开一种基于低空航拍红外视频的行人跟踪方法,结合Lucas‑Kanade光流法和局部区域二次检测来实现持续稳定的行人跟踪:1、离线训练航拍红外行人支持向量机(SVM)分类器;2、确定行人目标初始位置;3、利用LK光流法对行人目标进行初步跟踪,计算出行人目标在下一帧的位置;4、在预测的行人目标位置周围设定搜索区域;在搜索区域内利用离线训练好的SVM分类器对红外行人进行二次检测,更新行人目标位置;5、将在搜索区域内检测到的行人目标中心作为下一次LK光流法的输入坐标,重复步骤(3)~(5)即可。本发明可实现对红外行人目标持续稳定的跟踪,并可以处理路灯遮挡等问题。
Description
技术领域
本发明属于计算机视觉技术领域,涉及一种行人跟踪方法,具体来说,是一种基于低空航拍红外视频的行人跟踪方法。
背景技术
随着计算机视觉技术的迅猛发展,通过视频采集行人数据,已成为计算机视觉领域中的一个重要研究方向,广泛应用在公共场所监控、智能交通监控系统、车载辅助驾驶系统开发等方面。在计算机视觉领域中,行人跟踪通常指在视频或连续帧图像中精确锁定同一个行人的位置,进而可以提高行人检测的精度。由于人体目标非刚性,且姿态、外表复杂多变,远近尺度大小不一,再加上目标遮挡及运动的随意性,使得实现可靠的行人跟踪非常困难。
目前对于行人跟踪的大量研究主要集中在可见光图像领域,利用可见光图像的高质量、细节丰富、颜色特征鲜明等特点,以期获得较好的跟踪效果。但可见光图像受成像条件制约,比如夜晚、大雾等情况下无法清晰识别物体,使得其应用范围受到一定的限制。随着热红外成像技术的普及,利用行人在热红外视频中明显的热特征来实现可靠的行人跟踪正逐渐受到人们的关注。红外图像反映的是具有不同热辐射率目标的表面温度分布,不需要辅助光源的介入,可以在黑暗或大雾情况下识别目标。当前行人跟踪的研究主要是面向固定场所监控应用,然而监控装置机动性差,只能对定点场所进行视频采集,且拍摄角度倾斜,行人间的相互遮挡严重影响了行人的稳定跟踪。近年来,随着无人机在民用市场的开放,利用无人机从空中进行航拍采集视频,可以避免行人间的相互遮挡,更真实地体现行人实际位置变化,对于提取行人运动轨迹,研究行人交通行为具有重要价值。
然而在低空航拍红外视频中,受成像质量的限制,视频信噪比较低,行人目标较小,给精确的行人跟踪带来了困难。传统的目标跟踪方法,如卡尔曼滤波在线性运动的跟踪中表现良好,但对于行人运动的随意性与非线性难以处理。考虑到红外行人目标典型的热特征,即目标较周围环境高亮,采用局部稀疏光流法对行人进行跟踪可以应对行人的非线性运动。通过计算局部稀疏光流从而确定指定像素点的位移来实现目标的跟踪,但是红外图像质量较差、信噪比低,使得光流的计算出现偏差,难以实现对行人目标的可靠、持续跟踪。
发明内容
为了克服低空航拍红外视频的成像质量差、行人目标小所带来的问题,本发明提出一种基于低空航拍红外视频的行人跟踪方法,结合Lucas-Kanade光流法和局部区域二次检测来实现持续稳定的行人跟踪。
本发明基于低空航拍红外视频的行人跟踪方法,具体包括以下步骤:
步骤1:离线训练航拍红外行人支持向量机分类器。
步骤2:利用步骤1中训练得到的航拍红外行人支持向量机分类器,确定行人目标在第i帧图像中的位置。
步骤3:根据步骤2中得到的第i帧图像中行人目标的位置,作为LK光流法的输入坐标,利用LK光流法计算出行人目标在第i+1帧中的位置。
步骤4:以第i+1帧图像中的行人目标位置为中心设定搜索区域,在搜索区域内利用训练的航拍红外行人支持向量机分类器,对搜索区域内行人目标位置进行二次检测,得到第i+1帧图像中精确的行人目标位置。
步骤5:将步骤4中得到的行人位置作为LK光流法的输入坐标,重复步骤3~5,由此实现对红外行人目标的持续、有效地跟踪。
本发明的优点在于:
1、本发明基于低空航拍红外视频的行人跟踪方法,通过计算局部稀疏光流来预测行人目标位置,很好地解决了行人运动的随意性与非线性的问题;
2、本发明基于低空航拍红外视频的行人跟踪方法,通过设定搜索区域,在搜索区域内进行行人二次检测,克服了利用光流法进行跟踪出现的累计偏差,并解决了道路航拍视频出现的路灯遮挡问题,实现了对航拍红外行人目标的持续、稳定地跟踪。
3、本发明基于低空航拍红外视频的行人跟踪方法,提出的融合HOG和DCT特征描述子对航拍红外行人目标具有良好的表达能力。
附图说明
图1是本发明基于低空航拍红外视频行人跟踪方法流程图;
图2是本发明基于低空航拍红外视频行人跟踪方法中用来训练支持向量机分类器的行人和非行人训练样本图片;
图3是本发明实施例中在搜索区域内进行行人二次检测的示意图;
图4是本发明实施例中行人跟踪的示例图片;
具体实施方式
下面结合附图对本发明作进一步详细说明。
本发明基于低空航拍红外视频的行人跟踪方法,如图1所示,通过下述步骤实现:
步骤1:离线训练航拍红外行人支持向量机(SVM)分类器;
A、建立航拍红外图像行人和非行人训练数据集:
利用四旋翼无人机携带热红外摄像头在不同场景同一高度(以40m-60m为宜)下采集红外行人视频,其中摄像头垂直向下拍摄。对于一段固定场景的航拍红外行人视频,选取一部分视频帧图像,随后从图像中人工提取行人和非行人训练样本。在本实施例中,选取一段道路航拍红外视频,飞行高度为50m,视频分辨率为720×480像素,拍摄时室外温度为6℃。整段红外行人视频共2817帧图像,选取其中512帧图像作为训练图像,并统一缩放至32×32像素大小,其中用于训练的正负样本图片数目分别为2098幅和938幅,如图2、图3所示。
B、对行人和非行人样本图像提取并融合梯度方向直方图(HOG)特征描述子和局部离散余弦变换(DCT)特征描述子:
1)梯度方向直方图(HOG)特征描述子提取;
梯度方向直方图特征属于图像局部特征,它刻画了图像的局部梯度幅值和边缘方向信息,提取步骤如下:
1.1、对行人和非行人样本图像的颜色空间进行归一化,并采用中心对称的一维点模版[-1,0,1]进行卷积运算,得到行人和非行人样本图像上每个像素点的X、Y方向的梯度幅值Gx、Gy,则像素点的梯度大小梯度方向为D=arctan(Gy/Gx);
1.2、对行人和非行人样本图像进行单元格(Cell)划分,单元格划分成相同大小,单元格数量依单元格的尺寸而定;在每一个单元格内按照梯度方向统计一维梯度方向直方图,方法为:
每个单元格内的每个像素均有梯度大小值和梯度方向值与之对应,将单元格内每个像素的梯度方向0°~180°按照20°的间隔划分为9个区间,即:0°~20°,20°~40°,依次类推;统计单元格内的所有像素,确定各个像素所在区间,并将各像素的梯度值加在对应得区间上,构成梯度方向直方图向量Hi=[h1,h2,...h8,h9],是9维的,9个区间,其中hi为每个区间的权值。如:一个单元格中的某个像素的梯度方向是10°,那么它属于0°~20°区间,在该区间上加上像素的梯度值。
1.3、将行人和非行人样本图像划分成包含多个相邻单元格的矩形区块(Block),
将区块内所有单元格的一维梯度方向直方图向量Hi串联起来构成串联向量[H1,H2,...,
Hn],采用L2-Norm方式对串联向量[H1,H2,...,Hn]进行归一化处理构成区块特征向量
1.4、将行人和非行人样本图像内所有的区块特征向量串联起来构成样本图像的HOG描述子VHOG。
本实施例中,对于红外行人样本图像,统一归一化为32×32像素大小,设定单元格大小为4×4像素,区块大小为8×8像素,那么每个区块就包含四个单元格。滑动步距为4像素,故最终HOG向量维数为36×49=1764维。单元格的梯度方向直方图向量为Hi=[h1,h2,...h8,h9],其中hi为每个区间的权值,归一化后的区块特征向量为所以最终的HOG特征向量为VHOG=[F1,F2,F3,...F49]。
2)、局部离散余弦变换(DCT)特征描述子提取;
离散余弦变换具有很强的“能量集中特性”,图像大部分的信息都存储在DCT变换后系数矩阵的左上角,即低频部分,利用这样的特性,对检测到的行人感兴趣区域提取DCT描述子,用来对目标与非目标进行分类,局部DCT描述子提取步骤如下:
2.1将行人和非行人样本图像分别归一化至24×24像素大小,确定滑动窗口的大小和步距;
2.2在每个窗口区域内按下式分别进行离散余弦变换,设f(x,y)为M×N的数字图像矩阵,其离散余弦变换表示为:
其中:
F(u,v)为离散余弦变换后的系数矩阵;C(u)、C(v)为系数,f(x,y)为坐标(x,y)像素点的灰度值;
2.3、利用zigzag扫描方式获取系数矩阵的前21个低频系数作为对应区块的描述向量,将所有区块的描述向量串联起来并进行Min-Max归一化处理构成整幅图像的局部DCT特征描述子VDCT;
本实施例中选用24×24像素大小的样本图片,以8×8像素大小的固定窗口、滑动步距为4像素遍历整幅样本图片,共有25个窗口,DCT描述子的维数为25×21=525维。
C、融合梯度方向直方图和局部离散余弦变换特征描述子;
将由行人和非行人样本图像提取的HOG特征描述子VHOG与DCT特征描述子VDCT进行自适应加权串联,形成最终的行人和非行人样本图像的融合特征描述子VFusion=[αVHOG,βVDCT],其中确定α与β的原则是使训练得到的分类器对训练样本进行分类的误判最少。融合特征描述子不仅可以表征目标梯度方向与边缘方向信息,还可以对于行人和非行人目标表面细微变化以及红外图像的光晕效应具有一定的处理能力,对红外行人目标具有更强的表征能力。本实施例中,α选取为10,β为3。
将行人和非行人样本图像的融合特征描述子进行标注,行人样本图像的融合描述子标注为1,非行人样本图像的融合描述子标注为-1,并输入线性支持向量机分类器进行训练,寻求最优超平面。
步骤2:确定行人目标的初始位置;
首先对航拍红外图像利用滑动窗口法进行行人扫描检测,对每一个窗口提取步骤1中所述的融合特征描述子,之后采用训练好的红外行人SVM分类器对扫描窗口进行分类判别,若输出为1,则认定为行人目标,随后将行人目标所在的扫描窗口的中心作为行人目标的中心坐标,从而确定行人目标的位置,作为初始位置。
步骤3:利用LK光流法对行人目标进行初步跟踪;
利用LK光流法计算出相邻两帧图像i与i+1中行人目标的位移,相当于对行人目标在下一帧图像中的位置做出预测,具体方式为:将行人目标的初始位置点Pi作为光流计算的起始点,利用LK光流法计算初始位置点Pi在相邻两帧图像中的位移从而预测到行人目标在下一帧图像中的位置点P(i+1)。i属于所选取的一部分进行行人和飞行人训练样本提取的视频帧图像。
步骤4:对行人位置点P(i+1)进行二次检测,更新行人位置点P(i+1)的坐标;
由于红外图像质量差、信噪比低,使用LK光流法对红外行人目标进行跟踪容易发生跟踪点偏移,所以仅仅依靠LK光流法难以实现对红外行人的持续跟踪,所以本发明引入了二次检测的方法来对行人目标的位置进行更新,从而保证对红外行人目标的持续有效跟踪,具体方式为:
首先以P(i+1)为中心,人为设定矩形搜索区域,其大小视拍摄高度而定,但不超过行人目标大小的2倍。本实施例中设定搜索区域大小为40×40像素,如图3所示。随后利用滑动窗口法遍历矩形搜索区域,对每一个窗口提取步骤1中所述的融合特征描述子,利用训练好的SVM分类器进行判定。若分类结果为1,则对应窗口的中心位置即为行人目标的精确位置,并将此中心点坐标点P‘(i+1)作为行人目标的位置点精确坐标值。
步骤5:行人跟踪;
将步骤4中得到的P‘(i+1)作为LK光流法的输入坐标,重复步骤3~5,即可实现对红外行人目标的持续、有效地跟踪。
如图4所示,展示了应用本发明方法对选取的航拍红外视频的行人跟踪示例图,由图可以看出应用本发明所提出的方法可以实现对红外行人目标持续稳定的跟踪,并可以处理路灯遮挡等问题。
Claims (1)
1.一种基于低空航拍红外视频的行人跟踪方法,其特征在于:具体包括以下步骤:
步骤1:离线训练航拍红外行人支持向量机分类器;
A、建立航拍红外图像行人和非行人训练数据集:
利用无人机携带热红外摄像头采集红外行人视频,从所采集的红外行人视频中选取一部分视频帧图像,随后从图像中提取行人和非行人训练样本;
B、对行人和非行人样本图像提取并融合梯度方向直方图特征描述子和局部离散余弦变换特征描述子:
1)梯度方向直方图特征描述子提取;
梯度方向直方图特征属于图像局部特征,它刻画了图像的局部梯度幅值和边缘方向信息,提取步骤如下:
1.1、对行人和非行人样本图像的颜色空间进行归一化,并采用中心对称的一维点模版[-1,0,1]进行卷积运算,得到行人和非行人样本图像上每个像素点的X、Y方向的梯度幅值Gx、Gy,则像素点的梯度大小梯度方向为D=arctan(Gy/Gx);
1.2、对行人和非行人样本图像进行单元格划分,单元格划分成相同大小,单元格数量依单元格的尺寸而定;在每一个单元格内按照梯度方向统计一维梯度方向直方图,方法为:
每个单元格内的每个像素均有梯度大小值和梯度方向值与之对应,将单元格内每个像素的梯度方向0°~180°按照20°的间隔划分为9个区间,即:0°~20°,20°~40°,依次类推;统计单元格内的所有像素,确定各个像素所在区间,并将各像素的梯度值加在对应的区间上,构成梯度方向直方图向量Hi=[h1,h2,…h8,h9],是9维的,9个区间,其中hi为每个区间的权值;
1.3、将行人和非行人样本图像划分成包含多个相邻单元格的矩形区块,将区块内所有单元格的一维梯度方向直方图向量Hi串联起来构成串联向量[H1,H2,...,Hn],采用L2-Norm方式对串联向量[H1,H2,...,Hn]进行归一化处理构成区块特征向量n为区块个数;
1.4、将行人和非行人样本图像内所有的区块特征向量串联起来构成样本图像的HOG描述子VHOG;
2)、局部离散余弦变换特征描述子提取;
离散余弦变换具有“能量集中特性”,图像大部分的信息都存储在DCT变换后系数矩阵的左上角,即低频部分,利用这样的特性,对检测到的行人感兴趣区域提取DCT描述子,用来对目标与非目标进行分类,局部DCT描述子提取步骤如下:
2.1将行人和非行人样本图像分别归一化至24×24像素大小,确定滑动窗口的大小和滑动步距;
2.2在每个窗口区域内按下式分别进行离散余弦变换,设f(x,y)为M×N的数字图像矩阵中坐标(x,y)像素点的灰度值,其离散余弦变换表示为:
其中:
F(u,v)为离散余弦变换后的系数矩阵;C(u)、C(v)为系数;
2.3、利用zigzag扫描方式获取系数矩阵的前21个低频系数作为对应区块的描述向量,将所有区块的描述向量串联起来并进行Min-Max归一化处理构成整幅图像的局部DCT特征描述子VDCT;
C、融合梯度方向直方图和局部离散余弦变换特征描述子;具体为:将由行人和非行人样本图像提取的HOG特征描述子VHOG与DCT特征描述子VDCT进行自适应加权串联,形成最终的行人和非行人样本图像的融合特征描述子VFusion=[αVHOG,βVDCT];α选取为10,β为3;随后对行人样本图像的融合描述子标注为1,非行人样本图像的融合描述子标注为-1,输入线性支持向量机分类器进行训练;
步骤2:利用步骤1中训练得到的航拍红外行人支持向量机分类器,确定行人目标在第i帧图像中的位置;首先对航拍红外图像利用滑动窗口法进行行人扫描检测,对每一个窗口提取步骤1中所述的融合特征描述子,之后采用训练好的红外行人支持向量机分类器对扫描窗口进行分类判别,若输出为1,则当前扫描窗口内包含了行人目标,随后将行人目标所在的扫描窗口的中心作为行人目标的中心坐标,从而确定行人目标的位置,作为初始位置;
步骤3:根据步骤2中得到的第i帧图像中行人目标的位置Pi,作为LK光流法的输入坐标,利用LK光流法计算出行人目标在第i+1帧中的位置P(i+1);
步骤4:以第i+1帧图像中的行人目标位置为中心设定搜索区域,在搜索区域内利用训练的航拍红外行人支持向量机分类器,对搜索区域内行人目标位置进行二次检测,得到第i+1帧图像中精确的行人目标位置;具体方式为:
首先以行人目标在下一帧图像中的位置点P(i+1)为中心,人为设定矩形搜索区域,其大小视拍摄高度而定,但不超过行人目标大小的2倍;随后利用滑动窗口法遍历矩形搜索区域,对每一个窗口提取步骤1中所述的融合特征描述子,利用训练好的红外行人支持向量机分类器进行判定;若分类结果为1,则对应窗口的中心位置即为行人目标的精确位置,并将此中心点坐标点P‘(i+1)作为行人目标的位置点精确坐标值;
步骤5:将步骤4中得到的行人目标位置作为LK光流法的输入坐标,重复步骤3~5。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2015108882654 | 2015-12-07 | ||
CN201510888265 | 2015-12-07 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105760831A CN105760831A (zh) | 2016-07-13 |
CN105760831B true CN105760831B (zh) | 2019-07-05 |
Family
ID=56330668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610080546.1A Active CN105760831B (zh) | 2015-12-07 | 2016-02-04 | 一种基于低空航拍红外视频的行人跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105760831B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113955108A (zh) * | 2016-08-26 | 2022-01-21 | 索尼公司 | 信息处理装置、其控制方法、移动单元及记录介质 |
CN106778570B (zh) * | 2016-12-05 | 2018-08-24 | 清华大学深圳研究生院 | 一种行人实时检测与跟踪方法 |
CN106874854B (zh) * | 2017-01-19 | 2019-12-31 | 西安电子科技大学 | 基于嵌入式平台的无人机车辆跟踪方法 |
CN107705324A (zh) * | 2017-10-20 | 2018-02-16 | 中山大学 | 一种基于机器学习的视频目标检测方法 |
CN108052005A (zh) * | 2017-12-07 | 2018-05-18 | 智灵飞(北京)科技有限公司 | 一种室内无人机限速和限高的控制方法、无人机 |
CN108334099B (zh) * | 2018-01-26 | 2021-11-19 | 上海深视信息科技有限公司 | 一种高效的无人机人体跟踪方法 |
WO2019183746A1 (zh) * | 2018-03-26 | 2019-10-03 | 深圳市大疆创新科技有限公司 | 无人机的跟踪处理方法及控制终端 |
CN109493292B (zh) * | 2018-10-29 | 2021-12-17 | 平高集团有限公司 | 基于电力设备红外测温图像的增强处理方法和装置 |
CN109685825A (zh) * | 2018-11-27 | 2019-04-26 | 哈尔滨工业大学(深圳) | 用于热红外目标跟踪的局部自适应特征提取方法、系统及存储介质 |
CN110148156B (zh) * | 2019-04-29 | 2021-05-14 | 惠州市德赛西威智能交通技术研究院有限公司 | 一种基于局部光流的对称目标图像跟踪方法 |
CN111543926B (zh) * | 2020-06-12 | 2024-01-12 | 王冬 | 一种胸腹腔镜擦拭器械 |
CN112288765A (zh) * | 2020-10-30 | 2021-01-29 | 西安科技大学 | 一种用于车载红外行人检测跟踪的图像处理方法 |
CN112734805B (zh) * | 2021-01-11 | 2022-04-15 | 北京深睿博联科技有限责任公司 | 一种基于深度学习的行人运动轨迹预测方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101551852A (zh) * | 2008-04-01 | 2009-10-07 | 索尼(中国)有限公司 | 训练系统、训练方法和检测方法 |
CN103426172A (zh) * | 2013-08-08 | 2013-12-04 | 深圳一电科技有限公司 | 基于视觉的目标跟踪方法及装置 |
-
2016
- 2016-02-04 CN CN201610080546.1A patent/CN105760831B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101551852A (zh) * | 2008-04-01 | 2009-10-07 | 索尼(中国)有限公司 | 训练系统、训练方法和检测方法 |
CN103426172A (zh) * | 2013-08-08 | 2013-12-04 | 深圳一电科技有限公司 | 基于视觉的目标跟踪方法及装置 |
Non-Patent Citations (1)
Title |
---|
基于在线Boosting 和LK 光流的视频跟踪算法;黄立等;《西南科技大学学报》;20121231;第27卷(第4期);第80-84、93页 |
Also Published As
Publication number | Publication date |
---|---|
CN105760831A (zh) | 2016-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105760831B (zh) | 一种基于低空航拍红外视频的行人跟踪方法 | |
CN105574488B (zh) | 一种基于低空航拍红外图像的行人检测方法 | |
CN111209810B (zh) | 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构 | |
Akbari et al. | Applications, databases and open computer vision research from drone videos and images: a survey | |
Sidla et al. | Pedestrian detection and tracking for counting applications in crowded situations | |
CN106447680B (zh) | 动态背景环境下雷达与视觉融合的目标检测与跟踪方法 | |
CN107133559B (zh) | 基于360度全景的运动物体检测方法 | |
CN109919981A (zh) | 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法 | |
CN104978567B (zh) | 基于场景分类的车辆检测方法 | |
CN105930822A (zh) | 一种人脸抓拍方法及系统 | |
CN107481315A (zh) | 一种基于Harris‑SIFT‑BRIEF算法的单目视觉三维环境重建方法 | |
CN115439424A (zh) | 一种无人机航拍视频图像智能检测方法 | |
CN103824070A (zh) | 一种基于计算机视觉的快速行人检测方法 | |
CN104378582A (zh) | 一种基于ptz摄像机巡航的智能视频分析系统及方法 | |
CN104376334B (zh) | 一种多尺度特征融合的行人比对方法 | |
Cho et al. | Diml/cvl rgb-d dataset: 2m rgb-d images of natural indoor and outdoor scenes | |
CN114565675B (zh) | 一种在视觉slam前端去除动态特征点的方法 | |
CN105718882A (zh) | 一种分辨率自适应特征提取与融合的行人重识别方法 | |
CN113762009B (zh) | 一种基于多尺度特征融合及双注意力机制的人群计数方法 | |
CN103279791A (zh) | 基于多特征的行人计算方法 | |
CN111507296A (zh) | 基于无人机遥感与深度学习的违章建筑智能化提取方法 | |
CN103729620B (zh) | 一种基于多视角贝叶斯网络的多视角行人检测方法 | |
CN108154113A (zh) | 基于全卷积网络热度图的跌倒事件检测方法 | |
CN111680560A (zh) | 一种基于时空特征的行人再识别方法 | |
CN103150552A (zh) | 一种基于人头计数的驾驶培训管理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |