CN103955949A - 基于Mean-shift算法的运动目标检测方法 - Google Patents
基于Mean-shift算法的运动目标检测方法 Download PDFInfo
- Publication number
- CN103955949A CN103955949A CN201410136111.5A CN201410136111A CN103955949A CN 103955949 A CN103955949 A CN 103955949A CN 201410136111 A CN201410136111 A CN 201410136111A CN 103955949 A CN103955949 A CN 103955949A
- Authority
- CN
- China
- Prior art keywords
- rectangle
- area
- formula
- mean
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供的是一种基于Mean-shift算法的运动目标检测方法。步骤一:输入视频序列;步骤二:图像预处理;步骤三:帧间差分计算及差分图像直方图计算;步骤四:差分图像二值化;步骤五:计算平均灰度比;步骤六:判断是否有运动目标出现;步骤七:计算运动区域面积并去掉小区域;步骤八:目标检测;步骤九:结果融合。本发明对目标的完整检测效果很好,大部分情况下都能完整的检测出,多个目标情况下,每帧处理时间平均在20ms左右。本发明方法实时性较强,在时间和效果上满足要求。
Description
技术领域
本发明涉及的是一种运动目标检测方法,具体涉及一种以帧间差分为基础的实时运动目标检测方法。
背景技术
运动目标检测技术在国外开展较早,研究较为深入,国内近年来也出现了很多研究成果,主要包括三类方法,基于背景减除的方法、基于帧间差分的方法和基于光流场的方法。三类方法中,基于背景减除的方法最成功,但是该类方法的前提是对背景的准确建模。帧间差分方法对场景变化不敏感、稳定性好、实现简单,也是常用的运动目标检测方法。帧间差分法缺点是只能检测相对运动的目标,帧差的结果中还存在很多噪声。通过帧差图像检测出的目标往往不完整(在去噪后尤其如此)由目标中的一些运动较强的部分构成,如何将部分目标快速准确地整合在一起是该类方法的难点之一。实现该目的方法往往是一些复杂方法,时间复杂度较高。《计算机应用》(2008,08:2017-2020)刊登的“基于图像块差分和Mean-Shift算法的运动目标检测[J]”中,也采用了Mean-shift算法实现基于帧差图像的运动目标检测,该文献采用块差分图像为特征,通过Mean-shift算法拟合目标边界,是一种近似于Means-shift图像分割的方法,追求的是目标分割的准确性。
发明内容
本发明的目的在于提供一种能快速完整地检测出各个不同的运动目标的基于Mean-shift算法的运动目标检测方法。
本发明的目的是这样实现的:
步骤一:输入视频序列;
步骤二:图像预处理;
步骤三:帧间差分计算及差分图像直方图计算;
步骤四:差分图像二值化,
将差分图像进行二值化处理,二值化的阈值为差分图像的灰度值均值,灰度值大于阈值的像素灰度置1,其他像素置0,得到二值差分图像;
步骤五:计算平均灰度比,
差分图像与相邻两帧中的第一帧图像相乘,获得前景图像;反转差分图像与第一帧图像相乘获得背景图像,计算前景和背景的平均灰度,然后计算出二者的比值;
步骤六:判断是否有运动目标出现
对于上一步计算出的平均灰度比,根据预先设定阈值averate进行判断,若大于则认为有运动,有运动目标则进入步骤七,否则进入下一帧的检测;
步骤七:计算运动区域面积并去掉小区域
在二值图像中找出所有非零区域,作为运动区域,计算区域面积,根据预先设定的面积阈值throldarea进行判断,参数throldarea是用来对检测出的运动区域进行过滤,小于面积阈值的区域被认为是噪声被去掉,保留大于阈值的轮廓区域;
步骤八:目标检测
通过运动区域像素坐标的最小值与最大值,计算出每个运动区域的包围矩形,以包围矩形位置信息作为特征,采用Mean-shift算法进行聚类融合,融合后再进行类内判别,对结果进行验证;
步骤九:结果融合
计算同一类矩形中左上角最小点与右下角最大点,画出完整运动目标的包围矩形,完成运动目标的检测。
本发明还可以包括:
所述采用Mean-shift算法进行聚类融合,融合后再进行类内判别,对结果进行验证具体包括:
(1)、特征提取
将所有运动区域包围矩形以矩形序列形式存储,矩形序列中保存了每一个包围矩形的大小及位置信息,设向量是检测出的矩形序列,其中和为矩形i的中心点坐标,和为矩形i的宽和高,i=1,…,n;
(2)聚类
采用改进的Mean-shift方法将相近窗口聚类,得到运动目标,根据步骤(1)里检测出来的矩形序列,假设每个样本都有关联的对称正定d×d带宽矩阵Hi,带宽矩阵选用比例单位阵形式,即H=h2I,在这n个样本上作一个核密度估计,假设平滑内核是一个高斯内核,则在y点的核密度估计如下:
其中:
D2[y,yi,Hi]≡(y-yi)THi -1(y-yi) (2)
式中D2[y,yi,Hi]是y到yi的距离,t(wi)是权重函数,wi为第i个包围矩形的周长,该权重函数为一个非负值函数为:
t(wi)=wi/C (3)
式中C为当前包围矩形的周长和;
由式 估计的梯度定义如下:
定义权值
由式 根据(1)与(4)以及(5)推导出下式:
定义为y点处计算的数据加权调和平均协方差矩阵,则由此得到可变步长的均值漂移矢量计算公式如下:
在Mean-shift算法中,核密度函数在样本峰值处的梯度为零,即在式(7)中 所以意味着在峰值处m(y)=0,由此ym:
从上式得出的迭代算法步骤如下:
(a)从矩形序列中选取初始点yi,i=1,…,n;
(b)根据式(6)计算ym;
(c)ym满足收敛判定条件则停止本轮迭代,否则用新的ym转至第二步继续计算;
(d)将收敛到同一个模态的包围矩形归为一类;
(3)类内判别
通过二次判别的方法对聚类结果再次判别,形成最终的目标区域,类内判别通过三个描述包围矩形相对关系的参数实现,即α、β和P,分别由式(9)、式(10)和式(13)计算;具体方法为,对于聚成一类的所有向量,对类内任何两个向量计算上述三个参数,上述参数属于某个区间的样本为一类;
A.类内判别参数
视频序列经过帧间差分和运动区域轮廓提取后,所得数据为大小不同、位置不同的矩形序列,对于这些要处理的矩形序列,主要考虑其位置关系,同一个目标大部分区域都是连通的,因此矩形之间的相对位置关系是最重要的聚类依据。同一坐标系下的两个矩形位置关系有7种;
设两矩形A、B的中心点坐标为(x1,y1)、(x2,y2),矩形A的宽和高为Wa、Ha,矩形B的宽和高为Wb、Hb,定义参数α、β如下:
两矩形距离计算公式如下:
设视频序列每帧图像大小为m*n,取其中较大者,这里假设为m,根据式(11)定义D2(y,yi):
D2(y,yi)=d2(y,yi)/m (12)
定义类内判定函数P(y,yi)如式(11):
P(y,yi)=exp(-D2(y,yi)/2) (13)
B.参数取值选择
七种情况α和β的值分别为:
情况1:两矩形相交区域宽度与高度大于1,则0≤α<1,0≤β<1;
情况2:两矩形相交区域宽度为1,则α=1,0≤β<1;
情况3:两矩形相交区域高度为1,则0≤α<1,β=1;
情况4:两矩形相交区域宽度与高度都等于1,则α=1,β=1;
情况5:两矩形无相交区域,y方向位置区间有重合,则α>1,0≤β<1;
情况6:两矩形无相交区域,x方向位置区间有重合,0≤α<1,β>1;
情况7:两矩形无相交区域,位置区间无重合α>1,β>1;
三项参数取值如下:
所述根据预先设定阈值averate进行判断中,预先设定阈值averate为5.8。
所述根据预先设定的面积阈值throldarea进行判断中,预先设定的面积阈值throldarea为400。
本发明的有益效果为:在Visual C++6.0集成开发环境和OpenCV(Open Source Computer Vision Library,开源计算机视觉库)1.0环境下,采用CAVIAR Test Case Scenarios上的测试视频(镜头固定),实验数据如表1所示:
表1检测结果数据分析
统计结果显示本发明算法对目标的完整检测效果很好,大部分情况下都能完整的检测出,多个目标情况下,每帧处理时间平均在20ms左右,同类方法中(《计算机应用》(2008,08:2017-2020)刊登的“基于图像块差分和Mean-Shift算法的运动目标检测[J]”),则是30ms时间,所以,本发明方法实时性较强,在时间和效果上满足要求。
本发明针对随时间连续变化的视频序列,提供了一种以帧间差分方法为基础并结合改进 的Mean-shift方法来实现运动目标检测的方法。首先根据帧间差提取出运动区域,然后将每个区域的包围矩形坐标参数作为特征向量,采用一种无监督学习方法----Mean-shift方法将相近窗口聚类,得到运动目标。为使Mean-shift算法更适合于本发明的应用,本发明对其进行一些改进,并对参数进行了调整,取得了较好的效果。
附图说明
图1矩形相对位置的7种关系;
图2a-图2b两次聚类效果图;
图3加入判定函数后聚类效果;
图4为运动目标检测算法流程图。
具体实施方式
下面举例对本发明做更详细的描述。
1.输入视频序列
通过openCV中cvCaptureFromCAM函数从摄像头获取视频序列,使用cvQueryFrame函数获得每一帧图像,对相邻两帧图像进行如下步骤的处理。
2.图像预处理
采用7×7的高斯平滑滤波器对图像进行平滑,消除噪声。像素RGB值的均值作为灰度值,将彩色图像转换为灰度图像。
3.帧间差分计算及差分图像直方图计算
对视频序列进行帧间差分计算,本发明采用两帧差分的方法,即计算相邻两帧的对应像素灰度值差的绝对值,得到差分图像。计算差分图像每种灰度值对应的像素个数,得到差分图像的直方图,用于计算灰度值均值。
4.差分图像二值化
将差分图像进行二值化处理,二值化的阈值为差分图像的灰度值均值。灰度值大于阈值的像素灰度置1,其他像素置0,得到二值差分图像。
5.计算平均灰度比
差分图像与相邻两帧中的第一帧图像相乘,获得前景图像;反转差分图像与第一帧图像相乘获得背景图像。计算前景和背景的平均灰度,然后计算出二者的比值。
6.判断是否有运动目标出现
对于上一步计算出的平均灰度比,根据预先设定阈值averate(本发明取5.8)进行判断,它主要用来判断是否有运动出现,同时可以消除光照变化的影响。若大于它,则认为有运动。有运动目标时才进行下一步的检测,否则进入下一帧的检测。
7.计算运动区域面积并去掉小区域
在二值图像中找出所有非零区域,作为运动区域,计算区域面积,根据预先设定的面积阈值throldarea进行判断,参数throldarea是用来对检测出的运动区域进行过滤,通过该参数的过滤可以去除大部分较小的噪声区域,但该参数不能设置的过大或过小,过大会将一部分运动区域当成噪声区域去掉,过小会引入过多噪声,这里取400。小于面积阈值的区域被认为是噪声被去掉,保留大于阈值的轮廓区域。
8.目标检测
通过运动区域像素坐标的最小值与最大值,计算出每个运动区域的包围矩形。以包围矩形位置信息作为特征,采用Mean-shift算法进行聚类融合,融合后再进行类内判别,对结果进行验证。
8.1特征提取
将上一步骤获得的所有运动区域包围矩形以矩形序列形式存储,矩形序列中保存了每一个包围矩形的大小及位置信息。设向量是检测出的矩形序列,其中和为矩形i的中心点坐标,和为矩形i的宽和高,i=1,…,n,这样不但考虑了包围矩形的位置,同时考虑了其大小。至此特征向量就被提取出来了,用于聚类。
8.2聚类
本发明采用改进的Mean-shift方法将相近窗口聚类,得到运动目标。根据步骤1里检测 出来的矩形序列,假设每个样本都有关联的对称正定d×d带宽矩阵Hi,带宽矩阵在这里选用比例单位阵形式,即H=h2I,在这n个样本上作一个核密度估计,假设平滑内核是一个高斯内核,则在y点的核密度估计如下:
其中:
D2[y,yi,Hi]≡(y-yi)THi -1(y-yi) (2)
式中D2[y,yi,Hi]是y到yi的距离,t(wi)是权重函数,wi为第i个包围矩形的周长,该权重函数为一个非负值函数,定义如下:
t(wi)=wi/C (3)
式中C为当前包围矩形的周长和。
由式1估计的梯度定义如下:
定义权值
由式5可知根据1与4以及5可以推导出下式:
定义为y点处计算的数据加权调和平均协方差矩阵,则由此可以得到可变步长的均值漂移矢量计算公式如下:
在Mean-shift算法中,核密度函数在样本峰值处的梯度为零,即在式7中所以意味着在峰值处m(y)=0,由此ym:
从上式得出的迭代算法步骤如下:
(a)从矩形序列中选取初始点yi,i=1,…,n;
(b)根据式6计算ym;
(c)ym满足收敛判定条件则停止本轮迭代,否则用新的ym转至第二步继续计算;
(d)将收敛到同一个模态的包围矩形归为一类。
初始点的选取可以任意设置,经过均值漂移向量的不断迭代,每个样本最终都会收敛到某一个类别中(也就是迭代公式中的ym不在变化或者变化在允许误差范围内),将属于同一类的样本归为一类,经过聚类融合即可获得各个不同的完整运动目标。由于在进行均值漂移算法计算之前已经采用面积阈值对运动区域包围矩形进行了过滤,因此所有进入矩形序列的样本都将能被算法检测。
8.3类内判别
经过聚类后,初步检测区域的包围矩形被聚成若干类,但是这时还可能有些错误,我们通过二次判别的方法对聚类结果再次判别,形成最终的目标区域。类内判别通过三个描述包围矩形相对关系的参数实现,即α、β和P,分别由式9、式10和式13计算。具体方法为,对于聚成一类的所有向量,对类内任何两个向量计算上述三个参数,上述参数属于某个区间的样本为一类。
A.类内判别参数
视频序列经过帧间差分和运动区域轮廓提取后,所得数据为大小不同、位置不同的矩形序列,对于这些要处理的矩形序列,这里主要考虑其位置关系。同一个目标大部分区域都是连通的,因此矩形之间的相对位置关系是最重要的聚类依据。同一坐标系下的两个矩形位置关系有7种,如图1所示:
图1中,设两矩形A、B的中心点坐标为(x1,y1)、(x2,y2),矩形A的宽和高为Wa、Ha,矩形B的宽和高为Wb、Hb,定义参数α、β如下:
两矩形距离计算公式如下:
该式不但计算两矩形的中心坐标,同时将其宽和高也计算在内,既考虑了位置因素又加入了大小因素。当式11中a=4时,对图1中位置关系1—4,d2≤0,对于位置关系7,d2>0,对于位置关系5和6,d2的值取决于两矩形的具体位置,若较近其绝对值较小。设视频序列每帧图像大小为m*n,取其中较大者,这里假设为m,根据式11定义D2(y,yi):
D2(y,yi)=d2(y,yi)/m (12)
这里除以m是为了保持距离公式的计算随视频大小调整,从而不影响计算结果。定义类内判定函数P(y,yi)如式11:
P(y,yi)=exp(-D2(y,yi)/2) (13)
B.参数取值选择
对于图1的七种情况α和β的值分别为:
情况1:两矩形相交区域宽度与高度大于1,则0≤α<1,0≤β<1;
情况2:两矩形相交区域宽度为1,则α=1,0≤β<1;
情况3:两矩形相交区域高度为1,则0≤α<1,β=1;
情况4:两矩形相交区域宽度与高度都等于1,则α=1,β=1;
情况5:两矩形无相交区域,y方向位置区间有重合,则α>1,0≤β<1;
情况6:两矩形无相交区域,x方向位置区间有重合,0≤α<1,β>1;
情况7:两矩形无相交区域,位置区间无重合α>1,β>1。
对图1中位置关系1-4,判定函数P(y,yi)≥1,对于位置关系7,判定函数P(y,yi)<1,对于位置关系5和6,若两矩形相距很近,则函数值接近1,若两矩形相距较远,则函数值小于1。
综上所述,三项参数取值如下:
根据推导出的均值漂移聚类迭代算法,对实际帧间差分后检测出的运动区域包围矩形序列文件数据进行聚类,在实验中模拟效果如图2a-图2b。
图2a-图2b中的矩形为帧间差分后检测出的运动区域包围矩形,其位置与实际图像中出现运动的区域一致,图2a和图2b为两次帧间差分检测结果,在图2a和图2b中相同颜色的矩形属于同一个运动目标,红色矩形框为均值漂移聚类结果,由图可以看出在a中两个运动目标经聚类后为两个完整目标,但在图2b中有5个运动目标,其中两个被聚类到别的类别中,由图可以看出这是因为这些运动区域较为接近,经过均值漂移算法后收敛到同一类中。由上图2a-图2b可以看出均值漂移聚类算法的有效性,但在结果上还需要进一步的处理,以便获得更好的效果。
由图3可以看出,加入判定函数后,两类错误聚类的运动目标被划分出来,属于各个运动目标的包围矩形被完整聚类。
9.结果融合
计算同一类矩形中左上角最小点与右下角最大点,画出完整运动目标的包围矩形,从而完成运动目标的检测。
Claims (5)
1.一种基于Mean-shift算法的运动目标检测方法,其特征是:
步骤一:输入视频序列;
步骤二:图像预处理;
步骤三:帧间差分计算及差分图像直方图计算;
步骤四:差分图像二值化,
将差分图像进行二值化处理,二值化的阈值为差分图像的灰度值均值,灰度值大于阈值的像素灰度置1,其他像素置0,得到二值差分图像;
步骤五:计算平均灰度比,
差分图像与相邻两帧中的第一帧图像相乘,获得前景图像;反转差分图像与第一帧图像相乘获得背景图像,计算前景和背景的平均灰度,然后计算出二者的比值;
步骤六:判断是否有运动目标出现
对于上一步计算出的平均灰度比,根据预先设定阈值averate进行判断,若大于则认为有运动,有运动目标则进入步骤七,否则进入下一帧的检测;
步骤七:计算运动区域面积并去掉小区域
在二值图像中找出所有非零区域,作为运动区域,计算区域面积,根据预先设定的面积阈值throldarea进行判断,参数throldarea是用来对检测出的运动区域进行过滤,小于面积阈值的区域被认为是噪声被去掉,保留大于阈值的轮廓区域;
步骤八:目标检测
通过运动区域像素坐标的最小值与最大值,计算出每个运动区域的包围矩形,以包围矩形位置信息作为特征,采用Mean-shift算法进行聚类融合,融合后再进行类内判别,对结果进行验证;
步骤九:结果融合
计算同一类矩形中左上角最小点与右下角最大点,画出完整运动目标的包围矩形,完成运动目标的检测。
2.根据权利要求1所述的基于Mean-shift算法的运动目标检测方法,其特征是所述采用Mean-shift算法进行聚类融合,融合后再进行类内判别,对结果进行验证具体包括:
(1)、特征提取
将所有运动区域包围矩形以矩形序列形式存储,矩形序列中保存了每一个包围矩形的大小及位置信息,设向量是检测出的矩形序列,其中和为矩形i的中心点坐标,和为矩形i的宽和高,i=1,…,n;
(2)聚类
采用改进的Mean-shift方法将相近窗口聚类,得到运动目标,根据步骤(1)里检测出来的矩形序列,假设每个样本都有关联的对称正定d×d带宽矩阵Hi,带宽矩阵选用比例单位阵形式,即H=h2I,在这n个样本上作一个核密度估计,假设平滑内核是一个高斯内核,则在y点的核密度估计如下:
其中:
D2[y,yi,Hi]≡(y-yi)THi -1(y-yi) (2)
式中D2[y,yi,Hi]是y到yi的距离,t(wi)是权重函数,wi为第i个包围矩形的周长,该权重函数为一个非负值函数为:
t(wi)=wi/C (3)
式中C为当前包围矩形的周长和;
由式 估计的梯度定义如下:
定义权值
由式 根据(1)与(4)以及(5)推导出下式:
定义为y点处计算的数据加权调和平均协方差矩阵,则由此得到可变步长的均值漂移矢量计算公式如下:
在Mean-shift算法中,核密度函数在样本峰值处的梯度为零,即在式(7)中所以意味着在峰值处m(y)=0,由此ym:
从上式得出的迭代算法步骤如下:
(a)从矩形序列中选取初始点yi,i=1,…,n;
(b)根据式(6)计算ym;
(c)ym满足收敛判定条件则停止本轮迭代,否则用新的ym转至第二步继续计算;
(d)将收敛到同一个模态的包围矩形归为一类;
(3)类内判别
通过二次判别的方法对聚类结果再次判别,形成最终的目标区域,类内判别通过三个描述包围矩形相对关系的参数实现,即α、β和P,分别由式(9)、式(10)和式(13)计算;具体方法为,对于聚成一类的所有向量,对类内任何两个向量计算上述三个参数,上述参数属于某个区间的样本为一类;
A.类内判别参数
视频序列经过帧间差分和运动区域轮廓提取后,所得数据为大小不同、位置不同的矩形序列,对于这些要处理的矩形序列,主要考虑其位置关系,同一个目标大部分区域都是连通的,因此矩形之间的相对位置关系是最重要的聚类依据。同一坐标系下的两个矩形位置关系有7种;
设两矩形A、B的中心点坐标为(x1,y1)、(x2,y2),矩形A的宽和高为Wa、Ha,矩形B的宽和高为Wb、Hb,定义参数α、β如下:
两矩形距离计算公式如下:
设视频序列每帧图像大小为m*n,取其中较大者,这里假设为m,根据式(11)定义D2(y,yi):
D2(y,yi)=d2(y,yi)/m (12)
定义类内判定函数P(y,yi)如式(11):
P(y,yi)=exp(-D2(y,yi)/2) (13)
B.参数取值选择
七种情况α和β的值分别为:
情况1:两矩形相交区域宽度与高度大于1,则0≤α<1,0≤β<1;
情况2:两矩形相交区域宽度为1,则α=1,0≤β<1;
情况3:两矩形相交区域高度为1,则0≤α<1,β=1;
情况4:两矩形相交区域宽度与高度都等于1,则α=1,β=1;
情况5:两矩形无相交区域,y方向位置区间有重合,则α>1,0≤β<1;
情况6:两矩形无相交区域,x方向位置区间有重合,0≤α<1,β>1;
情况7:两矩形无相交区域,位置区间无重合α>1,β>1;
三项参数取值如下:
3.根据权利要求1或2所述的基于Mean-shift算法的运动目标检测方法,其特征是:所述根据预先设定阈值averate进行判断中,预先设定阈值averate为5.8。
4.根据权利要求1或2所述的基于Mean-shift算法的运动目标检测方法,其特征是:所述根据预先设定的面积阈值throldarea进行判断中,预先设定的面积阈值throldarea为400。
5.根据权利要求3所述的基于Mean-shift算法的运动目标检测方法,其特征是:所述根据预先设定的面积阈值throldarea进行判断中,预先设定的面积阈值throldarea为400。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410136111.5A CN103955949B (zh) | 2014-04-04 | 2014-04-04 | 基于Mean-shift算法的运动目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410136111.5A CN103955949B (zh) | 2014-04-04 | 2014-04-04 | 基于Mean-shift算法的运动目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103955949A true CN103955949A (zh) | 2014-07-30 |
CN103955949B CN103955949B (zh) | 2016-12-07 |
Family
ID=51333218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410136111.5A Expired - Fee Related CN103955949B (zh) | 2014-04-04 | 2014-04-04 | 基于Mean-shift算法的运动目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103955949B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105227907A (zh) * | 2015-08-31 | 2016-01-06 | 电子科技大学 | 基于视频的无监督异常事件实时检测方法 |
CN105894531A (zh) * | 2014-12-24 | 2016-08-24 | 北京明景科技有限公司 | 一种低照度下的运动目标提取方法 |
CN105976403A (zh) * | 2016-07-25 | 2016-09-28 | 中国电子科技集团公司第二十八研究所 | 一种基于核函数质心漂移的红外成像目标跟踪方法 |
WO2017117801A1 (zh) * | 2016-01-08 | 2017-07-13 | 富士通株式会社 | 边界框生成装置及方法 |
CN109559518A (zh) * | 2018-12-10 | 2019-04-02 | 安徽四创电子股份有限公司 | 一种基于结构化图像识别算法的新型智能交通卡口 |
CN109816011A (zh) * | 2019-01-21 | 2019-05-28 | 厦门美图之家科技有限公司 | 生成人像分割模型的方法和视频关键帧提取方法 |
CN110188594A (zh) * | 2019-04-12 | 2019-08-30 | 南昌嘉研科技有限公司 | 一种基于计算机视觉的目标识别与定位方法 |
CN110561414A (zh) * | 2019-06-23 | 2019-12-13 | 大国重器自动化设备(山东)股份有限公司 | 基于手持终端控制的机器人 |
CN111308969A (zh) * | 2020-01-16 | 2020-06-19 | 浙江大学 | 一种基于时域差分特性的载体运动模态判别方法 |
CN111402301A (zh) * | 2020-03-17 | 2020-07-10 | 浙江大华技术股份有限公司 | 积水检测方法及装置、存储介质及电子装置 |
CN112511764A (zh) * | 2019-09-16 | 2021-03-16 | 瑞昱半导体股份有限公司 | 移动图像整合方法及移动图像整合系统 |
CN117636480A (zh) * | 2024-01-25 | 2024-03-01 | 中科方寸知微(南京)科技有限公司 | 基于动态区域检测和多目标追踪的实时人体检测方法及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100495438C (zh) * | 2007-02-09 | 2009-06-03 | 南京大学 | 一种基于视频监控的运动目标检测与识别方法 |
CN102222214A (zh) * | 2011-05-09 | 2011-10-19 | 苏州易斯康信息科技有限公司 | 快速物体识别算法 |
-
2014
- 2014-04-04 CN CN201410136111.5A patent/CN103955949B/zh not_active Expired - Fee Related
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105894531A (zh) * | 2014-12-24 | 2016-08-24 | 北京明景科技有限公司 | 一种低照度下的运动目标提取方法 |
CN105227907B (zh) * | 2015-08-31 | 2018-07-27 | 电子科技大学 | 基于视频的无监督异常事件实时检测方法 |
CN105227907A (zh) * | 2015-08-31 | 2016-01-06 | 电子科技大学 | 基于视频的无监督异常事件实时检测方法 |
WO2017117801A1 (zh) * | 2016-01-08 | 2017-07-13 | 富士通株式会社 | 边界框生成装置及方法 |
CN105976403A (zh) * | 2016-07-25 | 2016-09-28 | 中国电子科技集团公司第二十八研究所 | 一种基于核函数质心漂移的红外成像目标跟踪方法 |
CN105976403B (zh) * | 2016-07-25 | 2018-09-21 | 中国电子科技集团公司第二十八研究所 | 一种基于核函数质心漂移的红外成像目标跟踪方法 |
CN109559518A (zh) * | 2018-12-10 | 2019-04-02 | 安徽四创电子股份有限公司 | 一种基于结构化图像识别算法的新型智能交通卡口 |
CN109816011B (zh) * | 2019-01-21 | 2021-09-07 | 厦门美图之家科技有限公司 | 视频关键帧提取方法 |
CN109816011A (zh) * | 2019-01-21 | 2019-05-28 | 厦门美图之家科技有限公司 | 生成人像分割模型的方法和视频关键帧提取方法 |
CN110188594A (zh) * | 2019-04-12 | 2019-08-30 | 南昌嘉研科技有限公司 | 一种基于计算机视觉的目标识别与定位方法 |
CN110188594B (zh) * | 2019-04-12 | 2021-04-06 | 南昌嘉研科技有限公司 | 一种基于计算机视觉的目标识别与定位方法 |
CN110561414A (zh) * | 2019-06-23 | 2019-12-13 | 大国重器自动化设备(山东)股份有限公司 | 基于手持终端控制的机器人 |
CN110561414B (zh) * | 2019-06-23 | 2024-02-27 | 大国重器自动化设备(山东)股份有限公司 | 基于手持终端控制的机器人 |
CN112511764A (zh) * | 2019-09-16 | 2021-03-16 | 瑞昱半导体股份有限公司 | 移动图像整合方法及移动图像整合系统 |
CN111308969A (zh) * | 2020-01-16 | 2020-06-19 | 浙江大学 | 一种基于时域差分特性的载体运动模态判别方法 |
CN111402301A (zh) * | 2020-03-17 | 2020-07-10 | 浙江大华技术股份有限公司 | 积水检测方法及装置、存储介质及电子装置 |
CN111402301B (zh) * | 2020-03-17 | 2023-06-13 | 浙江大华技术股份有限公司 | 积水检测方法及装置、存储介质及电子装置 |
CN117636480A (zh) * | 2024-01-25 | 2024-03-01 | 中科方寸知微(南京)科技有限公司 | 基于动态区域检测和多目标追踪的实时人体检测方法及系统 |
CN117636480B (zh) * | 2024-01-25 | 2024-04-12 | 中科方寸知微(南京)科技有限公司 | 基于动态区域检测和多目标追踪的实时人体检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN103955949B (zh) | 2016-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103955949A (zh) | 基于Mean-shift算法的运动目标检测方法 | |
CN102542289B (zh) | 一种基于多高斯计数模型的人流量统计方法 | |
CN103824070B (zh) | 一种基于计算机视觉的快速行人检测方法 | |
CN104268583B (zh) | 基于颜色区域特征的行人重识别方法及系统 | |
CN102214291B (zh) | 一种快速准确的基于视频序列的人脸检测跟踪方法 | |
CN104050471B (zh) | 一种自然场景文字检测方法及系统 | |
CN102609686B (zh) | 一种行人检测方法 | |
CN107909081B (zh) | 一种深度学习中图像数据集的快速获取和快速标定方法 | |
CN109918971B (zh) | 监控视频中人数检测方法及装置 | |
Chen et al. | A novel color edge detection algorithm in RGB color space | |
CN102867188B (zh) | 一种基于级联结构的会场内座位状态检测方法 | |
CN105426828B (zh) | 人脸检测方法、装置及系统 | |
CN102214309B (zh) | 一种基于头肩模型的特定人体识别方法 | |
CN102521616B (zh) | 基于稀疏表示的行人检测方法 | |
CN105740945A (zh) | 一种基于视频分析的人群计数方法 | |
CN103310194A (zh) | 视频中基于头顶像素点梯度方向的行人头肩部检测方法 | |
CN106934386A (zh) | 一种基于自启发式策略的自然场景文字检测方法及系统 | |
CN104598929A (zh) | 一种hog特征快速提取方法 | |
CN107066963B (zh) | 一种自适应人群计数方法 | |
Kim et al. | Autonomous vehicle detection system using visible and infrared camera | |
CN110706235A (zh) | 一种基于双级级联分割的远红外行人检测方法 | |
CN106447701A (zh) | 用于图像相似性确定、对象检测和跟踪的方法和装置 | |
CN105260749A (zh) | 基于方向梯度二值模式和软级联svm的实时目标检测方法 | |
CN104599291B (zh) | 基于结构相似度和显著性分析的红外运动目标检测方法 | |
CN105069816B (zh) | 一种进出口人流量统计的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20161207 |
|
CF01 | Termination of patent right due to non-payment of annual fee |