CN107424173B - 一种基于扩展的局部不变特征描述的目标跟踪方法 - Google Patents
一种基于扩展的局部不变特征描述的目标跟踪方法 Download PDFInfo
- Publication number
- CN107424173B CN107424173B CN201710434698.1A CN201710434698A CN107424173B CN 107424173 B CN107424173 B CN 107424173B CN 201710434698 A CN201710434698 A CN 201710434698A CN 107424173 B CN107424173 B CN 107424173B
- Authority
- CN
- China
- Prior art keywords
- tracking
- target
- frame
- particle
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于扩展的局部不变特征描述的目标跟踪方法,包括以下步骤:步骤1,目标图像初始化,选定包含被跟踪目标矩形A(x,y)的初始位置;步骤2,通过粒子滤波进行目标跟踪,选取一定粒子数量,每个粒子表示一帧中的跟踪矩形,并获得每个粒子的初始权重和位置信息;步骤3,计算每个粒子代表的跟踪矩形和前一帧的目标矩形的相似程度,相似程度越高的粒子赋予较大的权值,反之权值较小;通过权重对每个粒子所代表的跟踪矩形中心进行加权,得到最终的跟踪矩形中心,也即获得目标在第n+1帧图像的位置。本发明通过对每个特征点进行特征向量描述,通过颜色比对信息进行编码,对局部二元模式进行扩展,将纹理的分布进行了更细的划分。
Description
技术领域
本发明涉及目标跟踪的技术领域,具体涉及一种基于扩展的局部不变特征描述的目标跟踪方法。
背景技术
在视频跟踪研究中,基于粒子滤波的目标跟踪方法由于其在解决非线性问题方面的优异特性,以及相对开放的跟踪框架对各种特征描述方法的兼容能力,在视频跟踪中得到了广泛的应用。
然而,传统的粒子滤波用的是颜色直方图,并且由于二元模式仅仅表征简单的大小关系,无法反应纹理变化的差异程度,且容易受到噪声的影响。
发明内容
本发明的目的在于提供一种基于扩展的局部不变特征描述的目标跟踪方法,通过扩展局部二元特征,更好的表征纹理分布的细节,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种基于扩展的局部不变特征描述的目标跟踪方法,通过摄像工具,对目标进行视频拍摄,得到目标的视频序列图像,其特征在于,所述目标跟踪方法包括以下步骤:
步骤1,目标图像初始化,选定包含被跟踪目标矩形A(x,y)的初始位置;
步骤2,通过粒子滤波进行目标跟踪,选取一定粒子数量,每个粒子表示一帧中的跟踪矩形,并获得每个粒子的初始权重和位置信息;
步骤3,计算每个粒子代表的跟踪矩形和前一帧的目标矩形的相似程度,相似程度越高的粒子赋予较大的权值,反之权值较小;
其中,步骤3中,通过有序比对特征求得相似程度和权重,包括以下步骤:
步骤31,将第n帧的跟踪目标矩形A(x,y)图像平均分成若干个区域,每个区域随机选择一个像素点作为特征点,对每个特征点进行特征向量描述,获得跟踪目标矩形A(x,y)所有特征点的特征向量,然后进行归一化得到最终特征向量,完成对目标矩形A(x,y)图像的特征描述;
在进行特征向量描述过程中,通过对局部二元模式进行扩展,通过颜色比对信息进行编码,将颜色比对的结果分成3类;
步骤32,根据步骤31的方法,获得第n+1帧的跟踪目标矩形TA(x,y)图像的归一化最终特征向量;
步骤33,计算第n+1帧跟踪目标矩形TA(x,y)图像与第n帧跟踪目标矩形A(x,y)图像的相似度;
步骤34,更新当前粒子的权重:对所有粒子重复步骤31~33的操作,计算出新的权重,再进行归一化得到最终权重;
步骤35,通过权重对每个粒子所代表的跟踪矩形中心进行加权,得到最终的跟踪矩形中心,也即获得目标在第n+1帧图像的位置;
步骤36,从第2帧开始,每一帧都通过上述步骤计算出与之相邻的前一帧对应的跟踪参数{(Txn,Tyn)|n=1,L,N-1},获得目标在每一帧的跟踪结果,实现根据视频序列图像的第n帧的跟踪目标矩形的位置,计算第n+1帧的跟踪目标矩形的位置。
作为进一步改进,所述步骤2中,选取粒子数量M=50,每个粒子表示一个跟踪矩形,且第n帧的跟踪矩形的大小和第n+1帧的目标矩形的大小完全相同,每个粒子只需要3个参数其中表示跟踪矩形的权重,表示跟踪矩形的中心坐标,标号m∈{1,L,M}表示粒子的序号;
从步骤1的第n帧,n=1时的目标矩形A(x,y),中心像素设为(x0,y0),以及周围的背景区域B(x,y),则在第n+1帧图像上,以(x0,y0)为中心,随机选取50个位置作为粒子的中心坐标:
其中ε1,ε2均为[-1,1]内的随机数,β是一个常数,表示单帧像素偏移的范围,此取值50,然后给每个粒子的权重赋初值,初始权重设为1/M;
根据上述步骤,获得每个粒子的初始权重和位置信息。
将图像A(x,y)上平均分成100个区域,每个区域大小都一样,在每个区域随机选择一个像素点作为特征点,记为{(x1,y1),L,(x100,y100)},在图像TA(x,y)上相同的位置也可得到100个的特征点,记为{(x′1,y′1),L,(x′100,y′100)},其中(xi,yi)和(x′i,y′i)是一一对应的,i∈{1,2,L,100};
对每个特征点进行特征向量描述,通过颜色比对信息进行编码,对局部二元模式进行扩展,将颜色比对的结果分成3类,具体步骤如下:
其中m∈{1,2,L,8}表示像素点顺序号,th1表示第一个差异阈值,这里取值10,r1(m)表示像素点(xm,ym)在第一个模式下的编码,最终8个像素点会获得一个8位的二进制数{r1(1),r1(2),L,r1(8)},将其转化为十进制数所得的值即为像素点(xn,yn)的在第一个模式下的特征值,记为RT1,
进行第二个模式的比对:
r2(m)表示像素点(xm,ym)在第一个模式下的编码,同样8个像素点会获得一个8位的二进制数{r2(1),r2(2),L,r2(8)},将其转化为十进制数所得的值即为像素点(xn,yn)的在第二个模式下的特征值,记为RT2,
进行第三个模式的比对:
其中r3(m)表示像素点(xm,ym)在第三个模式下的编码,同样8个像素点会获得一个8位的二进制数{r3(1),r3(2),L,r3(8)},将其转化为十进制数所得的值即为像素点(xn,yn)的在第三个模式下的特征值,记为RT3,
实现通过差异阈值th1对颜色比对结果进行三种情况的分类,更好的表征纹理分布的细节,
最终特征点(xn,yn)一共得到一个长度为三的特征向量{RT1,L,RT3};
对图像A(x,y)上所有的特征点,都按照上述方法进行处理,获得各自的特征向量,把所有的特征向量排列在一起,获得一个长度为100×3=300的特征向量{RT1,L,RT300},然后进行归一化得到最终特征向量,记为YXT1,也即完成对图像A(x,y)的特征描述。
作为进一步改进,所述步骤32中,依据将颜色比对的结果分成3类的具体步骤,对图像TA(x,y)上100个特征点进行描述,得到一个长度为300的归一化特征向量,记为YXT2。
作为进一步改进,所述步骤33中,采用Bhattacharyya系数计算YXT1与YXT2的相似度,
接着根据相似度计算当前粒子的观测概率密度
作为进一步改进,所述步骤34中,更新当前粒子的权重的步骤:
作为进一步改进,所述步骤35中,通过权重对每个粒子所代表的跟踪矩形中心进行加权,得到最终的跟踪矩形中心:
也即获得目标在第n+1帧图像的位置。
作为进一步改进,所述步骤35中,从第n帧,n=2,开始,每一帧都通过计算出与之相邻的前一帧对应的跟踪参数{(Txn,Tyn)|n=1,L,N-1},获得目标在每一帧的跟踪结果。
本发明的有益效果:相对局部二元模式仅仅表征简单的大小关系,无法反应纹理变化的差异程度,且容易受到噪声的影响;本发明通过对每个特征点进行特征向量描述,通过颜色比对信息进行编码,对局部二元模式进行扩展,将纹理的分布进行了更细的划分,通过差异阈值th1对颜色比对结果进行三种情况的分类,不再是局部二元模式下单纯的大于和小于,从而更好的反应纹理变化的细节。
下面结合附图与具体实施方式,对本发明进一步详细说明。
附图说明
图1为基于扩展的局部不变特征描述的目标跟踪方法的流程示意图;
具体实施方式
实施例1,参见图1,本实施例提供的基于扩展的局部不变特征描述的目标跟踪方法,通过摄像工具,对目标进行视频拍摄,得到目标的视频序列图像,所述目标跟踪方法包括以下步骤:
步骤1,目标图像初始化,选定包含被跟踪目标矩形A(x,y)的初始位置;
步骤2,通过粒子滤波进行目标跟踪,选取一定粒子数量,每个粒子表示一帧中的跟踪矩形,并获得每个粒子的初始权重和位置信息;
步骤3,计算每个粒子代表的跟踪矩形和前一帧的目标矩形的相似程度,相似程度越高的粒子赋予较大的权值,反之权值较小;
其中,步骤3中,通过有序比对特征求得相似程度和权重,包括以下步骤:
步骤31,将第n帧的跟踪目标矩形A(x,y)图像平均分成若干个区域,每个区域随机选择一个像素点作为特征点,对每个特征点进行特征向量描述,获得跟踪目标矩形A(x,y)所有特征点的特征向量,然后进行归一化得到最终特征向量,完成对目标矩形A(x,y)图像的特征描述;
在进行特征向量描述过程中,通过对局部二元模式进行扩展,通过颜色比对信息进行编码,将颜色比对的结果分成3类;
步骤32,根据步骤31的方法,获得第n+1帧的跟踪目标矩形TA(x,y)图像的归一化最终特征向量;
步骤33,计算第n+1帧跟踪目标矩形TA(x,y)图像与第n帧跟踪目标矩形A(x,y)图像的相似度;
步骤34,更新当前粒子的权重:对所有粒子重复步骤31~33的操作,计算出新的权重,再进行归一化得到最终权重;
步骤35,通过权重对每个粒子所代表的跟踪矩形中心进行加权,得到最终的跟踪矩形中心,也即获得目标在第n+1帧图像的位置;
步骤36,从第2帧开始,每一帧都通过上述步骤计算出与之相邻的前一帧对应的跟踪参数{(Txn,Tyn)|n=1,L,N-1},获得目标在每一帧的跟踪结果,实现根据视频序列图像的第n帧的跟踪目标矩形的位置,计算第n+1帧的跟踪目标矩形的位置。
实施例2,参见图1,本实施例提供的基于扩展的局部不变特征描述的目标跟踪方法,以相邻两帧图像第n(≥1)帧和第n+1帧为例,用粒子滤波的思想进行目标跟踪,也即根据第n帧的目标矩形的位置,计算第n+1帧的跟踪矩形的位置。所述目标跟踪方法包括以下步骤:
步骤1,目标图像初始化,人工选定包含被跟踪目标矩形A(x,y)的初始位置;
步骤2,通过粒子滤波进行目标跟踪,选取粒子数量M=50,每个粒子表示一个跟踪矩形,且第n帧的跟踪矩形的大小和第n+1帧的目标矩形的大小完全相同,每个粒子只需要3个参数其中表示跟踪矩形的权重,表示跟踪矩形的中心坐标,标号m∈{1,L,M}表示粒子的序号;
第n帧,n=1时的目标矩形A(x,y),中心像素设为(x0,y0),以及周围的背景区域B(x,y),则在第n+1帧图像上,以(x0,y0)为中心,随机选取50个位置作为粒子的中心坐标:
其中ε1,ε2均为[-1,1]内的随机数,β是一个常数,表示单帧像素偏移的范围,此取值50,然后给每个粒子的权重赋初值,初始权重设为1/M;
根据上述步骤,获得每个粒子的初始权重和位置信息。
步骤3,计算每个粒子代表的跟踪矩形和前一帧的目标矩形的相似程度,相似程度越高的粒子赋予较大的权值,反之权值较小;
其中,步骤3中,通过有序比对特征求得相似程度和权重;
将第n帧的跟踪目标矩形A(x,y)上平均分成100个区域,每个区域大小都一样,在每个区域随机选择一个像素点作为特征点,记为{(x1,y1),L,(x100,y100)},在图像TA(x,y)上相同的位置也可得到100个的特征点,记为{(x′1,y′1),L,(x′100,y′100)},其中(xi,yi)和(x′i,y′i)是一一对应的,i∈{1,2,L,100};
对每个特征点进行特征向量描述,通过颜色比对信息进行编码,对局部二元模式进行扩展,将颜色比对的结果分成3类,具体步骤如下:
本实施例任取一个特征点(xn,yn)为例进行说明,在图像A(x,y)上,以(xn,yn)为中心在图像A(x,y)选择其四周紧邻的8个像素记为{(x1,y1),L,(x8,y8)}作为该点的对比像素,然后进行第一个模式比对:
其中m∈{1,2,L,8}表示像素点顺序号,th1表示第一个差异阈值,这里取值10,r1(m)表示像素点(xm,ym)在第一个模式下的编码,最终8个像素点会获得一个8位的二进制数{r1(1),r1(2),L,r1(8)},将其转化为十进制数所得的值即为像素点(xn,yn)的在第一个模式下的特征值,记为RT1,
进行第二个模式的比对:
r2(m)表示像素点(xm,ym)在第一个模式下的编码,同样8个像素点会获得一个8位的二进制数{r2(1),r2(2),L,r2(8)},将其转化为十进制数所得的值即为像素点(xn,yn)的在第二个模式下的特征值,记为RT2,
进行第三个模式的比对:
其中r3(m)表示像素点(xm,ym)在第三个模式下的编码,同样8个像素点会获得一个8位的二进制数{r3(1),r3(2),L,r3(8)},将其转化为十进制数所得的值即为像素点(xn,yn)的在第三个模式下的特征值,记为RT3,
这三个模式将纹理的分布进行了更细的划分,实现通过差异阈值th1对颜色比对结果进行三种情况的分类,不再是局部二元模式下单纯的大于和小于,能够更好的表征纹理分布的细节。
最终特征点(xn,yn)一共得到一个长度为三的特征向量{RT1,L,RT3};
对图像A(x,y)上所有的特征点,都按照上述方法进行处理,获得各自的特征向量,把所有的特征向量排列在一起,获得一个长度为100×3=300的特征向量{RT1,L,RT300},然后进行归一化得到最终特征向量,记为YXT1,也即完成对图像A(x,y)的特征描述。
步骤32,依据将颜色比对的结果分成3类的具体步骤,对图像TA(x,y)上100个特征点进行描述,得到一个长度为300的归一化特征向量,记为YXT2。
步骤33,计算第n+1帧跟踪目标矩形TA(x,y)图像与第n帧跟踪目标矩形A(x,y)图像的相似度;
具体采用Bhattacharyya系数计算YXT1与YXT2的相似度,
接着根据相似度计算当前粒子的观测概率密度
步骤34,更新当前粒子的权重的步骤:
步骤35,通过权重对每个粒子所代表的跟踪矩形中心进行加权,得到最终的跟踪矩形中心:
也即获得目标在第n+1帧图像的位置。
步骤36,从第n帧,n=2,开始,每一帧都通过计算出与之相邻的前一帧对应的跟踪参数{(Txn,Tyn)|n=1,L,N-1},获得目标在每一帧的跟踪结果。
本发明并不限于上述实施方式,采用与本发明上述实施例相同或近似方法,而得到的其他基于扩展的局部不变特征描述的目标跟踪方法,均在本发明的保护范围之内。
Claims (8)
1.一种基于扩展的局部不变特征描述的目标跟踪方法,通过摄像工具,对目标进行视频拍摄,得到目标的视频序列图像,其特征在于,所述目标跟踪方法包括以下步骤:
步骤1,目标图像初始化,选定包含被跟踪目标矩形A(x,y)的初始位置;
步骤2,通过粒子滤波进行目标跟踪,选取一定粒子数量,每个粒子表示一帧中的跟踪目标矩形,并获得每个粒子的初始权重和位置信息;
步骤3,计算每个粒子代表的跟踪目标矩形和前一帧的跟踪目标矩形的相似程度,相似程度越高的粒子赋予较大的权值,反之权值较小;
其中,步骤3中,通过有序比对特征求得相似程度和权重,包括以下步骤:
步骤31,将第n帧的跟踪目标矩形A(x,y)图像平均分成若干个区域,每个区域随机选择一个像素点作为特征点,对每个特征点进行特征向量描述,获得跟踪目标矩形A(x,y)所有特征点的特征向量,然后进行归一化得到最终特征向量,完成对跟踪目标矩形A(x,y)图像的特征描述;
在进行特征向量描述过程中,对每个特征点进行特征向量描述,通过颜色比对信息进行编码,对局部二元模式进行扩展,通过差异阈值th1对颜色比对结果进行三种情况的分类;
步骤32,根据步骤31的方法,获得第n+1帧的跟踪目标矩形TA(x,y)图像的归一化最终特征向量;
步骤33,计算第n+1帧跟踪目标矩形TA(x,y)图像与第n帧跟踪目标矩形A(x,y)图像的相似度;
步骤34,更新当前粒子的权重:对所有粒子重复步骤31~33的操作,计算出新的权重,再进行归一化得到最终权重;
步骤35,通过权重对每个粒子所代表的跟踪目标矩形中心进行加权,得到最终的跟踪目标矩形中心,也即获得目标在第n+1帧图像的位置;
步骤36,从第2帧开始,每一帧都通过上述步骤计算出与之相邻的前一帧对应的跟踪参数{(Txn,Tyn)|n=1,L,N-1},获得目标在每一帧的跟踪结果,实现根据视频序列图像的第n帧的跟踪目标矩形的位置,计算第n+1帧的跟踪目标矩形的位置。
2.根据权利要求1所述的基于扩展的局部不变特征描述的目标跟踪方法,其特征在于,所述步骤2中,选取粒子数量M=50,每个粒子表示一个跟踪目标矩形,且第n帧的跟踪目标矩形的大小和第n+1帧的跟踪目标矩形的大小完全相同,每个粒子只需要3个参数其中表示跟踪目标矩形的权重,表示跟踪目标矩形的中心坐标,标号m∈{1,L,M}表示粒子的序号;
从步骤1的第n帧,n=1时的跟踪目标矩形A(x,y),中心像素设为(x0,y0),以及周围的背景区域B(x,y),则在第n+1帧图像上,以(x0,y0)为中心,随机选取50个位置作为粒子的中心坐标:
其中ε1,ε2均为[-1,1]内的随机数,β是一个常数,表示单帧像素偏移的范围,此取值50,然后给每个粒子的权重赋初值,初始权重设为1/M;
根据上述步骤,获得每个粒子的初始权重和位置信息。
将图像A(x,y)上平均分成100个区域,每个区域大小都一样,在每个区域随机选择一个像素点作为特征点,记为{(x1,y1),L,(x100,y100)},在图像TA(x,y)上相同的位置也可得到100个的特征点,记为{(x′1,y′1),L,(x′100,y′100)},其中(xi,yi)和(x′i,y′i)是一一对应的,i∈{1,2,L,100};
对每个特征点进行特征向量描述,通过颜色比对信息进行编码,对局部二元模式进行扩展,将颜色比对的结果分成3类,具体步骤如下:
任取一个特征点(xn,yn),在图像A(x,y)上,以(xn,yn)为中心在图像A(x,y)选择其四周紧邻的8个像素记为{(x1,y1),L,(x8,y8)}作为该点的对比像素,然后进行第一个模式比对:
其中m∈{1,2,L,8}表示像素点顺序号,th1表示第一个差异阈值,这里取值10,r1(m)表示像素点(xm,ym)在第一个模式下的编码,最终8个像素点会获得一个8位的二进制数{r1(1),r1(2),L,r1(8)},将其转化为十进制数所得的值即为像素点(xn,yn)的在第一个模式下的特征值,记为RT1,
进行第二个模式的比对:
r2(m)表示像素点(xm,ym)在第一个模式下的编码,同样8个像素点会获得一个8位的二进制数{r2(1),r2(2),L,r2(8)},将其转化为十进制数所得的值即为像素点(xn,yn)的在第二个模式下的特征值,记为RT2,
进行第三个模式的比对:
其中r3(m)表示像素点(xm,ym)在第三个模式下的编码,同样8个像素点会获得一个8位的二进制数{r3(1),r3(2),L,r3(8)},将其转化为十进制数所得的值即为像素点(xn,yn)的在第三个模式下的特征值,记为RT3,
实现通过差异阈值th1对颜色比对结果进行三种情况的分类,更好的表征纹理分布的细节,
最终特征点(xn,yn)一共得到一个长度为三的特征向量{RT1,L,RT3};
对图像A(x,y)上所有的特征点,都按照上述方法进行处理,获得各自的特征向量,把所有的特征向量排列在一起,获得一个长度为100×3=300的特征向量{RT1,L,RT300},然后进行归一化得到最终特征向量,记为YXT1,也即完成对图像A(x,y)的特征描述。
4.根据权利要求3所述的基于扩展的局部不变特征描述的目标跟踪方法,其特征在于,所述步骤32中,依据将颜色比对的结果分成3类的具体步骤,对图像TA(x,y)上100个特征点进行描述,得到一个长度为300的归一化特征向量,记为YXT2。
8.根据权利要求7所述的基于扩展的局部不变特征描述的目标跟踪方法,其特征在于,所述步骤36中,从第n帧,n=2,开始,每一帧都通过计算出与之相邻的前一帧对应的跟踪参数{(Txn,Tyn)|n=1,L,N-1},获得目标在每一帧的跟踪结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710434698.1A CN107424173B (zh) | 2017-06-09 | 2017-06-09 | 一种基于扩展的局部不变特征描述的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710434698.1A CN107424173B (zh) | 2017-06-09 | 2017-06-09 | 一种基于扩展的局部不变特征描述的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107424173A CN107424173A (zh) | 2017-12-01 |
CN107424173B true CN107424173B (zh) | 2020-06-05 |
Family
ID=60428551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710434698.1A Active CN107424173B (zh) | 2017-06-09 | 2017-06-09 | 一种基于扩展的局部不变特征描述的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107424173B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109905590B (zh) * | 2017-12-08 | 2021-04-27 | 腾讯科技(深圳)有限公司 | 一种视频图像处理方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101923718A (zh) * | 2009-06-12 | 2010-12-22 | 新奥特(北京)视频技术有限公司 | 基于粒子滤波和光流矢量的视频目标跟踪方法的优化方法 |
CN102800108A (zh) * | 2012-07-11 | 2012-11-28 | 上海交通大学 | 基于局部约束最小二乘估计的视觉目标跟踪方法 |
CN105279769A (zh) * | 2015-07-16 | 2016-01-27 | 北京理工大学 | 一种联合多特征的层次粒子滤波跟踪方法 |
CN105405151A (zh) * | 2015-10-26 | 2016-03-16 | 西安电子科技大学 | 基于粒子滤波和加权Surf的抗遮挡目标跟踪方法 |
CN106127808A (zh) * | 2016-06-20 | 2016-11-16 | 浙江工业大学 | 一种基于颜色与局部二值模式特征融合的抗遮挡粒子滤波目标跟踪方法 |
-
2017
- 2017-06-09 CN CN201710434698.1A patent/CN107424173B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101923718A (zh) * | 2009-06-12 | 2010-12-22 | 新奥特(北京)视频技术有限公司 | 基于粒子滤波和光流矢量的视频目标跟踪方法的优化方法 |
CN102800108A (zh) * | 2012-07-11 | 2012-11-28 | 上海交通大学 | 基于局部约束最小二乘估计的视觉目标跟踪方法 |
CN105279769A (zh) * | 2015-07-16 | 2016-01-27 | 北京理工大学 | 一种联合多特征的层次粒子滤波跟踪方法 |
CN105405151A (zh) * | 2015-10-26 | 2016-03-16 | 西安电子科技大学 | 基于粒子滤波和加权Surf的抗遮挡目标跟踪方法 |
CN106127808A (zh) * | 2016-06-20 | 2016-11-16 | 浙江工业大学 | 一种基于颜色与局部二值模式特征融合的抗遮挡粒子滤波目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
Region Edge Histogram:A New Feature for Region-based Tracking;Wangsheng Yu 等;《ICSP2014》;20141231;第1180-1185页 * |
基于粒子滤波的参数估计及图像跟踪算法研究;周芳龙;《中国优秀硕士学位论文全文数据库 信息科技辑》;20110915(第9期);正文第1-49页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107424173A (zh) | 2017-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Huang et al. | An efficient visibility enhancement algorithm for road scenes captured by intelligent transportation systems | |
WO2022099598A1 (zh) | 一种基于图像像素相对统计特征的视频动态目标检测的方法 | |
CN107909548B (zh) | 一种基于噪声建模的视频去雨方法 | |
CN106204509B (zh) | 基于区域特性的红外与可见光图像融合方法 | |
CN104778701A (zh) | 一种基于rgb-d传感器的局部图像描述方法 | |
CN104766065B (zh) | 基于多视角学习的鲁棒性前景检测方法 | |
CN106485702B (zh) | 基于自然图像特征统计的图像模糊检测方法 | |
CN107169962B (zh) | 基于空间密度约束核模糊聚类的灰度图像快速分割方法 | |
CN110782407A (zh) | 一种基于天空区域概率分割的单幅图像去雾方法 | |
Pok et al. | Efficient block matching for removing impulse noise | |
CN110766708A (zh) | 基于轮廓相似度的图像比较方法 | |
CN112241745A (zh) | 一种基于光照不变颜色空间的特征点提取方法 | |
CN109635809B (zh) | 一种面向视觉退化图像的超像素分割方法 | |
CN108062557A (zh) | 基于快速压缩跟踪算法的尺度自适应目标跟踪方法 | |
CN107424173B (zh) | 一种基于扩展的局部不变特征描述的目标跟踪方法 | |
EP1153364A1 (en) | Color image processing method and apparatus thereof | |
Dong-liang et al. | Degraded image enhancement with applications in robot vision | |
CN113850748A (zh) | 点云质量的评估系统及方法 | |
CN107392936B (zh) | 一种基于meanshift的目标跟踪方法 | |
CN107564029B (zh) | 基于高斯极值滤波和群稀疏rpca的运动目标检测方法 | |
CN106504260B (zh) | 一种fcm图像分割方法和系统 | |
CN106886791A (zh) | 一种基于条件随机场的二维ct图片中脂肪位置识别方法 | |
CN106815860B (zh) | 一种基于有序比对特征的目标跟踪方法 | |
CN110148155A (zh) | 一种多特征与自适应标准对冲相结合的目标跟踪方法 | |
Naseeba et al. | KP Visibility Restoration of Single Hazy Images Captured in Real-World Weather Conditions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20200703 Address after: 230000 west side of Xianghe North Road, Feidong Economic Development Zone, Feidong County, Hefei City, Anhui Province Patentee after: ANHUI GUANGZHEN PHOTOELECTRIC TECHNOLOGY Co.,Ltd. Address before: 523000 Guangdong province Dongguan Yinxing Industrial Zone Qingxi Town Guangdong light array photoelectric technology Co. Ltd. Patentee before: GUANGDONG LITE ARRAY Co.,Ltd. |
|
TR01 | Transfer of patent right |