CN105844669B - 一种基于局部哈希特征的视频目标实时跟踪方法 - Google Patents
一种基于局部哈希特征的视频目标实时跟踪方法 Download PDFInfo
- Publication number
- CN105844669B CN105844669B CN201610182089.7A CN201610182089A CN105844669B CN 105844669 B CN105844669 B CN 105844669B CN 201610182089 A CN201610182089 A CN 201610182089A CN 105844669 B CN105844669 B CN 105844669B
- Authority
- CN
- China
- Prior art keywords
- frame
- target
- candidate
- feature
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000012545 processing Methods 0.000 claims abstract description 19
- 238000000605 extraction Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 3
- 101150060512 SPATA6 gene Proteins 0.000 description 57
- 238000004422 calculation algorithm Methods 0.000 description 19
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000001174 ascending effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012876 topography Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000004035 construction material Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于感知哈希特征的视频目标跟踪方法,其特征在于,包括以下步骤:(1)读取待跟踪视频序列的第一帧;(2)在图像中画一恰好将目标包围的矩形框,作为目标框;(3)对视频帧图像进行灰度化处理;(4)提取目标框的局部哈希特征,并对特征进行为运算化处理;(5)读取视频下一帧,并采用同步骤(3)同样的方式对图像进行灰度化处理;(6)在当前帧中,采用倒金字塔候选框搜索方法在上一帧目标相同位置附近获取候选框;(7)采用同步骤(4)相同的方式,提取所有候选框的局部哈希特征;(8)计算所有候选框同上一帧目标框的相似度,选取相似度最大的候选框作为新的目标框,并重复步骤(5)~(7),直至视频结束。
Description
技术领域
本发明属于图像处理技术中的视频目标跟踪领域,提出了一种基于局部哈希特征的视频目标实时跟踪方法。
背景技术
视频目标跟踪是连续确定视频中目标所在相对位置,并大致指示目标大小的一种技术。
视频目标跟踪技术涉及到计算机视觉处理、图像序列处理、模式识别以及人工智能等领域,且其应用极其广泛,比如在商业上的商场、宾馆、住宅区的监控;公共事业上的学校、医院、机场、车站等公共场所的监控;军事上一些基于机器视觉的制导系统、瞄准系统等。
视频目标跟踪按照学习模型的不同可大致分为两类,分别为基于离线学习模型和基于在线学习模型的跟踪算法。
基于离线学习模型的目标跟踪算法,需要大量同类物体的样本进行离线训练学习,且跟踪的目标受限于学习的目标,因此这种算法没有被广泛的应用,只有在某些特定的场合,如车辆跟踪、人脸跟踪中作为一种辅助检测的手段。
基于在线学习模型的跟踪算法,是目前视频跟踪领域中的主流算法,其不需要离线学习样本,而是在跟踪的过程中,学习更新模型的参数,且其跟踪的目标也不限于某一特定目标,只要在视频初始阶段给出跟踪目标的大致信息即可。算法模型会根据初始阶段标记得到的大致信息进行学习。在线学习算法的学习模型往往比较简单,所以学习过程也较为快速。
但是,基于在线学习模型的跟踪算法,几乎都只有在高性能的计算机上才能实现实时跟踪(即每秒至少处理15帧),这是因为这些算法一般采用HOG、Haar-like、LBP等较为复杂的局部特征作为学习模型的学习特征,这些特征的提取、运算需要花费较多的时间,因此这些算法不能很好的移植到一些实用的嵌入式系统中去。
另外,目前绝大部分基于在线学习模型的跟踪算法都属于判别式跟踪算法,这种算法将跟踪问题看成一个二分类问题,其需要在视频的每帧图像中选取一定的候选框,再通过学习机从候选框中选出新的跟踪结果。对于候选框的获取方法,目前没有较为简便的方式,一般都是在跟踪目标附近全遍历,搜索所有可能的候选框,这种方法可以获得大量候选框,但对于跟踪而言,有许多候选框是冗余的,这会加重算法的运算负担。
发明内容
针对现有视频目标跟踪技术中的特征较为复杂,运算量较大的不足之处,本发明提出了一种基于感知哈希特征的视频目标跟踪方法,并对特征进行位运算化处理,实现了快速、高效的视频目标跟踪。
本发明提出的基于感知哈希特征的视频目标跟踪方法主要包括以下步骤:
(1)读取待跟踪视频序列的第一帧;
(2)在图像中画一恰好将目标包围的矩形框,作为目标框;
(3)对视频帧图像进行灰度化处理;
(4)提取目标框的局部哈希特征,并对特征进行为运算化处理;
(5)读取视频下一帧,并采用同步骤(3)同样的方式对图像进行灰度化处理;
(6)在当前帧中,采用倒金字塔候选框搜索方法在上一帧目标相同位置附近获取候选框;
(7)采用同步骤(4)相同的方式,提取所有候选框的局部哈希特征;
(8)计算所有候选框同上一帧目标框的相似度,选取相似度最大的候选框作为新的目标框,并重复步骤(5)~(7),直至视频结束。
优选地,对于步骤(4)具体包括以下内容:
(4-1)感知哈希原理:
感知哈希是从多媒体数据集到感知摘要集的一种单向映射,通过感知哈希函数将庞大的多媒体对象映射为数据量较小、长度较短的比特序列,将内容相同或相近的多媒体对象映射为数学相同或相近的哈希值。感知阈值理论告诉我们,人类要想能够感知到不同的事物,那么该事物所带来的刺激就必须要超过人类的感知阈值,那些未能超过阈值的,则均被认为是相同“数据”,由此可知,感知哈希是允许一定感知误差的,它由传统哈希发展而来,不但具有传统哈希简洁性、安全性的特点,还极大地提高了哈希的鲁棒性。
本发明,将感知哈希理论应用到目标跟踪领域,并结合目标跟踪的特点与需求,提出了基于感知哈希原理的局部哈希特征。局部哈希特征具有而局部哈希特征在跟踪算法中也能够继承其简洁性、鲁棒性的特点,因此,本发明可以实现快速、鲁棒的跟踪算法。
感知哈希特征的提取原理如下:
其中,式中P(x,y)表示原图在点(x,y)处的像素值,S(x,y)表示哈希特征在点(x,y)处的结果值,w表示图像的宽度,h表示图像的高度。
观察图2,可发现感知哈希特征提取的过程中,会删去图像中大部分的低频信息,只保留图像中的高频信息,即将图像中目标的边缘、轮廓信息保留下来。
同时,原图中每个像素都是由RGB三个通道的像素值组成,每个通道都存有一个长度为8位的像素值,而结果图中每个像素都只是由一个通道的数据组成,且由一位的0或1表示,这极大地减少了数据的信息量。
传统的基于感知哈希原理的跟踪是一种模板匹配的方法,即将目标框、候选框缩小到8*8个像素大小,再比较候选框与上一帧目标框的相似度,选出相似度最高的候选框作为新的目标框。这种方法虽然简单易实现,但是跟踪的效果较差,尤其是在跟踪目标出现形变、部分遮挡时,跟踪效果极为不好。产生这种现象的原因是这种8*8的模板删减了太多的目标特征信息,从而导致不同的候选框图像却可能产生相同的哈希序列。因此,这种方法虽然有相当好的简洁性,但却不满足跟踪问题中所需求的鲁棒性。
(4-2)局部哈希特征提取
本发明为了解决传统的基于感知哈希的跟踪方法鲁棒性较差的问题,在原有感知哈希原理的基础上,提出了一种基于图像块划分的局部哈希特征。这种特征是在原目标图像中提取出许多大小为8*8的局部子图像块,分别对每个子图像块提取感知哈希特征,便可以得到局部哈希特征。
本发明将局部子图像块的大小定为8*8原因,是为了更加符合机器运算的规则,为了更方便的使用机器运算中快速的位运算操作。在后文中,将会有更加详细的关于使用位运算的方法。
本发明在获取局部子图像块的过程中,采用8*8模板在待提取特征图像中平移,每次平移均可获得一个8*8的子图像块,对于大小为w·h的图像,一共可获取子图像块的个数为:
其中,a为每次平移的步长,[·]为取整符号。
获得多个子图像块后,用上述的哈希特征提取原理对子图像块提取哈希特征。
(4-3)位运算化处理
观察附图3b,可发现每个局部哈希特征都是一个含有64个元素的矩阵,且矩阵元素较为特殊,只含有0或者1。
在机器运算中,其对数据存储的方式也是由0、1组成的二进制序列。本发明利用局部哈希特征矩阵元素只有0、1的特点,将每个局部哈希特征矩阵按行序排列成一个长度为64的向量。且在机器运算中存在一种长整型变量也是64位长度,因此每个局部哈希特征都可以用一个长整型的变量来表示,原本需要64个变量存储的特征,只需一个长整型即可,这在内存储存方面能够有效的减少成本,也是局部子图像块的大小定为8*8的一个重要原因。
优选地,对于步骤(6)具体包含以下内容:
在搜索候选框时,传统的候选框搜索策略是一种全遍历方式,即在目标周围一定范围内逐点遍历图像。这样做的好处是,目标周围所有的候选框均可以被涵盖,且不会被遗漏。但是,在目标跟踪中,目标框的位置发生微小变化,如果并不影响跟踪结果,则目标框附近的数个候选框均可以作为新的目标框。因此传统的全遍历搜索策略搜索出的许多候选框其实是冗余的,这会导致算法的计算负担极大加重,运行时间增加,从而无法实现实时跟踪。
本发明为了在不影响跟踪结果的前提下删减冗余的候选框,提出了倒金字塔搜索方法。此方法的思想来源于倒金字塔的结构形式,至下而上,金字塔的横截面积由小到大,同时所使用的建筑材料的大小也由小到大。
将这种思想运用在候选框搜索中,则是以目标的左上角为中心,由内向外构造不同面积、互不重叠的矩形或矩形环区域,作为待搜索区域。且在不同搜索区域搜索时,其搜索步长也因区域离中心点的距离大小而变化。
如图4所示,图4中黑点为目标框的中心点,区域1、2、3互不重叠,区域1为矩形区域,区域2和区域3是与区域1同中心点的矩形环。三个区域到中心点的距离依次增加,搜索范围也依次增加。
在搜索区域中,沿x方向的搜索迭代公式:
沿y方向搜索迭代公式:
上式中,i代表所在区,i=1,2,3。和分别表示沿x和y方向的迭代步长。
由图4可知,区域3所在位置离目标框最远,故新的目标框位置位于区域3的可能性最小,且其包含的区域面积最大,因此在区域3搜索时,其搜索步长选取较大的值。同理,在区域2的搜索步长比区域3小,区域1的搜索步长最小。一般可取:
优选地,对于步骤(8)包含以下内容:
在通过倒金字塔搜索方法搜索得到诸多候选框后,要想在其中选出当前的目标,则需要一种计算候选框与上一帧目标框相似度的度量手段,分别计算每个候选框与上一帧目标框的相似度,然后在这些候选框中找到相似度最高的作为新的目标框。
一般的相似度计算方法都是基于距离的衡量方法,常用的距离衡量方法有欧式距离、曼哈顿距离、切比雪夫距离、马氏距离、汉明距离等。
汉明距离,是一种专门用来比对两个序列相似度的衡量手段,对于汉明距离来说,两个等长字符串s1与s2之间的汉明距离为将其中一个变为另外一个所需要作的最小替换次数,例如字符串“1111”与“1001”之间的汉明距离为2。
本发明在提取哈希特征时得到的是长度为64位的二进制序列,则比较两个局部哈希特征的相似度时,可以采用汉明距离作为局部哈希特征的度量方式。这种度量方式计算非常简便,且相似性度量的结果也较为准确。
根据汉明距离的定义可知,汉明值H(x,y)是序列x、y中对应位置不同的个数。本发明在提取到局部哈希特征向量后,将其转化为一个64位整型变量,因此x和y是两个只含0、1的序列,故对x和y采取异或操作来计算两个序列的哈明距离。
异或运算 | 0 | 1 |
0 | 0 | 1 |
1 | 1 | 0 |
如上表所示,异或运算的原理是相异为1,相同为0。
例如,假设x和y是如下序列:
x=00111101 01011001 00000000 11111111 00000000 11111111 0000000011111111
y=00110000 10110100 00000000 11111111 00000000 11111111 0000000011111111x和y异或的结果为:
z=x∧y
=00001101 11101101 00000000 00000000 00000000 00000000 0000000000000000在统计异或结果序列中“1”的个数时,本发明采用移位和按位相与的方式进行加速计算。为方便解释,假设结果序列为S(S=00110011),序列中“1”的个数为num(1),并设其初始值为0,让序列S与序列B(B=00000001)按位相与,这样做的目的是判断序列S中最后一位是否为“1”。相与的结果z=00000001,其在计算机中的值为1,即z=1,故在num(1)上加z;然后,为了判断序列S中倒数第二位是否为“1”,将S右移一位,得到S'=00011001,再让S'与00000001按位相与,得到结果为z=00000001,同样在num(1)上再加z。依次类推,直至整个序列中所有位都经过判断。最终的num(1)即序列中“1”的个数,也即是两个序列的汉明距离。
上述过程求取的是候选框与目标框中对应位置的子图像块的相似度,本发明在评估候选框与目标的整体相似度时,采用子图像块相似度的均值作为衡量手段。即候选框与目标框整体的相似度s为:
其中m为子图像块的个数,si为候选框与目标框的子图像块的相似度。
与现有技术相比,本发明具有如下有益效果:
1、本发明采用的局部哈希特征,提取方式简便,复杂度低,可以很好地运用在一些实时跟踪场景中,尤其是对于一些嵌入式系统,本发明都可以较好地实现实时跟踪;
2、本发明对特征进行一系列位运算处理,在机器中,位运算是最快速最高效的运算方式,因此本发明运算速度很快;
3、本发明采用倒金字塔方法提取候选框,这种提取方式极大地减少了冗余的候选框,提过算法本身效率。
附图说明
图1是本发明流程图;
图2是原始图像和提取的哈希特征结果图;
图3是某一8*8局部图像块和对其提取的局部哈希特征结果;
图4是倒金字塔搜索方法区域图;
图5是跟踪领域中经典测试视频David的第一帧。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明的步骤流程如图1所示,现以测试视频David为例说明:
(1)获取初始目标框
在读取David视频的第一帧时,由于算法本身并不知道其要跟踪的目标是什么,因此需要提供交互界面,人为的给定待跟踪目标。
如图5所示,为David视频第一帧,图5中矩形框为人为标记得来。人机交互得到矩形框的位置、大小信息后,便在图像中显示出这些信息。图5中四个数字分别表示矩形框左上角坐标(x,y)和矩形框的宽和高(w,h)。根据图5中给出的信息可知当前矩形框左上角点的坐标为(129,80),宽和高为(64,78)。
(2)获取初始目标的局部子图像块
根据步骤(1)获取的目标信息,迭代的获取多个子图像块,子图像块的个数为:
这里w=64,h=78,并取迭代步长a=4。因此最终获取的子图像块的个数为15×18=270个。
(3)获取初始目标的局部哈希特征
得到目标的子图像块后,便要获取子局部图像块的哈希特征,获取原理为:
每个局部哈希特征都是一个大小为8*8的矩阵,且矩阵中的元素只含有0或者1。
利用局部哈希特征矩阵与机器运算中长整型变量的相似之处,故将局部哈希特征按位运算的方式化为一个长度为64位的长整型变量,并存放于一个长整型数组“hashValue[270]”中,以图3b中的局部哈希特征为例:
首先设64位长整型变量a=0,并让其与局部哈希特征中的第一位数相或,这样便将这个数存放在了a的最末位,然后将a左移一位,并让其与局部哈希特征中的第二位数相或,依次类推直至将所有哈希特征值全部存入a中。
(4)候选框搜索
当读取到视频的第二帧时,此时要在新的图像中获取一系列的候选框,作为新的目标框的候选。获取候选的策略是采用倒金字塔候选框搜索方法。
已知在上一帧中目标的位置为(129,80),根据视频中连续两帧之间目标位置变化比较小的原理,故在当前帧中(129,80)附近寻找候选框。如图4所示,以(129,80)为中心,分别以10、20、40个像素为区域宽度,得到1、2、3三个矩形环搜索区域。且在三个区域的搜索步长与搜索域到中心距离有关,取Step(1)=1,Step(2)=2,Step(3)=4。
对于传统的全遍历搜索策略,当搜索范围为40个像素时,每帧图像可得到约1600个候选框,而采用倒金字塔搜索策略后,则可精减为约371个候选框。且对于目标跟踪这种对实时性要求较高但容许部分误差的情况,跟踪效果并未有很大差别。
(5)获取候选框局部哈希特征
获取候选框后,便要对候选框求取局部哈希特征,求取方式与步骤3相同。
这里,对每个后候选框均获取局部哈希特征,因此一共可获得371个独立的“hashValue[270]”。其中每个hashValue[i]都是一个64位长整型变量。
(6)相似度计算
在获取候选框的局部哈希特征后,便要计算每个候选框与前一帧目标框的相似度,并选取最相似的作为新的目标框。
因为候选框和目标框的局部哈希特征“hashValue[270]”中包含了两百多子子图像块的哈希特征,因此比较候选框与目标框的相似度可转换为比较每个对应位置子图像块的相似度,然后对所有子图像块的相似度求均值,从而得到候选框与目标框整体的相似度。
一般的,当相似度大于0.5,便认为两个序列存在相关性,当相似度大于0.75便认为两个序列有较高的相似度,当相似度大于0.95便认为两个序列几乎是相同序列。
(7)确定新的目标框
比较所有的候选框与目标框的相似度,找出相似度最高的候选框,作为新的目标框。然后算法重复步骤4至步骤7,直至视频结束。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (3)
1.一种基于感知哈希特征的视频目标跟踪方法,其特征在于,包括以下步骤:
(1)读取待跟踪视频序列的第一帧;
(2)在图像中画一将目标包围的矩形框,作为目标框;
(3)对视频帧图像进行灰度化处理;
(4)提取目标框的局部哈希特征,并对特征进行为运算化处理;
(5)读取视频下一帧,并采用同步骤(3)同样的方式对图像进行灰度化处理;
(6)在当前帧中,采用倒金字塔候选框搜索方法在上一帧目标相同位置附近获取候选框;
(7)采用同步骤(4)相同的方式,提取所有候选框的局部哈希特征;
(8)计算所有候选框同上一帧目标框的相似度,选取相似度最大的候选框作为新的目标框,并重复步骤(5)~(7),直至视频结束;所述步骤(4)中提取目标框的局部哈希特征具体为:在原目标图像中提取出多个大小为8*8的局部子图像块,分别对每个子图像块提取感知哈希特征,得到局部哈希特征;所述步骤(4)中对特征进行为运算化处理具体为:将每个局部哈希特征矩阵按行序排列成一个长度为64的向量;所述步骤(6)中倒金字塔候选框搜索方法具体为:以目标的左上角为中心,由内向外构造不同面积、互不重叠的矩形或矩形环区域,作为待搜索区域,且在待搜索区域搜索时,其搜索步长也因区域离中心点的距离大小而变化;
在所述步骤(8)中采用汉明距离作为局部哈希特征的度量方式;
候选框与目标框整体的相似度s为:
其中m为子图像块的个数,si为候选框与目标框的子图像块的相似度;
对于大小为w·h的图像,一共获取子图像块的个数为:
其中,a为每次平移的步长,[·]为取整符号,w表示图像的宽度,h表示图像的高度。
2.如权利要求1所述的方法,其特征在于,在待搜索区域中:
沿x方向的搜索迭代公式:
沿y方向搜索迭代公式:
上式中,i代表所在待搜索区域,i=1,2,3,和分别表示沿x和y方向的迭代步长。
3.如权利要求1所述的方法,其特征在于,感知哈希特征的提取方法如下:
其中,式中P(x,y)表示原图在点(x,y)处的像素值,S(x,y)表示哈希特征在点(x,y)处的结果值,w表示图像的宽度,h表示图像的高度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610182089.7A CN105844669B (zh) | 2016-03-28 | 2016-03-28 | 一种基于局部哈希特征的视频目标实时跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610182089.7A CN105844669B (zh) | 2016-03-28 | 2016-03-28 | 一种基于局部哈希特征的视频目标实时跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105844669A CN105844669A (zh) | 2016-08-10 |
CN105844669B true CN105844669B (zh) | 2018-11-13 |
Family
ID=56583723
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610182089.7A Expired - Fee Related CN105844669B (zh) | 2016-03-28 | 2016-03-28 | 一种基于局部哈希特征的视频目标实时跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105844669B (zh) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106408593B (zh) * | 2016-09-18 | 2019-05-17 | 东软集团股份有限公司 | 一种基于视频的车辆跟踪方法及装置 |
CN106599028B (zh) * | 2016-11-02 | 2020-04-28 | 华南理工大学 | 一种基于视频图像处理的书本内容搜索匹配方法 |
WO2018138590A1 (en) * | 2017-01-24 | 2018-08-02 | Semiconductor Energy Laboratory Co., Ltd. | Display device and electronic device |
CN107248174A (zh) * | 2017-05-15 | 2017-10-13 | 西安电子科技大学 | 一种基于tld算法的目标跟踪方法 |
CN108491750B (zh) * | 2017-09-11 | 2021-11-23 | 上海南洋万邦软件技术有限公司 | 人脸识别方法 |
CN107749068A (zh) * | 2017-09-20 | 2018-03-02 | 天津大学 | 粒子滤波与感知hash算法实现目标实时跟踪方法 |
CN107657629A (zh) * | 2017-10-27 | 2018-02-02 | 广东工业大学 | 一种目标的跟踪方法和跟踪系统 |
CN108257158B (zh) * | 2018-03-27 | 2021-11-30 | 福州大学 | 一种基于循环神经网络的目标预测与跟踪方法 |
CN109189964A (zh) * | 2018-07-20 | 2019-01-11 | 杭州电子科技大学 | 基于局部敏感哈希索引和图像路标的场景识别方法 |
CN108960206B (zh) * | 2018-08-07 | 2021-01-22 | 北京字节跳动网络技术有限公司 | 视频帧处理方法和装置 |
CN109543610B (zh) * | 2018-11-22 | 2022-11-11 | 中国科学院长春光学精密机械与物理研究所 | 车辆检测跟踪方法、装置、设备及存储介质 |
CN110349191A (zh) * | 2019-06-25 | 2019-10-18 | 昆明理工大学 | 一种基于感知哈希算法的视觉跟踪方法 |
CN110414447B (zh) | 2019-07-31 | 2022-04-15 | 京东方科技集团股份有限公司 | 行人跟踪方法、装置及设备 |
CN110533693B (zh) * | 2019-08-29 | 2023-02-07 | 北京精英路通科技有限公司 | 一种目标跟踪方法及目标跟踪装置 |
CN110675391B (zh) * | 2019-09-27 | 2022-11-18 | 联想(北京)有限公司 | 图像处理方法、装置、计算设备以及介质 |
CN110807473B (zh) * | 2019-10-12 | 2023-01-03 | 浙江大华技术股份有限公司 | 目标检测方法、装置及计算机存储介质 |
EP4055561A4 (en) * | 2019-11-20 | 2023-01-04 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | OBJECT DETECTION DEVICE, METHOD AND SYSTEM |
CN110927706B (zh) * | 2019-12-10 | 2022-05-24 | 电子科技大学 | 基于卷积神经网络的雷达干扰检测识别方法 |
CN111191555B (zh) * | 2019-12-24 | 2022-05-03 | 重庆邮电大学 | 一种结合高低空间频率特征的目标跟踪方法、介质及系统 |
CN113032612B (zh) * | 2021-03-12 | 2023-04-11 | 西北大学 | 一种多目标图像检索模型的构建方法及检索方法和装置 |
CN114972415B (zh) * | 2021-12-28 | 2023-03-28 | 广东东软学院 | 机器人视觉跟踪方法、系统、电子设备及介质 |
CN115048543B (zh) * | 2022-08-15 | 2022-10-25 | 北京华顺信安科技有限公司 | 图像相似判断方法、图像搜索方法及设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104574440A (zh) * | 2014-12-30 | 2015-04-29 | 安科智慧城市技术(中国)有限公司 | 一种视频运动目标跟踪方法及装置 |
CN105139420A (zh) * | 2015-08-03 | 2015-12-09 | 山东大学 | 一种基于粒子滤波和感知哈希的视频目标跟踪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8867793B2 (en) * | 2010-12-01 | 2014-10-21 | The Trustees Of The University Of Pennsylvania | Scene analysis using image and range data |
-
2016
- 2016-03-28 CN CN201610182089.7A patent/CN105844669B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104574440A (zh) * | 2014-12-30 | 2015-04-29 | 安科智慧城市技术(中国)有限公司 | 一种视频运动目标跟踪方法及装置 |
CN105139420A (zh) * | 2015-08-03 | 2015-12-09 | 山东大学 | 一种基于粒子滤波和感知哈希的视频目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
基于深度特征表达与学习的视觉跟踪算法研究;李寰宇等;《电子与信息学报》;20150915;第37卷(第9期);第2033-2039页 * |
Also Published As
Publication number | Publication date |
---|---|
CN105844669A (zh) | 2016-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105844669B (zh) | 一种基于局部哈希特征的视频目标实时跟踪方法 | |
Melekhov et al. | Dgc-net: Dense geometric correspondence network | |
Yuan et al. | Robust visual tracking with correlation filters and metric learning | |
Revaud et al. | Epicflow: Edge-preserving interpolation of correspondences for optical flow | |
Barroso-Laguna et al. | Key. net: Keypoint detection by handcrafted and learned cnn filters revisited | |
Cavalli et al. | Adalam: Revisiting handcrafted outlier detection | |
Lee et al. | Place recognition using straight lines for vision-based SLAM | |
Lu et al. | Deep learning for 3d point cloud understanding: a survey | |
CN107424161B (zh) | 一种由粗至精的室内场景图像布局估计方法 | |
Qin et al. | Semantic loop closure detection based on graph matching in multi-objects scenes | |
Son et al. | A multi-vision sensor-based fast localization system with image matching for challenging outdoor environments | |
Joung et al. | Unsupervised stereo matching using confidential correspondence consistency | |
CN106709870B (zh) | 一种近景影像直线段匹配方法 | |
CN112651406A (zh) | 一种深度感知和多模态自动融合的rgb-d显著性目标检测方法 | |
Dong et al. | Hierarchical superpixel-to-pixel dense matching | |
Liu et al. | Progressive neighbor consistency mining for correspondence pruning | |
CN116662600A (zh) | 一种基于轻量结构化线地图的视觉定位方法 | |
Shen et al. | Semi-dense feature matching with transformers and its applications in multiple-view geometry | |
Li et al. | Sparse-to-local-dense matching for geometry-guided correspondence estimation | |
Yu et al. | Learning bipartite graph matching for robust visual localization | |
Gao et al. | Occluded person re-identification based on feature fusion and sparse reconstruction | |
Zhao et al. | Learning probabilistic coordinate fields for robust correspondences | |
Tian et al. | Discriminative and semantic feature selection for place recognition towards dynamic environments | |
Huang et al. | Life: Lighting invariant flow estimation | |
CN107146215A (zh) | 一种基于颜色直方图和凸包的显著性检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20200117 Address after: 241200 floor 3, workshop 5, South Huoyanshan Road, Fanchang Economic Development Zone, Wuhu City, Anhui Province Patentee after: ANHUI ZHUORUI 3D TECHNOLOGY CO.,LTD. Address before: 430074 Hubei Province, Wuhan city Hongshan District Luoyu Road No. 1037 Patentee before: Huazhong University of Science and Technology |
|
TR01 | Transfer of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20181113 |
|
CF01 | Termination of patent right due to non-payment of annual fee |