CN108200432A - 一种基于视频压缩域的目标跟踪技术 - Google Patents

一种基于视频压缩域的目标跟踪技术 Download PDF

Info

Publication number
CN108200432A
CN108200432A CN201810108524.0A CN201810108524A CN108200432A CN 108200432 A CN108200432 A CN 108200432A CN 201810108524 A CN201810108524 A CN 201810108524A CN 108200432 A CN108200432 A CN 108200432A
Authority
CN
China
Prior art keywords
target
frame
block
identification area
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810108524.0A
Other languages
English (en)
Inventor
王灏
张腾云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201810108524.0A priority Critical patent/CN108200432A/zh
Publication of CN108200432A publication Critical patent/CN108200432A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明涉及一种基于视频压缩域的目标跟踪技术。该技术与目标所在背景是否为动态或静态无关。第一帧的目标识别区需要人为输入,从第一帧的目标识别区出发建立后续解码帧中目标像素块强关联区域,并忽略目标物体所在像素区域之外的其它像素块,解码帧中参照参考帧队列中的目标所在像素区进行解码的宏块包含了目标在解码帧中的像素块,并形成运动矢量集合,分别存储运动矢量集合和各个运动矢量对应的像素块在图像中的位置到计算缓冲区。通过中值法或Meanshift算法进一步优化目标物体矢量集合,去除在解码时由于非目标像素块参考参考队列中目标像素块而引起的噪声运动矢量,并得到当前解码帧中的目标识别区。建立目标候选区队列,存入解码帧的目标识别区的大小与位置,以保证完整找出后续解码帧中的目标像素块。本技术方案简单、高效、精度高、适用范围广、计算量小,十分符合在嵌入式、机器人、多通路目标跟踪等领域内使用。

Description

一种基于视频压缩域的目标跟踪技术
技术领域
本发明涉及一种基于视频压缩域的目标跟踪的技术。
背景技术
随着物联网的发展与普及,目标物体跟踪技术作为其中一门关键技术,融合了图像处理、模式识别、目标检测、人工智能、自动控制等计算机领域的前沿技术,在军事侦察、视频监控、交通管理、医疗诊断、自主导航、气象探测等领域发挥重要作用。
目标跟踪属于视频与图像处理范畴,常用的目标跟踪技术主要建立在图像原码的基础上,随着视频压缩传输技术尤其是H.26x的发展,最近几年,也有一些目标跟踪技术建立在视频压缩领域。
一个完整的目标跟踪信息链包括:图像信息的感知或探测、预处理、压缩、存储、传输、复原、信息提取(融合、分离、增强等)、应用。
根据目标跟踪算法所使用的阶段可分为:
1、基于图像原码的目标跟踪技术,在预处理阶段或复原后阶段进行目标跟踪算法研究。
2、基于视频压缩域的目标跟踪技术,在压缩之后,复原之前进行目标跟踪算法研究。
基于图像原码的目标跟踪技术,如:OAB、IVT、MIL、CT、TCD、Struck等技术,优势在于所使用的图像信息最为全面,可以使用的数学工具众多,得到的目标检测追踪效果良好。但缺点也十分明显:
1、对于图像原码的处理致使数据处理量庞大,对硬件资源的要求较高。运行时所占用的计算资源高,对于处理高分辨率或多路视频输入时,计算资源就会变的捉襟见肘。
2、实时性较差,在图像原码的基础上处理数据需要耗费大量的时间。
基于视频压缩域的目标跟踪技术,如:一种基于H.264/AVC压缩域的运动目标跟踪的方法(CN104683802A)、Real-time moving object detection and segmentationinH.264video streams、Tracking ofextended size targets inH.264compressedvideousingtheprobabilistic data association filter、基于H.264压缩与的运动目标检测算法(电子科技2010年第23卷7 期)、基于H.264/AVC压缩域的视频运动目标检测(国防科技大学张文琪硕士论文)等所提出的技术方案。优势在于建立在视频压缩域,使用了在视频压缩时产生的有益信息,使得计算量大幅减小,对于硬件资源的需求相对于技术原码的技术方案大幅下降,计算效率高。由梁久祯、徐永存;武智霞、王化、王沛;Krishna Reddy Konda、Yonas Teodros Tefera、 Nicola Conci、Francesco G.B.De Natale;Vimal Thilak、Charles D.Creusere;等人在专利及该领域内论文所提出的技术方案可知,利用视频压缩技术过程中产生的运动矢量、DCT系数、等有益信息,将图像分为背景及运动物体两个部分,技术方案着重于如何利用这些有益信息,检测图像背景与运动物体,并且尽可能准确的描述运动物体所在图像坐标以及运动物体的轮廓。但目前的技术方案缺点也十分显著:
1、静止目标丢失。当运动目标由运动状态转为静止状态,运动矢量大小接近于零,当前技术方案会将运动目标规划为图像背景从而丢失目标。
2、运动目标在视频帧中的前后关联性差。当前技术方案目的在于检测当前图像中的运动像素块,无法建立目标像素块的前后关联。即当前技术方案可以检测出当前图像中的运动物体,但无法确定哪个运动物体是目前所要追踪的目标。虽然也有人提出建立所有运动像素块的运动曲线模型,但在实际场景下,物体的运动轨迹通常是无法预测的,具有很强的随机特性,所以类似的技术方案是不可用的。
3、抗干扰性差。在实际应用中由于摄像头的抖动或移动,致使整幅图像的背景发生相对移动,整幅图像会产生繁多的运动矢量,即使进行抗噪性处理,也无法避免非目标物体运动矢量的大量出现,导致无法识别运动目标或识别能力差。
4、应用范围理想化。当前技术所建立的基础是背景图像在完全静止或个别像素块微弱位移的基础上,当背景图像呈现动态,则当前图像会产生大量的运动矢量,且运动矢量杂乱无规律,无法通过统计学原理进行滤波,因此无法得到准确获取运动目标。
因此当前基于视频压缩领域的运动目标跟踪技术,应用范围有限,虽然在一定程度上解决了由于计算资源有限带来的问题,但距离实际情况下的目标跟踪还有不少问题。所以当前技术方案的应用领域着重于监控系统,判断所在监控范围内是否存在运动物体,在非监控系统应用领域,由于上述问题,当前技术方案并不适用。
发明内容
为了解决在压缩域实现目标跟踪的技术问题,避免其它专利方案中导致的静止目标丢失、运动目标在视频帧中的前后关联性差、抗干扰性差、应用范围理想化等诸多技术问题, 本发明提出一种基于视频压缩域内完成目标跟踪的技术。该技术与目标所在背景是否为动态或静态无关,从目标出发建立前后帧中目标所在位置强关联区域,并忽略目标所在像素区域之外的其它像素块。解码帧中参照参考帧队列中的目标所在像素区进行解码的宏块包含了目标在解码帧中的像素块,并形成运动矢量集合,通过中值法或Meanshift算法进一步优化目标矢量集合,去除在解码时由于非目标像素块参考参考帧中目标像素块而引起的噪声运动适量,得到解码帧的目标识别区。通过建立目标候选区队列,解决多参考帧技术的应用如图1 所示。保存解码帧的目标识别区的大小与位置至目标候选区队列,以保证完整找出后续解码帧中的目标像素块。本技术方案简单、高效、精度高、适用范围广、计算量小,十分符合在嵌入式、机器人、多通路目标跟踪等领域内使用。本发明所用编码模型为IPPP....或 IPPBPPB...等参考模型,在这类模型中I帧为编码起始帧,后续编码帧均为P帧或B帧,不包含SI帧及SP帧。
本发明的目的是提供一种在视频压缩域内完成目标跟踪的技术。在充分利用编解码过程中所产生的有益信息的同时减小目标的搜索空间、降低计算资源的使用量。
为了实现上述目的,采用以下技术方案:一种在视频压缩域的目标跟踪技术,其特征在于:
一、获取视频图像编码后的码流文件,并获取有益信息,有益信息包括:
1、当前帧在码流中的序列号如图2所示,其中C表示当前帧在码流中的序列号。
2、解码子块所采用的参考图像序列号如图2所示,其中R表示解码子块所采用的参考图像序列号。
3、解码子块相对于参考块的运动矢量如图2所示,其中mv为解码子块相对于参考块的运动矢量。
4、当前帧中宏块的编号。图3表示了宏块与子块的关系,其中n表示前帧中宏块的编号,m为子块的编号。
5、当前宏块中子块的编号如图2所示,其中A表示当前宏块中当前子块编号,P表示当前子块所采用的参考帧子块编号,P′表示P子块对应在当前帧中的编号。
6、当前码流视频图像的大小。
二、获取目标所在帧中的位置及选区大小,并调用目标跟踪算法进行目标的跟踪,其中目标跟踪算法的流程图如图4所示,步骤解释如下:
1、建立候选帧序列,并开辟存储空间candidate_list[num][(X,Y,x,y)]。候选帧序列 candidate_list[][]用于存储目标所在帧在视频序列中的编号num以及目标在所在帧中的位置及选区大小(X,Y,x,y)如图5中B所示。
2、输入目标所在帧中的位置及选区大小(X,Y,x,y),以及所在帧的视频序列编号num 并保存于候选帧序列。目标所在帧中的位置及选区大小(X,Y,x,y)可由手动选择输入或者算法提取。
3、获取当前检测帧子块的参考序列号num′。当前检测帧的参考序列号是从码流文件中提取的有益信息2。
4、判断当前检测帧子块的参考帧序列号是否存在于候选帧序列candidate_list[][]。即候选帧序列中的目标所在帧在视频序列中的编号num是否包含了当前检测帧子块的参考图像序号num′。如果不包含,则退出本次检测,进行下一个子块的检测。如果包含则进行第5 步。
5、获取码流文件中当前子块的运动矢量。子块的运动矢量是从码流文件中提取的有益信息3。
6、计算当前子块在编码预测时所用参考帧子块的所在位置(X1,Y1)。由第4步保证当前子块所用参考帧序号num′在候选序列内。如图5,即由A和mv计算出P的所在位置。
7、判断第6步中的(X1,Y1)是否在num′所对应的(X,Y,x,y)内。如果在内,则执行第8步,如果不在内,则退出本次检测,并开始下一子块的检测。如图5,即判断P是否在B的范围内。
8、保存当前子块在当前解码帧的位置坐标(m,n)到计算缓冲区buffer[(m,n)]内,同时保存当前子块的mv到运动矢量缓冲区mv_buffer[]内,此时buffer[(m,n)]内的每个子块的坐标(m,n)对应mv_buffer[]内的一个mv。
9、检测当前子块是否为当前检测帧的最后一个宏块中的最后一个子块,如果是,则进行第10步计算,如果不是,则退出本次检测,并开始下一子块的检测。
10、通过中值法、meanshift等算法,去除由于参照参考帧中目标像素块而得到的非目标像素块,这些算法的作用域为mv_buffer[],由编码时的运动估计可知,编码块会搜索参考帧中的最优匹配像素块,对于目标来说,它的最优匹配像素块为目标在参考帧中的像素块,因此最优情况下,mv_bttffer[]中的运动矢量,大小和方向会在很小的范围W内波动,但在实际情况下由于噪声矢量的存在,会有一些运动矢量偏离这个范围,因此通过中值法、 Manshift算法可将这些噪声矢量去除,并得出当前检测帧的目标识别区域(X,Y,x,y),关于这些算法的应用方法细节在本流程结束之后进行介绍。
11、开始下一帧目标检测,跳至步骤3。
12、保存当前帧在视频序列中的编号num以及当前帧的目标识别区域(X,Y,x,y)到候选帧序列candidate_list[][],其中当前帧在视频序列中的编号num是从码流文件中提取的有益信息1。
13、输出当前帧图像的目标识别区域(X,Y,x,y)。
下面对步骤10做详细介绍,此步骤是决定目标跟踪质量最重要的一个环节,由以上步骤可知,在buffer[(m,n)]与mv_bttffer[]中分别存储着解码帧中目标像素块位置及噪声像素块位置和解码块中目标像素块运动矢量及噪声像素块运动矢量。本步骤的关键在于通过计算得到目标识别区域运动方向、移动距离以及目标识别区大小。采用本步骤得到的识别区允许包含一定量的非目标像素块,但在识别区中目标像素块的数量要远大于非目标像素块,具有一定的容噪能力如图6所示,在参考帧中黑色标识框内灰色像素块表示目标,白色为噪声像素块。
容噪能力:当非目标像素的运动矢量方向与大小在W范围内,则此噪声不会对目标识别区造成影响;当非目标像素的运动矢量方向与大小不在W范围内,通过算法可将噪声矢量相对应的像素块去除。如图6所示,在解码帧中,浅灰色表示噪声像素块,深灰色表示目标像素块。可直观的看出在视频编码时,采用参考帧目标识别区内的像素块进行运动估计而产生的噪声矢量,在大小、方向上与目标矢量有明显差距,不在W范围内,应将其通过算法排除。噪声像素块1在参照参考帧中目标识别区所形成的运动矢量大小与方向在W 内,并不影响目标识别,因此不必去除。
中值法:(其中i∈(1,2,3,4,5......))。
1、已知mv_buffer[]中存储的运动矢量集合(xi,yi),将xi按大小进行升序或者降序排列,取xi的中值xn为目标识别区在x方向的运动方向及大小;将yi按大小进行升序或者降序排列,取yi的中值yn为目标识别区在y方向的运动方向及大小。
2、将主参考帧中的目标区域(X,Y,x,y)按照矢量(xn,yn)移动形成目标识别区1。
3、由于xn,yn约等于目标像素块的运动矢量均值(噪声矢量除外),求出每个运动矢量的距离dxi=||xi|-|xn||及dyi=||yi|-|yn||,然后分别建立以步长为1的 dxi与dyi直方图,统计各个直方图每个竖条中点dxi、dyi的个数,并求其在对应直方图在所有点中的占比,然后去除占比低于4%的直方图竖条所对应buffer[(m,n)]中的像素块。然后得到包含buffer[(m,n)]中像素块的最小识别区2。
4、由目标识别区1与最小识别区2所形成的公共区域,便为本解码帧的目标识别区。
Meanshfit算法:(其中i∈(1,2,3,4,5.....))。
Meanshfit算法是一中应用十分成熟的无参密度估计算法,一般用于聚类、图像分割、目标跟踪等。本步骤采用Meanshfit算法的目的是找出解码帧矢量场的矢量均值质心。
1、已知mv_buffer[]中存储的运动矢量集合(xi,yi),运动矢量集合中的每个矢量对应二维平面笛卡尔坐标系中的一个点。Meanshfit算法如下:
其中
mh(x)为一次迭代后新的圆心坐标,x为本次计算的圆心坐标,G(x)为轮廓函数与核函数G(x)的关系为G(x)=cg,dg(||x||2)(cg,d为标准化常量为正),h为圆的半径,xi为圆内其它的样本点。
2、随机选取mv_buffer[]内的一个矢量做为圆心,h为上一帧目标的候选框内切圆半径,根据大数定律,我们选取高斯函数作为核函数G(x),求得g(x)。设定mh,G<ε,∈为一个极小值,建议设为0~0.5即小于半个像素值,也可根据自己的需要进行修改。
3、做第一次迭代,当不满足mh,G<ε时,令mh(x)赋值给x,并进行下一次迭代,直到条件满足。
4、将主参考帧中的目标识别区域(X,Y,x,y)按照矢量x移动,形成目标识别区1。
5、此时的x为当前矢量场质心,以x矢量对应的像素块为中心,以参考帧候选框为大小,去除候选框以外的噪声矢量,及对应buffer[(m,n)]中的像素块,其余像素块构成最小识别区2。
6、由目标识别区1与最小识别区2所形成的公共区域,便为本解码帧的目标识别区。
这两种算法各有优缺点,Meanshfit算法比中值法精度高、效率低,可根据自己的硬件条件选取适合的算法。
本发明带来的显著有益效果是,在视频压缩域的基础上,实现了对目标的追踪,解决了现有在压缩领域内实现目标跟踪技术的静止目标丢失、运动目标在视频帧中的前后关联性差、抗干扰性差、应用范围理想化等技术问题。利用视频编解码技术产生的众多对目标跟踪的有益信息,使得原本在目标追踪方案下需要处理的数据量得到了大幅下降。
本发明通过设定目标在视频图像序列的候选区,直接求得了与目标像素点相关的其他视频图像帧中所包含的目标像素点区域,这一技术方案,使得不论在哪一帧图像中,只关注目标像素区,忽略图像背景,大大扩展了技术的应用范围。通过建立前后帧目标像素区的强关联,又进一步增加了视频图像目标点的搜索效率,降低了计算量,减小了计算资源的消耗。
本发明带来的直接有益效果是:
1、在后端,低资源配置的计算机实现多路视频流的多目标跟踪方案。
2、在前端,低资源配置的视频采集处理单元直接实现目标跟踪方案。
视频图像的目标跟踪技术的计算量过于庞大一直是计算领域的一大难题,本发明很好的解决了传统目标跟踪技术所面临的由于计算资源短缺导致的技术方案造价高、技术方案实时性差的窘境。而目前所用的通过前端视频图像采集、压缩回传、后端运算、将结果传回前端的技术方案也是传统技术方案下计算资源短缺、技术方案的计算量过大而导致的,本发明可很好的解决此类突出问题。

Claims (4)

1.一种基于视频压缩域的目标跟踪技术,其特征在于,所述技术包括:
通过建立前后帧中目标所在位置强关联区域,得到解码帧中包含目标的运动矢量集合及像素块位置信息;
通过中值法得到解码帧目标识别区;
通过Meanshift算法得到解码帧目标识别区。
2.根据权利要求1所述的一种基于视频压缩域的目标跟踪技术,其特征在于通过建立前后帧中目标所在位置强关联区域,得到解码帧中包含目标的运动矢量集合及像素块位置信息:第一帧图像的目标识别区由人为或其它算法输入,从第一帧的目标识别区出发建立前后帧中目标所在位置强关联区域,并忽略目标所在像素区域之外的其它像素块;解码帧中参照参考帧队列中的目标所在像素区进行解码的宏块包含了目标在解码帧中的像素块,并形成运动矢量集合;保存运动矢量集合及运动矢量集合对应的像素块到计算缓冲区;建立目标候选区队列,保存解码帧的目标识别区的大小与位置至目标候选区队列到,以保证完整找出后续解码帧中的目标像素块。
3.根据权利要求1所述的一种基于视频压缩域的目标跟踪技术,其特征在于通过中值法得到解码帧目标识别区:
首先将计算缓冲区中的运动矢量集合(xi,yi)中的xi按大小进行升序或者降序排列,取xi的中值xn为目标识别区在x方向的运动方向及大小,将yi按大小进行升序或者降序排列,取yi的中值yn为目标识别区在y方向的运动方向及大小,将主参考帧中的目标区域按照矢量(xn,yn)移动形成目标识别区1;其次分别计算xi、yi与xn、yn之间的距离得到dxi、dyi,并建立步长为1的直方图,去除直方图中竖条占比小于4%的直方图竖条所对应计算缓冲区中的像素块,得到包含剩余像素块的最小识别区2;由目标识别区1与最小识别区2所形成的公共区域,便为本解码帧的目标识别区。
4.根据权利要求1所述的一种基于视频压缩域的目标跟踪技术,其特征在于通过Meanshift算法得到解码帧目标识别区:
首先通过Meanshift算法得到计算缓冲区中运动矢量集合的质心x,将主参考帧中的目标识别区域按照矢量x移动,形成目标识别区1;其次以x矢量对应的像素块为中心,以主参考帧候选框为大小,去除候选框以外的噪声矢量,及对应计算缓冲区中的像素块,其余像素块构成最小识别区2;由目标识别区1与最小识别区2所形成的公共区域,便为本解码帧的目标识别区。
CN201810108524.0A 2018-02-03 2018-02-03 一种基于视频压缩域的目标跟踪技术 Pending CN108200432A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810108524.0A CN108200432A (zh) 2018-02-03 2018-02-03 一种基于视频压缩域的目标跟踪技术

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810108524.0A CN108200432A (zh) 2018-02-03 2018-02-03 一种基于视频压缩域的目标跟踪技术

Publications (1)

Publication Number Publication Date
CN108200432A true CN108200432A (zh) 2018-06-22

Family

ID=62592372

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810108524.0A Pending CN108200432A (zh) 2018-02-03 2018-02-03 一种基于视频压缩域的目标跟踪技术

Country Status (1)

Country Link
CN (1) CN108200432A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109726683A (zh) * 2018-12-29 2019-05-07 北京市商汤科技开发有限公司 目标对象检测方法和装置、电子设备和存储介质
CN110533692A (zh) * 2019-08-21 2019-12-03 深圳新视达视讯工程有限公司 一种面向无人机航拍视频中移动目标的自动跟踪方法
WO2020006739A1 (zh) * 2018-07-05 2020-01-09 深圳市大疆创新科技有限公司 图像处理方法和装置
CN111126113A (zh) * 2018-11-01 2020-05-08 普天信息技术有限公司 一种人脸图像处理的方法及装置
CN113706573A (zh) * 2020-05-08 2021-11-26 杭州海康威视数字技术股份有限公司 一种运动物体的检测方法、装置及存储介质
CN114170545A (zh) * 2021-11-12 2022-03-11 上海闪马智能科技有限公司 一种数据处理方法、装置、存储介质及电子装置
CN116366866A (zh) * 2023-05-31 2023-06-30 天翼云科技有限公司 一种基于多目标追踪的视频编码运动估计方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6169573B1 (en) * 1997-07-03 2001-01-02 Hotv, Inc. Hypervideo system and method with object tracking in a compressed digital video environment
KR20060020550A (ko) * 2004-08-31 2006-03-06 학교법인 중앙대학교 압축영역에서의 움직임 벡터 해석방법
CN101867798A (zh) * 2010-05-18 2010-10-20 武汉大学 基于压缩域分析的Mean shift运动目标跟踪方法
CN103440669A (zh) * 2013-09-10 2013-12-11 武汉大学 一种基于压缩域融合的Mean shift核窗宽动态更新方法
CN104683802A (zh) * 2015-03-24 2015-06-03 江南大学 一种基于h.264/avc压缩域的运动目标跟踪的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6169573B1 (en) * 1997-07-03 2001-01-02 Hotv, Inc. Hypervideo system and method with object tracking in a compressed digital video environment
KR20060020550A (ko) * 2004-08-31 2006-03-06 학교법인 중앙대학교 압축영역에서의 움직임 벡터 해석방법
CN101867798A (zh) * 2010-05-18 2010-10-20 武汉大学 基于压缩域分析的Mean shift运动目标跟踪方法
CN103440669A (zh) * 2013-09-10 2013-12-11 武汉大学 一种基于压缩域融合的Mean shift核窗宽动态更新方法
CN104683802A (zh) * 2015-03-24 2015-06-03 江南大学 一种基于h.264/avc压缩域的运动目标跟踪的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ERII MAEKAWA等: "Examination of a tracking and detection method using compressed domain information", 《2013 PICTURE CODING SYMPOSIUM (PCS)》 *
郭楚瑜: "基于H.264视频压缩域运动矢量的目标跟踪", 《信息通信》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020006739A1 (zh) * 2018-07-05 2020-01-09 深圳市大疆创新科技有限公司 图像处理方法和装置
CN111126113B (zh) * 2018-11-01 2023-10-10 普天信息技术有限公司 一种人脸图像处理的方法及装置
CN111126113A (zh) * 2018-11-01 2020-05-08 普天信息技术有限公司 一种人脸图像处理的方法及装置
CN109726683B (zh) * 2018-12-29 2021-06-22 北京市商汤科技开发有限公司 目标对象检测方法和装置、电子设备和存储介质
CN109726683A (zh) * 2018-12-29 2019-05-07 北京市商汤科技开发有限公司 目标对象检测方法和装置、电子设备和存储介质
US11423666B2 (en) 2018-12-29 2022-08-23 Beijing Sensetime Technology Development Co., Ltd. Method of detecting target object detection method and device for detecting target object, electronic apparatus and storage medium
CN110533692A (zh) * 2019-08-21 2019-12-03 深圳新视达视讯工程有限公司 一种面向无人机航拍视频中移动目标的自动跟踪方法
CN110533692B (zh) * 2019-08-21 2022-11-11 深圳新视达视讯工程有限公司 一种面向无人机航拍视频中移动目标的自动跟踪方法
CN113706573A (zh) * 2020-05-08 2021-11-26 杭州海康威视数字技术股份有限公司 一种运动物体的检测方法、装置及存储介质
CN113706573B (zh) * 2020-05-08 2024-06-11 杭州海康威视数字技术股份有限公司 一种运动物体的检测方法、装置及存储介质
CN114170545A (zh) * 2021-11-12 2022-03-11 上海闪马智能科技有限公司 一种数据处理方法、装置、存储介质及电子装置
CN116366866B (zh) * 2023-05-31 2023-10-10 天翼云科技有限公司 一种基于多目标追踪的视频编码运动估计方法及装置
CN116366866A (zh) * 2023-05-31 2023-06-30 天翼云科技有限公司 一种基于多目标追踪的视频编码运动估计方法及装置

Similar Documents

Publication Publication Date Title
CN108200432A (zh) 一种基于视频压缩域的目标跟踪技术
Zhang et al. Improving triplet-wise training of convolutional neural network for vehicle re-identification
CN110232330B (zh) 一种基于视频检测的行人重识别方法
CN112132103B (zh) 一种视频人脸检测识别方法和系统
CN103440668B (zh) 一种在线视频目标跟踪方法和装置
CN110796662B (zh) 一种实时的语义视频分割方法
CN105809715B (zh) 一种基于帧间累计变化矩阵的视觉运动目标检测方法
CN107833239B (zh) 一种基于加权模型约束的寻优匹配目标跟踪方法
CN104036287A (zh) 一种基于人类运动显著轨迹的视频分类方法
CN109446967B (zh) 一种基于压缩信息的人脸检测方法和系统
CN102917220B (zh) 基于六边形搜索及三帧背景对齐的动背景视频对象提取
CN101493944A (zh) 一种运动目标检测与跟踪的方法和系统
CN106851302B (zh) 一种基于帧内编码压缩域的监控视频运动目标检测方法
CN111161309B (zh) 一种车载视频动态目标的搜索与定位方法
CN102568006B (zh) 一种基于视频中物体运动特征的视觉显著性算法
CN111401308B (zh) 一种基于光流效应的鱼类行为视频识别方法
CN115131420A (zh) 基于关键帧优化的视觉slam方法及装置
CN110298323A (zh) 基于视频分析的打架检测方法、系统、装置
CN104537685B (zh) 一种基于视频图像进行自动客流统计分析方法
CN117561540A (zh) 使用帧序列执行计算机视觉任务的系统和方法
CN116934796B (zh) 基于孪生残差注意力聚合网络的视觉目标跟踪方法
CN104240269B (zh) 一种基于空间约束编码的视频目标跟踪方法
CN112200831B (zh) 一种基于动态模板的密集连接孪生神经网络目标跟踪方法
Ko et al. An energy-quality scalable wireless image sensor node for object-based video surveillance
CN110502968B (zh) 基于轨迹点时空一致性的红外弱小运动目标的检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20180622