CN110458017B - 目标跟踪的尺度估计方法以及相关装置 - Google Patents

目标跟踪的尺度估计方法以及相关装置 Download PDF

Info

Publication number
CN110458017B
CN110458017B CN201910612233.XA CN201910612233A CN110458017B CN 110458017 B CN110458017 B CN 110458017B CN 201910612233 A CN201910612233 A CN 201910612233A CN 110458017 B CN110458017 B CN 110458017B
Authority
CN
China
Prior art keywords
optical flow
area
frame image
sub
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910612233.XA
Other languages
English (en)
Other versions
CN110458017A (zh
Inventor
李明竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dahua Technology Co Ltd
Original Assignee
Zhejiang Dahua Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dahua Technology Co Ltd filed Critical Zhejiang Dahua Technology Co Ltd
Priority to CN201910612233.XA priority Critical patent/CN110458017B/zh
Publication of CN110458017A publication Critical patent/CN110458017A/zh
Application granted granted Critical
Publication of CN110458017B publication Critical patent/CN110458017B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种目标跟踪的尺度估计方法以及相关装置。其中,目标跟踪的尺度估计方法包括:分别对摄像器件拍摄得到的前后两帧图像进行光流检测,得到前后两帧图像的光流点的光流信息;通过前后两帧图像的光流信息确定目标在后帧图像中的初始预测区域;基于初始预测区域,将初始预测区域的预设倍数的区域确定为搜索区域,并将后帧图像划分为多个子区域;通过光流点的光流信息确定搜索区域内每一个光流点所属的子区域;通过统计搜索区域内每一个光流点所属的子区域,确定目标在后帧图像的目标尺度。上述方案,能够提高尺度估计的效率。

Description

目标跟踪的尺度估计方法以及相关装置
技术领域
本申请涉及计算机视觉技术领域,特别是涉及一种目标跟踪的尺度估计方法以及相关装置。
背景技术
伴随着越来越多的监控摄像头不断地布控在城市的各个角落,智能视频监控技术也随之快速发展。智能视频监控技术是利用计算机视觉技术对输入的视频信号进行处理、分析和理解,从而通过对拍摄得到的帧图像序列的智能分析,实现对监控场景中感兴趣区域的定位、检测和跟踪等功能。
然而,在对目标进行跟踪的过程中,目标的尺度是不断发生变化的。例如,目标在运动过程中的由远及近或者由近及远都会导致尺度大小发生变化。故此,尺度估计是实现目标跟踪的关键之一,而尺度估计的效率直接影响到目标跟踪的时延。有鉴于此,如何提高尺度估计的效率成为目标跟踪中亟待解决的技术问题。
发明内容
本申请主要解决的技术问题是提供一种目标跟踪的尺度估计方法以及相关装置,能够提高尺度估计的效率。
为了解决上述问题,本申请第一方面提供了一种目标跟踪的尺度估计方法,包括:分别对摄像器件拍摄得到的前后两帧图像进行光流检测,得到前后两帧图像的光流点的光流信息;通过前后两帧图像的光流信息确定目标在后帧图像中的初始预测区域;基于初始预测区域,将初始预测区域的预设倍数的区域确定为搜索区域,并将后帧图像划分为多个子区域;通过光流点的光流信息确定搜索区域内每一个光流点所属的子区域;通过统计搜索区域内每一个光流点所属的子区域,确定目标在后帧图像的目标尺度。
为了解决上述问题,本申请第二方面提供了一种图像处理装置,包括相互耦接的存储器和处理器;处理器用于执行存储器存储的程序指令,以实现上述第一方面中的方法。
为了解决上述问题,本申请第三方面提供了一种图像处理装置,包括光流检测模块、目标确定模块、区域划分模块、区域确定模块、统计计算模块,光流检测模块用于分别对摄像器件拍摄得到的前后两帧图像进行光流检测,得到前后两帧图像的光流点的光流信息;目标确定模块用于通过前后两帧图像的光流信息确定目标在后帧图像中的初始预测区域;区域划分模块用于基于初始预测区域,将初始预测区域的预设倍数的区域确定为搜索区域,并将后帧图像划分为多个子区域;区域确定模块用于通过光流点的光流信息确定搜索区域内每一个光流点所属的子区域;统计计算模块用于通过统计搜索区域内每一个光流点所属的子区域,确定目标在后帧图像的目标尺度。
为了解决上述问题,本申请第四方面提供了一种存储装置,存储有能够被处理器运行的程序指令,程序指令用于实现上述第一方面中的方法。
上述方案中,通过对前后两帧图像进行光流检测,从而确定目标在后帧图像中的初始预测区域,进而可以估计目标在后帧图像中的位置,再基于确定的初始预测区域将后帧图像划分为多个子区域,并将该初始预测区域的预设倍数的区域作为搜索区域,从而基于搜索区域中每一个光流点的光流信息确定其所属的子区域,最终统计搜索区域中每一个光流点所属的子区域,确定目标在后帧图像的目标尺度,进而只需在搜索区域范围确认其中的光流点所属的子区域,大大减少了尺度估计的计算量,提高了尺度估计的效率。
附图说明
图1是本申请目标跟踪的尺度估计方法一实施例的流程示意图;
图2是本申请目标跟踪的尺度估计方法一实施例的框架示意图;
图3是图1中步骤S14一实施例的流程示意图;
图4是图3中步骤S141一实施例的流程示意图;
图5是图1中步骤S15一实施例的流程示意图;
图6是本申请图像处理装置一实施例的框架示意图;
图7是本申请图像处理装置另一实施例的框架示意图;
图8是本申请存储装置一实施例的框架示意图。
具体实施方式
下面结合说明书附图,对本申请实施例的方案进行详细说明。
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、接口、技术之类的具体细节,以便透彻理解本申请。
本文中术语“系统”和“网络”在本文中常被可互换使用。本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。此外,本文中的“多”表示两个或者多于两个。
请参阅图1,图1是本申请目标跟踪的尺度估计方法一实施例的流程示意图。具体而言,可以包括如下步骤:
步骤S11:分别对摄像器件拍摄得到的前后两帧图像进行光流检测,得到前后两帧图像的光流点的光流信息。
摄像器材可以为夜视摄像头、红外摄像头等等。根据应用场景的不同可以选择不同类型的摄像器材。例如,针对环境幽暗、采光不佳的场所,摄像器材可以为夜视摄像头、红外摄像头;针对光线明亮的室内场所,摄像器材可以为一般的数字摄像头、网络摄像头;而针对室外无遮挡的场景,摄像器材可以防水摄像头,本实施例不做具体限制。
此外,具体而言,针对需要重点拍摄运动物体的应用场景,例如:道路车辆监控、车站人流监控等等,摄像器件可以具体为集成有云台的摄像机,例如智能球机摄像头。智能球机摄像头利用内置电机可以实现球机的快速、准确定位和旋转,从而在硬件上具备定位和跟踪目标,特别是移动目标的条件。
光流(optical flow or optic flow)是关于视觉域中的物体运动检测中的概念,用来描述相对于观察者的运动所造成的观测目标、表面或边缘的运动。所谓光流就是指图像表面出运动的速度。物体在运动的时候之所以能够被人眼发现,就是因为当物体运动时,会在人的视网膜上形成一系列的连续变化的图像,这些变化信息在不同时间,不断地流过眼镜视网膜,就好像一种光流经过一样,故称之为光流。
光流检测在样型识别、计算机视觉以及其他摄像处理领域中有着重要的作用。具体地,光流检测可用于检测运动、物件切割、碰撞时间与物体膨胀的计算、运动补偿编码,或者通过物体表面与边缘进行立体的测量等等。
关于光流检测的方法目前有基于梯度的方法、基于匹配的方法、基于能量的方法等等。比较典型的有:霍恩-山克方法(Horn-Schunck Method)、卢卡斯-卡纳德方法(Lucas-Kanade Method)等等。光流检测的方法为本领域的现有技术,本实施例在此不再赘述。
在一个实施场景中,为了定量地表征光流点的位置信息,光流信息包括光流点在预设坐标系上的坐标位置,预设坐标系可以为二维坐标系,例如:前帧图像中的光流点1的光流信息可以包括二维坐标系上的坐标位置(x1,t-1,y1,t-1),或者前帧图像中的光流点2的光流信息可以包括二维坐标系上的坐标位置(x2,t-1,y2,t-1),或者后帧图像中的光流点1的光流信息可以包括二维坐标系上的坐标位置(x1,t,y1,t),或者后帧图像中的光流点2的光流信息可以包括二维坐标系上的坐标位置(x2,t,y2,t)等等,本实施例不再赘述。
步骤S12:通过前后两帧图像的光流信息确定目标在后帧图像中的初始预测区域。
初始预测区域为目标在后帧图像中所在的估计区域。在一个实施场景中,初始预测区域为一矩形,且该矩形所圈定的区域包括了所估计的目标区域。
目标为需要跟踪的主要对象,在不同应用场景下,目标也可以不同。例如,针对道路交通场景,目标可以为车辆,或者针对车站监控场景,目标可以为行人,本实施例在此不做具体限制。
在一个实施场景中,为了更加丰富地、多维度地表征光流点的特征,光流检测时所获得的光流信息还可以进一步包括光流点的光流速度,且该光流速度为一速度矢量,即不仅包括速度大小,还包括速度方向,例如,前帧图像中的光流点1的光流信息可以包括速度矢量
Figure BDA0002122715230000051
或者后帧图像中的光流点1的光流信息可以包括速度矢量
Figure BDA0002122715230000052
在一个实施场景中,为了相对准确地得到目标在后帧图像中的初始预测区域,可以对前后两帧图像对应的检测区域的光流速度做帧差计算,从而确定目标在后帧图像中的初始预测区域。检测区域可以为前后两帧图像的全图像区域,也可以是前后两帧图像的中间区域图像等等,本实施例在此不做具体限制。帧差计算,即帧间差分法(TemporalDifference)借鉴了摄像器件采集的视频序列具有连续性这一特性,即如果场景中没有运动目标,则连续帧的变化很微弱,如果存在运动目标,则连续的帧与帧之间会有明显的变化。因此,对前后两帧图像的光流速度做帧差计算,例如
Figure BDA0002122715230000053
并对帧差计算的结果做阈值处理,若满足阈值条件,则可以认为后帧图像中某一光流点属于目标,以此类推,最终可以估计得到目标的初始预测区域。
在另一个实施场景中,为了相对快速地得到目标在后帧图像中的初始预测区域,可以通过前后两帧图像的光流信息以及目标在前帧图像的位置确定在后帧图像中的初始预测区域。例如,寻找目标在前帧图像中所出现的关键特征点在后帧图像中的最佳位置,从而得到目标在后帧图像中的初始预测区域。此外,还可以利用前后两帧图像的光流信息通过光流法确定在后帧图像中的初始预测区域。光流法检测运动目标的基本原理是:给图像中的每一个像素点赋予一个速度矢量,这就形成了一个图像运动场,在运动的一个特定时刻,图像上的点与三维物体上的点一一对应,这种对应关系可由投影关系得到,根据各个像素点的速度矢量特征,可以对图像进行动态分析。如果图像中没有运动目标,则光流矢量在整个图像区域是连续变化的,当物体和图像背景存在相对运动时,运动物体所形成的速度矢量必然和邻域背景速度矢量不同,从而检测出运动物体的位置,进而可以确定初始预测区域。
步骤S13:基于初始预测区域,将初始预测区域的预设倍数的区域确定为搜索区域,并将后帧图像划分为多个子区域。
预设倍数可以为一具体数值,例如1.2倍,即此时,搜索区域为初始预测区域的1.2倍区域,预设倍数还可以为其他数值,例如:1.1倍、1.3倍等等,本实施例在此不做具体限制。
请结合参阅图2,图2为本申请目标跟踪的尺度估计方法一实施例的框架示意图,图中粗线所划定区域为初始预测区域,在一个实施场景中,为了进一步减少后续尺度估计的计算量,如图2所示,可以以初始预测区域为中心,将初始预测区域的第一倍数和初始预测区域的第二倍数之间的区域确定为搜索区域,例如:第一倍数为0.8倍,第二倍数为1.2倍,则搜索区域为边框a和边框b之间的区域,第一倍数和第二倍数还可以为其他数值范围,例如:第一倍数为0.7倍且第二倍数为1.1倍,或者,第一倍数为0.9倍且第二倍数为1.3倍等等,本实施例在此不做具体限制。
在一个实施场景中,为了便于后续准确地确定搜索区域内的光流点所属的子区域,可以将初始预测区域作为最小划分单元,将后帧图像划分为多个子区域,请继续参阅图2,后帧图像的大小为M*N,图中初始预测区域的大小为m*n,则后帧图像基于初始预测图像可以划分为
Figure BDA0002122715230000061
个子区域。本实施例所列举的后帧图像的大小,以及初始预测区域的大小仅为示例,在其他实施场景中,后帧图像和初始预测区域的大小还可以为其他数值,本实施例在此不做具体限制。如图2所示,将后帧图像划分为包括初始预测区域B13的共计25个子区域,分别为B1~B25。图2所示仅为具体实施时可能存在的一实施例,本申请并不因此而限制实际应用时可能存在的其他情况。
步骤S14:通过光流点的光流信息确定搜索区域内每一个光流点所属的子区域。
请继续结合参阅图2,例如搜索区域内有光流点P1、光流点P2、光流点P3,通过光流点的光流信息确定光流点P1~P3所属的子区域,例如,光流点P1属于子区域B7,光流点P2属于子区域B13,也就是说,光流点P2属于初始预测区域,光流点P3属于子区域B14。
步骤S15:通过统计搜索区域内每一个光流点所属的子区域,确定目标在后帧图像的目标尺度。
统计搜索区域内每一个光流点所属的子区域,从而可以筛选出其中属于初始预测区域的光流点,进而可以进一步排除掉搜索区域内不属于初始预测区域的光流点,从而可以进一步对初始预测区域关于目标区域的确定进行了修正,进而进一步提高了尺度估计的准确性。
上述方案,通过对前后两帧图像进行光流检测,从而确定目标在后帧图像中的初始预测区域,进而可以估计目标在后帧图像中的位置,再基于确定的初始预测区域将后帧图像划分为多个子区域,并将该初始预测区域的预设倍数的区域作为搜索区域,从而基于搜索区域中每一个光流点的光流信息确定其所属的子区域,最终统计搜索区域中每一个光流点所属的子区域,确定目标在后帧图像的目标尺度,进而只需在搜索区域范围确认其中的光流点所属的子区域,大大减少了尺度估计的计算量,提高了尺度估计的效率。
请参阅图3,图3是图1中步骤S14一实施例的流程示意图。具体而言,步骤S14可以包括:
步骤S141:通过光流点的光流信息分别计算得到搜索区域内的每一个光流点到所有子区域的中心光流点的距离。
为便于计算,光流信息包括光流点在预设坐标系上的位置坐标,以及光流点的光流速度。请结合参阅图2,例如,搜索区域内的光流点有光流点P1、光流点P2、光流点P3,通过光流点P1~P3的光流信息以及后帧图像中其他光流点的光流信息,确定光流点P1~P3到后帧图像中子区域B1~B25的中心光流点的距离。
在一个实施场景中,子区域的中心光流点为每一子区域中光流点最接近子区域中心的光流点,例如,子区域B1中有光流点P4、P5、P6、P7共计4个光流点,根据P4~P7的位置坐标,确定其中最靠近子区域B1中心的光流点为P4,则将P4作为子区域B1的中心光流点。
在另一个实施场景中,为了充分考虑光流点位置坐标和光流速度在评价光流点与其附近光流点的相似性所起的作用,子区域的中心光流点为一虚拟的光流点,可以将子区域中所有光流点的位置坐标以及光流速度的均值作为子区域的中心光流点的光流信息,例如,子区域B1中有光流点P4、P5、P6、P7共计4个光流点,其位置坐标和光流速度可以分别表示为
Figure BDA0002122715230000081
则子区域B1的中心光流点可以表示为
Figure BDA0002122715230000082
需要注意的是,光流速度为一速度矢量,既包含速度大小,又包含速度方向,因此在对光流速度求均值时,还需要综合速度方向,即最后求得的光流速度均值也为一速度矢量,速度矢量均值的求取为本领域的现有技术,本实施例在此不再一一赘述。此时,若预设坐标系为二维坐标系,预设坐标系包括第一坐标轴和第二坐标轴,例如预设坐标系为直角坐标系,包括X轴和Y轴,则搜索区域内的每一个光流点到所有子区域的中心光流点的距离
Figure BDA0002122715230000083
可以通过以下算式计算得到:
Figure BDA0002122715230000084
其中,xi表示搜索区域中光流点i在第一坐标轴的坐标信息,yi表示搜索区域中光流点i在第二坐标轴的坐标信息,xm表示后帧图像第m个子区域的中心光流点在第一坐标轴上的坐标信息,ym表示后帧图像第m个子区域的中心光流点在第二坐标轴上的坐标信息,vxi表示光流点i在第一坐标轴方向上的速度,vyi表示光流点i在第二坐标轴方向上的速度,vxm表示第m个子区域的中心光流点在第一坐标轴方向上的速度,vym表示第m个子区域的中心光流点在第二坐标轴方向上的速度,λi表示光流点i的权重。
在一个实施场景中,当目标为高速运动的物体时,光流速度对于判断光流点与其附近光流点的相似性所起的作用较大,此时,光流点i的权重λi可以取大于1的数值,例如1.5、2、2.5等等;当目标为低速运动的物体时,光流速度对于判断光流点与其附近光流点的相似性所起的作用较小,此时,光流点i的权重λi可以取小于1的数值,例如0.5、0.6、0.7等等;当目标为常速运动的物体时,光流速度因素和位置坐标因素对于判断光流点与其附近光流点的相似性所起的作用相当,此时,光流点i的权重λi可以取等于1的数值,或趋近于1的数值,例如0.9、1、1.1等等,本实施例在此不做具体限制。当所求得的距离越小,表示该光流点的位置特征、速度特征与该中心光流点所属的子区域的位置特征、速度特征越相近,也就是说,该光流点属于该中心光流点所属子区域的概率越大。
此外,为了进一步减少计算量,请结合参阅图4,图4为图3中步骤S141一实施例的流程示意图,步骤S141可以进一步包括:
步骤S1411:通过光流点的位置坐标确定与光流点相邻的子区域。
由于上述步骤S12已经初步估计了目标在后帧图像中初始预测区域,因此,搜索区域内的光流点要么属于该初始预测区域,要么属于该光流点附近的子区域,属于跨越与其相邻的子区域的概率非常小,而且,若属于跨越与其相邻的子区域,则对于统计属于初始预测区域的光流点也无影响。请结合参阅图2,例如,对于搜索区域内的光流点P1,其大概率属于子区域B7、B8、B12、B13中的一个,即使属于子区域B1、B2、B3、B9、B14、B19、B18、B17、B16、B11、B6,也不影响统计属于初始预测区域的光流点,进而对后续尺度估计的准确性也没有影响。故此,对于搜索区域内的光流点只需计算与其相邻的子区域的中心光流点的距离即可,从而大大节省了计算量,使得尺度估计的效率进一步提高。
与光流点相邻的子区域为在所有子区域中其中心距离该光流点位置最近的4个子区域。在一个实施场景中,位于搜索区域角落的光流点,例如对于光流点P1可以根据光流点的位置坐标快速确定与其相邻的子区域为B7、B8、B12、B13,或者,例如对于光流点P2可以根据光流点的位置坐标快速地确定与其相邻的子区域为B12、B13、B18、B17。在另一个实施场景中,位于搜索区域中部的光流点,例如对于光流点P3可以认为与其相邻的子区域为B8、B9、B13、B14,或者也可以认为与其相邻的子区域为B13、B14、B18、B19,本实施例在此不做具体限制。
步骤S1412:分别计算得到搜索区域内的每一个光流点到其相邻的子区域的中心光流点的距离。
在一个实施场景中,子区域的中心光流点为每一子区域中光流点最接近子区域中心的光流点,例如,子区域B1中有光流点P4、P5、P6、P7共计4个光流点,根据P4~P7的位置坐标,确定其中最靠近子区域B1中心的光流点为P4,则将P4作为子区域B1的中心光流点。
在另一个实施场景中,为了充分考虑光流点位置坐标和光流速度在评价光流点与其附近光流点的相似性所起的作用,子区域的中心光流点为一虚拟的光流点,可以将子区域中所有光流点的位置坐标以及光流速度的均值作为子区域的中心光流点,例如,子区域B1中有光流点P4、P5、P6、P7共计4个光流点,其位置坐标和光流速度可以分别表示为
Figure BDA0002122715230000101
则子区域B1的中心光流点可以表示为
Figure BDA0002122715230000102
需要注意的是,光流速度为一速度矢量,既包含速度大小,又包含速度方向,因此在对光流速度求均值时,还需要综合考虑光流方向,即最后求得的光流速度均值也为一速度矢量,速度矢量均值的求取为本领域的现有技术,本实施例在此不再一一赘述。此时,若预设坐标系为二维坐标系,预设坐标系包括第一坐标轴和第二坐标轴,例如,预设坐标系为直角坐标系,则预设坐标系包括X轴和Y轴。搜索区域内的每一个光流点到所有子区域的中心光流点的距离
Figure BDA0002122715230000103
可以通过以下算式计算得到:
Figure BDA0002122715230000104
其中,xi表示搜索区域中光流点i在第一坐标轴的坐标信息,yi表示搜索区域中光流点i在第二坐标轴的坐标信息,xm表示后帧图像第m个相邻子区域的中心光流点在第一坐标轴上的坐标信息,ym表示后帧图像第m个相邻子区域的中心光流点在第二坐标轴上的坐标信息,vxi表示光流点i在第一坐标轴方向上的速度,vyi表示光流点i在第二坐标轴方向上的速度,vxm表示第m个相邻子区域的中心光流点在第一坐标轴方向上的速度,vym表示第m个相邻子区域的中心光流点在第二坐标轴方向上的速度,λi表示光流点i的权重。
在一个实施场景中,当目标为高速运动的物体时,光流速度因素对于判断光流点与其附近光流点的相似性所起的作用较大,此时,光流点i的权重λi可以取大于1的数值,例如1.5、2、2.5等等;当目标为低速运动的物体时,光流速度因素对于判断光流点与其附近光流点的相似性所起的作用较小,此时,光流点i的权重λi可以取小于1的数值,例如0.5、0.6、0.7等等;当目标为常速运动的物体时,光流速度因素和位置坐标因素对于判断光流点与其附近光流点的相似性所起的作用相当,此时,光流点i的权重λi可以取等于1的数值,或趋近于1的数值,例如0.9、1、1.1等等,本实施例在此不做具体限制。当所求得的距离越小,表示该光流点的位置特征、速度特征与该中心光流点所属的子区域的位置特征、速度特征越相近,也就是说,该光流点属于该中心光流点所属子区域的概率越大。
步骤S142:将距离中最小值所对应的中心光流点所在的子区域确定为光流点所属的子区域。
当所求得的距离越小,表示该光流点的位置特征、速度特征与该中心光流点所属子区域的位置特征、速度特征越相近,也就是说,该光流点属于该中心光流点所属子区域的概率越大。
请结合参阅图2,例如针对计算搜索区域内光流点P1~P3到所有子区域B1~B25的中心光流点的距离的情况,最终可以计算得到光流点P1到所有子区域B1~B25的中心光流点的距离为
Figure BDA0002122715230000111
其中m为1~25,取这25个值中最小的值,例如最小值为
Figure BDA0002122715230000112
其所对应的中心光流点所属于的子区域为子区域B13,也就是初始预测区域。最终还可以计算得到P2到所有子区域B1~B25的中心光流点的距离为
Figure BDA0002122715230000113
其中m为1~25,取这25个值中最小的值,例如最小值为
Figure BDA0002122715230000121
其所对应的中心光流点所属于的子区域为子区域B13,也就是初始预测区域。最终还可以计算得到P3到所有子区域B1~B25的中心光流点的距离为
Figure BDA0002122715230000122
其中m为1~25,取这25个值中最小的值,例如最小值为
Figure BDA0002122715230000123
其所对应的中心光流点所属于的子区域为子区域B14,也就是说光流点P3不属于初始预测区域。
请参阅图5,图5为图1中步骤S15一实施例的流程示意图。具体而言,可以包括:
步骤S151:通过统计搜索区域内的每一个光流点所属的子区域,确定属于初始预测区域的光流点数。
例如,请结合参阅图2,搜索区域内的光流点P1~P3最终统计如下:光流点P1属于子区域B13、光流点P2属于子区域B13、光流点P3属于子区域B14,则可以确定属于初始预测区域的光流点为P1和P2,也就是说,属于初始预测区域的光流点数为2加上初始预测区域的预设倍数内本身的光流点数,即图2中边框a以内的光流点数。
步骤S152:通过属于初始预测区域的光流点数以及初始预测区域中的光流点数的比值确定目标在后帧图像的目标尺度。
例如,请结合参阅图2,属于初始预测区域的光流点数为2加上边框a以内的光流点数,而初始预测区域中的光流点数为1(即光流点P2)加上边框a以内的光流点数。假设边框a以内的光流点数为x,则目标在后帧图像的目标尺度为
Figure BDA0002122715230000124
其中,在一个实施例中,为了进一步减少尺度估计的计算量,上述步骤S13之前,还可以进一步包括:剔除后帧图像中的异常光流点。具体地,异常光流点的确定可以通过计算初始预测区域内的光流点的光流速度大小与附近光流点的速度差值,并判断该速度差值是否在一预设阈值以上,若是,则认为是异常光流点。请结合参阅图2,例如初始预测区域内的光流点P2与其附近的光流点的速度差值为10m/s,则认为光流点P2为异常光流点。此外,异常光流点的确定还可以通过判断初始预测区域内的光流点的光流速度方向与附近所有光流点的光流速度方向之间的夹角,若其中有预设比例(例如:95%、96%、97%、98%、99%、100%等等)的夹角大于一预设角度(例如:100度、120度、140度、160度、180度等等),则确定该光流点为异常光流点。
其中,在另一个实施例中,为了方便对前后两帧图像进行光流检测,还可以降低前后两帧图像的分辨率,具体地,可以对前后帧图像进行高斯降采样得到高斯金字塔图像,高斯降采样为本领域的现有技术,本实施例在此不再一一赘述。
请参阅图6,图6为本申请图像处理装置60一实施例的框架示意图。图像处理装置60包括相互耦接的存储器61和处理器62,处理器62用于执行存储器61存储的程序指令,以实现上述任一实施例中的目标跟踪的尺度估计方法。
具体而言,处理器62用于控制其自身以及存储器61以实现上述任一实施例中的目标跟踪的尺度估计方法。处理器62还可以称为CPU(Central Processing Unit,中央处理单元)。处理器62可能是一种集成电路芯片,具有信号的处理能力。处理器62还可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。另外,处理器62可以由多个集成电路芯片共同实现。
本实施例中,处理器62用于分别对摄像器件拍摄得到的前后两帧图像进行光流检测,得到前后两帧图像的光流点的光流信息;处理器62还用于通过前后两帧图像的光流信息确定目标在后帧图像中的初始预测区域;处理器62还用于基于初始预测区域,将初始预测区域的预设倍数的区域确定为搜索区域,并将后帧图像划分为多个子区域;处理器62还用于通过光流点的光流信息确定搜索区域内每一个光流点所属的子区域;处理器62还用于通过统计搜索区域内每一个光流点所属的子区域,确定目标在后帧图像的目标尺度。
上述方案,只需在搜索区域范围确认其中的光流点所属的子区域,大大减少了尺度估计的计算量,提高了尺度估计的效率。
在一些实施例中,处理器62还用于通过光流点的光流信息分别计算得到搜索区域内的每一个光流点到所有子区域的中心光流点的距离;处理器62还用于将距离中最小值所对应的中心光流点所在的子区域确定为光流点所属的子区域,光流信息包括光流点在预设坐标系上的位置坐标。
在一些实施例中,预设坐标系为二维坐标系,二维坐标系包括第一坐标轴和第二坐标轴,处理器62还用于通过如下公式计算搜索区域内的每一个光流点到所有子区域的中心光流点的距离
Figure BDA0002122715230000141
Figure BDA0002122715230000142
其中,xi表示搜索区域的光流点i在第一坐标轴的坐标信息,yi表示搜索区域的光流点i在第二坐标轴的坐标信息;xm表示后帧图像的第m个子区域的中心光流点在第一坐标轴的坐标信息;ym表示后帧图像的第m个子区域的中心光流点在第二坐标轴的坐标信息;vxi表示搜索区域的光流点i在第一坐标轴方向上的光流速度,vyi表示搜索区域的光流点i在第二坐标轴方向上的光流速度,vxm表示后帧图像的第m个子区域的中心光流点在第一坐标轴方向上的光流速度,vym表示后帧图像的第m个子区域的中心光流点在第二坐标轴方向上的光流速度,λi为光流点i的权重。
在一些实施例中,处理器62还用于通过光流点的位置坐标确定与光流点相邻的子区域;处理器62还用于分别计算得到搜索区域内的每一个光流点到其相邻的子区域的中心光流点的距离。
在一些实施例中,处理器62还用于通过统计搜索区域内的每一个光流点所属的子区域,确定属于初始预测区域的光流点数;处理器62还用于通过属于初始预测区域的光流点数以及初始预测区域中的光流点数的比值确定目标在后帧图像的目标尺度。
在一些实施例中,处理器62还用于以初始预测区域为中心,将初始预测区域的第一倍数与初始预测区域的第二倍数之间的区域确定为搜索区域。
在一些实施例中,处理器62还用于以初始预测区域为最小划分单元,将后帧图像划分为多个子区域。
在一些实施例中,处理器62还用于剔除后帧图像中的异常光流点。
在一些实施例中,处理器62还用于降低前后两帧图像的分辨率。
在一些实施例中,处理器62还用于对前后两帧图像对应的检测区域的光流速度做帧差计算,确定目标在后帧图像中的初始预测区域;或者,处理器62还用于通过前后两帧图像的光流信息以及目标在前帧图像的位置确定在后帧图像中的初始预测区域;或者,处理器62还用于利用前后两帧图像的光流信息通过光流法确定在后帧图像中的初始预测区域。
在一些实施例中,图像处理装置60还包括摄像器件63,用于拍摄图像。在一个实施场景中,摄像器件63包括智能球机摄像头。
请参阅图7,图7为本申请图像处理装置70另一实施例的框架示意图。具体而言,图像处理装置70可以包括光流检测模块71、目标确定模块72、区域划分模块73、区域确定模块74、统计计算模块75。本实施例中,光流检测模块71用于分别对摄像器件拍摄得到的前后两帧图像进行光流检测,得到前后两帧图像的光流点的光流信息;目标确定模块72用于通过前后两帧图像的光流信息确定目标在后帧图像中的初始预测区域;区域划分模块73用于基于初始预测区域,将初始预测区域的预设倍数的区域确定为搜索区域,并将后帧图像划分为多个子区域;区域确定模块74用于通过光流点的光流信息确定搜索区域内每一个光流点所属的子区域;统计计算模块75用于通过统计搜索区域内每一个光流点所属的子区域,确定目标在后帧图像的目标尺度。
上述方案,只需在搜索区域范围确认其中的光流点所属的子区域,大大减少了尺度估计的计算量,提高了尺度估计的效率。
在一些实施例中,区域确定模块74包括区域计算模块,用于通过光流点的光流信息分别计算得到搜索区域内的每一个光流点到所有子区域的中心光流点的距离,区域确定模块74还包括区域选择模块,用于将距离中最小值所对应的中心光流点所在的子区域确定为光流点所属的子区域,其中,光流信息包括光流点在预设坐标系上的位置坐标。
在一些实施例中,预设坐标系为二维坐标系,二维坐标系包括第一坐标轴和第二坐标轴,区域计算模块通过如下公式计算搜索区域内的每一个光流点到所有子区域的中心光流点的距离
Figure BDA0002122715230000161
Figure BDA0002122715230000162
其中,xi表示搜索区域的光流点i在第一坐标轴的坐标信息,yi表示搜索区域的光流点i在第二坐标轴的坐标信息;xm表示后帧图像的第m个子区域的中心光流点在第一坐标轴的坐标信息;ym表示后帧图像的第m个子区域的中心光流点在第二坐标轴的坐标信息;vxi表示搜索区域的光流点i在第一坐标轴方向上的光流速度,vyi表示搜索区域的光流点i在第二坐标轴方向上的光流速度,vxm表示后帧图像的第m个子区域的中心光流点在第一坐标轴方向上的光流速度,vym表示后帧图像的第m个子区域的中心光流点在第二坐标轴方向上的光流速度,λi为光流点i的权重。
在一些实施例中,区域计算模块还用于通过光流点的位置坐标确定与光流点相邻的子区域;分别计算得到搜索区域内的每一个光流点到其相邻的子区域的中心光流点的距离。
在一些实施例中,统计计算模块75包括统计子模块,用于通过统计搜索区域内的每一个光流点所属的子区域,确定属于初始预测区域的光流点数,统计计算模块75还包括计算子模块,用于通过属于初始预测区域的光流点数以及初始预测区域中的光流点数的比值确定目标在后帧图像的目标尺度。
在一些实施例中,区域划分模块73包括搜索区域划分模块,用于以初始预测区域为中心,将初始预测区域的第一倍数与初始预测区域的第二倍数之间的区域确定为搜索区域,其中,第一倍数为0.8,第二倍数为1.2,区域划分模块73还包括子区域划分模块,用于以初始预测区域为最小划分单元,将后帧图像划分为多个子区域。
在一些实施例中,图像处理装置70还包括异常剔除模块,用于剔除后帧图像中的异常光流点。
在一些实施例中,图像处理装置70还包括降采样模块,用于降低前后两帧图像的分辨率。
在一些实施例中,目标确定模块72用于对前后两帧图像对应的检测区域的光流速度做帧差计算,确定目标在后帧图像中的初始预测区域;或者,目标确定模块72用于通过前后两帧图像的光流信息以及目标在前帧图像的位置确定在后帧图像中的初始预测区域;或者,目标确定模块72用于利用前后两帧图像的光流信息通过光流法确定在后帧图像中的初始预测区域。
请参阅图8,图8为本申请存储装置80一实施例的框架示意图。存储装置80存储有能够被处理器运行的程序指令801,程序指令801用于实现上述任一实施例中的目标跟踪的尺度估计方法。
上述方案中,只需在搜索区域范围确认其中的光流点所属的子区域,大大减少了尺度估计的计算量,提高了尺度估计的效率。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性、机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。

Claims (15)

1.一种目标跟踪的尺度估计方法,其特征在于,包括:
分别对摄像器件拍摄得到的前后两帧图像进行光流检测,得到所述前后两帧图像的光流点的光流信息;
通过所述前后两帧图像的光流信息确定所述目标在后帧图像中的初始预测区域;
基于所述初始预测区域,将所述初始预测区域的预设倍数的区域确定为搜索区域,并将所述后帧图像划分为多个子区域;
通过所述光流点的光流信息确定所述搜索区域内每一个所述光流点所属的子区域;
通过统计所述搜索区域内每一个所述光流点所属的子区域,确定所述目标在所述后帧图像的目标尺度;
其中,所述通过统计所述搜索区域内每一个所述光流点所属的子区域,确定所述目标在所述后帧图像的目标尺度的步骤包括:
通过统计所述搜索区域内的每一个所述光流点所属的子区域,确定属于所述初始预测区域的光流点数;
通过属于所述初始预测区域的光流点数以及所述初始预测区域中的光流点数的比值确定所述目标在所述后帧图像的目标尺度。
2.根据权利要求1所述的尺度估计方法,其特征在于,所述通过所述光流点的光流信息确定所述搜索区域内每一个所述光流点所属的子区域的步骤包括:
通过所述光流点的光流信息分别计算得到所述搜索区域内的每一个所述光流点到所有所述子区域的中心光流点的距离;
将所述距离中最小值所对应的中心光流点所在的子区域确定为所述光流点所属的子区域;
其中,所述光流信息包括所述光流点在预设坐标系上的位置坐标。
3.根据权利要求2所述的尺度估计方法,其特征在于,所述预设坐标系为二维坐标系,所述二维坐标系包括第一坐标轴和第二坐标轴,所述通过所述光流点的光流信息分别计算得到所述搜索区域内的每一个所述光流点到所有所述子区域的中心光流点的距离的步骤包括:
通过如下公式计算所述搜索区域内的每一个所述光流点到所有所述子区域的中心光流点的距离
Figure FDA0003301981640000021
Figure FDA0003301981640000022
其中,xi表示所述搜索区域的光流点i在第一坐标轴的坐标信息,yi表示所述搜索区域的光流点i在第二坐标轴的坐标信息;xm表示所述后帧图像的第m个子区域的中心光流点在第一坐标轴的坐标信息;ym表示所述后帧图像的第m个子区域的中心光流点在第二坐标轴的坐标信息;vxi表示所述搜索区域的光流点i在第一坐标轴方向上的光流速度,vyi表示所述搜索区域的光流点i在第二坐标轴方向上的光流速度,vxm表示所述后帧图像的第m个子区域的中心光流点在第一坐标轴方向上的光流速度,vym表示所述后帧图像的第m个子区域的中心光流点在第二坐标轴方向上的光流速度,λi为光流点i的权重。
4.根据权利要求2所述的尺度估计方法,其特征在于,
所述通过所述光流点的光流信息分别计算得到所述搜索区域内的每一个所述光流点到所有所述子区域的中心光流点的距离的步骤包括:
通过所述光流点的位置坐标确定与所述光流点相邻的子区域;
分别计算得到所述搜索区域内的每一个所述光流点到其相邻的子区域的中心光流点的距离。
5.根据权利要求1~4任一项所述的尺度估计方法,其特征在于,所述基于所述初始预测区域,将所述初始预测区域的预设倍数的区域确定为搜索区域的步骤包括:
以所述初始预测区域为中心,将所述初始预测区域的第一倍数与所述初始预测区域的第二倍数之间的区域确定为所述搜索区域。
6.根据权利要求5所述的尺度估计方法,其特征在于,所述第一倍数为0.8,所述第二倍数为1.2。
7.根据权利要求1~4任一项所述的尺度估计方法,其特征在于,所述基于所述初始预测区域,将所述后帧图像划分为多个子区域的步骤包括:
以所述初始预测区域为最小划分单元,将所述后帧图像划分为多个所述子区域。
8.根据权利要求1所述尺度估计方法,其特征在于,所述基于所述初始预测区域,将所述初始预测区域的预设倍数的区域确定为搜索区域,并将所述后帧图像划分为多个子区域之前,还包括:
剔除所述后帧图像中的异常光流点。
9.根据权利要求1所述的尺度估计方法,其特征在于,所述分别对通过摄像器件拍摄得到的前后两帧图像进行光流检测,得到所述前后两帧图像的光流点的光流信息的步骤之前还包括:
降低所述前后两帧图像的分辨率。
10.根据权利要求1所述的尺度估计方法,其特征在于,所述通过所述前后两帧图像的光流信息确定所述目标在后帧图像中的初始预测区域的步骤具体包括:
对所述前后两帧图像对应的检测区域的光流速度做帧差计算,确定所述目标在后帧图像中的初始预测区域;或者,
通过前后两帧图像的光流信息以及所述目标在前帧图像的位置确定在所述后帧图像中的初始预测区域;或者,
利用所述前后两帧图像的光流信息通过光流法确定在所述后帧图像中的初始预测区域。
11.一种图像处理装置,其特征在于,包括相互耦接的存储器和处理器;
所述处理器用于执行所述存储器存储的程序指令,以实现权利要求1至10任一项所述的方法。
12.根据权利要求11所述的装置,其特征在于,还包括摄像器件,用于拍摄图像。
13.根据权利要求12所述的装置,其特征在于,所述摄像器件包括智能球机摄像头。
14.一种图像处理装置,其特征在于,包括:
光流检测模块,用于分别对摄像器件拍摄得到的前后两帧图像进行光流检测,得到所述前后两帧图像的光流点的光流信息;
目标确定模块,用于通过所述前后两帧图像的光流信息确定所述目标在后帧图像中的初始预测区域;
区域划分模块,用于基于所述初始预测区域,将所述初始预测区域的预设倍数的区域确定为搜索区域,并将所述后帧图像划分为多个子区域;
区域确定模块,用于通过所述光流点的光流信息确定所述搜索区域内每一个所述光流点所属的子区域;
统计计算模块,用于通过统计所述搜索区域内每一个所述光流点所属的子区域,确定所述目标在所述后帧图像的目标尺度;
其中,所述统计计算模块包括统计子模块和计算子模块,所述统计子模块用于通过统计所述搜索区域内的每一个所述光流点所属的子区域,确定属于所述初始预测区域的光流点数,所述计算子模块用于通过属于所述初始预测区域的光流点数以及所述初始预测区域中的光流点数的比值确定所述目标在所述后帧图像的目标尺度。
15.一种存储装置,其特征在于,存储有能够被处理器运行的程序指令,所述程序指令用于实现权利要求1至10任一项所述的方法。
CN201910612233.XA 2019-07-08 2019-07-08 目标跟踪的尺度估计方法以及相关装置 Active CN110458017B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910612233.XA CN110458017B (zh) 2019-07-08 2019-07-08 目标跟踪的尺度估计方法以及相关装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910612233.XA CN110458017B (zh) 2019-07-08 2019-07-08 目标跟踪的尺度估计方法以及相关装置

Publications (2)

Publication Number Publication Date
CN110458017A CN110458017A (zh) 2019-11-15
CN110458017B true CN110458017B (zh) 2022-02-18

Family

ID=68482332

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910612233.XA Active CN110458017B (zh) 2019-07-08 2019-07-08 目标跟踪的尺度估计方法以及相关装置

Country Status (1)

Country Link
CN (1) CN110458017B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113497889B (zh) * 2020-04-08 2023-05-26 杭州萤石软件有限公司 一种运动拍摄条件下的物体跟踪方法、装置及存储介质
CN112308871B (zh) * 2020-10-30 2024-05-14 地平线(上海)人工智能技术有限公司 确定视频中目标点的运动速度的方法以及装置
US11640668B2 (en) * 2021-06-10 2023-05-02 Qualcomm Incorporated Volumetric sampling with correlative characterization for dense estimation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3136294A1 (en) * 2015-08-28 2017-03-01 Canon Kabushiki Kaisha Control apparatus, method of controlling image sensing device, and computer-readable storage medium
CN106780557A (zh) * 2016-12-23 2017-05-31 南京邮电大学 一种基于光流法和关键点特征的运动目标跟踪方法
CN108090919A (zh) * 2018-01-02 2018-05-29 华南理工大学 一种基于超像素光流和自适应学习因子改进的核相关滤波跟踪方法
CN109299735A (zh) * 2018-09-14 2019-02-01 上海交通大学 基于相关滤波的抗遮挡目标跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9607015B2 (en) * 2013-12-20 2017-03-28 Qualcomm Incorporated Systems, methods, and apparatus for encoding object formations

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3136294A1 (en) * 2015-08-28 2017-03-01 Canon Kabushiki Kaisha Control apparatus, method of controlling image sensing device, and computer-readable storage medium
CN106780557A (zh) * 2016-12-23 2017-05-31 南京邮电大学 一种基于光流法和关键点特征的运动目标跟踪方法
CN108090919A (zh) * 2018-01-02 2018-05-29 华南理工大学 一种基于超像素光流和自适应学习因子改进的核相关滤波跟踪方法
CN109299735A (zh) * 2018-09-14 2019-02-01 上海交通大学 基于相关滤波的抗遮挡目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Accurate optical flow estimation using adaptive scale-space and 3D structure tensor;HY Wang et al;《International Conference on Image Processing》;20021231;全文 *
采用核相关滤波器的自适应尺度目标跟踪;张雷等;《光学精密工程》;20161231;第24卷(第2期);全文 *

Also Published As

Publication number Publication date
CN110458017A (zh) 2019-11-15

Similar Documents

Publication Publication Date Title
Javed et al. Tracking and object classification for automated surveillance
CN110458017B (zh) 目标跟踪的尺度估计方法以及相关装置
CN106682619B (zh) 一种对象跟踪方法及装置
US8406472B2 (en) Method and system for processing image data
KR20010000107A (ko) 다중 이동물체 추적/감시 시스템
JP2009064410A (ja) 車両の死角における移動物体を検知するための方法、および死角検知装置
Ren et al. Multi-camera video surveillance for real-time analysis and reconstruction of soccer games
Toropov et al. Traffic flow from a low frame rate city camera
CN111047908B (zh) 跨线车辆的检测装置、方法及视频监控设备
Xu et al. Dynamic obstacle detection based on panoramic vision in the moving state of agricultural machineries
JP2008064628A (ja) 物体検出装置および物体検出方法
CN110544271A (zh) 抛物动作检测方法及相关装置
CN113269007A (zh) 道路监控视频的目标跟踪装置以及方法
CN110070003A (zh) 异常行为检测与光流自相关性确定的方法、及相关装置
Almomani et al. Segtrack: A novel tracking system with improved object segmentation
Sincan et al. Moving object detection by a mounted moving camera
CN116342642A (zh) 目标跟踪方法、装置、电子设备及可读存储介质
EP1683108A2 (en) Object tracking within video images
Atev et al. A collision prediction system for traffic intersections
CN115797405A (zh) 一种基于车辆轴距的多镜头自适应跟踪方法
CN113177504B (zh) 车辆排队信息检测方法、装置、电子设备以及存储介质
CN114612999A (zh) 一种目标行为分类方法、存储介质及终端
Kravchonok Detection of moving objects in video sequences by the computation of optical flow based on region growing
Tayeb et al. Vehicle Speed Estimation Using Gaussian Mixture Model and Kalman Filter
Żak et al. Moving object detection, localization and tracking using stereo vison system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant