CN110310303B - 图像分析多目标跟踪方法 - Google Patents

图像分析多目标跟踪方法 Download PDF

Info

Publication number
CN110310303B
CN110310303B CN201910372296.2A CN201910372296A CN110310303B CN 110310303 B CN110310303 B CN 110310303B CN 201910372296 A CN201910372296 A CN 201910372296A CN 110310303 B CN110310303 B CN 110310303B
Authority
CN
China
Prior art keywords
target
image
spot
background mask
original image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910372296.2A
Other languages
English (en)
Other versions
CN110310303A (zh
Inventor
林嘉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanchang Jiayan Technology Co ltd
Original Assignee
Nanchang Jiayan Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanchang Jiayan Technology Co ltd filed Critical Nanchang Jiayan Technology Co ltd
Priority to CN201910372296.2A priority Critical patent/CN110310303B/zh
Publication of CN110310303A publication Critical patent/CN110310303A/zh
Application granted granted Critical
Publication of CN110310303B publication Critical patent/CN110310303B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供的图像分析多目标跟踪方法,获取待跟踪目标当前的原始图像;将所述原始图像输入到预设的背景分割模型中,根据所述原始图像计算背景掩膜;根据所述背景掩膜建立金字塔模型,通过所述金字塔模型分析得到背景掩膜中的运动物体,将每一个运动物体的位置区域记录为一个Spot对象;将背景掩膜中Spot对象与Target对象库进行匹配,获得Spot对象的目标位置,完成待跟踪目标的目标跟踪。该方法能够在一系列连续图像中识别相同的运动物体,同时跟踪画面中的多个运动物体,且可抵御物体被短暂遮挡的情况。

Description

图像分析多目标跟踪方法
技术领域
本发明属于目标跟踪技术领域,具体涉及图像分析多目标跟踪方法。
背景技术
目标识别与追踪是计算机视觉应用中的常见需求。当前计算机视觉库中的背景分割方法可利用图像的变化规律识别出运动物体,其基本工作原理是:在一系列连续图像中,像素变化的部分为移动物体(前景),像素保持不变的区域是静置物体(背景)。但当图像中有多个物体在运动时,背景分割方法并不能辨认出各幅图像中的同一物体。例如:将一段桌球视频输入背景分割方法,该方法可以有效的识别出每一帧画面中处于滚动状态的球,但不能回答上一帧中的某个球在下一帧中滚去了哪里。
为了实现目标跟踪可以有不同办法,例如可使用目标相似性原理:看看上一帧中需要追踪的球是什么颜色,下一帧中与其颜色相同的球就是它。相似性方法在某些条件下可以适用,但在有多个相似目标时(如桌面上有多个红球)就不能仅靠相似性来做判断。再者,当物体在边运动边发生变化时(如半色球会边滚边改变颜色),相似性原理也会失效。
另一种目标跟踪方法是位置接近原理。该原理认为物体的空间位置变化只会渐变,不会突变,当两帧图像之间的时间差很短时,同一物体的位置变化也应很小。基于此,与上一帧图像中待追踪物体位置最贴近的下一帧图像中的物体即是所需目标。显然,帧间物体移动距离越大此方法就越受限制。此外,当物体被遮挡时,追踪将必然被中断。例如:某球从桌球运动员手臂下方滚过,期间被遮挡了0.5秒,此时位置接近原理追踪方法将必定失效。
发明内容
针对现有技术中的缺陷,本发明提供的图像分析多目标跟踪方法,同时跟踪画面中的多个运动物体,且可抵御物体被短暂遮挡的情况。
一种图像分析多目标跟踪方法,包括以下步骤:
获取待跟踪目标当前的原始图像;
将所述原始图像输入到预设的背景分割模型中,根据所述原始图像计算背景掩膜;
根据所述背景掩膜建立金字塔模型,通过所述金字塔模型分析得到背景掩膜中的运动物体,将每一个运动物体的位置区域记录为一个Spot对象;
将背景掩膜中Spot对象与Target对象库进行匹配,获得Spot对象的目标位置,完成待跟踪目标的目标跟踪。
优选地,所述获取待跟踪目标当前的原始图像包括:
使用OpenCV的VideoCapture函数获取待跟踪目标当前BGR三通道的Mat图像;
或者是,使用FFmpeg读取待跟踪目标当前的流媒体,并解压所述流媒体获得YUV三通道的AVFrame图像,并将所述AVFrame图像转换为Mat图像。
优选地,所述背景分割模型为使用OpenCV中的BackgroundSubtractorMOG2类建立。
优选地,所述根据所述原始图像计算背景掩膜具体包括:
将所述原始图像与历史原始图像进行对比;用黑色像素点表示对比过程中,原始图像与历史原始图像中相同的区域;用白色像素点表示对比过程中,原始图像与历史原始图像中发生变化的区域;
由所述黑色像素点和白色像素点构成黑白图像;
通过OpenCV变形变化函数对所述黑白图像进行平滑、去噪后,得到所述背景掩膜。
优选地,所述根据所述背景掩膜建立金字塔模型,通过所述金字塔模型分析得到背景掩膜中的运动物体具体包括:
利用OpenCV的buildPyramid函数对所述背景掩膜建立金字塔模型,通过对金字塔模型逐层分析、定位所述背景掩膜中白色像素点区域,得到背景掩膜中的运动物体。
优选地,所述Spot对象包括区域的基准坐标和尺寸大小,用于标识所述背景掩膜中的一块区域。
优选地,所述将背景掩膜中Spot对象与Target对象库进行匹配,获得Spot对象的目标位置具体包括:
如果Target对象库中存在与所述Spot对象对应的Target对象时,将所述Spot对象插入Target对象的位置队列中,定义Target对象的位置为Spot对象的目标位置;
如果Target对象库中不存在与所述Spot对象对应的Target对象时,根据所述Spot对象构建Target对象,采用位置接近原理获得该Spot对象的目标位置。
优选地,所述Target对象包括位置列表、拟合参数和预测位置,用于标识运动物体的运动趋势。
优选地,该方法在所述将背景掩膜中Spot对象与Target对象库进行匹配,获得Spot对象的目标位置之后,还包括:
对所述Target对象库中的Target对象的运动规律进行拟合,预测Target对象的预测位置。
优选地,所述对所述Target对象库中的Target对象的运动规律进行拟合,预测Target对象的预测位置具体包括:
采用最小二乘法对Target对象的运动规律进行拟合;
拟合过程以时间t为自变量,物体位置(xn,yn)为应变量,所述运动规律可表示为:
xn=∑ai×tn i,yn=∑bi×tn i
其中i为拟合阶数,n为采样数;ai和bi为拟合参数,tn为第n帧的时间。
由上述技术方案可知,本发明提供的图像分析多目标跟踪方法,能够在一系列连续图像中识别相同的运动物体,同时跟踪画面中的多个运动物体,且可抵御物体被短暂遮挡的情况。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍。在所有附图中,类似的元件或部分一般由类似的附图标记标识。附图中,各元件或部分并不一定按照实际的比例绘制。
图1为本发明实施例提供的图像分析多目标跟踪方法的流程图。
图2为本发明实施例构建的Spot对象和Target对象。
具体实施方式
下面将结合附图对本发明技术方案的实施例进行详细的描述。以下实施例仅用于更加清楚地说明本发明的技术方案,因此只作为示例,而不能以此来限制本发明的保护范围。需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
实施例:
一种图像分析多目标跟踪方法,参见图1(图1中,圆圈是流程起点的意思,图1中纵向的5个流程各自工作在独立的线程上,实线箭头是各线程各自的工作流程虚线箭头是各线程间的消息通讯),包括以下步骤:
S1:获取待跟踪目标当前的原始图像;具体包括:
使用OpenCV的VideoCapture函数获取待跟踪目标当前BGR三通道的Mat图像;
或者是,使用FFmpeg读取待跟踪目标当前的流媒体(如网络摄像头输出的实时图像),并解压所述流媒体获得YUV三通道的AVFrame图像,并将所述AVFrame图像转换为Mat图像。
具体地,该方法可以在OpenCV平台上实现。为了满足OpenCV处理函数所需的图像格式,该步骤首先获取原始图像,再将原始图像转换为Mat图像,满足OpenCV处理函数对图像格式的要求。
虽然彩色图像的识别效果略优于单色图像,但差别并不显著。而单色图像占用内存和计算量要远小于彩色图像,加之YUV格式中主要图像信息包含在Y通道,其信息含量高于经RGB转化而得的灰度图像。因而也可以直接解压所述流媒体获得Y通道单通道图像,再转换为Mat图像。例如将AVFrame::data[0]像素数据地址指针直接赋值给Mat::data,可实现Y通道单通道图像至Mat图像的快速转换。
S2:将所述原始图像输入到预设的背景分割模型中,根据所述原始图像计算背景掩膜;其中,
所述背景分割模型为使用OpenCV中的BackgroundSubtractorMOG2类建立。
所述根据所述原始图像计算背景掩膜具体包括:
将所述原始图像与历史原始图像进行对比;用黑色像素点表示对比过程中,原始图像与历史原始图像中相同的区域;用白色像素点表示对比过程中,原始图像与历史原始图像中发生变化的区域;
由所述黑色像素点和白色像素点构成黑白图像;
通过OpenCV变形变化函数对所述黑白图像进行平滑、去噪后,得到所述背景掩膜。
具体地,该步骤将待跟踪目标当前的原始图像与历史原始图像进行对比,从而识别出运动物体。黑白图像中,用黑色像素点表示当前的原始图像与历史原始图像中位置不发生变化的区域,即背景;用白色像素点表示当前的原始图像与历史原始图像中位置发生变化的区域,即前景。背景掩膜为与原始图像尺寸相同的图像。
S3:根据所述背景掩膜建立金字塔模型,通过所述金字塔模型分析得到背景掩膜中的运动物体,将每一个运动物体的位置区域记录为一个Spot对象;
其中,所述根据所述背景掩膜建立金字塔模型,通过所述金字塔模型分析得到背景掩膜中的运动物体具体包括:
利用OpenCV的buildPyramid函数对所述背景掩膜建立金字塔模型,通过对金字塔模型逐层分析、定位所述背景掩膜中白色像素点区域,得到背景掩膜中的运动物体。
参见图2,所述Spot对象用于表示在一副图像中的一块矩形区域,Spot对象中保存了该区域的位置、大小等信息,例如以矩形中心或角点为参考点,定义x,y为参考点的坐标,width、height、left、right、top、bottom分别为矩形区域的宽、高、左边偏移量、右边偏移量、顶部偏移量和底部偏移量。在本方法中Spot对象用以表示在某帧图像中发现的存在运动物体的区域。所述Target对象在本方法中用以表示所识别出的某一运动物体,Target对象中的spotList属性是由一系列Spot对象指针及长整型时间戳所组成的二维队列,其意义是该运动物体在不同时间的所在位置。通过spotList中所保存的信息,该运动物体在下一时刻的预期位置可以通过运动连续性原理进行拟合预测(调用其predict方法),预测结果保存在Target对象的predictSpot属性内,拟合参数保存在coef属性内。在步骤S4中将新检测的到Spot对象与现有Target对象进行匹配时,将待检Spot对象传入Target::sample函数,该函数会比较传入的Spot对象于该Target对象的predictSpot的接近程度,若匹配成功则将该Spot对象加入其spotList列表。对于未匹配成功的Spot对象可通过Target::Target(Spot*)构造函数构造新的Target对象。所述Spot对象包括区域的基准坐标和尺寸大小,用于标识所述背景掩膜中的一块区域。
由于背景掩膜仅使用黑白色区分背景与前景,要想获得以数字形式表达的运动区域位置,还需要对背景掩膜做进一步的分析。该方法利用OpenCV的buildPyramid函数对背景掩膜建立金字塔模型,识别背景掩膜中所有的运动物体,并得到所有运动物体的位置。
S4:将背景掩膜中Spot对象与Target对象库进行匹配,获得Spot对象的目标位置,完成待跟踪目标的目标跟踪。
优选地,所述将背景掩膜中Spot对象与Target对象库进行匹配,获得Spot对象的目标位置具体包括:
如果Target对象库中存在与所述Spot对象对应的Target对象时,将所述Spot对象插入Target对象的位置队列中,定义Target对象的位置为Spot对象的目标位置;
如果Target对象库中不存在与所述Spot对象对应的Target对象时,根据所述Spot对象构建Target对象,采用位置接近原理获得该Spot对象的目标位置。
参见图2,所述Target对象包括位置列表、拟合参数和预测位置,用于标识运动物体的运动趋势。
具体地,将当前原始图像中运动位置逐一与已找到的运动对象(Target对象库中的Target对象)进行对比匹配。如果Target对象库中存在与所述Spot对象对应的Target对象,说明该方法已经根据该运动对象的历史数据进行过运动参数拟合与位置预测,所以在进行Spot对象与Target对象的匹配时,采用运动连续性原理,匹配成功后将Spot对象(包括运动位置信息,如时间信息)插入Target对象的历史位置队列。
如果Target对象库中不存在与所述Spot对象对应的Target对象时,说明该运动对象的历史数据较少,还未对该运动对象进行过运动参数拟合与位置预测,此时如果Spot对象满足预设条件(如输入图像初始若干帧或出现在画面边缘),采用位置接近原理获得该Spot对象的目标位置,其中位置接近原理是现有方法。否则将Spot对象视为无效数据丢弃。
S5:对所述Target对象库中的Target对象的运动规律进行拟合,预测Target对象的预测位置。
优选地,所述对所述Target对象库中的Target对象的运动规律进行拟合,预测Target对象的预测位置具体包括:
采用最小二乘法对Target对象的运动规律进行拟合;
拟合过程以时间t为自变量,物体位置(xn,yn)为应变量,所述运动规律可表示为:
xn=∑ai×tn i,yn=∑bi×tn i
其中i为拟合阶数,n为采样数;ai和bi为拟合参数,tn为第n帧的时间。
具体地,当Target对象的位置列表长度达到预定值(即采样数)后,需对其Target对象的运动状态进行更新,即对Target对象的运动规律进行拟合。在你和过程中,将下一帧的时间tn+1代入上述公式即可得到物体的预测位置。实际工程中,拟合阶数建议不超过3阶,采样数建议取5-9点,拟合计算完成后可以将位置列表中最老的数据丢弃。
运动连续性原理是对位置接近原理的改进,其判断标准不是与物体当前位置最接近,而是与物体预期将运动到的位置最接近。本方法实时测算运动物体的位置、速度、加速度,同时记录下每一帧图像的时间信息(例如H.264格式每一帧图像的PTS属性,或该帧图像的获取时间),进而对其在下一帧可能出现的位置进行预测,在预测位置附近且与预测位置最接近的物体即是追踪目标,即待跟踪目标的目标位置。运动连续性规律不受物体相似性影响,发生变化的物体亦可有效追踪。同时本方法亦可克服物体短暂的遮挡,只要在遮挡期间运动状态未发生大的改变,遮挡结束后仍可继续追踪。
该方法能够在一系列连续图像中识别相同的运动物体,同时跟踪画面中的多个运动物体,且可抵御物体被短暂遮挡的情况,还可与其他算法配合协作将可提升整体目标追踪成功率。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。

Claims (7)

1.一种图像分析多目标跟踪方法,其特征在于,包括以下步骤:
获取待跟踪目标当前的原始图像;
将所述原始图像输入到预设的背景分割模型中,根据所述原始图像计算背景掩膜;
根据所述背景掩膜建立金字塔模型,通过所述金字塔模型分析得到背景掩膜中的运动物体,将每一个运动物体的位置区域记录为一个Spot对象;
将背景掩膜中Spot对象与Target对象库进行匹配,获得Spot对象的目标位置,完成待跟踪目标的目标跟踪;
所述Spot对象包括区域的基准坐标和尺寸大小,用于标识所述背景掩膜中的一块区域;
所述将背景掩膜中Spot对象与Target对象库进行匹配,获得Spot对象的目标位置具体包括:
如果Target对象库中存在与所述Spot对象对应的Target对象时,将所述Spot对象插入Target对象的位置队列中,定义Target对象的位置为Spot对象的目标位置;
如果Target对象库中不存在与所述Spot对象对应的Target对象时,根据所述Spot对象构建Target对象,采用位置接近原理获得该Spot对象的目标位置;
所述Target对象包括位置列表、拟合参数和预测位置,用于标识运动物体的运动趋势。
2.根据权利要求1所述图像分析多目标跟踪方法,其特征在于,
所述获取待跟踪目标当前的原始图像包括:
使用OpenCV的VideoCapture函数获取待跟踪目标当前BGR三通道的Mat图像;
或者是,使用FFmpeg读取待跟踪目标当前的流媒体,并解压所述流媒体获得YUV三通道的AVFrame图像,并将所述AVFrame图像转换为Mat图像。
3.根据权利要求1所述图像分析多目标跟踪方法,其特征在于,
所述背景分割模型为使用OpenCV中的BackgroundSubtractorMOG2类建立。
4.根据权利要求3所述图像分析多目标跟踪方法,其特征在于,
所述根据所述原始图像计算背景掩膜具体包括:
将所述原始图像与历史原始图像进行对比;用黑色像素点表示对比过程中,原始图像与历史原始图像中相同的区域;用白色像素点表示对比过程中,原始图像与历史原始图像中发生变化的区域;
由所述黑色像素点和白色像素点构成黑白图像;
通过OpenCV变形变化函数对所述黑白图像进行平滑、去噪后,得到所述背景掩膜。
5.根据权利要求1所述图像分析多目标跟踪方法,其特征在于,
所述根据所述背景掩膜建立金字塔模型,通过所述金字塔模型分析得到背景掩膜中的运动物体具体包括:
利用OpenCV的buildPyramid函数对所述背景掩膜建立金字塔模型,通过对金字塔模型逐层分析、定位所述背景掩膜中白色像素点区域,得到背景掩膜中的运动物体。
6.根据权利要求1所述图像分析多目标跟踪方法,其特征在于,
该方法在所述将背景掩膜中Spot对象与Target对象库进行匹配,获得Spot对象的目标位置之后,还包括:
对所述Target对象库中的Target对象的运动规律进行拟合,预测Target对象的预测位置。
7.根据权利要求6所述图像分析多目标跟踪方法,其特征在于,
所述对所述Target对象库中的Target对象的运动规律进行拟合,预测Target对象的预测位置具体包括:
采用最小二乘法对Target对象的运动规律进行拟合;
拟合过程以时间t为自变量,物体位置(xn,yn)为应变量,所述运动规律可表示为:
xn=∑ai×tn i,yn=∑bi×tn i
其中i为拟合阶数,n为采样数;ai和bi为拟合参数,tn为第n帧的时间。
CN201910372296.2A 2019-05-06 2019-05-06 图像分析多目标跟踪方法 Active CN110310303B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910372296.2A CN110310303B (zh) 2019-05-06 2019-05-06 图像分析多目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910372296.2A CN110310303B (zh) 2019-05-06 2019-05-06 图像分析多目标跟踪方法

Publications (2)

Publication Number Publication Date
CN110310303A CN110310303A (zh) 2019-10-08
CN110310303B true CN110310303B (zh) 2021-07-23

Family

ID=68075344

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910372296.2A Active CN110310303B (zh) 2019-05-06 2019-05-06 图像分析多目标跟踪方法

Country Status (1)

Country Link
CN (1) CN110310303B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111260687B (zh) * 2020-01-10 2022-09-27 西北工业大学 一种基于语义感知网络和相关滤波的航拍视频目标跟踪方法
CN117351205A (zh) * 2023-10-23 2024-01-05 中国人民解放军陆军工程大学 一种图像结构化信息提取方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101458325B (zh) * 2009-01-08 2011-07-20 华南理工大学 一种基于自适应预测的无线传感器网络目标跟踪方法
CN102332165B (zh) * 2011-09-15 2013-08-21 中国科学院长春光学精密机械与物理研究所 复杂背景下动目标或弱小目标的实时鲁棒跟踪装置
CN103714556A (zh) * 2014-01-06 2014-04-09 中国科学院自动化研究所 一种基于金字塔表观模型的运动目标跟踪方法
CN108596949B (zh) * 2018-03-23 2020-06-12 云南大学 视频目标跟踪状态分析方法、装置和实现装置

Also Published As

Publication number Publication date
CN110310303A (zh) 2019-10-08

Similar Documents

Publication Publication Date Title
JP3603737B2 (ja) 移動体追尾方法及びその装置
JP4373840B2 (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
CN108876820B (zh) 一种基于均值漂移的遮挡条件下移动目标追踪方法
CN106663325B (zh) 图像处理装置及其图像处理方法
JP2006506726A (ja) テンプレート予測を用いた画像のセグメント化
KR20090006068A (ko) 동영상 시퀀스를 수정하는 방법 및 그 장치
JPWO2007138858A1 (ja) 映像の特殊効果検出装置、特殊効果検出方法、特殊効果検出プログラム及び映像再生装置
CN106327488B (zh) 一种自适应的前景检测方法及其检测装置
JP2008527525A (ja) グラフィカルなオブジェクトを検出するための方法及び電子装置
CN113723190A (zh) 一种面向同步移动目标的多目标跟踪方法
CN109035287B (zh) 前景图像提取方法和装置、运动车辆识别方法和装置
CN110310303B (zh) 图像分析多目标跟踪方法
CN111445497B (zh) 一种基于尺度上下文回归的目标追踪与跟随方法
CN111598928A (zh) 一种基于具有语义评估和区域建议的突变运动目标跟踪方法
Abbott et al. Multiple target tracking with lazy background subtraction and connected components analysis
CN110717934A (zh) 一种基于strcf的抗遮挡目标跟踪方法
CN110728700B (zh) 一种运动目标追踪方法、装置、计算机设备及存储介质
KR101690050B1 (ko) 지능형 영상보안 시스템 및 객체 추적 방법
JP6331761B2 (ja) 判定装置、判定方法及び判定プログラム
CN110378928B (zh) 一种动静匹配的目标检测与跟踪方法
JP2001061152A (ja) 動き検出方法および動き検出装置
US20210174079A1 (en) Method and apparatus for object recognition
WO2020217368A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US8582882B2 (en) Unit for and method of segmentation using average homogeneity
CN106951831B (zh) 一种基于深度摄像机的行人检测跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant