CN113808159A - 一种目标跟踪方法和装置 - Google Patents
一种目标跟踪方法和装置 Download PDFInfo
- Publication number
- CN113808159A CN113808159A CN202110002099.9A CN202110002099A CN113808159A CN 113808159 A CN113808159 A CN 113808159A CN 202110002099 A CN202110002099 A CN 202110002099A CN 113808159 A CN113808159 A CN 113808159A
- Authority
- CN
- China
- Prior art keywords
- image frame
- detection
- target object
- frame
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000001514 detection method Methods 0.000 claims abstract description 231
- 230000003287 optical effect Effects 0.000 claims description 29
- 238000006073 displacement reaction Methods 0.000 claims description 28
- 238000013135 deep learning Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000003796 beauty Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000005111 flow chemistry technique Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种目标跟踪方法和装置,其中方法包括:获取当前需要检测的图像帧k;根据上一图像帧k‑1的检测方式或检测结果,确定所述图像帧k的检测方式,根据所确定的检测方式,对所述图像帧k中的每个目标对象进行检测;其中,当所确定的检测方式为目标检测时,在检测出所述目标对象的检测框之后,检测所述目标对象在相应检测框中的特征角点集合;当所确定的检测方式为跟踪时,根据所述目标对象在所述图像帧k‑1中的特征角点集合和检测框,对所述目标对象进行所述检测。采用本申请,可以降低运算开销、提高跟踪效率。
Description
技术领域
本发明涉及计算机技术,特别是涉及一种目标跟踪方法和装置。
背景技术
随着视频直播快速发展,直播带货已逐渐成为各大电商的发展的重要方向。直播软件的美颜技术能够使主播更为漂亮美丽,对吸引消费者消费有着重要意义,因此,直播美颜技术成为了直播平台的重要需求。然而,大多数主播使用的直播设备通常是智能手机,而且直播时间长,这样,对美颜算法提出了新的挑战,需要在较低能耗的下满足直播美颜的需求。而在现有的美颜方案中,对图像中的人脸检测占据了大量的时间和CPU消耗,因此,对直播中的人脸进行跟踪,以降低人脸检测的次数,成为了重要的需求。
基于深度学习方法进行跟踪是一种常用的目标跟踪方案。该方案利用卷积神经网络,训练学习跟踪目标的相关特征,实现对目标的跟踪。
在实现本发明过程中,发明人发现上述目标跟踪方案存在运算量大、耗时长的问题,具体原因分析如下:
现有的基于深度学习的目标跟踪方案中需要输入先后两帧图像,利用深度学习网络对输入图像的相关性进行分析,而深度学习网络的分析运算量较大,相应地,就会导致整体的跟踪耗时较长。并且,随着图像中人脸数量的增加,其需要跟踪的目标也随之增大,这样,运算量和耗时也随着人脸数量线性增加。因此,当图像中的人脸数量较多时,上述问题更严重。
发明内容
有鉴于此,本发明的主要目的在于提供一种图像跟踪方法和装置,可以降低运算开销、提高跟踪效率。为了达到上述目的,本发明实施例提出的技术方案为:
一种目标跟踪方法,包括:
获取当前需要检测的图像帧k;
根据上一图像帧k-1的检测方式或检测结果,确定所述图像帧k的检测方式,根据所确定的检测方式,对所述图像帧k中的每个目标对象进行检测;
其中,当所确定的检测方式为目标检测时,在检测出所述目标对象的检测框之后,检测所述目标对象在相应检测框中的特征角点集合;
当所确定的检测方式为跟踪时,则将对图像帧k-1检测时所得到的下一帧的检测方式,作为所述图像帧k的检测方式。
较佳地,当所确定的检测方式为跟踪时,对所述图像帧k中的每个目标对象进行检测包括:
根据所述目标对象在所述图像帧k-1的特征角点集合,确定每个所述目标对象在所述图像帧k的特征角点集合;
对于每个所述目标对象n,根据该目标对象n分别在所述图像帧k-1和所述图像帧k的特征角点集合,确定该目标对象n在所述图像帧k的平均位移;按照所述平均位移,对所述目标对象n在所述图像帧k-1的检测框boxk-1 n进行平移,得到该目标对象n在所述图像帧k的检测框boxk n,并判断所述检测框boxk n中的图像是否属于检测目标;
如果所述图像帧k中至少一个所述目标对象在所述图像帧k的检测框中的图像不属于检测目标,则确定下一帧的检测方式为目标检测,否则,确定下一帧的检测方式为跟踪。
较佳地,所述确定所述图像帧k的检测方式包括:
如果图像帧k-1的检测方式为目标检测,则确定对所述图像帧k的检测方式为跟踪;
如果对图像帧k-1的检测方式为跟踪,则根据对图像帧k-1检测时所确定的下一帧的检测方式,得到对所述图像帧k的检测方式。
较佳地,所述检测所述目标对象在相应检测框中的特征角点集合包括:
采用局部二值模式LBP算子作为角点检测算子,检测所述目标对象在相应检测框中的特征角点集合。
较佳地,所述确定每个所述目标对象在所述图像帧k的特征角点集合包括:
采用稀疏光流法,对所述图像帧k-1的特征角点集合中的特征角点,进行光流跟踪,得到图像帧k的特征角点集合;所述图像帧k-1的特征角点集合为所有所述目标对象在所述图像帧k-1的特征角点集合的合集;
对于每个所述目标对象,从所述图像帧k的特征角点集合中,获取该目标对象对应的特征角点,得到该目标对象在所述图像帧k的特征角点集合。
较佳地,所述确定该目标对象n在所述图像帧k的平均位移包括:
按照dn=(Fk n,m-Fk-1 n,m)/M,计算所述目标对象n在所述图像帧k的平均位移dn;
其中,Fk n,m为目标对象n在所述图像帧k的第m个特征角点的坐标,Fk-1 n,m为目标对象n在所述图像帧k-1的第m个特征角点的坐标;M为目标对象n在所述图像帧k的特征角点数量。
本发明实施例提供一种目标跟踪装置,包括:
图像获取模块,用于获取当前需要检测的图像帧k;
检测模块,用于根据上一图像帧k-1的检测方式或检测结果,确定所述图像帧k的检测方式,根据所确定的检测方式,对所述图像帧k中的每个目标对象进行检测;其中,当所确定的检测方式为目标检测时,在检测出所述目标对象的检测框之后,检测所述目标对象在相应检测框中的特征角点集合;当所确定的检测方式为跟踪时,根据所述目标对象在所述图像帧k-1中的特征角点集合和检测框,对所述目标对象进行所述检测。
较佳地,所述检测模块,具体用于当所确定的检测方式为跟踪时,对所述图像帧k中的每个目标对象进行检测,包括:
根据所述目标对象在所述图像帧k-1的特征角点集合,确定每个所述目标对象在所述图像帧k的特征角点集合;
对于每个所述目标对象n,根据该目标对象n分别在所述图像帧k-1和所述图像帧k的特征角点集合,确定该目标对象n在所述图像帧k的平均位移;按照所述平均位移,对所述目标对象n在所述图像帧k-1的检测框boxk-1 n进行平移,得到该目标对象n在所述图像帧k的检测框boxk n,并判断所述检测框boxk n中的图像是否属于检测目标;
如果所述图像帧k中至少一个所述目标对象在所述图像帧k的检测框中的图像不属于检测目标,则确定下一帧的检测方式为目标检测,否则,确定下一帧的检测方式为跟踪。
较佳地,所述检测模块,具体用于确定所述图像帧k的检测方式,包括:
如果图像帧k-1的检测方式为目标检测,则确定对所述图像帧k的检测方式为跟踪;
如果对图像帧k-1的检测方式为跟踪,则将对图像帧k-1检测时所得到的下一帧的检测方式,作为所述图像帧k的检测方式。
较佳地,所述检测模块,具体用于检测所述目标对象在相应检测框中的特征角点集合,包括:
采用局部二值模式LBP算子作为角点检测算子,检测所述目标对象在相应检测框中的特征角点集合。
较佳地,所述检测模块,具体用于确定每个所述目标对象在所述图像帧k的特征角点集合,包括:
采用稀疏光流法,对所述图像帧k-1的特征角点集合中的特征角点,进行光流跟踪,得到图像帧k的特征角点集合;所述图像帧k-1的特征角点集合为所有所述目标对象在所述图像帧k-1的特征角点集合的合集;
对于每个所述目标对象,从所述图像帧k的特征角点集合中,获取该目标对象对应的特征角点,得到该目标对象在所述图像帧k的特征角点集合。
较佳地,所述检测模块,具体用于确定该目标对象n在所述图像帧k的平均位移,包括:
按照dn=(Fk n,m-Fk-1 n,m)/M,计算所述目标对象n在所述图像帧k的平均位移dn;
其中,Fk n,m为目标对象n在所述图像帧k的第m个特征角点的坐标,Fk-1 n,m为目标对象n在所述图像帧k-1的第m个特征角点的坐标;M为目标对象n在所述图像帧k的特征角点数量。
本申请实施例还公开了一种非易失性计算机可读存储介质,所述非易失性计算机可读存储介质存储指令,所述指令在由处理器执行时使得所述处理器执行如前所述的图像跟踪方法的步骤。
本申请实施例还公开了一种电子设备,包括如前所述的非易失性计算机可读存储介质、以及可访问所述非易失性计算机可读存储介质的所述处理器。
综上所述,本发明提出的图像跟踪方法和装置,通过利用角点检测技术,确定图像帧中每个目标对象的特征角点集合,在需要跟踪时,利用目标对象在前一帧图像中的特征角点集合和检测框,即可确定出目标对象在后一帧的检测框。如此,可以利用跟踪,有效减少采用目标检测的次数,因此,能够降低整体的图像处理计算量。并且,由于不需要利用深度学习网络获得帧与帧之前的相关性,因此,相对于现有需要利用深度学习网络进行跟踪的方案,其运算量大幅度降低,有效降低了跟踪运算开销,并提高了跟踪效率。
附图说明
图1为本发明实施例的方法流程示意图;
图2为本发明实施例的装置结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图及具体实施例对本发明作进一步地详细描述。
图1为本发明实施例的方法流程示意图,如图1所示,该实施例实现的目标跟踪方法主要包括:
步骤101、获取当前需要检测的图像帧k。
本步骤中,将从输入的图像帧序列中获取当前需要检测目标对象的图像帧,以便对其中的目标对象进行检测。
在实际应用中,本领域技术人员可根据实际需要设置图像中需要检测的目标,如人脸、动物、植物等。
步骤102、根据上一图像帧k-1的检测方式或检测结果,确定所述图像帧k的检测方式,根据所确定的检测方式,对所述图像帧k中的每个目标对象进行检测;其中,当所确定的检测方式为目标检测时,在检测出所述目标对象的检测框之后,检测所述目标对象在相应检测框中的特征角点集合;当所确定的检测方式为跟踪时,根据所述目标对象在所述图像帧k-1中的特征角点集合和检测框,对所述目标对象进行所述检测。
本步骤中,将利用角点检测技术,来确定图像帧中每个目标对象的特征角点集合,在需要跟踪时,利用目标对象在前一帧图像中的特征角点集合,对目标对象在前一帧图像中的检测框进行平移,得到目标对象在当前帧的检测框。如此,相对于现有需要利用深度学习网络进行跟踪的方案,大幅度降低了简化了跟踪运算复杂度,从而有效降低了跟踪运算量、提高了跟踪效率。这样,即使图像中目标对象数量较多,也不会导致跟踪运算开销大、运行效率低,进而影响跟踪方案适用性的问题。因此,适用于手机端侧。尤其当进行人脸检测时,在人脸数量多的时候,也能满足帧率25fps以上的处理速率要求。
这里需要说明的是,角点检测是计算机视觉系统中用来获取图像特征的一种方法,角点通常被定义为两条边的交点。应用于角点检测的算子很多,如Haar(用于物体识别的一种数字图像特征)、局部二值模式(Local binary pattern,LBP)、Hog等特征提取器。
为了提高跟踪效率,减少跟踪运算量,以使本发明可以更好地适用于移动终端中,在一实施方式中,可以采用LBP算子作为角点检测算子,检测所述目标对象在相应检测框中的特征角点集合。
在一实施方式中,上述步骤102中,当所确定的检测方式为跟踪时,具体可以采用下述方法对图像帧k中的每个目标对象进行检测:
步骤a1、根据所述目标对象在所述图像帧k-1的特征角点集合,确定每个所述目标对象在所述图像帧k的特征角点集合。
本步骤中,用于基于前一帧图像中目标对象的特征角点集合,来确定当前帧的目标对象的特征角点集合。
较佳地,为了更准确、高效地确定出每个目标对象在当前帧k的特征角点集合,在一实施方式中,可以采用稀疏光流(Lucas–Kanade,LK)方法,确定每个所述目标对象在所述图像帧k的特征角点集合:
采用稀疏光流法,对所述图像帧k-1的特征角点集合中的特征角点,进行光流跟踪,得到图像帧k的特征角点集合;所述图像帧k-1的特征角点集合为所有所述目标对象在所述图像帧k-1的特征角点集合的合集;
对于每个所述目标对象,从所述图像帧k的特征角点集合中,获取该目标对象对应的特征角点,得到该目标对象在所述图像帧k的特征角点集合。
上述方法中,基于图像帧k-1中所有所述目标对象在所述图像帧k-1的特征角点集合的合集(即图像帧k-1的特征角点集合),进行光流跟踪,如此,只需要进行一次光流跟踪,即可得到图像帧k中所有目标对象的特征角点集合,因此,可以以最小的光流处理开销,获得每个目标对象在图像帧k的特征角点集合。
这里需要说明的是,光流法是利用图像序列中像素在时间域上的变化以及相邻帧之间的相关性,来找到上一帧跟当前帧之间存在的对应关系,从而计算出相邻帧之间物体的运动信息的一种方法。
常用的光流法分为稀疏光流和稠密光流。LK光流法有三个假设条件:
(1).亮度恒定:一个像素点随着时间的变化,其亮度值(像素灰度值)是恒定不变的。这是光流法的基本设定。所有光流法都必须满足。
(2).小运动:时间的变化不会引起位置的剧烈变化。这样才能利用相邻帧之间的位置变化引起的灰度值变化,去求取灰度对位置的偏导数。所有光流法必须满足。
(3).空间一致:即前一帧中相邻像素点在后一帧中也是相邻的。这是LK光流法独有的假定。因为为了求取x,y方向的速度,需要建立多个方程联立求解。而空间一致假设就可以利用邻域n个像素点来建立n个方程。
视频帧序列中帧与帧之间的图像差别很小,因此,满足光流算法的假设条件,在第k帧时对k-1帧的特征角点进行光流跟踪,容易准确地得到第k帧的特征点集合。
步骤a2、对于每个所述目标对象n,根据该目标对象n分别在所述图像帧k-1和所述图像帧k的特征角点集合,确定该目标对象n在所述图像帧k的平均位移;按照所述平均位移,对所述目标对象n在所述图像帧k-1的检测框boxk-1 n进行平移,得到该目标对象n在所述图像帧k的检测框boxk n,并判断所述检测框boxk n中的图像是否属于检测目标。
本步骤中,通过计算帧与帧之间目标对象检测框内角点特征的平均位移,对检测框进行相应平移,来实现检测框的跟踪。
在一实施方式中,可以采用下述方法确定目标对象n在图像帧k的平均位移:
按照dn=(Fk n,m-Fk-1 n,m)/M,计算所述目标对象n在所述图像帧k的平均位移dn;
其中,Fk n,m为目标对象n在所述图像帧k的第m个特征角点的坐标,Fk-1 n,m为目标对象n在所述图像帧k-1的第m个特征角点的坐标;M为目标对象n在所述图像帧k的特征角点数量。
步骤a3、如果所述图像帧k中至少一个所述目标对象在所述图像帧k的检测框中的图像不属于检测目标,则确定下一帧的检测方式为目标检测,否则,确定下一帧的检测方式为跟踪。
这里需要说明的是,利用上述步骤a1、a2可以得到跟踪后的检测框boxk n,但是,在实际应用中,也可能出现角点或光流检测出现点漂移的情况,此时,检测框移动的方向和距离可能出现问题。因此,通过步骤a3,对平移后的检测框内的图像进行分类判断,以判断框内的图像是否为目标对象(例如是否为人脸),如果是,则说明当前跟踪结果准确,可以在下一帧继续采用跟踪的方式,确定目标对象的检测框内,否则,如果不是目标对象,则说明当前帧的跟踪结果不准确,在下一帧需要重新进行目标检测。上述步骤a3中为了提高跟踪效率和准确性,只要发生当前某个目标对象的检测结果不准确,即确定下一帧图像的所有目标对象统一重新采用目标检测的方式。
在一实施方式中,为了尽可能地采用跟踪方式,对图像中的目标对象进行检测,以减少采用目标检测的次数,进而降低图像处理开销,步骤102中具体可以采用下述方法确定所述图像帧k的检测方式:
如果图像帧k-1的检测方式为目标检测,则确定对所述图像帧k的检测方式为跟踪;如果对图像帧k-1的检测方式为跟踪,则将对图像帧k-1检测时所得到的下一帧的检测方式,作为所述图像帧k的检测方式。
这里,当目标对象为人脸时,上述目标检测具体为人脸检测,具体实现时,可以采用现有的人脸检测方案,在此不再赘述。
通过上述实施例可知,上述方法实施例中,通过利用角点检测技术,确定图像帧序列每帧图像中的每个目标对象的特征角点集合,在需要跟踪时,利用目标对象在前后两帧图像中的特征角点集合,计算目标对象在前后两帧图像中发生的平均位移,基于平均位移对目标对象在前一帧的检测框进行平移,得到目标对象在后一帧的检测框,完成对目标对象的检测。如此,由于仅需要基于前后两帧图像的特征角点集合,计算目标对象在前后两帧图像中的位移,利用位移对前一帧图像的检测框进行平移,实现对目标对像的跟踪,如此,相对于深度学习网络的运算开销,运算量开销很小,因此,可以大幅度降低跟踪运算开销、进而大幅度提高了跟踪效率。
与上述方法实施例相对应,本发明实施例还提供了一种目标跟踪装置,如图2所示包括:
图像获取模块,用于获取当前需要检测的图像帧k;
检测模块,用于根据上一图像帧k-1的检测方式或检测结果,确定所述图像帧k的检测方式,根据所确定的检测方式,对所述图像帧k中的每个目标对象进行检测;其中,当所确定的检测方式为目标检测时,在检测出所述目标对象的检测框之后,检测所述目标对象在相应检测框中的特征角点集合;当所确定的检测方式为跟踪时,根据所述目标对象在所述图像帧k-1中的特征角点集合和检测框,对所述目标对象进行所述检测。
较佳地,所述检测模块,具体用于当所确定的检测方式为跟踪时,对所述图像帧k中的每个目标对象进行检测,包括:
根据所述目标对象在所述图像帧k-1的特征角点集合,确定每个所述目标对象在所述图像帧k的特征角点集合;
对于每个所述目标对象n,根据该目标对象n分别在所述图像帧k-1和所述图像帧k的特征角点集合,确定该目标对象n在所述图像帧k的平均位移;按照所述平均位移,对所述目标对象n在所述图像帧k-1的检测框boxk-1 n进行平移,得到该目标对象n在所述图像帧k的检测框boxk n,并判断所述检测框boxk n中的图像是否属于检测目标;
如果所述图像帧k中至少一个所述目标对象在所述图像帧k的检测框中的图像不属于检测目标,则确定下一帧的检测方式为目标检测,否则,确定下一帧的检测方式为跟踪。
较佳地,所述检测模块,具体用于确定所述图像帧k的检测方式,包括:
如果图像帧k-1的检测方式为目标检测,则确定对所述图像帧k的检测方式为跟踪;
如果对图像帧k-1的检测方式为跟踪,则将对图像帧k-1检测时所得到的下一帧的检测方式,作为所述图像帧k的检测方式。
较佳地,所述检测模块,具体用于检测所述目标对象在相应检测框中的特征角点集合,包括:
采用LBP算子作为角点检测算子,检测所述目标对象在相应检测框中的特征角点集合。
较佳地,所述检测模块,具体用于确定每个所述目标对象在所述图像帧k的特征角点集合,包括:
采用稀疏光流法,对所述图像帧k-1的特征角点集合中的特征角点,进行光流跟踪,得到图像帧k的特征角点集合;所述图像帧k-1的特征角点集合为所有所述目标对象在所述图像帧k-1的特征角点集合的合集;
对于每个所述目标对象,从所述图像帧k的特征角点集合中,获取该目标对象对应的特征角点,得到该目标对象在所述图像帧k的特征角点集合。
较佳地,所述检测模块,具体用于确定该目标对象n在所述图像帧k的平均位移,包括:
按照dn=(Fk n,m-Fk-1 n,m)/M,计算所述目标对象n在所述图像帧k的平均位移dn;
其中,Fk n,m为目标对象n在所述图像帧k的第m个特征角点的坐标,Fk-1 n,m为目标对象n在所述图像帧k-1的第m个特征角点的坐标;M为目标对象n在所述图像帧k的特征角点数量。
本发明实施例还公开了一种目标跟踪设备,该目标跟踪设备包括:处理器和存储器;其中存储器中存储有可被处理器执行的应用程序,用于使得处理器执行如上任一项所述的目标跟踪方法。
其中,存储器具体可以实施为电可擦可编程只读存储器(EEPROM)、快闪存储器(Flash memory)、可编程程序只读存储器(PROM)等多种存储介质。处理器可以实施为包括一或多个中央处理器或一或多个现场可编程门阵列,其中现场可编程门阵列集成一或多个中央处理器核。具体地,中央处理器或中央处理器核可以实施为CPU或MCU。
需要说明的是,上述各流程和各结构图中不是所有的步骤和模块都是必须的,可以根据实际的需要忽略某些步骤或模块。各步骤的执行顺序不是固定的,可以根据需要进行调整。各模块的划分仅仅是为了便于描述采用的功能上的划分,实际实现时,一个模块可以分由多个模块实现,多个模块的功能也可以由同一个模块实现,这些模块可以位于同一个设备中,也可以位于不同的设备中。
各实施方式中的硬件模块可以以机械方式或电子方式实现。例如,一个硬件模块可以包括专门设计的永久性电路或逻辑器件(如专用处理器,如FPGA或ASIC)用于完成特定的操作。硬件模块也可以包括由软件临时配置的可编程逻辑器件或电路(如包括通用处理器或其它可编程处理器)用于执行特定操作。至于具体采用机械方式,或是采用专用的永久性电路,或是采用临时配置的电路(如由软件进行配置)来实现硬件模块,可以根据成本和时间上的考虑来决定。
本发明实施例还提供了一种机器可读的存储介质,存储用于使一机器执行如本申请所述方法的指令。具体地,可以提供配有存储介质的系统或者装置,在该存储介质上存储着实现上述实施例中任一实施方式的功能的软件程序代码,且使该系统或者装置的计算机(或CPU或MPU)读出并执行存储在存储介质中的程序代码。此外,还可以通过基于程序代码的指令使计算机上操作的操作系统等来完成部分或者全部的实际操作。还可以将从存储介质读出的程序代码写到插入计算机内的扩展板中所设置的存储器中或者写到与计算机相连接的扩展单元中设置的存储器中,随后基于程序代码的指令使安装在扩展板或者扩展单元上的CPU等来执行部分和全部实际操作,从而实现上述实施方式中任一实施方式的功能。
用于提供程序代码的存储介质实施方式包括软盘、硬盘、磁光盘、光盘(如CD-ROM、CD-R、CD-RW、DVD-ROM、DVD-RAM、DVD-RW、DVD+RW)、磁带、非易失性存储卡和ROM。可选择地,可以由通信网络从服务器计算机或云上下载程序代码。
在本文中,“示意性”表示“充当实例、例子或说明”,不应将在本文中被描述为“示意性”的任何图示、实施方式解释为一种更优选的或更具优点的技术方案。为使图面简洁,各图中的只示意性地表示出了与本发明相关部分,而并不代表其作为产品的实际结构。另外,以使图面简洁便于理解,在有些图中具有相同结构或功能的部件,仅示意性地绘示了其中的一个,或仅标出了其中的一个。在本文中,“一个”并不表示将本发明相关部分的数量限制为“仅此一个”,并且“一个”不表示排除本发明相关部分的数量“多于一个”的情形。在本文中,“上”、“下”、“前”、“后”、“左”、“右”、“内”、“外”等仅用于表示相关部分之间的相对位置关系,而非限定这些相关部分的绝对位置。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (12)
1.一种目标跟踪方法,其特征在于,包括:
获取当前需要检测的图像帧k;
根据上一图像帧k-1的检测方式或检测结果,确定所述图像帧k的检测方式,根据所确定的检测方式,对所述图像帧k中的每个目标对象进行检测;
其中,当所确定的检测方式为目标检测时,在检测出所述目标对象的检测框之后,检测所述目标对象在相应检测框中的特征角点集合;
当所确定的检测方式为跟踪时,根据所述目标对象在所述图像帧k-1中的特征角点集合和检测框,对所述目标对象进行所述检测。
2.根据权利要求1所述的方法,其特征在于,当所确定的检测方式为跟踪时,对所述图像帧k中的每个目标对象进行检测包括:
根据所述目标对象在所述图像帧k-1的特征角点集合,确定每个所述目标对象在所述图像帧k的特征角点集合;
对于每个所述目标对象n,根据该目标对象n分别在所述图像帧k-1和所述图像帧k的特征角点集合,确定该目标对象n在所述图像帧k的平均位移;按照所述平均位移,对所述目标对象n在所述图像帧k-1的检测框boxk-1 n进行平移,得到该目标对象n在所述图像帧k的检测框boxk n,并判断所述检测框boxk n中的图像是否属于检测目标;
如果所述图像帧k中至少一个所述目标对象在所述图像帧k的检测框中的图像不属于检测目标,则确定下一帧的检测方式为目标检测,否则,确定下一帧的检测方式为跟踪。
3.根据权利要求1所述的方法,其特征在于,所述确定所述图像帧k的检测方式包括:
如果图像帧k-1的检测方式为目标检测,则确定对所述图像帧k的检测方式为跟踪;
如果对图像帧k-1的检测方式为跟踪,则将对图像帧k-1检测时所得到的下一帧的检测方式,作为所述图像帧k的检测方式。
4.根据权利要求1所述的方法,其特征在于,所述检测所述目标对象在相应检测框中的特征角点集合包括:
采用局部二值模式LBP算子作为角点检测算子,检测所述目标对象在相应检测框中的特征角点集合。
5.根据权利要求2所述的方法,其特征在于,所述确定每个所述目标对象在所述图像帧k的特征角点集合包括:
采用稀疏光流法,对所述图像帧k-1的特征角点集合中的特征角点,进行光流跟踪,得到图像帧k的特征角点集合;所述图像帧k-1的特征角点集合为所有所述目标对象在所述图像帧k-1的特征角点集合的合集;
对于每个所述目标对象,从所述图像帧k的特征角点集合中,获取该目标对象对应的特征角点,得到该目标对象在所述图像帧k的特征角点集合。
6.根据权利要求2所述的方法,其特征在于,所述确定该目标对象n在所述图像帧k的平均位移包括:
按照dn=(Fk n,m-Fk-1 n,m)/M,计算所述目标对象n在所述图像帧k的平均位移dn;
其中,Fk n,m为目标对象n在所述图像帧k的第m个特征角点的坐标,Fk-1 n,m为目标对象n在所述图像帧k-1的第m个特征角点的坐标;M为目标对象n在所述图像帧k的特征角点数量。
7.一种目标跟踪装置,其特征在于,包括:
图像获取模块,用于获取当前需要检测的图像帧k;
检测模块,用于根据上一图像帧k-1的检测方式或检测结果,确定所述图像帧k的检测方式,根据所确定的检测方式,对所述图像帧k中的每个目标对象进行检测;其中,当所确定的检测方式为目标检测时,在检测出所述目标对象的检测框之后,检测所述目标对象在相应检测框中的特征角点集合;当所确定的检测方式为跟踪时,根据所述目标对象在所述图像帧k-1中的特征角点集合和检测框,对所述目标对象进行所述检测。
8.根据权利要求7所述的装置,其特征在于,所述检测模块,具体用于当所确定的检测方式为跟踪时,对所述图像帧k中的每个目标对象进行检测,包括:
根据所述目标对象在所述图像帧k-1的特征角点集合,确定每个所述目标对象在所述图像帧k的特征角点集合;
对于每个所述目标对象n,根据该目标对象n分别在所述图像帧k-1和所述图像帧k的特征角点集合,确定该目标对象n在所述图像帧k的平均位移;按照所述平均位移,对所述目标对象n在所述图像帧k-1的检测框boxk-1 n进行平移,得到该目标对象n在所述图像帧k的检测框boxk n,并判断所述检测框boxk n中的图像是否属于检测目标;
如果所述图像帧k中至少一个所述目标对象在所述图像帧k的检测框中的图像不属于检测目标,则确定下一帧的检测方式为目标检测,否则,确定下一帧的检测方式为跟踪。
9.根据权利要求7所述的装置,其特征在于,所述检测模块,具体用于确定所述图像帧k的检测方式,包括:
如果图像帧k-1的检测方式为目标检测,则确定对所述图像帧k的检测方式为跟踪;
如果对图像帧k-1的检测方式为跟踪,则将对图像帧k-1检测时所得到的下一帧的检测方式,作为所述图像帧k的检测方式。
10.根据权利要求8所述的装置,其特征在于,所述检测模块,具体用于确定每个所述目标对象在所述图像帧k的特征角点集合,包括:
采用稀疏光流法,对所述图像帧k-1的特征角点集合中的特征角点,进行光流跟踪,得到图像帧k的特征角点集合;所述图像帧k-1的特征角点集合为所有所述目标对象在所述图像帧k-1的特征角点集合的合集;
对于每个所述目标对象,从所述图像帧k的特征角点集合中,获取该目标对象对应的特征角点,得到该目标对象在所述图像帧k的特征角点集合。
11.一种非易失性计算机可读存储介质,所述非易失性计算机可读存储介质存储指令,其特征在于,所述指令在由处理器执行时使得所述处理器执行如权利要求1至6中任一项所述的目标跟踪方法的步骤。
12.一种电子设备,其特征在于,包括如权利要求11所述的非易失性计算机可读存储介质、以及可访问所述非易失性计算机可读存储介质的所述处理器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110002099.9A CN113808159A (zh) | 2021-01-04 | 2021-01-04 | 一种目标跟踪方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110002099.9A CN113808159A (zh) | 2021-01-04 | 2021-01-04 | 一种目标跟踪方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113808159A true CN113808159A (zh) | 2021-12-17 |
Family
ID=78943621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110002099.9A Pending CN113808159A (zh) | 2021-01-04 | 2021-01-04 | 一种目标跟踪方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113808159A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140205141A1 (en) * | 2013-01-22 | 2014-07-24 | Qualcomm Incorporated | Systems and methods for tracking and detecting a target object |
KR101837407B1 (ko) * | 2017-11-03 | 2018-03-12 | 국방과학연구소 | 영상 기반 표적 추적 장치 및 추적 방법 |
KR101840167B1 (ko) * | 2017-07-19 | 2018-03-20 | 건국대학교 산학협력단 | 클라우드 상에서 멀티 카메라 간의 핸드오버를 통한 관심 객체의 연계추적 장치 및 그 방법 |
CN108269269A (zh) * | 2016-12-30 | 2018-07-10 | 纳恩博(北京)科技有限公司 | 目标跟踪方法和装置 |
CN109509212A (zh) * | 2018-09-30 | 2019-03-22 | 惠州市德赛西威汽车电子股份有限公司 | 目标跟踪处理方法、电子设备 |
CN110853076A (zh) * | 2019-11-08 | 2020-02-28 | 重庆市亿飞智联科技有限公司 | 一种目标跟踪方法、装置、设备及存储介质 |
CN110991287A (zh) * | 2019-11-23 | 2020-04-10 | 深圳市恩钛控股有限公司 | 一种实时视频流人脸检测跟踪方法及检测跟踪系统 |
-
2021
- 2021-01-04 CN CN202110002099.9A patent/CN113808159A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140205141A1 (en) * | 2013-01-22 | 2014-07-24 | Qualcomm Incorporated | Systems and methods for tracking and detecting a target object |
CN108269269A (zh) * | 2016-12-30 | 2018-07-10 | 纳恩博(北京)科技有限公司 | 目标跟踪方法和装置 |
KR101840167B1 (ko) * | 2017-07-19 | 2018-03-20 | 건국대학교 산학협력단 | 클라우드 상에서 멀티 카메라 간의 핸드오버를 통한 관심 객체의 연계추적 장치 및 그 방법 |
KR101837407B1 (ko) * | 2017-11-03 | 2018-03-12 | 국방과학연구소 | 영상 기반 표적 추적 장치 및 추적 방법 |
CN109509212A (zh) * | 2018-09-30 | 2019-03-22 | 惠州市德赛西威汽车电子股份有限公司 | 目标跟踪处理方法、电子设备 |
CN110853076A (zh) * | 2019-11-08 | 2020-02-28 | 重庆市亿飞智联科技有限公司 | 一种目标跟踪方法、装置、设备及存储介质 |
CN110991287A (zh) * | 2019-11-23 | 2020-04-10 | 深圳市恩钛控股有限公司 | 一种实时视频流人脸检测跟踪方法及检测跟踪系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10650531B2 (en) | Lidar noise removal using image pixel clusterings | |
EP3542304B1 (en) | System and method for object tracking | |
EP2570993B1 (en) | Egomotion estimation system and method | |
JP4467838B2 (ja) | 画像認識装置および画像認識方法 | |
Zhou et al. | Moving object detection and segmentation in urban environments from a moving platform | |
US20120269384A1 (en) | Object Detection in Depth Images | |
Zhou et al. | Learning saliency propagation for semi-supervised instance segmentation | |
CN112947419B (zh) | 避障方法、装置及设备 | |
EP3531340B1 (en) | Human body tracing method, apparatus and device, and storage medium | |
US20180005039A1 (en) | Method and apparatus for generating an initial superpixel label map for an image | |
CN111798487A (zh) | 目标跟踪方法、装置和计算机可读存储介质 | |
CN113490965A (zh) | 图像跟踪处理方法、装置、计算机设备和存储介质 | |
CN109636828A (zh) | 基于视频图像的物体跟踪方法及装置 | |
CN111382637A (zh) | 行人检测跟踪方法、装置、终端设备及介质 | |
CN111507340B (zh) | 一种基于三维点云数据的目标点云数据提取方法 | |
CN109523573A (zh) | 目标对象的跟踪方法和装置 | |
CN114639159A (zh) | 移动行人检测方法、电子设备及机器人 | |
Chen et al. | Stingray detection of aerial images with region-based convolution neural network | |
CN111695404A (zh) | 行人跌倒检测方法、装置、电子设备及存储介质 | |
KR101595334B1 (ko) | 농장에서의 움직임 개체의 이동 궤적 트래킹 방법 및 장치 | |
CN113808159A (zh) | 一种目标跟踪方法和装置 | |
CN116188535A (zh) | 基于光流估计的视频跟踪方法、装置、设备及存储介质 | |
CN113033551B (zh) | 对象检测的方法、装置、设备和存储介质 | |
CN112819859B (zh) | 一种应用于智慧安防的多目标跟踪方法及装置 | |
CN113516685B (zh) | 目标跟踪方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |