CN110223320A - 物体检测跟踪方法和检测跟踪装置 - Google Patents

物体检测跟踪方法和检测跟踪装置 Download PDF

Info

Publication number
CN110223320A
CN110223320A CN201910381582.5A CN201910381582A CN110223320A CN 110223320 A CN110223320 A CN 110223320A CN 201910381582 A CN201910381582 A CN 201910381582A CN 110223320 A CN110223320 A CN 110223320A
Authority
CN
China
Prior art keywords
target object
tracking
detection
object detection
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910381582.5A
Other languages
English (en)
Other versions
CN110223320B (zh
Inventor
高原
沈辉
钟东宏
刘霄
文石磊
丁二锐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201910381582.5A priority Critical patent/CN110223320B/zh
Publication of CN110223320A publication Critical patent/CN110223320A/zh
Application granted granted Critical
Publication of CN110223320B publication Critical patent/CN110223320B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像处理技术领域,公开了一种物体检测跟踪方法和物体检测跟踪装置,所述物体检测跟踪方法包括:获取需要检测和跟踪的图像;使用预先构建的物体检测模型,从所述图像中获取目标物体;以及使用预先构建的物体跟踪模型,对所述目标物体进行跟踪,其中,所述物体跟踪模型的处理速度大于所述物体检测模型的处理速度。通过上述技术方案,本发明处理速度不同的两个模型分别进行物体检测和物体跟踪,物体跟踪模型的处理速度大于物体检测模型的速度,以此实现对指定的单个或多个目标的精准检测及快速跟踪。

Description

物体检测跟踪方法和检测跟踪装置
技术领域
本发明涉及图像处理技术领域,具体地涉及一种物体检测跟踪方法和检测跟踪装置。
背景技术
在移动互联网时代,手机、PAD等多种移动设备成为人们生活中必不可少的物品。得益于摩尔定理,移动端的处理器在近些年计算能力有着大幅的提升,这使得将深度学习算法部署在移动端设备上进行推理变得越来越可行。如现在比较流行的小视频APP,集成了人像分割、人脸检测、手势识别等多个深度学习算法,使APP的可玩性大大提高。其中人脸检测、手势识别等算法都使用到了物体检测及跟踪技术,是诸多深度学习方法中的基础技术。然而,虽然深度学习的识别精度远超传统的视觉算法,但在计算复杂度上通常也是传统算法的数倍,因此,在移动端部署深度学习算法仍存在着极大挑战性。
现有技术中主要通过以下方案来提高深度学习在图像处理过程中物体检测跟踪的速度:1、使用检测器逐帧进行检测得到目标物体的边界框,通过比较帧间框的位置来对物体进行跟踪;2、先使用检测器获得目标物体的边界框,然后通过相关滤波算法来对物体进行跟踪。但是这两种方案都会存在物体跟踪的速度较慢的问题,以及物体在画面中的大小发生的变化较大时,物体跟踪会失效的问题。
发明内容
本发明的目的是为了克服现有技术存在的物体跟踪的速度较慢,以及物体在画面中的大小发生的变化较大时,物体跟踪会失效的问题,提供一种物体检测跟踪方法和物体检测跟踪装置。
为了实现上述目的,本发明一方面提供一种物体检测跟踪方法,所述物体检测跟踪方法包括:获取需要检测和跟踪的图像;使用预先构建的物体检测模型,从所述图像中获取目标物体;以及使用预先构建的物体跟踪模型,对所述目标物体进行跟踪,其中,所述物体跟踪模型的处理速度大于所述物体检测模型的处理速度。
优选的,所述从所述图像中获取目标物体包括:判断所述图像是否为关键帧图像;在所述图像为关键帧图像时,使用预先构建的物体检测模型,从所述图像中获取一个或多个目标物体;以及截取所述目标物体的边界框,并将所述目标物体和所述目标物体的所述边界框存放至目标物体列表中。
优选的,述将所述目标物体存放至目标物体列表中包括:在检测到每一目标物体时,与之前存储的所述目标物体列表中的所述目标物体进行一一匹配;以及计算所检测到的所述目标物体与已存储的所述目标物体列表中的所述目标物体的交并比,并在所述交并比大于设定阈值时,判定所检测到的所述目标物体为所述目标物体列表中的所述目标物体,以及在所述交并比小于或等于所述设定阈值时,判定所检测到的所述目标物体为新的目标物体,并将所述目标物体添加至所述目标物体列表中。
优选的,所述对所述目标物体进行跟踪包括:将所述边界框按指定比例放大;以及根据所放大后的所述边界框截取所述图像的原图,使用预先构建的物体跟踪模型,对所述原图中的所述目标物体进行跟踪。
优选的,所述物体检测模型和所述物体跟踪模型分别为采用以下算法中的一者预先构建的模型:SSD算法、Fast RCNN算法、Faster RCNN算法。
优选的,所述物体检测模型和所述物体跟踪模型的处理速度与以下因素中的至少一者相关联:计算量、输入分辨率。
相应地,本发明实施例还提供一种物体检测跟踪装置,所述物体检测跟踪装置包括:获取模块,用于获取需要检测和跟踪的图像;检测模块,用于使用预先构建的物体检测模型,从所述图像中获取目标物体;以及跟踪模块,用于使用预先构建的物体跟踪模型,对所述目标物体进行跟踪,其中,所述物体跟踪模型的处理速度大于所述物体检测模型的处理速度。
优选的,所述检测模块包括:判断子模块,用于判断所述图像是否为关键帧图像;识别子模块,用于在所述图像为关键帧图像时,使用预先构建的物体检测模型,从所述图像中获取一个或多个目标物体;以及存储子模块,用于截取所述目标物体的边界框,并将所述目标物体和所述目标物体的所述边界框存放至目标物体列表中。
优选的,所述检测模块包括:比较子模块,用于在检测到每一目标物体时,与之前存储的所述目标物体列表中的所述目标物体进行一一匹配;以及确认子模块,用于计算所检测到的所述目标物体与已存储的所述目标物体列表中的所述目标物体的交并比,并在所述交并比大于设定阈值时,判定所检测到的所述目标物体为所述目标物体列表中的所述目标物体,以及在所述交并比小于或等于所述设定阈值时,判定所检测到的所述目标物体为新的目标物体,并将所述目标物体添加至所述目标物体列表中。
优选的,所述跟踪模块包括:边框子模块,用于将所述边界框按指定比例放大;以及跟踪子模块,用于根据所放大后的所述边界框截取所述图像的原图,使用预先构建的物体跟踪模型,对所述目标物体进行跟踪。
优选的,所述检测模块和所述跟踪模块分别采用以下算法中的一者:SSD算法、Fast RCNN算法、Faster RCNN算法。
优选的,所述物体检测模型和所述物体跟踪模型的处理速度与以下因素中的至少一者相关联:计算量、输入分辨率。
相应地,本发明实施例还提供一种机器可读存储介质,该机器可读存储介质上存储有指令,该指令用于使得机器执行上述物体检测跟踪方法。
相应地,本发明实施例还提供一种处理器,用于运行程序,其中,所述程序被运行时用于执行上述物体检测跟踪方法。
通过上述技术方案,本发明处理速度不同的两个模型分别进行物体检测和物体跟踪,物体跟踪模型的处理速度大于物体检测模型的速度,以此实现对指定的单个或多个目标的精准检测及快速跟踪。
本发明实施例的其它特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
附图是用来提供对本发明实施例的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本发明实施例,但并不构成对本发明实施例的限制。在附图中:
图1是本发明实施例提供的物体检测跟踪方法的流程图;
图2是本发明实施例提供的物体检测跟踪装置的框图。
附图标记说明
1、获取模块 2、检测模块 3、跟踪模块
具体实施方式
以下结合附图对本发明的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本发明,并不用于限制本发明。
图1是本发明实施例提供的物体检测跟踪方法的流程图,如图1所示,可以包括如下步骤:
S100、获取需要检测和跟踪的图像。
优选的,在视频图照片拍摄过程中,从摄像头中读取到多帧图像作为需要检测和跟踪的图像。
需要说明的是,本发明的物体检测跟踪方法主要应用于利用移动端(例如手机、PAD等移动终端设备)进行图像和视频拍摄的过程中,但是也可以应用于其他适用的场景,例如专业拍摄设备(例如摄像机等),本发明对此不作限定。
S200、从图像中获取目标物体。
优选的,在获取到需要检测和跟踪的图像后,首先判断该图像是否为关键帧图像,其中关键帧图像可以根据实际情况定义,例如定义每隔10帧认为该帧图像为关键帧图像,此处关键帧图像的定义,主要根据物体检测精确度、图像分辨率大小等要求来确定。
具体来讲,当从摄像头中读取到一帧图像时,首先要确定该帧图像是否为关键帧。物体检测模型选择精度较高的检测模型,因为一般情况下检测精度较高的检测模型计算量较大、输入分辨率较高,相应的,其处理速度会比较慢,因此,本发明中选择丢弃大多数的帧图像,而只针对根据实际需求设定的关键帧图像进行推理检测过程。
其次,在确定所获取到的图像为关键帧图像时,使用预先构建的物体检测模型,从该图像中获取一个或多个目标物体,截取目标物体的边界框,并将目标物体和目标物体的所述边界框存放至目标物体列表中。
其中,物体检测模型为采用以下算法中的一者预先构建的模型:SSD算法、FastRCNN算法、Faster RCNN算法。以上三种算法都是卷积神经网络技术中的算法,具体采用哪种算法来构建物体检测模型和物体跟踪模型,可以根据物体检测跟踪的实际需求而定,本发明对此不作限定。在本发明的优选实施例中,物体检测模型为采用Fast RCNN算法预先构建的物体检测模型。
举例说明,在某次拍摄过程中,需要获取图像中的人脸、苹果、香蕉,那么在确定当前获取到的图像为关键帧图像时,使用预先构建的物体检测模型,自动从该图像中识别出图像中的人脸、苹果、香蕉作为目标物体,并将目标物体和目标物体的边界框存放至目标物体列表中。
进一步的,在检测到每一目标物体时,与之前存储的目标物体列表中的目标物体进行一一匹配,并计算所检测到的所述目标物体与已存储的目标物体列表中的目标物体的交并比。在交并比大于设定阈值时,判定所检测到的目标物体为目标物体列表中已有的目标物体,在交并比小于或等于设定阈值时,判定所检测到的目标物体为新的目标物体,并将所检测到的新的目标物体添加至目标物体列表中。
具体来讲,当检测到目标物体后,需要将从关键帧图像中检测到的所有目标物体以及目标物体的边界框都存放到一个目标物体列表中备用。如果在当前关键帧图像之前,已经根据其他关键帧图像中获取到的目标物体形成目标物体列表,则需要将当前从关键帧图像中获取到的目标物体的边界框与目标物体列表中的目标物体边界框进行一一匹配。匹配的过程即为计算交并比IoU(Intersection-over-Union,交并比,是产生的候选框与原标记框的交叠率,即它们的交集与并集的比值,最理想情况是完全重叠,即交并比为1)的过程。如果所检测到的目标物体边界框与之前存储的目标物体列表中的某一个边界框交并比大于设定阈值,则认为两个边界框是同一个目标物体的边界框,否则所检测到的目标物体为新的目标物体,需要将该目标物体和其边界框加入到目标物体列表中。
举例说明,在某次拍摄过程中,需要检测并跟踪图像中的人脸,而每一帧图像中出现的人脸的个数可能会有所不同,例如在开始拍摄的49帧图像中有两个人脸存在,从第50帧图像开始,有三个人出现在摄像头下,图像中出现了三个人脸。以每10帧图像中的第一帧图像为关键帧图像为例,并假设前49帧图像中的两个确定目标物体-人脸,在第50帧图像中出现新的目标物体-第三个人脸。则在前4个关键帧图像中所获取到的目标物体均为两个,在获取到第51帧图像时,首先会根据此处对关键帧图像的定义,判定第51帧图像为关键帧图像,从该图像中获取目标物体,并将从该图像中获取到的目标物体的边界框和与之前存储的目标物体列表中的目标物体的边界框进行一一匹配,将所检测到的第三个目标物体存储至目标物体列表中。
S300、对目标物体进行跟踪
优选的,使用预先构建的物体跟踪模型,对目标物体进行跟踪。其中,物体跟踪模型为采用以下算法中的一者预先构建的模型:SSD算法、Fast RCNN算法、Faster RCNN算法。以上三种算法都是卷积神经网络技术中的算法,具体采用哪种算法来构建物体检测模型和物体跟踪模型,可以根据物体检测跟踪的实际需求而定,本发明对此不作限定。
需要说明的是,物体检测模型和物体跟踪模型的处理速度主要与以下因素中的一者或多者相关:计算量、输入分辨率。计算量较大,相对来说处理速度会比较慢,同样的,输入分辨率较高的话,需要处理的数据会比较多,处理速度也会稍微慢一些,但是计算量较大、输入分辨率高的时候,检测精度会较高。在本发明中,物体检测模型是为了得到较为精确的目标物体,因此在本发明的优选实施例中,采用选择计算量稍大、而相对来说检测精度较高的检测算法来构建物体检测模型。而物体跟踪模型是为了实现对目标物体的实时跟踪,需要快速跟踪目标物体,因此在在本发明的优选实施例中,采用计算量很小、精度相对低的检测算法来构建物体跟踪模型。
在本发明的优选实施例中,物体跟踪模型为采用SSD算法预先构建的物体检测模型。
具体来讲,当完成物体检测后,物体跟踪模型会在获取每一帧图像时,从之前保存的目标物体列表中读取目标物体及其边界框,并将目标物体的边界框放大指定比例的倍数(例如:扩大1.2-1.5倍),根据所放大后的边界框截取图像的原图作为物体跟踪模型的输入,使用预先构建的物体跟踪模型,对原图中的目标物体进行跟踪。物体跟踪模型进行推理后可以重新得到一个新的边界框用于更新该目标物体的当前位置。
本发明中物体检测跟踪方法首先使用检测精度较高、分辨率也较高的检测模型来检测出图像中的每个目标物体,然后根据截取每个目标物体的边界框,并将其适当扩大,以截取出目标物体出框部分和其周围特征内容,然后通过精度和分辨率较低,但跟踪速度较快的跟踪模型对目标物体进行实时跟踪,达到稳定、鲁棒、高效地对图像中所有目标物体进行检测和跟踪的目的。
相对于现有技术中对图像进行逐帧检测以对物体进行检测和跟踪的方法,在需要跟踪的目标物体数量较小时,本发明具有速度快和稳定性高等显著优势。而相对于现有技术中的滤波算法(例如:卡尔曼滤波算法KFC等),本发明能够在很大程度上克服目标物体的位置变化比较剧烈时,物体跟踪的速度和准确度。
以下以具体应用示例简单说明物体检测模型和物体跟踪模型的构建过程。
本发明中物体检测模型和物体跟踪模型是基于卷积神经网络技术中的算法构建的,卷积神经网络技术是一种深度学习,而且深度学习过程中的检测过程都需要大量的标注数据。因此,首先,针对一种特定的场景(例如:旅游场景拍摄中人物图像的检测和跟踪),收集大量的标注数据,数据通常为包含需要检测的目标物体(例如:人脸)的图片,数据量的多少可以根据不同的需求设置。然后,将所收集的图片中出现的目标物体进行标注(例如:利用矩形框标注目标物体的边界框并标记出目标物体类型,每存在一个物体就需要标注一个边界框),至此,用于物体检测模型的数据准备完毕。最后,利用合适的算法(例如:FastRCNN)进行物体检测模型的构建。
此外,在上述用于物体检测模型的数据基础上,将目标物体的边界框扩大适当的倍数(例如:扩大1.2-1.5倍),将目标物体的原图作为一个单独的图片保存下来,作为物体跟踪模型的输入数据,利用合适的算法(例如:SSD算法)进行物体跟踪模型的构建。
图2是本发明实施例提供的物体检测跟踪装置的框图,如图2所示,本发明实施例提供的物体检测跟踪装置包括:获取模块1,用于获取需要检测和跟踪的图像;检测模块2,用于使用预先构建的物体检测模型,从图像中获取目标物体;以及跟踪模块3,用于使用预先构建的物体跟踪模型,对所述目标物体进行跟踪,其中,物体跟踪模型的处理速度大于物体检测模型的处理速度。
优选的,检测模块2包括:判断子模块(图中未示出),用于判断图像是否为关键帧图像;识别子模块(图中未示出),用于在图像为关键帧图像时,使用预先构建的物体检测模型,从图像中获取一个或多个目标物体;以及存储子模块(图中未示出),用于截取目标物体的边界框,并将目标物体和目标物体的边界框存放至目标物体列表中。
优选的,检测模块2包括:比较子模块(图中未示出),用于在检测到每一目标物体时,与之前存储的目标物体列表中的目标物体进行一一匹配;以及确认子模块(图中未示出),用于计算所检测到的目标物体与已存储的目标物体列表中的目标物体的交并比,并在交并比大于设定阈值时,判定所检测到的目标物体为目标物体列表中的目标物体,以及在交并比小于或等于设定阈值时,判定所检测到的目标物体为新的目标物体,并将目标物体添加至目标物体列表中。
优选的,跟踪模块3包括:边框子模块(图中未示出),用于将边界框按指定比例放大;以及跟踪子模块(图中未示出),用于根据所放大后的边界框截取图像的原图,使用预先构建的物体跟踪模型,对目标物体进行跟踪。
优选的,检测模块和跟踪模块分别采用以下算法中的一者:SSD算法、Fast RCNN算法、Faster RCNN算法。
优选的,物体检测模型和物体跟踪模型的处理速度与以下因素中的一者或多者相关联:计算量、输入分辨率。
有关本发明实施例提供的物体检测跟踪装置的具体细节及益处可参阅上述针对物体检测跟踪方法的描述,于此不再赘述。
相应地,本发明实施例还提供一种机器可读存储介质,该机器可读存储介质上存储有指令,该指令用于使得机器执行上述物体检测跟踪方法。
相应地,本发明实施例还提供一种处理器,用于运行程序,其中,程序被运行时用于执行上述物体检测跟踪方法
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。存储器是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (14)

1.一种物体检测跟踪方法,其特征在于,所述物体检测跟踪方法包括:
获取需要检测和跟踪的图像;
使用预先构建的物体检测模型,从所述图像中获取目标物体;以及
使用预先构建的物体跟踪模型,对所述目标物体进行跟踪,
其中,所述物体跟踪模型的处理速度大于所述物体检测模型的处理速度。
2.根据权利要求1所述的物体检测跟踪方法,其特征在于,所述从所述图像中获取目标物体包括:
判断所述图像是否为关键帧图像;
在所述图像为关键帧图像时,使用预先构建的物体检测模型,从所述图像中获取一个或多个目标物体;以及
截取所述目标物体的边界框,并将所述目标物体和所述目标物体的所述边界框存放至目标物体列表中。
3.根据权利要求2所述的物体检测跟踪方法,其特征在于,所述将所述目标物体存放至目标物体列表中包括:
在检测到每一目标物体时,与之前存储的所述目标物体列表中的所述目标物体进行一一匹配;以及
计算所检测到的所述目标物体与已存储的所述目标物体列表中的所述目标物体的交并比,并在所述交并比大于设定阈值时,判定所检测到的所述目标物体为所述目标物体列表中的所述目标物体,以及在所述交并比小于或等于所述设定阈值时,判定所检测到的所述目标物体为新的目标物体,并将所述目标物体添加至所述目标物体列表中。
4.根据权利要求2所述的物体检测跟踪方法,其特征在于,所述对所述目标物体进行跟踪包括:
将所述边界框按指定比例放大;以及
根据所放大后的所述边界框截取所述图像的原图,使用预先构建的物体跟踪模型,对所述原图中的所述目标物体进行跟踪。
5.根据权利要求1所述的物体检测跟踪方法,其特征在于,所述物体检测模型和所述物体跟踪模型分别为采用以下算法中的一者预先构建的模型:SSD算法、Fast RCNN算法、Faster RCNN算法。
6.根据权利要求1所述的物体检测跟踪方法,其特征在于,所述物体检测模型和所述物体跟踪模型的处理速度与以下因素中的至少一者相关联:计算量和输入分辨率。
7.一种物体检测跟踪装置,其特征在于,所述物体检测跟踪装置包括:
获取模块,用于获取需要检测和跟踪的图像;
检测模块,用于使用预先构建的物体检测模型,从所述图像中获取目标物体;以及
跟踪模块,用于使用预先构建的物体跟踪模型,对所述目标物体进行跟踪,
其中,所述物体跟踪模型的处理速度大于所述物体检测模型的处理速度。
8.根据权利要求7所述的物体检测跟踪装置,其特征在于,所述检测模块包括:
判断子模块,用于判断所述图像是否为关键帧图像;
识别子模块,用于在所述图像为关键帧图像时,使用预先构建的物体检测模型,从所述图像中获取一个或多个目标物体;以及
存储子模块,用于截取所述目标物体的边界框,并将所述目标物体和所述目标物体的所述边界框存放至目标物体列表中。
9.根据权利要求7所述的物体检测跟踪装置,其特征在于,所述检测模块包括:
比较子模块,用于在检测到每一目标物体时,与之前存储的所述目标物体列表中的所述目标物体进行一一匹配;以及
确认子模块,用于计算所检测到的所述目标物体与已存储的所述目标物体列表中的所述目标物体的交并比,并在所述交并比大于设定阈值时,判定所检测到的所述目标物体为所述目标物体列表中的所述目标物体,以及在所述交并比小于或等于所述设定阈值时,判定所检测到的所述目标物体为新的目标物体,并将所述目标物体添加至所述目标物体列表中。
10.根据权利要求8所述的物体检测跟踪装置,其特征在于,所述跟踪模块包括:
边框子模块,用于将所述边界框按指定比例放大;以及
跟踪子模块,用于根据所放大后的所述边界框截取所述图像的原图,使用预先构建的物体跟踪模型,对所述目标物体进行跟踪。
11.根据权利要求7所述的物体检测跟踪装置,其特征在于,所述检测模块和所述跟踪模块分别采用以下算法中的一者:SSD算法、Fast RCNN算法、Faster RCNN算法。
12.根据权利要求7所述的物体检测跟踪装置,其特征在于,所述物体检测模型和所述物体跟踪模型的处理速度与以下因素中的至少一者相关联:计算量、输入分辨率SSD。
13.一种机器可读存储介质,该机器可读存储介质上存储有指令,该指令用于使得机器执行权利要求1-6中任一项所述的物体检测跟踪方法。
14.一种处理器,其特征在于,用于运行程序,其中,所述程序被运行时用于执行权利要求1-6中任一项所述的物体检测跟踪方法。
CN201910381582.5A 2019-05-08 2019-05-08 物体检测跟踪方法和检测跟踪装置 Active CN110223320B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910381582.5A CN110223320B (zh) 2019-05-08 2019-05-08 物体检测跟踪方法和检测跟踪装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910381582.5A CN110223320B (zh) 2019-05-08 2019-05-08 物体检测跟踪方法和检测跟踪装置

Publications (2)

Publication Number Publication Date
CN110223320A true CN110223320A (zh) 2019-09-10
CN110223320B CN110223320B (zh) 2022-05-17

Family

ID=67820694

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910381582.5A Active CN110223320B (zh) 2019-05-08 2019-05-08 物体检测跟踪方法和检测跟踪装置

Country Status (1)

Country Link
CN (1) CN110223320B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111327841A (zh) * 2020-02-25 2020-06-23 四川新视创伟超高清科技有限公司 基于x86架构的超高清视频切画方法及其系统
CN113689462A (zh) * 2020-05-19 2021-11-23 深圳绿米联创科技有限公司 目标物处理方法、装置以及电子设备

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080281553A1 (en) * 2005-03-18 2008-11-13 Fluyds Gmbh Object-Tracking and Situation-Analysis System
CN101894381A (zh) * 2010-08-05 2010-11-24 上海交通大学 动态视频序列中多目标跟踪系统
CN105976400A (zh) * 2016-05-10 2016-09-28 北京旷视科技有限公司 基于神经网络模型的目标跟踪方法及装置
JP2017102708A (ja) * 2015-12-02 2017-06-08 日本放送協会 オブジェクト追跡装置及びそのプログラム
CN108242062A (zh) * 2017-12-27 2018-07-03 北京纵目安驰智能科技有限公司 基于深度特征流的目标跟踪方法、系统、终端及介质
CN109117794A (zh) * 2018-08-16 2019-01-01 广东工业大学 一种运动目标行为跟踪方法、装置、设备及可读存储介质
CN109146916A (zh) * 2018-08-22 2019-01-04 浙江大华技术股份有限公司 一种运动物体跟踪方法及装置
CN109214238A (zh) * 2017-06-30 2019-01-15 百度在线网络技术(北京)有限公司 多目标跟踪方法、装置、设备及存储介质
CN109446942A (zh) * 2018-10-12 2019-03-08 北京旷视科技有限公司 目标跟踪方法、装置和系统
CN109635693A (zh) * 2018-12-03 2019-04-16 武汉烽火众智数字技术有限责任公司 一种正脸图像检测方法及装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080281553A1 (en) * 2005-03-18 2008-11-13 Fluyds Gmbh Object-Tracking and Situation-Analysis System
CN101894381A (zh) * 2010-08-05 2010-11-24 上海交通大学 动态视频序列中多目标跟踪系统
JP2017102708A (ja) * 2015-12-02 2017-06-08 日本放送協会 オブジェクト追跡装置及びそのプログラム
CN105976400A (zh) * 2016-05-10 2016-09-28 北京旷视科技有限公司 基于神经网络模型的目标跟踪方法及装置
CN109214238A (zh) * 2017-06-30 2019-01-15 百度在线网络技术(北京)有限公司 多目标跟踪方法、装置、设备及存储介质
CN108242062A (zh) * 2017-12-27 2018-07-03 北京纵目安驰智能科技有限公司 基于深度特征流的目标跟踪方法、系统、终端及介质
CN109117794A (zh) * 2018-08-16 2019-01-01 广东工业大学 一种运动目标行为跟踪方法、装置、设备及可读存储介质
CN109146916A (zh) * 2018-08-22 2019-01-04 浙江大华技术股份有限公司 一种运动物体跟踪方法及装置
CN109446942A (zh) * 2018-10-12 2019-03-08 北京旷视科技有限公司 目标跟踪方法、装置和系统
CN109635693A (zh) * 2018-12-03 2019-04-16 武汉烽火众智数字技术有限责任公司 一种正脸图像检测方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GALANDARU SWALAGANATA ET AL2018 INTERNATIONAL CONFERENCE ON INFO: "Moving object tracking using hybrid method", 《2018 INTERNATIONAL CONFERENCE ON INFORMATION AND COMMUNICATIONS TECHNOLOGY (ICOIACT)》 *
高健焮等: "基于改进ViBe算法的运动目标检测方法", 《计算机应用》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111327841A (zh) * 2020-02-25 2020-06-23 四川新视创伟超高清科技有限公司 基于x86架构的超高清视频切画方法及其系统
CN113689462A (zh) * 2020-05-19 2021-11-23 深圳绿米联创科技有限公司 目标物处理方法、装置以及电子设备

Also Published As

Publication number Publication date
CN110223320B (zh) 2022-05-17

Similar Documents

Publication Publication Date Title
US20230077355A1 (en) Tracker assisted image capture
US9147261B2 (en) Video object tracking using multi-path trajectory analysis
JP2018533805A (ja) 顔位置追跡方法、装置及び電子デバイス
US20140205141A1 (en) Systems and methods for tracking and detecting a target object
US8879894B2 (en) Pixel analysis and frame alignment for background frames
US8995714B2 (en) Information creation device for estimating object position and information creation method and program for estimating object position
CN110084299B (zh) 基于多头融合注意力的目标检测方法和装置
CN109740416B (zh) 目标跟踪方法及相关产品
CN111310759B (zh) 双模式协作的目标检测抑制优化方法及设备
CN112734810B (zh) 一种障碍物追踪方法及装置
CN109636828A (zh) 基于视频图像的物体跟踪方法及装置
CN108109175A (zh) 一种图像特征点的跟踪方法及装置
CN110223320A (zh) 物体检测跟踪方法和检测跟踪装置
CN109102026A (zh) 一种车辆图像检测方法、装置及系统
CN116349233A (zh) 用于确定视频中的运动显著性和视频回放风格的方法和电子装置
JP2006244074A (ja) 動物体アップフレーム検出方法及びプログラム及びプログラムを格納した記憶媒体及び動物体アップショット検出方法及び動物体アップフレームあるいはショット検出方法及びプログラム及びプログラムを格納した記憶媒体
JP2008299834A (ja) 被写体追跡プログラム、および被写体追跡装置
CN108898617A (zh) 一种目标对象的跟踪方法和装置
CN109961061A (zh) 一种边缘计算视频数据结构化方法及系统
CN113963204A (zh) 一种孪生网络目标跟踪系统及方法
CN113888608B (zh) 一种目标追踪方法、装置、设备及介质
Than et al. Accurate Human Localization for Automatic Labelling of Human from Fisheye Images
CN117972181B (zh) 一种用于绿化效果评估的园林图像分析方法及装置
CN115601432B (zh) 一种基于fpga的机器人位置最优估计方法及系统
Wang et al. Higher Accuracy Yolov5 Based Safety Helmet Detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant