CN110799984A - 跟踪控制方法、设备、计算机可读存储介质 - Google Patents

跟踪控制方法、设备、计算机可读存储介质 Download PDF

Info

Publication number
CN110799984A
CN110799984A CN201880039294.5A CN201880039294A CN110799984A CN 110799984 A CN110799984 A CN 110799984A CN 201880039294 A CN201880039294 A CN 201880039294A CN 110799984 A CN110799984 A CN 110799984A
Authority
CN
China
Prior art keywords
input image
tracking
frame
target object
thread
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201880039294.5A
Other languages
English (en)
Inventor
胡攀
邹文
郑洪涌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Shenzhen DJ Innovation Industry Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Publication of CN110799984A publication Critical patent/CN110799984A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/24765Rule-based classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

一种跟踪控制方法、设备、计算机可读存储介质,所述方法包括:获取输入图像序列,该输入图像序列可以包括多帧输入图像(101);基于检测算法,对所输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框(102);基于跟踪算法,根据所述目标对象的跟踪框在所述一帧输入图像(即进行检测的一帧输入图像)后面的多帧输入图像中对所述目标对象进行跟踪(103)。本方法可以提高人脸检测的准确性和可靠性,降低网络复杂度和计算量,达到实时检测效果。

Description

跟踪控制方法、设备、计算机可读存储介质
技术领域
本发明涉及电子信息技术领域,尤其是涉及一种跟踪控制方法、设备、计算机可读存储介质。
背景技术
现有的人脸检测方法可以包括级联分类器检测方法、DPM(Deformable PartsModels,可变型部件模型)检测方法等,然而,这些人脸检测方法的可靠性和准确性均比较差。因此,随着CNN(Convolutional Neural Network,卷积神经网络)的兴起,基于CNN的人脸检测方法被越来越多地尝试。
基于CNN的人脸检测方法,通常在具有高性能GPU(Graphics Processing Unit,图形处理器)和高性能CPU(Central Processing Unit,中央处理器)的服务器上训练及运行,训练出来的网络存在网络复杂、层数多、参数多和内存开销大等缺陷,从而导致计算过程复杂,无法达到实时检测的效果。
发明内容
本发明提供一种跟踪控制方法、设备、计算机可读存储介质,可以提高人脸检测的准确性和可靠性,降低网络复杂度和计算量,达到实时检测效果。
本发明实施例第一方面,提供一种跟踪控制方法,所述方法包括:获取输入图像序列;基于检测算法,对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框;基于跟踪算法,根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪。
本发明实施例第二方面,提供一种跟踪控制设备,可以包括:存储器和处理器;其中,所述存储器,用于存储程序代码;所述处理器,用于调用所述程序代码,当程序代码被执行时,用于执行以下操作:获取输入图像序列;基于检测算法,对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框;基于跟踪算法,根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪。
本发明实施例第三方面,提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机指令,所述计算机指令被执行时,实现上述跟踪控制方法,如实现本发明实施例第一方面所述的跟踪控制方法。
基于上述技术方案,本发明实施例中,可以提高人脸检测的准确性和可靠性,降低网络复杂度和计算量,达到实时检测效果,实现多人脸检测,可以减少读写开销和CPU开,不需要频繁调用检测算法,从而降低网络调用频次,解决了功耗过高的问题,避免完全依赖检测算法时的实时性低问题。
附图说明
为了更加清楚地说明本发明实施例中的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,而不是所有实施例,对于本领域普通技术人员来讲,还可以根据本发明实施例的这些附图获得其它的附图。
图1是一个跟踪控制方法的流程示意图;
图2是一个精简后MTCNN的示意图;
图3A是检测算法的状态机及同步机制示意图;
图3B是跟踪算法的状态机及同步机制示意图;
图4是一个跟踪控制设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。另外,在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
本发明使用的术语仅仅是出于描述特定实施例的目的,而非限制本发明。本发明和权利要求书所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其它含义。应当理解的是,本文中使用的术语“和/或”是指包含一个或多个相关联的列出项目的任何或所有可能组合。
尽管在本发明可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语用来将同一类型的信息彼此区分开。例如,在不脱离本发明范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,此外,所使用的词语“如果”可以被解释成为“在……时”,或者,“当……时”,或者,“响应于确定”。
实施例1:
本发明实施例中提出一种跟踪控制方法,该方法可以应用于跟踪控制设备,如可移动平台等,其中,所述可移动平台可以包括但不限于无人机、地面机器人(例如无人车等)。此外,该可移动平台可以配置拍摄设备(如相机、摄像机等),并通过该拍摄设备采集拍摄图像,另外,可移动平台还可以配置有云台,该云台可以承载该拍摄设备,以为该拍摄设备增稳和/或调整。
参见图1所示,为跟踪控制方法的流程示意图,该方法可以包括:
步骤101,获取输入图像序列,该输入图像序列可以包括多帧输入图像。
其中,所述输入图像序列可以是视频数据中的连续帧的输入图像。
具体地,所述方法的执行主体可以为可移动平台,如可移动平台的处理器,处理器可以为一个或多个,处理器可以为通用处理器或者专用处理器。
如前所述,可移动平台可以配置有拍摄设备,在可移动平台对目标对象进行跟踪的过程中,则拍摄设备可以对目标对象进行拍摄,以获取拍摄图像,可移动平台的处理器可以获取所述拍摄图像。其中,每个拍摄图像就是一帧输入图像,并且可以将多帧输入图像的集合作为输入图像序列。
其中,所述目标对象具体可以为可移动平台跟踪的对象。
其中,输入图像包括的目标对象可以为至少一个,且目标对象包括人脸。
步骤102,基于检测算法,对该输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框。其中,这里是基于检测算法,只对该输入图像序列中的一帧输入图像(如该输入图像序列中的第一帧输入图像)进行检测,而不是基于检测算法,对该输入图像序列中的每帧输入图像进行检测。
在一个例子中,基于检测算法,对该输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框,可以包括但不限于:通过特定CNN检测算法对输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框;其中,所述特定CNN检测算法可以包括但不限于弱分类器。例如,所述特定CNN检测算法可以是包括pnet和rnet,但不包括onet的MTCNN(Multi Task Convolutional Neural Network,多任务卷积神经网络)检测算法。
例如,所述特定CNN检测算法可以包括至少一个弱分类器,且不同的弱分类器可以具有相同或者不同的过滤策略;所述过滤策略可以包括但不限于:形态学过滤策略,和/或,肤色过滤策略,也就是说,弱分类器可以采用形态学过滤策略进行过滤处理,或者,也可以采用肤色过滤策略进行过滤处理。
此外,该弱分类器可以部署在特定CNN检测算法的任意一级网络。
在一个例子中,通过特定CNN检测算法对输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框,可以包括但不限于:针对输入到特定CNN检测算法的弱分类器的跟踪框,则通过该弱分类器检测该跟踪框是否符合过滤策略;如果不符合过滤策略,则可以将该跟踪框输出给特定CNN检测算法的下一级网络;如果符合过滤策略,则可以过滤该跟踪框。
在一个例子中,通过特定CNN检测算法对输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框,还可以包括但不限于:将输入图像和网络参数转换为定点数据(而不是浮点数据),并可以通过特定CNN检测算法利用转换后的定点数据进行处理,得到包括目标对象的跟踪框。
在另一个例子中,特定CNN检测算法还可以通过定点网络(如定点MTCNN网络)实现,所述定点网络中的输入图像和网络参数均为定点数据;基于此,通过特定CNN检测算法对输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框,还可以包括但不限于:通过特定CNN检测算法利用所述定点网络中的定点数据进行处理,得到包括目标对象的跟踪框。
在一个例子中,通过特定CNN检测算法对输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框之前,还可以对输入图像序列中的一帧输入图像进行预处理,得到预处理后的输入图像;然后,通过特定CNN检测算法对预处理后的输入图像进行处理,得到包括目标对象的跟踪框。其中,所述预处理可以包括但不限于:压缩感知处理;和/或,肤色检测处理。
在一个例子中,通过特定CNN检测算法对输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框,还可以包括但不限于:可以利用时域信息预测目标对象的参考区域,并通过特定CNN检测算法对输入图像序列中的一帧输入图像中的参考区域进行检测,得到包括目标对象的跟踪框。
步骤103,基于跟踪算法,根据目标对象的跟踪框(即步骤102得到的目标对象的跟踪框)在一帧输入图像(即进行检测的一帧输入图像)后面的多帧输入图像中对目标对象进行跟踪。其中,这里是基于跟踪算法,在一帧输入图像后面的多帧输入图像中的每帧输入图像中,对目标对象进行跟踪。也就是说,每隔一定数量的输入图像,就可以对一帧输入图像进行进行检测(即步骤102),并在一帧输入图像后面的多帧输入图像中进行跟踪(即步骤103)。
例如,采用步骤102,对第1帧输入图像进行检测,然后,采用步骤103,对第2帧输入图像-第10帧输入图像进行跟踪;然后,采用步骤102,对第11帧输入图像进行检测,然后,采用步骤103,对第12帧输入图像-第20帧输入图像进行跟踪;以此类推,不断重新上述步骤102-步骤103,完成跟踪控制。
在一个例子中,基于跟踪算法,根据目标对象的跟踪框在一帧输入图像后面的多帧输入图像中对目标对象进行跟踪,可以包括但不限于:获取基于上一帧输入图像得到的目标对象的跟踪框以及该目标对象的空间上下文模型,其中,该空间上下文模型可以用于指示在所述上一帧输入图像中目标对象与周围图像区域的空间相关性;然后,可以基于该空间上下文模型,在当前帧输入图像中对应跟踪框的位置处以及周围区域中确定该目标对象。
在一个例子中,该空间上下文模型可以包括但不限于以下之一或者任意组合:灰度特征、hog(Histogram of Oriented Gradient,方向梯度直方图)特征、矩特征、sift(Scale-invariant feature transform,尺度不变特征变换)特征。
在一个例子中,基于跟踪算法,根据目标对象的跟踪框在一帧输入图像后面的多帧输入图像中对目标对象进行跟踪,可以包括但不限于:通过卡尔曼滤波预测目标对象的参考区域;基于跟踪算法,根据目标对象的跟踪框在一帧输入图像后面的多帧输入图像中的参考区域,对目标对象进行跟踪。
在一个例子中,可以通过第一线程实现检测算法,并通过第二线程实现跟踪算法,也就是说,检测算法和跟踪算法是通过不同的线程实现的。
在一个例子中,根据目标对象的跟踪框在一帧输入图像后面的多帧输入图像中对目标对象进行跟踪,可以包括但不限于:通过该第一线程向该第二线程输出目标对象的跟踪框;然后,可以通过该第二线程根据目标对象的跟踪框在一帧输入图像后面的多帧输入图像中对目标对象进行跟踪。
在一个例子中,对输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框之后,还可以通过第一线程停止对一帧输入图像后面的多帧输入图像进行检测,即不再对一帧输入图像后面的多帧输入图像进行检测。
在一个例子中,根据目标对象的跟踪框在一帧输入图像后面的多帧输入图像中对目标对象进行跟踪,可以包括但不限于:在通过第一线程得到包括目标对象的跟踪框后,可以启动第二线程;在第二线程启动后,通过第二线程根据目标对象的跟踪框在一帧输入图像后面的多帧输入图像中对目标对象进行跟踪,即在所述多帧输入图像中的每帧输入图像中对目标对象进行跟踪。
在一个例子中,在检测算法开启、且当前输入图像是输入图像序列中的第一帧输入图像时,则可以通过第一线程将第一状态机设置为启动状态;在第一状态机为启动状态时,则可以通过第一线程对输入图像进行检测。
此外,在检测算法开启、且当前输入图像不是输入图像序列中的第一帧输入图像时,则可以通过第一线程将第一状态机设置为空闲状态;在第一状态机为空闲状态时,则可以停止通过第一线程对输入图像进行检测。
此外,在检测算法关闭时,则通过第一线程将第一状态机设置为关闭状态;在第一状态机为关闭状态时,则停止通过第一线程对输入图像进行检测。
此外,在跟踪算法开启时,则通过第二线程将第二状态机设置为启动状态;在第二状态机为启动状态时,则通过第二线程对输入图像进行跟踪。
此外,在跟踪算法关闭时,则通过第二线程将第二状态机设置为关闭状态;在第二状态机为关闭状态时,则停止通过第二线程对输入图像进行跟踪。
在一个例子中,基于跟踪算法,根据目标对象的跟踪框在一帧输入图像后面的多帧输入图像中对目标对象进行跟踪之后,还可以利用第一输入图像中的第一跟踪框和第二输入图像中的第二跟踪框确定目标对象的目标跟踪框;其中,第一跟踪框是基于检测算法在第一输入图像中得到的包括目标对象的跟踪框;第二跟踪框是基于跟踪算法在第二输入图像中对目标对象进行跟踪时得到的跟踪框;基于跟踪算法,根据目标跟踪框对目标对象进行跟踪。
其中,利用第一输入图像中的第一跟踪框和第二输入图像中的第二跟踪框确定目标对象的目标跟踪框,可以包括但不限于:计算该第一跟踪框与该第二跟踪框的重合程度,并根据该重合程度确定目标对象的目标跟踪框。
其中,根据该重合程度确定目标对象的目标跟踪框,可以包括但不限于:若该重合程度大于或者等于预设阈值(可以根据经验进行配置),则可以将该第二跟踪框确定为该目标对象的目标跟踪框;或者,若该重合程度小于所述预设阈值,则可以将该第一跟踪框确定为该目标对象的目标跟踪框。
其中,重合程度包括:第一跟踪框与第二跟踪框之间的IoU(交集并集比)。
基于上述技术方案,本发明实施例中,可以提高人脸检测的准确性和可靠性,降低网络复杂度和计算量,达到实时检测效果,实现多人脸检测,可以减少读写开销和CPU开,不需要频繁调用检测算法,从而降低网络调用频次,解决了功耗过高的问题,避免完全依赖检测算法时的实时性低问题。
实施例2:
针对步骤102,可以基于检测算法,对输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框,在实际应用中,输入图像可以包括多个目标对象,即步骤102可以得到多个跟踪框。例如,步骤101中,先采集输入图像序列1,输入图像序列1包括输入图像1-输入图像10,然后采集输入图像序列2,输入图像序列2包括输入图像11-输入图像20,以此类推,每个输入图像序列均包括10帧输入图像,且每帧输入图像均可以包括目标对象。
在得到输入图像序列1后,可以基于检测算法,对输入图像序列1中的第一帧输入图像(如输入图像1)进行检测,得到包括目标对象的跟踪框。然后,不再对输入图像序列1中的输入图像2-输入图像10进行检测。
进一步的,在得到输入图像序列2后,可以基于检测算法,对输入图像序列2中的输入图像11进行检测,得到包括目标对象的跟踪框。然后,不再对输入图像序列2中的输入图像12-输入图像20进行检测,以此类推。
为实现输入图像(后续以输入图像1为例)的检测,本实施例中,可以采用MTCNN检测算法对输入图像1进行检测,得到包括目标对象的跟踪框。
其中,MTCNN可以采用级联网络进行人脸检测,传统的MTCNN包括3个复杂度依次提高的网络:pnet、rnet和onet,其实现流程可以包括:输入图像经过预处理后,将预处理后的输入图像输出给pnet,在pnet中对输入图像进行处理,得到多个候选框,将这些候选框称为第一类候选框。通过本地NMS(Non-Maximum Suppression,非极大值抑制)方法对第一类候选框进行处理,得到第二类候选框,该第二类候选框包括第一类候选框中的部分候选框。
然后,将第二类候选框输出给rnet,在rnet中对第二类候选框进行处理后,得到第三类候选框,然后,通过本地NMS方法对第三类候选框进行处理,得到第四类候选框,该第四类候选框包括第三类候选框中的部分候选框。
然后,将第四类候选框输出给onet,在onet中对第四类候选框进行处理后,得到第五类候选框,然后,通过本地NMS方法对第五类候选框进行处理,得到第六类候选框,该第六类候选框包括第五类候选框中的部分候选框。
进一步的,所述第六类候选框就可以是最终得到的各个人脸的跟踪框。
在上述MTCNN中,onet是复杂度最高的网络,其运算速度慢,读写开销大,CPU开销大,从而导致MTCNN无法直接在嵌入式设备运行。
针对上述发现,本发明实施例中提出一种新的MTCNN,该MTCNN是包括pnet和rnet,但不包括onet的MTCNN,且该MTCNN可以包括一个或者多个弱分类器,每个弱分类器可以部署在MTCNN的任意一级网络。
例如,在去除onet后,MTCNN可以依次包括pnet、本地NMS(后续称为第一本地NMS)、rnet、本地NMS(后续称为第二本地NMS),这样,可以在pnet之前部署弱分类器,即MTCNN可以依次包括弱分类器、pnet、第一本地NMS、rnet、第二本地NMS。或者,也可以在pnet与第一本地NMS之间部署弱分类器,即MTCNN可以依次包括pnet、弱分类器、第一本地NMS、rnet、第二本地NMS。或者,还可以在rnet与第二本地NMS之间部署弱分类器,即MTCNN可以依次包括pnet、第一本地NMS、rnet、弱分类器、第二本地NMS,对此不做限制,弱分类器可以部署在MTCNN的任意一级网络。
当然,上述是以一个弱分类器为例,当存在多个弱分类器时,可以将多个弱分类器部署在MTCNN的任意一级网络,例如,弱分类器1部署在pnet之前,弱分类器2部署在rnet与第二本地NMS之间,则MTCNN可以依次包括弱分类器1、pnet、第一本地NMS、rnet、弱分类器2、第二本地NMS,对此不做限制,每个弱分类器均可以部署在MTCNN的任意一级网络。
在一个例子中,弱分类器用于根据过滤策略对跟踪框(也就是上述候选框,后续称为候选框)进行过滤,且不同的弱分类器可以具有相同或者不同的过滤策略。所述过滤策略可以包括但不限于:形态学过滤策略,和/或,肤色过滤策略,也就是说,弱分类器可以根据形态学过滤策略对输入的候选框进行过滤处理,或者,采用肤色过滤策略对输入的候选框进行过滤处理。
综上所述,在对输入图像序列1中的输入图像1进行检测,得到包括目标对象的跟踪框时,若MTCNN依次包括pnet、第一本地NMS、rnet、弱分类器、第二本地NMS,则实现流程可以包括:输入图像1经过预处理后,将预处理后的输入图像1输出给pnet,在pnet中对输入图像进行处理,得到第一类候选框。通过第一本地NMS方法对第一类候选框进行处理,得到第二类候选框,该第二类候选框包括第一类候选框中的部分候选框。将第二类候选框输出给rnet,在rnet中对第二类候选框进行处理后,得到第三类候选框。
然后,将第三类候选框输出给弱分类器,针对第三类候选框中的每个候选框,弱分类器可以检测该候选框是否符合过滤策略;如果不符合过滤策略,则可以将该候选框作为第四类候选框,如果符合过滤策略,则可以过滤该候选框。这样,可以将所有不符合过滤策略的候选框作为第四类候选框,然后将第四类候选框输出给MTCNN的下一级网络,即输出给第二本地NMS。
然后,通过第二本地NMS方法对第四类候选框进行处理,得到第五类候选框,该第五类候选框包括第四类候选框中的部分候选框。该第五类候选框不再输出给onet,第五类候选框中的每个候选框就是包括目标对象的跟踪框。
在上述过程中,在将输入图像1输出给pnet之前,还可以对输入图像1进行预处理,得到预处理后的输入图像1,并将预处理后的输入图像1输出给pnet。其中,预处理可以包括但不限于压缩感知处理和/或肤色检测处理。而且,通过对输入图像1进行预处理,可以从输入图像1中筛选出可能存在人脸的区域,并将可能存在人脸的区域作为预处理后的输入图像1输出给pnet。
在上述过程中,是将3个级联网络(如pnet、rnet和onet)简化为2个级联网络(如pnet和rnet),从而简化MTCNN的复杂度,然后,通过弱分类器保证精简后的MTCNN仍然保持较好的检出率和准确率,即通过弱分类器对候选框进行形态学滤波和/或肤色滤波,以剔除明显不是人脸的候选框。
参见图2所示,为精简后MTCNN的示意图,针对rnet的输出结果,在弱分类器中进行了形态学滤波和肤色滤波(如基于哈尔特征的肤色滤波)。
在上述过程中,在采用MTCNN对输入图像序列1中的输入图像1进行检测,得到包括目标对象的跟踪框时,可以利用时域信息预测目标对象的参考区域(即预测下一次检测时的人脸可能区域),对此预测方式不做限制。然后,在采用MTCNN对输入图像序列2中的输入图像11进行检测,得到包括目标对象的跟踪框时,可以对输入图像11中的参考区域进行检测,得到包括目标对象的跟踪框。也就是说,输入给MTCNN的是输入图像11的参考区域,而不是输入图像11,从而减少输入给MTCNN的图像内容,提高处理速度。
在一个例子中,在采用MTCNN对输入图像序列1中的输入图像1进行检测,得到包括目标对象的跟踪框时,还可以对所有数据进行定点化的处理,即将输入图像和网络参数(即MTCNN中的参数)转换为定点数据,如通过浮点转定点操作(对此操作方式不做限制),将输入图像和网络参数转换为定点数据。或者,重新训练一个定点MTCNN网络,而MTCNN网络中的输入图像和网络参数均为定点数据。这样,就可以通过MTCNN对定点数据进行处理;在这种方式中,所有数据均为定点数据,不需要进行定点数据的转换。
实施例3:
针对步骤103,可以基于跟踪算法,根据目标对象的跟踪框在一帧输入图像后面的多帧输入图像中对目标对象进行跟踪。例如,步骤101中,先采集输入图像序列1,输入图像序列1包括输入图像1-输入图像10,然后采集输入图像序列2,输入图像序列2包括输入图像11-输入图像20,以此类推,每个输入图像序列均包括10帧输入图像,且每帧输入图像均可以包括目标对象。
在步骤102中,若得到输入图像1中的目标对象的跟踪框,则步骤103中,可以基于跟踪算法,根据输入图像1中的该目标对象的跟踪框,在输入图像序列1中的输入图像2-输入图像10中,对目标对象进行跟踪。
在步骤102中,若得到输入图像11中的目标对象的跟踪框,则步骤103中,可以基于跟踪算法,根据输入图像11中的该目标对象的跟踪框,在输入图像序列2中的输入图像12-输入图像20中对目标对象进行跟踪,以此类推。
为了实现目标对象的跟踪,本实施例中,可以采用STC(时空上下文视觉跟踪)跟踪算法,对目标对象进行跟踪。具体的,可以获取基于上一帧输入图像得到的目标对象的跟踪框(即步骤102得到的跟踪框)与该目标对象的空间上下文模型,该空间上下文模型用于指示在所述上一帧输入图像中目标对象与周围图像区域的空间相关性;然后,可以基于该空间上下文模型,在当前帧输入图像中对应跟踪框的位置处以及周围区域中确定该目标对象。
其中,STC跟踪算法是一个基于时空上下文的目标跟踪算法,可以通过贝叶斯框架对需要跟踪的目标和该目标的局部上下文区域的时空关系进行建模,得到目标和其周围区域特征的统计相关性。然后,综合这一时空关系和生物视觉系统上的关注焦点特性,来评估新的一帧图像中目标出现位置的置信图,置信最大的位置就是新的一帧图像中的目标位置。基于此STC跟踪算法,就可以对目标对象进行跟踪,对此目标对象的跟踪方式不做限制。
针对传统的STC跟踪算法,本实施例中,可以对STC跟踪算法的scale(缩放)变换进行精简,以减少STC跟踪算法的复杂度,对此过程不做限制。
在一个例子中,在使用STC跟踪算法对目标对象进行跟踪时,上述空间上下文模型的特征可以包括但不限于以下之一或者任意组合:灰度特征、hog特征、矩特征、sift特征,对此空间上下文模型的特征的类型不做限制。
在一个例子中,在使用STC跟踪算法对目标对象进行跟踪时,还可以通过卡尔曼滤波预测目标对象的参考区域(即预测下一次跟踪时的人脸可能区域),对此预测方式不做限制。然后,在使用STC跟踪算法对下一帧输入图像中的目标对象进行跟踪时,可以对该下一帧输入图像中的参考区域进行跟踪,即使用STC跟踪算法对参考区域的目标对象进行跟踪,不再对输入图像的所有区域进行跟踪,从而辅助STC跟踪算法更新目标对象位置,提高处理速度。
实施例4:
在步骤101中,先采集输入图像序列1,输入图像序列1包括输入图像1-输入图像10,然后采集输入图像序列2,输入图像序列2包括输入图像11-输入图像20,以此类推,每个输入图像序列均可以包括10帧输入图像。
在步骤102中,在得到输入图像序列1后,可以基于检测算法,对输入图像序列1中的输入图像1进行检测,得到包括目标对象的跟踪框A,但不对输入图像2-输入图像10进行检测。然后,在得到输入图像序列2后,可以基于检测算法,对输入图像序列2中的输入图像11进行检测,得到包括目标对象的跟踪框B,但不对输入图像12-输入图像20进行检测,以此类推。
在步骤103的一个实现方式中,可以基于跟踪算法,根据跟踪框A在输入图像2-输入图像10中对目标对象进行跟踪。然后,可以基于跟踪算法,根据跟踪框B在输入图像12-输入图像20中对目标对象进行跟踪,以此类推。
在这个实现方式中,为了对目标对象进行跟踪,是直接使用检测算法的检测结果(即跟踪框B),而不再考虑之前的跟踪结果,即在输入图像12-输入图像20中对目标对象进行跟踪时,不会考虑输入图像2-输入图像10的跟踪结果,而是直接根据跟踪框B在输入图像12-输入图像20中对目标对象进行跟踪,即目标对象的跟踪过程与输入图像2-输入图像10的跟踪结果无关。
在步骤103的另一个实现方式中,可以基于跟踪算法,根据跟踪框A在输入图像2-输入图像10中对目标对象进行跟踪。然后,可以继续对目标对象进行跟踪,而不会停止跟踪过程,也就是说,可以对每帧输入图像均进行跟踪,如继续在输入图像11-输入图像20中对目标对象进行跟踪,以此类推。
在对输入图像11进行检测,得到跟踪框B后,假设当前正在输入图像12中对目标对象进行跟踪,并得到跟踪框C,则将跟踪框B与跟踪框C进行融合,得到一个准确的跟踪框X(该跟踪框X可以为跟踪框B或者跟踪框C),然后,可以基于跟踪算法,根据跟踪框X在输入图像13-输入图像20中对目标对象进行跟踪,以此类推,在每次基于检测算法得到跟踪框后,就可以将检测算法得到的跟踪框与跟踪算法得到的跟踪框进行融合,得到准确的跟踪框,并基于跟踪算法,根据该跟踪框在输入图像中对目标对象进行跟踪。
在这个实现方式中,为了对目标对象进行跟踪,可以考虑检测算法的检测结果(如跟踪框B)和跟踪算法的跟踪结果(如跟踪框C),即在输入图像12-输入图像20中对目标对象进行跟踪时,可以考虑输入图像的跟踪结果,即将跟踪框B和跟踪框C进行融合,并根据融合结果在输入图像中对目标对象进行跟踪,也就是说,目标对象的跟踪过程与输入图像的跟踪结果有关。
以下结合具体实施例,对上述第二种实现方式进行说明。具体的,本实施例中,可以利用第一输入图像中的第一跟踪框(基于检测算法在第一输入图像中得到的跟踪框,如上述跟踪框B)和第二输入图像中的第二跟踪框(基于跟踪算法在第二输入图像中得到的跟踪框,如上述跟踪框C)确定目标对象的目标跟踪框;然后,可以基于跟踪算法,根据该目标跟踪框对目标对象进行跟踪,也就是说,基于该目标跟踪框执行步骤103,对此不再赘述。
在一个例子中,利用第一输入图像中的第一跟踪框和第二输入图像中的第二跟踪框确定目标对象的目标跟踪框,可以包括但不限于:计算该第一跟踪框与该第二跟踪框的重合程度(即交集并集比IoU,如第一跟踪框与第二跟踪框的交集,除以第一跟踪框与第二跟踪框的并集);若该重合程度大于或者等于预设阈值,则可以将该第二跟踪框确定为该目标跟踪框;或者,若该重合程度小于所述预设阈值,则可以将该第一跟踪框确定为该目标跟踪框。
其中,当第一跟踪框与第二跟踪框的重合程度大于或者等于预设阈值时,则说明跟踪算法的跟踪结果没有偏移,维持当前的跟踪目标不变,即将第二跟踪框确定为目标跟踪框,继续根据第二跟踪框进行跟踪;当第一跟踪框与第二跟踪框的重合程度小于预设阈值时,则说明跟踪算法的跟踪结果发生偏移,或者新增人脸,因此消除当前的跟踪目标,或者更新跟踪目标为新增人脸,即将第一跟踪框确定为目标跟踪框,重新根据第一跟踪框进行跟踪。
实施例5:
在上述实施例中,检测算法和跟踪算法还可以通过不同的线程实现,例如,可以通过第一线程实现检测算法,并通过第二线程实现跟踪算法。
例如,在得到输入图像序列1后,第一线程可以基于检测算法,对输入图像序列1中的输入图像1进行检测,得到包括目标对象的跟踪框A,且第一线程停止对输入图像序列1中的输入图像2-输入图像10进行检测。
在得到输入图像序列2后,第一线程可以基于检测算法,对输入图像序列2中的输入图像11进行检测,得到包括目标对象的跟踪框B,且第一线程停止对输入图像序列2中的输入图像12-输入图像20进行检测,以此类推。
进一步的,第一线程对输入图像序列1中的输入图像1进行检测,得到包括目标对象的跟踪框A后,第一线程可以向第二线程输出目标对象的跟踪框A,使得第二线程根据目标对象的跟踪框A在输入图像中对目标对象进行跟踪。第一线程对输入图像序列2中的输入图像12进行检测,得到包括目标对象的跟踪框B后,第一线程可以向第二线程输出目标对象的跟踪框B,使得第二线程根据目标对象的跟踪框B在输入图像中对目标对象进行跟踪。
第一线程在得到包括目标对象的跟踪框A后,还可以触发启动第二线程;在第二线程启动后,第二线程可以根据目标对象的跟踪框A在输入图像2-输入图像10中对目标对象进行跟踪。然后,第二线程可以根据目标对象的跟踪框B在输入图像12-输入图像20中对目标对象进行跟踪,以此类推。
参见图3A和图3B所示,为检测算法和跟踪算法的状态机及同步机制示意图,检测算法和跟踪算法置于不同线程中,维护自身的状态机以实现状态切换,并通过共享内存实现状态同步。检测算法用于从当前输入图像中定位人脸的方框坐标(即上述跟踪框),跟踪算法负责跟踪已检测出来的人脸方框。
其中,在检测算法开启、且当前输入图像是输入图像序列中的第一帧输入图像时,则可以通过第一线程将第一状态机(即检测算法的状态机)设置为启动状态;在第一状态机为启动状态时,则可以通过第一线程对输入图像进行检测。此外,在检测算法开启、且当前输入图像不是输入图像序列中的第一帧输入图像时,则可以通过第一线程将第一状态机设置为空闲状态;在第一状态机为空闲状态时,则可以停止通过第一线程对输入图像进行检测。此外,在检测算法关闭时,则通过第一线程将第一状态机设置为关闭状态;在第一状态机为关闭状态时,则可以停止通过第一线程对输入图像进行检测。
进一步的,在跟踪算法开启时,则可以通过第二线程将第二状态机(即跟踪算法的状态机)设置为启动状态;在所述第二状态机为启动状态时,则可以通过第二线程对输入图像进行跟踪。此外,在跟踪算法关闭时,则可以通过第二线程将所述第二状态机设置为关闭状态;在所述第二状态机为关闭状态时,则可以停止通过第二线程对输入图像进行跟踪。
基于上述各实施例,本发明实施例中,可以提高人脸检测的准确性和可靠性,降低网络复杂度和计算量,达到实时检测效果,实现多人脸检测,可以减少读写开销和CPU开,不需要频繁调用检测算法,从而降低网络调用频次,解决了功耗过高的问题,避免完全依赖检测算法时的实时性低问题。
上述方式是检测算法和跟踪算法融合的多人脸快速检测方式,可以达到实时的多人脸检测效果,能够快速进行人脸检测,达到数百帧/秒的检测速度。
在上述方式中,采用MTCNN检测算法对人脸进行检测,可以提高人脸检测的准确性和鲁棒性,并降低网络复杂度和计算量,减少读写开销和CPU开销,降低网络调用频次,降低功耗。而且,可以对网络参数和运算过程进行定点化的转换,并保证定点化网络精度。通过对MTCNN检测算法进行精简,定点化处理和优化,使得网络复杂度降低,计算量减小,网络运算全部转换为定点运算,并保留较好的精度,从而可以在嵌入式设备上运行。
在上述方式中,引入了内存和CPU开销小的STC跟踪算法,并与检测算法相融合,使STC跟踪算法执行大部分人脸检测,从而解决完全依赖检测算法导致的实时性低问题,由于不需要频繁调用检测算法,从而解决了功耗过高的问题。由于加入STC跟踪算法,检测算法只是起到修正作用,不用频繁调用,所以嵌入式设备上的功耗得到控制。由于融合了STC跟踪算法的跟踪结果和检测算法的检测结果,因此,STC跟踪算法的漂移问题得到了控制。
实施例6:
基于与上述方法同样的构思,参见图4所示,本发明实施例中还提供一种跟踪控制设备40,包括存储器41和处理器42(如一个或多个处理器)。
在一个例子中,所述存储器,用于存储程序代码;所述处理器,用于调用所述程序代码,当程序代码被执行时,用于执行以下操作:获取输入图像序列;基于检测算法,对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框;基于跟踪算法,根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪。
所述处理器通过第一线程实现所述检测算法;
所述处理器通过第二线程实现所述跟踪算法。
所述处理器根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪时具体用于:通过所述第一线程向所述第二线程输出所述目标对象的跟踪框;通过所述第二线程根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对目标对象进行跟踪。
在一个例子中,所述处理器对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框之后还用于:通过第一线程停止对所述一帧输入图像后面的多帧输入图像进行检测。
在一个例子中,所述处理器根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪时具体用于:
在通过所述第一线程得到包括所述目标对象的跟踪框后,启动所述第二线程;在所述第二线程启动后,通过所述第二线程根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪。
所述处理器还用于:在检测算法开启、且当前输入图像是所述输入图像序列中的第一帧输入图像时,通过第一线程将所述第一状态机设置为启动状态;在第一状态机为启动状态时,通过所述第一线程对输入图像进行检测;
在检测算法开启、且当前输入图像不是所述输入图像序列中的第一帧输入图像时,通过第一线程将所述第一状态机设置为空闲状态;在第一状态机为空闲状态时,停止通过所述第一线程对输入图像进行检测;
在检测算法关闭时,通过第一线程将第一状态机设置为关闭状态;在第一状态机为关闭状态时,停止通过所述第一线程对输入图像进行检测。
所述处理器还用于:在跟踪算法开启时,通过第二线程将第二状态机设置为启动状态;在第二状态机为启动状态时,通过所述第二线程对输入图像进行跟踪;在跟踪算法关闭时,通过第二线程将第二状态机设置为关闭状态;在第二状态机为关闭状态时,停止通过所述第二线程对输入图像进行跟踪。
所述处理器基于检测算法,对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框时具体用于:通过特定CNN检测算法对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框;
其中,所述特定CNN检测算法包括弱分类器。
所述处理器通过特定CNN检测算法对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框时具体用于:针对输入到所述特定CNN检测算法的弱分类器的跟踪框,则通过所述弱分类器检测所述跟踪框是否符合过滤策略;如果否,则将所述跟踪框输出给所述特定CNN检测算法的下一级网络。所述处理器通过所述弱分类器检测所述跟踪框是否符合过滤策略之后还用于:如果符合过滤策略,则过滤所述跟踪框。
所述处理器通过特定CNN检测算法对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框时具体用于:
将输入图像和网络参数转换为定点数据,通过所述特定CNN检测算法利用转换后的定点数据进行处理,得到包括所述目标对象的跟踪框。
在一个例子中,所述特定CNN检测算法通过定点网络实现,所述定点网络中的输入图像和网络参数均为定点数据;
所述处理器通过特定CNN检测算法对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框时具体用于:通过所述特定CNN检测算法利用定点数据进行处理,得到包括所述目标对象的跟踪框。
所述处理器通过特定CNN检测算法对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框之前还用于:对所述输入图像序列中的一帧输入图像进行预处理,得到预处理后的输入图像;通过特定CNN检测算法对预处理后的输入图像进行处理,得到包括所述目标对象的跟踪框。
所述处理器通过特定CNN检测算法对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框时具体用于:利用时域信息预测目标对象的参考区域;通过特定CNN检测算法对所述输入图像序列中的一帧输入图像中的参考区域进行检测,得到包括目标对象的跟踪框。
所述处理器基于跟踪算法,根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪时具体用于:获取基于上一帧输入图像得到的所述目标对象的跟踪框以及所述目标对象的空间上下文模型,所述空间上下文模型用于指示在所述上一帧输入图像中所述目标对象与周围图像区域的空间相关性;基于所述空间上下文模型,在当前帧输入图像中对应所述跟踪框的位置处以及周围区域中确定所述目标对象。
所述处理器基于跟踪算法,根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪时具体用于:
通过卡尔曼滤波预测目标对象的参考区域;基于跟踪算法,根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中的所述参考区域,对所述目标对象进行跟踪。
所述处理器基于跟踪算法,根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪之后还用于:
利用第一输入图像中的第一跟踪框和第二输入图像中的第二跟踪框确定所述目标对象的目标跟踪框;其中,所述第一跟踪框是基于检测算法在所述第一输入图像中得到的包括目标对象的跟踪框;所述第二跟踪框是基于跟踪算法在所述第二输入图像中对所述目标对象进行跟踪时得到的跟踪框;
基于跟踪算法,根据所述目标跟踪框对所述目标对象进行跟踪。
所述处理器利用第一输入图像中的第一跟踪框和第二输入图像中的第二跟踪框确定所述目标对象的目标跟踪框时具体用于:计算所述第一跟踪框与所述第二跟踪框的重合程度;根据所述重合程度确定所述目标对象的目标跟踪框。所述处理器根据所述重合程度确定所述目标对象的目标跟踪框时具体用于:若所述重合程度大于或者等于预设阈值,则将所述第二跟踪框确定为所述目标对象的目标跟踪框;或者,若所述重合程度小于所述预设阈值,则将所述第一跟踪框确定为所述目标对象的目标跟踪框。
实施例7:基于与上述方法同样的发明构思,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机指令,所述计算机指令被执行时,执行上述的跟踪控制方法,参见上述各实施例所示。
上述实施例阐明的系统、装置、模块或单元,可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机,计算机的具体形式可以是个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件收发设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任意几种设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本发明时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可以由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其它可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其它可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
而且,这些计算机程序指令也可以存储在能引导计算机或其它可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或者多个流程和/或方框图一个方框或者多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其它可编程数据处理设备,使得在计算机或者其它可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其它可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅为本发明实施例而已,并不用于限制本发明。对于本领域技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原理之内所作的任何修改、等同替换、改进,均应包含在本发明的权利要求范围之内。

Claims (45)

1.一种跟踪控制方法,其特征在于,所述方法包括:
获取输入图像序列;
基于检测算法,对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框;
基于跟踪算法,根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪。
2.根据权利要求1所述的方法,其特征在于,
通过第一线程实现所述检测算法;通过第二线程实现所述跟踪算法。
3.根据权利要求2所述的方法,其特征在于,
所述根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪,包括:
通过所述第一线程向所述第二线程输出所述目标对象的跟踪框;
通过所述第二线程根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪。
4.根据权利要求2所述的方法,其特征在于,对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框之后,所述方法还包括:
通过第一线程停止对所述一帧输入图像后面的多帧输入图像进行检测。
5.根据权利要求2所述的方法,其特征在于,
所述根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪,包括:
在通过所述第一线程得到包括所述目标对象的跟踪框后,启动所述第二线程;在所述第二线程启动后,通过所述第二线程根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪。
6.根据权利要求2所述的方法,其特征在于,
在检测算法开启、且当前输入图像是所述输入图像序列中的第一帧输入图像时,通过第一线程将所述第一状态机设置为启动状态;在第一状态机为启动状态时,通过所述第一线程对输入图像进行检测;
在检测算法开启、且当前输入图像不是所述输入图像序列中的第一帧输入图像时,通过第一线程将所述第一状态机设置为空闲状态;在第一状态机为空闲状态时,停止通过所述第一线程对输入图像进行检测;
在检测算法关闭时,通过第一线程将第一状态机设置为关闭状态;在第一状态机为关闭状态时,停止通过所述第一线程对输入图像进行检测。
7.根据权利要求2所述的方法,其特征在于,
在跟踪算法开启时,通过第二线程将第二状态机设置为启动状态;在第二状态机为启动状态时,通过所述第二线程对输入图像进行跟踪;
在跟踪算法关闭时,通过第二线程将第二状态机设置为关闭状态;在第二状态机为关闭状态时,停止通过所述第二线程对输入图像进行跟踪。
8.根据权利要求1所述的方法,其特征在于,基于检测算法,对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框,包括:
通过特定CNN检测算法对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框;
其中,所述特定CNN检测算法包括弱分类器。
9.根据权利要求8所述的方法,其特征在于,所述特定CNN检测算法是包括pnet和rnet,但不包括onet的MTCNN检测算法。
10.根据权利要求8所述的方法,其特征在于,
所述通过特定CNN检测算法对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框,包括:
针对输入到所述特定CNN检测算法的弱分类器的跟踪框,则通过所述弱分类器检测所述跟踪框是否符合过滤策略;
如果否,则将所述跟踪框输出给所述特定CNN检测算法的下一级网络。
11.根据权利要求8所述的方法,其特征在于,所述通过所述弱分类器检测所述跟踪框是否符合过滤策略之后,所述方法还包括:
如果符合过滤策略,则过滤所述跟踪框。
12.根据权利要求8-11任一项所述的方法,其特征在于,所述特定CNN检测算法包括至少一个弱分类器,不同弱分类器具有相同或不同的过滤策略;
其中,所述弱分类器部署在所述特定CNN检测算法的任意一级网络;
所述过滤策略具体包括:形态学过滤策略,和/或,肤色过滤策略。
13.根据权利要求8所述的方法,其特征在于,
所述通过特定CNN检测算法对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框,包括:
将输入图像和网络参数转换为定点数据,通过所述特定CNN检测算法利用转换后的定点数据进行处理,得到包括所述目标对象的跟踪框。
14.根据权利要求8所述的方法,其特征在于,所述特定CNN检测算法通过定点网络实现,所述定点网络中的输入图像和网络参数均为定点数据;
所述通过特定CNN检测算法对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框,包括:通过所述特定CNN检测算法利用定点数据进行处理,得到包括所述目标对象的跟踪框。
15.根据权利要求8所述的方法,其特征在于,
所述通过特定CNN检测算法对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框之前,所述方法还包括:
对所述输入图像序列中的一帧输入图像进行预处理,得到预处理后的输入图像;通过特定CNN检测算法对预处理后的输入图像进行处理,得到包括所述目标对象的跟踪框。
16.根据权利要求15所述的方法,其特征在于,
所述预处理包括:压缩感知处理;和/或,肤色检测处理。
17.根据权利要求8所述的方法,其特征在于,
所述通过特定CNN检测算法对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框,包括:
利用时域信息预测目标对象的参考区域;
通过特定CNN检测算法对所述输入图像序列中的一帧输入图像中的参考区域进行检测,得到包括目标对象的跟踪框。
18.根据权利要求1所述的方法,其特征在于,
所述基于跟踪算法,根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪,包括:
获取基于上一帧输入图像得到的所述目标对象的跟踪框以及所述目标对象的空间上下文模型,所述空间上下文模型用于指示在所述上一帧输入图像中所述目标对象与周围图像区域的空间相关性;
基于所述空间上下文模型,在当前帧输入图像中对应所述跟踪框的位置处以及周围区域中确定所述目标对象。
19.根据权利要求18所述的方法,其特征在于,所述空间上下文模型包括以下之一或者任意组合:灰度特征、hog特征、矩特征、sift特征。
20.根据权利要求1所述的方法,其特征在于,
所述基于跟踪算法,根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪,包括:
通过卡尔曼滤波预测目标对象的参考区域;
基于跟踪算法,根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中的所述参考区域,对所述目标对象进行跟踪。
21.根据权利要求1所述的方法,其特征在于,
所述基于跟踪算法,根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪之后,所述方法还包括:
利用第一输入图像中的第一跟踪框和第二输入图像中的第二跟踪框确定所述目标对象的目标跟踪框;其中,所述第一跟踪框是基于检测算法在所述第一输入图像中得到的包括目标对象的跟踪框;所述第二跟踪框是基于跟踪算法在所述第二输入图像中对所述目标对象进行跟踪时得到的跟踪框;
基于跟踪算法,根据所述目标跟踪框对所述目标对象进行跟踪。
22.根据权利要求21所述的方法,其特征在于,
所述利用第一输入图像中的第一跟踪框和第二输入图像中的第二跟踪框确定所述目标对象的目标跟踪框,包括:
计算所述第一跟踪框与所述第二跟踪框的重合程度;
根据所述重合程度确定所述目标对象的目标跟踪框。
23.根据权利要求22所述的方法,其特征在于,
所述根据所述重合程度确定所述目标对象的目标跟踪框,包括:
若所述重合程度大于或者等于预设阈值,则将所述第二跟踪框确定为所述目标对象的目标跟踪框;或者,若所述重合程度小于所述预设阈值,则将所述第一跟踪框确定为所述目标对象的目标跟踪框。
24.根据权利要求22或23所述的方法,其特征在于,所述重合程度包括:所述第一跟踪框与所述第二跟踪框之间的交集并集比IoU。
25.根据权利要求1所述的方法,其特征在于,
所述输入图像包括的目标对象为至少一个,所述目标对象包括人脸。
26.一种跟踪控制设备,其特征在于,包括:存储器和处理器;
所述存储器,用于存储程序代码;
所述处理器,用于调用所述程序代码,当程序代码被执行时,用于执行以下操作:获取输入图像序列;
基于检测算法,对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框;
基于跟踪算法,根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪。
27.根据权利要求26所述的设备,其特征在于,
所述处理器通过第一线程实现所述检测算法;
所述处理器通过第二线程实现所述跟踪算法。
28.根据权利要求27所述的设备,其特征在于,所述处理器根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪时具体用于:通过所述第一线程向所述第二线程输出所述目标对象的跟踪框;通过所述第二线程根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪。
29.根据权利要求27所述的设备,其特征在于,所述处理器对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框之后还用于:通过第一线程停止对所述一帧输入图像后面的多帧输入图像进行检测。
30.根据权利要求27所述的设备,其特征在于,
所述处理器根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪时具体用于:
在通过所述第一线程得到包括所述目标对象的跟踪框后,启动所述第二线程;在所述第二线程启动后,通过所述第二线程根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪。
31.根据权利要求27所述的设备,其特征在于,所述处理器还用于:
在检测算法开启、且当前输入图像是所述输入图像序列中的第一帧输入图像时,通过第一线程将所述第一状态机设置为启动状态;在第一状态机为启动状态时,通过所述第一线程对输入图像进行检测;
在检测算法开启、且当前输入图像不是所述输入图像序列中的第一帧输入图像时,通过第一线程将所述第一状态机设置为空闲状态;在第一状态机为空闲状态时,停止通过所述第一线程对输入图像进行检测;
在检测算法关闭时,通过第一线程将第一状态机设置为关闭状态;在第一状态机为关闭状态时,停止通过所述第一线程对输入图像进行检测。
32.根据权利要求27所述的设备,其特征在于,所述处理器还用于:
在跟踪算法开启时,通过第二线程将第二状态机设置为启动状态;在第二状态机为启动状态时,通过所述第二线程对输入图像进行跟踪;
在跟踪算法关闭时,通过第二线程将第二状态机设置为关闭状态;在第二状态机为关闭状态时,停止通过所述第二线程对输入图像进行跟踪。
33.根据权利要求26所述的设备,其特征在于,
所述处理器基于检测算法,对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框时具体用于:通过特定CNN检测算法对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框;
其中,所述特定CNN检测算法包括弱分类器。
34.根据权利要求33所述的设备,其特征在于,所述处理器通过特定CNN检测算法对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框时具体用于:针对输入到所述特定CNN检测算法的弱分类器的跟踪框,则通过所述弱分类器检测所述跟踪框是否符合过滤策略;如果否,则将所述跟踪框输出给所述特定CNN检测算法的下一级网络。
35.根据权利要求33所述的设备,其特征在于,
所述处理器通过所述弱分类器检测所述跟踪框是否符合过滤策略之后还用于:如果符合过滤策略,则过滤所述跟踪框。
36.根据权利要求33所述的设备,其特征在于,
所述处理器通过特定CNN检测算法对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框时具体用于:
将输入图像和网络参数转换为定点数据,通过所述特定CNN检测算法利用转换后的定点数据进行处理,得到包括所述目标对象的跟踪框。
37.根据权利要求33所述的设备,其特征在于,所述特定CNN检测算法通过定点网络实现,所述定点网络中的输入图像和网络参数均为定点数据;
所述处理器通过特定CNN检测算法对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框时具体用于:通过所述特定CNN检测算法利用定点数据进行处理,得到包括所述目标对象的跟踪框。
38.根据权利要求33所述的设备,其特征在于,
所述处理器通过特定CNN检测算法对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框之前还用于:对所述输入图像序列中的一帧输入图像进行预处理,得到预处理后的输入图像;通过特定CNN检测算法对预处理后的输入图像进行处理,得到包括所述目标对象的跟踪框。
39.根据权利要求33所述的设备,其特征在于,
所述处理器通过特定CNN检测算法对所述输入图像序列中的一帧输入图像进行检测,得到包括目标对象的跟踪框时具体用于:利用时域信息预测目标对象的参考区域;通过特定CNN检测算法对所述输入图像序列中的一帧输入图像中的参考区域进行检测,得到包括目标对象的跟踪框。
40.根据权利要求26所述的设备,其特征在于,
所述处理器基于跟踪算法,根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪时具体用于:获取基于上一帧输入图像得到的所述目标对象的跟踪框以及所述目标对象的空间上下文模型,所述空间上下文模型用于指示在所述上一帧输入图像中所述目标对象与周围图像区域的空间相关性;基于所述空间上下文模型,在当前帧输入图像中对应所述跟踪框的位置处以及周围区域中确定所述目标对象。
41.根据权利要求26所述的设备,其特征在于,所述处理器基于跟踪算法,根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪时具体用于:通过卡尔曼滤波预测目标对象的参考区域;基于跟踪算法,根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中的所述参考区域,对所述目标对象进行跟踪。
42.根据权利要求26所述的设备,其特征在于,
所述处理器基于跟踪算法,根据所述目标对象的跟踪框在所述一帧输入图像后面的多帧输入图像中对所述目标对象进行跟踪之后还用于:
利用第一输入图像中的第一跟踪框和第二输入图像中的第二跟踪框确定所述目标对象的目标跟踪框;其中,所述第一跟踪框是基于检测算法在所述第一输入图像中得到的包括目标对象的跟踪框;所述第二跟踪框是基于跟踪算法在所述第二输入图像中对所述目标对象进行跟踪时得到的跟踪框;
基于跟踪算法,根据所述目标跟踪框对所述目标对象进行跟踪。
43.根据权利要求42所述的设备,其特征在于,所述处理器利用第一输入图像中的第一跟踪框和第二输入图像中的第二跟踪框确定所述目标对象的目标跟踪框时具体用于:计算所述第一跟踪框与所述第二跟踪框的重合程度;根据所述重合程度确定所述目标对象的目标跟踪框。
44.根据权利要求42所述的设备,其特征在于,
所述处理器根据所述重合程度确定所述目标对象的目标跟踪框时具体用于:若所述重合程度大于或者等于预设阈值,则将所述第二跟踪框确定为所述目标对象的目标跟踪框;或者,若所述重合程度小于所述预设阈值,则将所述第一跟踪框确定为所述目标对象的目标跟踪框。
45.一种计算机可读存储介质,其特征在于,
所述计算机可读存储介质上存储有计算机指令,所述计算机指令被执行时,实现权利要求1-25任一项所述的跟踪控制方法。
CN201880039294.5A 2018-07-27 2018-07-27 跟踪控制方法、设备、计算机可读存储介质 Pending CN110799984A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/097667 WO2020019353A1 (zh) 2018-07-27 2018-07-27 跟踪控制方法、设备、计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN110799984A true CN110799984A (zh) 2020-02-14

Family

ID=69181220

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880039294.5A Pending CN110799984A (zh) 2018-07-27 2018-07-27 跟踪控制方法、设备、计算机可读存储介质

Country Status (3)

Country Link
US (1) US20210150254A1 (zh)
CN (1) CN110799984A (zh)
WO (1) WO2020019353A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111866573A (zh) * 2020-07-29 2020-10-30 腾讯科技(深圳)有限公司 视频的播放方法、装置、电子设备及存储介质
WO2022193990A1 (zh) * 2021-03-17 2022-09-22 腾讯科技(深圳)有限公司 检测跟踪方法、装置、设备、存储介质及计算机程序产品

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111311641B (zh) * 2020-02-25 2023-06-09 重庆邮电大学 一种无人机目标跟踪控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130177203A1 (en) * 2012-01-06 2013-07-11 Qualcomm Incorporated Object tracking and processing
CN104866805A (zh) * 2014-02-20 2015-08-26 腾讯科技(深圳)有限公司 人脸实时跟踪的方法和装置
CN106803263A (zh) * 2016-11-29 2017-06-06 深圳云天励飞技术有限公司 一种目标跟踪方法及装置
CN107688785A (zh) * 2017-08-28 2018-02-13 西安电子科技大学 基于arm平台的双线程并行实时人脸检测的开发方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101986348A (zh) * 2010-11-09 2011-03-16 上海电机学院 一种视觉目标识别与跟踪方法
CN105701840A (zh) * 2015-12-31 2016-06-22 上海极链网络科技有限公司 视频中多物体实时追踪系统及其实现方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130177203A1 (en) * 2012-01-06 2013-07-11 Qualcomm Incorporated Object tracking and processing
CN104866805A (zh) * 2014-02-20 2015-08-26 腾讯科技(深圳)有限公司 人脸实时跟踪的方法和装置
CN106803263A (zh) * 2016-11-29 2017-06-06 深圳云天励飞技术有限公司 一种目标跟踪方法及装置
CN107688785A (zh) * 2017-08-28 2018-02-13 西安电子科技大学 基于arm平台的双线程并行实时人脸检测的开发方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111866573A (zh) * 2020-07-29 2020-10-30 腾讯科技(深圳)有限公司 视频的播放方法、装置、电子设备及存储介质
CN111866573B (zh) * 2020-07-29 2022-03-11 腾讯科技(深圳)有限公司 视频的播放方法、装置、电子设备及存储介质
WO2022193990A1 (zh) * 2021-03-17 2022-09-22 腾讯科技(深圳)有限公司 检测跟踪方法、装置、设备、存储介质及计算机程序产品

Also Published As

Publication number Publication date
WO2020019353A1 (zh) 2020-01-30
US20210150254A1 (en) 2021-05-20

Similar Documents

Publication Publication Date Title
CN110378264B (zh) 目标跟踪方法及装置
JP6509275B2 (ja) 画像の背景差分に用いられる背景モデルを更新する方法及び装置
US20210319565A1 (en) Target detection method, apparatus and device for continuous images, and storage medium
CN109035246B (zh) 一种人脸的图像选择方法及装置
CN111563919B (zh) 目标跟踪方法、装置、计算机可读存储介质及机器人
US10867390B2 (en) Computer vision processing
CN110751674A (zh) 多目标跟踪方法及相应视频分析系统
US20210150254A1 (en) Tracking control method, apparatus, and computer-readable storage medium
CN111311634B (zh) 一种人脸图像检测方法、装置及设备
KR20160020498A (ko) 트랙커 보조 이미지 캡쳐
CN108876758B (zh) 人脸识别方法、装置及系统
US20070025592A1 (en) Target-region detection apparatus, method and program
CN110647818A (zh) 一种遮挡目标物体的识别方法及装置
CN111582032A (zh) 行人检测方法、装置、终端设备及存储介质
CN113362371A (zh) 目标跟踪方法及装置、电子设备、存储介质
CN113256683B (zh) 目标跟踪方法及相关设备
CN110866484A (zh) 驾驶员人脸检测方法、计算机装置及计算机可读存储介质
CN116363628A (zh) 标志检测方法、装置、非易失性存储介质及计算机设备
CN111199179B (zh) 目标对象的跟踪方法、终端设备及介质
CN108109107B (zh) 视频数据处理方法及装置、计算设备
CN115346143A (zh) 行为检测方法、电子设备、计算机可读介质
CN107977644B (zh) 基于图像采集设备的图像数据处理方法及装置、计算设备
García et al. A Gaussian-Median filter for moving objects segmentation applied for static scenarios
US20240095883A1 (en) Image processing device, electronic device having the same, and operating method thereof
JP2003256849A (ja) 物体抽出システム、物体抽出方法および物体抽出プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200214

WD01 Invention patent application deemed withdrawn after publication