CN105678288B - 目标跟踪方法和装置 - Google Patents

目标跟踪方法和装置 Download PDF

Info

Publication number
CN105678288B
CN105678288B CN201610124478.4A CN201610124478A CN105678288B CN 105678288 B CN105678288 B CN 105678288B CN 201610124478 A CN201610124478 A CN 201610124478A CN 105678288 B CN105678288 B CN 105678288B
Authority
CN
China
Prior art keywords
human face
face region
target
tracking
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610124478.4A
Other languages
English (en)
Other versions
CN105678288A (zh
Inventor
明悦
吴岳辛
余礼杨
步繁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN201610124478.4A priority Critical patent/CN105678288B/zh
Publication of CN105678288A publication Critical patent/CN105678288A/zh
Application granted granted Critical
Publication of CN105678288B publication Critical patent/CN105678288B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明提供一种目标跟踪方法和装置。该方法包括:采集当前视频图像的深度图像和彩色图像;根据所述深度图像获取所述深度图像中的至少两个目标区域;对每个目标区域对应的彩色图像进行人脸检测,获取每个目标区域对应的人脸区域;当第一目标区域对应的第一人脸区域和第二目标区域对应的第二人脸区域之间的距离小于预设阈值时,采用核化相关滤波器分别对所述第一人脸区域和所述第二人脸区域进行跟踪。本发明提供的目标跟踪方法,在多目标跟踪中存在的目标阴影干扰和目标交互时出现的遮挡干扰时,实现了对多目标的准确跟踪。

Description

目标跟踪方法和装置
技术领域
本发明涉及图像处理技术,尤其涉及一种目标跟踪方法和装置。
背景技术
视频监控是企事业单位、商业场所、公园等重点部门或重要场所进行实时监控的物理基础,管理部门可通过视频监控获得有效数据、图像或声音信息。
随着当前计算机应用的迅速发展和推广,在视频监控中如何实现对多目标的跟踪一直是技术人员研究的问题。现有的视频监控中的多目标跟踪方法包括:从跟踪视频中获取至少一个兴趣目标的初始信息,从兴趣目标中按照特征显著度从大到小的顺序选择出N0(t)个兴趣目标作为初始跟踪层,然后根据初始跟踪层中的N0(t)个兴趣目标的初始位置,对N0(t)个兴趣目标进行逐个跟踪,并根据未跟踪兴趣目标和已跟踪兴趣目标整体的关联度,将未跟踪兴趣目标依次选入下一新建跟踪层进行逐层跟踪。
但是,上述方法无法处理多个目标在交互时出现的相互遮挡问题,其跟踪不准确。
发明内容
本发明提供一种目标跟踪方法和装置,用以解决多目标跟踪中存在的目标阴影干扰和目标交互时出现的遮挡干扰问题。
第一方面,本发明提供一种目标跟踪方法,包括:
采集当前视频图像的深度图像和彩色图像;
根据所述深度图像获取所述深度图像中的至少两个目标区域;
对每个目标区域对应的彩色图像进行人脸检测,获得每个目标区域对应的人脸区域;
当第一目标区域对应的第一人脸区域和第二目标区域对应的第二人脸区域之间的距离小于预设阈值时,采用核化相关滤波器分别对所述第一人脸区域和所述第二人脸区域进行跟踪。
进一步地,所述方法还包括:
根据所述彩色图像获取所述核化相关滤波器。
更进一步地,上述方法还包括:
当所述第一人脸区域和所述第二人脸区域之间的距离不小于所述预设阈值时,将所述第一人脸区域和所述第二人脸区域作为跟踪结果。
进一步地,上述方法还包括:
采集所述当前视频图像的标识区域;
判断所述第一人脸区域和/或所述第二人脸区域是否进入所述标识区域;
若是,则向终端发送报警信息。
更进一步地,上述方法还包括:
确定所述第一人脸区域在下一帧的第一预测位置、和/或所述第二人脸区域在下一帧的第二预测位置;
对应的,判断所述第一预测位置和/或所述第二预测位置是否位于视频可视范围;
若否,则停止跟踪。
第二方面,本发明提供一种目标跟踪装置,包括:
采集模块,用于采集当前视频图像的深度图像和彩色图像;
第一获取模块,根据所述深度图像获取所述深度图像中的至少两个目标区域;
检测模块,用于对每个目标区域对应的彩色图像进行人脸检测,获得每个目标区域对应的人脸区域。
第一跟踪模块,用于当第一目标区域对应的第一人脸区域和第二目标区域对应的第二人脸区域之间的距离小于预设阈值时,采用核化相关滤波器分别对所述第一人脸区域和所述第二人脸区域进行跟踪。
进一步地,上述装置还包括:
第二获取模块,用于根据所述彩色图像获取所述核化相关滤波器
更进一步地,上述装置还包括:
第二跟踪模块,用于当所述第一人脸区域和所述第二人脸区域之间的距离不小于所述预设阈值时,将所述第一人脸区域和所述第二人脸区域作为跟踪结果。
其中,上述采集模块,还用于采集所述当前视频图像的标识区域;
进一步地,上述装置还包括:
第一判断模块,用于判断所述第一人脸区域和/或所述第二人脸区域是否进入所述标识区域;
发送模块,用于当所述第一判断模块判断所述第一人脸区域和/或所述第二人脸区域进入所述标识区域时,向终端发送报警信息。
更进一步地,上述装置还包括:
确定模块,用于确定所述第一人脸区域在下一帧的第一预测位置、和/或所述第二人脸区域在下一帧的第二预测位置;
第二判断模块,用于判断所述第一预测位置和/或所述第二预测位置是否位于视频可视范围;
处理模块,用于当所述第二判断模块判断所述第一预测位置和/或所述第二预测位置不在视频可视范围内时,则指示停止跟踪。
本发明提供的目标跟踪方法和装置,通过采集当前视频图像的深度图像和彩色图像;根据所述深度图像获取所述深度图像中的至少两个目标区域,并对每个目标区域对应的彩色图像进行人脸检测,获得每个目标区域对应的人脸区域;当第一目标区域对应的第一人脸区域和第二目标区域对应的第二人脸区域之间的距离小于预设阈值时,采用核化相关滤波器分别对所述第一人脸区域和所述第二人脸区域进行跟踪,由于核化相关滤波器具有较强的单目标跟踪能力,并且人脸区域的目标特征信息丰富,从而本发明提供的目标跟踪方法实现了对多目标的准确跟踪,解决了多个目标交互时出现的遮挡问题和目标阴影干扰问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的目标跟踪方法实施例一的流程示意图;
图2为当前视频图像对应的彩色图像;
图3为当前视频图像对应的深度图像;
图4为本发明提供的目标跟踪方法实时例二的流程示意图;
图5为本发明提供的目标跟踪方法实时例三的流程示意图;
图6为本发明提供的目标跟踪装置实施例一的结构示意图;
图7为本发明提供的目标跟踪装置实施例二的结构示意图;
图8为本发明提供的目标跟踪装置实施例三的结构示意图;
图9为本发明提供的目标跟踪装置实施例四的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例适用于视频监控系统,例如道路监控系统、军事区域监控系统或者商业场所监控系统等重要场所的实时监控系统,该视频监控系统可以包括深度摄像头、彩色摄像头、视频分配器、存储器和显示器等设备。
本发明提供的技术方案,旨在解决现有技术中多目标跟踪中存在的目标阴影干扰和目标交互时出现的遮挡干扰,造成对多目标无法实现准确跟踪的问题,本发明提供的目标跟踪方法与装置可以集成到视频监控系统中,实现了对多目标的准确跟踪。
下面以具体地实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。
图1为本发明提供的目标跟踪方法实施例一的流程示意图,该实施例的执行主体可以是目标跟踪装置,该目标跟踪装置可以是独立的视频监控系统,还可以是集成在视频监控系统中的装置。如图1所示,本实施例的方法,包括:
步骤101、采集当前视频图像的深度图像和彩色图像。
具体地,本发明首先使用视频监控系统中的深度摄像头采集当前视频图像的深度图像,其中深度图像用于表示视频场景中各点相对于深度摄象头的距离,该深度图像与环境的光照以及环境的阴影无关,不受环境的影响。也就是说,深度图像可以将视频场景中的背景阴影去除掉,在深度图像中只显示目标的图像而不会显示该目标的阴影图像,这样使得在目标跟踪中只跟踪深度图像中显示的目标即可,不会将视频背景中的阴影作为目标进行跟踪,使得目标跟踪更加准确。即,在整个目标跟踪过程中,视频监控系统需要处理的像素点将减少,可以提高计算机的处理像素点的速度,进而大大提高了目标跟踪的速度,并且深度图像中各像素点可以清晰地表达视频场景中景物表面的几何形状,使得目标更加清晰,更加方便视频监控系统获得目标的特征像素点,进而也提高了目标跟踪的准确性。接着,使用彩色摄像头采集当前视频图像的彩色图像,其中,彩色图像用于显示当前视频的实际彩色图像 (彩色图像中的物体或者任务会有相应的阴影);然后再将采集到的深度图像和彩色图像进行融合,最后在显示器上显示,该显示器上的视频图像即包括了显示当前视频场景真实情况的彩色图像,用户可以根据彩色图像实时获得当前视频场景中的情况,又包括了去除背景阴影干扰的深度图像,使得在该深度图像上进行目标跟踪时不受背景阴影的干扰,提高了目标跟踪的准确性和获取目标的速度。
举例说明,图2为当前视频图像对应的彩色图像,图3为当前视频图像对应的深度图像。参见图2所示,当前视频图像形成的彩色图像中即显示当前目标100和目标200,同时还显示目标100形成的阴影101和目标200形成的阴影201,在以图2所示的彩色图像为基础进行目标跟踪时,视频监控系统会将目标100、目标200、目标100对应的阴影101和目标200对应的阴影201都当做目标进行跟踪,也就是说,以彩色图像为基础的目标跟踪,视频监控系统会将目标形成的阴影也当做目标进行跟踪,使得视频监控系统需要处理的无效像素点增大,其处理速度降低,同时造成跟踪不准确的问题。参见图3所示,当前视频图像形成的深度图像中只显示了当前目标100和目标200,而不显示目标100和目标200形成的阴影,即深度图像可以将目标形成的阴影去除掉,在目标跟踪中,视频监控系统只会跟踪到目标100和目标200,而不会将目标形成的阴影错当做目标进行跟踪,进而提高了目标跟踪的准确性和获取目标的速度。
本实施例可以使用微软提供的第2代家用游戏主机体感周边外设(xbox 360kinect)设备采集当前视频的深度图像和彩色图像,还可以使用双目立体视觉算法采集当前视频图像的深度图像和彩色图像,本发明对视频监控系统中采集深度图像和彩色图像的设备不做限制。
步骤102、根据所述深度图像获取所述深度图像中的至少两个目标区域。
具体地,在上述采集的当前视频的深度图像上进行目标区域检测,选择出至少两个目标区域,该目标区域可以用于表示目标,目标区域的形状可以是矩形、圆形或者其他平面形状,目标区域的大小可以与目标大小相同,此时可以通过跟踪目标区域实现对目标的跟踪,例如当跟踪目标为一个人时,可以用一个矩形将人的外轮廓包围起来,该矩形表示目标人的目标区域,此时可以通过跟踪该矩形实现对人的跟踪。
其中,本实施例中目标区域的选择方法可以采用像素级视频背景建模或前景检测算法(vibe)获取目标区域,也可以采用帧差法获取目标区域,本发明对目标区域的获取方法不做限制。
步骤103、对每个目标区域对应的彩色图像进行人脸检测,获取每个目标区域对应的人脸区域。
具体地,本发明首先获取上述每个目标区域对应的彩色图像,该彩色图像为彩色摄像头获得的彩色图像,接着在该彩色图像上进行人脸检测,获得每个目标区域对应的人脸区域,该人脸区域可以表示目标,通过跟踪人脸区域实现对目标的跟踪,其中人脸区域的形状可以是矩形、圆形或者其他平面形状,人脸区域的大小可以与人脸的大小一致,也可以大于或小于人脸的大小,其人脸区域的具体大小可根据实际情况来确定,在此不做限制。
其中,人脸检测是指在输入图像中判断是否存在人脸区域,并进一步确定人脸的位置、大小、姿态等信息,也就是说,人脸检测可以获得人的更多特征信息,该特征信息可以更加清晰地区分不同的目标,使得基于人脸区域的目标跟踪更加准确。不同的人脸区域对应不同的人脸区域信息,人脸区域信息包括多个该人脸对应的人的特征信息。
需要说明的是,本发明的人脸检测是在目标区域上进行的,即本发明在进行人脸检测时,在人脸检测算法中输入的是目标区域而不是整个当前视频图像的视频帧,这样使得输入的像素数量减少,进而提高了视频监控系统的处理像素点的速度,因此,本发明提供的目标跟踪方法中基于目标区域的人脸检测的速度较在整幅图像上进行人脸检测的速度有了极大的提升。
其中,本实施例中获取人脸区域的人脸检测算法,可以采用adaboost人脸检测算法获取人脸区域,也可以采用基于主成分分析(principal component analysis,简称PCA)的人脸检测算法获取人脸区域,本实施例对获取人脸区域的人脸检测算法不做限制。
步骤104、当第一目标区域对应的第一人脸区域和第二目标区域对应的第二人脸区域之间的距离小于预设阈值时,采用核化相关滤波器分别对所述第一人脸区域和所述第二人脸区域进行跟踪。
具体地,当上述至少两个目标区域在运动时,可能会出现两个目标区域重叠的情况,针对这种情况,本发明首先设定一个预设阈值,该预设阈值确保任意两目标不发生遮挡,当上述至少两个目标区域中的第一目标区域对应的第一人脸区域和第二目标区域对应的第二人脸区域之间的距离小于该预设阈值时,说明此时第一人脸区域对应的第一目标和第二人脸区域对应的第二目标会发生遮挡,接着采用核化相关滤波器分别对所述第一人脸区域和所述第二人脸区域进行跟踪,具体的,可以采用第一核化相关滤波器对第一人脸区域进行跟踪,采用第二核化相关滤波器对第二人脸区域进行跟踪。当第一人脸区域与第二人脸区域发生遮挡并各自分离后,该第一人脸区域对应的第一核化相关滤波器仍然可以准确地跟踪到第一人脸区域,第二人脸区域对应的第二核化相关滤波器可以准确地跟踪到第二人脸区域,这样就实现了对发生遮挡的多目标的准确跟踪,解决了多目标在视频场景中发生遮挡时,无法实现对目标的准确跟踪的问题。
需要说明的是,核化相关滤波器为相关滤波器跟踪算法,具有较强的单目标跟踪能力,本实施例中,核化相关滤波器跟踪算法输入的是人脸区域对应的人脸区域信息,其中人脸检测算法获得的人脸区域具有较强的目标特征性(即通过人脸检测算法获得的人脸区域的特征信息比较丰富),用该具有目标特征性的人脸区域对应的人脸区域信息输入到核化相关滤波器跟踪算法中后,使得核化相关滤波器具有较强的获取目标特征的能力,此时在整个跟踪过程中,核化相关滤波器可以更好地跟踪目标,有效地降低了跟丢目标的风险。
为了进一步地说明本发明提供的目标跟踪方法,举例说明:
例如,视频场景中有三个人,该三个人为跟踪目标,首先采集当前视频图像的深度图像和彩色图像,该深度图像可以去除背景阴影干扰,在该深度图像中只显示三个跟踪目标A、B和C(不显示A、B和C的阴影),在彩色图像中接着在该深度图像上采用运动区域检测算法获得三个跟踪目标A、B 和C对应的三个目标区域D、E和F,假设目标区域D、E和F均为矩形,此时可用该是三个矩形的目标区域D、E和F表示跟踪目标A、B和C,为了进一步提高目标跟踪的准确性,需要更加突出的目标的特征,本发明在上述生成的目标区域D、E和F的基础上采用人脸检测算法,获得目标区域D、E 和F对应的人脸区域G、H和I,假设三个人脸区域G、H和I的形状也为矩形,此时用人脸区域G、H和I表示跟踪目标A、B和C,摄像头通过跟踪人脸区域G、H和I实现对跟踪目标A、B和C的跟踪,当人脸区域G、H和I 中任意两个(比如H和I)之间的距离小于预设阈值T时,则说明人脸区域 H和I要发生遮挡,此时采用核化相关滤波器J对人脸区域H进行跟踪,采用核化相关滤波器K对人脸区域I进行跟踪,即当人脸区域H和I发生遮挡后分开,核化相关滤波器J依然跟踪人脸区域H,核化相关滤波器K依然跟踪人脸区域I,这样就防止了当多目标遮挡时跟丢目标而引起的监控安全问题,实现了对多目标的准确跟踪。
现有技术中基于彩色图像的多目标跟踪方法,在多个目标没有与周围的其他目标进行交互,即与周围其他目标之间的距离较大时,视频监控系统可以准确捕捉到各目标并进行跟踪,但当多个目标发生遮挡时,多个目标重叠形成了一个目标,此时视频监控系统只能捕捉到重叠后形成的该一个目标,当多个重叠目标分开后,则视频监控系统无法捕捉到多目标发生遮挡之前所跟踪的对应目标,容易跟丢目标。本发明通过采用深度图像和核化滤波器,即使在遮挡后分开,也可以准确跟踪目标,其具体原理参照上述描述,在此不再赘述。
需要说明的,本发明计算任意两个人脸区域之间的距离时,可以用人脸区域的中点表示人脸区域,此时计算任意两个人脸区域之间的距离可以转换为计算任意两个人脸区域对应的中点之间的距离,其计算公式可以采用二维平面中两点之间的距离公式得到。例如计算两个人脸区域之间的距离,首先计算获得上述两个人脸区域的中点P1和P2,则两点P1和P2的距离公式为:
其中P1(x)为P1的x坐标,其中P1(y)为P1的y坐标,其中P2(x)为P2的x坐标,其中P2(y)为P2的y坐标。
本发明提供的目标跟踪方法和装置,通过采集当前视频图像的深度图像和彩色图像;根据所述深度图像获取所述深度图像中的至少两个目标区域,并对每个目标区域对应的彩色图像进行人脸检测,获得每个目标区域对应的人脸区域;当第一目标区域对应的第一人脸区域和第二目标区域对应的第二人脸区域之间的距离小于预设阈值时,采用核化相关滤波器分别对所述第一人脸区域和所述第二人脸区域进行跟踪,由于核化相关滤波器具有较强的单目标跟踪能力,并且人脸区域的目标特征信息丰富,实现了对多目标的准确跟踪,解决了多个目标交互时出现的遮挡问题和目标阴影干扰问题。
进一步地,上述实施例中,在采用核化相关滤波器分别对所述第一人脸区域和所述第二人脸区域进行跟踪之前,根据所述彩色图像获取所述核化相关滤波器,也就是说,在使用核化相关滤波器之前,需要对核化相关滤波器进行初始化。
具体地,首先获得第一人脸区域对应的第一彩色图像,用该第一次彩色图像初始化上述第一核化相关滤波器,获得第二人脸区域对应的第二彩色图像,用该第二次彩色图像初始化上述第二核化相关滤波器,此时该第一核化相关滤波器中包括了人脸检测算法获得第一人脸区域信息,第二核化相关滤波器中包括了人脸检测算法获得第二人脸区域信息。接着,采用包括了第一人脸区域信息的第一核化相关滤波器对第一人脸区域进行跟踪,采用包括了第二人脸区域信息的第二核化相关滤波器对第二人脸区域进行跟踪,实现了多个核化相关滤波器对多个目标进行的跟踪,由于上述核化相关滤波器分别包括了相应的具有目标特征性的人脸区域对应的人脸区域信息,使得目标跟踪更加准确,当目标发生遮挡时,该核化相关滤波器也可以实现对目标的准确跟踪。
本发明提供的目标跟踪方法,通过采用人脸区域对应的彩色图像对核化相关滤波器进行初始化获得,使得核化相关滤波器包括了具有目标特征性的人脸区域对应的人脸区域信息,提高了核化相关滤波器获取目标特征的能力,进而提高了核化相关滤波器对目标跟踪的准确性。
进一步地,如图1所示,本发明提供的目标跟踪方法还包括,
步骤105、当所述第一人脸区域和所述第二人脸区域之间的距离不小于所述预设阈值时,将所述第一人脸区域和所述第二人脸区域作为跟踪结果。
具体地,当判断第一人脸区域与第二人脸区域之间的距离不小于所述预设阈值时,说明此时第一人脸区域与第二人脸区域之间没有发生遮挡,不需要使用核化相关滤波器对人脸区域进行跟踪,此时该第一人脸区域与第二人脸区域为跟踪结果,无需进行其他的目标跟踪计算,其计算结果简单,降低了目标跟踪计算的复杂性,提高了目标跟踪的效率。
本发明提供的目标跟踪方法,通过判断第一人脸区域与第二人脸区域之间的距离,当第一人脸区域与第二人脸区域之间的距离不小于所述预设阈值时,直接以人脸区域作为跟踪结果,大大降低了目标跟踪的计算量,提高了目标跟踪的效率。
图4为本发明提供的目标跟踪方法实施例二的流程示意图,本实施例涉及的是如果实现在无人监控的情况下,用户可以通过视频监控系统发送的报警信息来实现对特定标识区域的具体监控过程。在上述实施例的基础上,如图4所示,本发明提供的目标跟踪方法还包括;
步骤201、采集所述当前视频图像的标识区域。
具体地,在当前视频图像上设定一标识区域,该标识区域可以是在当前视频图像上用鼠标绘制的一个平面区域,也可以是通过输入坐标获得的区域,该标识区域可以为一个多边形,视频监控系统可以采集到该多边形顶点的坐标。
可选的,该步骤201可以与上述步骤101同时进行,还可以是在步骤101 之前或者之后进行。
步骤202、判断所述第一人脸区域和/或所述第二人脸区域是否进入所述标识区域。
步骤203、若是,则向终端发送报警信息。
具体地,本实施例首先用多边形人脸区域的中点表示人脸区域,即用第一中点表示第一人脸区域,第二中点表示第二人脸区域,接着判断第一中点与标识区域的关系,当第一中点的坐标落在了标识区域的坐标范围内时,说明第一人脸区域表示的第一目标进入了标识区域,则视频监控系统向终端发送报警信息;和/或,判断第二中点与标识区域的关系,当第二中点的坐标落在了标识区域的坐标范围内时,说明第二人脸区域表示的第二目标进入了标识区域,则视频监控系统向终端发送报警信息。本发明通过视频监控系统向终端发送报警信息,当监控视频在无人监控的情况下,用户也可以通过终端接收到的报警信息获得进入标识区域的目标信息,实现了标识区域的无人监控报警,进而提高了视频监控的可靠性,其中终端接收到的报警信息可以是目标的特征信息比如身高、图片等信息,还可以是目标进入和离开标识区域的时间,或者目标在标识区域内的行走路径等信息,该报警信息可以根据实际需要进行设定,在此不做限制。
需要说明的是,本发明提供的目标跟踪方法可以集成到视频监控系统,该视频监控系统与终端设备绑定,可以与终端进行信息交互,该终端设备可以是手机,电脑等,例如将视频监控系统与手机中的微信进行绑定,当视频监控系统检测到有目标进入标识区域后,向手机中的微信发送报警信息,同时用户可以通过微信实时远程观测到当前的视频图像。
本发明提供的目标跟踪方法,通过将视频监控系统与终端绑定,判断当人脸区域表示的目标进入标识区域时,视频监控系统向终端发送报警信息,实现了标识区域的无人监控报警,提高了视频监控的可靠性。
图5为本发明提供的目标跟踪方法实时例三的流程示意图。本实施例涉及的是如何避免视频监控系统对离开视频监控范围外的目标进行跟踪,造成跟踪资源的浪费,跟踪处理速度慢的具体过程。在上述实施例的基础上,如图5所示,本发明提供的目标跟踪方法还包括:
步骤301、确定所述第一人脸区域在下一帧的第一预测位置、和/或所述第二人脸区域在下一帧的第二预测位置。
具体地,本发明采用目标状态估计算法,用于预测当前视频图像中的目标在下一图像数据帧的位置,即用目标状态估计算法确定上述第一人脸区域在下一帧的第一预测位置和/或上述第二人脸区域在下一帧的第二预测位置。这里的“和/或”,指的是采用目标状态估计算法确定上述第一人脸区域在下一帧的第一预测位置,或者,采用目标状态估计算法确定上述第二人脸区域在下一帧的第二预测位置,或者,采用目标状态估计算法确定上述第一人脸区域在下一帧的第一预测位置和上述第二人脸区域在下一帧的第二预测位置。
步骤302、对应的,判断所述第一预测位置和/或所述第二预测位置是否位于视频可视范围。
步骤303、若否,则停止跟踪。
具体地,将根据步骤301预测出第一预测位置与视频可视范围进行比较,当判断第一预测位置在视频可视范围内时,则需要对该第一预测位置对应的第一人脸区域继续进行跟踪,当判断第一预测位置不在视频可视范围内时,停止对该第一预测位置对应的第一人脸区域的跟踪;同理将根据步骤301预测出第二预测位置与视频可视范围进行比较,当判断第二预测位置在视频可视范围内时,则需要对该第二预测位置对应的第二人脸区域继续进行跟踪,当判断第二预测位置不在视频可视范围内时,停止对该第二预测位置对应的第二人脸区域的跟踪,这样使得视频监控系统只对视频可视范围内的目标进行跟踪,防止了视频监控系统对视频可视范围外的无效目标进行跟踪,造成跟踪资源浪费的问题,提高了对有效目标的跟踪速度。
其中,本发明目标状态估计算法可以通过卡尔曼滤波器实现,也可以用其他的状态估计算法实现,对此本发明不做限制。
本发明提供的目标跟踪方法,通过目标状态估计算法确定人脸区域的下一帧位置,当判断人脸区域下一帧的位置不在视频可视范围内时,停止对该人脸区域对应的目标的跟踪,防止视频监控系统对无效目标跟踪造成的资源浪费,进而提高了对有效目标的跟踪效率。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
图6为本发明提供的目标跟踪装置实施例一的结构示意图,该实施例的目标跟踪装置可以是独立的视频监控系统,还可以是集成在视频监控系统中的装置。如图6所示,本实施的目标跟踪装置10,包括采集模块11、第一获取模块12、检测模块13和第一跟踪模块14,其中:
采集模块11,用于采集当前视频图像的深度图像和彩色图像。
第一获取模块12,根据所述深度图像获取所述深度图像中的至少两个目标区域。
检测模块13,用于对每个目标区域对应的彩色图像进行人脸检测,获取每个目标区域对应的人脸区域。
第一跟踪模块14,用于当第一目标区域对应的第一人脸区域和第二目标区域对应的第二人脸区域之间的距离小于预设阈值时,采用核化相关滤波器分别对所述第一人脸区域和所述第二人脸区域进行跟踪。
本实施例提供的目标跟踪装置,可以用于上述实施例中的目标跟踪方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图7为本发明提供的目标跟踪装置实施例二的结构示意图,在上述实施例的基础上,如图7所示,本实施的目标跟踪装置10,包括第二获取模块15 和第二跟踪模块16,其中:
第二获取模块15,用于根据所述彩色图像获取所述核化相关滤波器。
第二跟踪模块16,用于当所述第一人脸区域和所述第二人脸区域之间的距离不小于所述预设阈值时,将所述第一人脸区域和所述第二人脸区域作为跟踪结果。
本实施例提供的目标跟踪装置,可以用于上述实施例中的目标跟踪方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图8为本发明提供的目标跟踪装置实施例三的结构示意图,为了避免视频监控系统对离开视频监控范围外的目标进行跟踪,造成跟踪资源的浪费,跟踪处理速度慢的问题,上述采集模块11,还用于采集所述当前视频图像的标识区域,如图8所示,本实施的目标跟踪装置10,还包括第一判断模块17 和发送模块18,其中:
第一判断模块17,用于判断所述第一人脸区域和/或所述第二人脸区域是否进入所述标识区域。
发送模块18,用于当所述第一判断模块17判断所述第一人脸区域和/或所述第二人脸区域进入所述标识区域时,向终端发送报警信息。
本实施例提供的目标跟踪装置,可以用于执行上述目标跟踪方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
图9为本发明提供的目标跟踪装置实施例四的结构示意图,在上述实施例的基础上,为了进一步提高视频监控系统的处理速度,防止视频监控系统对离开视频监控范围外的目标进行跟踪,使得跟踪资源的浪费,造成跟踪处理速度慢的问题,如图9所示,本发明的目标跟踪装置10还包括确定模块 19、第二判断模块20和处理模块21,其中:
确定模块19,用于确定所述第一人脸区域在下一帧的第一预测位置、和 /或所述第二人脸区域在下一帧的第二预测位置。
第二判断模块20,用于判断所述第一预测位置和/或所述第二预测位置是否位于视频可视范围。
处理模块21,用于当所述第二判断模块20判断所述第一预测位置和/或所述第二预测位置不在视频可视范围内时,则指示停止跟踪。
本实施例提供的目标跟踪装置,可以用于执行上述目标跟踪方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (10)

1.一种目标跟踪方法,其特征在于,包括:
采集当前视频图像的深度图像和彩色图像;
根据所述深度图像获取所述深度图像中的至少两个目标区域;
对每个目标区域对应的彩色图像进行人脸检测,获取每个目标区域对应的人脸区域;
当第一目标区域对应的第一人脸区域和第二目标区域对应的第二人脸区域之间的距离小于预设阈值时,采用核化相关滤波器分别对所述第一人脸区域和所述第二人脸区域进行跟踪。
2.根据权利要求1所述的目标跟踪方法,其特征在于,所述方法还包括:
根据所述彩色图像获取所述核化相关滤波器。
3.根据权利要求2所述的目标跟踪方法,其特征在于,所述方法还包括:
当所述第一人脸区域和所述第二人脸区域之间的距离不小于所述预设阈值时,将所述第一人脸区域和所述第二人脸区域作为跟踪结果。
4.根据权利要求1-3任一项所述的目标跟踪方法,其特征在于,所述方法还包括:
采集所述当前视频图像的标识区域;
判断所述第一人脸区域和/或所述第二人脸区域是否进入所述标识区域;
若是,则向终端发送报警信息。
5.根据权利要求4所述的目标跟踪方法,其特征在于,所述方法还包括:
确定所述第一人脸区域在下一帧的第一预测位置、和/或所述第二人脸区域在下一帧的第二预测位置;
对应的,判断所述第一预测位置和/或所述第二预测位置是否位于视频可视范围;
若否,则停止跟踪。
6.一种目标跟踪装置,其特征在于,包括:
采集模块,用于采集当前视频图像的深度图像和彩色图像;
第一获取模块,根据所述深度图像获取所述深度图像中的至少两个目标区域;
检测模块,用于对每个目标区域对应的彩色图像进行人脸检测,获取每个目标区域对应的人脸区域;
第一跟踪模块,用于当第一目标区域对应的第一人脸区域和第二目标区域对应的第二人脸区域之间的距离小于预设阈值时,采用核化相关滤波器分别对所述第一人脸区域和所述第二人脸区域进行跟踪。
7.根据权利要求6所述的目标跟踪装置,其特征在于,所述装置还包括:
第二获取模块,用于根据所述彩色图像获取所述核化相关滤波器。
8.根据权利要求7所述的目标跟踪装置,其特征在于,所述装置还包括:
第二跟踪模块,用于当所述第一人脸区域和所述第二人脸区域之间的距离不小于所述预设阈值时,将所述第一人脸区域和所述第二人脸区域作为跟踪结果。
9.根据权利要求6-8任一项所述的目标跟踪装置,其特征在于,所述采集模块,还用于采集所述当前视频图像的标识区域;
所述装置还包括:
第一判断模块,用于判断所述第一人脸区域和/或所述第二人脸区域是否进入所述标识区域;
发送模块,用于当所述第一判断模块判断所述第一人脸区域和/或所述第二人脸区域进入所述标识区域时,向终端发送报警信息。
10.根据权利要求9所述的目标跟踪装置,其特征在于,所述装置还包括:
确定模块,用于确定所述第一人脸区域在下一帧的第一预测位置、和/或所述第二人脸区域在下一帧的第二预测位置;
第二判断模块,用于判断所述第一预测位置和/或所述第二预测位置是否位于视频可视范围;
处理模块,用于当所述第二判断模块判断所述第一预测位置和/或所述第二预测位置不在视频可视范围内时,则指示停止跟踪。
CN201610124478.4A 2016-03-04 2016-03-04 目标跟踪方法和装置 Active CN105678288B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610124478.4A CN105678288B (zh) 2016-03-04 2016-03-04 目标跟踪方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610124478.4A CN105678288B (zh) 2016-03-04 2016-03-04 目标跟踪方法和装置

Publications (2)

Publication Number Publication Date
CN105678288A CN105678288A (zh) 2016-06-15
CN105678288B true CN105678288B (zh) 2019-03-26

Family

ID=56306824

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610124478.4A Active CN105678288B (zh) 2016-03-04 2016-03-04 目标跟踪方法和装置

Country Status (1)

Country Link
CN (1) CN105678288B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106054897A (zh) * 2016-07-18 2016-10-26 旗瀚科技有限公司 一种可以进行人体跟随的机器人
CN106815908B (zh) * 2016-12-09 2019-11-22 国网北京市电力公司 报警处理方法、装置及门禁监控系统
CN108460395B (zh) * 2017-02-17 2023-04-07 北京三星通信技术研究有限公司 目标检测方法和装置以及模糊处理方法和装置
CN107341460B (zh) * 2017-06-26 2022-04-22 北京小米移动软件有限公司 人脸跟踪方法及装置
CN107368810A (zh) * 2017-07-20 2017-11-21 北京小米移动软件有限公司 人脸检测方法及装置
CN108062349B (zh) * 2017-10-31 2022-03-08 深圳大学 基于视频结构化数据及深度学习的视频监控方法和系统
CN108985225B (zh) * 2018-07-13 2021-12-14 北京猎户星空科技有限公司 焦点跟随方法、装置、电子设备及存储介质
CN109240297A (zh) * 2018-09-26 2019-01-18 深算科技(上海)有限公司 一种基于视觉跟随的自主导航机器人
CN109492584A (zh) * 2018-11-09 2019-03-19 联想(北京)有限公司 一种识别跟踪方法和电子设备
CN109871822A (zh) * 2019-03-05 2019-06-11 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
CN110263695B (zh) * 2019-06-14 2021-07-16 北京达佳互联信息技术有限公司 人脸部位的位置获取方法、装置、电子设备及存储介质
CN110264493B (zh) * 2019-06-17 2021-06-18 北京影谱科技股份有限公司 一种针对运动状态下的多目标对象追踪方法和装置
CN110930436B (zh) * 2019-11-27 2023-04-14 深圳市捷顺科技实业股份有限公司 一种目标跟踪方法及设备
CN113573038B (zh) * 2020-04-29 2024-08-23 思特威(上海)电子科技股份有限公司 双目系统及深度图获取方法
CN112418055A (zh) * 2020-11-18 2021-02-26 东方通信股份有限公司 一种基于视频分析的调度方法及人员轨迹追踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103456012A (zh) * 2013-09-03 2013-12-18 北京大学深圳研究生院 基于最大稳定曲率区域的视觉人手检测跟踪方法及系统
CN103761748A (zh) * 2013-12-31 2014-04-30 北京邮电大学 异常行为检测方法和装置
CN104574445A (zh) * 2015-01-23 2015-04-29 北京航空航天大学 一种目标跟踪方法及装置
KR20150132968A (ko) * 2014-05-19 2015-11-27 한국과학기술연구원 다중 목표 추적 시스템 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103456012A (zh) * 2013-09-03 2013-12-18 北京大学深圳研究生院 基于最大稳定曲率区域的视觉人手检测跟踪方法及系统
CN103761748A (zh) * 2013-12-31 2014-04-30 北京邮电大学 异常行为检测方法和装置
KR20150132968A (ko) * 2014-05-19 2015-11-27 한국과학기술연구원 다중 목표 추적 시스템 및 방법
CN104574445A (zh) * 2015-01-23 2015-04-29 北京航空航天大学 一种目标跟踪方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于彩色图像和深度图像的人头跟踪;张力;《中国优秀硕士学位论文全文数据库 信息科技辑》;20130915;全文

Also Published As

Publication number Publication date
CN105678288A (zh) 2016-06-15

Similar Documents

Publication Publication Date Title
CN105678288B (zh) 目标跟踪方法和装置
CN106651916B (zh) 一种目标的定位跟踪方法及装置
CN105405154B (zh) 基于颜色-结构特征的目标对象跟踪方法
CN104715471B (zh) 目标定位跟踪方法及其装置
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
JP4991595B2 (ja) パーティクルフィルタを使用する追跡システム
US10163256B2 (en) Method and system for generating a three-dimensional model
CN110458895A (zh) 图像坐标系的转换方法、装置、设备及存储介质
CN101976330B (zh) 手势识别方法和系统
CN104994360B (zh) 视频监控方法和视频监控系统
CN104378582A (zh) 一种基于ptz摄像机巡航的智能视频分析系统及方法
CN104123544A (zh) 基于视频分析的异常行为检测方法及系统
JP2014517392A (ja) Rgbdカメラを用いた頭部ポーズ推定
CN102447835A (zh) 无盲区多目标协同跟踪方法及系统
AU2012244275A1 (en) Method, apparatus and system for determining a boundary of an obstacle which occludes an object in an image
CN105760846A (zh) 基于深度数据的目标检测与定位方法及系统
CN105678802A (zh) 辨识二维影像产生三维信息的方法
WO2015040119A1 (en) 3d reconstruction
CN106446002A (zh) 一种基于运动目标在地图中轨迹的视频检索方法
JP2010057105A (ja) オブジェクトの3次元追跡方法およびシステム
CN106155093A (zh) 一种基于计算机视觉的机器人跟随人体的系统和方法
CN103646254A (zh) 一种高密度行人检测方法
US20200394819A1 (en) Systems and methods for augmented reality applications
CN107481260A (zh) 一种区域人群滞留检测方法、装置和存储介质
CN110070003A (zh) 异常行为检测与光流自相关性确定的方法、及相关装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant