CN113256691A - 一种目标跟踪方法、装置、设备和存储介质 - Google Patents

一种目标跟踪方法、装置、设备和存储介质 Download PDF

Info

Publication number
CN113256691A
CN113256691A CN202110511222.XA CN202110511222A CN113256691A CN 113256691 A CN113256691 A CN 113256691A CN 202110511222 A CN202110511222 A CN 202110511222A CN 113256691 A CN113256691 A CN 113256691A
Authority
CN
China
Prior art keywords
target
detected
camera
area
world coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110511222.XA
Other languages
English (en)
Inventor
叶灵
刘思伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Weaving Point Intelligent Technology Co ltd
Original Assignee
Guangzhou Weaving Point Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Weaving Point Intelligent Technology Co ltd filed Critical Guangzhou Weaving Point Intelligent Technology Co ltd
Priority to CN202110511222.XA priority Critical patent/CN113256691A/zh
Publication of CN113256691A publication Critical patent/CN113256691A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种目标跟踪方法、装置、设备和存储介质,其中方法包括:获取各摄像头拍摄待检测目标时得到的目标信息;根据各目标信息,对各摄像头对应的拍摄图像进行区域选择,得到待检测目标在各摄像头下的图像坐标区域;将各图像坐标区域转换至世界坐标系,得到待检测目标在各摄像头下的世界坐标区域;融合待检测目标对应的所有世界坐标区域,得到待检测目标对应的目标三维坐标区域;通过根据目标三维坐标区域建立的跟踪器,对待检测目标进行跟踪。解决了现有技术的目标跟踪方法容易出现目标丢失的技术问题。

Description

一种目标跟踪方法、装置、设备和存储介质
技术领域
本申请涉及计算机视觉领域,尤其涉及一种目标跟踪方法、装置、设备和存储介质。
背景技术
计算机视觉、人工智能技术的进步,带动了安防行业的快速发展,摄像头保有量越来越多,以摄像头为基础设施的热智能应用迅速膨胀,企业对于摄像头的智能化需求快速增长。在计算机视觉诸多任务中,目标跟踪任务在监控视频领域中应用非常广泛,最常见的如行人跟踪、车辆跟踪等。
现有的目标跟踪方法,大都通过轮询各摄像头的深度图并根据深度变化检测目标位置做跟踪。在通过上述的目标跟踪方法跟踪目标时,容易出现目标丢失的现象。
发明内容
本申请提供了一种目标跟踪方法、装置、设备和存储介质,解决了现有的目标跟踪方法跟踪目标时,容易出现目标丢失的技术问题。
有鉴于此,本申请第一方面提供了一种目标跟踪方法,包括:
获取各摄像头拍摄待检测目标时得到的目标信息;
根据各所述目标信息,对各所述摄像头对应的拍摄图像进行区域选择,得到所述待检测目标在各摄像头下的图像坐标区域;
将各所述图像坐标区域转换至世界坐标系,得到所述待检测目标在各摄像头下的世界坐标区域;
融合所述待检测目标对应的所有所述世界坐标区域,得到所述待检测目标对应的目标三维坐标区域;
通过根据所述目标三维坐标区域建立的跟踪器,对所述待检测目标进行跟踪。
可选地,当所述待检测目标为行人时,所述目标信息包括:所述行人在摄像头的RGB图像中的第一头顶位置信息;
根据各所述目标信息,对各所述摄像头对应的拍摄图像进行区域选择,得到所述待检测目标在各摄像头下的图像坐标区域,具体包括:
根据各所述第一头顶位置信息,对对应深度图中的对应区域内进行平滑处理,并确定行人在该深度图中的第二头顶位置信息;
根据各所述第二头顶位置信息,确定所述行人在各摄像头下的图像坐标区域。
可选地,所述根据各所述第一头顶位置信息,对对应深度图中的对应区域内进行平滑处理,并确定行人在该深度图中的第二头顶位置信息,具体包括:
在各所述摄像头对应的RGB图像中,以对应的所述第一头顶位置信息为中心、预置大小为尺寸,建立平滑核;
根据各所述摄像头对应的平滑核,对对应深度图中的对应区域进行平滑处理,并确定平滑后该区域内的最小深度值点;
在各摄像头对应的深度图内,以对应的所述最小深度值点为中心,建立候选区域,并确定各候选区域中的最小深度值;
将各摄像头对应的所述最小深度值作为所述行人在该深度图中的第二头顶位置信息。
可选地,所述根据各所述第二头顶位置信息,确定所述行人在各摄像头下的图像坐标区域,具体包括:
以所述第二头顶位置信息对应的深度值为起始点,预置长度为数据长度,确定各摄像头对应的预置深度范围;
确定各预置深度范围中的各点对应的图像坐标,得到所述行人在各摄像头下的图像坐标区域。
可选地,所述将各所述图像坐标区域转换至世界坐标系,得到所述待检测目标在各摄像头下的世界坐标区域,具体包括:
将各所述图像坐标区域转换到相机坐标系,得到各自对应的相机坐标区域;
将各所述相机坐标区域转换至世界坐标系,得到所述待检测目标在各摄像头下的世界坐标区域。
可选地,当所述待检测目标的数量为一个时,所述融合所述待检测目标对应的所有所述世界坐标区域,得到所述待检测目标对应的目标三维坐标区域,具体包括:
将所述世界坐标区域作为所述待检测目标对应的目标三维坐标区域。
可选地,当所述待检测目标的数量为多个时,所述融合所述待检测目标对应的所有所述世界坐标区域,得到所述待检测目标对应的目标三维坐标区域,具体包括:
判断各所述待检测目标是否存在多个所述世界坐标区域,若是,将多个所述世界坐标区域去重后,将保留的所述世界坐标区域作为该待检测目标对应的目标三维坐标区域。
本申请第二方面提供了一种目标跟踪装置,包括:
获取单元,用于获取各摄像头拍摄待检测目标时得到的目标信息;
选择单元,用于根据各所述目标信息,对各所述摄像头对应的拍摄图像进行区域选择,得到所述待检测目标在各摄像头下的图像坐标区域;
转换单元,用于将各所述图像坐标区域转换至世界坐标系,得到所述待检测目标在各摄像头下的世界坐标区域;
融合单元,用于融合所述待检测目标对应的所有所述世界坐标区域,得到所述待检测目标对应的目标三维坐标区域;
跟踪单元,用于通过根据所述目标三维坐标区域建立的跟踪器,对所述待检测目标进行跟踪。
本申请第三方面提供了一种目标跟踪设备,所述设备包括处理器以及存储器;
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行上述任一种第一方面所述的目标跟踪方法。
本申请第四方面提供了一种存储介质,所述存储介质用于存储程序代码,所述程序代码用于执行上述任一种第一方面所述的目标跟踪方法。
从以上技术方法可以看出,本申请具有以下优点:
本申请中首先获取摄像头拍摄待检测目标时得到的目标信息,接着根据目标信息,对摄像头对应的拍摄图像进行区域选择,得到各摄像头下待检测目标对应的图像坐标区域,然后将各图像坐标区域转换至世界坐标系,得到待检测目标在各摄像头下的世界坐标区域,再接着将待检测目标对应的所有世界坐标区域进行融合,便可得到待检测目标的目标三维坐标区域,即实现待检测目标的定位,最后便可通过根据目标三维坐标区域建立的跟踪器,对待检测目标进行跟踪,相较于现有技术本申请中采用了不同的目标跟踪方法,从而解决了现有技术的目标跟踪方法容易出现目标丢失的技术问题。
附图说明
为了更清楚地说明本申请实施例中的技术方法,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本申请实施例中一种目标跟踪方法的实施例一的流程示意图;
图2为本申请实施例中一种目标跟踪方法的实施例二的流程示意图;
图3为置信度的计算说明图;
图4为本申请实施例中一种目标跟踪装置的实施例的结构示意图。
具体实施方式
本申请实施例提供了一种目标跟踪方法、装置、设备和存储介质,解决了现有技术的目标跟踪方法容易出现目标丢失的技术问题。
为了使本技术领域的人员更好地理解本申请方法,下面将结合本申请实施例中的附图,对本申请实施例中的技术方法进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
以便于理解,请参阅图1,图1为本申请实施例中一种目标跟踪方法的实施例一的流程示意图。
本实施例中的一种目标跟踪方法,包括:
步骤101、获取各摄像头拍摄待检测目标时得到的目标信息。
可以理解的是,本实施例中的目标跟踪方法可以是应用在连接各摄像头的计算终端,该计算终端根据各摄像头采集到的待检测目标的图像和目标信息对待检测目标进行跟踪。
具体地,本实施例中的摄像头为深度摄像头,通过该深度摄像头不仅可以拍摄RGB图像,还可以拍摄深度图像。摄像头的安装位置可以是检测房间中的房顶也可以处于检测需求在房顶和其他位置同时安装摄像头。本申请具有良好的扩展性,可随意扩展以及布置摄像头。
步骤102、根据各目标信息,对各摄像头对应的拍摄图像进行区域选择,得到待检测目标在各摄像头下的图像坐标区域。
在得到各摄像头对应的目标信息后,可以根据目标信息对对应摄像头的拍摄图像进行区域选择(即框选),得到待检测目标在各摄像头下的图像坐标区域。
步骤103、将各图像坐标区域转换至世界坐标系,得到待检测目标在各摄像头下的世界坐标区域。
具体地,上述步骤103的转换是:将各图像坐标区域内的坐标值转换至世界坐标系,得到待检测目标在各摄像头下的世界坐标区域。
对于待检测目标的跟踪,是通过待检测目标的世界坐标进行的,但是由于经步骤102得到的坐标区域是图像坐标系内的,因此将上述图像坐标系内的图像坐标区域转换至世界坐标系,得到对应的世界坐标区域。
可以理解的是,上述的步骤103具体包括:
步骤1031、将各图像坐标区域转换到相机坐标系,得到各自对应的相机坐标区域;
其中,步骤1031具体为根据各摄像头对应的内参矩阵,将图像坐标区域内的坐标值映射至相机坐标系下,得到对应的相机坐标区域;
步骤1032、将各相机坐标区域转换至世界坐标系,得到待检测目标在各摄像头下的世界坐标区域。
步骤1032具体为根据各摄像头对应的旋转矩阵和平移矩阵,将相机坐标区域内的坐标值映射至世界坐标系下,得到对应的世界坐标区域。
步骤104、融合待检测目标对应的所有世界坐标区域,得到待检测目标对应的目标三维坐标区域。
得到待检测目标对应的世界坐标区域后,融合所有的世界坐标区域,得到待检测目标对应的目标三维坐标区域,也即最终确定的待检测目标所处的区域。
具体地,在一种实施方式中,当待检测目标的数量为一个时,融合待检测目标对应的所有世界坐标区域,得到待检测目标对应的目标三维坐标区域,具体包括:
将世界坐标区域作为待检测目标对应的目标三维坐标区域。
在另一种实施方式中,当待检测目标的数量为多个时,融合待检测目标对应的所有世界坐标区域,得到待检测目标对应的目标三维坐标区域,具体包括:
判断各待检测目标是否存在多个世界坐标区域,若是,将多个世界坐标区域去重后,将保留的世界坐标区域作为该待检测目标对应的目标三维坐标区域。
步骤105、通过根据目标三维坐标区域建立的跟踪器,对待检测目标进行跟踪。
本实施例中,首先获取摄像头拍摄待检测目标时得到的目标信息,接着根据目标信息,对摄像头对应的拍摄图像进行区域选择,得到各摄像头下待检测目标对应的图像坐标区域,然后将各图像坐标区域转换至世界坐标系,得到待检测目标在各摄像头下的世界坐标区域,再接着将待检测目标对应的所有世界坐标区域进行融合,便可得到待检测目标的目标三维坐标区域,即实现待检测目标的定位,最后便可通过根据目标三维坐标区域建立的跟踪器,对待检测目标进行跟踪,相较于现有技术本申请中采用了不同的目标跟踪方法,从而解决了现有技术的目标跟踪方法容易出现目标丢失的技术问题。
以上为本申请实施例提供的一种目标跟踪方法的实施例一,以下为本申请实施例提供的一种目标跟踪方法的实施例二,为了便于理解,实施例二在实施例一的基础上,以待检测目标为行人为例,对本申请中的跟踪方法进行详细说明。
请参阅图2,图2为本申请实施例中一种目标跟踪方法的实施例二的流程示意图。
本实施例中的一种目标跟踪方法,具体做法是:检测行人时,会返回头顶坐标及行人的框坐标,此时根据框坐标单独把行人抠出来(得到行人图片),将图片和坐标绑定在一起,最后把行人图片传到跟踪器中。接着根据图片信息来判断,这两张行人图片是不是同一个人,确定行人后,对行人进行跟踪。
本实施例中的一种目标跟踪方法包括:
步骤201、获取各摄像头拍摄待行人时得到的目标信息。
步骤202、根据各第一头顶位置信息,对对应深度图中的对应区域内进行平滑处理,并确定行人在该深度图中的第二头顶位置信息。
其中,根据各第一头顶位置信息,对对应深度图中的对应区域内进行平滑处理,并确定行人在该深度图中的第二头顶位置信息,具体包括:
步骤2021、在各摄像头对应的RGB图像中,以对应的第一头顶位置信息为中心、预置大小为尺寸,建立平滑核;
可以理解的是,平滑核的尺寸为m1*m1,其中m1为奇数,表示m1倍数的头顶像素大小,通过平滑对检测结果做微调,找到头顶位置。在不同图片分辨率下,人所占的像素是大小是不一样的。比如在512*288下,一般头顶大小为40*40个像素,所以核的大小为8*8个像素,具体可取为7*7或9*9等。
步骤2022、根据各摄像头对应的平滑核,对对应深度图中的对应区域进行平滑处理,并确定平滑后该区域内的最小深度值点;
步骤2023、在各摄像头对应的深度图内,以对应的最小深度值点为中心,建立候选区域,并确定各候选区域中的最小深度值;
可以理解的是,候选区域的大小可以为n1*n1,其中n1的取值为奇数,具体根据图片分辨率进行,经验值为略大于头顶像素大小,例如50*50个像素。
步骤2024、将各摄像头对应的最小深度值作为行人在该深度图中的第二头顶位置信息。
步骤203、根据各第二头顶位置信息,确定行人在各摄像头下的图像坐标区域。
具体地,根据各第二头顶位置信息,确定行人在各摄像头下的图像坐标区域,具体包括:
以第二头顶位置信息对应的深度值为起始点,预置长度为数据长度,确定各摄像头对应的预置深度范围;
可以理解的是,深度图中候选区域的最小深度值为depth_min,预置长度为t,此时得到的预置深度范围为[depth_min,depth_min+t]的深度范围。对于t的取值可以根据需要设置,在此不做限定和赘述。
确定各预置深度范围中的各点对应的图像坐标,得到行人在各摄像头下的图像坐标区域。
步骤204、将各图像坐标区域转换到相机坐标系,得到各自对应的相机坐标区域。
步骤205、将各相机坐标区域转换至世界坐标系,得到行人在各摄像头下的世界坐标区域。
步骤206、根据各摄像头对应的置信度,对行人对应世界坐标区域进行筛选,得到用于执行后续步骤的世界坐标区域,其中,置信度是根据摄像头和行人之间的距离计算的。
由于摄像头和行人之间的距离有近有远,如果将所有摄像头对应的世界坐标区域用作后续处理的数据依据的话,数据计算量较大会影响计算时间,因此本实施例中将距离行人较近的几个摄像头对应的世界坐标区域作为后续处理处理的依据。
具体地,本实施例中对于距离行人较近的摄像头的筛选是根据摄像头对应的置信度进行的,如图3所示,置信度为:score=(1-d/D),d是RGB图像中行人的头顶位置和RGB图像中心之间的距离,D是RGB图像中心沿着行人的头顶位置,到达RGB图像边缘的距离。
步骤207、融合行人对应的所有世界坐标区域,得到行人对应的目标三维坐标区域。
步骤208、通过根据目标三维坐标区域建立的跟踪器,对行人进行跟踪。
本实施例中,首先获取摄像头拍摄待检测目标时得到的目标信息,接着根据目标信息,对摄像头对应的拍摄图像进行区域选择,得到各摄像头下待检测目标对应的图像坐标区域,然后将各图像坐标区域转换至世界坐标系,得到待检测目标在各摄像头下的世界坐标区域,再接着将待检测目标对应的所有世界坐标区域进行融合,便可得到待检测目标的目标三维坐标区域,即实现待检测目标的定位,最后便可通过根据目标三维坐标区域建立的跟踪器,对待检测目标进行跟踪,相较于现有技术本申请中采用了不同的目标跟踪方法,从而解决了现有技术的目标跟踪方法容易出现目标丢失的技术问题。
以上为本申请实施例提供的一种目标跟踪方法的实施例二,以下为本申请实施例提供的一种目标跟踪方法的实施例三,实施例三中对目标跟踪方法以行人为例进行举例说明。
本实施例中的目标跟踪方法包括:
步骤一,在检测房间顶部布置深度摄像头并覆盖任务区域,也可根据需要在其他视角安装摄像头。本实施例中的深度摄像头对应的图像分辨率为512*288。
步骤二、对任务房间内的摄像头进行标定,得到各摄像头的内参矩阵I,旋转矩阵R,平移矩阵T。
步骤三,对所有摄像头通过检测算法检测出行人在各摄像头中的目标信息,包括:头顶的位置(cx1,cy1),行人的位置(x0,y0,x1,y1),检测结果置信度score=(1-d/D)。
步骤四,对各摄像头对应的行人进行区域选择,得到对应的图像坐标区域。
步骤4.1:以行人头顶检测位置(cx1,cy1)为中心,建立7*7的核对深度图中对应位置做平滑,并返回平滑后该区域的最小深度值的坐标(cx2,cy2)。
步骤4.2:以(cx2,cy2)为中心,建立50*50的候选区域,找到深度图中候选区域的最小深度值depth_min,并挑选[depth_min,depth_min+10]的预置深度范围,及其坐标点得到集合{(xp1,yp1,d1),(xp2,yp2,d2),...,(xpk,ypk,dk)},也即图像坐标区域。
步骤五、将各图像坐标区域转换至世界坐标系,得到世界坐标区域。
步骤5.1:根据各摄像头的内参矩阵I将上述点转换为相机坐标值{(Xc1,Yc1,d1),(Xc2,Yc2,d2),...,(Xck,Yck,dk)}。
步骤5.2:根据各摄像头的旋转矩阵R和平移矩阵T将上述相机坐标点转换到世界坐标系W上,得到点集{(Xw1,Yw1,dw1),(Xw2,Yw2,dw2),...,(Xwk,Ywk,dwk)}。
步骤5.3:步骤5.2的点集中像素的最大值和最小值Xw_max,Xw_min,Yw_max,Yw_min,以及深度最大值dw_max即对应一个空间区域内的长方体,将该长方体代替原来的点集,用于表示行人。
步骤六、根据各摄像头的置信度,对行人对应世界坐标区域进行筛选,得到用于执行后续步骤的世界坐标区域。
步骤七:融合各摄像头的世界坐标区域(Xw_min,Yw_min,0,Xw_max,Yw_max,dw_max),得到行人的目标三维坐标区域(x0,y0,z0,x1,y1,z1)。
步骤7.1:将所有摄像头得到目标三维坐标区域3D_coord按摄像头组成不同集合,例如对应摄像头cam1(简称为c1)有{3D_c1_coord1,3D_c1_coord2,...,3D_c1_coordcn}记为cam1_set,得到各摄像头目标三维坐标区域集合{cam1_set,cam2_set,...,camn_set},其中,Coord1代表该摄像头下的行人世界坐标(x0,y0,z0,x1,y1,z1),Cam1_set代表的是一号摄像头所看到的所有行人的世界坐标的集合。
步骤7.2:依次遍历集合{cam1_set,cam2_set,...,camn_set}中的目标三维坐标区域{3D_ci_coord1,3D_ci_coord2,...,3D_ci_coordn},目的是去重,去掉出现在不同摄像头下的同一个人,根据score保留一个世界坐标。
例如3D_ci_coordi,并计算该三维坐标可能与其发生重合的摄像头下的所有目标三维坐标区域3D_cj_coordj的交并比(iou)。对于iou大于一定阈值的目标三维坐标区域,其中score最大的目标三维坐标区域标记为保留,其余目标三维坐标区域标记为删除。重复以上动作依次遍历剩余还没标记的目标三维坐标区域,直到所有目标三维坐标区域都标记为保留或者删除。
步骤八:将保留的目标三维坐标区域(x0,y0,z0,x1,y1,z1)转换为(x,y,z,v,s,r),记w为(x1-x0),h为(y1-y0),l为(z1-z0),其中,x为x0+w/2,y为y0+h/2,z为z0+l/2,v为w*h*l,s为w*h,r为w/h。对(x,y,z,v,s,r)进行卡尔曼滤波并建立对应的跟踪器,通过建立的跟踪器对行人进行跟踪。
步骤九:全局跟踪管理和跟踪器状态管理。
1.对于任意时刻的输入,首先估计现有跟踪器的下一刻位置,然后与输入作距离度量(iou,欧氏距离等)求出代价矩阵,再通过组合优化算法(如匈牙利算法,KM算法等)进行组合分配。
2.对于能匹配在一起的输入和跟踪器,用该输入更新对应的跟踪器,并输出跟踪器的当前状态,即为目标现在时刻的状态。
3.对于没有匹配到的跟踪器,则累加丢失次数,若次数到达一定阈值,该跟踪器标记为丢失跟踪器。
4.对于没有匹配到的输入,若该输入处于生成区(入口等),则直接新建跟踪器对目标进行跟踪。若该输入处于非生成区并且任务区域存在没有匹配的跟踪器,则将该输入新建为候选跟踪器。
5.当跟踪系统存在丢失跟踪器和候选跟踪器时,可通过reid技术重新找回丢失跟踪器。
以上为本申请实施例提供的一种目标跟踪方法的实施例三,以下为本申请实施例提供的一种目标跟踪装置的实施例。
请参阅图4,本实施例中的目标跟踪装置,具体包括:
获取单元401,用于获取各摄像头拍摄待检测目标时得到的目标信息;
选择单元402,用于根据各目标信息,对各摄像头对应的拍摄图像进行区域选择,得到待检测目标在各摄像头下的图像坐标区域;
转换单元403,用于将各图像坐标区域转换至世界坐标系,得到待检测目标在各摄像头下的世界坐标区域;
融合单元404,用于融合待检测目标对应的所有世界坐标区域,得到待检测目标对应的目标三维坐标区域;
跟踪单元405,用于通过根据目标三维坐标区域建立的跟踪器,对待检测目标进行跟踪。
进一步地,当待检测目标为行人时,目标信息包括:行人在摄像头的RGB图像中的第一头顶位置信息;选择单元402具体包括:
平滑处理子单元,用于根据各第一头顶位置信息,对对应深度图中的对应区域内进行平滑处理,并确定行人在该深度图中的第二头顶位置信息;
坐标区域确定子单元,用于根据各第二头顶位置信息,确定行人在各摄像头下的图像坐标区域。
进一步地,平滑处理子单元具体包括:
平滑核建立子子单元,用于在各摄像头对应的RGB图像中,以对应的第一头顶位置信息为中心、预置大小为尺寸,建立平滑核;
平滑处理子子单元,用于根据各摄像头对应的平滑核,对对应深度图中的对应区域进行平滑处理,并确定平滑后该区域内的最小深度值点;
候选区域建立子子单元,用于在各摄像头对应的深度图内,以对应的最小深度值点为中心,建立候选区域,并确定各候选区域中的最小深度值;
赋值子子单元,用于将各摄像头对应的最小深度值作为行人在该深度图中的第二头顶位置信息。
进一步地,坐标区域确定子单元具体包括:
深度范围确定子子单元,用于以第二头顶位置信息对应的深度值为起始点,预置长度为数据长度,确定各摄像头对应的预置深度范围;
坐标区域确定子子单元,用于确定各预置深度范围中的各点对应的图像坐标,得到行人在各摄像头下的图像坐标区域。
进一步地,转换单元403具体包括:
将各图像坐标区域转换到相机坐标系,得到各自对应的相机坐标区域;
将各相机坐标区域转换至世界坐标系,得到待检测目标在各摄像头下的世界坐标区域。
当待检测目标的数量为一个时,融合具体用于,将世界坐标区域作为待检测目标对应的目标三维坐标区域。
当待检测目标的数量为多个时,融合单元具体用于,判断各待检测目标是否存在多个世界坐标区域,若是,将多个世界坐标区域去重后,将保留的世界坐标区域作为该待检测目标对应的目标三维坐标区域。
本实施例中首先获取摄像头拍摄待检测目标时得到的目标信息,接着根据目标信息,对摄像头对应的拍摄图像进行区域选择,得到各摄像头下待检测目标对应的图像坐标区域,然后将各图像坐标区域转换至世界坐标系,得到待检测目标在各摄像头下的世界坐标区域,再接着将待检测目标对应的所有世界坐标区域进行融合,便可得到待检测目标的目标三维坐标区域,即实现待检测目标的定位,最后便可通过根据目标三维坐标区域建立的跟踪器,对待检测目标进行跟踪,相较于现有技术本申请中采用了不同的目标跟踪方法,从而解决了现有技术的目标跟踪方法容易出现目标丢失的技术问题。
本申请实施例还提供了一种障碍物检测设备的实施例,本实施例中的检测设备包括处理器以及存储器;存储器用于存储程序代码,并将程序代码传输给处理器;处理器用于根据程序代码中的指令执行前述实施例中的障碍物检测方法。
本申请实施例还提供了一种计算机可读存储介质的实施例,本实施例中计算机可读存储介质用于存储程序代码,程序代码用于执行前述实施例中的障碍物检测方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文全称:Read-Only Memory,英文缩写:ROM)、随机存取存储器(英文全称:Random Access Memory,英文缩写:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (10)

1.一种目标跟踪方法,其特征在于,包括:
获取各摄像头拍摄待检测目标时得到的目标信息;
根据各所述目标信息,对各摄像头对应的拍摄图像进行区域选择,得到所述待检测目标在各摄像头下的图像坐标区域;
将各所述图像坐标区域转换至世界坐标系,得到所述待检测目标在各摄像头下的世界坐标区域;
融合所述待检测目标对应的所有所述世界坐标区域,得到所述待检测目标对应的目标三维坐标区域;
通过根据所述目标三维坐标区域建立的跟踪器,对所述待检测目标进行跟踪。
2.根据权利要求1所述的目标跟踪方法,其特征在于,当所述待检测目标为行人时,所述目标信息包括:所述行人在摄像头的RGB图像中的第一头顶位置信息;
根据各所述目标信息,对各所述摄像头对应的拍摄图像进行区域选择,得到所述待检测目标在各摄像头下的图像坐标区域,具体包括:
根据各所述第一头顶位置信息,对对应深度图中的对应区域内进行平滑处理,并确定行人在该深度图中的第二头顶位置信息;
根据各所述第二头顶位置信息,确定所述行人在各摄像头下的图像坐标区域。
3.根据权利要求2所述的目标跟踪方法,其特征在于,所述根据各所述第一头顶位置信息,对对应深度图中的对应区域内进行平滑处理,并确定行人在该深度图中的第二头顶位置信息,具体包括:
在各所述摄像头对应的RGB图像中,以对应的所述第一头顶位置信息为中心、预置大小为尺寸,建立平滑核;
根据各摄像头对应的平滑核,对对应深度图中的对应区域进行平滑处理,并确定平滑后该区域内的最小深度值点;
在各摄像头对应的深度图内,以对应的所述最小深度值点为中心,建立候选区域,并确定各候选区域中的最小深度值;
将各摄像头对应的所述最小深度值作为所述行人在该深度图中的第二头顶位置信息。
4.根据权利要求2所述的目标跟踪方法,其特征在于,所述根据各所述第二头顶位置信息,确定所述行人在各摄像头下的图像坐标区域,具体包括:
以所述第二头顶位置信息对应的深度值为起始点,预置长度为数据长度,确定各摄像头对应的预置深度范围;
确定各预置深度范围中的各点对应的图像坐标,得到所述行人在各摄像头下的图像坐标区域。
5.根据权利要求1所述的目标跟踪方法,其特征在于,所述将各所述图像坐标区域转换至世界坐标系,得到所述待检测目标在各摄像头下的世界坐标区域,具体包括:
将各所述图像坐标区域转换到相机坐标系,得到各自对应的相机坐标区域;
将各所述相机坐标区域转换至世界坐标系,得到所述待检测目标在各摄像头下的世界坐标区域。
6.根据权利要求1所述的目标跟踪方法,其特征在于,当所述待检测目标的数量为一个时,所述融合所述待检测目标对应的所有所述世界坐标区域,得到所述待检测目标对应的目标三维坐标区域,具体包括:
将所述世界坐标区域作为所述待检测目标对应的目标三维坐标区域。
7.根据权利要求1所述的目标跟踪方法,其特征在于,当所述待检测目标的数量为多个时,所述融合所述待检测目标对应的所有所述世界坐标区域,得到所述待检测目标对应的目标三维坐标区域,具体包括:
判断各所述待检测目标是否存在多个所述世界坐标区域,若是,将多个所述世界坐标区域去重后,将保留的所述世界坐标区域作为该待检测目标对应的目标三维坐标区域。
8.一种目标跟踪装置,其特征在于,包括:
获取单元,用于获取各摄像头拍摄待检测目标时得到的目标信息;
选择单元,用于根据各所述目标信息,对各摄像头对应的拍摄图像进行区域选择,得到所述待检测目标在各摄像头下的图像坐标区域;
转换单元,用于将各所述图像坐标区域转换至世界坐标系,得到所述待检测目标在各摄像头下的世界坐标区域;
融合单元,用于融合所述待检测目标对应的所有所述世界坐标区域,得到所述待检测目标对应的目标三维坐标区域;
跟踪单元,用于通过根据所述目标三维坐标区域建立的跟踪器,对所述待检测目标进行跟踪。
9.一种目标跟踪设备,其特征在于,所述设备包括处理器以及存储器;
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行权利要求1至7中任一项所述的目标跟踪方法。
10.一种存储介质,其特征在于,所述存储介质用于存储程序代码,所述程序代码用于执行权利要求1至7中任一项所述的目标跟踪方法。
CN202110511222.XA 2021-05-11 2021-05-11 一种目标跟踪方法、装置、设备和存储介质 Pending CN113256691A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110511222.XA CN113256691A (zh) 2021-05-11 2021-05-11 一种目标跟踪方法、装置、设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110511222.XA CN113256691A (zh) 2021-05-11 2021-05-11 一种目标跟踪方法、装置、设备和存储介质

Publications (1)

Publication Number Publication Date
CN113256691A true CN113256691A (zh) 2021-08-13

Family

ID=77222663

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110511222.XA Pending CN113256691A (zh) 2021-05-11 2021-05-11 一种目标跟踪方法、装置、设备和存储介质

Country Status (1)

Country Link
CN (1) CN113256691A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113450389A (zh) * 2021-09-01 2021-09-28 智道网联科技(北京)有限公司 一种目标跟踪方法、装置及电子设备
CN114460942A (zh) * 2022-02-09 2022-05-10 中国农业银行股份有限公司 一种室内机器人导航控制方法、装置、设备及介质
CN115471559A (zh) * 2022-10-31 2022-12-13 北京石油化工学院 一种头部动态定位跟踪方法及系统
CN116189459A (zh) * 2023-04-26 2023-05-30 西南民族大学 一种路口交通信号灯配时方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002197463A (ja) * 2000-12-26 2002-07-12 Matsushita Electric Ind Co Ltd 挙動検出装置および挙動検出システム
CN103164858A (zh) * 2013-03-20 2013-06-19 浙江大学 基于超像素和图模型的粘连人群分割与跟踪方法
CN103942542A (zh) * 2014-04-18 2014-07-23 重庆卓美华视光电有限公司 人眼跟踪方法及装置
US20160377438A1 (en) * 2015-06-25 2016-12-29 Samsung Sds Co., Ltd. System and method for grid-based geo-fencing service
CN106875444A (zh) * 2017-01-19 2017-06-20 浙江大华技术股份有限公司 一种目标物定位方法及装置
US20190004166A1 (en) * 2017-06-29 2019-01-03 Delphi Technologies, Llc Method to determine the orientation of a target vehicle
CN109242900A (zh) * 2018-08-01 2019-01-18 曜科智能科技(上海)有限公司 焦平面定位方法、处理装置、焦平面定位系统及存储介质
CN110276780A (zh) * 2019-06-17 2019-09-24 广州织点智能科技有限公司 一种多目标跟踪方法、装置、电子设备及存储介质
CN111080679A (zh) * 2020-01-02 2020-04-28 东南大学 一种对大型场所室内人员动态跟踪定位的方法
CN112633282A (zh) * 2021-01-07 2021-04-09 清华大学深圳国际研究生院 一种车辆实时跟踪方法及计算机可读存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002197463A (ja) * 2000-12-26 2002-07-12 Matsushita Electric Ind Co Ltd 挙動検出装置および挙動検出システム
CN103164858A (zh) * 2013-03-20 2013-06-19 浙江大学 基于超像素和图模型的粘连人群分割与跟踪方法
CN103942542A (zh) * 2014-04-18 2014-07-23 重庆卓美华视光电有限公司 人眼跟踪方法及装置
US20160377438A1 (en) * 2015-06-25 2016-12-29 Samsung Sds Co., Ltd. System and method for grid-based geo-fencing service
CN106875444A (zh) * 2017-01-19 2017-06-20 浙江大华技术股份有限公司 一种目标物定位方法及装置
US20190004166A1 (en) * 2017-06-29 2019-01-03 Delphi Technologies, Llc Method to determine the orientation of a target vehicle
CN109242900A (zh) * 2018-08-01 2019-01-18 曜科智能科技(上海)有限公司 焦平面定位方法、处理装置、焦平面定位系统及存储介质
CN110276780A (zh) * 2019-06-17 2019-09-24 广州织点智能科技有限公司 一种多目标跟踪方法、装置、电子设备及存储介质
CN111080679A (zh) * 2020-01-02 2020-04-28 东南大学 一种对大型场所室内人员动态跟踪定位的方法
CN112633282A (zh) * 2021-01-07 2021-04-09 清华大学深圳国际研究生院 一种车辆实时跟踪方法及计算机可读存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
仇江涛: "基于多线程并行求解的客流分析方法研发", 中国优秀硕士学位论文全文数据库-信息科技辑 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113450389A (zh) * 2021-09-01 2021-09-28 智道网联科技(北京)有限公司 一种目标跟踪方法、装置及电子设备
CN114460942A (zh) * 2022-02-09 2022-05-10 中国农业银行股份有限公司 一种室内机器人导航控制方法、装置、设备及介质
CN115471559A (zh) * 2022-10-31 2022-12-13 北京石油化工学院 一种头部动态定位跟踪方法及系统
CN115471559B (zh) * 2022-10-31 2023-03-17 北京石油化工学院 一种头部动态定位跟踪方法及系统
CN116189459A (zh) * 2023-04-26 2023-05-30 西南民族大学 一种路口交通信号灯配时方法

Similar Documents

Publication Publication Date Title
CN113256691A (zh) 一种目标跟踪方法、装置、设备和存储介质
CN110568447B (zh) 视觉定位的方法、装置及计算机可读介质
CN108701374B (zh) 用于三维点云重建的方法和装置
EP3709266A1 (en) Human-tracking methods, apparatuses, systems, and storage media
US20110069888A1 (en) Image processing apparatus and method
CN110645986A (zh) 定位方法及装置、终端、存储介质
CN110555901A (zh) 动静态场景的定位和建图方法、装置、设备和存储介质
CN109974721A (zh) 一种基于高精度地图的视觉回环检测方法和装置
CN108230437A (zh) 场景重建方法和装置、电子设备、程序和介质
CN111080776B (zh) 人体动作三维数据采集和复现的处理方法及系统
CN109005334A (zh) 一种成像方法、装置、终端和存储介质
KR101548639B1 (ko) 감시 카메라 시스템의 객체 추적장치 및 그 방법
CN109033985B (zh) 商品识别的处理方法、装置、设备、系统及存储介质
CN109934873B (zh) 标注图像获取方法、装置及设备
CN106530407A (zh) 一种用于虚拟现实的三维全景拼接方法、装置和系统
CN114419028A (zh) 融合空间多视角的输电线路绝缘子缺陷去重方法及装置
CN111191570A (zh) 图像识别方法和装置
CN114782499A (zh) 一种基于光流和视图几何约束的图像静态区域提取方法及装置
CN115376109B (zh) 障碍物检测方法、障碍物检测装置以及存储介质
CN114663598A (zh) 三维建模方法、装置和存储介质
CN114241012A (zh) 一种高空抛物的判定方法及装置
CN114548214A (zh) 目标跟踪方法、计算机设备及存储装置
JP2007025863A (ja) 撮影システム、撮影方法及び画像処理プログラム
CN114220087A (zh) 一种车牌检测方法、车牌检测器及相关设备
CN114066999A (zh) 基于三维建模的目标定位系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination