CN116330658B - 基于深度图像的目标跟踪方法、装置、系统及摄像设备 - Google Patents
基于深度图像的目标跟踪方法、装置、系统及摄像设备 Download PDFInfo
- Publication number
- CN116330658B CN116330658B CN202310066777.7A CN202310066777A CN116330658B CN 116330658 B CN116330658 B CN 116330658B CN 202310066777 A CN202310066777 A CN 202310066777A CN 116330658 B CN116330658 B CN 116330658B
- Authority
- CN
- China
- Prior art keywords
- tracking
- result
- current
- depth image
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000001514 detection method Methods 0.000 claims abstract description 112
- 238000012937 correction Methods 0.000 claims abstract description 18
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 7
- 230000000903 blocking effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000003379 elimination reaction Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29C—SHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
- B29C64/00—Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
- B29C64/30—Auxiliary operations or equipment
- B29C64/307—Handling of material to be used in additive manufacturing
- B29C64/321—Feeding
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29C—SHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
- B29C64/00—Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
- B29C64/30—Auxiliary operations or equipment
- B29C64/307—Handling of material to be used in additive manufacturing
- B29C64/314—Preparation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29C—SHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
- B29C64/00—Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
- B29C64/30—Auxiliary operations or equipment
- B29C64/307—Handling of material to be used in additive manufacturing
- B29C64/321—Feeding
- B29C64/336—Feeding of two or more materials
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29C—SHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
- B29C64/00—Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
- B29C64/30—Auxiliary operations or equipment
- B29C64/386—Data acquisition or data processing for additive manufacturing
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29C—SHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
- B29C64/00—Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
- B29C64/30—Auxiliary operations or equipment
- B29C64/386—Data acquisition or data processing for additive manufacturing
- B29C64/393—Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B33—ADDITIVE MANUFACTURING TECHNOLOGY
- B33Y—ADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
- B33Y40/00—Auxiliary operations or equipment, e.g. for material handling
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B33—ADDITIVE MANUFACTURING TECHNOLOGY
- B33Y—ADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
- B33Y40/00—Auxiliary operations or equipment, e.g. for material handling
- B33Y40/10—Pre-treatment
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B33—ADDITIVE MANUFACTURING TECHNOLOGY
- B33Y—ADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
- B33Y50/00—Data acquisition or data processing for additive manufacturing
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B33—ADDITIVE MANUFACTURING TECHNOLOGY
- B33Y—ADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
- B33Y50/00—Data acquisition or data processing for additive manufacturing
- B33Y50/02—Data acquisition or data processing for additive manufacturing for controlling or regulating additive manufacturing processes
Landscapes
- Chemical & Material Sciences (AREA)
- Engineering & Computer Science (AREA)
- Materials Engineering (AREA)
- Manufacturing & Machinery (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Optics & Photonics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于深度图像的目标跟踪方法、装置、系统及摄像设备,所述方法包括:获取基于深度图像进行目标检测后的当前检测结果以及当前跟踪结果;获取所述当前跟踪结果中的各跟踪对象的遮挡状态判定结果,基于目标遮挡状态的判定结果进行对象标识交换修正;将所述当前检测结果与当前跟踪结果进行数据关联,得到所述深度图像中的多个跟踪对象以及各跟踪对象对应的对象标识;输出更新后的当前跟踪结果。本发明的方法可有效改善目标遮挡场景下的ID新增与ID Switch问题,有利于提高深度客流相机统计结果的准确性。
Description
技术领域
本发明涉及图像处理技术领域,特别是一种基于深度图像的目标跟踪方法、装置、系统及摄像设备。
背景技术
目标跟踪是客流统计系统的关键技术之一,其跟踪效果直接关系着统计结果的准确性。比如,当目标之间出现遮挡时,很容易因数据关联错误而导致ID错误新增和IDSwitch问题——这会直接导致计数出错。
众所周知,在移动终端,CNN算法通常需要GPU、NPU等硬件进行加速。然而,现有的许多客流统计系统因成本限制其硬件平台算力十分有限,不仅没有GPU、NPU等硬件,连CPU计算资源也十分紧张。一个更为实际的目标跟踪方案是基于CNN算法,比如基于背景建模的检测算法。相应地,上述目标粘连、遮挡场景下的ID新增与ID Switch问题就再次凸显,而要解决这些问题仍需顾及平台算力,这让相关人员颇受掣肘。
发明内容
鉴于上述问题,本发明提出一种克服上述问题或者至少部分地解决上述问题的基于深度图像的目标跟踪方法、装置、系统及摄像设备,以改善目标粘连、遮挡场景下的ID新增与ID Switch问题,该方法简单易行,算力开销较小,具有实用价值。
根据本发明的第一方面,提供了一种基于深度图像的目标跟踪方法,所述方法包括:
获取基于深度图像进行目标检测后的当前检测结果以及当前跟踪结果;
获取所述当前跟踪结果中的各跟踪对象的遮挡状态判定结果,基于目标遮挡状态的判定结果进行对象标识交换修正;
将所述当前检测结果与当前跟踪结果进行数据关联,得到所述深度图像中的多个跟踪对象以及各跟踪对象对应的对象标识,作为更新后的当前跟踪结果;
输出所述更新后的当前跟踪结果。
可选地,所述将所述当前检测结果与当前跟踪结果进行数据关联包括:
对所述当前跟踪结果和所述当前检测结果进行跟踪对象匹配,得到匹配结果;
根据匹配结果确定所述当前跟踪结果和所述当前检测结果中相同的跟踪对象以及新检测到的跟踪对象。
可选地,所述根据匹配结果确定所述当前跟踪结果和所述当前检测结果中相同的跟踪对象以及新检测到的跟踪对象,包括:
若在所述当前检测结果中检测到所述当前跟踪结果未匹配到的跟踪对象,则为该跟踪对象分配新的对象标识;
若在所述当前检测结果中检测到所述当前跟踪结果匹配到的跟踪对象,则更新该跟踪对象对应的检测器;
若在所述当前跟踪结果中检测到所述当前检测结果未匹配到跟踪对象,则获取该跟踪对象的丢失帧数,确定与所述跟踪对象匹配的丢失帧数阈值;若所述丢失帧数超过丢失帧数阈值,则移除该跟踪对象。
可选地,所述确定与所述跟踪对象匹配的丢失帧数阈值包括:
若所述跟踪对象被判定为被遮挡状态,则确定与所述跟踪对象匹配的丢失帧数阈值为第一阈值;否则,确定与所述跟踪对象匹配的丢失帧数阈值为第二阈值;
所述第一阈值大于所述第二阈值。
可选地,所述获取所述当前跟踪结果中的各跟踪对象的遮挡状态判定结果之前,所述方法还包括:
在获取到所述深度图像之前的历史图像时,对所述历史图像中的各跟踪对象进行遮挡状态判定。
可选地,所述将所述当前检测结果与当前跟踪结果进行数据关联之后,所述方法还包括:
对所述深度图像中的各跟踪对象进行遮挡状态判定,以供下次进行遮挡状态判定时使用。
可选地,对所述深度图像中的各跟踪对象进行遮挡状态判定包括:
对于任意第一跟踪对象和第二跟踪对象,获取所述第一跟踪对象的第一跟踪信息和第二跟踪对象的第二跟踪信息;
若所述第一跟踪信息和第二跟踪信息满足预设条件,则判定所述第一跟踪对象被第二跟踪对象遮挡。
可选地,所述预设条件包括以下至少之一:
第一跟踪对象和/或第二跟踪对象的丢失帧数大于零;
第一跟踪对象的预测目标框的中心点位于第二跟踪对象的预设目标框之内;
第一跟踪对象的预测目标框和第二跟踪对象的检测框的交并比超过设定阈值;
第一跟踪对象的深度值大于第二跟踪对象的深度值。
根据本发明的第二方面,还提供了一种基于深度图像的目标跟踪装置,所述装置包括:
数据获取模块,用于获取基于深度图像进行目标检测后的当前检测结果以及当前跟踪结果;
修正模块,用于获取所述当前跟踪结果中的各跟踪对象的遮挡状态判定结果,基于目标遮挡状态的判定结果进行对象标识交换修正;
数据关联模块,用于将所述当前检测结果与当前跟踪结果进行数据关联,得到所述深度图像中的多个跟踪对象以及各跟踪对象对应的对象标识;
数据输出模块,用于输出更新后的当前跟踪结果。
根据本发明的第三方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行第一方面中任一项所述的基于深度图像的目标跟踪方法。
根据本发明的第四方面,还提供了一种计算设备,所述计算设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行第一方面中任一项所述的基于深度图像的目标跟踪方法。
根据本发明的第五方面,还提供了一种基于深度图像的目标跟踪系统,所述系统包括:至少一个摄像头、至少一个显示终端以及与所述摄像头和显示终端连接的第二方面所述的基于深度图像的目标跟踪装置。
根据本发明的第六方面,还提供了一种摄像设备,所述摄像设备包括第二方面所述的基于深度图像的目标跟踪装置。
本发明提供了一种基于深度图像的目标跟踪方法、装置、系统及摄像设备,本发明的基于深度图像的目标跟踪方法,在对当前跟踪结果和当前检测结果进行数据关联之前,可以先根据跟踪对象遮挡状态进行ID Switch修正,可有效改善目标遮挡场景下的ID新增与ID Switch问题,有利于提高深度客流相机统计结果的准确性;并且,该方法简单易行,算力开销较小,具有较好的实施性。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
根据下文结合附图对本发明具体实施例的详细描述,本领域技术人员将会更加明了本发明的上述以及其他目的、优点和特征。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了根据本发明一实施例的基于深度图像的目标跟踪方法流程示意图;
图2示出了根据本发明另一实施例的基于深度图像的目标跟踪方法流程示意图;
图3示出了根据本发明实施例的深度图像中目标A被B部分遮挡示意图;
图4示出了根据本发明一实施例的原始ID Switch效果与本发明ID Switch修正后效果对比图;
图5示出了根据本发明另一实施例的原始ID新增效果与本发明修正后效果对比图;
图6示出了根据本发明一实施例的基于深度图像的目标跟踪装置结构示意图;
图7示出了根据本发明另一实施例的基于深度图像的目标跟踪装置结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
需要说明的是,本申请提供的基于深度图像的背景建模方法,可以应用于终端,例如终端可以是各种商业用途大平板、手机或电脑、普通消费平板电脑、智能电视、便携计算机终端,也可以是台式计算机等固定终端。
本申请实施例可以应用于计算机系统/服务器,其可与众多其它通用或专用计算系统环境或配置一起操作。适于与计算机系统/服务器一起使用的众所周知的计算系统、环境和/或配置的例子包括但不限于:个人计算机系统、服务器计算机系统、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统、大型计算机系统和包括上述任何系统的分布式云计算技术环境,等等。
计算机系统/服务器可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
本发明实施例提供了一种基于深度图像的目标跟踪方法,如图1所示,本发明实施例的基于深度图像的目标跟踪方法至少可以包括以下步骤S101~S104。
S101,获取基于深度图像进行目标检测后的当前检测结果以及当前跟踪结果。其中,深度图像可以是利用深度相机采集的指定场景的深度图像,深度图像(depth image)也被称为距离影像(range image),是指将从图像采集器到场景中各点的距离(深度)作为像素值的图像。
实际应用中,目标跟踪方法基于目标检测,在对人体对象的检测器的跟踪过程中,当目标出现遮挡或者运动出视野等情况时,直接使用检测器来对目标(即人体跟踪对象)的位置进行重新检测。
在进行如上述介绍的客流统计的应用场景中,执行多目标跟踪之前,需要对于采集到的深度图像会进行目标检测,以识别当前帧深度图像包含的人体数据,以得到当前检测结果,该当前检测结果可以包括多个跟踪对象,并对目标检测后得到的跟踪对象的运动轨迹的跟踪,本实施例中,当前跟踪结果可以理解为当前已执行跟踪的人像目标的跟踪结果,是在执行最新一次的目标检测之前进行跟踪的人像信息,当前跟踪结果可以包括基于当前深度图像之前的历史图像进行目标检测并跟踪得到的,多个跟踪对象以及与各个跟踪对象唯一对应的对象标识ID和目标检测框等数据。当前检测结果是基于当前获取到的深度图像进行多目标人像识别所得到的包含有一个或多个人像目标的检测结果,也即执行最新一次的目标检测所得到的检测结果,当前检测结果可以包括多个跟踪对象以及与各个跟踪对象唯一对应的对象标识ID和目标检测框等数据。
本实施例采用的跟踪算法可以为轻量级的方案,比如,基于SORT(Simple Onlineand Realtime Tracking)或基于Deep SORT或与之类似的跟踪算法。在多目标跟踪领域,SORT和Deep SORT是两个极具代表性且广泛应用的算法。其中SORT简单快速,其将IOU作为代价度量(Cost Metric)进行数据关联;Deep SORT则在SORT基础上,以外观度量(Appearance Metric)与运动度量(Motion Metric)的加权融合作为代价度量(CostMetric),极大提升了数据关联的准确性,从而降低了上述问题的发生几率。从效果上看,后者的效果显然优于前者;但从性能上看,前者实时性更高。具体而言,Deep SORT和SORT一样,属于基于检测的跟踪(Detection Based Tracking,DBT)方式,并且都采用基于CNN的检测器。另外,Deep SORT还通过基于CNN的特征提取网络来得到外观度量。
S102,获取所述当前跟踪结果中的各跟踪对象的遮挡状态判定结果,基于目标遮挡状态的判定结果进行对象标识交换修正。
在进行目标跟踪时,可能会出现多个跟踪对象遮挡而出现ID交换(ID Switch)的情况,从而影响跟踪结果,本实施例还可以对各跟踪对象的遮挡状态判定,并根据得到的遮挡状态判定结果对当前跟踪结果中进行ID Switch修正,即ID Switch修正后再输出,从而使得跟踪结果更加准确。
S103,将所述当前检测结果与当前跟踪结果进行数据关联,得到所述深度图像中的多个跟踪对象以及各跟踪对象对应的对象标识,作为更新后的当前跟踪结果。
在本实施例中,将所述当前检测结果与当前跟踪结果进行数据关联是指基于当前检测结果与当前跟踪结果进行IOU匹配。具体可以依据当前检测结果和当前跟踪结果中的各个跟踪对象对应的目标检测框进行IOU匹配,以实现数据关联。
S104,输出更新后的当前跟踪结果。
对当前检测结果和当前跟踪结果中的各个跟踪对象对应的目标检测框进行IOU匹配之后,得到最新的当前跟踪结果即可输出。
本发明实施例提供的基于深度图像的目标跟踪方法,在对当前跟踪结果和当前检测结果进行数据关联之前,可以先根据跟踪对象遮挡状态进行ID Switch修正,可有效改善目标遮挡场景下的ID新增与ID Switch问题,有利于提高深度客流相机统计结果的准确性;并且,该方法简单易行,算力开销较小,具有较好的实施性。
图2示出了根据本发明另一实施例的基于深度图像的目标跟踪方法流程示意图,图中detections表示检测结果,即目标检测框/目标检测对象,tracks表示跟踪对象。检测结果由2D检测框增加了深度深度信息,在此基础上进行遮挡状态判定;基于目标遮挡状态,进行ID Switch修正,并对未匹配的tracks设定双阈值(根据目标遮挡状态自动选择其一)进行超帧/超时判定。具体流程如下:
S1,获取基于深度图像进行目标检测后的当前检测结果(detections)以及当前跟踪结果(tracks)。需要说明的是,本实施例中所记载的当前检测结果是基于当前获取到的深度图像进行多目标人像识别所得到的包含有一个或多个人像目标的检测结果;当前跟踪结果可以理解为当前已执行跟踪的人像目标的跟踪结果,是在执行最新一次的目标检测之前进行跟踪的人像信息。
S2,获取当前跟踪结果中的各跟踪对象的遮挡状态判定结果,基于目标遮挡状态的判定结果进行对象标识交换修正,即,ID Switch修正。
在一些实施例中,所述获取所述当前跟踪结果中的各跟踪对象的遮挡状态判定结果之前,所述方法还包括:在获取到所述深度图像之前的历史图像时,对所述历史图像中的各跟踪对象进行遮挡状态判定。在本实施例中,获取到的深度图像之前的历史图像,可以为该深度图像的前一帧深度图像;或者是距离当前最近一次执行目标检测操作时对应的处于该深度图像之前的图像。
可选地,本发明实施例的跟踪对象进行遮挡状态判定时,对于任意第一跟踪对象和第二跟踪对象,获取所述第一跟踪对象的第一跟踪信息和第二跟踪对象的第二跟踪信息;若所述第一跟踪信息和第二跟踪信息满足预设条件,则判定所述第一跟踪对象被第二跟踪对象遮挡。
在基于深度相机的客流统计系统中,处理对象是深度图。考虑到深度表征距离,而目标完全遮挡会经历粘连、部分遮挡、完全遮挡的过程,而后如遮挡消除,则会经历完全遮挡、部分遮挡、粘连、分离这一过程,相应地,可以考虑根据目标之间的位置关系和跟踪状态来判断遮挡状态,这里的位置关系不仅包括基于目标框的重叠关系,还包括基于深度(或距离)的前后位置关系。
也就是说,对于所有跟踪对象,其涉及的目标数据不仅包括目标框本身,还包括目标深度值。比如,若所述跟踪对象目标框以(x,y,w,h)表示(其中x、y为目标框中心点坐标,w、h为目标框宽、高),则包含深度值后应表述为(x,y,z,w,h)。相应的深度(或距离)值z是指检测目标到相机的距离,根据当前检测结果和深度图可以得出,深度值z与其他变量的顺序不作限定。进一步,遍历所有的跟踪对象,对于其中任意一个,依次判断该跟踪对象与其他跟踪对象是否满足遮挡判定条件。若是,则判定该目标被遮挡,并且将前方的遮挡者ID记录至其跟踪信息中。
在一些实施例中,第一跟踪信息和第二跟踪信息满足以下至少之一预设条件,则判定所述第一跟踪对象被第二跟踪对象遮挡。
(1)第一跟踪对象和/或第二跟踪对象的丢失帧数大于零。
跟踪对象A与B二者之一的丢失帧数(或时长,记为nlost)大于0。
当A被B完全遮挡时,仅B能被检出,即A、B所在位置仅有一个目标框,相应地在数据关联环节,A、B之中,必有一个匹配到检测目标而另一个未匹配到检测目标(此处暂不考虑多人相互遮挡的极复杂情形)。应知晓,在多目标跟踪中,若某一跟踪对象的丢失帧数(或时长)大于0,即可知其当前未关联到检测目标。
(2)第一跟踪对象的预测目标框的中心点位于第二跟踪对象的预设目标框之内。
跟踪对象A的预测目标框中心点处于跟踪对象B的预测目标框之内。换言之,当A被B遮挡时,仅有一个目标框,或者说A、B目标框预测值几乎重叠,显然,A的中心点预测值处于B之内。
(3)第一跟踪对象的预测目标框和第二跟踪对象的检测框的交并比超过设定阈值。
对象A、B的预测目标框IOU超过预设阈值。该条件可以与上述条件(2)择一即可。
(4)第一跟踪对象的深度值大于第二跟踪对象的深度值。
跟踪对象A的深度值大于跟踪对象B的深度值。
在一些情况下,如图3所示,在深度图像中,当目标A被目标B部分遮挡时,显然目标A的深度值大于目标B(图中颜色越浅表示深度值越大、距离越远),在目标A被B完全遮挡前,A的深度值是不断更新的,而当A被B初次完全遮挡时,可以通过跟踪信息中的深度值记录(或者预测值)对这种前后关系加以判断。进行遮挡判断时,优选同时满足上述条件(1)(2)(4)或(1)(3)(4)。其中,若遮挡判定过程中有发现遮挡,则标记存在遮挡,否则标记不存在遮挡。
遮挡判定的结果一方面用于ID Swtich修正,另一方面用于自动选择丢失帧数(或时长)阈值。
ID Swtich修正时,若当前存在遮挡,则遍历所有跟踪对象,对于任意被遮挡对象A及其遮挡者B,进一步判断:若A有关联到检测目标而B未关联到检测目标,说明A、B发生IDSwitch,则将A关联到的检测目标移交给B。
S3,将当前检测结果与当前跟踪结果进行数据关联(IOU匹配)得到更新后的当前跟踪结果。
在一些实施例中,S3,将当前检测结果与当前跟踪结果进行数据关联可以包括:对所述当前跟踪结果和所述当前检测结果进行跟踪对象匹配,得到匹配结果;根据匹配结果确定所述当前跟踪结果和所述当前检测结果中相同的跟踪对象以及新检测到的跟踪对象。由于当前检测结果是执行最新一次的目标检测所得到的人像信息,当前跟踪结果是在执行最新一次的目标检测之前所得到的人像信息,因此,在获取到当前检测结果之后,需要与当前跟踪结果进行数据关联,实现跟踪对象的数据更新。进行当前检测结果与当前跟踪结果数据关联可分为以下三种情况。
第一,若在所述当前检测结果中检测到所述当前跟踪结果未匹配到的跟踪对象,则为该跟踪对象分配新的对象标识。也就是说,当前检测结果出现当前跟踪结果中没有的跟踪对象,则说明出现了新的人像,此时可以将该新的人像作为新的跟踪对象,并分配新的对象标识。
第二,若在所述当前检测结果中检测到所述当前跟踪结果匹配到的跟踪对象,则更新该跟踪对象对应的检测器;对于当前检测结果和当前跟踪结果均存在的跟踪对象,可以更新其对应的Kalman滤波器(检测器)。
第三,若在所述当前跟踪结果中检测到所述当前检测结果未匹配到跟踪对象,则获取该跟踪对象的丢失帧数,确定与所述跟踪对象匹配的丢失帧数阈值;若所述丢失帧数超过丢失帧数阈值,则移除该跟踪对象;否则,保留跟踪对象的对象标识,并继续跟踪。也就是说,如果在当前跟踪结果有当前检测结果中没有的跟踪对象,则通过该跟踪对象的丢失帧数判断是否继续跟踪还是移除跟踪。
如图2所示,对于未匹配的detections,为其分配新的tracks;对于匹配成功的tracks,更新其对应的Kalman滤波器(检测器);对于未匹配的tracks,预先设定丢失帧数(或时长)双阈值——长阈值和短阈值,根据其当前遮挡状态选择其一,若超过阈值则移除。
现有目标跟踪技术中,一般会设置一个固定的目标丢失帧数(或时长,以帧为例)阈值Nlost。在数据关联之后,对于未匹配到检测目标的跟踪对象,将丢失帧数nlost加1,若nlost累计超过Nlost,则判定该跟踪对象消失,将其从跟踪对象集合中移除。这里存在的问题是:若阈值Nlost设置得较小,则目标被短暂遮挡就会被移除跟踪对象,而当遮挡消除后,必然会被分配一个新的ID,即错误的ID新增;相反地,若阈值Nlost设置得较大,则当目标正常消失后,其附近再出现一个新目标时,新目标会被错误关联到旧的ID。
在本发明实施例中,若在所述当前跟踪结果中检测到所述当前检测结果未匹配到跟踪对象,则获取该跟踪对象的丢失帧数,确定与所述跟踪对象匹配的丢失帧数阈值。其中,所述确定与所述跟踪对象匹配的丢失帧数阈值包括:若所述跟踪对象被判定为被遮挡状态,则确定与所述跟踪对象匹配的丢失帧数阈值为第一阈值;否则,确定与所述跟踪对象匹配的丢失帧数阈值为第二阈值;所述第一阈值大于所述第二阈值。
也就是说,本发明发明实施例设置两个丢失帧数阈值:一个短阈值和一个长阈值/>基于前面提出的遮挡判定机制,对于未被遮挡的跟踪对象,采用短阈值/>可以及时移除一些真正消失的目标,附近有真正的新目标出现时,可以正常获得新ID;而对于被遮挡的跟踪对象,采用长阈值/>可降低被遮挡目标再次出现时ID新增的几率。本发明实施例提供的方案对于未匹配到检测目标的跟踪对象,根据其遮挡状态选用长短不同的丢失帧数(或时长)阈值,以降低遮挡消除后的ID新增概率。
S4,对所述深度图像中的各跟踪对象进行遮挡状态判定,以供下次进行遮挡状态判定时使用。
本实施例在上述步骤S3将当前检测结果与当前跟踪结果进行数据关联之后得到更新的目标结果之后,对所述深度图像中的各跟踪对象进行遮挡状态判定,以供下次进行遮挡状态判定时使用。
S5,输出更新后的跟踪结果。
图4为原始ID Switch效果与本发明实施例的ID Switch修正后效果对比图。
其中,左边一列为原始ID Switch新增效果图,右边一列为本发明ID Switch修正后效果图。从图4中左右两列图中可以看出行人1(后面的ID为1的人像)被行人0(前面的ID为0的人像)逐步遮挡至遮挡消除的过程。图中第457、461、462、465帧,左右两列效果是一致的,而在第466帧,左边现有技术出现ID Switch——前后行人发生ID交换,而右边则可看出,通过采用本发明实施例方案的方案进行遮挡判断,并根据遮挡判断结果进行ID Switch修正后,行人1和行人0的ID与第457、461、462、465帧的ID保持一致,实现精准人像目标跟踪的效果。
图5为原始ID新增效果与本发明实施例的修正后效果对比图,其中,左边一列为原始ID新增效果图,右边一列为本发明实施例的修正后效果图。从图中连续的第244、252、258、360、381帧可以看出行人0(后面的)被行人1(前面的)逐步遮挡、完全遮挡至遮挡消除的过程,从图中帧数可知,完全遮挡持续了一段时间。图中第244、252、258、360帧,左右两列效果是一致的,而在第381帧,被遮挡的目标再次出现(被检出),左边现有技术出现错误的ID新增(即,新增ID为2的跟踪对象)。而右边则可看出,本发明实施例方案可以通过当前跟踪结果和当前检测结果的关联,可以实现的跟踪对象的修正,跟踪对象被判定为被遮挡状态,则采用长的丢失帧数阈值来确定是否移除对象。本实施例中,行人0的丢失帧数未达到长的丢失帧数阈值,则继续保留该行人的ID并进行跟踪,以此来降低目标被遮挡后再次出现时ID新增的几率,从而改善目标粘连、遮挡场景下的ID新增问题(前面的行人ID依然为0)。
基于同一发明构思,本发明实施例还提供了一种基于深度图像的目标跟踪装置,如图6所示,基于深度图像的目标跟踪装置包括:
数据获取模块610,用于获取基于深度图像进行目标检测后的当前检测结果以及当前跟踪结果;
修正模块620,用于获取所述当前跟踪结果中的各跟踪对象的遮挡状态判定结果,基于目标遮挡状态的判定结果进行对象标识交换修正;
数据关联模块630,用于将所述当前检测结果与当前跟踪结果进行数据关联,得到所述深度图像中的多个跟踪对象以及各跟踪对象对应的对象标识,作为更新后的当前跟踪结果;
数据输出模块640,用于输出更新后的当前跟踪结果。
在本发明一可选实施例中,数据关联模块630还可以用于:
对所述当前跟踪结果和所述当前检测结果进行跟踪对象匹配,得到匹配结果;
根据匹配结果确定所述当前跟踪结果和所述当前检测结果中相同的跟踪对象以及新检测到的跟踪对象。
在本发明一可选实施例中,数据关联模块630还可以用于:
若在所述当前检测结果中检测到所述当前跟踪结果未匹配到的跟踪对象,则为该跟踪对象分配新的对象标识;
若在所述当前检测结果中检测到所述当前跟踪结果匹配到的跟踪对象,则更新该跟踪对象对应的检测器;
若在所述当前跟踪结果中检测到所述当前检测结果未匹配到跟踪对象,则获取该跟踪对象的丢失帧数,确定与所述跟踪对象匹配的丢失帧数阈值;若所述丢失帧数超过丢失帧数阈值,则移除该跟踪对象。
在本发明一可选实施例中,数据关联模块630还可以用于:
若所述跟踪对象被判定为被遮挡状态,则确定与所述跟踪对象匹配的丢失帧数阈值为第一阈值;否则,确定与所述跟踪对象匹配的丢失帧数阈值为第二阈值;
所述第一阈值大于所述第二阈值
在本发明一可选实施例中,如图7所示,本发明实施例的基于深度图像的目标跟踪装置还可以包括:
遮挡状态判定模块750,用于在获取到所述深度图像之前的历史图像时,对所述历史图像中的各跟踪对象进行遮挡状态判定。
在本发明一可选实施例中,遮挡状态判定模块750还可以用于:
对所述深度图像中的各跟踪对象进行遮挡状态判定,以供下次进行遮挡状态判定时使用。
在本发明一可选实施例中,遮挡状态判定模块750还可以用于:
对于任意第一跟踪对象和第二跟踪对象,获取所述第一跟踪对象的第一跟踪信息和第二跟踪对象的第二跟踪信息;
若所述第一跟踪信息和第二跟踪信息满足预设条件,则判定所述第一跟踪对象被第二跟踪对象遮挡。
可选地,所述预设条件包括以下至少之一:
第一跟踪对象和/或第二跟踪对象的丢失帧数大于零;
第一跟踪对象的预测目标框的中心点位于第二跟踪对象的预设目标框之内;
第一跟踪对象的预测目标框和第二跟踪对象的检测框的交并比超过设定阈值;
第一跟踪对象的深度值大于第二跟踪对象的深度值。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行上述实施例所述的基于深度图像的目标跟踪方法。
本发明实施例还提供了一种计算设备,所述计算设备包括处理器以及存储器:所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;所述处理器用于根据所述程序代码中的指令执行上述实施例所述的基于深度图像的目标跟踪方法。
本发明还提供了一种基于深度图像的目标跟踪系统,所述系统包括:至少一个摄像头、至少一个显示终端以及与所述摄像头和显示终端连接的上述实施例的基于深度图像的目标跟踪装置。
本发明还提供了一种摄像设备,所述摄像设备包括上述实施例的基于深度图像的目标跟踪装置。
所属领域的技术人员可以清楚地了解到,上述描述的系统、装置、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,为简洁起见,在此不另赘述。
另外,在本发明各个实施例中的各功能单元可以物理上相互独立,也可以两个或两个以上功能单元集成在一起,还可以全部功能单元都集成在一个处理单元中。上述集成的功能单元既可以采用硬件的形式实现,也可以采用软件或者固件的形式实现。
本领域普通技术人员可以理解:所述集成的功能单元如果以软件的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,其包括若干指令,用以使得一台计算设备(例如个人计算机,服务器,或者网络设备等)在运行所述指令时执行本发明各实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM)、随机存取存储器(RAM),磁碟或者光盘等各种可以存储程序代码的介质。
或者,实现前述方法实施例的全部或部分步骤可以通过程序指令相关的硬件(诸如个人计算机,服务器,或者网络设备等的计算设备)来完成,所述程序指令可以存储于一计算机可读取存储介质中,当所述程序指令被计算设备的处理器执行时,所述计算设备执行本发明各实施例所述方法的全部或部分步骤。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:在本发明的精神和原则之内,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案脱离本发明的保护范围。
Claims (11)
1.一种基于深度图像的目标跟踪方法,其特征在于,所述方法包括:
获取基于深度图像进行目标检测后的当前检测结果以及当前跟踪结果;
获取所述当前跟踪结果中的各跟踪对象的遮挡状态判定结果,基于目标遮挡状态的判定结果进行对象标识交换修正;
将所述当前检测结果与当前跟踪结果进行数据关联,得到所述深度图像中的多个跟踪对象以及各跟踪对象对应的对象标识,作为更新后的当前跟踪结果;
输出所述更新后的当前跟踪结果;
所述将所述当前检测结果与当前跟踪结果进行数据关联包括:
对所述当前跟踪结果和所述当前检测结果进行跟踪对象匹配,得到匹配结果;
若在所述当前检测结果中检测到所述当前跟踪结果未匹配到的跟踪对象,则为该跟踪对象分配新的对象标识;
若在所述当前检测结果中检测到所述当前跟踪结果匹配到的跟踪对象,则更新该跟踪对象对应的检测器;
若在所述当前跟踪结果中检测到所述当前检测结果未匹配到跟踪对象,则获取该跟踪对象的丢失帧数,确定与所述跟踪对象匹配的丢失帧数阈值;若所述丢失帧数超过丢失帧数阈值,则移除该跟踪对象。
2.根据权利要求1所述的方法,其特征在于,所述确定与所述跟踪对象匹配的丢失帧数阈值包括:
若所述跟踪对象被判定为被遮挡状态,则确定与所述跟踪对象匹配的丢失帧数阈值为第一阈值;否则,确定与所述跟踪对象匹配的丢失帧数阈值为第二阈值;
所述第一阈值大于所述第二阈值。
3.根据权利要求1所述的方法,其特征在于,所述获取所述当前跟踪结果中的各跟踪对象的遮挡状态判定结果之前,所述方法还包括:
在获取到所述深度图像之前的历史图像时,对所述历史图像中的各跟踪对象进行遮挡状态判定。
4.根据权利要求1-3中任一项所述的方法,其特征在于,所述将所述当前检测结果与当前跟踪结果进行数据关联之后,所述方法还包括:
对所述深度图像中的各跟踪对象进行遮挡状态判定,以供下次进行遮挡状态判定时使用。
5.根据权利要求4所述的方法,其特征在于,对所述深度图像中的各跟踪对象进行遮挡状态判定包括:
对于任意第一跟踪对象和第二跟踪对象,获取所述第一跟踪对象的第一跟踪信息和第二跟踪对象的第二跟踪信息;
若所述第一跟踪信息和第二跟踪信息满足预设条件,则判定所述第一跟踪对象被第二跟踪对象遮挡。
6.根据权利要求5所述的方法,其特征在于,所述预设条件包括以下至少之一:
第一跟踪对象和/或第二跟踪对象的丢失帧数大于零;
第一跟踪对象的预测目标框的中心点位于第二跟踪对象的预设目标框之内;
第一跟踪对象的预测目标框和第二跟踪对象的检测框的交并比超过设定阈值;
第一跟踪对象的深度值大于第二跟踪对象的深度值。
7.一种基于深度图像的目标跟踪装置,其特征在于,所述装置包括:
数据获取模块,用于获取基于深度图像进行目标检测后的当前检测结果以及当前跟踪结果;
修正模块,用于获取所述当前跟踪结果中的各跟踪对象的遮挡状态判定结果,基于目标遮挡状态的判定结果进行对象标识交换修正;
数据关联模块,用于将所述当前检测结果与当前跟踪结果进行数据关联,得到所述深度图像中的多个跟踪对象以及各跟踪对象对应的对象标识;
数据输出模块,用于输出更新后的当前跟踪结果;
所述数据关联模块还用于:对所述当前跟踪结果和所述当前检测结果进行跟踪对象匹配,得到匹配结果;若在所述当前检测结果中检测到所述当前跟踪结果未匹配到的跟踪对象,则为该跟踪对象分配新的对象标识;
若在所述当前检测结果中检测到所述当前跟踪结果匹配到的跟踪对象,则更新该跟踪对象对应的检测器;
若在所述当前跟踪结果中检测到所述当前检测结果未匹配到跟踪对象,则获取该跟踪对象的丢失帧数,确定与所述跟踪对象匹配的丢失帧数阈值;若所述丢失帧数超过丢失帧数阈值,则移除该跟踪对象。
8.一种基于深度图像的目标跟踪系统,其特征在于,所述系统包括:
所述系统包括至少一个摄像头、至少一个显示终端以及与所述摄像头和显示终端连接的权利要求7所述的基于深度图像的目标跟踪装置。
9.一种摄像设备,其特征在于,所述摄像设备包括权利要求7所述的基于深度图像的目标跟踪装置。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行权利要求1-6任一项所述的基于深度图像的目标跟踪方法。
11.一种计算设备,其特征在于,所述计算设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行权利要求1-6任一项所述的基于深度图像的目标跟踪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310066777.7A CN116330658B (zh) | 2023-01-12 | 2023-01-12 | 基于深度图像的目标跟踪方法、装置、系统及摄像设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310066777.7A CN116330658B (zh) | 2023-01-12 | 2023-01-12 | 基于深度图像的目标跟踪方法、装置、系统及摄像设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116330658A CN116330658A (zh) | 2023-06-27 |
CN116330658B true CN116330658B (zh) | 2024-05-28 |
Family
ID=86882971
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310066777.7A Active CN116330658B (zh) | 2023-01-12 | 2023-01-12 | 基于深度图像的目标跟踪方法、装置、系统及摄像设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116330658B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117409040B (zh) * | 2023-11-02 | 2024-05-10 | 沐曦科技(成都)有限公司 | 一种基于目标类别改进的多目标跟踪方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016162075A (ja) * | 2015-02-27 | 2016-09-05 | Kddi株式会社 | オブジェクト追跡方法、装置およびプログラム |
CN111652902A (zh) * | 2020-06-02 | 2020-09-11 | 浙江大华技术股份有限公司 | 目标的跟踪检测方法、电子设备及装置 |
CN112561963A (zh) * | 2020-12-18 | 2021-03-26 | 北京百度网讯科技有限公司 | 目标跟踪的方法、装置、路侧设备以及存储介质 |
CN112907636A (zh) * | 2021-03-30 | 2021-06-04 | 深圳市优必选科技股份有限公司 | 多目标跟踪方法、装置、电子设备及可读存储介质 |
CN114463368A (zh) * | 2021-12-31 | 2022-05-10 | 科大讯飞股份有限公司 | 目标跟踪方法和装置、电子设备、计算机可读存储介质 |
WO2022135027A1 (zh) * | 2020-12-22 | 2022-06-30 | 深圳云天励飞技术股份有限公司 | 多目标跟踪方法、装置、计算机设备及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109697499B (zh) * | 2017-10-24 | 2021-09-07 | 北京京东尚科信息技术有限公司 | 行人流量漏斗生成方法及装置、存储介质、电子设备 |
WO2021014643A1 (ja) * | 2019-07-25 | 2021-01-28 | 日本電気株式会社 | 物体追跡装置、物体追跡方法、及び、記録媒体 |
-
2023
- 2023-01-12 CN CN202310066777.7A patent/CN116330658B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016162075A (ja) * | 2015-02-27 | 2016-09-05 | Kddi株式会社 | オブジェクト追跡方法、装置およびプログラム |
CN111652902A (zh) * | 2020-06-02 | 2020-09-11 | 浙江大华技术股份有限公司 | 目标的跟踪检测方法、电子设备及装置 |
CN112561963A (zh) * | 2020-12-18 | 2021-03-26 | 北京百度网讯科技有限公司 | 目标跟踪的方法、装置、路侧设备以及存储介质 |
WO2022135027A1 (zh) * | 2020-12-22 | 2022-06-30 | 深圳云天励飞技术股份有限公司 | 多目标跟踪方法、装置、计算机设备及存储介质 |
CN112907636A (zh) * | 2021-03-30 | 2021-06-04 | 深圳市优必选科技股份有限公司 | 多目标跟踪方法、装置、电子设备及可读存储介质 |
CN114463368A (zh) * | 2021-12-31 | 2022-05-10 | 科大讯飞股份有限公司 | 目标跟踪方法和装置、电子设备、计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116330658A (zh) | 2023-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111640140B (zh) | 目标跟踪方法、装置、电子设备及计算机可读存储介质 | |
CN110516556B (zh) | 基于Darkflow-DeepSort的多目标追踪检测方法、装置及存储介质 | |
CN111445517B (zh) | 机器人视觉末端定位方法、装置及计算机可读存储介质 | |
CN109145771B (zh) | 一种人脸抓拍方法及装置 | |
CN113284168A (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
CN110610150B (zh) | 一种目标运动物体的跟踪方法、装置、计算设备和介质 | |
CN110853078A (zh) | 一种基于遮挡对的在线多目标跟踪方法 | |
CN105046719B (zh) | 一种视频监控方法及系统 | |
CN108647587B (zh) | 人数统计方法、装置、终端及存储介质 | |
CN112330715A (zh) | 一种跟踪方法、跟踪装置、终端设备及可读存储介质 | |
US20150104067A1 (en) | Method and apparatus for tracking object, and method for selecting tracking feature | |
CN116330658B (zh) | 基于深度图像的目标跟踪方法、装置、系统及摄像设备 | |
CN112668524A (zh) | 多目标跟踪系统及方法 | |
CN112132103A (zh) | 一种视频人脸检测识别方法和系统 | |
CN115641359B (zh) | 确定对象的运动轨迹的方法、装置、电子设备和介质 | |
CN111402293A (zh) | 面向智能交通的一种车辆跟踪方法及装置 | |
CN112528927A (zh) | 基于轨迹分析的置信度确定方法、路侧设备及云控平台 | |
KR101913648B1 (ko) | 다중 객체 추적 방법 | |
CN117670939B (zh) | 多相机的多目标跟踪方法、装置、存储介质及电子设备 | |
CN110349184B (zh) | 基于迭代滤波和观测判别的多行人跟踪方法 | |
CN109816700B (zh) | 一种基于目标识别的信息统计方法 | |
CN112819889B (zh) | 位置信息的确定方法及装置、存储介质、电子装置 | |
CN116363565B (zh) | 目标轨迹确定方法、装置、电子设备及存储介质 | |
CN109815861B (zh) | 一种基于人脸识别的用户行为信息统计方法 | |
CN115953434B (zh) | 轨迹匹配方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |