CN111815675A - 目标对象的跟踪方法及装置、电子设备和存储介质 - Google Patents
目标对象的跟踪方法及装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN111815675A CN111815675A CN202010623204.6A CN202010623204A CN111815675A CN 111815675 A CN111815675 A CN 111815675A CN 202010623204 A CN202010623204 A CN 202010623204A CN 111815675 A CN111815675 A CN 111815675A
- Authority
- CN
- China
- Prior art keywords
- videos
- motion
- target
- objects
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本公开涉及一种目标对象的跟踪方法及装置、电子设备和存储介质。所述方法包括:获取至少两个设备对目标场景进行采集所得到的至少两路视频;对所述至少两路视频中的对象进行跟踪检测,得到至少一个对象在所述至少两路视频中的跟踪检测结果;根据所述跟踪检测结果,从所述至少两个设备分别采集的至少两路视频中识别出相同对象,作为目标对象;基于所述目标对象在所述至少两路视频中的跟踪检测结果,确定所述目标对象的运动轨迹。
Description
技术领域
本公开涉及计算机视觉领域,尤其涉及一种目标对象的跟踪方法及装置、电子设备和存储介质。
背景技术
随着计算机视觉技术的发展,对目标场景的人员身份识别和人体轨迹追踪已经越来越成熟。然而如何对目标密集,遮挡情况比较严重的场景中的人员,进行高精度的轨迹跟踪,仍是目前一个亟待解决的问题。
发明内容
本公开提出了一种目标对象的跟踪方案。
根据本公开的一方面,提供了一种目标对象的跟踪方法,包括:
获取至少两个设备对目标场景进行采集所得到的至少两路视频;对所述至少两路视频中的对象进行跟踪检测,得到至少一个对象在所述至少两路视频中的跟踪检测结果;根据所述跟踪检测结果,从所述至少两个设备分别采集的至少两路视频中识别出相同对象,作为目标对象;基于所述目标对象在所述至少两路视频中的跟踪检测结果,确定所述目标对象的运动轨迹。
在一种可能的实现方式中,所述根据所述跟踪检测结果,从所述至少两路视频中识别出相同对象,作为目标对象,包括:根据所述跟踪检测结果,分别确定所述至少两路视频中对象的运动信息,将所述至少两路视频中运动信息匹配的对象作为目标对象,其中,所述运动信息包括对象的运动时间和/或运动位置。
在一种可能的实现方式中,所述运动信息包括对象的运动时间;所述根据所述跟踪检测结果,分别确定所述至少两路视频中对象的运动信息,将所述至少两路视频中运动信息匹配的对象作为目标对象,包括:根据所述跟踪检测结果中的运动时间,分别确定所述至少两路视频中对象的运动顺序;根据所述至少两路视频中对象的运动顺序,将在所述至少两路视频中处于相同运动顺序的对象,作为目标对象。
在一种可能的实现方式中,所述运动信息包括对象的运动位置;所述根据所述跟踪检测结果,分别确定所述至少两路视频中对象的运动信息,将所述至少两路视频中运动信息匹配的对象作为目标对象,包括:获取所述至少两路视频在相同时刻下的多个视频帧;根据所述多个视频帧对应的跟踪检测结果,确定所述多个视频帧中对象的运动位置;将所述多个视频帧中运动位置匹配的对象作为目标对象。
在一种可能的实现方式中,所述根据所述多个视频帧对应的跟踪检测结果,确定所述多个视频帧中对象的运动位置,包括:根据所述多个视频帧对应的跟踪检测结果,获取所述多个视频帧中对象的平面位置信息,其中,所述平面位置信息包括所述对象在所述视频帧中的图像位置信息;根据每个视频帧与所述目标场景之间的位置变换关系,将所述多个视频帧中对象的平面位置信息转换为所述目标场景中的空间位置信息,得到所述多个视频帧中对象的运动位置。
在一种可能的实现方式中,所述根据所述跟踪检测结果,从所述至少两路视频中识别出相同对象,作为目标对象,还包括:根据所述跟踪检测结果,分别确定所述至少两路视频中对象的特征信息;将所述至少两路视频中运动信息匹配且特征信息匹配的对象作为目标对象。
在一种可能的实现方式中,所述对所述至少两路视频中的对象进行跟踪检测,得到至少一个对象在所述至少两路视频中的跟踪检测结果,包括:对所述至少两路视频中的至少部分进行人体检测,得到至少一个对象在至少部分视频中的人体检测结果;和/或,对所述至少两路视频中的至少部分进行人脸识别,得到至少一个对象在至少部分视频中的人脸识别结果;所述跟踪检测结果包括所述人体检测结果和/或所述人脸识别结果。
在一种可能的实现方式中,所述根据所述跟踪检测结果,从所述至少两路视频中识别出相同对象,作为目标对象,包括:根据所述跟踪检测结果中的人脸识别结果,获取至少部分视频中对象的身份信息;根据所述跟踪检测结果中的人体检测结果,分别确定所述至少两路视频中对象的运动信息,将所述至少两路视频中运动信息匹配的对象作为目标对象,其中,运动信息包括对象的运动时间和/或运动位置;将所述目标对象在至少部分视频中的身份信息,作为每个所述视频中所述目标对象的身份信息。
在一种可能的实现方式中,所述根据所述跟踪检测结果中的人脸识别结果,获取至少部分视频中对象的身份信息,包括以下任意一种:在所述人脸识别结果与预设数据库中的人脸图像匹配的情况下,从所述预设数据库中获取所述身份信息;在所述人脸识别结果与预设数据库中的人脸图像不匹配的情况下,将所述身份信息标记为陌生人;在所述人脸识别结果包括未识别的情况下,将所述身份信息标记为未识别。
在一种可能的实现方式中,所述将所述目标对象在所述至少两路视频中的跟踪检测结果进行融合,得到所述目标对象的运动轨迹,包括:将所述目标对象在所述至少两路视频中的跟踪检测结果进行加权平均,得到所述目标对象的运动轨迹。
在一种可能的实现方式中,所述方法还包括:获取与目标场景匹配的展示图像;根据所述目标场景与所述展示图像的匹配关系,将所述目标对象的运动轨迹映射到所述展示图像中;通过可视化界面,对可视化内容进行展示,其中,所述可视化内容包括如下至少一项:所述至少两路视频中的至少一个、所述展示图像以及所述展示图像中的运动轨迹。
在一种可能的实现方式中,所述展示图像包括预设围栏,将所述预设围栏映射到所述目标场景中的区域作为目标区域,所述目标区域的范围不大于所述目标场景的范围;所述通过可视化界面,对可视化内容进行展示还包括:在至少一个对象进入到所述目标区域的情况下,通过所述可视化界面,显示告警信息,其中,所述告警信息包括如下至少一项:所述目标区域中的对象数量、进入到所述目标区域的对象的身份信息、所述目标区域中对象的进入时间、所述目标区域中对象的停留时间以及所述目标区域中对象的运动距离。
在一种可能的实现方式中,所述通过可视化界面,对可视化内容进行展示,还包括:根据所述跟踪检测结果,在所述可视化内容的视频中显示所述目标对象的人体框;和/或,在所述可视化内容的视频中显示至少一个所述目标对象的身份信息。
根据本公开的一方面,提供了一种目标对象的跟踪装置,包括:
视频获取模块,用于获取至少两个设备对目标场景进行采集所得到的至少两路视频;跟踪检测模块,用于对所述至少两路视频中的对象进行跟踪检测,得到至少一个对象在所述至少两路视频中的跟踪检测结果;目标对象确定模块,用于根据所述跟踪检测结果,从所述至少两个设备分别采集的至少两路视频中识别出相同对象,作为目标对象;运动轨迹确定模块,用于基于所述目标对象在所述至少两路视频中的跟踪检测结果,确定所述目标对象的运动轨迹。
在一种可能的实现方式中,所述目标对象确定模块用于:根据所述跟踪检测结果,分别确定所述至少两路视频中对象的运动信息,将所述至少两路视频中运动信息匹配的对象作为目标对象,其中,所述运动信息包括对象的运动时间和/或运动位置。
在一种可能的实现方式中,所述运动信息包括对象的运动时间;所述目标对象确定模块进一步用于:根据所述跟踪检测结果中的运动时间,分别确定所述至少两路视频中对象的运动顺序;根据所述至少两路视频中对象的运动顺序,将在所述至少两路视频中处于相同运动顺序的对象,作为目标对象。
在一种可能的实现方式中,所述运动信息包括对象的运动位置;所述目标对象确定模块进一步用于:获取所述至少两路视频在相同时刻下的多个视频帧;根据所述多个视频帧对应的跟踪检测结果,确定所述多个视频帧中对象的运动位置;将所述多个视频帧中运动位置匹配的对象作为目标对象。
在一种可能的实现方式中,所述目标对象确定模块进一步用于:根据所述多个视频帧对应的跟踪检测结果,获取所述多个视频帧中对象的平面位置信息,其中,所述平面位置信息包括所述对象在所述视频帧中的图像位置信息;根据每个视频帧与所述目标场景之间的位置变换关系,将所述多个视频帧中对象的平面位置信息转换为所述目标场景中的空间位置信息,得到所述多个视频帧中对象的运动位置。
在一种可能的实现方式中,所述目标对象确定模块还用于:根据所述跟踪检测结果,分别确定所述至少两路视频中对象的特征信息;将所述至少两路视频中运动信息匹配且特征信息匹配的对象作为目标对象。
在一种可能的实现方式中,所述跟踪检测模块用于:对所述至少两路视频中的至少部分进行人体检测,得到至少一个对象在至少部分视频中的人体检测结果;和/或,对所述至少两路视频中的至少部分进行人脸识别,得到至少一个对象在至少部分视频中的人脸识别结果;所述跟踪检测结果包括所述人体检测结果和/或所述人脸识别结果。
在一种可能的实现方式中,所述目标对象确定模块用于:根据所述跟踪检测结果中的人脸识别结果,获取至少部分视频中对象的身份信息;根据所述跟踪检测结果中的人体检测结果,分别确定所述至少两路视频中对象的运动信息,将所述至少两路视频中运动信息匹配的对象作为目标对象,其中,运动信息包括对象的运动时间和/或运动位置;将所述目标对象在至少部分视频中的身份信息,作为每个所述视频中所述目标对象的身份信息。
在一种可能的实现方式中,所述根据所述跟踪检测结果中的人脸识别结果,获取至少部分视频中对象的身份信息,包括以下任意一种:在所述人脸识别结果与预设数据库中的人脸图像匹配的情况下,从所述预设数据库中获取所述身份信息;在所述人脸识别结果与预设数据库中的人脸图像不匹配的情况下,将所述身份信息标记为陌生人;在所述人脸识别结果包括未识别的情况下,将所述身份信息标记为未识别。
在一种可能的实现方式中,所述运动轨迹确定模块用于:将所述目标对象在所述至少两路视频中的跟踪检测结果进行加权平均,得到所述目标对象的运动轨迹。
在一种可能的实现方式中,所述装置还用于:获取与目标场景匹配的展示图像;根据所述目标场景与所述展示图像的匹配关系,将所述目标对象的运动轨迹映射到所述展示图像中;通过可视化界面,对可视化内容进行展示,其中,所述可视化内容包括如下至少一项:所述至少两路视频中的至少一个、所述展示图像以及所述展示图像中的运动轨迹。
在一种可能的实现方式中,所述展示图像包括预设围栏,将所述预设围栏映射到所述目标场景中的区域作为目标区域,所述目标区域的范围不大于所述目标场景的范围;所述装置进一步用于:在至少一个对象进入到所述目标区域的情况下,通过所述可视化界面,显示告警信息,其中,所述告警信息包括如下至少一项:所述目标区域中的对象数量、进入到所述目标区域的对象的身份信息、所述目标区域中对象的进入时间、所述目标区域中对象的停留时间以及所述目标区域中对象的运动距离。
在一种可能的实现方式中,所述装置还用于:根据所述跟踪检测结果,在所述可视化内容的视频中显示所述目标对象的人体框;和/或,在所述可视化内容的视频中显示至少一个所述目标对象的身份信息。
根据本公开的一方面,提供了一种电子设备,包括:
处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为:执行上述目标对象的跟踪方法。
根据本公开的一方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述目标对象的跟踪方法。
在本公开实施例中,通过获取至少两个设备对目标场景进行采集所得到的至少两路视频,并对至少两路视频中的对象进行跟踪检测,得到至少一个对象在至少两路视频中的跟踪检测结果,从而根据跟踪检测结果,从至少两路视频中识别出相同的对象作为目标对象,继而基于目标对象在至少两路视频中的跟踪检测结果来确定目标对象的运动轨迹。通过上述过程,可以利用多个设备同时对目标对象进行跟踪,减少了在目标场景中无法检测到目标对象或是在目标对象跟踪的中途丢失目标对象的情况;同时,对不同设备中相同的对象识别为相同的目标对象,可以将多个设备中的相同对象进行关联,从而便于根据多个设备的跟踪检测结果来确定目标对象的运动轨迹,继而提升运动轨迹的精度,即提升目标对象的跟踪准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1示出根据本公开一实施例的目标对象的跟踪方法的流程图。
图2示出根据本公开一实施例的目标对象的跟踪装置的框图。
图3示出根据本公开一应用示例的目标对象的跟踪方法示意图。
图4示出根据本公开一应用示例的可视化展示示意图。
图5示出根据本公开实施例的一种电子设备的框图。
图6示出根据本公开实施例的一种电子设备的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
另外,为了更好地说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
图1示出根据本公开一实施例的目标对象的跟踪方法的流程图,该方法可以应用于目标对象的跟踪装置或跟踪系统等,目标对象的跟踪装置可以为终端设备、服务器或者其他处理设备等。其中,终端设备可以为用户设备(User Equipment,UE)、移动设备、用户终端、终端、蜂窝电话、无绳电话、个人数字处理(Personal Digital Assistant,PDA)、手持设备、计算设备、车载设备、可穿戴设备等。在一个示例中,该目标对象的跟踪方法可以应用于云端服务器或本地服务器,云端服务器可以为公有云服务器,也可以为私有云服务器,根据实际情况灵活选择即可。
在一些可能的实现方式中,该目标对象的跟踪方法也可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
如图1所示,在一种可能的实现方式中,所述目标对象的跟踪方法可以包括:
步骤S11,获取至少两个设备对目标场景进行采集所得到的至少两路视频。
步骤S12,对至少两路视频中的对象进行跟踪检测,得到至少一个对象在至少两路视频中的跟踪检测结果。
步骤S13,根据跟踪检测结果,从至少两个设备分别采集的至少两路视频中识别出相同对象,作为目标对象。
步骤S14,基于目标对象在至少两路视频中的跟踪检测结果,确定目标对象的运动轨迹。
其中,目标场景可以是具有对象跟踪需求的任意场景,在本公开实施例中不做限制,可以根据实际情况灵活选择。在一种可能的实现方式中,目标场景可以是公司、工厂或车间中的某些工作区域;在一种可能的实现方式中,目标场景也可以是球场、商场、教室、零售门店、4S店等公共场所;在一种可能的实现方式中,目标场景也可以是家庭中的客厅或是卧室等空间等具有较高私密性的场所。
设备可以是部署在目标场景中的具有图像采集功能的任意设备,其实现方式在本公开实施例中同样不做限制。在一种可能的实现方式中,设备可以是具有图像采集功能的摄像头,比如红外摄像头或是针孔摄像头等。如上述公开实施例所述,步骤S11中获取的视频,可以是通过至少两个设备对目标场景采集所得到的至少两路视频。因此,在一种可能的实现方式中,部署在目标场景中的设备的数量可以为两个,也可以为两个以上,根据实际的部署需求灵活进行确定即可。部署在目标场景中的多个设备,可以相同,也可以不同;同样地,目标场景中多个设备的部署位置,可以相同,也可以不同,不局限于下述各公开实施例。在一种可能的实现方式中,可以在目标场景的多个位置处分别布置同类型或同型号的设备;在一种可能的实现方式中,也可以在目标场景的多个位置处分别布置不同类型或不同型号的设备;在一种可能的实现方式中,还可以在目标场景的相同位置处布置多个不同类型的设备等。在一个示例中,可以在目标场景的不同高度处,分别布置相同或不同的摄像头,比如可以在目标场景的较高位置,比如8米或9米以上的位置,布置一个或多个摄像头,同时在目标场景的其他高度处,比如2~5米左右的高度处,在目标场景分布式部署多个相同的摄像头等。
步骤S11中获取的至少两路视频,其来源和实现方式可以根据实际情况灵活决定。在一种可能的实现方式中,获取的至少两路视频,可以是通过不同设备所采集到的视频;在一种可能的实现方式中,获取的至少两路视频,可以是通过相同设备所采集的不同时间段的多个视频;在一种可能的实现方式中,获取的至少两路视频,可以是相同或不同设备在多个时间段内采集到的多路视频。
步骤S11中获取视频的方式在本公开实施例中也不做限制,不局限于下述各公开实施例。在一种可能的实现方式中,可以通过接收设备实时传递的视频的方式获取至少两路视频,在一种可能的实现方式中,也可以在设备采集视频以后,读取或调用存储的视频的方式,来获取至少两路视频等,具体如何接收设备的视频,或是从设备中调用或读取视频,可以根据目标对象的跟踪装置与设备之间的通信方式灵活决定,在本公开实施例中不做限定。
在通过步骤S11获取至少两路视频以后,可以通过步骤S12对至少两路视频中的对象进行跟踪检测。其中,对象可以是至少两路视频中包含的具有跟踪需求的任意对象,不局限于下述各公开实施例。在一种可能的实现方式中,由于视频是通过设备对目标场景进行采集所得到,因此对象可以是视频中采集到的出现在目标场景中的任意移动对象,比如出现在目标场景中的人、可行走的机器人或是具有移动功能的电子装置等。后续各公开实施例均以对象为视频中包含的,出现在目标场景中的人为例进行说明,对象为机器人或电子装置等其他情况,可以参考后续各公开实施例进行灵活扩展,在此不再赘述。
至少两路视频中包含的对象数量可以根据采集视频的实际情况所确定,在本公开实施例中不做限定。在一种可能的实现方式中,至少两路视频包含的对象数量可以均相同,即至少两路视频均分别采集到目标场景中出现的所有对象;在一种可能的实现方式中,至少两路视频包含的对象数量可以不同,在这种情况下,可以是由于某些路视频中存在遮挡导致视频中没有采集到目标场景中出现的所有对象,也可以是由于不同路视频是在不同的时间段采集所导致的出现在目标场景中的对象存在区别等。
应当理解,对至少两路视频中的对象进行跟踪检测的具体方式可以根据实际情况灵活决定,本公开对此不作限制。在一种可能的实现方式,可以将至少两路视频分别或同时输入到跟踪神经网络模型中,实现对视频中对象的跟踪检测等,其中,跟踪神经网络模型的实现形式在本公开实施例中不做限制,任何具有对视频中的对象进行跟踪检测功能的神经网络均可以作为跟踪神经网络模型的实现形式。其他的跟踪检测方式详见后续各公开实施例,在此先不做展开。
在对至少两路视频中的对象进行跟踪检测后,可以得到多个跟踪检测结果,这些跟踪检测结果可以是同样的对象分别在不同路视频中的跟踪检测结果,也可以是不同的对象在同路视频或不同路视频中的跟踪检测结果。具体包含哪些结果可以根据实际情况灵活决定,在本公开实施例中不做限制。
在得到多个跟踪检测结果后,可以通过步骤S13,根据跟踪检测结果来从至少两个设备分别采集的至少两路视频中识别出相同对象,作为目标对象。如上述公开实施例所述,跟踪检测结果中可能包含相同的对象分别在不同路视频中的跟踪检测结果,因此,在一种可能的实现方式中,可以将这些跟踪检测结果中的相同对象关联起来,即分别在多路视频中确定相同的对象来作为目标对象。由于不同路的视频可能是通过不同设备采集的视频,也可以是相同视频在不同时间段采集的视频,因此,通过在至少两路视频中识别出相同对象作为目标对象,既可以确定不同视角采集的目标对象的视频以及跟踪检测结果,又可以确定目标对象在不同时间段下的视频以及跟踪检测结果。
目标对象的数量在本公开实施例中不做限定,可以根据实际情况灵活确定。在一种可能的实现方式中,各路视频中可能均包含多个对象,对于某路视频包含的多个对象来说,可能其中部分或是全部可以在其他路视频中找到对应相同的对象,则这些在其他路视频中存在对应相同对象的对象,均可以作为目标对象。
在至少两路视频中识别出相同对象来作为目标对象的具体方式,可以详见下述各公开实施例,在此先不做展开。
在通过步骤S13确定目标对象以后,可以通过步骤S14,根据目标对象在至少两路视频中的跟踪检测结果,来确定目标对象的运动轨迹。如上述各公开实施例所述,识别出目标对象后,可以确定目标对象的多视角及多时段的视频和跟踪检测结果,因此,基于这些视频及跟踪检测结果,可以进一步确定目标对象的运动轨迹。具体的运动轨迹的确定方式同样可以参见后续各公开实施例,在此先不做展开。
在本公开实施例中,通过获取至少两个设备对目标场景进行采集所得到的至少两路视频,并对至少两路视频中的对象进行跟踪检测,得到至少一个对象在至少两路视频中的跟踪检测结果,从而根据跟踪检测结果,从至少两路视频中识别出相同的对象作为目标对象,继而基于目标对象在至少两路视频中的跟踪检测结果来确定目标对象的运动轨迹。通过上述过程,可以利用多个设备同时对目标对象进行跟踪,减少了在目标场景中无法检测到目标对象或是在目标对象跟踪的中途丢失目标对象的情况;同时,对不同设备中相同的对象识别为相同的目标对象,可以将多个设备中的相同对象进行关联,从而便于根据多个设备的跟踪检测结果来确定目标对象的运动轨迹,继而提升运动轨迹的精度,即提升目标对象的跟踪准确性。
步骤S11的实现方式可以详见上述各公开实施例,在此不再赘述。如上述各公开实施例所述,步骤S12中,对至少两路视频中的对象进行跟踪检测的方式可以根据实际情况灵活决定。在一种可能的实现方式中,可以通过跟踪神经网络模型实现对多路视频中对象的跟踪检测。在一种可能的实现方式中,也可以通过分别对不同路的视频进行相同或不同的跟踪检测或是与跟踪相关的检测,来实现对至少两路视频中对象的跟踪检测。因此,在一种可能的实现方式中,跟踪检测结果可以包括人体检测结果和/或人脸识别结果,步骤S12可以包括:
步骤S121,对至少两路视频中的至少部分进行人体检测,得到至少一个对象在至少部分视频中的人体检测结果。和/或,
步骤S122,对至少两路视频中的至少部分进行人脸识别,得到至少一个对象在至少部分视频中的人脸识别结果。
通过上述公开实施例可以看出,在一种可能的实现方式中,可以通过对至少两路视频进行人体检测和/或人脸检测的方式,来实现对至少两路视频中对象的跟踪检测。
其中,选择哪些路视频进行人体检测,选择的结果可以根据实际情况灵活决定。在一种可能的实现方式中,可以选择对每路视频均进行人体检测;在一种可能的实现方式中,也可以对在特定高度设备所采集的视频进行人体检测,比如某些部署在高处的设备,比如8米或9米以上的设备,由于其部署的位置较高,采集到的对象较为全面,因此可以对这些设备所采集的视频进行人体检测,来得到较为全面的人体检测结果等。后续各公开实施例均以对每路视频均进行人体检测为例进行说明,其余的实现方式可以参考后续各公开实施例进行相应扩展,不再一一赘述。
同理,选择哪些路视频进行人脸识别,选择的结果同样可以根据实际情况灵活决定。在一种可能的实现方式中,可以选择对每路视频均进行人脸识别;在一种可能的实现方式中,也可以对在特定高度设备所采集的视频进行人脸识别,比如某些部署在低处的设备,比如2米~5米以内或是5米以下的设备,由于其部署的位置较低,对人脸图像的采集更加清楚,因此可以对这些设备所采集的视频进行人脸识别,来得到较为精确的人脸识别结果等。后续各公开实施例均以对部署在较低位置的设备所采集的视频进行人脸识别为例进行说明,其余的实现方式可以参考后续各公开实施例进行相应扩展,不再一一赘述。
具体的人体检测方式在本公开实施例中不做限制,不局限于下述各公开实施例。在一种可能的实现方式中,可以通过对视频中每帧或部分视频帧进行人体关键点识别以及人体特征向量提取的方式,来实现视频中对象的人体检测。在一种可能的实现方式中,可以通过将具有人体检测需求的视频分别或同时输入到人体检测神经网络模型中,来实现人体检测。其中,人体检测神经网络模型的实现方式在本公开实施例中不做限定,任何具有人体检测功能即可以提取人体特征或是判断图像中存在人体的神经网络模型,均可以作为人体检测神经网络模型的实现形式。进一步地,人体检测神经网络模型可以分别对输入视频的每一帧进行人体检测,也可以对输入视频中的视频帧以一定间隔进行采样,并对采样帧进行人体检测等。
人脸识别方式在本公开实施例中同样不做限制,不局限于下述各公开实施例。在一种可能的实现方式中,可以通过对视频中每帧或部分视频帧进行人脸特征提取或人脸关键点识别等方式,来实现视频中对象的人脸识别。在一种可能的实现方式中,可以通过将具有人脸识别需求的视频分别或同时输入到人脸识别神经网络模型中,来实现人脸识别。其中,人脸识别神经网络模型的实现方式在本公开实施例中不做限定,任何具有人脸识别功能即可以提取人脸特征向量或是识别人脸关键点的神经网络模型,均可以作为人脸识别神经网络模型的实现形式。进一步地,人脸识别神经网络模型可以分别对输入视频的每一帧进行人脸识别,也可以对输入视频中的视频帧以一定间隔进行采样,并对采样帧进行人脸识别等。
在对至少两路视频中的至少部分进行人体检测和/或人脸识别以后,可以将至少一个对象在至少部分视频中的人体检测结果和/或人脸识别结果,来得到跟踪检测结果。如上述公开实施例所述,在一种可能的实现方式中,可以对每路视频中的对象均进行人体检测,对部署在较低位置的设备采集的视频进行人脸识别,因此,在这种情况下,部署在较低位置的设备采集的视频的跟踪检测结果可以同时包括人脸识别结果和人体检测结果,其余位置的设备采集的视频的跟踪检测结果可以仅包括人体检测结果。
在一种可能的实现方式中,本公开实施例提出的目标对象的跟踪方法,也可以包括:
获取一个设备对目标场景进行采集所得到的一路视频;对一路视频中的目标对象进行人体检测和/或人脸识别,得到目标对象在一路视频中的跟踪结果;基于目标对象在一路视频中的跟踪检测结果,确定目标对象的运动轨迹。
其中,设备的实现形式、设备对目标场景进行采集得到一路视频的方式、目标对象的实现形式、人体检测以及人脸识别的方式,以及基于跟踪检测结果确定运动轨迹的方式,均可以参考其余各公开实施例,在此不再赘述。通过上述过程可以看出,在一种可能的实现方式中,也可以利用单个设备对目标场景中的一个或多个目标对象进行视频采集,并利用人体检测与人脸识别等方式,实现单设备对目标对象的跟踪。
通过对至少两路视频中的至少部分进行人体检测和/或对至少两路视频中的至少部分进行人脸识别,从而将人体检测结果和/或人脸识别结果作为跟踪检测结果,可以根据目标场景中采集图像的设备的部署位置,灵活得到不同视频中不同形式的跟踪检测结果,从而便于后续在将不同设备采集的视频中的对象关联以后,得到更为准确和全面的目标对象的跟踪检测结果,且减少某些视频中跟踪检测计算的工作量,提升跟踪检测的效率,节省资源。
在通过上述任意方式得到多个跟踪检测结果以后,可以通过步骤S13,将不同视频中的相同对象进行关联来确定目标对象。步骤S13的实现方式可以根据实际情况灵活选择,在一种可能的实现方式中,步骤S13可以包括:
根据跟踪检测结果,分别确定至少两路视频中对象的运动信息,将至少两路视频中运动信息匹配的对象作为目标对象,其中,运动信息包括对象的运动时间和/或运动位置。
其中,视频中对象的运动信息可以是根据跟踪检测结果直接或间接确定的信息,比如运动时间可以是对象出现在目标场景中的时刻或时间段,运动位置可以是对象出现在目标场景中的实际位置等。具体如何确定运动信息的方式可以根据实际情况灵活决定,在一种可能的实现方式中,如上述公开各公开实施例所述,可以通过人体检测和/或人脸识别的方式来获取视频中对象的跟踪检测结果,则进一步地,可以根据检测到人体或是人脸的视频帧在视频中的位置或是视频帧的时间戳,来确定检测到人体或人脸所对应的对象出现在视频中的时间等;在一种可能的实现方式中,也可以根据视频帧中检测到人体或人脸的位置,以及视频帧中图像坐标系与实际的目标场景坐标系之间的对应关系,来确定检测到的人体或人脸在目标场景中的实际运动位置等。
在确定至少两路视频中对象的运动信息以后,可以将至少两路视频中运动信息匹配的对象作为目标对象。其中,运动信息匹配可以是某种运动信息某种匹配,即运动时间匹配或运动位置匹配,也可以是运动时间和运动位置同时匹配。其中,运动时间匹配可以是运动时间完全相同、运动时间接近(比如运动时间差在一定范围内)或是运动顺序相同等;运动位置匹配可以是运动位置的坐标完全一致,或是运动位置的坐标之间的差值在一定范围以内等。具体如何确定运动信息是否匹配从而确定目标对象的方式可以详见下述各公开实施例,在此先不做展开。
通过根据跟踪检测结果,分别确定至少两路视频中对象的运动信息,从而将至少两路视频中运动信息匹配的对象作为目标对象,通过上述方式,可以根据采集到的视频中对象出现的实际时间和/或位置等信息,来将多路视频中相同的对象进行关联作为目标对象,这种确定相同对象的方式既具有较高的可靠性,且计算量小,比较容易实现,从而在提升目标对象的跟踪精度的同时,降低目标对象的跟踪难度,提升目标对象的跟踪效率。
如上述公开实施例所述,可以根据跟踪检测结果,确定对象的运动时间,从而确定目标对象。具体如何根据运动时间来从多路视频中识别出相同的对象作为目标对象,其实现方式可以灵活决定,在一种可能的实现方式中,步骤S13可以包括:
步骤S1311,根据跟踪检测结果中的运动时间,分别确定至少两路视频中对象的运动顺序。
步骤S1312,根据至少两路视频中对象的运动顺序,将在至少两路视频中处于相同运动顺序的对象,作为目标对象。
其中,根据跟踪检测结果中的运动时间,分别确定至少两路视频中对象的运动顺序的方式可以根据实际情况灵活选择。下述各公开实施例以确定其中任意一路视频中对象的运动顺序为例进行说明,其余视频中对象的运动顺序的确定方式可以参考下述各公开实施例进行相应扩展,不再一一赘述。
在一种可能的实现方式中,在视频中包含多个对象的情况下,可以确定视频中首次检测到各对象的人脸或人体的视频帧,然后根据这些视频帧的时间戳或对应的时刻,或是根据这些视频帧在视频中的时间顺序,来确定视频帧的顺序,继而确定视频中对象的运动顺序。
在分别确定了多路视频中对象的运动顺序的情况下,可以将运动顺序相同的对象,认为是在多路视频中同时跟踪到的相同对象,即目标对象。
其中,运动顺序相同,可以是完全相同,也可以是相近,举例来说,在一种可能的实现方式中,各路视频中包含的对象数量可能相同,在这种情况下,不同路视频中检测到运动顺序完全相同的对象,可以认为是出于相同运动顺序的对象,即作为目标对象;在一种可能的实现方式中,由于遮挡或采集角度等原因,各路视频中包含的对象数量可能存在一定区别,比如某路视频中检测到的对象数量小于其他路视频中检测到的对象的数量,在这种情况下,如果按照运动顺序完全相同的方式,将该路视频中的对象与其他路视频中的对象进行匹配,则可能存在不一致或是匹配错误的情况,在这种情况下,可以确定视频中对象运动顺序的同时,记录运动顺序所匹配的运动时间,从而将运动时间相近,且运动顺序的比例在视频中相近的对象,看作为处于相同运动顺序的对象,从而确定目标对象。
在一种可能的实现方式中,由于各路视频可能仅包含一个对象,因此步骤S13也可以包括:
根据跟踪检测结果,分别确定至少两路视频中对象的运动时间;
根据至少两路视频中对象的运动时间,将在至少两路视频中运动时间匹配的对象,作为目标对象。
由于各路视频仅包含一个对象的情况下,无法再对各路视频中对象的运动顺序进行排序,因此,在这种情况下,可以通过上述公开实施例中提出的方式,基于对象首次出现的视频帧来确定对象的运动时刻作为运动时间,或是进一步根据包含对象的多个视频帧来确定对象的运动时间段作为运动时间,从而将不同路视频中运动时间相同或是相近(比如运动时间差在设定的某一阈值内)的对象确定为同一对象,即作为目标对象。
通过根据跟踪检测结果中的运动时间,分别确定至少两路视频中对象的运动顺序,从而根据至少两路视频中对象的运动顺序,将在至少两路视频中处于相同运动顺序的对象作为目标对象。通过上述过程,可以有效利用各路视频的跟踪检测结果所间接确定的对象的运动时间,来对各路视频中的对象进行排序,继而选择处于相同运动顺序的对象作为目标对象,在保障了识别出相同对象的准确性的同时,无需高精度的时刻对应,减小了识别出相同对象的难度,从而提升识别出相同对象的效率,继而提升了目标对象的跟踪精度和效率。
如上述公开实施例所述,也可以根据跟踪检测结果,确定对象的运动位置,从而确定目标对象。具体如何根据运动位置来从多路视频中识别出相同的对象作为目标对象,其实现方式可以灵活决定,在一种可能的实现方式中,步骤S13可以包括:
步骤S1321,获取至少两路视频在相同时刻下的多个视频帧;
步骤S1322,根据多个视频帧对应的跟踪检测结果,确定多个视频帧中对象的运动位置;
步骤S1323,将多个视频帧中运动位置匹配的对象作为目标对象。
其中,步骤S1321的实现方式在本公开实施例中不做限定。在一种可能的实现方式中,可以如上述各公开实施例所述,根据各路视频中视频帧在视频的顺序,或是视频帧对应的时间戳以及时刻等,来分别获取各路视频在相同时刻下的视频帧,作为获取到的多个视频帧。在一种可能的实现方式中,为了提高获取到的多个视频帧在时间上的同步精度,可以在各设备对目标场景进行图像采集之前,对各设备进行时间上的校准。
在获取到多个视频帧以后,可以根据多个视频帧对应的跟踪检测结果,来确定多个视频帧中对象的运动位置。如上述各公开实施例所述,跟踪检测结果可以包括对象的人体检测结果和/或人脸识别结果,人体检测结果可以反应对象或对象的某些关键点在视频帧中的位置,人脸识别结果也可以反应对象或对象的某些脸部关键点在视频帧中的位置,因此,可以进一步根据视频帧中图像与目标场景中空间之间的位置对应关系,来确定视频帧中检测到的对象在目标场景中的位置或位置坐标等,来作为多个视频帧中对象的运动位置。具体如何将跟踪检测结果转化为对象的运动位置,其实现方式可以详见后续各公开实施例,在此先不做展开。
在确定多个视频中对象的运动位置以后,可以将多个视频中运动位置匹配的对象,作为目标对象。其中,运动位置匹配,可以是运动位置完全相同,也可以是运动位置相近,比如在一种可能的实现方式中,可以将在多个视频帧中运动位置之间的差值在预设的位置差值范围以内的对象,看作为位置匹配的对象,即作为目标对象。预设的位置差值范围可以根据实际情况进行设定,在本公开实施例中不做限定。
通过获取至少两路视频在相同时刻下的多个视频帧,从而根据多个视频帧的跟踪检测结果,确定在多个视频帧中运动位置匹配的对象作为目标对象,通过上述过程,可以将相同时间出现在相同或相近位置的对象,关联为相同对象,从而确定多个视频帧中的目标对象,这种基于相同运动位置匹配相同对象的方式,对跟踪检测的精度要求较低,因此具有较高的定位精度,在提高目标对象的跟踪准确性的同时,降低了目标对象的跟踪难度。
如上述公开实施例所述,步骤S1322的实现方式可以根据实际情况灵活决定。在一种可能的实现方式中,步骤S1322可以包括:
根据多个视频帧对应的跟踪检测结果,获取多个视频帧中对象的平面位置信息,其中,平面位置信息包括对象在视频帧中的图像位置信息;
根据每个视频帧与目标场景之间的位置变换关系,将多个视频帧中对象的平面位置信息转换为目标场景中的空间位置信息,得到多个视频帧中对象的运动位置。
其中,平面位置信息可以是多个视频帧中检测到的对象在视频帧中的图像位置信息,比如可以是对象在视频帧中的二维位置信息。获取多个视频帧中对象的平面位置信的方式在本公开实施例中不做限定,在一种可能的实现方式中,可以根据对象的人体检测结果或人脸识别结果等,确定对象中各关键点在视频帧中的坐标,继而根据各关键点在视频帧中的坐标,确定对象的重心在视频帧中的坐标来作为对象的图像位置信息;在一种可能的实现方式中,也可以直接根据对象的人体检测结果或人脸识别结果等,将对象某一关键点在视频帧中的坐标,比如头部顶点等的坐标,直接作为对象的图像位置信息等。
视频帧与目标场景之间的位置变换关系,可以是视频帧中的图像坐标系,与实际目标场景的物理坐标系二者之间的坐标变换关系。确定视频帧与目标场景之间的位置变换关系的方式在本公开实施例中不做限定,在一种可能的实现方式中,可以在将设备部署在目标场景以后,通过对设备内外参数的标定,来确定图像坐标系与物理坐标系二者之间的对应关系,标定的方式可以灵活选择,在一个示例中,可以通过在目标场景中以预设的密度放置不同高度的标志物,利用直接线性变换法(DLT,Direct Linear Transformation)以及奇异值分解法(SVD)来确定设备的外参数,利用棋盘格标定等方法确定设备的内参数等方式,来确定视频帧的图像坐标系与目标场景的物理坐标系之间的对应关系。
基于各设备的标定结果,可以根据采集视频帧的设备来确定视频帧与目标场景之间的位置变换关系。在得到该位置变换关系以后,可以将多个视频帧中对象的平面位置信息转换为目标场景中的位置信息。在一种可能的实现方式中,转换得到的目标场景中的位置信息可以是空间位置信息,即除了包含对象在目标场景中的平面坐标以外,还包括对象在垂直高度上的坐标,从而确定对象在目标场景中的三维空间坐标。
通过根据多个视频帧对应的跟踪检测结果确定多个视频帧中对象的平面位置信息,并将多个视频帧中对象的平面位置信息,转换为目标场景中的空间位置信息,可以进一步提高得到的视频帧中目标对象运动位置在三维空间上的精度,既可以提升在不同视频中识别出相同对象的精度,又可以提升对目标对象的跟踪精度。
通过上述各公开实施例可以看出,在一种可能的实现方式中,可以将各视频中运动时间匹配或是运动位置匹配的对象看作为相同对象,从而确定目标对象。在一种可能的实现方式中,上述基于运动时间识别得到目标对象,以及基于运动位置识别得到目标对象的两种方式,可以结合起来,从而更加准确地识别出多个视频中的相同目标对象。在一种可能的实现方式中,在基于运动时间和/或运动位置识别出目标对象以外,还可以根据跟踪检测结果,确定一些其他与对象相关的参数,来辅助提高识别出目标对象的精度,具体选择哪些与对象相关的参数可以根据实际情况进行灵活选择。因此,在一种可能的实现方式中,步骤S13还可以包括:
根据跟踪检测结果,分别确定至少两路视频中对象的特征信息;
将至少两路视频中运动信息匹配且特征信息匹配的对象作为目标对象。
其中,特征信息可以是基于人体检测结果和/或人脸识别结果所确定的对象的特征值或特征向量等,具体是哪一类的特征值或特征向量,其实现形式可以根据实际情况灵活选择。举例来说,在一种可能的实现方式中,特征信息可以包含如下至少一种:基于人体检测结果确定的对象的姿态特征、基于人体姿态检测结果确定的对象身上衣着的颜色特征以及基于人脸识别结果确定的对象的人脸特征或是表情特征等。具体如何确定这些特征信息,可以根据跟踪检测结果的具体实现方式,以及特征信息的具体种类来灵活确定,在本公开实施例中不做限制。
在确定至少两路视频中对象的特征信息以后,可以将至少两路视频帧中运动信息匹配且特征信息匹配的对象作为目标对象,其中,确定运动信息是否匹配的方式可以参考上述各公开实施例,在此不再赘述,确定特征信息是否匹配的方式在本公开实施例中也不做限定,在一种可能的实现方式中,可以根据特征值或特征向量之间的相似度是否在预设相似度阈值范围内,来确定特征信息是否匹配。预设相似度阈值的值可以根据实际情况进行设定,在此不做限制。
通过根据跟踪检测结果,分别确定至少两路视频中对象的特征信息,继而将至少两路视频中运动信息匹配且特征信息匹配的对象作为目标对象,通过上述过程,可以在基于运动信息从至少两路视频中识别出相同对象的同时,将特征信息作为辅助,进一步提升从多路视频中识别出相同对象的精度,继而提升后续目标对象的跟踪精度。
如上述各公开实施例所述,在一种可能的实现方式中,可以将人体检测结果和/或人脸识别结果,作为对象的跟踪检测结果,继而根据跟踪检测结果来从多路视频中识别出相同对象。在一种可能的实现方式中,人体检测结果和人脸识别结果均可以用于确定对象的运动信息来用于目标对象的识别,比如运动位置等;在一种可能的实现方式中,还可以利用人脸识别结果,在识别目标对象的同时,确定目标对象的身份。因此,在一种可能的实现方式中,步骤S13可以包括:
步骤S1331,根据跟踪检测结果中的人脸识别结果,获取至少部分视频中对象的身份信息。
步骤S1332,根据跟踪检测结果中的人体检测结果,分别确定至少两路视频中对象的运动信息,将至少两路视频中运动信息匹配的对象作为目标对象,其中,运动信息包括对象的运动时间和/或运动位置。
步骤S1333,将目标对象在至少部分视频中的身份信息,作为每个视频中目标对象的身份信息。
其中,步骤S1331的实现方式可以根据实际情况灵活决定,在一种可能的实现方式中,可以通过将跟踪检测结果中的人脸识别结果与预设数据库中的人脸图像进行匹配的方式,来确定至少部分视频中对象的身份信息。具体的身份信息对应关系可以参考后续各公开实施例,在此先不做展开。具体确定哪些视频中对象的身份信息,可以根据哪些视频的跟踪检测结果包含人脸识别结果来灵活决定,如上述各公开实施例所述,在一种可能的实现方式中,可以对设置在较低位置处的设备所采集的视频进行人脸识别检测,从而得到人脸识别结果,因此在这种情况下,可以获取较低位置处的设备所采集的视频中对象的身份信息。
步骤S1332的实现方式可以参考上述各公开实施例,在此不再赘述。在通过步骤S1331确定对象的身份信息,以及根据步骤S1332将不同路视频中的对象关联起来,确定目标对象以后,可以通过步骤S1333,在每路视频中均得到目标对象的身份信息。
需要注意的是,在本公开实施例中,步骤S1331与步骤S1332的实现顺序不做限定,即在一种可能的实现方式中,可以先确定部分视频中对象的身份信息,再将不同路视频中的对象关联起来,然后根据部分视频中对象的身份信息,以及不同路视频中对象的关联关系,来确定其他视频中对象的身份信息;在一种可能的实现方式中,也可以先将不同路视频中的对象关联起来,确定目标对象,然后再根据这些目标对象在部分视频中所确定的身份信息,进一步在其他视频中将这些目标对象的身份信息进行标注。
通过根据跟踪检测结果,分别获取至少部分视频中对象的身份信息,并对各路视频中的相同对象进行关联确定目标对象,从而将目标对象在至少部分视频中的身份信息,作为每个视频中目标对象的身份信息。通过上述过程,可以在仅对部分视频进行身份信息获取的情况下,有效确定全部视频中各对象的身份,减小了跟踪检测过程中计算的工作量的同时,保障跟踪检测的精度,且可以同时得到目标对象的运动轨迹和身份。
如上述公开实施例所述,步骤S1331的实现方式可以灵活决定。在一种可能的实现方式中,步骤S1331可以包括以下任意一种:
在人脸识别结果与预设数据库中的人脸图像匹配的情况下,从预设数据库中获取身份信息;
在人脸识别结果与预设数据库中的人脸图像不匹配的情况下,将身份信息标记为陌生人;
在人脸识别结果包括未识别的情况下,将身份信息标记为未识别。
其中,预设数据库可以是预先存储的,包含人员身份信息与对应的人脸图像的数据库。其中,身份信息可以是表示人员身份的任意信息,比如人员姓名、人员工号或编号、人员身份证号或是人员ID等各类信息,具体包含哪些信息可以根据实际情况进行灵活选择。在人脸识别结果与预设数据库中的某一人脸图像或是某些人脸图像匹配的情况下,可以将匹配的人脸图像所对应的身份信息,作为视频中对象的身份信息。在人脸识别结果与预设数据库中的人脸图像不匹配的情况下,比如底库中不存在可以与视频中对象的人脸识别结果进行匹配的人脸图像,或是底库中人脸图像与视频中对象的人脸识别结果的匹配程度低于某一设定阈值,比如匹配程度低于50%等,则可以将视频中对象的身份信息标记或记录为陌生人。在人脸识别结果包括未识别的情况下,即可能由于视频中采集到的人脸图像不完整或是清晰度较低,导致无法进行人脸识别的情况下,则可以将视频中对象的身份信息标记或记录为未识别。
通过根据人脸识别结果与预设数据库中人脸图像的匹配情况,灵活确定视频中对象的身份信息,可以提升确定目标对象身份的灵活程度,在无法对目标对象进行识别或是目标对象暂时匹配不到身份的情况下,通过“未识别”或是“陌生人”等标记,也易于提醒系统发现视频中需要重点关注的对象,提升目标场景中跟踪的安全性。
在通过上述任意公开实施例,确定目标对象,以及得到各路视频中对象的跟踪检测结果以后,可以通过步骤S14,来根据目标对象在至少两路视频中的跟踪检测结果,确定目标对象的运动轨迹。
步骤S14的实现方式可以根据实际情况灵活决定,在一种可能的实现方式中,步骤S14可以包括:
将目标对象在所述至少两路视频中的跟踪检测结果进行加权平均,得到目标对象的运动轨迹。
其中,加权平均的具体方式在本公开实施例中不做限定。由于跟踪检测结果可以包括目标对象的人体检测结果和/或人脸识别结果,基于视频中各视频帧的人体检测结果和/或人脸识别结果,可以间接确定目标对象在目标场景中,在不同运动时间所出现的运动位置,因此,在一种可能的实现方式中,可以在各路视频中,按照运动时间的顺序,将目标对象出现的运动位置进行连接,从而得到各路视频中目标对象的运动轨迹,作为各路视频中目标对象的跟踪检测结果;进一步地,由于不同视频中目标对象的运动轨迹可能存在误差或偏差,因此,可以将各路视频中的运动轨迹,按照一定的权值进行加权融合,从而将各路视频中的运动轨迹融合为一条,得到目标对象的运动轨迹。
在一种可能的实现方式中,也可以在各路视频中确定目标对象在不同运动时间所出现的运动位置以后,先将各路视频中相同运动时间的目标对象的运动位置按照一定的权值进行加权平均,从而得到每个运动时间下目标对象经过加权平均后的运动位置,再按照运动时间的顺序,对这些加权平均后的运动位置进行连接,从而得到目标对象最终的运动轨迹。
上述公开实施例中,权值的具体值可以根据实际情况进行灵活设定,也可以将对象在进行跟踪检测过程中,得到的跟踪检测结果的置信度作为权值。举例来说,在一种可能的实现方式中,可能对各路视频中的对象均进行人体检测,得到人体检测结果,在一种可能的实现方式中,可能通过人体检测神经网络模型进行人体检测,该人体检测神经网络模型在输出人体检测结果的同时,还可能输出该人体检测结果的置信度,这一置信度可以直接或是转化到某一区间后,作为该路视频加权平均过程中的权值。
通过将目标对象在所述至少两路视频中的跟踪检测结果进行加权平均,得到目标对象的运动轨迹,可以有效将多路视频中的跟踪检测结果进行融合,减小由于某路视频或某些视频中跟踪检测结果不准确,对最终确定的运动轨迹所带来的影响,有效提升了目标对象的跟踪精度。
在一种可能的实现方式中,在确定目标对象的运动轨迹以后,还可以对跟踪过程中得到的一系列数据进行可视化展示。因此,在一种可能的实现方式中,本公开实施例提出的目标对象的跟踪方法,还可以包括:
获取与目标场景匹配的展示图像;
根据目标场景与展示图像的匹配关系,将目标对象的运动轨迹映射到展示图像中;
通过可视化界面,对可视化内容进行展示,其中,可视化内容包括如下至少一项:至少两路视频中的至少一个、展示图像以及展示图像中的运动轨迹。
其中,与目标场景匹配的展示图像,其实现方式可以根据实际情况灵活决定,不局限于下述各公开实施例。在一种可能的实现方式中,展示图像可以是将目标场景的地理位置进行抽象化的电子地图,该电子地图可以是二维地图,也可以是三维地图等,在本公开实施例中不做限定。在一种可能的实现方式中,展示图像也可以是将目标场景的信息进行三维模型化的图像,比如目标场景的二维或三维空间场景模型等。
在得到与目标场景匹配的展示图像以后,可以根据目标场景和展示图像之间的匹配关系,来将目标对象的运动轨迹映射到展示图像中,目标场景和展示图像之间的匹配关系,可以根据二者的匹配方式来灵活确定,比如可以根据电子地图和目标场景之间的比例尺来确定二者之间的匹配关系,或是三维空间场景模型的建模方式,来确定三维空间场景模型与目标场景之间的匹配关系等。由于目标对象在目标场景中的运动轨迹是确定的,因此,在得到匹配关系以后,自然可以得到目标对象在展示图像中的运动轨迹。
除此以外,通过上述公开实施例可以看出,还可以通过可视化界面,对可视化内容进行展示,其中,可视化界面可以是具有现实功能的任意界面,比如电脑屏幕、投影仪或是手机等移动设备的显示界面等。可视化内容可以包括至少两路视频中的至少一个,即通过多个设备采集到的多路视频,可以选择其中部分或是将其全部展示在可视化界面中,可视化内容还可以包括展示图像以及展示图像中的运动轨迹,即可以包括含有目标对象运动轨迹的电子地图或是三维空间模型等。具体对上述哪些内容进行可视化展示,可以根据可视化界面的大小进行灵活选择,在本公开实施例中不做限定。
通过获取与目标场景匹配的展示图像,并根据目标场景与展示图像的匹配关系,将目标对象的运动轨迹映射到展示图像中,从而通过可视化界面,对如视频、展示图像及其中的运动轨迹等可视化内容进行灵活展示。通过上述过程,可以更加直观地显示对目标对象的跟踪情况,提升对目标场景的观测力度,从而提升目标场景的安全性和观测目标场景的直观和便捷性。
在一种可能的实现方式中,展示图像可以包括预设围栏,将预设围栏映射到目标场景中的区域作为目标区域,目标区域的范围不大于目标场景的范围;
通过可视化界面,对可视化内容进行展示还可以包括:
在至少一个对象进入到目标区域的情况下,通过可视化界面,显示告警信息,其中,告警信息包括如下至少一项:目标区域中的对象数量、进入到目标区域的对象的身份信息、目标区域中对象的进入时间、目标区域中对象的停留时间以及目标区域中对象的运动距离。
其中,预设围栏可以是在展示图像中,人为设定或是系统中自动圈定的某一部分区域,由于展示图像与目标场景相互对应,因此,预设围栏在展示图像中圈定的区域,也可以映射到实际的目标场景中,在本公开实施例中,可以将预设围栏映射到目标场景中的区域记录为目标区域,由于预设围栏在展示图像的范围内,因此,目标区域的范围不大于目标场景的范围。
在一种可能的实现方式中,目标区域可以是目标场景中实际划分的某一部分区域,比如目标场景中可能存在某些区域通过围栏或是门等方式进行分隔,则这部分区域可以在展示图像中,通过预设围栏的形式与其余位置进行区分;在一种可能的实现方式中,目标区域也可以是目标场景中并未实际进行划分的区域,即在目标场景中,目标区域并未通过任何方式与其他位置进行区分,但在展示图像中,人为或通过系统设定展示图像中的一部分区域作为预设围栏。
在展示图像包括预设围栏的情况下,通过可视化界面展示可视化内容还可以包括:在至少一个对象进入到目标区域的情况下,可以通过可视化界面来显示告警信息,其中,可以根据上述各公开实施例中提出的方式确定各对象的运动轨迹,从而判断是否存在对象进入到目标区域。告警信息的内容可以根据实际情况灵活决定,比如上述公开实施例中提到的目标区域中对象的数量、通过上述各公开实施例中提出的方式所确定的目标区域中各对象的身份信息,以及根据各对象的运动轨迹可以确定的各对象在目标区域的进入时间、停留时间和运动距离等。告警信息的显示方式可以灵活决定,在一种可能的实现方式中,可以通过实时推送或是弹窗显示等方式,显示告警信息。
通过在显示图像中设置预设围栏,并对围栏中对象的情况进行告警信息的可视化显示,通过上述过程,可以进一步提升对目标场景中具有较高安全需求的区域的关注程度,从而进一步提升目标场景的安全性和观测的实时性。
在一种可能的实现方式中,通过可视化界面,对可视化内容进行展示,还可以包括:
根据跟踪检测结果,在可视化内容的视频中显示目标对象的人体框;和/或,在可视化内容的视频中显示至少一个目标对象的身份信息。
其中,人体框可以根据跟踪检测结果中,对目标对象的人体检测结果所确定,在一些可能的实现方式中,还可以根据目标对象的人脸识别结果可视化展示目标对象的人脸框等;显示的身份信息可以通过上述各公开实施例中提到的方式进行获取,身份信息的显示位置可以根据实际情况灵活决定,在一种可能的实现方式中,可以在人体框的上方标注目标对象的身份。
通过在可视化内容的视频中显示目标对象的人体框和/或身份信息,可以在直接采集到的目标场景的实际视频中,更加直观展示需要关注的目标对象的位置以及身份等,从而提升了对目标场景观测的全面性和安全程度。
图2示出根据本公开一实施例的目标对象的跟踪装置的框图。如图所示,所述目标对象的跟踪装置20可以包括:
视频获取模块21,用于获取至少两个设备对目标场景进行采集所得到的至少两路视频。
跟踪检测模块22,用于对至少两路视频中的对象进行跟踪检测,得到至少一个对象在至少两路视频中的跟踪检测结果。
目标对象确定模块23,用于根据跟踪检测结果,从至少两个设备分别采集的至少两路视频中识别出相同对象,作为目标对象。
运动轨迹确定模块24,用于基于目标对象在至少两路视频中的跟踪检测结果,确定目标对象的运动轨迹。
在一种可能的实现方式中,目标对象确定模块用于:根据跟踪检测结果,分别确定至少两路视频中对象的运动信息,将至少两路视频中运动信息匹配的对象作为目标对象,其中,运动信息包括对象的运动时间和/或运动位置。
在一种可能的实现方式中,运动信息包括对象的运动时间;目标对象确定模块进一步用于:根据跟踪检测结果中的运动时间,分别确定至少两路视频中对象的运动顺序;根据至少两路视频中对象的运动顺序,将在至少两路视频中处于相同运动顺序的对象,作为目标对象。
在一种可能的实现方式中,运动信息包括对象的运动位置;目标对象确定模块进一步用于:获取至少两路视频在相同时刻下的多个视频帧;根据多个视频帧对应的跟踪检测结果,确定多个视频帧中对象的运动位置;将多个视频帧中运动位置匹配的对象作为目标对象。
在一种可能的实现方式中,目标对象确定模块进一步用于:根据多个视频帧对应的跟踪检测结果,获取多个视频帧中对象的平面位置信息,其中,平面位置信息包括对象在视频帧中的图像位置信息;根据每个视频帧与目标场景之间的位置变换关系,将多个视频帧中对象的平面位置信息转换为目标场景中的空间位置信息,得到多个视频帧中对象的运动位置。
在一种可能的实现方式中,目标对象确定模块还用于:根据跟踪检测结果,分别确定至少两路视频中对象的特征信息;将至少两路视频中运动信息匹配且特征信息匹配的对象作为目标对象。
在一种可能的实现方式中,跟踪检测模块用于:对至少两路视频中的至少部分进行人体检测,得到至少一个对象在至少部分视频中的人体检测结果;和/或,对至少两路视频中的至少部分进行人脸识别,得到至少一个对象在至少部分视频中的人脸识别结果;跟踪检测结果包括人体检测结果和/或人脸识别结果。
在一种可能的实现方式中,目标对象确定模块用于:根据跟踪检测结果中的人脸识别结果,获取至少部分视频中对象的身份信息;根据跟踪检测结果中的人体检测结果,分别确定至少两路视频中对象的运动信息,将至少两路视频中运动信息匹配的对象作为目标对象,其中,运动信息包括对象的运动时间和/或运动位置;将目标对象在至少部分视频中的身份信息,作为每个视频中目标对象的身份信息。
在一种可能的实现方式中,根据跟踪检测结果中的人脸识别结果,获取至少部分视频中对象的身份信息,包括以下任意一种:在人脸识别结果与预设数据库中的人脸图像匹配的情况下,从预设数据库中获取身份信息;在人脸识别结果与预设数据库中的人脸图像不匹配的情况下,将身份信息标记为陌生人;在人脸识别结果包括未识别的情况下,将身份信息标记为未识别。
在一种可能的实现方式中,运动轨迹确定模块用于:将目标对象在至少两路视频中的跟踪检测结果进行加权平均,得到目标对象的运动轨迹。
在一种可能的实现方式中,装置还用于:获取与目标场景匹配的展示图像;根据目标场景与展示图像的匹配关系,将目标对象的运动轨迹映射到展示图像中;通过可视化界面,对可视化内容进行展示,其中,可视化内容包括如下至少一项:至少两路视频中的至少一个、展示图像以及展示图像中的运动轨迹。
在一种可能的实现方式中,展示图像包括预设围栏,将预设围栏映射到目标场景中的区域作为目标区域,目标区域的范围不大于目标场景的范围;装置进一步用于:在至少一个对象进入到目标区域的情况下,通过可视化界面,显示告警信息,其中,告警信息包括如下至少一项:目标区域中的对象数量、进入到目标区域的对象的身份信息、目标区域中对象的进入时间、目标区域中对象的停留时间以及目标区域中对象的运动距离。
在一种可能的实现方式中,装置还用于:根据跟踪检测结果,在可视化内容的视频中显示目标对象的人体框;和/或,在可视化内容的视频中显示至少一个目标对象的身份信息。
应用场景示例
对于一些目标密集或是遮挡较为严重的场景,如何对场景中的对象进行高精度的跟踪成为目前一个亟待解决的问题。
本公开应用示例提出了一种目标对象的跟踪方法,可以便捷准确地对目标场景中的对象进行跟踪,通过实验可以证明,本公开应用示例提出的目标对象的跟踪方法可以实现高精跟踪,定位误差可以小于0.5米。
图3示出根据本公开一应用示例的目标对象的跟踪方法示意图,通过图3可以看出,本公开应用示例中,目标对象的跟踪过程可以包括:
如图3所示,在本公开应用示例中,可以通过在目标场景部署多个摄像头的方式,实现对目标对象的跟踪,其中,摄像头的部署位置可以根据目标场景的实际情况灵活决定,在一种可能的实现方式中,可以在目标场景的不同高度以及不同位置处,设置如图所示的多个摄像头,从而尽可能减少目标场景中的监控死角。
在部署了多个摄像头以后,这些摄像头之间可以进行帧同步,来确保不同摄像头内记录时间的时钟是一致的。另外,还可以对多个摄像头进行内外参数的标定,用于虚拟坐标与物理坐标的换算。标定方法可以是在场地以一定密度放置不同高度的标志物,进行标定,通过DLT方法及SVD方法获得相机外参;并通过棋盘格标定的方法获得相机内参,用于图像去畸变,保证坐标恢复的准确性。
在完成上述标定过程以后,可以通过上述公开各实施例中的步骤S11进行视频获取,在本公开应用示例中,各摄像头可以分别对目标场景进行图像采集,来得到多路视频,从图中可以看出,由于不同摄像头部署位置不同,其采集到的人的图像也存在差异,比如摄像头A采集的视频中包含3个对象,摄像头B采集的视频中仅包含2个对象,摄像头F采集的视频中虽然包含3个对象,但这3个对象与摄像头A中的3个对象并不完全一致等。
在获取到多个摄像头采集的多路视频以后,可以通过上述各公开实施例中的步骤S12,对多路视频中的对象进行跟踪检测。从图中可以看出,对于某些低位摄像头采集的视频,比如摄像头A和F采集的视频,跟踪检测可以同时包含人体检测和人脸识别,其跟踪检测结果可以既包含人体检测结果,又包含人脸识别结果;对于某些高位摄像头采集的视频,比如摄像头B采集的视频,跟踪检测可以仅包含人体检测,跟踪检测结果仅包含人体检测结果。
在得到多路视频中各对象的跟踪检测结果以后,可以通过上述各公开实施例中的步骤S13,来从多路视频中识别出相同对象作为目标对象。从图中可以看出,在本公开应用示例中,识别的方式可以为:首先获取同一时刻多路摄像头的视频帧,例如10路摄像头在某一时刻分别采集得到的10路视频帧,然后根据这10路视频帧的跟踪检测结果,得到10路视频中包含的人体框坐标。针对每一个人体框在视频帧中的二维坐标,可以根据相机参数换算成目标场景中的三维空间坐标,则不同路视频帧中三维空间坐标相同或是误差在一定范围内的人体框,可以认为是同一人的人体框,则同一人的人体框对应的人可以作为目标对象,由于某些路视频中除了根据人体检测得到人体框以外,还可以通过人脸识别确定这些人体框的身份,因此,可以根据目标对象人体框在某些路视频中识别出的身份,确定每路视频中该目标对象的身份信息;另外,还可以在对各视频进行人体检测的过程中,获取各人衣着的颜色特征,除了判断不同路视频帧中人体框的位置是否匹配以外,还可以判断不同路视频帧中人体框内人的颜色特征是否匹配,来进一步减小目标对象确定过程中的误差。
在确定目标对象以后,可以通过步骤S14,根据目标对象在各路视频中的跟踪检测结果来确定目标对象的运动轨迹。在一种可能的实现方式中,可以将某一时刻下,不同路摄像头中确定的同一目标对象在目标场景中的三维空间坐标,通过加权平均的方式进行融合,得到某一时刻下该目标对象在目标场景中的三维空间坐标,然后通过上述方式统计多个时刻下目标对象的三维空间坐标,将这些三维空间坐标按照时间顺序进行连接,得到目标对象最终的运动轨迹。
在得到目标对象的运动轨迹以后,还可以对目标对象的跟踪过程所得到的一系列可视化内容进行可视化展示。图4示出根据本公开一应用示例的可视化展示示意图,在一个示例中,可以通过在可视化界面对车间内的对象跟踪情况进行可视化展示。如图所示,具体的展示方式可以包括:
如图4所示,左边是视频预览区域,视频图像可以来自部署在目标场景中的某一摄像头采集的图像,在本公开应用示例中,视频预览区域显示的可以是部署在9米高的摄像头的采集的视频,该摄像头采集的视频可以用于在主机上进行人体检测。同时,目标场景还可以部署安装在2.8米高的多个摄像头,这些摄像头采集的视频除了可以用于进行人体检测外,还可用于进行人脸识别,并将同一人的人脸识别结果与人体检测结果关联对应起来。在一个示例中,可以通过低位摄像机人脸识别的时间和高位摄像机识别到的人体时间来实现人体与人脸的关联对应,这种方式可以用于人员进入时间有差别的情况,比如人员依次进入目标场景的情况;在一个示例中,可以通过上述公开应用示例中提到的,对多台摄像头进行视频帧同步和坐标映射,从而将同时出现在多台摄像头中的同一人实现关联对应,作为目标对象。这样,可利用多台摄像头从不同高度、角度做图像采集得到的多路视频,解决在大场景、远距离以及有遮挡物的目标场景中,人员的精确定位和轨迹跟踪,同时通过人脸识别确定人员身份。
从图中还可以看出,右边可以展示地图轨迹与电子围栏(即上述各公开实施例中提出的预设围栏)。通过上述公开应用示例中提出的方法,可以实现目标对象在摄像头中的视频帧坐标到目标场景中的三维空间坐标的映射,继而还可以将目标场景中的三维空间坐标进一步映射到地图坐标的映射,在一个示例中,地图中的坐标也可以是三维空间的坐标信息,除平面坐标,还有垂直高度的坐标,从而可在3D地图中精确重建目标对象的定位与轨迹,使得目标对象的定位误差低于0.5米。通过高精定位,可准确判断目标对象进入或离开电子围栏,并通过人脸识别准确掌握目标对象的身份。电子围栏可按需灵活在后台设置,极大提高了敏感区域人员检测与身份识别的管理效果与效率。
进一步地,从图中可以看出,在顶部可以展示电子围栏实时人数统计与实时告警。管理者可实时掌握电子围栏中准确的人数以及人员身份。对于陌生人闯入,可看到实时的告警推送。在有目标对象进入到电子围栏的情况下,可以通过弹框提示进入电子围栏人员的提示信息,包括目标对象的姓名、进入时间、停留时间(从进入电子围栏到当前时间)、运动距离(从进入电子围栏到当前距离)以及目标对象的工号等。
除此之外,可视化界面显示的摄像头采集的视频画面中,人体框上方可以标注人员的身份信息,在本公开应用示例中,身份信息可以包括3种状态,比如:和事先存储的人脸库(即上述公开实施例中提到的预设数据库)匹配上的标识姓名等存储在库中的身份信息,没有底库或者匹配不上的标识陌生人,无法识别到人脸的为未识别。
在本公开应用示例中,出现在摄像头视频画面中的目标对象可以同时会出现在右侧的地图中,并显示和实际位置一一对应的地图上的运动轨迹位置,运动轨迹曲线可以随时间先后变化,比如与当前时间越近则轨迹越清晰点亮,与当前时间越远则颜色越浅,通过电子地图中的运动轨迹,可以清晰知道每个目标对象的轨迹路线,不同对象的轨迹颜色可以不同;摄像头实际标定的电子围栏区域,可以通过坐标映射到右侧地图上,地图标记的电子围栏区域可以通过白色框线范围进行显示。
通过视频与对应地图之间深度、无缝的整合,可以让管理者在地图上无死角、高效率地掌控人员的信息和轨迹情况,极大提高整体车间的管理效果与效率。
本公开应用示例中提出的目标对象的跟踪方法,除了可以应用于如图4所示的车间场景以外,还可以扩展应用于其他场景,比如球场、商场、教室、零售门店以及4S店等等。通过本公开应用示例提出的跟踪方法,可以在需要了解员工/客户的轨迹动线的情况下,便于掌握其行进路线,搜索这些对象去过的地方,极大提高了敏感区域人员检测与身份识别的管理效果与效率。同时在一些需要设置电子围栏的场景,可以通过高精轨迹定位,使跟踪与定位误差低于0.5米,从而准确判断人员进入或离开电子围栏,继而用于员工管理以及工资结算等应用中,降低人力成本。另外,本公开应用示例中的跟踪方法还可以进行告警分析,实时人数统计与实时告警。管理者可实时掌握电子围栏中准确的人数以及人员身份。对于陌生人闯入,可看到实时的告警推送。
可以理解,本公开提及的上述各个方法实施例,在不违背原理逻辑的情况下,均可以彼此相互结合形成结合后的实施例,限于篇幅,本公开不再赘述。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
本公开实施例还提出一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述方法。计算机可读存储介质可以是易失性计算机可读存储介质或非易失性计算机可读存储介质。
本公开实施例还提出一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为上述方法。
在实际应用中,上述存储器可以是易失性存储器(volatile memory),例如RAM;或者非易失性存储器(non-volatile memory),例如ROM,快闪存储器(flash memory),硬盘(Hard Disk Drive,HDD)或固态硬盘(Solid-State Drive,SSD);或者上述种类的存储器的组合,并向处理器提供指令和数据。
上述处理器可以为ASIC、DSP、DSPD、PLD、FPGA、CPU、控制器、微控制器、微处理器中的至少一种。可以理解地,对于不同的设备,用于实现上述处理器功能的电子器件还可以为其它,本公开实施例不作具体限定。
电子设备可以被提供为终端、服务器或其它形态的设备。
基于前述实施例相同的技术构思,本公开实施例还提供了一种计算机程序,该计算机程序被处理器执行时实现上述方法。
图5是根据本公开实施例的一种电子设备800的框图。例如,电子设备800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等终端。
参照图5,电子设备800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制电子设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在电子设备800的操作。这些数据的示例包括用于在电子设备800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为电子设备800的各种组件提供电力。电源组件806可以包括电源管理系统,一个或多个电源,及其他与为电子设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述电子设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当电子设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当电子设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为电子设备800提供各个方面的状态评估。例如,传感器组件814可以检测到电子设备800的打开/关闭状态,组件的相对定位,例如所述组件为电子设备800的显示器和小键盘,传感器组件814还可以检测电子设备800或电子设备800一个组件的位置改变,用户与电子设备800接触的存在或不存在,电子设备800方位或加速/减速和电子设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于电子设备800和其他设备之间有线或无线方式的通信。电子设备800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关人员信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器804,上述计算机程序指令可由电子设备800的处理器820执行以完成上述方法。
图6是根据本公开实施例的一种电子设备1900的框图。例如,电子设备1900可以被提供为一服务器。参照图6,电子设备1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
电子设备1900还可以包括一个电源组件1926被配置为执行电子设备1900的电源管理,一个有线或无线网络接口1950被配置为将电子设备1900连接到网络,和一个输入输出(I/O)接口1958。电子设备1900可以操作基于存储在存储器1932的操作系统,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由电子设备1900的处理组件1922执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态人员信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (16)
1.一种目标对象的跟踪方法,其特征在于,包括:
获取至少两个设备对目标场景进行采集所得到的至少两路视频;
对所述至少两路视频中的对象进行跟踪检测,得到至少一个对象在所述至少两路视频中的跟踪检测结果;
根据所述跟踪检测结果,从所述至少两个设备分别采集的至少两路视频中识别出相同对象,作为目标对象;
基于所述目标对象在所述至少两路视频中的跟踪检测结果,确定所述目标对象的运动轨迹。
2.根据权利要求1所述的方法,其特征在于,所述根据所述跟踪检测结果,从所述至少两路视频中识别出相同对象,作为目标对象,包括:
根据所述跟踪检测结果,分别确定所述至少两路视频中对象的运动信息,将所述至少两路视频中运动信息匹配的对象作为目标对象,其中,所述运动信息包括对象的运动时间和/或运动位置。
3.根据权利要求2所述的方法,其特征在于,所述运动信息包括对象的运动时间;
所述根据所述跟踪检测结果,分别确定所述至少两路视频中对象的运动信息,将所述至少两路视频中运动信息匹配的对象作为目标对象,包括:
根据所述跟踪检测结果中的运动时间,分别确定所述至少两路视频中对象的运动顺序;
根据所述至少两路视频中对象的运动顺序,将在所述至少两路视频中处于相同运动顺序的对象,作为目标对象。
4.根据权利要求2或3所述的方法,其特征在于,所述运动信息包括对象的运动位置;
所述根据所述跟踪检测结果,分别确定所述至少两路视频中对象的运动信息,将所述至少两路视频中运动信息匹配的对象作为目标对象,包括:
获取所述至少两路视频在相同时刻下的多个视频帧;
根据所述多个视频帧对应的跟踪检测结果,确定所述多个视频帧中对象的运动位置;
将所述多个视频帧中运动位置匹配的对象作为目标对象。
5.根据权利要求4所述的方法,其特征在于,所述根据所述多个视频帧对应的跟踪检测结果,确定所述多个视频帧中对象的运动位置,包括:
根据所述多个视频帧对应的跟踪检测结果,获取所述多个视频帧中对象的平面位置信息,其中,所述平面位置信息包括所述对象在所述视频帧中的图像位置信息;
根据每个视频帧与所述目标场景之间的位置变换关系,将所述多个视频帧中对象的平面位置信息转换为所述目标场景中的空间位置信息,得到所述多个视频帧中对象的运动位置。
6.根据权利要求2至5中任意一项所述的方法,其特征在于,所述根据所述跟踪检测结果,从所述至少两路视频中识别出相同对象,作为目标对象,还包括:
根据所述跟踪检测结果,分别确定所述至少两路视频中对象的特征信息;
将所述至少两路视频中运动信息匹配且特征信息匹配的对象作为目标对象。
7.根据权利要求1至6中任意一项所述的方法,其特征在于,所述对所述至少两路视频中的对象进行跟踪检测,得到至少一个对象在所述至少两路视频中的跟踪检测结果,包括:
对所述至少两路视频中的至少部分进行人体检测,得到至少一个对象在至少部分视频中的人体检测结果;和/或,
对所述至少两路视频中的至少部分进行人脸识别,得到至少一个对象在至少部分视频中的人脸识别结果;
所述跟踪检测结果包括所述人体检测结果和/或所述人脸识别结果。
8.根据权利要求7所述的方法,其特征在于,所述根据所述跟踪检测结果,从所述至少两路视频中识别出相同对象,作为目标对象,包括:
根据所述跟踪检测结果中的人脸识别结果,获取至少部分视频中对象的身份信息;
根据所述跟踪检测结果中的人体检测结果,分别确定所述至少两路视频中对象的运动信息,将所述至少两路视频中运动信息匹配的对象作为目标对象,其中,运动信息包括对象的运动时间和/或运动位置;
将所述目标对象在至少部分视频中的身份信息,作为每个所述视频中所述目标对象的身份信息。
9.根据权利要求8所述的方法,其特征在于,所述根据所述跟踪检测结果中的人脸识别结果,获取至少部分视频中对象的身份信息,包括以下任意一种:
在所述人脸识别结果与预设数据库中的人脸图像匹配的情况下,从所述预设数据库中获取所述身份信息;
在所述人脸识别结果与预设数据库中的人脸图像不匹配的情况下,将所述身份信息标记为陌生人;
在所述人脸识别结果包括未识别的情况下,将所述身份信息标记为未识别。
10.根据权利要求1至9中任意一项所述的方法,其特征在于,所述将所述目标对象在所述至少两路视频中的跟踪检测结果进行融合,得到所述目标对象的运动轨迹,包括:
将所述目标对象在所述至少两路视频中的跟踪检测结果进行加权平均,得到所述目标对象的运动轨迹。
11.根据权利要求1至10中任意一项所述的方法,其特征在于,所述方法还包括:
获取与目标场景匹配的展示图像;
根据所述目标场景与所述展示图像的匹配关系,将所述目标对象的运动轨迹映射到所述展示图像中;
通过可视化界面,对可视化内容进行展示,其中,所述可视化内容包括如下至少一项:
所述至少两路视频中的至少一个、所述展示图像以及所述展示图像中的运动轨迹。
12.根据权利要求11所述的方法,其特征在于,所述展示图像包括预设围栏,将所述预设围栏映射到所述目标场景中的区域作为目标区域,所述目标区域的范围不大于所述目标场景的范围;
所述通过可视化界面,对可视化内容进行展示还包括:
在至少一个对象进入到所述目标区域的情况下,通过所述可视化界面,显示告警信息,其中,所述告警信息包括如下至少一项:所述目标区域中的对象数量、进入到所述目标区域的对象的身份信息、所述目标区域中对象的进入时间、所述目标区域中对象的停留时间以及所述目标区域中对象的运动距离。
13.根据权利要求11或12所述的方法,其特征在于,所述通过可视化界面,对可视化内容进行展示,还包括:
根据所述跟踪检测结果,在所述可视化内容的视频中显示所述目标对象的人体框;和/或,
在所述可视化内容的视频中显示至少一个所述目标对象的身份信息。
14.一种目标对象的跟踪装置,其特征在于,包括:
视频获取模块,用于获取至少两个设备对目标场景进行采集所得到的至少两路视频;
跟踪检测模块,用于对所述至少两路视频中的对象进行跟踪检测,得到至少一个对象在所述至少两路视频中的跟踪检测结果;
目标对象确定模块,用于根据所述跟踪检测结果,从所述至少两个设备分别采集的至少两路视频中识别出相同对象,作为目标对象;
运动轨迹确定模块,用于基于所述目标对象在所述至少两路视频中的跟踪检测结果,确定所述目标对象的运动轨迹。
15.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为调用所述存储器存储的指令,以执行权利要求1至13中任意一项所述的方法。
16.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至13中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010623204.6A CN111815675B (zh) | 2020-06-30 | 2020-06-30 | 目标对象的跟踪方法及装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010623204.6A CN111815675B (zh) | 2020-06-30 | 2020-06-30 | 目标对象的跟踪方法及装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111815675A true CN111815675A (zh) | 2020-10-23 |
CN111815675B CN111815675B (zh) | 2023-07-21 |
Family
ID=72855936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010623204.6A Active CN111815675B (zh) | 2020-06-30 | 2020-06-30 | 目标对象的跟踪方法及装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111815675B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112287877A (zh) * | 2020-11-18 | 2021-01-29 | 上海泗科智能科技有限公司 | 一种多角色特写镜头追踪方法 |
CN112597886A (zh) * | 2020-12-22 | 2021-04-02 | 成都商汤科技有限公司 | 乘车逃票检测方法及装置、电子设备和存储介质 |
CN112633282A (zh) * | 2021-01-07 | 2021-04-09 | 清华大学深圳国际研究生院 | 一种车辆实时跟踪方法及计算机可读存储介质 |
CN113034458A (zh) * | 2021-03-18 | 2021-06-25 | 广州市索图智能电子有限公司 | 室内人员轨迹分析方法、装置及存储介质 |
CN113128414A (zh) * | 2021-04-22 | 2021-07-16 | 北京房江湖科技有限公司 | 人员跟踪方法、装置、计算机可读存储介质及电子设备 |
CN113177440A (zh) * | 2021-04-09 | 2021-07-27 | 深圳市商汤科技有限公司 | 图像同步方法、装置、电子设备和计算机存储介质 |
CN114205565A (zh) * | 2022-02-15 | 2022-03-18 | 云丁网络技术(北京)有限公司 | 一种监控视频分发方法和系统 |
CN114241355A (zh) * | 2021-11-19 | 2022-03-25 | 上海浦东发展银行股份有限公司 | 仓库管理方法、装置、计算机设备、存储介质 |
CN114550362A (zh) * | 2022-02-14 | 2022-05-27 | 北京声迅电子股份有限公司 | 一种通行控制方法及装置 |
CN114860786A (zh) * | 2022-03-16 | 2022-08-05 | 北京旷视科技有限公司 | 轨迹显示方法、电子设备、存储介质和程序产品 |
US11457247B1 (en) | 2021-05-21 | 2022-09-27 | Sensetime International Pte. Ltd. | Edge computing method and apparatus, edge device and storage medium |
WO2022243736A1 (en) * | 2021-05-21 | 2022-11-24 | Sensetime International Pte. Ltd. | Edge computing method and apparatus, edge device and storage medium |
CN115841650A (zh) * | 2022-12-05 | 2023-03-24 | 北京数原数字化城市研究中心 | 视觉定位方法、视觉定位装置、电子设备及可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101854516A (zh) * | 2009-04-02 | 2010-10-06 | 北京中星微电子有限公司 | 视频监控系统、视频监控服务器及视频监控方法 |
US20170300759A1 (en) * | 2016-03-03 | 2017-10-19 | Brigham Young University | Automated multiple target detection and tracking system |
CN110418114A (zh) * | 2019-08-20 | 2019-11-05 | 京东方科技集团股份有限公司 | 一种对象跟踪方法、装置、电子设备及存储介质 |
CN110830756A (zh) * | 2018-08-07 | 2020-02-21 | 华为技术有限公司 | 一种监控方法与装置 |
CN111145213A (zh) * | 2019-12-10 | 2020-05-12 | 中国银联股份有限公司 | 一种目标跟踪方法、装置、系统及计算机可读存储介质 |
-
2020
- 2020-06-30 CN CN202010623204.6A patent/CN111815675B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101854516A (zh) * | 2009-04-02 | 2010-10-06 | 北京中星微电子有限公司 | 视频监控系统、视频监控服务器及视频监控方法 |
US20170300759A1 (en) * | 2016-03-03 | 2017-10-19 | Brigham Young University | Automated multiple target detection and tracking system |
CN110830756A (zh) * | 2018-08-07 | 2020-02-21 | 华为技术有限公司 | 一种监控方法与装置 |
CN110418114A (zh) * | 2019-08-20 | 2019-11-05 | 京东方科技集团股份有限公司 | 一种对象跟踪方法、装置、电子设备及存储介质 |
CN111145213A (zh) * | 2019-12-10 | 2020-05-12 | 中国银联股份有限公司 | 一种目标跟踪方法、装置、系统及计算机可读存储介质 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112287877A (zh) * | 2020-11-18 | 2021-01-29 | 上海泗科智能科技有限公司 | 一种多角色特写镜头追踪方法 |
CN112287877B (zh) * | 2020-11-18 | 2022-12-02 | 苏州爱可尔智能科技有限公司 | 一种多角色特写镜头追踪方法 |
CN112597886A (zh) * | 2020-12-22 | 2021-04-02 | 成都商汤科技有限公司 | 乘车逃票检测方法及装置、电子设备和存储介质 |
CN112633282A (zh) * | 2021-01-07 | 2021-04-09 | 清华大学深圳国际研究生院 | 一种车辆实时跟踪方法及计算机可读存储介质 |
CN112633282B (zh) * | 2021-01-07 | 2023-06-20 | 清华大学深圳国际研究生院 | 一种车辆实时跟踪方法及计算机可读存储介质 |
CN113034458A (zh) * | 2021-03-18 | 2021-06-25 | 广州市索图智能电子有限公司 | 室内人员轨迹分析方法、装置及存储介质 |
CN113177440A (zh) * | 2021-04-09 | 2021-07-27 | 深圳市商汤科技有限公司 | 图像同步方法、装置、电子设备和计算机存储介质 |
CN113128414A (zh) * | 2021-04-22 | 2021-07-16 | 北京房江湖科技有限公司 | 人员跟踪方法、装置、计算机可读存储介质及电子设备 |
WO2022243736A1 (en) * | 2021-05-21 | 2022-11-24 | Sensetime International Pte. Ltd. | Edge computing method and apparatus, edge device and storage medium |
US11457247B1 (en) | 2021-05-21 | 2022-09-27 | Sensetime International Pte. Ltd. | Edge computing method and apparatus, edge device and storage medium |
CN114241355A (zh) * | 2021-11-19 | 2022-03-25 | 上海浦东发展银行股份有限公司 | 仓库管理方法、装置、计算机设备、存储介质 |
CN114550362A (zh) * | 2022-02-14 | 2022-05-27 | 北京声迅电子股份有限公司 | 一种通行控制方法及装置 |
CN114205565B (zh) * | 2022-02-15 | 2022-07-29 | 云丁网络技术(北京)有限公司 | 一种监控视频分发方法和系统 |
CN114205565A (zh) * | 2022-02-15 | 2022-03-18 | 云丁网络技术(北京)有限公司 | 一种监控视频分发方法和系统 |
CN114860786A (zh) * | 2022-03-16 | 2022-08-05 | 北京旷视科技有限公司 | 轨迹显示方法、电子设备、存储介质和程序产品 |
CN115841650A (zh) * | 2022-12-05 | 2023-03-24 | 北京数原数字化城市研究中心 | 视觉定位方法、视觉定位装置、电子设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111815675B (zh) | 2023-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111815675B (zh) | 目标对象的跟踪方法及装置、电子设备和存储介质 | |
CN111983635B (zh) | 位姿确定方法及装置、电子设备和存储介质 | |
CN107957266B (zh) | 定位方法、装置及存储介质 | |
US11176687B2 (en) | Method and apparatus for detecting moving target, and electronic equipment | |
US11288531B2 (en) | Image processing method and apparatus, electronic device, and storage medium | |
US20170364755A1 (en) | Systems and Methods for Tracking Movements of a Target | |
US20120027305A1 (en) | Apparatus to provide guide for augmented reality object recognition and method thereof | |
CN110335291A (zh) | 人物追踪方法及终端 | |
CN110837512A (zh) | 访客信息管理方法及装置、电子设备和存储介质 | |
CN110969115A (zh) | 行人事件的检测方法及装置、电子设备和存储介质 | |
CN112149659B (zh) | 定位方法及装置、电子设备和存储介质 | |
CN112991553A (zh) | 信息展示方法及装置、电子设备和存储介质 | |
CN111860373B (zh) | 目标检测方法及装置、电子设备和存储介质 | |
CN115407355B (zh) | 库位地图的验证方法、装置及终端设备 | |
CN112184787A (zh) | 图像配准方法及装置、电子设备和存储介质 | |
CN110909203A (zh) | 视频分析方法及装置、电子设备和存储介质 | |
CN107704851B (zh) | 人物识别方法、公共传媒展示装置、服务器和系统 | |
CN112633184A (zh) | 告警方法及装置、电子设备和存储介质 | |
CN114581525A (zh) | 姿态确定方法及装置、电子设备和存储介质 | |
CN113822216A (zh) | 事件检测方法及装置、系统、电子设备和存储介质 | |
WO2023155350A1 (zh) | 一种人群定位方法及装置、电子设备和存储介质 | |
WO2022237071A1 (zh) | 定位方法及装置、电子设备、存储介质和计算机程序 | |
WO2022110801A1 (zh) | 数据处理方法及装置、电子设备和存储介质 | |
CN114387622A (zh) | 动物重识别方法及装置、电子设备和存储介质 | |
CN114862756A (zh) | 对象测距方法及装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |