CN111277745A - 目标人员的追踪方法、装置、电子设备及可读存储介质 - Google Patents
目标人员的追踪方法、装置、电子设备及可读存储介质 Download PDFInfo
- Publication number
- CN111277745A CN111277745A CN201811474943.2A CN201811474943A CN111277745A CN 111277745 A CN111277745 A CN 111277745A CN 201811474943 A CN201811474943 A CN 201811474943A CN 111277745 A CN111277745 A CN 111277745A
- Authority
- CN
- China
- Prior art keywords
- target person
- tracking
- person
- acquisition
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000001514 detection method Methods 0.000 claims description 32
- 238000013136 deep learning model Methods 0.000 claims description 9
- 238000007499 fusion processing Methods 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 abstract description 25
- 230000004044 response Effects 0.000 abstract description 7
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 4
- 230000002349 favourable effect Effects 0.000 description 4
- 239000002245 particle Substances 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000005034 decoration Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000700 radioactive tracer Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000004800 variational method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本申请提供了一种目标人员的追踪方法、装置、电子设备及可读存储介质。该方法包括:获取多个采集装置采集的视频画面;根据获取的人员追踪请求,确定人员追踪请求对应的目标人员所在的视频画面对应的相关采集装置;基于相关采集装置采集的相关视频画面,控制相关采集装置调整采集角度,以持续采集包含目标人员的视频画面。采用这种追踪方法,就可以通过相关采集装置采集的相关视频画面对目标人员进行实时的追踪,有利于事前的及时预警以及事后的高效取证,提高监控的灵活性、明确性和响应速度,同时避免人工监控给监控管理人员造成的压力,保障了监控工作的可靠性。
Description
技术领域
本申请涉及社区安防技术领域,具体而言,本申请涉及一种目标人员的追踪方法、装置、电子设备及可读存储介质。
背景技术
随着人们生活质量和文化水平的不断提高,社区的安全防范问题越来越受到人们的重视。社区安防工作不仅关系到人们的生命、财产的安全,甚至关系到社会的和谐、稳定。因此,越来越多的安防技术应运而生,这些技术将使人们的社区与家居环境更为舒适和安全,给人们的生活带来更多的便捷。
其中,监控措施以其直观、及时和信息丰富等特性,理所当然地成为社区安防工作的重要组成部分。然而,现有的社区监控措施中,主要依靠监控管理人员纯视觉的人工监控,会给监控管理人员造成非常大的压力,他们需要同时关注多个监控视频,但仍免不了产生识别精确度差、报警响应的时间长、误报或漏报现象多以及监控对象踪迹不明等情况。且针对大量内容丰富的监控视频,选择合适的视频数据进行后续的分析也比较困难,给社区的安防工作带来一定的安全隐患。
发明内容
为克服上述技术问题或者至少部分地解决上述技术问题,特提出以下技术方案:
第一方面,本申请提供了一种目标人员的追踪方法,该方法包括:
获取多个采集装置采集的视频画面;
根据获取的人员追踪请求,确定人员追踪请求对应的目标人员所在的视频画面对应的相关采集装置;
基于所述相关采集装置采集的相关视频画面,控制所述相关采集装置调整采集角度,以持续采集包含所述目标人员的视频画面。
在一种可选的实现方式中,所述根据获取的人员追踪请求,确定人员追踪请求对应的目标人员所在的视频画面对应的相关采集装置,包括:
根据所述人员追踪请求,对各个视频画面执行圈选操作;
确定所述圈选操作得到的圈选区域,并将位于所述圈选区域内的人员确定为所述目标人员;
根据所述圈选区域所在的视频画面,确定对应的相关采集装置。
在一种可选的实现方式中,根据获取的人员追踪请求,对各个视频画面执行圈选操作;
对各个视频画面中的人员进行人脸检测和/或人形检测;
将检测结果与所述人员追踪请求进行匹配,根据匹配结果对各个视频画面执行圈选操作。
在一种可选的实现方式中,对各个视频画面执行圈选操作,包括:
通过预训练的深度学习模型对各个视频画面执行圈选操作。
在一种可选的实现方式中,所述控制所述相关采集装置调整采集角度之后,还包括:
将多个相关采集装置采集的相关视频画面进行融合处理。
在一种可选的实现方式中,所述人员追踪请求包括管理人员确定的目标人员图像。
在一种可选的实现方式中,该方法还包括:当确定出所述目标人员离开所述相关采集装置的采集范围时,重新执行如第一方面所示的方法。
第二方面,本申请提供了一种目标人员的追踪装置,该装置包括:
获取模块,用于获取多个采集装置采集的视频画面;
确定模块,用于根据获取的人员追踪请求,确定人员追踪请求对应的目标人员所在的视频画面对应的相关采集装置;
追踪模块,用于基于所述相关采集装置采集的相关视频画面,控制所述相关采集装置调整采集角度,以持续采集包含所述目标人员的视频画面。
在一种可选的实现方式中,所述确定模块具体用于根据所述人员追踪请求,对各个视频画面执行圈选操作;确定所述圈选操作得到的圈选区域,并将位于所述圈选区域内的人员确定为所述目标人员;根据所述圈选区域所在的视频画面,确定对应的相关采集装置。
在一种可选的实现方式中,所述确定模块具体用于对各个视频画面中的人员进行人脸检测和/或人形检测;将检测结果与所述人员追踪请求进行匹配,根据匹配结果对各个视频画面执行圈选操作。
在一种可选的实现方式中,所述确定模块具体用于通过预训练的深度学习模型对各个视频画面执行圈选操作。
在一种可选的实现方式中,所述追踪模块还用于将多个相关采集装置采集的相关视频画面进行融合处理。
在一种可选的实现方式中,所述人员追踪请求包括管理人员确定的目标人员图像。
在一种可选的实现方式中,当确定出所述目标人员离开所述相关采集装置的采集范围时,获取模块重新用于获取多个采集装置采集的视频画面;确定模块重新用于根据获取的人员追踪请求,确定人员追踪请求对应的目标人员所在的视频画面对应的相关采集装置;追踪模块重新用于基于所述相关采集装置采集的相关视频画面,控制所述相关采集装置调整采集角度,以持续采集包含所述目标人员的视频画面。
第三方面,本申请提供了一种电子设备,该电子设备包括:
处理器和存储器,存储器存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现如本申请的第一方面或第一方面的任一可选的实现方式中所示的追踪方法。
第四方面,本申请提供了一种计算机可读存储介质,计算机存储介质用于存储计算机指令、程序、代码集或指令集,当其在计算机上运行时,使得计算机执行如本申请的第一方面或第一方面的任一可选的实现方式中所示的追踪方法。
本申请提供的目标人员的追踪方法、装置、电子设备及可读存储介质,通过获取多个采集装置采集的视频画面;根据获取的人员追踪请求,确定人员追踪请求对应的目标人员所在的视频画面对应的相关采集装置;基于相关采集装置采集的相关视频画面,控制相关采集装置调整采集角度,以持续采集包含目标人员的视频画面,就可以通过相关采集装置采集的相关视频画面对目标人员进行实时的追踪,有利于事前的及时预警以及事后的高效取证,提高监控的灵活性、明确性和响应速度,同时避免人工监控给监控管理人员造成的压力,保障了监控工作的可靠性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对本申请实施例描述中所需要使用的附图做简单的介绍。
图1为本申请实施例提供的一种目标人员的追踪方法的流程示意图;
图2a为本申请实施例提供的一种圈选区域的示例图;
图2b为本申请实施例提供的另一种圈选区域的示例图;
图3为本申请实施例提供的一种目标人员的追踪装置的结构示意图;
图4为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本申请,而不能解释为对本申请的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
本申请实施例提供了一种目标人员的追踪方法,如图1所示,该方法包括:
步骤S101:获取多个采集装置采集的视频画面;
其中,采集装置可以为摄像头、摄像机等。一些特殊的场景下,采集装置还可以为无人机等。
对于本申请实施例,执行主体可以为终端设备或云端服务器。
其中,若执行主体为终端设备,获取视频画面可以是实时地从多个采集装置接收采集的视频画面,也可以是从本地读取已存储的多个采集装置采集的视频画面,也可是从云端服务器请求已存储的多个采集装置采集的视频画面。若执行主体为云端服务器,获取视频画面可以是实时地从多个采集装置接收采集的视频画面,也可以是从本地读取已存储的多个采集装置采集的视频画面。
实际应用中,获取的视频画面可以为多个采集装置分别采集的特定时间的视频画面,例如当前时刻或者当前时刻的前一个或多个时刻的视频画面。或者,获取的视频画面也可以是预定时长的视频按照每一帧拆分开来的多个视频画面。本申请实施例在此不对获取的视频画面的数量及时间进行限定,本领域技术人员可以根据实际情况进行合理的设置。
步骤S102:根据获取的人员追踪请求,确定人员追踪请求对应的目标人员所在的视频画面对应的相关采集装置;
其中,若执行主体为终端设备,人员追踪请求可以根据管理人员使用终端设备的输入装置输入的信息生成。若执行主体为云端服务器,人员追踪请求可以根据管理人员从云端服务器的操作台输入的信息生成。或者,无论执行主体为终端设备还是云端服务器,该人员追踪请求也可以是从其他设备接收的。该人员追踪请求携带目标人员的信息,可以用于确定对应的目标人员以进行追踪。
该步骤中,根据获取的人员追踪请求,在步骤S101获取的视频画面中查找,以找到包含目标人员的视频画面,即可确定出目标人员所在的视频画面。然后,可以对采集和存储记录中查找这些视频画面分别是由哪几个采集装置采集的,即可确定对应的相关采集装置。可以理解,相关采集装置为步骤S101中的多个采集装置中已拍摄到目标人员的部分或全部采集装置。或者,已拍摄到目标人员的采集装置附近的采集装置也可以作为相关采集装置,随着目标人员的移动可以控制这些附近的采集装置对目标人员进行采集。
步骤S103:基于相关采集装置采集的相关视频画面,控制相关采集装置调整采集角度,以持续采集包含目标人员的视频画面。
实际应用中,该步骤可以在步骤S102之后进行多次执行,即相关采集装置的采集角度可以进行多次调整,以持续采集包含目标人员的视频画面。而每次当前时刻的采集角度的调整,是根据相关采集装置前一时刻采集的相关视频画面判断得出的。
作为示例地,通过Mean Shift(均值漂移算法)迭代求解相关视频画面中与目标人物最相似的位置,基于该位置在迭代中的移动来控制相关采集装置调整采集角度,而相关采集装置会在控制下始终追踪目标人物。
作为示例地,将目标人物的移动模型表达为高斯模型,通过Kalman(卡尔曼滤波器)来对目标人物的移动状态进行预测,进而根据移动状态控制相关采集装置调整采集角度以持续采集包含目标人员的视频画面。或者,也可以通过粒子滤波器将当前的跟踪结果重采样粒子的分布,然后根据粒子的分布对粒子进行扩散,再通过扩散的结果来重新观察目标人物的状态,最后归一化更新目标人物的状态,进而根据更新后的目标人物的状态控制相关采集装置调整采集角度以持续采集包含目标人员的视频画面。
作为示例地,将要跟踪的目标人员建模为关于曲线能量的泛函。通过变分法或形状导数法等推到出描述轮廓曲线进化的偏微分方程,通过求解偏微分得到泛函的极值,从而获得目标人员的更新轮廓,进而根据更新轮廓控制相关采集装置调整采集角度以持续采集包含目标人员的视频画面。
对于本申请实施例,相关采集装置可以为多个,那么该步骤中,基于各个相关采集装置分别采集的相关视频画面,分别控制该各个相关采集装置调整采集角度,以分别持续采集包含目标人员的视频画面。
本申请实施例提供的目标人员的追踪方法,通过获取多个采集装置采集的视频画面;根据获取的人员追踪请求,确定人员追踪请求对应的目标人员所在的视频画面对应的相关采集装置;基于相关采集装置采集的相关视频画面,控制相关采集装置调整采集角度,以持续采集包含目标人员的视频画面,就可以通过相关采集装置采集的相关视频画面对目标人员进行实时的追踪,有利于事前的及时预警以及事后的高效取证,提高监控的灵活性、明确性和响应速度,同时避免人工监控给监控管理人员造成的压力,保障了监控工作的可靠性。
本申请实施例中,为步骤S102提供了一种可行的实现方式,具体而言,包括步骤S1021(图中未示出)、步骤S1022(图中未示出)和步骤S1023(图中未示出),其中,
步骤S1021:根据人员追踪请求,对各个视频画面执行圈选操作;
具体地,先对各个视频画面中的人员进行人脸检测和/或人形检测;
其中,各个视频画面是指步骤S101中获取的各个视频画面。
本申请实施例中,针对每个视频画面,对人员进行人脸检测和/或人形检测,先要对视频画面中的人员进行边缘检测,提取由闭合的外边缘轮廓包围的区域,以将视频画面划分为多个区域,得到对应的边缘图像。例如采用Sobel、Roberts或Canny等边缘检测算子。
进一步地,对边缘图像的重点区域进行特征的提取,得到对应的特征图像。即基于特征图像对视频画面中的每个人员进行识别,进而确定每个人员的信息,得到视频画面的检测结果。
随后,再将检测结果与人员追踪请求进行匹配,根据匹配结果对各个视频画面执行圈选操作。
根据检测结果对应的视频画面中每个人员的识别信息,与人员追踪请求对应的目标人员的信息进行匹配,若有一致的匹配结果,则可确定该视频画面中包含目标人员,并在该视频画面中对该目标人员进行圈选。
其中,在该视频画面中对该目标人员进行圈选即在该视频画面中突出显示能够覆盖该目标人员的圈选区域。例如,在圈选区域的边缘标注上显示框。实际应用中,圈选区域可以为任何能够覆盖该目标人员的形状,例如矩形,椭圆形等,也可以为目标人员的轮廓形状。
实际应用中,圈选区域还可以结合相应的边缘图像进行确定。
本申请实施例中,检测结果可以是基于人脸检测得到的,那么如图2a所示,该圈选区域(对应图2a中的虚线框)可设置为至少需覆盖目标人员的头像。或者,检测结果可以是基于人形检测得到的,那么如图2b所示,该圈选区域(对应图2b中的虚线框)可设置为需覆盖整个目标人员。或者,为了实现更高的识别精度,检测结果可以是共同基于人脸检测和基于人形检测得到的,例如为两种检测结果分配相应的权重等,那么继续如图2b所示,该圈选区域(对应图2b中的虚线框)可设置为需覆盖整个目标人员。
可以理解,需要针对步骤S101中获取的每个视频画面均执行上述圈选过程,以确定目标人员所出现的所有视频画面。
本申请实施例中,可以通过预训练的深度学习模型对各个视频画面执行圈选操作。
一种可能的实现方式中,该深度学习模型是基于包含圈选结果的训练样本直接训练得到的,将各个视频画面输入及人员追踪请求该深度学习模型,即可得到各个视频画面的圈选结果。
另一种可能的实现方式中,深度学习模型可以由多个深度学习子模型组成,例如可以通过预训练的深度学习子模型一对各个视频画面中的人员进行人脸检测和/或人形检测,以及通过预训练的深度学习子模型二将检测结果与人员追踪请求进行匹配,根据匹配结果对各个视频画面执行圈选操作。
本领域技术人员可以根据实际情况设置合适的深度学习模型,本申请实施例在此不作限定。
步骤S1022:确定圈选操作得到的圈选区域,并将位于圈选区域内的人员确定为目标人员;
由上述介绍可知,在视频画面中对目标人员进行圈选可得到相应的圈选区域。本申请实施例中,会基于该圈选区域进行分析,根据该圈选区域,就可确定位于圈选区域内的人员即为目标人员,以及根据该圈选区域执行步骤S1023。
步骤S1023:根据圈选区域所在的视频画面,确定对应的相关采集装置。
由于根据步骤S1022可以得到步骤S101获取的视频画面中所有包含圈选区域的视频画面,可以对采集和存储记录中查找这些视频画面分别是由哪几个采集装置采集的,即可确定对应的相关采集装置。
这样,便可实时地控制这些相关采集装置对目标人员进行追踪。
本申请实施例中,追踪过程中采集的视频画面也可以执行圈选操作,以提高后续对视频进行取证和分析的效率。具体的圈选方式可参见上述描述,在此不再赘述。
另外,本申请实施例中,步骤S103之后,还可以将多个相关采集装置采集的相关视频画面进行融合处理。
具体而言,由于多个相关采集装置会从不同的角度对目标人员进行追踪,可以将不同角度采集的相关视频画面进行融合处理。
一种可能的实现方式中,将各个相关视频画面按照预设规则融合成图像墙。例如按照目标人员的运动轨迹,或者按照时间顺序等。
另一种可能的实现方式中,将同一时刻的不同角度的相关视频画面,融合成三维空间的图像。
这样便可更加清晰、直观地将追踪结果展示给相关管理人员查看。可选地,融合处理后的图像中可携带相应的圈选结果,进一步提升追踪结果的直观性。
本申请实施例中,为步骤S102中的人员追踪请求提供了一种可能的实现方式,具体而言,人员追踪请求包括管理人员确定的目标人员图像。
那么,根据目标人员图像,确定目标人员所在的视频画面对应的相关采集装置,即根据目标人员图像中提取的特征,在各个视频画面中提取的特征中进行检索,当检索到一致的特征时,即可确定相应的视频画面包含目标人员。当检索完步骤S101获取的全部视频画面后,就可确定出目标人员所在的所有视频画面,进而可以确定对应的相关采集装置。
同理地,步骤S1021中,根据目标人员图像,对各个视频画面执行圈选操作,也需要对目标人员图像进行人脸检测和/或人形检测,得到目标人员的边缘图像。进一步地,对边缘图像的重点区域进行特征的提取,得到目标人员的特征图像。将目标人员的特征图像与步骤S1021中提取的全部特征图像依次进行匹配,若有一致的匹配结果,则可确定该视频画面中包含目标人员,并在该视频画面中对该目标人员进行圈选。
其他实施例中,人员检索请求还可以包括管理人员在任一视频画面中触发的点击操作对应的目标人员等,本领域技术人员可以根据实际情况进行设置。
本申请实施例中,考虑到视频数据的数据量过大,为提升执行效率,还为步骤S101和步骤S102提供了另一种可能的实现方式,具体而言,在步骤S101中获取到多个采集装置采集的视频画面后,建立能够映射各个视频画面中人员信息、视频画面与采集装置相互关系的索引。随后在步骤S102中,根据人员追踪请求,基于该索引查找目标人员所在的视频画面对应的相关采集装置,通过提升视频画面检索和采集装置检索的效率,进而提升实时追踪的效率。
本申请实施例中,在实时追踪的过程中,若当确定出目标人员离开相关采集装置的采集范围时,例如所有相关采集装置已无法采集到包含目标人员的视频画面,则可以重新执行步骤S101至步骤S103,重新对目标人员进行查找并追踪,以保障追踪的连续有效。
实际应用中,可以在接收到管理人员的停止指令后停止追踪。或者,也可以在配置的所有采集装置均无法采集到包含目标人员的视频画面时停止追踪。或者,也可以在确定出目标人员在预定范围内滞留的时间超过阈值时停止追踪。本领域技术人员可以根据实际情况进行合理的设置,本申请实施例在此不做限定。
本申请实施例提供的目标人员的追踪方法,可以基于采集的视频实现对目标人员的实时追踪,有利于事前的及时预警以及事后的高效取证,提高监控的灵活性、明确性和响应速度,同时避免人工监控给监控管理人员造成的压力,保障了监控工作的可靠性。
本领域技术人员应能理解,本申请实施例还除了应用于社区安防等场景,还可以进行适当变化以迁移到类似场景,例如道路、商场、学校等,也就是说,基于该范例进行的适当变化以用于其他场景时,也可以属于本申请的精神或范畴。
本申请实施例还提供了一种目标人员的追踪装置,如图3所示,该追踪装置30可以包括:获取模块301、确定模块302和追踪模块303,其中,
获取模块301用于获取多个采集装置采集的视频画面;
确定模块302用于根据获取的人员追踪请求,确定人员追踪请求对应的目标人员所在的视频画面对应的相关采集装置;
追踪模块303用于基于相关采集装置采集的相关视频画面,控制相关采集装置调整采集角度,以持续采集包含目标人员的视频画面。
在一种可选的实现方式中,确定模块302具体用于根据人员追踪请求,对各个视频画面执行圈选操作;确定圈选操作得到的圈选区域,并将位于圈选区域内的人员确定为目标人员;根据圈选区域所在的视频画面,确定对应的相关采集装置。
在一种可选的实现方式中,确定模块302具体用于对各个视频画面中的人员进行人脸检测和/或人形检测;将检测结果与人员追踪请求进行匹配,根据匹配结果对各个视频画面执行圈选操作。
在一种可选的实现方式中,确定模块302具体用于通过预训练的深度学习模型对各个视频画面执行圈选操作。
在一种可选的实现方式中,追踪模块303还用于将多个相关采集装置采集的相关视频画面进行融合处理。
在一种可选的实现方式中,人员追踪请求包括管理人员确定的目标人员图像。
在一种可选的实现方式中,当确定出目标人员离开相关采集装置的采集范围时,获取模块301重新用于获取多个采集装置采集的视频画面;确定模块302重新用于根据获取的人员追踪请求,确定人员追踪请求对应的目标人员所在的视频画面对应的相关采集装置;追踪模块303重新用于基于相关采集装置采集的相关视频画面,控制相关采集装置调整采集角度,以持续采集包含目标人员的视频画面。
本申请实施例提供的目标人员的追踪装置,可以基于采集的视频实现对目标人员的实时追踪,有利于事前的及时预警以及事后的高效取证,提高监控的灵活性、明确性和响应速度,同时避免人工监控给监控管理人员造成的压力,保障了监控工作的可靠性。
所属领域的技术人员可以清楚地了解到,本申请实施例提供的目标人员的追踪装置,其实现原理及产生的技术效果和前述方法实施例相同,为描述的方便和简洁,装置实施例部分未提及之处,可参考前述方法实施例中相应内容,在此不再赘述。
本申请实施例还提供了一种电子设备(例如上述终端设备或云端服务器),如图4所示,图4所示的电子设40包括:处理器401和存储器402,存储器402存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器401加载并执行以实现前述方法实施例中相应内容。
可选地,电子设备40还可以包括收发器403。处理器401和收发器403相连,如通过总线404相连。需要说明的是,实际应用中收发器403不限于一个,该电子设备40的结构并不构成对本申请实施例的限定。
其中,处理器401可以是CPU,通用处理器,DSP,ASIC,FPGA或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器401也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等。
总线404可包括一通路,在上述组件之间传送信息。总线404可以是PCI总线或EISA总线等。总线404可以分为地址总线、数据总线、控制总线等。为便于表示,图4中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器402可以是ROM或可存储静态信息和指令的其他类型的静态存储设备,RAM或者可存储信息和指令的其他类型的动态存储设备,也可以是EEPROM、CD-ROM或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。
本申请实施例提供的电子设备,可以基于采集的视频实现对目标人员的实时追踪,有利于事前的及时预警以及事后的高效取证,提高监控的灵活性、明确性和响应速度,同时避免人工监控给监控管理人员造成的压力,保障了监控工作的可靠性。
本申请实施例还提供了一种计算机可读存储介质,该计算机存储介质用于存储计算机指令,当其在计算机上运行时,使得计算机可以执行前述方法实施例中相应内容。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上所述仅是本申请的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (10)
1.一种目标人员的追踪方法,其特征在于,包括:
获取多个采集装置采集的视频画面;
根据获取的人员追踪请求,确定人员追踪请求对应的目标人员所在的视频画面对应的相关采集装置;
基于所述相关采集装置采集的相关视频画面,控制所述相关采集装置调整采集角度,以持续采集包含所述目标人员的视频画面。
2.根据权利要求1所述的追踪方法,其特征在于,所述根据获取的人员追踪请求,确定人员追踪请求对应的目标人员所在的视频画面对应的相关采集装置,包括:
根据所述人员追踪请求,对各个视频画面执行圈选操作;
确定所述圈选操作得到的圈选区域,并将位于所述圈选区域内的人员确定为所述目标人员;
根据所述圈选区域所在的视频画面,确定对应的相关采集装置。
3.根据权利要求2所述的追踪方法,其特征在于,根据获取的人员追踪请求,对各个视频画面执行圈选操作;
对各个视频画面中的人员进行人脸检测和/或人形检测;
将检测结果与所述人员追踪请求进行匹配,根据匹配结果对各个视频画面执行圈选操作。
4.根据权利要求2所述的追踪方法,其特征在于,对各个视频画面执行圈选操作,包括:
通过预训练的深度学习模型对各个视频画面执行圈选操作。
5.根据权利要求1-4任一项所述的追踪方法,其特征在于,所述控制所述相关采集装置调整采集角度之后,还包括:
将多个相关采集装置采集的相关视频画面进行融合处理。
6.根据权利要求1-4任一项所述的追踪方法,其特征在于,所述人员追踪请求包括管理人员确定的目标人员图像。
7.根据权利要求1所述的追踪方法,其特征在于,还包括:
当确定出所述目标人员离开所述相关采集装置的采集范围时,重新执行如权利要求1所述的方法。
8.一种目标人员的追踪装置,其特征在于,包括:
获取模块,用于获取多个采集装置采集的视频画面;
确定模块,用于根据获取的人员追踪请求,确定人员追踪请求对应的目标人员所在的视频画面对应的相关采集装置;
追踪模块,用于基于所述相关采集装置采集的相关视频画面,控制所述相关采集装置调整采集角度,以持续采集包含所述目标人员的视频画面。
9.一种电子设备,其特征在于,包括:
处理器和存储器,所述存储器存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1-7任一项所述的追踪方法。
10.一种计算机可读存储介质,其特征在于,所述计算机存储介质用于存储计算机指令、程序、代码集或指令集,当其在计算机上运行时,使得计算机执行如权利要求1-7任一项所述的追踪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811474943.2A CN111277745B (zh) | 2018-12-04 | 2018-12-04 | 目标人员的追踪方法、装置、电子设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811474943.2A CN111277745B (zh) | 2018-12-04 | 2018-12-04 | 目标人员的追踪方法、装置、电子设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111277745A true CN111277745A (zh) | 2020-06-12 |
CN111277745B CN111277745B (zh) | 2023-12-05 |
Family
ID=71001390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811474943.2A Active CN111277745B (zh) | 2018-12-04 | 2018-12-04 | 目标人员的追踪方法、装置、电子设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111277745B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022227761A1 (zh) * | 2021-04-28 | 2022-11-03 | 上海商汤智能科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007267294A (ja) * | 2006-03-30 | 2007-10-11 | Hitachi Ltd | 複数カメラを用いた移動物体監視装置 |
CN103824045A (zh) * | 2012-11-16 | 2014-05-28 | 中兴通讯股份有限公司 | 一种人脸识别跟踪方法及系统 |
CN104662560A (zh) * | 2012-11-26 | 2015-05-27 | 华为技术有限公司 | 一种视频图像处理方法及系统 |
KR20150131917A (ko) * | 2014-05-14 | 2015-11-25 | 삼성전자주식회사 | 영상표시장치, 영상표시방법 및 컴퓨터 판독가능 기록매체 |
CN106600548A (zh) * | 2016-10-20 | 2017-04-26 | 广州视源电子科技股份有限公司 | 鱼眼摄像头图像处理方法和系统 |
CN107590439A (zh) * | 2017-08-18 | 2018-01-16 | 湖南文理学院 | 基于监控视频的目标人物识别追踪方法和装置 |
CN107615758A (zh) * | 2015-05-26 | 2018-01-19 | 松下知识产权经营株式会社 | 跟踪辅助装置、跟踪辅助系统以及跟踪辅助方法 |
CN108806146A (zh) * | 2018-06-06 | 2018-11-13 | 合肥嘉仕诚能源科技有限公司 | 一种安防监控动态目标锁定追踪方法及系统 |
CN108876820A (zh) * | 2018-06-11 | 2018-11-23 | 广东工业大学 | 一种基于均值漂移的遮挡条件下移动目标追踪方法 |
CN108921001A (zh) * | 2018-04-18 | 2018-11-30 | 特斯联(北京)科技有限公司 | 一种采用人工智能预测追踪的视频监视云台及其追踪方法 |
-
2018
- 2018-12-04 CN CN201811474943.2A patent/CN111277745B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007267294A (ja) * | 2006-03-30 | 2007-10-11 | Hitachi Ltd | 複数カメラを用いた移動物体監視装置 |
CN103824045A (zh) * | 2012-11-16 | 2014-05-28 | 中兴通讯股份有限公司 | 一种人脸识别跟踪方法及系统 |
CN104662560A (zh) * | 2012-11-26 | 2015-05-27 | 华为技术有限公司 | 一种视频图像处理方法及系统 |
KR20150131917A (ko) * | 2014-05-14 | 2015-11-25 | 삼성전자주식회사 | 영상표시장치, 영상표시방법 및 컴퓨터 판독가능 기록매체 |
CN107615758A (zh) * | 2015-05-26 | 2018-01-19 | 松下知识产权经营株式会社 | 跟踪辅助装置、跟踪辅助系统以及跟踪辅助方法 |
CN106600548A (zh) * | 2016-10-20 | 2017-04-26 | 广州视源电子科技股份有限公司 | 鱼眼摄像头图像处理方法和系统 |
CN107590439A (zh) * | 2017-08-18 | 2018-01-16 | 湖南文理学院 | 基于监控视频的目标人物识别追踪方法和装置 |
CN108921001A (zh) * | 2018-04-18 | 2018-11-30 | 特斯联(北京)科技有限公司 | 一种采用人工智能预测追踪的视频监视云台及其追踪方法 |
CN108806146A (zh) * | 2018-06-06 | 2018-11-13 | 合肥嘉仕诚能源科技有限公司 | 一种安防监控动态目标锁定追踪方法及系统 |
CN108876820A (zh) * | 2018-06-11 | 2018-11-23 | 广东工业大学 | 一种基于均值漂移的遮挡条件下移动目标追踪方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022227761A1 (zh) * | 2021-04-28 | 2022-11-03 | 上海商汤智能科技有限公司 | 目标跟踪方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111277745B (zh) | 2023-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109886130B (zh) | 目标对象的确定方法、装置、存储介质和处理器 | |
CN107093171B (zh) | 一种图像处理方法及装置、系统 | |
CN104715471B (zh) | 目标定位跟踪方法及其装置 | |
US20220092881A1 (en) | Method and apparatus for behavior analysis, electronic apparatus, storage medium, and computer program | |
US20130243343A1 (en) | Method and device for people group detection | |
CN110751022A (zh) | 基于图像识别的城市宠物活动轨迹监测方法及相关设备 | |
CN110852183B (zh) | 一种未佩戴安全帽人员识别方法、系统、装置和存储介质 | |
CN101848377B (zh) | 一种基于云计算及海量视频检索的多视频录入装置智能联动的装置和方法 | |
US10795928B2 (en) | Image search apparatus, system, and method | |
CN106295598A (zh) | 一种跨摄像头目标跟踪方法及装置 | |
KR101788225B1 (ko) | 건설현장 맞춤형 이미지 분석기술을 활용한 중장비/근로자 인식 및 추적 방법 및 시스템 | |
CN104378582A (zh) | 一种基于ptz摄像机巡航的智能视频分析系统及方法 | |
CN110136091B (zh) | 图像处理方法及相关产品 | |
KR101645959B1 (ko) | 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치 및 그 방법 | |
CN110659391A (zh) | 一种视频侦查方法及装置 | |
CN108288017A (zh) | 获取对象密度的方法及装置 | |
CN115862113A (zh) | 陌生人异常识别方法、装置、设备及存储介质 | |
KR101826669B1 (ko) | 동영상 검색 시스템 및 그 방법 | |
KR101648786B1 (ko) | 객체 인식 방법 | |
CN111753601A (zh) | 一种图像处理的方法、装置以及存储介质 | |
Sandifort et al. | An entropy model for loiterer retrieval across multiple surveillance cameras | |
CN111277789A (zh) | 基于视频的社区安防方法、装置、电子设备及存储介质 | |
CN111277745A (zh) | 目标人员的追踪方法、装置、电子设备及可读存储介质 | |
CN111274435A (zh) | 视频的回溯方法、装置、电子设备及可读存储介质 | |
Thakur et al. | Autonomous pedestrian detection for crowd surveillance using deep learning framework |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |