CN108234927B - 视频追踪方法和系统 - Google Patents

视频追踪方法和系统 Download PDF

Info

Publication number
CN108234927B
CN108234927B CN201611187174.9A CN201611187174A CN108234927B CN 108234927 B CN108234927 B CN 108234927B CN 201611187174 A CN201611187174 A CN 201611187174A CN 108234927 B CN108234927 B CN 108234927B
Authority
CN
China
Prior art keywords
video
tracking target
video tracking
image
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201611187174.9A
Other languages
English (en)
Other versions
CN108234927A (zh
Inventor
张磊
陈紫杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201611187174.9A priority Critical patent/CN108234927B/zh
Publication of CN108234927A publication Critical patent/CN108234927A/zh
Application granted granted Critical
Publication of CN108234927B publication Critical patent/CN108234927B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)

Abstract

本公开涉及了一种视频追踪方法和系统,所述方法包括:在视频监控的图像画面中获得视频追踪目标;通过预先构建的建筑信息模型为所述视频监控中所述图像画面所在监控区域获取连续监控区域图像画面;根据所述视频追踪目标的特征信息从连续监控区域图像画面中获得所述视频追踪目标的连续监控区域图像画面;通过所述视频监控的图像画面和所述视频追踪目标的连续监控区域图像画面进行所述视频追踪目标的显示。由此,视频追踪目标通过一图像画面和连续监控区域图像画面的显示,实现了此视频追踪目标的连续追踪,不再需要依赖于人工实现,进而解决了效率低下的问题。

Description

视频追踪方法和系统
技术领域
本公开涉及互联网应用技术领域,尤其涉及一种视频追踪方法和系统。
背景技术
随着技术的发展,无论是室内还是室外,均布设了大量的摄像头,以便于随时通过摄像头的图像画面而实现相应监控区域的视频追踪。具体而言,布设的大量摄像头形成了视频监控系统,通过视频监控系统中的监控屏幕,即可获得摄像头的图像画面,进而实现相应监控区域的视频追踪。
然而,在此视频追踪过程中,常常由于视频追踪目标移出而造成视频追踪目标的丢失。此时,不得不调取其它所有摄像头的图像画面,在这些图像画面中通过人工搜索而在其它图像画面中重新获得视频追踪目标,进而不断在人工的作用下实现视频追踪目标的连续追踪。
由此可知,现有视频追踪中视频追踪目标的连续追踪依赖于人工实现,存在着效率低下的局限性。
发明内容
基于此,本公开的一个目的在于提供一种视频追踪方法,用于解决现有技术中视频追踪目标的连续追踪依赖于人工实现而效率低下的技术问题。
此外,本公开的另一个目的在于提供一种视频追踪系统,用于解决现有技术中视频追踪目标的连续追踪依赖于人工实现而效率低下的技术问题。
为了解决上述技术问题,本公开所采用的技术方案为:
一种视频追踪方法,所述方法包括:
在视频监控的图像画面中获得视频追踪目标;
通过预先构建的建筑信息模型为所述视频监控中所述图像画面所在监控区域获取连续监控区域图像画面;
根据所述视频追踪目标的特征信息从连续监控区域图像画面中获得所述视频追踪目标的连续监控区域图像画面;
通过所述视频监控的图像画面和所述视频追踪目标的连续监控区域图像画面进行所述视频追踪目标的显示。
一种视频追踪系统,所述系统包括:
目标获得模块,用于在视频监控的图像画面中获得视频追踪目标;
连续画面获取模块,用于通过预先构建的建筑信息模型为所述视频监控中所述图像画面所在监控区域获取连续监控区域图像画面;
画面选取模块,用于根据所述视频追踪目标的特征信息从连续监控区域图像画面中获得所述视频追踪目标的连续监控区域图像画面;
显示模块,用于通过所述视频监控的图像画面和所述视频追踪目标的连续监控区域图像画面进行所述视频追踪目标的显示。
与现有技术相比,本公开具有以下有益效果:
视频监控中,由视频监控的图像画面获得视频追踪目标,通过预先构建的建筑信息模型为视频监控中图像画面所在监控区域获取连续监控区域图像画面,根据视频追踪目标的特征信息从连续监控区域图像画面中获得视频追踪目标的连续监控区域图像画面,通过视频监控的图像画面和视频追踪目标的连续监控区域图像画面进行视频追踪目标的显示,由此,视频追踪目标通过一图像画面和连续监控区域图像画面的显示,实现了此视频追踪目标的连续追踪,不再需要依赖于人工实现,进而解决了效率低下的问题。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并于说明书一起用于解释本公开的原理。
图1为本公开所涉及的一种视频追踪方法的实施环境;
图2是根据一示例性实施例示出的一种装置的框图;
图3是根据一示例性实施例示出的一种视频追踪方法的流程图;
图4是根据图3对应实施例示出的对在视频监控的图像画面中获得视频追踪目标步骤的细节进行描述的流程图;
图5是根据图3对应实施例示出的对通过预先构建的建筑信息模型为视频监控中图像画面所在监控区域获取连续监控区域图像画面步骤的细节进行描述的流程图;
图6是根据图5对应实施例示出的对根据周边摄像机获取连续监控区域图像画面步骤的细节进行描述的流程图;
图7是另一示例性实施例示出的一种视频追踪方法的流程图;
图8是根据一示例性实施例对获取追踪目标对应的特征信息步骤的细节进行描述的流程图;
图9是根据一个示例性实施例示出的监控区域中摄像机的空间关系的示意图;
图10是根据另一示例性实施例示出的一种视频追踪方法的流程图;
图11是一具体应用场景中视频追踪方法的具体实现示意图;
图12是一具体应用场景中基于历史监控所视频的视频追踪方法的具体实现示意图;
图13是根据一示例性实施例示出的一种视频追踪系统的框图;
图14是图13对应实施例示出的对目标获得模块的细节进行描述的框图;
图15是根据图13对应实施例示出的对连续画面获取模块的细节进行描述的框图;
图16是根据图15对应实施例示出的对画面获取执行单元的细节进行描述的框图;
图17是根据另一示例性实施例示出的一种视频追踪系统的框图;
图18是根据一示例性实施例示出的特征获取模块框图;
图19是根据另一示例性实施例示出的一种视频追踪系统的框图。
通过上述附图,已示出本公开明确的实施例,后文中将有更详细的描述,这些附图和文字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实施例为本领域技术人员说明本公开的概念。
具体实施方式
这里将详细地对示例性实施例执行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的系统和方法的例子。
图1为本公开所涉及的一种视频追踪方法的实施环境。该实施环境包括布设于各处的摄像头110、监控屏幕130以及实现摄像头和监控屏幕130二者之间交互的服务器150。
在该实施环境中,摄像头110和监控屏幕130便可实现视频监控,而服务器150则通过与摄像头110的交互来获得视频监控的图像画面,进而是在监控屏幕130中实现视频追踪目标的连续追踪。
图2是根据一示例性实施例示出的一种装置的框图。例如,装置200可以是图1所示实施环境中的服务器150。
参照图2,该装置200可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processing units,CPU)222(例如,一个或一个以上处理器)和存储器232,一个或一个以上存储应用程序242或数据244的存储介质230(例如一个或一个以上海量存储设备)。其中,存储器232和存储介质230可以是短暂存储或持久存储。存储在存储介质230的程序可以包括一个或一个以上模块(图未示出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器222可以设置为与存储介质230通信,在装置200上执行存储介质230中的一系列指令操作。装置200还可以包括一个或一个以上电源226,一个或一个以上有线或无线网络接口250,一个或一个以上输入输出接口258,和/或,一个或一个以上操作系统241,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。下述图3、图4、图5、图6、图7、图8和图10所示实施例中所述的由服务器150所执行的步骤可以基于该图2所示的装置结构。
图3是根据一示例性实施例示出的一种视频追踪方法的流程图。该视频追踪方法适用于图1所示实施环境的服务器150,该服务器150在一个示例性实施例中可以是图2所示的装置。如图3所示,该视频追踪方法,可以包括以下步骤。
在步骤310中,在视频监控的图像画面中获得视频追踪目标。
其中,视频监控的图像画面,是指视频监控输出至监控屏幕的任意画面。在一个示例性实施例中,视频监控的图像画面,可以是一建筑物内部的视频监控图像画面,也可以是建筑物外部的视频监控图像画面,在此不进行限定。视频追踪目标,是指视频监控所输出的图像画面中指定的任意对象,例如,图像画面中的一可疑人员、可疑车辆或者已经被丢失的手机等。
视频监控的图像画面,在视频追踪目标的获取中,可以是当前进行视频监控所显示的图像画面,也可以是视频监控的历史图像画面,即通过调取一历史时间的视频监控图像画面获得。
视频监控的图像画面中视频追踪目标的获取,可以通过触发进行的标记操作而实现,也可以通过触发进行的自动选取而实现。
在一个示例性实施例的具体实现中,可以基于原有的视频监控而获得实时显示的图像画面,或者调出历史图像画面,进而是在此图像画面上获得视频追踪目标。
由此,即可借助于本公开的方案,来兼容于原有的视频监控系统,使得原有的视频监控系统也能够实现其视频追踪目标的连续追踪,进而具备非常高的通用性。
在步骤330中,通过预先构建的建筑信息模型为视频监控中图像画面所在监控区域获取连续监控区域图像画面。
其中,建筑信息模型(Building Information Modeling,BIM),用于通过数据信息的方式模拟仿真建筑物所具有的真实信息,其是以建筑工程项目的各项建筑信息作为建筑模型的输入,通过建筑模型的建立而形成的模型。建筑模型,是指对相应建筑物实现模拟的模型。建筑信息模型是由建筑模型衍生而来的,以基于真实存在的建筑物而实现与此建筑物相关的各种数据信息的处理,例如转换和映射。可以理解,建筑模型中输入的建筑信息越丰富,建筑模型所模拟仿真的建筑越真实,建筑信息模型基于建筑而进行的各种数据信息的处理便越为精准。
举例来说,在建筑建造完毕之后,若输入的信息包括建筑的楼高,则形成的建筑模型即可模拟仿真出该建筑的楼高,并且通过其建筑信息模型能够使得相关的处理均是以此楼高为基准进行运算的。
基于此,在所述进行的视频监控中,通过预先构建的建筑信息模型,能够真实反映建筑,并且将真实反映的建筑与视频监控的图像画面实现二者之间的关联和映射。例如,可以实现建筑中真实存在的人体形态、位置等在视频监控中图像画面的映射,反之,也可以实现视频监控中图像画面与建筑中相应监控区域的映射。
在此应当说明的是,所构建的建筑信息模型,一方面,必然反映了建筑物内部的真实状况,另一方面,也可真实反映建筑物外部的真实状态,在此不进行限定。
由此,预先构建了建筑信息模型,对于所进行的视频监控而言,输出的图像画面,均对应于一监控区域。此监控区域,可以是一建筑内部的区域,也可以是建筑外部布设了摄像机的区域。需要通过建筑信息模型,来为视频监控中的图像画面确定其所在监控区域。
可以理解的,预先构建的建筑信息模型,实质上是用于实现视频监控中图像画面或者图像画面中某一对象向真实建筑的映射。
通过预先构建的建筑信息模型,为视频监控中图像画面所在监控区域的确定提供了正确性保障。
在此基础之上,由确定的视频监控中图像画面所在监控区域,即可以确定此监控区域对应的连续监控区域,进而获得连续监控区域图像画面。
连续监控区域,可以是视频监控中图像画面所在监控区域的相邻监控区域,也可以是与视频监控中图像画面所在监控区域相连续的其它若干个监控区域,例如若干个周边监控区域,在此不进行限定,将根据视频追踪目标的连续追踪需求而进行灵活调整。
应当说明的是,视频监控中,每一图像画面都唯一对应于一监控区域。因此,通过建筑信息模型而获得的连续监控区域图像画面,在一个示例性实施例,连续监控区域图像画面,可以是对应于一监控区域,即视频监控中图像画面所在监控区域的相邻监控区域的图像画面,也可以是分别对应于多个监控区域的多个图像画面,所对应的多个监控区域构成连续监控区域。
也就是说,基于视频监控中的图像画面,即当前显示于监控屏幕的图像画面,而通过建筑信息模型相应为之获取了连续监控区域图像画面,即显示的图像画面,均获得其对应的连续监控区域图像画面。
在步骤350中,根据视频追踪目标的特征信息从连续监控区域图像画面中获得视频追踪目标的连续监控区域图像画面。
其中,在通过前述步骤310在视频监控的图像画面中获得视频追踪目标之后,即可相应获得此视频追踪目标的特征信息。
特征信息,用于实现视频追踪目标的准确描述,进而在信息上唯一标识视频追踪目标。可以理解的,视频追踪目标的不同,所对应的特征信息也各不相同。例如,视频追踪目标为视频监控中的可疑人员,则所对应的特征信息可以包括人体形态特征和/或设备信号;视频追踪目标为视频监控中的可疑车辆,则可以所对应的特征信息为车辆的车牌特征和/或车辆中存在的设备信号;视频追踪目标为手机,则所对应的特征信息为此手机的设备信号。在此,对于特征信息,不再进行一一列举,不同种类的视频追踪目标,均有其对应的特征信息,以便于准确描述和标识此类视频追踪目标。
应当说明的是,特征信息用于表示视频追踪目标,因此,相应视频追踪目标无论处于哪一图像画面,即对应于哪一个监控区域,其特征信息都具备一致性。
由此,可以根据特征信息而在连续监控区域图像画面中筛选出具备相应视频追踪目标的连续监控区域图像画面。
可以理解的,通过前述步骤330所获得的连续监控区域图像画面,仅是与视频监控中图像画面所连续的,而这些连续监控区域图像画面中,往往会出现有的图像画面存在视频追踪目标,有的图像画面却不存在视频追踪目标,因此,需要对前述步骤所获得的连续监控区域图像画面基于特征信息进行筛选。
在一个示例性实施例中连续监控区域图像画面中,具备相应视频追踪目标的连续监控区域图像画面的筛选,是基于特征信息而对图像画面中所有存在的对象逐一进行的匹配过程。
视频监控的图像画面中视频追踪目标的丢失,则与之相对应的,在视频追踪目标的连续监控区域图像画面,将能够找回丢失的视频追踪目标。
因此,为获得视频追踪目标的连续监控区域图像画面,在前述步骤330所获得的连续监控区域图像画面中,对于每一图像画面,均获取其中每一对象的特征信息。
在此基础上,将视频追踪目标对应的特征信息与图像画面中每一对象的特征信息进行逐一匹配,与此视频追踪目标对应特征信息匹配的对象,即为在此图像画面中重新找回的视频追踪目标。
进一步的,为此匹配过程的实现设置阈值,例如,此阈值可以是95%,即二者之间的匹配程度超出95%,即可视为此对象与视频追踪目标匹配,进而提高准确率和效率。
在步骤370中,通过视频监控的图像画面和视频追踪目标的连续监控区域图像画面进行视频追踪目标的显示。
其中,首先应当说明的是,视频监控的图像画面,是发起视频追踪目标的连续追踪的图像画面,视频监控中任一存在此视频追踪目标的图像画面,都可在其显示并发起此视频追踪目标的连续追踪时作为所指的视频监控的图像画面。
而视频追踪目标的连续监控区域图像画面,是以此视频监控的图像画面为基准所获得的一个或者两个以上的图像画面,其所在的监控区域,与前述所指的视频监控的图像画面所在监控区域是连续存在的。
视频监控的图像画面中存在着视频追踪目标,并且通过前述步骤,使得最终获得的连续监控区域图像画面,也存在着视频追踪目标,因此,通过视频监控的图像画面和视频追踪目标的连续监控区域图像画面的显示,便实现了视频追踪目标的连续追踪,即视频追踪目标的多屏幕监控画面的连续追踪,也即实现视频追踪目标多屏幕的跨屏追踪。
通过如上所述的过程,在连续监控区域图像画面以及具备一致性的特征信息作用下,能够获得视频追踪目标连续存在的图像画面,进而为视频追踪目标能够自动实现连续追踪,由此,在视频监控中,可以根据需要随意实现任意视频追踪目标的连续追踪,所指的任意视频追踪目标,可以为存在于视频监控中图像画面的一个对象,也可以两个以上的对象,均可根据需要灵活设定。
如上所述的实现过程,可以接入现有的视频监控系统中,即通过调取相应视频监控中的图像画面而实现视频监控系统中视频追踪目标的连续追踪,具备非常高的通用性,能够兼容于各种视频监控系统。
在一个示例性实施例中,步骤310,包括:根据视频监控的图像画面中触发进行的对象标记,将标记的对象置为视频追踪目标。
其中,如前所述的,视频监控的图像画面,为当前进行视频监控而显示的图像画面或者调出的历史图像画面,对于所接入的视频监控系统而言,即为此视频监控系统在监控屏幕中显示的图像画面。
视频监控的图像画面中,存在着各种对象,例如,对应于可疑人员的对象等。对于视频监控的相关人员,其可在视频监控的图像画面中触发进行对象的的标记,由此所标记的对象即为视频追踪目标。
在一个示例性实施例的具体实现中,一监控人员可在监控屏幕所显示的图像画面中触发一对象的标记操作,例如,在监控屏幕上通过点击、画圈等方式即可触发此标记操作,此时即可通过触发进行的对象标记而获得视频追踪目标。
通过此过程,使得视频监控的图像画面里出现的任意对象都可作为视频追踪目标,以在视频追踪目标的连续追踪中根据需要而直接进行对象的标记,以此来确定视频追踪目标,进而发起此视频追踪目标的连续追踪。
图4是根据图3对应实施例示出的对步骤310的细节进行描述的流程图。视频追踪目标为终端设备或者视频追踪目标携带有终端设备,该步骤310,可以包括以下步骤。
在步骤311中,联动定位系统获取终端设备的设备信号。
其中,如前所述的,视频追踪目标,可以是图像画面中的任意对象,因此,并不限于图像画面中出现的人员,也可以是其它对象,例如,终端设备、车辆等。
如果视频追踪目标为终端设备本身,或者视频追踪目标携带有终端设备,例如,对于需要进行视频追踪的人员,其携带有终端设备,需要进行视频追踪的车辆携带有终端设备,则可通过相应的设备信号来实现视频追踪目标的确定,进而发起其连续追踪过程。
与之相对应的,对于此视频追踪目标,其特征信息至少包含设备信号。
定位系统,根据实际运营的需要,可以包括室内定位系统和室外定位系统。定位系统用于根据设备信号来定位终端设备所在的位置。
设备信号,可以是WiFi信号、蓝牙信号和网络接入信号等待。
在一个示例性实施例的具体实现中,定位系统通过网络接入视频监控系统所在的物联网,以此建立二者之间的通信连接,并由此形成联动,进而方能够通过联动获取到定位系系统采集到的设备信号。
举例来说,室内定位系统由A监控区域采集到视频追踪目标携带终端设备的设备信号,则由由此设备信息即可将当前发起连续追踪的监控区域定位为A监控区域。
在步骤313中,根据设备信号定位监控区域,并由监控区域获得视频监控的图像画面,图像画面对应于定位的监控区域。
其中,如前所述的,监控区域均有其对应的图像画面,因此,在通过前述步骤获得设备信号之后,即可定位监控区域,进而由监控区域获得视频监控的图像画面。
在一个示例性实施例的具体实现中,通过建筑信息模型为定位的监控区域确定其所布设的摄像机,获取此摄像机的图像画面,由此,即可实现了步骤313中视频监控的图像画面的获得。
布设的摄像机,作为建筑中的设施。因此,通过所预先构建的建筑信息模型可以为定位的监控区域确定此监控区域中布设的摄像机,即在众多的摄像机中定位监控区域中的摄像机。
在定位到摄像机之后,即可相应获得视频监控的图像画面,即此摄像机输出的图像画面。
在步骤315中,根据设备信号在监控区域的位置通过映射获得视频监控图像画面中的视频追踪目标。
其中,监控区域与其所对应的视频监控图像画面二者之间存在着映射关系。设备信号在监控区域的位置,即为视频追踪目标所在的位置,而此位置在视频监控图像画面中的映射即对应了视频追踪目标。
在一个示例性实施例的具体实现中,可以通过建筑信息模型,由设备信号在监控区域的位置确定视频监控图像画面中的视频追踪目标。
具体的,只需要以设备信号在监控区域的位置作为输入,通过建筑信息模型输出的视频监控图像画面中的位置值,即对应了视频追踪目标。
通过如上所述的过程,使可以通过设备信号,或者设备信号作为辅助而保证视频追踪目标的快速选取,并且即便此视频追踪目标相对其所在的监控区域,进入了监控死角,也能够通过如上所述的过程获得相应的图像画面,从而不会造成视频追踪目标丢失的情况,有利于实现对视频追踪目标的连续追踪。
可以理解的,由于受到摄像机的安装位置、安装角度等因素的影响,监控区域也往往存在着监控死角。
当视频追踪目标在监控区域中对应的位置处于监控死角,则并无法从此监控区域的图像画面中查看到此视频追踪目标,也就无法通过标记来获得视频追踪目标。
而基于如上所述的过程,将使得即便视频追踪目标在监控区域中对应的位置进入监控死角时,仍然能够确定视频追踪目标。
图5是根据图3对应实施例示出的对步骤330的细节进行描述的流程图。该步骤330,如图5所示,可以包括以下步骤。
在步骤331中,通过预先构建的建筑信息模型对视频监控中图像画面所在监控区域定位摄像机。
其中,监控区域,相对于视频监控中的图像画面,是建筑室内或者室外摄像机拍摄的空间。
对于预先构建的建筑信息模型,只需要根据视频监控中图像画面所在监控区域,即可确定此监控区域中布设的摄像机,实现监控区域中摄像机的定位。
在步骤333中,以定位的摄像机为基准,通过建筑信息模型搜索周边摄像机,周边摄像机所在监控区域构成视频监控中图像画面所在监控区域的连续监控区域。
其中,周边摄像机,可以是与定位的摄像机相邻的其它摄像机,也可以是以定位的摄像机为起始所连续布设的其它摄像机。因此,所搜索得到的周边摄像机数量,可以是一个或者两个以上,具体将根据当前所设定的搜索距离确定。
可以理解,建筑信息模型中,根据一确定的监控区域,可以连续存在的其它监控区域,并且能够基于监控区域而确定此监控区域中布设的摄像机。
因此,可以基于建筑信息模型来实现周边摄像机的搜索。
在一个示例性实施例的具体实现中,可以通过与视频监控中图像画面所在监控区域连续的其它监控区域而搜索得到周边摄像机。
在另一个示例性实施例的具体实现中,也可以预先设置搜索距离。根据定位到的摄像机,在搜索距离范围内进行摄像机搜索,此搜索到的摄像机即为周边摄像机。
举例来说,视频追踪目标所在监控区域中摄像机定位为A摄像机,在100米预设搜索距离范围内,搜索到的摄像机有B摄像机和C摄像机,则B摄像机和C摄像机即为A摄像机的周边摄像机。
周边摄像机所在监控区域,与定位的摄像可所在监控区域,将是在空间上连续存在的。
在步骤335中,根据周边摄像机获取连续监控区域图像画面。
通过如上所述的过程,实现了周边摄像机的搜索,进而借由搜索得到的周边摄像机而获得连续监控区域图像画面,由此为视频追踪目标的连续追踪奠定了基础。
图6是根据图5对应实施例示出的对步骤335的细节进行描述的流程图。该步骤335,如图6所示,可以包括以下步骤。
在步骤3351中,获取视频追踪目标所对应的历史时间段。
其中,历史时间段,是限定的一个历史时间范围。历史时间段用于设置对视频追踪目标进行连续追踪的时间段。
可以理解的,视频追踪目标所对应的历史时间段,是发起此视频追踪目标的人员设定的。
在步骤3353中,根据周边摄像机获取与历史时间段相符的连续监控区域图像画面。
其中,在通过前述步骤获得设定的历史时间段之后,即可按照此历史时间段并根据搜索得到的周边摄像机来获取连续监控区域图像画面。
视频监控,包括了实时视频监控和历史视频监控,而如上所述的连续监控区域图像画面的获取,便是基于历史视频监控实现的。
图7是另一示例性实施例示出的一种视频追踪方法的流程图。该视频追踪方法,如图7所示,在步骤370之后,还包括以下步骤。
在步骤410中,在视频追踪目标的显示中,根据时间上最后出现的视频追踪目标,重复通过建筑信息模型和特征信息获得视频追踪目标在视频监控中新增的连续监控区域图像画面。
在步骤430中,向视频追踪目标的显示添加新增的连续监控区域图像画面。
其中,通过图3对应实施例实现了视频追踪目标的连续追踪。而随着视频追踪目标连续追踪的实现,此追踪过程是持续进行的,因此,将随着当前连续追踪得到的在时间上最后出现的视频追踪目标,而通过建筑信息模型和特征信息再次获得此视频追踪目标所新增的连续监控区域图像画面。
将此新增的连续监控画面添加至当前所进行的图像画面显示,即可持续进行视频追踪目标的连续追踪,进而在图3对应实施例的基础上保证视频追踪目标连续追踪的持续性和稳定性,自动实现持续的视频追踪目标的连续追踪。
在另一个示例性实施例中,步骤350之前,该视频追踪方法,可以包括以下步骤。
获取视频追踪目标对应的特征信息,特征信息包括形态特征和/或设备信号。
其中,图3对应实施例的步骤350需要借助于视频追踪目标对应的特征信息来获得视频追踪目标的连续监控区域图像画面,因此,需要为此获取具备一致性的特征信息。
如前所述的,视频追踪目标种类的不同,其所对应的特征信息也各不相同。因此,此特征信息可以包括形态特征信息和/或设备信号。在一个示例性实施例中,对于可疑人员的连续追踪,所指的形态特征信息,即为人体形态特征信息。
图8是根据一示例性实施例对获取追踪目标对应的特征信息步骤的细节进行描述的流程图。视频追踪目标为图像画面中的人物对象,则特征信息包括形态特征且形态特征为人体形态特征,则获取视频追踪目标对应的特征信息步骤,如图8所示,可以包括以下步骤。
在步骤501中,获得视频监控的图像画面中视频追踪目标的图像位置。
其中,在通过图3对应实施例中的步骤310获得视频监控的图像画面中存在的视频追踪目标之后,即可直接获得此视频追踪目标的图像位置。
具体的,视频追踪目标的图像位置,是指视频监控的图像画面中的某坐标值,该坐标值通过对此视频追踪目标在图像画面中进行识别,例如执行人物识别的过程而获取得到。
例如,此视频追踪目标为图像画面中的一可疑人员,则对整个图像画面进行人物识别,在识别出这一可疑人员时,进一步获取其在图像画面中的轮廓,进而通过轮廓获得其在图像画面上的坐标值。
进一步的,用于标示图像位置的坐标值有多个,可分别对应于可疑人员轮廓的落脚点位置、头顶位置、左肩位置和右肩位置等等。
在步骤503中,通过建筑信息模型中的二维平面转换矩阵,将图像位置转换为视频追踪目标在二维平面的空间位置。
其中,二维平面指的是监控区域所对应的平面,即视频追踪目标在实质空间中,即监控区域中落脚点所在的平面。在一个示例性实施例中,以(x、y)表示该二维平面中任一点的坐标值。
应当理解,该二维平面相对于海平面具有一定的高度,以z表示该二维平面相对于海平面的高度值。
由上可知,对于在监控区域所对应的空间中,视频追踪目标的空间位置,即视频追踪目标在二维平面的空间位置,是以(x、y、z)表示的。
进一步的,假设二维平面平行于海平面,则视频追踪目标在二维平面的空间位置中,z取值实际上是相同的,基于此,在一个示例性实施例中,将视频追踪目标在二维平面的空间位置简化为(x、y),进而提高特征信息的计算效率。
具体的,转换公式如下:
Figure BDA0001186041630000131
其中,(x`、y`)表示视频追踪目标的图像位置,(x、y)视频追踪目标在二维平面的空间位置,R表示二维平面转换矩阵,该二维平面转换矩阵由建筑信息模型确定。
当然,在其他应用场景中,例如,如果需要提高计算精度,则可仍然以(x、y、z)表示视频追踪目标的空间位置,通过z的取值来反映二维平面是否相对于海平面而言具有一定的倾斜角度,以此来提高计算精度。
在步骤505中,通过建筑信息模型获得图像画面所在监控区域中摄像机的空间关系,根据空间关系由空间位置运算得到视频追踪目标的人体形态特征。
其中,图像画面所在监控区域中摄像机的空间关系,将由建筑信息模型获取得到,并按照此空间关系而由空间位置运算视频追踪目标的人体形态特征。
图9是根据一个示例性实施例示出的监控区域中摄像机的空间关系的示意图。在此空间关系中,点a、点b’和点b是待确定的,其余角度、距离等是已知的。
以计算人体形态特征中的身高为例,空间位置至少包括点a所对应的空间坐标值和点b’所对应的空间坐标值。点a所对应的空间坐标值由视频追踪目标轮廓中落脚点位置所对应的图像位置转换得到,点b’所对应的空间坐标值由视频追踪目标轮廓中头顶位置所对应的图像位置转换得到。
在确定点a、点b’分别对应的空间坐标值之后,即可结合空间关系与几何原理,得到点a与点b’之间的距离,即视频追踪目标的身高在二维平面中的投影长度。
在确定视频追踪目标的身高在二维平面中的投影长度之后,再次结合空间关系与几何原理,由该投影长度计算得到点a与点b之间的距离,即为视频追踪目标的身高。
进一步的,为了提高准确率,在计算出视频追踪目标的身高之后,还可以采用相同的计算方法计算出其它人体形态特征,例如,左肩高、右肩高和肩宽等。
通过如上所述的过程,实现了人体形态特征的运算,以此保证人体形态特征不会跟随视频监控条件的变化而变化,从而有利于准确地找回视频追踪目标,有效提高效率。
在实际运用中,视频监控条件并非是固定不变的,例如,摄像机的显示分辨率、摄像机的安装位置和监控区域的照明条件等都会导致视频监控条件发生变化,进而会造成视频追踪目标的某些特征具有不同的呈现。
例如,对于一可疑人物对应的视频追踪目标而言,其脸部特征、衣着特征等,在视频监控条件发生变化时也会相应发生变化。因此,通过如上所述人体形态特征的运算,将为视频追踪的实现提供了具备一致性的特征信息,进而有利于后续提高视频追踪的准确性。
图10是根据另一示例性实施例示出的一种视频追踪方法的流程图。该视频追踪方法,如图10所示,还可以包括以下步骤。
在步骤610中,根据视频追踪目标的显示,分别获得视频追踪目标对应的监控区域。
其中,如前所述的,图像画面,均唯一对应了一监控区域,而视频追踪目标的显示,实质是包含了视频追踪目标的多个图像画面显示,因此,可以根据此获得视频追踪目标对应的监控区域。
在一个示例性实施例中,监控区域是图像画面所对应的空间,在方法的实现上是由相应的区域信息标示的,即所获得的监控区域,在数据上是以区域信息的形式存在的。
具体的,每一图像画面,其属性包括但不限于反映监控时间的时间信息、区域信息、反映图像大小的容量信息和反映存储位置的路径信息等等。
因此,在一个示例性实施例的具体实现中,可以根据视频追踪目标的显示,获得显示的图像画面,进而是由这些图像画面的属性获得区域信息,此此,即获得了视频追踪目标对应的监控区域。
在步骤630中,联动定位系统获取与监控区域相关的地图。
其中,定位系统,通过网络接入,以在视频追踪中实现此定位系统的联动,进而获得与监控区域相关的地图。与监控区域相关的地图,是指包含了监控区域的地图。
在步骤650中,在地图上按照视频追踪目标对应的监控区域进行标记。
其中,此标记,可以是以画圈、高亮等方式,以在地图上突出显示视频追踪目标对应的监控区域。
在步骤670中,标记的地图形成视频追踪目标的轨迹数据。
通过如上所述的过程,便以地图标记的方式实现了对视频追踪目标的历史轨迹的呈现,进一步提高了视频追踪的便捷性。
在另一个示例性实施例中,在所进行的视频追踪目标的显示中,对于任一图像画面,都可以通过触发的下拉、滑屏等操作对无用的图像画面执行清除,此时,将直接载入下一图像画面。
在一个示例性实施例中,如上所述的视频追踪方法,通过视频监控系统和定位系统实现。
视频监控系统中配置了服务器,以执行如上所述的视频追踪方法。以此视频追踪方法的实现为例,结合具体应用场景,描述该视频追踪方法。
图11是一具体应用场景中视频追踪方法的具体实现示意图。在图8所示的具体应用场景中,通过执行步骤701至步骤706,基于监控区域的连续性,使得视频追踪目标在视频追踪的实现中不会丢失,实现了视频追踪目标的实时追踪。
具体的,在图11所示的实际应用中,为实时进行可疑人员的连续追踪,当物业管理者或公安人员查看视频监控中的图像画面时,如发现某一可疑人员,即可点击操作、画圈操作来发起相应视频追踪目标在此视频监控中的连续追踪过程,由此,即执行步骤701。
此时,在视频监控系统中服务器的作用下执行步骤702,计算可疑人员的人体形态特征,此人体形态特征包括身高、左肩高、右肩高等。
与此同时,也将根据建筑信息模型定位可疑人员所在监控区域中布设的摄像机,即定位标记可疑人员时的摄像机A,获取与该摄像机A所在监控区域相连续的监控区域中摄像机(假设为与摄像机A相邻的摄像机B和摄像机C)的视频,由此即获得连续监控区域图像画面。
在连续监控区域图像画面中,执行步骤703,对所有对象进行人体形态特征的运算,并将每一对象与可疑人员在人体形态特征上进行匹配,得出匹配率高于阈值的对象,判定此对象为可疑人员,进而调出其所对应的监控视频,以在当前查找的显示画面中进行这一可疑人员的图像画面显示,即如步骤704至步骤706所示。
由此,将不断循环执行上述过程,即步骤703至步骤706,进而不断调取最新的可疑人员的图像画面到当前查看的监控屏幕中,实现可疑人员的连续追踪。
图12是一具体应用场景中基于历史监控所视频的视频追踪方法的具体实现示意图。在图12所示的具体应用场景中,通过执行步骤801至步骤807,使得视频追踪目标在一设定的历史时间段上的历史轨迹,进而实现视频追踪目标在此历史时间段上的连续追踪。
具体的,在图12所示的具体应用中,如果发生了财产损失等事故后,物业管理者或公安人员将查询历史回放录像,若发现事故现场周边的图像画面中出现可疑人员,也可将其标记起来,即执行步骤801,由此便自动进行这一可疑人员的连续追踪。
首先,如步骤802所示的,根据建筑信息模型,获取事故现场周边的摄像机的历史监控视频,即由此得到前述所指的连续监控区域图像画面,并设定历史时间段,此历史时间段为事故发生前后所对应的时间范围。
如步骤803至步骤806所示的,仍然基于人体形态特征来获得可疑人员存在且监控时间处于设定历史时间段的图像画面。
最终所有图像画面便构成了可疑人员行踪,进而形成结合定位系统所提供的地图形成轨迹链。
下述为本公开装置实施例,可以用于执行本公开上述视频追踪系统实施例。对于本公开装置实施例中未披露的细节,请参照本公开视频追踪方法实施例。
图13是根据一示例性实施例示出的一种视频追踪系统的框图。该视频追踪系统可以用于图1所示的实施环境中,执行图3所示的视频追踪方法和全部步骤。如图13所示,该视频追踪系统包括但不限于:目标获得模块910、连续画面获取模块930、画面选取模块950和显示模块970。
目标获得模块910,用于在视频监控的图像画面中获得视频追踪目标。
连续画面获取模块930,用于通过预先构建的建筑信息模型为视频监控中图像画面所在监控区域获取连续监控区域图像画面。
画面选取模块950,用于根据视频追踪目标的特征信息从连续监控区域图像画面中获得视频追踪目标的连续监控区域图像画面。
显示模块970,用于通过视频监控的图像画面和视频追踪目标的连续监控区域图像画面进行视频追踪目标的显示。
在一个示例性实施例中,目标获得模块910进一步用于根据视频监控的图像画面中触发进行的对象标记,将标记的对象置为视频追踪目标。
图14是图13对应实施例示出的对目标获得模块的细节进行描述的框图。该目标获得模块910,如图14所示,可以包括但不限于:信号获取单元911、定位单元913和位置映射单元915。
信号获取单元911,用于联动定位系统获取终端设备的设备信号。
定位单元913,用于根据设备信号定位监控区域,并由监控区域获得视频监控的图像画面,图像画面对应于定位的监控区域。
位置映射单元915,用于根据设备信号在监控区域的位置通过映射获得视频监控的图像画面中的视频追踪目标。
图15是根据图13对应实施例示出的对连续画面获取模块的细节进行描述的框图。该连续画面获取模块930,如图15所示,可以包括但不限于:摄像机定位单元931、摄像机搜索单元933和画面获取执行单元935。
摄像机定位单元931,用于通过预先构建的建筑信息模型对视频监控中图像画面所在监控区域定位摄像机。
摄像机搜索单元933,用于以定位的摄像机为基准,通过建筑信息模型搜索周边摄像机,周边摄像机所在监控区域构成视频监控中图像画面所在监控区域的连续监控区域。
画面获取执行单元935,用于根据周边摄像机获取连续监控区域图像画面。
图16是根据图15对应实施例示出的对画面获取执行单元的细节进行描述的框图。该画面获取执行单元935,如图16所示,可以包括但不限于:时间段获取子单元9351和历史画面获取子单元9353。
时间段获取子单元9351,用于获取视频追踪目标所对应的历史时间段。
历史画面获取子单元9353,用于根据周边摄像机获取与历史时间段相符的连续监控区域图像画面。
图17是根据另一示例性实施例示出的一种视频追踪系统的框图。该视频追踪系统,如图17所示,还可以包括但不限于:新增画面获取模块1010和新增画面添加模块1030。
新增画面获取模块1010,用于在视频追踪目标的显示中,根据时间上最后出现的视频追踪目标,重复通过建筑信息模型和特征信息获得视频追踪目标在视频监控中新增的连续监控区域图像画面;
新增画面添加模块1030,用于向视频追踪目标的显示添加新增的连续监控区域图像画面。
在另一个示例性实施例中,该视频追踪系统还包括特征获取模块。
特征获取模块用于获取视频追踪目标对应的特征信息,特征信息包括形态特征和/或设备信号。
图18是根据一示例性实施例示出的特征获取模块框图。视频追踪目标为图像画面中的人物对象,则特征信息包括形态特征且形态特征为人体形态特征,该特征获取模块,如图18所示,包括但不限于:图像位置获取单元1101、位置转换单元1103和特征运算单元1105。
图像位置获取单元1101,用于获得视频监控的图像画面中视频追踪目标的图像位置。
位置转换单元1103,用于通过建筑信息模型中的二维平面转换矩阵,将图像位置转换为视频追踪目标在二维平面的空间位置。
特征运算单元1105,用于通过建筑信息模型获得图像画面所在监控区域中摄像机的空间关系,根据空间关系由空间位置运算得到视频追踪目标的人体形态特征。
图19是根据另一示例性实施例示出的一种视频追踪系统的框图。该视频追踪系统,如图19所示,可以包括但不限于:区域确定模块1210、地图获取模块1230、地图标记模块1250和轨迹形成模块1270。
区域确定模块1210,用于根据视频追踪目标的显示,分别获得视频追踪目标对应的监控区域。
地图获取模块1230,用于联动定位系统获取与监控区域相关的地图。
地图标记模块1250,用于在地图上按照视频追踪目标对应的监控区域进行标记。
轨迹形成模块1270,用于标记的地图形成视频追踪目标的轨迹数据。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围执行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (13)

1.一种视频追踪方法,其特征在于,所述方法包括:
在视频监控的图像画面中获得视频追踪目标,所述视频追踪目标携带有终端设备,所述在视频监控的图像画面中获得视频追踪目标包括:联动定位系统获取所述终端设备的设备信号,根据所述设备信号定位监控区域,并由所述监控区域获得所述视频监控的图像画面,所述图像画面对应于定位的所述监控区域,根据所述设备信号在所述监控区域的位置通过映射获得所述视频监控的图像画面中的视频追踪目标,以使得即使所述视频追踪目标相对于其所在的监控区域,进入了监控死角,也能够获得相应的图像画面;
通过预先构建的建筑信息模型为所述视频监控中所述图像画面所在监控区域获取连续监控区域图像画面,其中包括:通过所述预先构建的建筑信息模型对所述视频监控中所述图像画面所在监控区域定位摄像机,以定位的所述摄像机为基准,通过所述建筑信息模型搜索周边摄像机,所述周边摄像机所在监控区域构成所述视频监控中图像画面所在监控区域的连续监控区域,根据所述周边摄像机获取连续监控区域图像画面;所述预先构建的建筑信息模型用于反映建筑物内部与建筑物外部的真实状态;所述监控区域包括建筑物内部的区域与建筑物外部布设了摄像机的区域;
根据所述视频追踪目标的特征信息从连续监控区域图像画面中获得所述视频追踪目标的连续监控区域图像画面,所述特征信息包括根据所述建筑信息模型将所述视频追踪目标在所述视频监控的图像画面中的图像位置转换为所述视频追踪目标在二维平面的空间位置后,通过所述图像画面所在监控区域中摄像机的空间关系对所述空间位置运算得到所述视频追踪目标的人体形态特征,所述二维平面为所述视频监控中图像画面所在监控区域所对应的平面;
通过所述视频监控的图像画面和所述视频追踪目标的连续监控区域图像画面进行所述视频追踪目标的显示。
2.根据权利要求1所述的方法,其特征在于,所述在视频监控的图像画面中获得视频追踪目标,包括:
根据所述视频监控的图像画面中触发进行的对象标记,将标记的所述对象置为视频追踪目标。
3.根据权利要求1所述的方法,其特征在于,所述根据所述周边摄像机获取连续监控区域图像画面,包括:
获取所述视频追踪目标所对应的历史时间段;
根据所述周边摄像机获取与所述历史时间段相符的连续监控区域图像画面。
4.根据权利要求1所述的方法,其特征在于,所述通过所述视频监控的图像画面和所述视频追踪目标的连续监控区域图像画面进行所述视频追踪目标的显示之后,所述方法还包括:
在所述视频追踪目标的显示中,根据时间上最后出现的视频追踪目标,重复通过所述建筑信息模型和特征信息获得所述视频追踪目标在所述视频监控中新增的连续监控区域图像画面;
向所述视频追踪目标的显示添加所述新增的连续监控区域图像画面。
5.根据权利要求1至4任意一项所述的方法,其特征在于,所述根据所述视频追踪目标的特征信息从连续监控区域图像画面中获得所述视频追踪目标的连续监控区域图像画面之前,所述方法还包括:
获得所述视频监控的图像画面中所述视频追踪目标的图像位置;
通过所述建筑信息模型中的二维平面转换矩阵,将所述图像位置转换为所述视频追踪目标在二维平面的空间位置;
通过所述建筑信息模型获得所述图像画面所在监控区域中摄像机的空间关系,根据所述空间关系由所述空间位置运算得到所述视频追踪目标的人体形态特征。
6.根据权利要求1至4任意一项所述的方法,其特征在于,所述方法还包括:
根据所述视频追踪目标的显示,分别获得所述视频追踪目标对应的监控区域;
联动定位系统获取与所述监控区域相关的地图;
在所述地图上按照所述视频追踪目标对应的监控区域进行标记;
标记的所述地图形成所述视频追踪目标的轨迹数据。
7.一种视频追踪系统,其特征在于,所述系统包括:
目标获得模块,用于在视频监控的图像画面中获得视频追踪目标;
连续画面获取模块,用于通过预先构建的建筑信息模型为所述视频监控中所述图像画面所在监控区域获取连续监控区域图像画面;
画面选取模块,用于根据所述视频追踪目标的特征信息从连续监控区域图像画面中获得所述视频追踪目标的连续监控区域图像画面,所述特征信息包括根据所述建筑信息模型将所述视频追踪目标在所述视频监控的图像画面中的图像位置转换为所述视频追踪目标在二维平面的空间位置后,通过所述图像画面所在监控区域中摄像机的空间关系对所述空间位置运算得到所述视频追踪目标的人体形态特征,所述二维平面为所述视频监控中图像画面所在监控区域所对应的平面;
显示模块,用于通过所述视频监控的图像画面和所述视频追踪目标的连续监控区域图像画面进行所述视频追踪目标的显示;
所述视频追踪目标为终端设备或者所述视频追踪目标携带有终端设备,所述目标获得模块包括:
信号获取单元,用于联动定位系统获取所述终端设备的设备信号;
定位单元,用于根据所述设备信号定位监控区域,并由所述监控区域获得所述视频监控的图像画面,所述图像画面对应于定位的所述监控区域;
位置映射单元,用于根据所述设备信号在所述监控区域的位置通过映射获得所述视频监控的图像画面中的视频追踪目标,以使得即使所述视频追踪目标相对于其所在的监控区域,进入了监控死角,也能够获得相应的图像画面;
所述连续画面获取模块包括:
摄像机定位单元,用于通过所述预先构建的建筑信息模型对所述视频监控中所述图像画面所在监控区域定位摄像机;所述预先构建的建筑信息模型用于反映建筑物内部与建筑物外部的真实状态;所述监控区域包括建筑物内部的区域与建筑物外部布设了摄像机的区域;
摄像机搜索单元,用于以定位的所述摄像机为基准,通过建筑信息模型搜索周边摄像机,所述周边摄像机所在监控区域构成所述视频监控中图像画面所在监控区域的连续监控区域;
画面获取执行单元,用于根据所述周边摄像机获取连续监控区域图像画面。
8.根据权利要求7所述的系统,其特征在于,所述目标获得模块进一步用于根据所述视频监控的图像画面中触发进行的对象标记,将标记的所述对象置为视频追踪目标。
9.根据权利要求7所述的系统,其特征在于,所述画面获取执行单元包括:
时间段获取子单元,用于获取所述视频追踪目标所对应的历史时间段;
历史画面获取子单元,用于根据所述周边摄像机获取与所述历史时间段相符的连续监控区域图像画面。
10.根据权利要求7所述的系统,其特征在于,所述系统还包括:
新增画面获取模块,用于在所述视频追踪目标的显示中,根据时间上最后出现的视频追踪目标,重复通过所述建筑信息模型和特征信息获得所述视频追踪目标在所述视频监控中新增的连续监控区域图像画面;
新增画面添加模块,用于向所述视频追踪目标的显示添加所述新增的连续监控区域图像画面。
11.根据权利要求7至10任意一项所述的系统,其特征在于,所述系统还包括:
图像位置获取单元,用于获得所述视频监控的图像画面中所述视频追踪目标的图像位置;
位置转换单元,用于通过所述建筑信息模型中的二维平面转换矩阵,将所述图像位置转换为所述视频追踪目标在二维平面的空间位置;
特征运算单元,用于通过所述建筑信息模型获得所述图像画面所在监控区域中摄像机的空间关系,根据所述空间关系由所述空间位置运算得到所述视频追踪目标的人体形态特征。
12.根据权利要求7至10任意一项所述的系统,其特征在于,所述系统还包括:
区域确定模块,用于根据所述视频追踪目标的显示,分别获得所述视频追踪目标对应的监控区域;
地图获取模块,用于联动定位系统获取与所述监控区域相关的地图;
地图标记模块,用于在所述地图上按照所述视频追踪目标对应的监控区域进行标记;
轨迹形成模块,用于标记的所述地图形成所述视频追踪目标的轨迹数据。
13.一种视频追踪装置,其特征在于,包括:
存储器,存储有计算机可读指令;
处理器,读取存储器存储的计算机可读指令,以执行权利要求1-6中任一项所述的视频追踪方法。
CN201611187174.9A 2016-12-20 2016-12-20 视频追踪方法和系统 Expired - Fee Related CN108234927B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611187174.9A CN108234927B (zh) 2016-12-20 2016-12-20 视频追踪方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611187174.9A CN108234927B (zh) 2016-12-20 2016-12-20 视频追踪方法和系统

Publications (2)

Publication Number Publication Date
CN108234927A CN108234927A (zh) 2018-06-29
CN108234927B true CN108234927B (zh) 2021-02-19

Family

ID=62650824

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611187174.9A Expired - Fee Related CN108234927B (zh) 2016-12-20 2016-12-20 视频追踪方法和系统

Country Status (1)

Country Link
CN (1) CN108234927B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109325965A (zh) * 2018-08-22 2019-02-12 浙江大华技术股份有限公司 一种目标对象跟踪方法及装置
CN111385522B (zh) * 2018-12-27 2021-08-13 杭州海康威视系统技术有限公司 一种运动对象的展示方法、装置、系统及电子设备
CN110636251A (zh) * 2019-04-24 2019-12-31 郑勇 基于内容辨识的无线监控系统
CN110532948B (zh) * 2019-08-29 2023-05-30 南京泛在地理信息产业研究院有限公司 一种基于视频的高精度行人轨迹提取方法
CN111669544B (zh) * 2020-05-20 2022-01-04 中国铁路设计集团有限公司 基于bim的对象视频调用方法及系统
CN111898434B (zh) * 2020-06-28 2021-03-19 江苏柏勋科技发展有限公司 一种视频侦测分析系统
CN112104846A (zh) * 2020-11-03 2020-12-18 成都零壹众科技有限公司 移动目标实时视频追踪方法、系统、终端、介质及处理器
CN112418136B (zh) * 2020-12-02 2023-11-24 云南电网有限责任公司电力科学研究院 一种现场作业人员的目标区域检测追踪方法及装置
CN112561987B (zh) * 2020-12-18 2023-03-24 万翼科技有限公司 人员位置显示方法及相关装置
CN113002595B (zh) * 2021-03-19 2023-09-08 通号通信信息集团有限公司 一种列车追踪方法及系统
CN112967337B (zh) * 2021-03-23 2022-05-03 乐聚(深圳)机器人技术有限公司 双足机器人控制方法、装置以及双足机器人
CN113297946B (zh) * 2021-05-18 2024-01-05 珠海大横琴科技发展有限公司 一种监控盲区识别方法和识别系统
CN113891050B (zh) * 2021-11-12 2022-09-20 深圳市佰慧智能科技有限公司 一种基于视频联网共享的监控设备管理系统
CN114567728A (zh) * 2022-03-10 2022-05-31 上海市政工程设计研究总院(集团)有限公司 视频追踪方法、系统、电子设备和存储介质
CN115272948B (zh) * 2022-05-20 2023-02-17 贵州丰立空间科技有限公司 基于物联网的智能安防信息系统

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8760519B2 (en) * 2007-02-16 2014-06-24 Panasonic Corporation Threat-detection in a distributed multi-camera surveillance system
CN101808230A (zh) * 2009-02-16 2010-08-18 杭州恒生数字设备科技有限公司 一种用于数字视频监控的统一坐标系
CN102467821B (zh) * 2010-11-04 2014-03-05 北京汉王智通科技有限公司 基于视频图像的路面距离检测方法及装置
CN102073863B (zh) * 2010-11-24 2012-08-15 中国科学院半导体研究所 基于深度指纹获取远距离视频监控目标特征尺寸的方法
US20120173204A1 (en) * 2010-12-30 2012-07-05 Honeywell International Inc. Building map generation using location and tracking data
CN102436676A (zh) * 2011-09-27 2012-05-02 夏东 一种智能视频监控的三维重建方法
CN202306582U (zh) * 2011-10-12 2012-07-04 杜惠红 一种在公共场所找人的系统
CN104034316B (zh) * 2013-03-06 2018-02-06 深圳先进技术研究院 一种基于视频分析的空间定位方法
CN104378582B (zh) * 2013-08-16 2017-08-22 北京博思廷科技有限公司 一种基于ptz摄像机巡航的智能视频分析系统及方法
KR101380628B1 (ko) * 2013-10-18 2014-04-02 브이씨에이 테크놀러지 엘티디 복수의 카메라를 사용한 객체 추적 방법 및 장치
CN103578109B (zh) * 2013-11-08 2016-04-20 中安消技术有限公司 一种监控摄像机测距方法及装置
CN104636709B (zh) * 2013-11-12 2018-10-02 中国移动通信集团公司 一种定位监控目标的方法及装置
US9640003B2 (en) * 2014-05-06 2017-05-02 Honeywell International Inc. System and method of dynamic subject tracking and multi-tagging in access control systems
CN104660987B (zh) * 2015-01-27 2019-04-05 武汉烽火众智数字技术有限责任公司 一种目标运动轨迹分析的方法和监控系统
CN105701840A (zh) * 2015-12-31 2016-06-22 上海极链网络科技有限公司 视频中多物体实时追踪系统及其实现方法
CN105933650A (zh) * 2016-04-25 2016-09-07 北京旷视科技有限公司 视频监控系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于"北斗"的地理信息在建筑物联网中的应用研究;王建;《中国优秀硕士学位论文全文数据库》;20150315;全文 *

Also Published As

Publication number Publication date
CN108234927A (zh) 2018-06-29

Similar Documents

Publication Publication Date Title
CN108234927B (zh) 视频追踪方法和系统
CN110674746B (zh) 一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质
KR102340626B1 (ko) 타겟 트래킹 방법, 장치, 전자기기와 기억매체
CN109523471B (zh) 一种地面坐标和广角摄像机画面坐标的转换方法、系统以及装置
CN107067794B (zh) 一种基于视频图像处理的室内车辆定位导航系统及方法
CN103841374B (zh) 一种视频监控图像的显示方法及系统
CN110672111B (zh) 车辆行车路径规划方法、装置、系统、介质和设备
US11842516B2 (en) Homography through satellite image matching
JP6321570B2 (ja) 屋内位置情報測位システム及び屋内位置情報測位方法
WO2015014018A1 (zh) 移动终端基于图像识别技术的室内定位与导航方法
CN108154558B (zh) 一种增强现实方法、装置和系统
WO2023093217A1 (zh) 数据标注方法、装置、计算机设备、存储介质和程序
WO2020211593A1 (zh) 交通道路的数字化重建方法、装置和系统
WO2017133147A1 (zh) 一种实景地图的生成方法、推送方法及其装置
WO2020211427A1 (zh) 基于扫描点云数据的分割与识别方法、系统及存储介质
CN113869231B (zh) 一种用于获取目标对象的实时图像信息的方法与设备
CN111327876A (zh) 目标跟踪显示方法、装置、电子设备及机器可读存储介质
CN113436311A (zh) 一种户型图生成方法及其装置
TW202244680A (zh) 位置姿勢獲取方法、電子設備及電腦可讀儲存媒體
CN114529621B (zh) 户型图生成方法、装置、电子设备及介质
CN107193820B (zh) 位置信息获取方法、装置及设备
CN112348887A (zh) 终端位姿确定方法以及相关装置
CN112422653A (zh) 基于位置服务的场景信息推送方法、系统、存储介质及设备
CN110991306A (zh) 自适应的宽视场高分辨率智能传感方法和系统
CN108234932B (zh) 视频监控图像中的人员形态提取方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210219