CN105828045B - 一种利用空间信息实现目标追踪的方法及装置 - Google Patents
一种利用空间信息实现目标追踪的方法及装置 Download PDFInfo
- Publication number
- CN105828045B CN105828045B CN201610322358.5A CN201610322358A CN105828045B CN 105828045 B CN105828045 B CN 105828045B CN 201610322358 A CN201610322358 A CN 201610322358A CN 105828045 B CN105828045 B CN 105828045B
- Authority
- CN
- China
- Prior art keywords
- target
- point
- virtual
- dimensional model
- posb
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19608—Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19665—Details related to the storage of video surveillance data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1097—Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W64/00—Locating users or terminals or network equipment for network management purposes, e.g. mobility management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明公开了一种利用空间信息实现目标追踪的方法及装置,该方法通过建立虚拟三维模型来模拟真实的监控环境,获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向,根据目标在虚拟三维模型中的位置和移动方向从目标所在逻辑监控区域中的所有虚拟摄像机中选出最佳视角摄像机来跟踪目标。本发明的装置包括目标位置和移动方向计算模块和最佳视角摄像机选择模块。本发明的方法及装置能够根据目标所在的位置从该监控区域的所有监控摄像机中选出最佳视角摄像机,实现了对目标的快速有效追踪,解决了现有技术对目标进行追踪时效率不高,展示的效果不好的问题。
Description
技术领域
本发明属于视频监控领域,尤其涉及一种利用空间信息实现目标追踪的方法及装置。
背景技术
视频监控是安全防范系统的重要组成部分,它是一种防范能力较强的综合系统。视频监控以其直观、准确、及时和信息内容丰富而广泛应用于许多场合。目标追踪是视频监控系统中的一个重要应用,目标追踪包括单摄像机的目标追踪和摄像机之间的目标追踪两个方面。对于单摄像机的目标追踪,采用云台摄像机或追踪球机跟随目标进行转动来实现。而对于摄像机之间的目标跟踪,涉及到摄像机之间的交接,实现起来更加复杂,例如可以通过九宫格手动选取目标所在的监控画面来进行摄像机之间的交接实现追踪,也可以利用GIS系统经纬度信息或利用RFID等辅助系统进行摄像机之间的交接实现追踪。
九宫格手动追踪目标的方法,是将摄像机的位置信息事先输入监控系统,摄像机的监控画面组成九宫格,人工查找目标出现在九宫格中的哪个画面中,选取该监控画面对应的摄像机来进行目标追踪。该方法不需要任何辅助设备,能适用于任何场景的目标追踪,但该方法需要人工查找目标出现在9宫格窗格的哪个画面中,再通过人工选取目标所在的监控画面来进行目标追踪,在监控环境复杂、监控摄像头很多的情况下,进行目标追踪有较大的难度,并且在多个监控画面中都出现监控目标的情况下,难以选取最佳的监控画面。
通过GIS系统来实现自动追踪的方法,是将GIS系统和监控系统结合在一起,并且监控系统中预先设置好每个摄像机的经纬度信息以及每台摄像机的可视域情况,GIS系统将目标携带的辅助设备上报的经纬度信息发送给监控系统,监控系统根据目标所在位置的经纬度信息自动选取摄像机,对目标进行追踪。该方法虽然能对目标进行自动追踪,操作简单,但该方法中监控目标需要携带辅助的位置信息设备,对没有携带辅助的位置信息设备的目标无法进行追踪,因此该方法只能适用于特殊的监控场景。
发明内容
本发明的目的是提供一种利用空间信息实现目标追踪的方法及装置,以解决现有技术对目标进行追踪时效率不高,展示的效果不好的问题。
为了实现上述目的,本发明技术方案如下:
一种利用空间信息实现目标追踪的方法,包括:
获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向;
根据目标在虚拟三维模型中的位置和移动方向从目标所在逻辑监控区域中的所有虚拟摄像机中选出最佳视角摄像机来跟踪目标。
进一步地,本发明的一种实现方式,所述获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向,包括:
接收用户在发现目标移动到监控画面的边缘位置时,点击目标所在的位置B后发送的位置B的比例坐标;
将位置B的比例坐标通过矩阵计算转换为虚拟三维模型中的世界坐标,得到位置B对应的虚拟三维模型中的POS2点;
通过目标所在监控画面对应的虚拟摄像机和POS2点的射线得到与地面的交点POSB点,POSB点就是目标在虚拟三维模型中对应的位置;
以所述虚拟摄像机监控画面的中心点到POSB点的方向作为目标的移动方向。
本发明的另一种实现方式,所述获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向,包括:
接收用户在发现目标移动到监控画面的边缘位置时,按目标的移动方向在监控画面划动后,发送的划动轨迹的起点A和终点B的比例坐标,其中所述划动轨迹的终点B为目标当前所在的位置,起点A为目标移动路径中的任意一点;
将起点A和终点B的比例坐标通过矩阵计算转换为虚拟三维模型中的世界坐标,得到起点A对应的虚拟三维模型中的POS1点和终点B对应的虚拟三维模型中的POS2点;
通过目标所在监控画面对应的虚拟摄像机和POS1点的射线得到与地面的交点POSA点,POSA点就是起点A在虚拟三维模型中对应的位置,通过虚拟摄像机和POS2点的射线得到与地面的交点POSB点,POSB点就是终点B在虚拟三维模型中对应的位置;
以POSA点到POSB点的方向作为目标的移动方向。
本发明另一种实现方式,所述获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向,包括:
接收用户在发现目标移动到监控画面的边缘位置时,点击目标所在的位置B后发送的位置B的比例坐标;
将位置B的比例坐标通过矩阵计算转换为虚拟三维模型中的世界坐标,得到位置B对应的虚拟三维模型中的POS2点;
通过目标所在监控画面对应的虚拟摄像机和POS2点的射线得到与地面的交点POSB点,POSB点就是目标在虚拟三维模型中对应的位置;
查询POSB点所在的逻辑监控区域,当POSB点不在目标所在监控画面对应的虚拟摄像机所在的逻辑监控区域时,查询POSB点所在的逻辑监控区域与目标所在监控画面对应的虚拟摄像机所在的逻辑监控区域之间门的位置;
以和所述门垂直并且指向POSB点所在的逻辑监控区域的方向作为目标的移动方向。
进一步地,所述根据目标在虚拟三维空间的位置和移动方向从目标所在逻辑监控区域中的所有虚拟摄像机中选出最佳视角摄像机来跟踪目标,包括:
根据目标在虚拟三维模型中的移动方向和虚拟摄像机的视角方向,计算出POSB点所在逻辑监控区域内的每台虚拟摄像机的监控视角方向与目标移动方向之间的向量夹角,然后将向量夹角转换为0~90度范围内的线段间夹角,选出虚拟摄像机的视角方向与目标移动方向之间的线段间夹角小于预定角度阈值的所有虚拟摄像机;
比较POSB点在选出的虚拟摄像机的监控画面中的位置,选取POSB点在监控画面最中心位置的虚拟摄像机作为最佳视角摄像机。
本发明还提供了一种利用空间信息实现目标追踪的装置,包括:
目标位置和移动方向计算模块,用于获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向;
最佳视角摄像机选择模块,用于根据目标在虚拟三维模型中的位置和移动方向从目标所在逻辑监控区域中的所有虚拟摄像机中选出最佳视角摄像机来跟踪目标。
本发明提出了一种利用空间信息实现目标追踪的方法及装置,当用户发现目标移动到监控画面的边缘位置,通过当前监控画面不能很好的监控目标时,在监控画面中点击目标所在的位置,监控系统根据目标所在的位置从该监控区域的所有监控摄像机中选出最佳视角摄像机,并将视频监控客户端的监控画面自动切换到选出的最佳视角摄像机的监控画面,实现了对目标的快速有效追踪,解决了现有技术对目标进行追踪时效率不高,展示的效果不好的问题。
附图说明
图1为本发明利用空间信息实现目标追踪的方法的流程图;
图2为本发明实施例虚拟三维模型监控区域示意图;
图3为本发明利用空间信息实现目标追踪的装置结构示意图。
具体实施方式
下面结合附图和实施例对本发明技术方案做进一步详细说明,以下实施例不构成对本发明的限定。
如图1所示,一种利用空间信息实现目标追踪的方法,包括:
步骤S1、获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向。
本实施例通过将整个监控区域在三维空间服务器中按1:1的比例构建虚拟三维模型来实现在三维空间服务器中模拟实际的监控场景,在进行三维建模时包括对整个监控区域内的所有摄像机进行三维建模,使每个虚拟摄像机与对应的真实摄像机的安装位置、监控视角、CCD尺寸以及焦距信息等完全一致,保证每个虚拟摄像机的监控画面和对应的真实摄像机的监控画面相同。同时在三维空间服务器中根据监控要求和环境情况将整个虚拟监控区域划分为多个逻辑监控区域,每个逻辑监控区域至少包含一台虚拟摄像机,一个逻辑监控区域可以是一个房间,也可以是一条走廊等。将整个虚拟监控区域划分为多个逻辑监控区域,便于按监控要求对整个虚拟监控区域内的虚拟摄像机进行管理。记录下每个逻辑监控区域内所有虚拟摄像机的ID号,虚拟摄像机的ID号与其对应的真实摄像机的ID号相同。
本实施例中用户需要对目标进行追踪时,通过视频监控客户端访问目标所在位置的真实摄像机,获取监控画面,同时视频监控客户端将该摄像机的ID号上报给三维空间服务器,三维空间服务器根据视频监控客户端上报的真实摄像机的ID号得到对应的虚拟摄像机ID号,从而获取和真实监控画面完全相同的虚拟监控画面。同时三维空间服务器根据虚拟摄像机的ID号获取该虚拟摄像机所在的逻辑监控区域。
当用户发现目标移动到监控画面的边缘位置,通过当前监控画面不能很好的监控目标时,在监控画面中点击目标所在的位置B,视频监控客户端记录下B点的比例坐标并将B点的比例坐标发送给三维空间服务器。
需要说明的是,本实施例对点击目标所在的位置的方式不作限制,可以通过单击或双击鼠标的左键来实现,也可以通过单击或双击鼠标的右键来实现,还可以通过用手接触触摸屏来触发。
由于虚拟摄像机的监控画面和真实摄像机的监控画面完全相同,因此真实摄像机监控画面中的B点比例坐标和虚拟摄像机的监控画面中对应的B’点的比例坐标相同。
三维空间服务器将虚拟摄像机的监控画面中B’点的二维比例坐标通过矩阵计算转换为虚拟三维模型中虚拟摄像机近裁剪面上的三维世界坐标,得到B’点在虚拟三维模型中虚拟摄像机的近裁剪面上对应的世界坐标位置POS2点,具体过程如下:
首先计算虚拟摄像机的投影矩阵Mp。由于虚拟摄像机为透视投影,其数学上的意义为截锥六面体,其中近裁剪面的左下角坐标为(l,b,n),近裁剪面的右上角坐标为(r,t,n),近裁剪面距离为n,远裁剪面距离为f,通过六个平面和相关点的运算可以推导得到
其中
然后计算虚拟摄像机的视图矩阵,即从世界坐标系转换到摄像机坐标系的换算矩阵Mv。视图矩阵包含两部分,虚拟摄像机的旋转变换矩阵R和位移变换矩阵T,即为:
将虚拟摄像机监控画面中B’点的比例坐标换算到虚拟监控模型的三维世界坐标POS2。将虚拟图像的投影平面设置为虚拟摄像的近裁剪面,则投影平面的深度就是n,B’点在以虚拟摄像机为原点的三维空间中投影平面上对应的点为V点,设投影面上的点V投影坐标为(Xd’/W’,Yd’/H’,n),其中W’为投影平面的宽度,H’为投影平面的长度,Xd’为V点在投影平面宽度轴向上的值,Yd’为V点在投影平面长度轴向上的值,可推导该点的实际世界坐标
POS2=Mv -1·Mp -1·V
本实施例通过虚拟摄像机和POS2点的射线得到与地面的交点POSB点,POSB点就是目标在虚拟三维模型中对应的位置。其中虚拟摄像机是指目标所在监控画面对应的摄像机在虚拟三维模型中对应的虚拟摄像机。
优选的,本实施例三维空间服务器以当前虚拟摄像机监控画面的中心点到POSB点的方向作为目标的移动方向。
目标的移动方向还可以通过如下方法计算得到:
当用户发现目标移动到监控画面的边缘位置,通过当前监控画面不能很好的监控目标时,按照目标的移动方向按住鼠标左键在监控画面上划一条线段,或者按照目标的移动方向用手在触摸屏上划一条线段,本实施例对划动的方式不作限定。该线段的终点为目标当前所在的位置,起点可以为目标移动路径中的任意一点,监控服务器记录下该线段的起点A和终点B的比例坐标并将起点A和终点B的比例坐标发送给三维空间服务器。
三维空间服务器通过上述同样的方法计算出A点和B点在虚拟三维模型中对应的位置POSA点和POSB点,将从POSA点到POSB点的方向作为目标的移动方向。
需要说明的是,当POSB点不在当前逻辑监控区域,并且当前逻辑监控区域与POSB点所在的逻辑监控区域之间有门时,以和门垂直并且指向POSB点所在的逻辑监控区域的方向作为目标的移动方向。
步骤S2、根据目标在虚拟三维模型中的位置和移动方向从目标所在逻辑监控区域中的所有虚拟摄像机中选出最佳视角摄像机来跟踪目标。
本实施例三维空间服务器计算出目标在虚拟三维模型中的位置POSB点后,首先判断POSB点是否在当前逻辑监控区域。
如果POSB点在当前逻辑监控区域,则检索当前逻辑监控区域内除当前摄像机外的所有虚拟摄像机,计算出每台虚拟摄像机的视角方向与目标移动方向之间的向量夹角,然后将向量夹角转换为0~90度范围内的线段间夹角,选出摄像机的视角方向与目标移动方向之间的线段间夹角小于预定角度阈值的所有虚拟摄像机。当选出的虚拟摄像机数量大于1时,则比较POSB点在虚拟摄像机的监控画面中的位置,选取POSB点在监控画面最中心位置的虚拟摄像机作为最佳视角摄像机;当选出的虚拟摄像机只有一台时,将该虚拟摄像机作为最佳视角摄像机。
如果POSB点不在当前逻辑监控区域,则检索POSB点所在逻辑监控区域内的所有虚拟摄像机,计算出每台虚拟摄像机的视角方向与目标移动方向之间的向量夹角,然后将向量夹角转换为0~90度范围内的线段间夹角,选出摄像机的视角方向与目标移动方向之间的线段间夹角小于预定角度阈值的所有虚拟摄像机。当选出的虚拟摄像机数量大于1时,则比较POSB点在虚拟摄像机的监控画面中的位置,选取POSB点在监控画面最中心位置的虚拟摄像机作为最佳视角摄像机;当选出的虚拟摄像机只有一台时,将该虚拟摄像机作为最佳视角摄像机。
本实施例还可以通过如下方法得到最佳视角摄像机:
计算POSB点在逻辑监控区域中每台虚拟摄像机的监控画面中的位置,选出POSB点在预设监控画面中心区域内的所有虚拟摄像机,然后计算选出的每台虚拟摄像机的视角方向与目标移动方向的向量夹角,再将向量夹角转换为0~90度范围内的线段间夹角,选出虚拟摄像机的视角方向与目标移动方向之间的线段间夹角最小的虚拟摄像机作为最佳视角摄像机。
本实施例三维空间服务器从目标所在逻辑监控区域中的所有虚拟摄像机中选出最佳视角摄像机后,将最佳视角摄像机的ID号发送给视频监控客户端,视频监控客户端根据摄像机的ID号访问最佳视角摄像机,获取最佳视角摄像机的监控画面,对目标进行追踪。
本实施例还可以通过如下方法使视频监控客户端获取最佳视角摄像机的监控画面:
三维空间服务器从目标所在逻辑监控区域中的所有虚拟摄像机中选出最佳视角摄像机后,通知视频管理服务器将最佳视角摄像机的监控视频下发到视频监控客户端,视频监控客户端获取最佳视角摄像机的监控画面,对目标进行追踪。
需要说明的是,视频管理服务器用于在视频监控系统中管理视频监控客户端和所有摄像机的监控视频。本实施例中三维空间服务器可以为独立的服务器,也可以与视频管理服务器共用一台服务器。
本实施例中当用户对三维空间服务器选出的最佳视角摄像机的监控视角不满意时,可以再点击一下目标所在的位置,三维空间服务器会根据视频监控客户端上报的目标位置信息,按步骤S1~S2进行重新计算和选择,选出新的最佳视角摄像机。即当目标在原地不动时,用户可以通过点击目标的位置来切换监控视角,选取最满意的监控画面进行目标追踪。
下面通过举例对最佳视角摄像机的选择过程进行说明,如图2所示,为虚拟三维模型内的监控示意图,逻辑监控区域A内有虚拟摄像机1,逻辑监控区域B内有虚拟摄像机2、虚拟摄像机3和虚拟摄像机4,逻辑监控区域A和逻辑监控区域B之间有一道门,虚拟摄像机1、虚拟摄像机2、虚拟摄像机3和虚拟摄像机4的监控视角如图所示,POSA点、POSB点和POSC点对应的真实摄像机监控画面中的位置分别为A点、B点和C点。
用户在视频监控客户端上打开虚拟摄像机1对应的真实摄像机的监控画面,对目标进行追踪,视频监控客户端将当前真实摄像机的ID号1上报给三维空间服务器,三维空间服务器通过查询得到虚拟摄像机1所在的逻辑监控区域A,当目标从A点移动到B点,用户通过当前监控画面不能很好的监控目标时,点击目标所在的位置B。
视频监控客户端将B点的比例坐标上报给三维空间服务器,三维空间服务器通过B点的比例坐标计算得到B点在虚拟三维模型中对应的位置POSB点。查询POSB点所在的逻辑监控区域,发现POSB点不在逻辑监控区域A,而是在逻辑监控区域B,并且逻辑监控区域B和逻辑监控区域A之间有一道门,因此得到目标的移动方向为与该门垂直并且指向逻辑监控区域B。然后三维空间服务器查询逻辑监控区域B内的所有虚拟摄像机,得到虚拟摄像机2、虚拟摄像机3和虚拟摄像机4,分别计算出虚拟摄像机2、虚拟摄像机3和虚拟摄像机4的视角方向与目标移动方向之间的夹角,并用预先设定的阈值与计算出的夹角进行比对,得到摄像机的视角方向与目标移动方向的夹角小于预先设定的阈值的虚拟摄像机为虚拟摄像机2和虚拟摄像机3。比较POSB点在虚拟摄像机2和虚拟摄像机3监控画面中的位置,得到POSB点在虚拟摄像机3的监控画面中更接近中心位置,因此选取虚拟摄像机3为最佳视角摄像机,将视频监控客户端上的监控画面从虚拟摄像机1对应的真实摄像机切换到虚拟摄像机3对应的真实摄像机,继续对目标进行追踪。
当目标从B点移动到C点,用户通过摄像机3对应的真实摄像机不能很好的监控目标时,点击目标所在的位置C。
视频监控客户端将C点的比例坐标上报给三维空间服务器,三维空间服务器通过C点的比例坐标计算得到C点在虚拟三维模型中对应的位置POSC点。查询POSC点所在的逻辑监控区域,发现POSC点还在当前逻辑监控区域B,得到目标的移动方向为从虚拟摄像机3的监控画面中心点到POSC点的方向。然后查询逻辑监控区域B中除虚拟摄像机3以外的所有虚拟摄像机,得到虚拟摄像机2和虚拟摄像机4,分别计算虚拟摄像机2、虚拟摄像机4的视角方向与目标移动方向之间的夹角,并用预先设定的阈值与计算出的夹角进行比对,得到摄像机的视角方向与目标移动方向的夹角小于预先设定的阈值的虚拟摄像机只有虚拟摄像机2,因此将虚拟摄像机2作为最佳视角摄像机,将视频监控客户端上的监控画面从虚拟摄像机3对应的真实摄像机切换到虚拟摄像机2对应的真实摄像机,继续对目标进行追踪。
通过这种方法,用户实现了对目标的快速有效追踪。
本实施例还提出了一种利用空间信息实现目标追踪的装置,应用于视频监控系统中的三维空间服务器,与上述方法对应,如图3所示,包括:
目标位置和移动方向计算模块,用于获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向;
最佳视角摄像机选择模块,用于根据目标在虚拟三维模型中的位置和移动方向从目标所在逻辑监控区域中的所有虚拟摄像机中选出最佳视角摄像机来跟踪目标。
本实施例三维空间服务器从目标所在逻辑监控区域中的所有虚拟摄像机中选出最佳视角摄像机后,将最佳视角摄像机的ID号发送给视频监控客户端,视频监控客户端根据摄像机的ID号访问最佳视角摄像机,获取最佳视角摄像机的监控画面,对目标进行追踪。
本实施例中,目标位置和移动方向计算模块获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向,执行如下操作:
接收用户在发现目标移动到监控画面的边缘位置时,点击目标所在的位置B后发送的位置B的比例坐标;
将位置B的比例坐标通过矩阵计算转换为虚拟三维模型中的世界坐标,得到位置B对应的虚拟三维模型中的POS2点;
通过目标所在监控画面对应的虚拟摄像机和POS2点的射线得到与地面的交点POSB点,POSB点就是目标在虚拟三维模型中对应的位置;
以所述虚拟摄像机监控画面的中心点到POSB点的方向作为目标的移动方向。
或者,本实施例目标位置和移动方向计算模块获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向,执行如下操作:
接收用户在发现目标移动到监控画面的边缘位置时,按目标的移动方向在监控画面划动后,发送的划动轨迹的起点A和终点B的比例坐标,其中所述划动轨迹的终点B为目标当前所在的位置,起点A为目标移动路径中的任意一点;
将起点A和终点B的比例坐标通过矩阵计算转换为虚拟三维模型中的世界坐标,得到起点A对应的虚拟三维模型中的POS1点和终点B对应的虚拟三维模型中的POS2点;
通过目标所在监控画面对应的虚拟摄像机和POS1点的射线得到与地面的交点POSA点,POSA点就是起点A在虚拟三维模型中对应的位置,通过虚拟摄像机和POS2点的射线得到与地面的交点POSB点,POSB点就是终点B在虚拟三维模型中对应的位置;
以POSA点到POSB点的方向作为目标的移动方向。
或者,本实施例目标位置和移动方向计算模块获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向,执行如下操作:
接收用户在发现目标移动到监控画面的边缘位置时,点击目标所在的位置B后发送的位置B的比例坐标;
将位置B的比例坐标通过矩阵计算转换为虚拟三维模型中的世界坐标,得到位置B对应的虚拟三维模型中的POS2点;
通过目标所在监控画面对应的虚拟摄像机和POS2点的射线得到与地面的交点POSB点,POSB点就是目标在虚拟三维模型中对应的位置;
查询POSB点所在的逻辑监控区域,当POSB点不在目标所在监控画面对应的虚拟摄像机所在的逻辑监控区域时,查询POSB点所在的逻辑监控区域与目标所在监控画面对应的虚拟摄像机所在的逻辑监控区域之间门的位置;
以和所述门垂直并且指向POSB点所在的逻辑监控区域的方向作为目标的移动方向。
在获得在虚拟三维模型中的位置和移动方向后,本实施例最佳视角摄像机选择模块根据目标在虚拟三维空间的位置和移动方向从目标所在逻辑监控区域中的所有虚拟摄像机中选出最佳视角摄像机来跟踪目标,执行如下操作:
根据目标在虚拟三维模型中的移动方向和虚拟摄像机的视角方向,计算出POSB点所在逻辑监控区域内的每台虚拟摄像机的监控视角方向与目标移动方向之间的向量夹角,然后将向量夹角转换为0~90度范围内的线段间夹角,选出虚拟摄像机的视角方向与目标移动方向之间的线段间夹角小于预定角度阈值的所有虚拟摄像机;
比较POSB点在选出的虚拟摄像机的监控画面中的位置,选取POSB点在监控画面最中心位置的虚拟摄像机作为最佳视角摄像机。
以上实施例仅用以说明本发明的技术方案而非对其进行限制,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
Claims (4)
1.一种利用空间信息实现目标追踪的方法,其特征在于,所述利用空间信息实现目标追踪的方法,包括:
获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向;
根据目标在虚拟三维模型中的位置和移动方向从目标所在逻辑监控区域中的所有虚拟摄像机中选出最佳视角摄像机来跟踪目标;
其中,所述获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向,包括:
接收用户在发现目标移动到监控画面的边缘位置时,点击目标所在的位置B后发送的位置B的比例坐标;
将位置B的比例坐标通过矩阵计算转换为虚拟三维模型中的世界坐标,得到位置B对应的虚拟三维模型中的POS2点;
通过目标所在监控画面对应的虚拟摄像机和POS2点的射线得到与地面的交点POSB点,POSB点就是目标在虚拟三维模型中对应的位置;
以所述虚拟摄像机监控画面的中心点到POSB点的方向作为目标的移动方向;
或者,所述获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向,包括:
接收用户在发现目标移动到监控画面的边缘位置时,按目标的移动方向在监控画面划动后,发送的划动轨迹的起点A和终点B的比例坐标,其中所述划动轨迹的终点B为目标当前所在的位置,起点A为目标移动路径中的任意一点;
将起点A和终点B的比例坐标通过矩阵计算转换为虚拟三维模型中的世界坐标,得到起点A对应的虚拟三维模型中的POS1点和终点B对应的虚拟三维模型中的POS2点;
通过目标所在监控画面对应的虚拟摄像机和POS1点的射线得到与地面的交点POSA点,POSA点就是起点A在虚拟三维模型中对应的位置,通过虚拟摄像机和POS2点的射线得到与地面的交点POSB点,POSB点就是终点B在虚拟三维模型中对应的位置;
以POSA点到POSB点的方向作为目标的移动方向;
或者,所述获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向,包括:
接收用户在发现目标移动到监控画面的边缘位置时,点击目标所在的位置B后发送的位置B的比例坐标;
将位置B的比例坐标通过矩阵计算转换为虚拟三维模型中的世界坐标,得到位置B对应的虚拟三维模型中的POS2点;
通过目标所在监控画面对应的虚拟摄像机和POS2点的射线得到与地面的交点POSB点,POSB点就是目标在虚拟三维模型中对应的位置;
查询POSB点所在的逻辑监控区域,当POSB点不在目标所在监控画面对应的虚拟摄像机所在的逻辑监控区域时,查询POSB点所在的逻辑监控区域与目标所在监控画面对应的虚拟摄像机所在的逻辑监控区域之间门的位置;
以和所述门垂直并且指向POSB点所在的逻辑监控区域的方向作为目标的移动方向。
2.根据权利要求1所述的利用空间信息实现目标追踪的方法,其特征在于,所述根据目标在虚拟三维空间的位置和移动方向从目标所在逻辑监控区域中的所有虚拟摄像机中选出最佳视角摄像机来跟踪目标,包括:
根据目标在虚拟三维模型中的移动方向和虚拟摄像机的视角方向,计算出POSB点所在逻辑监控区域内的每台虚拟摄像机的监控视角方向与目标移动方向之间的向量夹角,然后将向量夹角转换为0~90度范围内的线段间夹角,选出虚拟摄像机的视角方向与目标移动方向之间的线段间夹角小于预定角度阈值的所有虚拟摄像机;
比较POSB点在选出的虚拟摄像机的监控画面中的位置,选取POSB点在监控画面最中心位置的虚拟摄像机作为最佳视角摄像机。
3.一种利用空间信息实现目标追踪的装置,其特征在于,所述利用空间信息实现目标追踪的装置,包括:
目标位置和移动方向计算模块,用于获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向;
最佳视角摄像机选择模块,用于根据目标在虚拟三维模型中的位置和移动方向从目标所在逻辑监控区域中的所有虚拟摄像机中选出最佳视角摄像机来跟踪目标;
其中,所述目标位置和移动方向计算模块获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向,执行如下操作:
接收用户在发现目标移动到监控画面的边缘位置时,点击目标所在的位置B后发送的位置B的比例坐标;
将位置B的比例坐标通过矩阵计算转换为虚拟三维模型中的世界坐标,得到位置B对应的虚拟三维模型中的POS2点;
通过目标所在监控画面对应的虚拟摄像机和POS2点的射线得到与地面的交点POSB点,POSB点就是目标在虚拟三维模型中对应的位置;
以所述虚拟摄像机监控画面的中心点到POSB点的方向作为目标的移动方向;
或者,所述目标位置和移动方向计算模块获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向,执行如下操作:
接收用户在发现目标移动到监控画面的边缘位置时,按目标的移动方向在监控画面划动后,发送的划动轨迹的起点A和终点B的比例坐标,其中所述划动轨迹的终点B为目标当前所在的位置,起点A为目标移动路径中的任意一点;
将起点A和终点B的比例坐标通过矩阵计算转换为虚拟三维模型中的世界坐标,得到起点A对应的虚拟三维模型中的POS1点和终点B对应的虚拟三维模型中的POS2点;
通过目标所在监控画面对应的虚拟摄像机和POS1点的射线得到与地面的交点POSA点,POSA点就是起点A在虚拟三维模型中对应的位置,通过虚拟摄像机和POS2点的射线得到与地面的交点POSB点,POSB点就是终点B在虚拟三维模型中对应的位置;
以POSA点到POSB点的方向作为目标的移动方向;
或者,所述目标位置和移动方向计算模块获取目标在监控画面中的位置信息,确定目标在虚拟三维模型中的位置和移动方向,执行如下操作:
接收用户在发现目标移动到监控画面的边缘位置时,点击目标所在的位置B后发送的位置B的比例坐标;
将位置B的比例坐标通过矩阵计算转换为虚拟三维模型中的世界坐标,得到位置B对应的虚拟三维模型中的POS2点;
通过目标所在监控画面对应的虚拟摄像机和POS2点的射线得到与地面的交点POSB点,POSB点就是目标在虚拟三维模型中对应的位置;
查询POSB点所在的逻辑监控区域,当POSB点不在目标所在监控画面对应的虚拟摄像机所在的逻辑监控区域时,查询POSB点所在的逻辑监控区域与目标所在监控画面对应的虚拟摄像机所在的逻辑监控区域之间门的位置;
以和所述门垂直并且指向POSB点所在的逻辑监控区域的方向作为目标的移动方向。
4.根据权利要求3所述的利用空间信息实现目标追踪的装置,其特征在于,所述最佳视角摄像机选择模块根据目标在虚拟三维空间的位置和移动方向从目标所在逻辑监控区域中的所有虚拟摄像机中选出最佳视角摄像机来跟踪目标,执行如下操作:
根据目标在虚拟三维模型中的移动方向和虚拟摄像机的视角方向,计算出POSB点所在逻辑监控区域内的每台虚拟摄像机的监控视角方向与目标移动方向之间的向量夹角,然后将向量夹角转换为0~90度范围内的线段间夹角,选出虚拟摄像机的视角方向与目标移动方向之间的线段间夹角小于预定角度阈值的所有虚拟摄像机;
比较POSB点在选出的虚拟摄像机的监控画面中的位置,选取POSB点在监控画面最中心位置的虚拟摄像机作为最佳视角摄像机。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610322358.5A CN105828045B (zh) | 2016-05-12 | 2016-05-12 | 一种利用空间信息实现目标追踪的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610322358.5A CN105828045B (zh) | 2016-05-12 | 2016-05-12 | 一种利用空间信息实现目标追踪的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105828045A CN105828045A (zh) | 2016-08-03 |
CN105828045B true CN105828045B (zh) | 2019-03-08 |
Family
ID=56530662
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610322358.5A Active CN105828045B (zh) | 2016-05-12 | 2016-05-12 | 一种利用空间信息实现目标追踪的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105828045B (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6708218B2 (ja) | 2015-12-16 | 2020-06-10 | 日本電気株式会社 | 情報処理装置、侵入検知方法及びコンピュータプログラム |
CN106204630B (zh) * | 2016-08-19 | 2019-03-12 | 浙江宇视科技有限公司 | 一种配置摄像机的方法及装置 |
CN106529528A (zh) * | 2016-09-30 | 2017-03-22 | 浙江宇视科技有限公司 | 一种有效运动目标识别方法及设备 |
CN108881342B (zh) | 2017-05-11 | 2022-04-29 | 京东方科技集团股份有限公司 | 一种目标追踪方法和目标追踪系统 |
CN107645646A (zh) * | 2017-07-07 | 2018-01-30 | 罗普特(厦门)科技集团有限公司 | 一种区域监控系统实现方法 |
CN109108968A (zh) * | 2018-08-17 | 2019-01-01 | 深圳市三宝创新智能有限公司 | 机器人头部运动调整的交互方法、装置、设备和存储介质 |
CN109118754A (zh) * | 2018-09-17 | 2019-01-01 | 青岛海信网络科技股份有限公司 | 一种车队监控追踪方法及装置 |
CN111080704B (zh) * | 2018-10-22 | 2023-09-15 | 浙江宇视科技有限公司 | 视频增强现实的方法及装置 |
CN111179305B (zh) * | 2018-11-13 | 2023-11-14 | 晶睿通讯股份有限公司 | 对象位置估算方法及其对象位置估算装置 |
CN109857904B (zh) * | 2018-12-28 | 2022-02-18 | 北京市劳动保护科学研究所 | 一种基于三维模型的视频追踪方法及装置 |
CN111526328B (zh) * | 2020-03-18 | 2022-01-04 | 深圳市华橙数字科技有限公司 | 视频监控巡视方法、装置、终端及存储介质 |
CN111601246B (zh) * | 2020-05-08 | 2021-04-20 | 中国矿业大学(北京) | 基于空间三维模型图像匹配的智能位置感知系统 |
CN111931564A (zh) * | 2020-06-29 | 2020-11-13 | 北京大学 | 一种基于人脸识别的目标跟踪方法及装置 |
TW202205841A (zh) * | 2020-07-21 | 2022-02-01 | 佐臻股份有限公司 | 具影像及深度傳輸的監視系統 |
CN112822450B (zh) * | 2021-01-08 | 2024-03-19 | 鹏城实验室 | 一种大规模视觉计算系统中有效节点动态遴选方法 |
CN113055589A (zh) * | 2021-01-29 | 2021-06-29 | 视伴科技(北京)有限公司 | 一种调整虚拟摄影机的方法及装置 |
CN113055550A (zh) * | 2021-02-26 | 2021-06-29 | 视伴科技(北京)有限公司 | 一种预演赛事活动的方法及装置 |
CN113784160A (zh) * | 2021-09-09 | 2021-12-10 | 北京字跳网络技术有限公司 | 视频数据生成方法、装置、电子设备及可读存储介质 |
CN114442805A (zh) * | 2022-01-06 | 2022-05-06 | 上海安维尔信息科技股份有限公司 | 一种监控场景展示方法、系统、电子设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013210989A (ja) * | 2012-02-29 | 2013-10-10 | Jvc Kenwood Corp | 画像処理装置、画像処理方法及び画像処理プログラム |
CN103595963A (zh) * | 2013-11-14 | 2014-02-19 | 浙江宇视科技有限公司 | 多摄像机视频监控系统、移动目标追踪装置及方法 |
CN104881870A (zh) * | 2015-05-18 | 2015-09-02 | 浙江宇视科技有限公司 | 面向待观察点的监控实况启动方法及装置 |
CN105096382A (zh) * | 2015-07-09 | 2015-11-25 | 浙江宇视科技有限公司 | 一种在视频监控图像中关联真实物体信息的方法及装置 |
CN105225230A (zh) * | 2015-09-11 | 2016-01-06 | 浙江宇视科技有限公司 | 一种识别前景目标对象的方法及装置 |
CN105245850A (zh) * | 2015-10-27 | 2016-01-13 | 太原市公安局 | 跨监控摄像头进行目标追踪的方法、装置和系统 |
-
2016
- 2016-05-12 CN CN201610322358.5A patent/CN105828045B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013210989A (ja) * | 2012-02-29 | 2013-10-10 | Jvc Kenwood Corp | 画像処理装置、画像処理方法及び画像処理プログラム |
CN103595963A (zh) * | 2013-11-14 | 2014-02-19 | 浙江宇视科技有限公司 | 多摄像机视频监控系统、移动目标追踪装置及方法 |
CN104881870A (zh) * | 2015-05-18 | 2015-09-02 | 浙江宇视科技有限公司 | 面向待观察点的监控实况启动方法及装置 |
CN105096382A (zh) * | 2015-07-09 | 2015-11-25 | 浙江宇视科技有限公司 | 一种在视频监控图像中关联真实物体信息的方法及装置 |
CN105225230A (zh) * | 2015-09-11 | 2016-01-06 | 浙江宇视科技有限公司 | 一种识别前景目标对象的方法及装置 |
CN105245850A (zh) * | 2015-10-27 | 2016-01-13 | 太原市公安局 | 跨监控摄像头进行目标追踪的方法、装置和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN105828045A (zh) | 2016-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105828045B (zh) | 一种利用空间信息实现目标追踪的方法及装置 | |
CN109643127B (zh) | 构建地图、定位、导航、控制方法及系统、移动机器人 | |
CN105096382B (zh) | 一种在视频监控图像中关联真实物体信息的方法及装置 | |
CN103491339B (zh) | 视频获取方法、设备及系统 | |
US9544489B2 (en) | Effortless navigation across cameras and cooperative control of cameras | |
CN105427338B (zh) | 一种运动目标的跟踪方法和装置 | |
US10839612B1 (en) | Method and system for visualizing overlays in virtual environments | |
CN111025283B (zh) | 雷达与球机联动的方法及装置 | |
CN103700140B (zh) | 用于单枪机‑多球机联动的空间建模方法 | |
CN107197200A (zh) | 一种实现监控视频显示的方法及装置 | |
CN110516014B (zh) | 一种面向城市道路监控视频映射到二维地图的方法 | |
CN205693769U (zh) | 一种运动摄像机对全景目标快速定位捕捉系统 | |
CN106303410A (zh) | 一种基于全景视频和球机预置位的枪球机联动方法 | |
CN205693770U (zh) | 一种基于全景视频的高低位联动监视系统 | |
CN102263933A (zh) | 智能监控的实现方法和装置 | |
CN107993282A (zh) | 一种动态的可量测实景地图制作方法 | |
JP2020520308A (ja) | ロボット制御方法、ロボット装置及びロボット機器 | |
CN103257707B (zh) | 利用视线跟踪技术和常规鼠标控制设备的三维漫游方法 | |
CN107124581A (zh) | 摄像机运行状态和嫌疑目标在电子地图上实时显示系统 | |
CN105282449B (zh) | 一种pt摄像机的视野调整控制方法和装置 | |
CN104796620A (zh) | 基于gis技术的摄像机快速精准监控方法 | |
CN111222190A (zh) | 一种古建筑管理系统 | |
CN106127115A (zh) | 一种基于全景和常规视觉的混合视觉目标定位方法 | |
CN109120901A (zh) | 一种摄像机间画面切换的方法 | |
CN108449545B (zh) | 一种监控系统及其应用方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |