CN111866467A - 监控视频的三维覆盖空间确定方法、装置及存储介质 - Google Patents

监控视频的三维覆盖空间确定方法、装置及存储介质 Download PDF

Info

Publication number
CN111866467A
CN111866467A CN202010746350.8A CN202010746350A CN111866467A CN 111866467 A CN111866467 A CN 111866467A CN 202010746350 A CN202010746350 A CN 202010746350A CN 111866467 A CN111866467 A CN 111866467A
Authority
CN
China
Prior art keywords
coordinate system
virtual camera
coordinates
camera
vertices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010746350.8A
Other languages
English (en)
Other versions
CN111866467B (zh
Inventor
吴春阳
李乾坤
卢维
殷俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dahua Technology Co Ltd
Original Assignee
Zhejiang Dahua Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dahua Technology Co Ltd filed Critical Zhejiang Dahua Technology Co Ltd
Priority to CN202010746350.8A priority Critical patent/CN111866467B/zh
Publication of CN111866467A publication Critical patent/CN111866467A/zh
Application granted granted Critical
Publication of CN111866467B publication Critical patent/CN111866467B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明实施例提供了一种监控视频的三维覆盖空间确定方法、装置及存储介质。所述方法包括:获取三维场景内已标定的虚拟相机的虚拟相机参数,并获取所述虚拟相机对应的实体相机的视频流的分辨率;根据所述虚拟相机参数和所述分辨率确定所述实体相机的视频画面的多个顶点在相机坐标系下的坐标,并将所述多个顶点在所述相机坐标系下的坐标转换为所述多个顶点在世界坐标系下的坐标;根据所述虚拟相机参数和所述多个顶点在所述世界坐标系下的坐标,确定所述虚拟相机在所述三维场景内的覆盖空间。通过本发明,解决了无法准确确定摄像机监控视频的三维覆盖空间的问题。

Description

监控视频的三维覆盖空间确定方法、装置及存储介质
技术领域
本发明实施例涉及三维监控技术领域,具体而言,涉及一种监控视频的三维覆盖空间确定方法、装置及存储介质。
背景技术
现阶段视频监控已经应用在大街小巷,对社会安全的促进起到了极大的作用。而清晰地掌握视频监控的覆盖空间将有利于整个监控场景内摄像机的布置,做到最大限度的监控资源利用及场景的最大覆盖。
现阶段视频监控领域主要以二维视频为主,主要通过辨识视频画面的具体内容来近似判断摄像机的覆盖空间。由于二维监控视频是平面的,很难显示出整个监控摄像机视野范围的三维立体空间。
各个摄像机的监控视频只有局部视角,很难通过二维监控视频准确判断出各个摄像机在场景内的覆盖范围,这样就会造成摄像机资源的浪费,更会造成监控死角的出现。
因此,如何准确确定摄像机监控视频的三维覆盖空间,是目前亟待解决的问题。
发明内容
本发明实施例提供了一种监控视频的三维覆盖空间确定方法、装置及存储介质,以至少解决相关技术中无法准确确定摄像机监控视频的三维覆盖空间的问题。
根据本发明的一个实施例,提供了一种监控视频的三维覆盖空间确定方法,包括:获取三维场景内已标定的虚拟相机的虚拟相机参数,并获取所述虚拟相机对应的实体相机的视频流的分辨率;根据所述虚拟相机参数和所述分辨率确定所述实体相机的视频画面的多个顶点在相机坐标系下的坐标,并将所述多个顶点在所述相机坐标系下的坐标转换为所述多个顶点在世界坐标系下的坐标;根据所述虚拟相机参数和所述多个顶点在所述世界坐标系下的坐标,确定所述虚拟相机在所述三维场景内的覆盖空间。
在至少一个示例性实施例中,根据所述虚拟相机参数和所述分辨率确定所述实体相机的视频画面的多个顶点在相机坐标系下的坐标包括:根据所述虚拟相机参数和所述分辨率计算相机坐标系的等效焦距;根据所述等效焦距将所述视频画面的多个顶点在图像坐标系下的坐标转换为所述多个顶点在所述相机坐标系下的坐标。
在至少一个示例性实施例中,所述虚拟相机参数包括所述虚拟相机的视场角fovy,所述分辨率包括分辨率的高度信息height,根据所述虚拟相机参数和所述分辨率计算相机坐标系的等效焦距包括:计算所述相机坐标系的等效焦距fy=(height/2.0)/tan(fovy*0.5)。
在至少一个示例性实施例中,根据所述等效焦距将所述视频画面的多个顶点在图像坐标系下的坐标转换为所述多个顶点在所述相机坐标系下的坐标包括:对于所述多个顶点中的每个顶点,根据所述等效焦距fy和所述顶点在所述图像坐标系下的二维坐标(u,v),分别确定所述图像坐标系的x方向的夹角正切值tan_x=(u–center_u)/fy和y方向的夹角正切值tan_y=(v–center_v)/fy,其中,u和v分别为所述顶点在所述图像坐标系下x方向和y方向的坐标,center_u和center_v分别为所述图像坐标系下x方向和y方向的中心点坐标;确定所述顶点在所述相机坐标系下三维坐标p,其中,所述相机坐标系下z方向的坐标p.z=Far,x方向的坐标p.x=Far*tan_x,y方向的坐标p.y=Far*tan_y,其中,Far为所述虚拟相机对称透视视景体的可视最远距离。
在至少一个示例性实施例中,将所述多个顶点在所述相机坐标系下的坐标转换为所述多个顶点在世界坐标系下的坐标包括:根据所述虚拟相机参数计算所述虚拟相机的观察矩阵的逆矩阵;对于所述多个顶点中的每个顶点,根据所述观察矩阵的逆矩阵将所述顶点在所述相机坐标系下的坐标转换为所述顶点在所述世界坐标系下的坐标。
在至少一个示例性实施例中,所述虚拟相机参数包括所述虚拟相机的视点在世界坐标系下的坐标eye,以及姿态角,所述姿态角包括俯仰角pitch、偏航角yaw和侧滚角roll,根据所述虚拟相机参数计算所述虚拟相机的观察矩阵的逆矩阵包括:确定旋转矩阵Rotate和平移矩阵Translate,其中,Rotate=Matrix(pitch*yaw*roll),Translate=Matrix(eye),Matrix()代表矩阵求解;计算所述观察矩阵的逆矩阵ViewMatrixInvert=Rotate*Translate。
在至少一个示例性实施例中,根据所述观察矩阵的逆矩阵将所述顶点在所述相机坐标系下的坐标转换为所述顶点在所述世界坐标系下的坐标包括:根据所述观察矩阵的逆矩阵ViewMatrixInvert确定所述顶点在所述世界坐标系下的坐标WorldPoint=p*ViewMatrixInvert,其中,p为所述顶点在所述相机坐标系下的坐标。
在至少一个示例性实施例中,所述虚拟相机参数包括所述虚拟相机的视点在世界坐标系下的坐标,根据所述虚拟相机参数和所述多个顶点在所述世界坐标系下的坐标,确定所述虚拟相机在所述三维场景内的覆盖空间包括:基于所述虚拟相机的所述视点在所述世界坐标系下的坐标和所述多个顶点在所述世界坐标系下的坐标绘制几何体,并将所述几何体确定为所述虚拟相机在所述三维场景内的所述覆盖空间。
在至少一个示例性实施例中,根据所述虚拟相机参数和所述多个顶点在所述世界坐标系下的坐标,确定所述虚拟相机在所述三维场景内的覆盖空间之后,所述方法还包括:在所述三维场景内使用三维渲染引擎绘制出所述几何体作为所述虚拟相机在所述三维场景内的所述覆盖空间的可视化效果。
根据本发明的另一个实施例,提供了一种监控视频的三维覆盖空间确定装置,包括:参数获取模块,设置为获取三维场景内已标定的虚拟相机的虚拟相机参数,并获取所述虚拟相机对应的实体相机的视频流的分辨率;坐标转换模块,设置为根据所述虚拟相机参数和所述分辨率确定所述实体相机的视频画面的多个顶点在相机坐标系下的坐标,并将所述多个顶点在所述相机坐标系下的坐标转换为所述多个顶点在世界坐标系下的坐标;覆盖空间确定模块,设置为根据所述虚拟相机参数和所述多个顶点在所述世界坐标系下的坐标,确定所述虚拟相机在所述三维场景内的覆盖空间。
根据本发明的又一个实施例,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
根据本发明的又一个实施例,还提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述任一项方法实施例中的步骤。
通过本发明,由于根据虚拟相机参数和分辨率确定实体相机的视频画面的多个顶点在相机坐标系下的坐标,并将所述多个顶点在所述相机坐标系下的坐标转换为所述多个顶点在世界坐标系下的坐标,从而能够根据所述虚拟相机参数和所述多个顶点在所述世界坐标系下的坐标,确定所述虚拟相机在所述三维场景内的覆盖空间,因此,可以解决无法准确确定摄像机监控视频的三维覆盖空间的问题,实现了三维覆盖空间的准确确定,为基于覆盖空间的多种技术应用提供良好的先决条件。
附图说明
图1是根据本发明实施例的监控视频的三维覆盖空间确定方法的流程图;
图2是根据本发明实施例的监控视频的三维覆盖空间确定方法的示例性流程图;
图3是根据本发明实施例的监控视频的三维覆盖空间确定装置的结构框图;
图4是根据本发明实施例的监控视频的三维覆盖空间确定装置的示例性流程图;
图5是根据本发明实施例的虚拟相机的视景体的示意图;
图6是根据本发明实施例的视景体绘制的流程图。
具体实施方式
相关技术中,往往只能够基于监控视频的视频纹理大体判断监控覆盖范围,无法准确确定并直观立体地显示出摄像机监控视频的三维覆盖空间。此外,当多个摄像头的覆盖空间存在重叠区域时,往往无法准确判断监控区域隶属的摄像头。
为了克服上述问题,本发明实施例能够准确确定三维覆盖空间,在某些示例性实施例中还能够进一步在三维虚拟监控场景内直观立体地显示出真实场景的监控视频的覆盖空间,从而让用户清晰直观地辨识出真实场景下摄像机监控视频的覆盖范围。
下文中将参考附图并结合实施例来详细说明本发明的实施例。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
本申请实施例中所提供的方法实施例可以在任意具有计算处理能力的电子装置中执行,包括但不限于终端设备、个人电脑、服务器、监控视频处理平台等等。
图1是根据本发明实施例的监控视频的三维覆盖空间确定方法的流程图,如图1所示,该流程包括如下步骤S102至S106。
步骤S102,获取三维场景内已标定的虚拟相机的虚拟相机参数,并获取所述虚拟相机对应的实体相机的视频流的分辨率。
在至少一个示例性实施例中,所述虚拟相机参数可以包括所述虚拟相机的位置参数和角度参数,其中,所述虚拟相机的位置参数可以包括所述虚拟相机的视点在世界坐标系下的坐标eye,所述虚拟相机的角度参数可以包括视场角fovy和姿态角,其中,所述姿态角包括俯仰角pitch、偏航角yaw和侧滚角roll。
本步骤S102中获取三维场景内已标定的虚拟相机的虚拟相机参数,以及获取所述虚拟相机对应的实体相机的视频流的分辨率是各自独立的获取过程,二者之间的顺序是随意指定,本发明实施例对此不做限定。
步骤S104,根据所述虚拟相机参数和所述分辨率确定所述实体相机的视频画面的多个顶点在相机坐标系下的坐标,并将所述多个顶点在所述相机坐标系下的坐标转换为所述多个顶点在世界坐标系下的坐标。
在至少一个示例性实施例中,根据所述虚拟相机参数和所述分辨率确定所述实体相机的视频画面的多个顶点在相机坐标系下的坐标可以包括以下操作S104-1和S104-2。
步骤S104-1,根据所述虚拟相机参数和所述分辨率计算相机坐标系的等效焦距。
在至少一个示例性实施例中,所述虚拟相机参数包括所述虚拟相机的视场角fovy,所述分辨率包括分辨率的高度信息height,步骤S104-1可以包括:计算所述相机坐标系的等效焦距fy=(height/2.0)/tan(fovy*0.5)。
步骤S104-2,根据所述等效焦距将所述视频画面的多个顶点在图像坐标系下的坐标转换为所述多个顶点在所述相机坐标系下的坐标。
在至少一个示例性实施例中,步骤S104-2可以包括:
对于所述多个顶点中的每个顶点,
根据所述等效焦距fy和所述顶点在所述图像坐标系下的二维坐标(u,v),分别确定所述图像坐标系的x方向的夹角正切值tan_x=(u–center_u)/fy和y方向的夹角正切值tan_y=(v–center_v)/fy,其中,u和v分别为所述顶点在所述图像坐标系下x方向和y方向的坐标,center_u和center_v分别为所述图像坐标系下x方向和y方向的中心点坐标;
确定所述顶点在所述相机坐标系下三维坐标p,其中,所述相机坐标系下z方向的坐标p.z=Far,x方向的坐标p.x=Far*tan_x,y方向的坐标p.y=Far*tan_y,其中,Far为所述虚拟相机对称透视视景体的可视最远距离。
在至少一个示例性实施例中,将所述多个顶点在所述相机坐标系下的坐标转换为所述多个顶点在世界坐标系下的坐标可以包括以下操作S104-3和S104-4。
步骤S104-3,根据所述虚拟相机参数计算所述虚拟相机的观察矩阵的逆矩阵。
在至少一个示例性实施例中,所述虚拟相机参数包括所述虚拟相机的视点在世界坐标系下的坐标eye,以及姿态角,所述姿态角包括俯仰角pitch、偏航角yaw和侧滚角roll,步骤S104-3可以包括:确定旋转矩阵Rotate和平移矩阵Translate,其中,Rotate=Matrix(pitch*yaw*roll),Translate=Matrix(eye),Matrix()代表矩阵求解;计算所述观察矩阵的逆矩阵ViewMatrixInvert=Rotate*Translate。
步骤S104-4,对于所述多个顶点中的每个顶点,根据所述观察矩阵的逆矩阵将所述顶点在所述相机坐标系下的坐标转换为所述顶点在所述世界坐标系下的坐标。
需要注意的是,步骤S104-4基于步骤S104-2的所述顶点在所述相机坐标系下的坐标的确定结果,但是步骤S104-3却并不依赖于这样的结果,因此,步骤S104-3与步骤S104-1和S104-2之间并无执行先后的制约。
在至少一个示例性实施例中,步骤S104-4可以包括:根据所述观察矩阵的逆矩阵ViewMatrixInvert确定所述顶点在所述世界坐标系下的坐标WorldPoint=p*ViewMatrixInvert,其中,p为所述顶点在所述相机坐标系下的坐标。
步骤S106,根据所述虚拟相机参数和所述多个顶点在所述世界坐标系下的坐标,确定所述虚拟相机在所述三维场景内的覆盖空间。
在至少一个示例性实施例中,所述虚拟相机参数包括所述虚拟相机的视点在世界坐标系下的坐标,步骤S106可以包括:
基于所述虚拟相机的所述视点在所述世界坐标系下的坐标和所述多个顶点在所述世界坐标系下的坐标绘制几何体,并将所述几何体确定为所述虚拟相机在所述三维场景内的所述覆盖空间。
图2是根据本发明实施例的监控视频的三维覆盖空间确定方法的示例性流程图,如图2所示,在至少一个示例性实施例中,步骤S106之后,所述方法还可以包括:
步骤S202,在所述三维场景内使用三维渲染引擎绘制出所述几何体作为所述虚拟相机在所述三维场景内的所述覆盖空间的可视化效果。
在至少一个示例性实施例中,步骤S202可以包括以下操作:
在所述三维场景内使用三维渲染引擎绘制以所述虚拟相机的所述视点在所述世界坐标系下的坐标为顶点、以所述多个顶点在所述世界坐标系下的坐标构成的几何图形为底面的几何体,作为所述虚拟相机在所述三维场景内的所述覆盖空间的可视化效果。
在至少一个示例性实施例中,所述实体相机的视频画面可以具有四个顶点,则步骤S202可以包括以下操作:
在所述三维场景内使用三维渲染引擎绘制以所述虚拟相机的所述视点在所述世界坐标系下的坐标为顶点、以所述四个顶点在所述世界坐标系下的坐标构成的四边形为底面的四棱锥体,作为所述虚拟相机在所述三维场景内的所述覆盖空间的可视化效果。
通过上述步骤,由于根据虚拟相机参数和分辨率确定实体相机的视频画面的多个顶点在相机坐标系下的坐标,并将所述多个顶点在所述相机坐标系下的坐标转换为所述多个顶点在世界坐标系下的坐标,从而能够根据所述虚拟相机参数和所述多个顶点在所述世界坐标系下的坐标,确定所述虚拟相机在所述三维场景内的覆盖空间,因此,可以解决无法准确确定摄像机监控视频的三维覆盖空间的问题,实现了三维覆盖空间的准确确定,为基于覆盖空间的多种技术应用提供良好的先决条件。
其中,本发明实施例的各个步骤的执行主体可以为任意具有计算处理能力的电子装置,包括但不限于终端设备、个人电脑、服务器、监控视频处理平台等等,但不限于此。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
在本实施例中还提供了一种监控视频的三维覆盖空间确定装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图3是根据本发明实施例的监控视频的三维覆盖空间确定装置的结构框图,如图3所示,该装置包括:
参数获取模块32,设置为获取三维场景内已标定的虚拟相机的虚拟相机参数,并获取所述虚拟相机对应的实体相机的视频流的分辨率;
坐标转换模块34,设置为根据所述虚拟相机参数和所述分辨率确定所述实体相机的视频画面的多个顶点在相机坐标系下的坐标,并将所述多个顶点在所述相机坐标系下的坐标转换为所述多个顶点在世界坐标系下的坐标;
覆盖空间确定模块36,设置为根据所述虚拟相机参数和所述多个顶点在所述世界坐标系下的坐标,确定所述虚拟相机在所述三维场景内的覆盖空间。
在至少一个示例性实施例中,所述虚拟相机参数可以包括所述虚拟相机的位置参数和角度参数,其中,所述虚拟相机的位置参数可以包括所述虚拟相机的视点在世界坐标系下的坐标eye,所述虚拟相机的角度参数可以包括视场角fovy和姿态角,其中,所述姿态角包括俯仰角pitch、偏航角yaw和侧滚角roll。
本步骤S102中获取三维场景内已标定的虚拟相机的虚拟相机参数,以及获取所述虚拟相机对应的实体相机的视频流的分辨率是各自独立的获取过程,二者之间的顺序是随意指定,本发明实施例对此不做限定。
在至少一个示例性实施例中,所述坐标转换模块34可以通过执行以下操作根据所述虚拟相机参数和所述分辨率确定所述实体相机的视频画面的多个顶点在相机坐标系下的坐标:
(1)根据所述虚拟相机参数和所述分辨率计算相机坐标系的等效焦距。
在至少一个示例性实施例中,所述虚拟相机参数包括所述虚拟相机的视场角fovy,所述分辨率包括分辨率的高度信息height,该过程可以包括:计算所述相机坐标系的等效焦距fy=(height/2.0)/tan(fovy*0.5)。
(2)根据所述等效焦距将所述视频画面的多个顶点在图像坐标系下的坐标转换为所述多个顶点在所述相机坐标系下的坐标。在至少一个示例性实施例中,该过程可以包括:对于所述多个顶点中的每个顶点,根据所述等效焦距fy和所述顶点在所述图像坐标系下的二维坐标(u,v),分别确定所述图像坐标系的x方向的夹角正切值tan_x=(u–center_u)/fy和y方向的夹角正切值tan_y=(v–center_v)/fy,其中,u和v分别为所述顶点在所述图像坐标系下x方向和y方向的坐标,center_u和center_v分别为所述图像坐标系下x方向和y方向的中心点坐标;确定所述顶点在所述相机坐标系下三维坐标p,其中,所述相机坐标系下z方向的坐标p.z=Far,x方向的坐标p.x=Far*tan_x,y方向的坐标p.y=Far*tan_y,其中,Far为所述虚拟相机对称透视视景体的可视最远距离。
在至少一个示例性实施例中,所述坐标转换模块34可以通过执行以下操作将所述多个顶点在所述相机坐标系下的坐标转换为所述多个顶点在世界坐标系下的坐标:
(1)根据所述虚拟相机参数计算所述虚拟相机的观察矩阵的逆矩阵。
在至少一个示例性实施例中,所述虚拟相机参数包括所述虚拟相机的视点在世界坐标系下的坐标eye,以及姿态角,所述姿态角包括俯仰角pitch、偏航角yaw和侧滚角roll,当前操作可以包括:确定旋转矩阵Rotate和平移矩阵Translate,其中,Rotate=Matrix(pitch*yaw*roll),Translate=Matrix(eye),Matrix()代表矩阵求解;计算所述观察矩阵的逆矩阵ViewMatrixInvert=Rotate*Translate。
(2)对于所述多个顶点中的每个顶点,根据所述观察矩阵的逆矩阵将所述顶点在所述相机坐标系下的坐标转换为所述顶点在所述世界坐标系下的坐标。
在至少一个示例性实施例中,当前操作可以包括:根据所述观察矩阵的逆矩阵ViewMatrixInvert确定所述顶点在所述世界坐标系下的坐标WorldPoint=p*ViewMatrixInvert,其中,p为所述顶点在所述相机坐标系下的坐标。
在至少一个示例性实施例中,所述虚拟相机参数包括所述虚拟相机的视点在世界坐标系下的坐标,所述覆盖空间确定模块36可以设置为:基于所述虚拟相机的所述视点在所述世界坐标系下的坐标和所述多个顶点在所述世界坐标系下的坐标绘制几何体,并将所述几何体确定为所述虚拟相机在所述三维场景内的所述覆盖空间。
图4是根据本发明实施例的监控视频的三维覆盖空间确定装置的示例性流程图,如图4所示,在至少一个示例性实施例中,在图3所示的模块的基础上,所述装置还可以包括:
覆盖空间绘制模块42,在所述三维场景内使用三维渲染引擎绘制出所述几何体作为所述虚拟相机在所述三维场景内的所述覆盖空间的可视化效果。
在至少一个示例性实施例中,所述覆盖空间绘制模块42可以设置为:在所述三维场景内使用三维渲染引擎绘制以所述虚拟相机的所述视点在所述世界坐标系下的坐标为顶点、以所述多个顶点在所述世界坐标系下的坐标构成的几何图形为底面的几何体,作为所述虚拟相机在所述三维场景内的所述覆盖空间的可视化效果。
在至少一个示例性实施例中,所述实体相机的视频画面可以具有四个顶点,则所述覆盖空间绘制模块42可以设置为执行以下操作:在所述三维场景内使用三维渲染引擎绘制以所述虚拟相机的所述视点在所述世界坐标系下的坐标为顶点、以所述四个顶点在所述世界坐标系下的坐标构成的四边形为底面的四棱锥体,作为所述虚拟相机在所述三维场景内的所述覆盖空间的可视化效果。
通过上述装置,由于根据虚拟相机参数和分辨率确定实体相机的视频画面的多个顶点在相机坐标系下的坐标,并将所述多个顶点在所述相机坐标系下的坐标转换为所述多个顶点在世界坐标系下的坐标,从而能够根据所述虚拟相机参数和所述多个顶点在所述世界坐标系下的坐标,确定所述虚拟相机在所述三维场景内的覆盖空间,因此,可以解决无法准确确定摄像机监控视频的三维覆盖空间的问题,实现了三维覆盖空间的准确确定,为基于覆盖空间的多种技术应用提供良好的先决条件。
其中,本发明实施例的装置可以设置于任意具有计算处理能力的电子装置,包括但不限于终端设备、个人电脑、服务器、监控视频处理平台等等,但不限于此。
需要说明的是,上述各个模块是可以通过软件或硬件来实现的,对于后者,可以通过以下方式实现,但不限于此:上述模块均位于同一处理器中;或者,上述各个模块以任意组合的形式分别位于不同的处理器中。
本发明的实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
在本实施例中,上述计算机可读存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,获取三维场景内已标定的虚拟相机的虚拟相机参数,并获取所述虚拟相机对应的实体相机的视频流的分辨率;
S2,根据所述虚拟相机参数和所述分辨率确定所述实体相机的视频画面的多个顶点在相机坐标系下的坐标,并将所述多个顶点在所述相机坐标系下的坐标转换为所述多个顶点在世界坐标系下的坐标;
S3,根据所述虚拟相机参数和所述多个顶点在所述世界坐标系下的坐标,确定所述虚拟相机在所述三维场景内的覆盖空间。
计算机可读存储介质还被设置为存储用于执行以下步骤的计算机程序:在所述三维场景内使用三维渲染引擎绘制出所述几何体作为所述虚拟相机在所述三维场景内的所述覆盖空间的可视化效果。
在一个示例性实施例中,上述计算机可读存储介质可以包括但不限于:U盘、只读存储器(Read-Only Memory,简称为ROM)、随机存取存储器(Random Access Memory,简称为RAM)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。
本发明的实施例还提供了一种电子装置,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。
在一个示例性实施例中,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
在一个示例性实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,获取三维场景内已标定的虚拟相机的虚拟相机参数,并获取所述虚拟相机对应的实体相机的视频流的分辨率;
S2,根据所述虚拟相机参数和所述分辨率确定所述实体相机的视频画面的多个顶点在相机坐标系下的坐标,并将所述多个顶点在所述相机坐标系下的坐标转换为所述多个顶点在世界坐标系下的坐标;
S3,根据所述虚拟相机参数和所述多个顶点在所述世界坐标系下的坐标,确定所述虚拟相机在所述三维场景内的覆盖空间。
本实施例中的具体示例可以参考上述实施例及示例性实施方式中所描述的示例,本实施例在此不再赘述。
以下通过示例性实施例详细描述监控视频的三维覆盖空间确定方案,以及三维监控视频覆盖空间显示方法。
三维虚拟场景内的虚拟相机和真实场景内的监控设备具有映射关系,是真实场景的客观反映,实际使用中可通过在三维虚拟场景内进行标定的方式注册虚拟相机,表现出真实场景内摄像机的位置、安装高度及角度等信息。而真实场景内想要获得监控设备的覆盖空间只能通过二维视频的画面内容进行辨识,由于二维监控视频是平面的,很难显示出整个监控摄像机视野范围的的三维立体空间。
虚拟相机在三维虚拟场景内的覆盖空间即为虚拟相机的视景体,在三维场景内绘制出该视景体即可立体直观地表示出真实场景内监控相机的覆盖空间。图5是根据本发明实施例的虚拟相机的视景体的示意图。
图6是根据本发明实施例的视景体绘制的流程图,如图6所示,该方法包括如下步骤:
步骤S601,获取标定好的三维场景内虚拟相机的参数,包括位置、角度,其中角度包括姿态角、视场角,再获取虚拟相机对应的真实场景相机的视频流的分辨率大小。
步骤S602,将摄像机监控视频画面的四个顶点在图像坐标系下的坐标经过坐标转换得出四个顶点在世界坐标系下的坐标,转换过程为:
(1)求出旋转矩阵:
Rotate=Matrix(pitch*yaw*roll),其中Rotate代表旋转矩阵,Matrix代表矩阵求解,pitch,yaw,roll分别为虚拟相机姿态角的俯仰角、偏航角、侧滚角;
(2)求出平移矩阵:
Translate=Matrix(eye),其中Translate代表平移矩阵,eye代表虚拟相机视点的世界坐标位置;
(3)求出虚拟相机的观察矩阵的逆矩阵:
ViewMatrixInvert=Rotate*Translate,其中ViewMatrixInvert代表虚拟相机的观察矩阵的逆矩阵;
(4)根据小孔成像原理,将图像坐标系下的坐标转换到相机坐标系:
首先,根据视场角(fovy)和监控视频分辨率的高(height)计算出相机坐标系的等效焦距大小:fy=(height/2.0)/tan(fovy*0.5);
然后,计算出x方向和y方向的夹角正切值:
tan_x=(u–center_u)/fy;
tan_y=(v–center_v)/fy;
其中,u,v代表图像坐标系下x方向和y方向的目标点坐标,center_u和center_v代表x方向和y方向的中心点坐标;
最后,求得相机坐标系下的坐标点p:
p.z=Far;
p.x=Far*tan_x;
p.y=Far*tan_y;
其中,Far为虚拟相机对称透视视景体的可视最远距离。
(5)求出监控视频四个顶点在世界坐标系下的坐标:
WorldPoint=p*ViewMatrixInvert
步骤S603,根据虚拟相机的位置和监控视频四个顶点在三维场景内的三维坐标,使用三维渲染引擎如:OSG、OpenGL等,绘制出半透明的几何体,以虚拟相机的位置为顶点,和其中的两个点顺序绘制出四个三角面几何体,组合为四棱锥,即为虚拟相机在场景内的覆盖空间。
本发明实施例的方案实现了二维监控视频顶点坐标转换到三维场景内的坐标转换,并进一步实现了三维监控视频覆盖空间的显示,该方案具有以下优点:
在三维监控虚拟场景内可以直观立体地显示出真实场景内监控视频的覆盖空间,从而让用户清晰直观地辨识出摄像机监控视频的覆盖范围;
可以事先通过设置虚拟参数绘制三维监控虚拟场景内的覆盖空间来指导真实场景内摄像机的安装工作,做到最大限度的摄像机资源利用及场景的最大覆盖,避免监控死角的出现。
通过三维的覆盖空间可以更加直观立体的表现出摄像机的位置、安装高度及角度等信息。
可以通过三维的监控覆盖空间清晰地辨别出监控区域隶属的摄像机,避免通过二维视频内容查找相机列表进而确定摄像机的繁琐。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (12)

1.一种监控视频的三维覆盖空间确定方法,其特征在于,包括:
获取三维场景内已标定的虚拟相机的虚拟相机参数,并获取所述虚拟相机对应的实体相机的视频流的分辨率;
根据所述虚拟相机参数和所述分辨率确定所述实体相机的视频画面的多个顶点在相机坐标系下的坐标,并将所述多个顶点在所述相机坐标系下的坐标转换为所述多个顶点在世界坐标系下的坐标;
根据所述虚拟相机参数和所述多个顶点在所述世界坐标系下的坐标,确定所述虚拟相机在所述三维场景内的覆盖空间。
2.根据权利要求1所述的方法,其特征在于,根据所述虚拟相机参数和所述分辨率确定所述实体相机的视频画面的多个顶点在相机坐标系下的坐标包括:
根据所述虚拟相机参数和所述分辨率计算相机坐标系的等效焦距;
根据所述等效焦距将所述视频画面的多个顶点在图像坐标系下的坐标转换为所述多个顶点在所述相机坐标系下的坐标。
3.根据权利要求2所述的方法,其特征在于,所述虚拟相机参数包括所述虚拟相机的视场角fovy,所述分辨率包括分辨率的高度信息height,根据所述虚拟相机参数和所述分辨率计算相机坐标系的等效焦距包括:
计算所述相机坐标系的所述等效焦距fy=(height/2.0)/tan(fovy*0.5)。
4.根据权利要求2所述的方法,其特征在于,根据所述等效焦距将所述视频画面的多个顶点在图像坐标系下的坐标转换为所述多个顶点在所述相机坐标系下的坐标包括:
对于所述多个顶点中的每个顶点,
根据所述等效焦距fy和所述顶点在所述图像坐标系下的二维坐标(u,v),分别确定所述图像坐标系的x方向的夹角正切值tan_x=(u–center_u)/fy和y方向的夹角正切值tan_y=(v–center_v)/fy,其中,u和v分别为所述顶点在所述图像坐标系下x方向和y方向的坐标,center_u和center_v分别为所述图像坐标系下x方向和y方向的中心点坐标;
确定所述顶点在所述相机坐标系下三维坐标p,其中,所述相机坐标系下z方向的坐标p.z=Far,x方向的坐标p.x=Far*tan_x,y方向的坐标p.y=Far*tan_y,其中,Far为所述虚拟相机对称透视视景体的可视最远距离。
5.根据权利要求1所述的方法,其特征在于,将所述多个顶点在所述相机坐标系下的坐标转换为所述多个顶点在世界坐标系下的坐标包括:
根据所述虚拟相机参数计算所述虚拟相机的观察矩阵的逆矩阵;
对于所述多个顶点中的每个顶点,根据所述观察矩阵的逆矩阵将所述顶点在所述相机坐标系下的坐标转换为所述顶点在所述世界坐标系下的坐标。
6.根据权利要求5所述的方法,其特征在于,所述虚拟相机参数包括所述虚拟相机的视点在世界坐标系下的坐标eye,以及姿态角,所述姿态角包括俯仰角pitch、偏航角yaw和侧滚角roll,根据所述虚拟相机参数计算所述虚拟相机的观察矩阵的逆矩阵包括:
确定旋转矩阵Rotate和平移矩阵Translate,其中,Rotate=Matrix(pitch*yaw*roll),Translate=Matrix(eye),Matrix()代表矩阵求解;
计算所述观察矩阵的逆矩阵ViewMatrixInvert=Rotate*Translate。
7.根据权利要求5所述的方法,其特征在于,根据所述观察矩阵的逆矩阵将所述顶点在所述相机坐标系下的坐标转换为所述顶点在所述世界坐标系下的坐标包括:
根据所述观察矩阵的逆矩阵ViewMatrixInvert确定所述顶点在所述世界坐标系下的坐标WorldPoint=p*ViewMatrixInvert,其中,p为所述顶点在所述相机坐标系下的坐标。
8.根据权利要求1-7中任一项所述的方法,其特征在于,所述虚拟相机参数包括所述虚拟相机的视点在世界坐标系下的坐标,根据所述虚拟相机参数和所述多个顶点在所述世界坐标系下的坐标,确定所述虚拟相机在所述三维场景内的覆盖空间包括:
基于所述虚拟相机的所述视点在所述世界坐标系下的坐标和所述多个顶点在所述世界坐标系下的坐标形成几何体,并将所述几何体确定为所述虚拟相机在所述三维场景内的所述覆盖空间。
9.根据权利要求8所述的方法,其特征在于,根据所述虚拟相机参数和所述多个顶点在所述世界坐标系下的坐标,确定所述虚拟相机在所述三维场景内的覆盖空间之后,还包括:
在所述三维场景内使用三维渲染引擎绘制出所述几何体作为所述虚拟相机在所述三维场景内的所述覆盖空间的可视化效果。
10.一种监控视频的三维覆盖空间确定装置,其特征在于,包括:
参数获取模块,设置为获取三维场景内已标定的虚拟相机的虚拟相机参数,并获取所述虚拟相机对应的实体相机的视频流的分辨率;
坐标转换模块,设置为根据所述虚拟相机参数和所述分辨率确定所述实体相机的视频画面的多个顶点在相机坐标系下的坐标,并将所述多个顶点在所述相机坐标系下的坐标转换为所述多个顶点在世界坐标系下的坐标;
覆盖空间确定模块,设置为根据所述虚拟相机参数和所述多个顶点在所述世界坐标系下的坐标,确定所述虚拟相机在所述三维场景内的覆盖空间。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行所述权利要求1至9任一项中所述的方法。
12.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行所述权利要求1至9任一项中所述的方法。
CN202010746350.8A 2020-07-29 2020-07-29 监控视频的三维覆盖空间确定方法、装置及存储介质 Active CN111866467B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010746350.8A CN111866467B (zh) 2020-07-29 2020-07-29 监控视频的三维覆盖空间确定方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010746350.8A CN111866467B (zh) 2020-07-29 2020-07-29 监控视频的三维覆盖空间确定方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN111866467A true CN111866467A (zh) 2020-10-30
CN111866467B CN111866467B (zh) 2022-12-06

Family

ID=72945009

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010746350.8A Active CN111866467B (zh) 2020-07-29 2020-07-29 监控视频的三维覆盖空间确定方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN111866467B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112446926A (zh) * 2020-12-14 2021-03-05 北京易达恩能科技有限公司 一种激光雷达与多目鱼眼相机的相对位置标定方法及装置
CN113643350A (zh) * 2021-07-21 2021-11-12 宜宾中星技术智能系统有限公司 在视频画面上进行立体测量的方法、装置、终端设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102436676A (zh) * 2011-09-27 2012-05-02 夏东 一种智能视频监控的三维重建方法
CN103795976A (zh) * 2013-12-30 2014-05-14 北京正安融翰技术有限公司 一种全时空立体可视化方法
CN103824277A (zh) * 2013-11-29 2014-05-28 广东电网公司电力科学研究院 基于非线性参数优化标定的变电站三维实景监测布点方法
US20140160251A1 (en) * 2012-12-12 2014-06-12 Verint Systems Ltd. Live streaming video over 3d
CN108804061A (zh) * 2017-05-05 2018-11-13 上海盟云移软网络科技股份有限公司 虚拟现实系统的虚拟场景显示方法
CN110675482A (zh) * 2019-08-28 2020-01-10 长春理工大学 虚拟三维场景的球面斐波那契像素点阵全景画面渲染与显示方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102436676A (zh) * 2011-09-27 2012-05-02 夏东 一种智能视频监控的三维重建方法
US20140160251A1 (en) * 2012-12-12 2014-06-12 Verint Systems Ltd. Live streaming video over 3d
CN103824277A (zh) * 2013-11-29 2014-05-28 广东电网公司电力科学研究院 基于非线性参数优化标定的变电站三维实景监测布点方法
CN103795976A (zh) * 2013-12-30 2014-05-14 北京正安融翰技术有限公司 一种全时空立体可视化方法
CN108804061A (zh) * 2017-05-05 2018-11-13 上海盟云移软网络科技股份有限公司 虚拟现实系统的虚拟场景显示方法
CN110675482A (zh) * 2019-08-28 2020-01-10 长春理工大学 虚拟三维场景的球面斐波那契像素点阵全景画面渲染与显示方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JIANGXING11: "《三维视觉基础之世界坐标系、相机坐标系、图像坐标系和像素坐标系之间的转换关系》", 《CSDN》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112446926A (zh) * 2020-12-14 2021-03-05 北京易达恩能科技有限公司 一种激光雷达与多目鱼眼相机的相对位置标定方法及装置
CN113643350A (zh) * 2021-07-21 2021-11-12 宜宾中星技术智能系统有限公司 在视频画面上进行立体测量的方法、装置、终端设备
CN113643350B (zh) * 2021-07-21 2023-09-12 宜宾中星技术智能系统有限公司 在视频画面上进行立体测量的方法、装置、终端设备

Also Published As

Publication number Publication date
CN111866467B (zh) 2022-12-06

Similar Documents

Publication Publication Date Title
KR100443552B1 (ko) 가상 현실 구현 시스템 및 방법
CN106530218B (zh) 一种坐标转换方法及装置
CN110349195B (zh) 一种基于深度图像的目标物体3d测量参数获取方法、系统和存储介质
US20050265619A1 (en) Image providing method and device
JP3391405B2 (ja) カメラ映像内の物体同定方法
JP2022522279A (ja) 優先点を識別して保持する点群の併合方法
CN114329747B (zh) 一种面向建筑数字孪生的虚实实体坐标映射方法及系统
CN111866467B (zh) 监控视频的三维覆盖空间确定方法、装置及存储介质
CN108362205B (zh) 基于条纹投影的空间测距方法
Olesen et al. Real-time extraction of surface patches with associated uncertainties by means of kinect cameras
CN112686877A (zh) 基于双目相机的三维房屋损伤模型构建测量方法及系统
CN113643414B (zh) 一种三维图像生成方法、装置、电子设备及存储介质
CN110827392A (zh) 具好的场景易用性的单目图像三维重建方法、系统及装置
CN112598789A (zh) 图像纹理重建方法、装置、设备及存储介质
CN113870430A (zh) 一种工件数据处理方法和装置
TWI716874B (zh) 影像處理裝置、影像處理方法、及影像處理程式
CN113793392A (zh) 一种相机参数标定方法及装置
JP7432793B1 (ja) 三次元点群に基づくマッピング方法、装置、チップ及びモジュール機器
CN112802208B (zh) 一种航站楼内三维可视化方法及装置
CN114037987A (zh) 一种废钢智能识别方法、装置、介质及设备
CN116469101A (zh) 数据标注方法、装置、电子设备及存储介质
CN115982824A (zh) 施工现场工人空间管理方法、装置、电子设备及存储介质
CN110300991A (zh) 表面图形确定方法和装置
CN108921908B (zh) 表面光场的采集方法、装置及电子设备
CN111445574A (zh) 一种视频监控设备布控方法、装置及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant