CN112365397A - 一种二维视频信息与三维地理信息融合的方法 - Google Patents
一种二维视频信息与三维地理信息融合的方法 Download PDFInfo
- Publication number
- CN112365397A CN112365397A CN202011309715.7A CN202011309715A CN112365397A CN 112365397 A CN112365397 A CN 112365397A CN 202011309715 A CN202011309715 A CN 202011309715A CN 112365397 A CN112365397 A CN 112365397A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- camera
- video information
- information
- dimensional video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000013507 mapping Methods 0.000 claims abstract description 34
- 230000000007 visual effect Effects 0.000 claims abstract description 30
- 230000004927 fusion Effects 0.000 claims abstract description 21
- 239000011159 matrix material Substances 0.000 claims description 45
- 238000009877 rendering Methods 0.000 claims description 25
- 230000001131 transforming effect Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 9
- 238000005516 engineering process Methods 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 230000001427 coherent effect Effects 0.000 abstract description 3
- 238000012544 monitoring process Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/08—Projecting images onto non-planar surfaces, e.g. geodetic screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Remote Sensing (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
本发明涉及一种二维视频信息与三维地理信息融合的方法,对于目标观察点区域,二维视频信息通过多角度的多个摄像头拍摄来获得,利用摄像头的参数构建视椎体来表示二维视频信息的可视范围,包括如下步骤:1、获得每个摄像头拍摄的二维视频信息,求解每个单独摄像头的覆盖区域;2、融合多个摄像头的覆盖区域,获得融合后的二维视频信息;3、对融合后的二维视频信息进行优化处理,剪裁掉不在目标观察点区域内的二维数据信息;4、将优化处理后的二维视频信息映射到三维地图信息中;5、进行二维视频信息的时时更新和映射,实现二维视频和三维地理信息的实时融合。本发明实现了将动态连贯的场景完整映射到三维地图中,从而提升了三维地图的连贯性和精确度。
Description
技术领域
本发明属于地理信息系统技术领域,具体涉及一种二维视频信息与三维地理信息融合的方法。
背景技术
三维地理信息具有视野广阔和可以从任意视角观察的优点,但是实时性较差,随着地形的变化和城市的建设需要定期更新地理信息,不能动态地展示当前的地理信息,比如近期新增的建筑、设施、道路等。二维视频信息的优点是可以实时观测现场情况,可以捕捉地形的动态变化信息,但是视频数据是较为分散的,无法直观的反应当前画面和空间的对应关系,容易造成信息的遗漏,不利于从宏观把控整个地理空间的动态信息。将二维视频信息和三维地理信息相结合可以发挥二者的优势,在电子地图上实现动态显示当前区域的环境地形情况。电子地图在安全监控、交通指挥、军事行动中都有重要应用,三维信息帮助确定地理位置,二维视频信息帮助确定周边动态环境,二者相结合便可以提供完整的地理信息,可以快速确定自身和目标周边的环境信息。
已有的二维视频与三维地理信息相融合的技术是将二维视频信息简单地嵌入在三维地图之上,未能参考空间位置和信息,只能提供以某点为中心的扇形区域的信息,缺乏地理信息的支持,融合效果差,不能提供较为完整的视野信息,无法在实际中进行应用。
发明内容
本发明的目的在于克服现有技术的不足之处,提供一种二维视频信息与三维地理信息融合的方法,该方法实现将动态连贯的场景完整映射到三维地图中,从而可提升三维地图的连贯性和精确度。
本发明为解决上述技术问题采取的技术方案为:
一种二维视频信息与三维地理信息融合的方法,其特征在于:对于目标观察点区域,二维视频信息通过单个摄像头拍摄来获得,利用摄像头的参数构建视椎体来表示二维视频信息的可视范围,包括如下步骤:
步骤一、获得单个摄像头拍摄的二维视频信息,求解摄像头的覆盖区域;
步骤二、将二维视频信息映射到三维地图信息中;
步骤三、进行二维视频信息的时时更新和映射,实现二维视频和三维地理信息的实时融合。
进一步的:步骤一包括如下步骤:
1.1首先从摄像头A处对目标场景进行渲染,并将生成的深度纹理Z1导入着色器;
1.2然后从目标区域观察点进行渲染,将每个像素点的坐标转换到摄像头A的坐标系中,通过计算得到各像素点的深度值Z2;
1.3比较Z1和Z2,Z1大于Z2部分,则表示该点未被遮挡,采用二维视频信息替换原三维地理信息;Z1不大于Z2部分,则表示该点被遮挡,采用三维地图的原信息。
进一步的:步骤二通过投影纹理映射技术将视频采样点与目标空间的端点进行对应,包括如下步骤:
2.1首先使用模型视图矩阵将目标区域的端点坐标变换到摄像头坐标中去,表达式为:
其中,x0,y0为摄像头坐标系的坐标,X0,Y0,Z0为目标区域的端点坐标,a为摄像机焦距;
2.2再通过相机视图逆矩阵变换为世界坐标系,表达式为:
其中,Mpv为投影视图变换矩阵,R为旋转关系,Tr为平移关系,Vw为世界坐标,Xw、Yw和Zw为世界坐标系下的坐标;
2.3再将世界坐标系经投影视图矩阵变换至投影坐标系中,表达式为:
其中,fu,fv表示图像坐标系u轴和v轴上的尺度因子,s表示倾斜因子,Pp为投影变换矩阵,X为投影横坐标,u0为u轴的坐标,v0为v轴的坐标;
2.4最后经过投影矩阵和归一化处理得到最终的纹理坐标,纹理转换公式如下:
(s,t,r,q)T=N×Pp×Mpv×Vw
式中:
(s,t,r,q)T为纹理坐标;
Pp为投影变换矩阵;
Mpv为投影视图变换矩阵;
Vw为端点在世界坐标系下的坐标;
纹理匹配后,单个摄像头的二维视频信息就可以映射到三维地图中。
进一步的:步骤三具体为:通过求解摄像头覆盖区域和视频信息映射可以在三维地图上得到1帧视频信息,通过回调函数来更新下一帧的纹理数据,当摄像头内外参数发生变化的时候,纹理数据也会随之变化,根据新的纹理数据来计算新的纹理坐标,实现这一帧的映射,持续以上操作,可实现视频和三维地理信息的实时融合。
一种二维视频信息与三维地理信息融合的方法,其特征在于:对于目标观察点区域,二维视频信息通过多角度的多个摄像头拍摄来获得,利用摄像头的参数构建视椎体来表示二维视频信息的可视范围,包括如下步骤:
步骤一、获得每个摄像头拍摄的二维视频信息,求解每个单独摄像头的覆盖区域;
步骤二、融合多个摄像头的覆盖区域,获得融合后的二维视频信息;
步骤三、对融合后的二维视频信息进行优化处理,剪裁掉不在目标观察点区域内的二维数据信息;
步骤四、将优化处理后的二维视频信息映射到三维地图信息中;
步骤五、进行二维视频信息的时时更新和映射,实现二维视频和三维地理信息的实时融合。
进一步的:步骤一包括如下步骤:
1.1首先从摄像头A处对目标场景进行渲染,并将生成的深度纹理Z1导入着色器;
1.2然后从目标区域观察点进行渲染,将每个像素点的坐标转换到摄像头A的坐标系中,通过计算得到各像素点的深度值Z2;
1.3比较Z1和Z2,Z1大于Z2部分,则表示该点未被遮挡,采用二维视频信息替换原三维地理信息;Z1不大于Z2部分,则表示该点被遮挡,采用三维地图的原信息。
进一步的:步骤二具体为:采用多次渲染方法对多摄像头的二维信息进行融合,即一个摄像头的纹理数据渲染之后,下一个摄像头的纹理数据在此基础上继续进行渲染;所有摄像头的数据组保存在计算机数据列表中,列表根据各摄像头的活跃度进行分组,若某个摄像头的数据组被其余摄像头的数据组覆盖,则关闭此摄像头,将此摄像头列入不活跃分组,后续渲染只采集活跃组摄像头的纹理数据。
进一步的:步骤三采用采用八叉树空间索引和对摄像相交区域进行裁剪优化处理,具体包括如下步骤:
3.1先进行摄像头索引
摄像头索引采用八叉树空间索引,将目标空间划分为多个立方体,同一区域若视频属性相同,则该区域被划分到同一立方体中,对属性复杂的区域,对大的立方体进行进一步的划分,得到多个小立方体,通常一个大的立方体会被分割为八块小的立方体,如果小立方体中仍有多重属性,则可以继续划分;
3.2对摄像相交区域进行裁剪
八叉树空间索引构建完备后,根据对目标区域的预设观察点进行筛选,若某一摄像头的视椎体完全不在目标观察点区域内,则对该摄像头的二维数据信息进行裁剪;若某一摄像头的视椎体完全在目标观察点区域内,则保留该摄像头的二维数据信息;若某一摄像头的视椎体有一部分在目标观察点区域内,则先保留该二维摄像头的数据信息,之后再进行进一步裁剪,去除观察点区域外的信息。
进一步的:步骤四通过投影纹理映射技术将视频采样点与目标空间的端点进行对应,包括如下步骤:
4.1首先使用模型视图矩阵将目标区域的端点坐标变换到摄像头坐标中去,表达式为:
其中,x0,y0为摄像头坐标系的坐标,X0,Y0,Z0为目标区域的端点坐标,a为摄像机焦距;
4.2再通过相机视图逆矩阵变换为世界坐标系,表达式为:
其中,Mpv为投影视图变换矩阵,R为旋转关系,Tr为平移关系,Vw为世界坐标,Xw、Yw和Zw为世界坐标系下的坐标;
4.3再将世界坐标系经投影视图矩阵变换至投影坐标系中,表达式为:
其中,fu,fv表示图像坐标系u轴和v轴上的尺度因子,s表示倾斜因子,Pp为投影变换矩阵,X为投影横坐标,u0为u轴的坐标,v0为v轴的坐标;
4.4最后经过投影矩阵和归一化处理得到最终的纹理坐标,纹理转换公式如下:
(s,t,r,q)T=N×Pp×Mpv×Vw
式中:
(s,t,r,q)T为纹理坐标;
Pp为投影变换矩阵;
Mpv为投影视图变换矩阵;
Vw为端点在世界坐标系下的坐标。
纹理匹配后,单个摄像头的二维视频信息就可以映射到三维地图中。
进一步的:步骤五具体为:通过求解摄像头覆盖区域和视频信息映射可以在三维地图上得到1帧视频信息,通过回调函数来更新下一帧的纹理数据,当摄像头内外参数发生变化的时候,纹理数据也会随之变化,根据新的纹理数据来计算新的纹理坐标,实现这一帧的映射,持续以上操作,可实现视频和三维地理信息的实时融合。
本发明具有的优点和积极效果:
1、本发明将摄像头拍摄到的二维视频信息通过投影纹理映射技术映射到三维地图信息中,优点为:可以在电子地图上实时动态显示当前监视区域的环境地形情况。监视目标的相对位置关系更加清晰明确。
2、本发明采用多个角度的摄像头对目标观察点区域进行拍摄,减少了视线盲区,可获得更为准确完整的二维视频信息。
3、本发明采用了二维视频信息的时时更新和映射,保证了动态连贯的场景完整映射到三维地图中,从而提升了三维地图的连贯性和精确度。
4、本发明通过多个摄像头多角度地将目标区域全覆盖,通过视频的融合和裁剪解决了分散和不准确的问题。
附图说明
图1是本发明采用的阴影图算法示意图;
图2是本发明求解摄像头的覆盖区域的判断流程图;
图3是本发明二维视频信息的时时更新流程图;
图4是本发明八叉树索引空间结构图。
具体实施方式
下面结合图并通过具体实施例对本发明作进一步详述,以下实施例只是描述性的,不是限定性的,不能以此限定本发明的保护范围。
一种二维视频信息与三维地理信息融合的方法,其发明点为:对于目标观察点区域,二维视频信息通过摄像头拍摄来获得,利用摄像头的参数构建视椎体来表示二维视频信息的可视范围。通过阴影图算法来判断视线范围内的遮挡关系,判断每个摄像头的实际拍摄范围。使用投影纹理映射技术对投射到三维地理信息上的图像进行更新,实现视频信息实时显示。另外,还可通过多次渲染来实现多个摄像头采集视频信息与三维地理信息的融合。对于二维视频信息与三维地理信息融合的方法,在本发明中可采用单视频融合的策略和多视频融合的策略,具体为:
一、单视频融合的策略是:摄像头捕捉到的区域,用视频实时状况替代三维地理信息,捕捉不到的区域,使用三维地图的原信息。对单个视频信息而言,需要将其按照空间位置关系映射到三维地图表面,通过不断更新视频信息,达到实时融合的效果。
二、多视频融合的策略是:通过多个摄像头拍摄目标区域,实现无死角捕捉,使用实时拍摄的信息对三维地图上的信息进行替换。达到在三维地图上显示实时监控信息的目的。
本二维视频信息与三维地理信息融合的方法涉及到以下几方面内容:
1、求解摄像头的覆盖区域
即求摄像头的视椎体在三维地图上的投射范围,摄像头的内部参数决定了视椎体的形状,外部参数决定了视椎体的方向和位置,通过模拟视椎体来确定视频覆盖区域后,需要判断阴影区域,即有些物体虽然在视椎体范围内,但会被前面较高的物体挡住,处于阴影之中无法采集视频信息。判断阴影区域一般使用阴影图(Shadow Maps)算法,阴影图算法是一种使用深度缓存来生成三维场景中物体阴影的算法:第一步以摄像头为视点渲染整个三维场景,记录每个像素点的深度信息,生成深度纹理Z1;第二步以观察点为视点对三维场景进行渲染,对本次渲染中的所有像素点进行坐标转换至光源裁剪空间中,获得深度纹理Z2,若Z2>Z1,则该点与视点间有遮挡,处于阴影中,反之则无遮挡。
阴影图算法如图1所示。对图中摄像头的视椎体来说,C区域被物体A挡住成为该摄像头的阴影区域,C区域内的物体B不可见,D区域为目标区域观察点的观察盲区,不需要采集D区域的视频信息,在后续的裁剪中将D区域的视频信息剔除以节省计算能力。
在本发明中,首先从摄像头处对目标场景进行渲染,并将生成的深度纹理Z1导入着色器,然后从目标区域观察点进行渲染,将每个像素点的坐标转换到前一个摄像头的坐标系中,通过计算得到各像素点的深度值Z2,与摄像头渲染场景的深度纹理进行对比,Z2深度值大的部分表示该点被遮挡,采用三维地图的原信息;Z1深度值大的部分表示未被遮挡,采用视频信息替换原三维地理信息,判断流程如图2所示。
2、视频信息映射
确定目标空间的阴影区域之后,就要将二维视频信息映射到三维地图信息中去,本发明通过投影纹理映射技术将视频采样点与目标空间的端点进行对应,提高了纹理映射的精确度,避免了映射形变的发生。
1)首先使用模型视图矩阵将目标区域的端点坐标变换到摄像头坐标中去,表达式为:
其中,x0,y0为摄像头坐标系的坐标,X0,Y0,Z0为目标区域的端点坐标,a为摄像机焦距;
2)再通过相机视图逆矩阵变换为世界坐标系,表达式为:
其中,Mpv为投影视图变换矩阵,R为旋转关系,Tr为平移关系,Vw为世界坐标,Xw、Yw和Zw为世界坐标系下的坐标;
3)再将世界坐标系经投影视图矩阵变换至投影坐标系中,表达式为:
其中,fu,fv表示图像坐标系u轴和v轴上的尺度因子,s表示倾斜因子,Pp为投影变换矩阵,X为投影横坐标,u0为u轴的坐标,v0为v轴的坐标;
4)最后经过投影矩阵和归一化处理得到最终的纹理坐标,纹理转换公式如下:
(s,t,r,q)T=N×Pp×Mpv×Vw
式中:
(s,t,r,q)T为纹理坐标;
Pp为投影变换矩阵;
Mpv为投影视图变换矩阵;
Vw为端点在世界坐标系下的坐标。
纹理匹配后,单个摄像头的二维视频信息就可以映射到三维地图中。
3、视频信息实时更新
通过求解摄像头覆盖区域和视频信息映射可以在三维地图上得到1帧视频信息,若想得到动态的视频信息,就需要实时进行纹理匹配和持续映射。
实时更新时,通过回调函数来更新下一帧的纹理数据,当摄像头内外参数发生变化的时候,纹理数据也会随之变化,根据新的纹理数据来计算新的纹理坐标,实现这一帧的映射,持续以上操作,便可实现视频和三维地理信息的实时融合。更新流程如图3所示。
4、多视频融合
若想减少视线盲区,就需要围绕目标区域布置一定数量的摄像头,一个摄像头对应一组纹理数据,多个摄像头对应多组纹理数据,本发明使用多次渲染方法对多摄像头的二维信息进行融合,即一个摄像头的纹理数据渲染之后,下一个摄像头的纹理数据在此基础上继续进行渲染。所有摄像头的数据组保存在计算机数据列表中,列表根据各摄像头的活跃度(开机采集数据为活跃)进行分组,如果某个摄像头的数据组被其余摄像头的数据组覆盖,则关闭此摄像头,将此摄像头列入不活跃分组,后续渲染只采集活跃组摄像头的纹理数据,以此达到节省资源的目的。
5、视频优化
为降低多次渲染对计算能力的占用,采用八叉树空间索引和对摄像相交区域进行裁剪,筛掉不在指定区域内的摄像头以节省资源,以此来优化视频融合的效率。
摄像头索引:
摄像头索引采用八叉树索引,将目标空间划分为多个立方体,同一区域若视频属性相同,则该区域被划分到同一立方体中,对属性复杂的区域,对大的立方体进行进一步的划分,得到多个小立方体,通常一个大的立方体会被分割为八块小的立方体,如果小立方体中仍有多重属性,则可以继续划分。八叉树索引空间结构如图4所示。
视频相交区域裁剪:
八叉树索引构建完备后,根据对目标区域的预设观察点进行筛选,若某一摄像头的视椎体完全不在目标观察点区域内,则对该摄像头的二维数据信息进行裁剪;若某一摄像头的视椎体完全在目标观察点区域内,则保留该摄像头的二维数据信息;若某一摄像头的视椎体有一部分在目标观察点区域内,则先保留该二维摄像头的数据信息,之后再进行进一步裁剪,去除观察点区域外的信息。
对于视椎体有一部分在目标观察区域内的摄像头,通过对视椎体进行光栅化处理,基于屏幕空间坐标系,判断每个像素点是否可见,删除不可见的部分,保留可见的部分进行渲染。
经过光栅化处理后保留的摄像头视椎体转化为一个个像素点,每一个像素点有各自的坐标(x,y,z),通过渲染引擎得到可视坐标的x,y,z的范围,对x方向和y方向来说,若像素点的x或y有一项不在可视范围内,则该像素点不可见,可以将该像素点予以剔除,对于深度信息z,需要经过归一化处理后,用像素点的z分量除以标量w,得到规范化的z坐标z0,若z0∈[-1,1],则该像素点在深度范围内可见,结合x和y坐标,若像素点的x,y,z坐标均在可视范围内,则该点可视,有一个及以上坐标在可视范围外的,该像素点不可视。
将不可视的像素点剔除后,对可视的像素点进行优化,所有可视的像素点归入可视点集,对于多个重复的可视像素点,只保留一个,剔除剩余重复可视像素点。
对经过裁剪的摄像头视椎体的纹理信息进行依次叠加渲染,在保证信息完整性的前提下,尽可能流畅的对视频信息进行渲染,就完成了二维视频与三维地理信息的融合,得到了目标区域内的完整动态三维地理信息。
尽管为说明目的公开了本发明的实施例和图,但是本领域的技术人员可以理解:在不脱离本发明及所附权利要求的精神和范围内,各种替换、变化和修改都是可能的,因此,本发明的范围不局限于实施例和图所公开的内容。
Claims (10)
1.一种二维视频信息与三维地理信息融合的方法,其特征在于:对于目标观察点区域,二维视频信息通过单个摄像头拍摄来获得,利用摄像头的参数构建视椎体来表示二维视频信息的可视范围,包括如下步骤:
步骤一、获得单个摄像头拍摄的二维视频信息,求解摄像头的覆盖区域;
步骤二、将二维视频信息映射到三维地图信息中;
步骤三、进行二维视频信息的时时更新和映射,实现二维视频和三维地理信息的实时融合。
2.根据权利要求1所述的二维视频信息与三维地理信息融合的方法,其特征在于:步骤一包括如下步骤:
1.1首先从摄像头A处对目标场景进行渲染,并将生成的深度纹理Z1导入着色器;
1.2然后从目标区域观察点进行渲染,将每个像素点的坐标转换到摄像头A的坐标系中,通过计算得到各像素点的深度值Z2;
1.3比较Z1和Z2,Z1大于Z2部分,则表示该点未被遮挡,采用二维视频信息替换原三维地理信息;Z1不大于Z2部分,则表示该点被遮挡,采用三维地图的原信息。
3.根据权利要求1所述的二维视频信息与三维地理信息融合的方法,其特征在于:步骤二通过投影纹理映射技术将视频采样点与目标空间的端点进行对应,包括如下步骤:
2.1首先使用模型视图矩阵将目标区域的端点坐标变换到摄像头坐标中去,表达式为:
其中,x0,y0为摄像头坐标系的坐标,X0,Y0,Z0为目标区域的端点坐标,a为摄像机焦距;
2.2再通过相机视图逆矩阵变换为世界坐标系,表达式为:
其中,Mpv为投影视图变换矩阵,R为旋转关系,Tr为平移关系,Vw为世界坐标,Xw、Yw和Zw为世界坐标系下的坐标;
2.3再将世界坐标系经投影视图矩阵变换至投影坐标系中,表达式为:
其中,fu,fv表示图像坐标系u轴和v轴上的尺度因子,s表示倾斜因子,Pp为投影变换矩阵,X为投影横坐标,u0为u轴的坐标,v0为v轴的坐标;
2.4最后经过投影矩阵和归一化处理得到最终的纹理坐标,纹理转换公式如下:
(s,t,r,q)T=N×Pp×Mpv×Vw
式中:
(s,t,r,q)T为纹理坐标;
Pp为投影变换矩阵;
Mpv为投影视图变换矩阵;
Vw为端点在世界坐标系下的坐标;
纹理匹配后,单个摄像头的二维视频信息就可以映射到三维地图中。
4.根据权利要求1所述的二维视频信息与三维地理信息融合的方法,其特征在于:步骤三具体为:通过求解摄像头覆盖区域和视频信息映射可以在三维地图上得到1帧视频信息,通过回调函数来更新下一帧的纹理数据,当摄像头内外参数发生变化的时候,纹理数据也会随之变化,根据新的纹理数据来计算新的纹理坐标,实现这一帧的映射,持续以上操作,可实现视频和三维地理信息的实时融合。
5.一种二维视频信息与三维地理信息融合的方法,其特征在于:对于目标观察点区域,二维视频信息通过多角度的多个摄像头拍摄来获得,利用摄像头的参数构建视椎体来表示二维视频信息的可视范围,包括如下步骤:
步骤一、获得每个摄像头拍摄的二维视频信息,求解每个单独摄像头的覆盖区域;
步骤二、融合多个摄像头的覆盖区域,获得融合后的二维视频信息;
步骤三、对融合后的二维视频信息进行优化处理,剪裁掉不在目标观察点区域内的二维数据信息;
步骤四、将优化处理后的二维视频信息映射到三维地图信息中;
步骤五、进行二维视频信息的时时更新和映射,实现二维视频和三维地理信息的实时融合。
6.根据权利要求5所述二维视频信息与三维地理信息融合的方法,其特征在于:步骤一包括如下步骤:
1.1首先从摄像头A处对目标场景进行渲染,并将生成的深度纹理Z1导入着色器;
1.2然后从目标区域观察点进行渲染,将每个像素点的坐标转换到摄像头A的坐标系中,通过计算得到各像素点的深度值Z2;
1.3比较Z1和Z2,Z1大于Z2部分,则表示该点未被遮挡,采用二维视频信息替换原三维地理信息;Z1不大于Z2部分,则表示该点被遮挡,采用三维地图的原信息。
7.根据权利要求5所述二维视频信息与三维地理信息融合的方法,其特征在于:步骤二具体为:采用多次渲染方法对多摄像头的二维信息进行融合,即一个摄像头的纹理数据渲染之后,下一个摄像头的纹理数据在此基础上继续进行渲染;所有摄像头的数据组保存在计算机数据列表中,列表根据各摄像头的活跃度进行分组,若某个摄像头的数据组被其余摄像头的数据组覆盖,则关闭此摄像头,将此摄像头列入不活跃分组,后续渲染只采集活跃组摄像头的纹理数据。
8.根据权利要求5所述二维视频信息与三维地理信息融合的方法,其特征在于:步骤三采用采用八叉树空间索引和对摄像相交区域进行裁剪优化处理,具体包括如下步骤:
3.1先进行摄像头索引
摄像头索引采用八叉树空间索引,将目标空间划分为多个立方体,同一区域若视频属性相同,则该区域被划分到同一立方体中,对属性复杂的区域,对大的立方体进行进一步的划分,得到多个小立方体,通常一个大的立方体会被分割为八块小的立方体,如果小立方体中仍有多重属性,则可以继续划分;
3.2对摄像相交区域进行裁剪
八叉树空间索引构建完备后,根据对目标区域的预设观察点进行筛选,若某一摄像头的视椎体完全不在目标观察点区域内,则对该摄像头的二维数据信息进行裁剪;若某一摄像头的视椎体完全在目标观察点区域内,则保留该摄像头的二维数据信息;若某一摄像头的视椎体有一部分在目标观察点区域内,则先保留该二维摄像头的数据信息,之后再进行进一步裁剪,去除观察点区域外的信息。
9.根据权利要求5所述二维视频信息与三维地理信息融合的方法,其特征在于:步骤四通过投影纹理映射技术将视频采样点与目标空间的端点进行对应,包括如下步骤:
4.1首先使用模型视图矩阵将目标区域的端点坐标变换到摄像头坐标中去,表达式为:
其中,x0,y0为摄像头坐标系的坐标,X0,Y0,Z0为目标区域的端点坐标,a为摄像机焦距;
4.2再通过相机视图逆矩阵变换为世界坐标系,表达式为:
其中,Mpv为投影视图变换矩阵,R为旋转关系,Tr为平移关系,Vw为世界坐标,Xw、Yw和Zw为世界坐标系下的坐标;
4.3再将世界坐标系经投影视图矩阵变换至投影坐标系中,表达式为:
其中,fu,fv表示图像坐标系u轴和v轴上的尺度因子,s表示倾斜因子,Pp为投影变换矩阵,X为投影横坐标,u0为u轴的坐标,v0为v轴的坐标;
4.4最后经过投影矩阵和归一化处理得到最终的纹理坐标,纹理转换公式如下:
(s,t,r,q)T=N×Pp×Mpv×Vw
式中:
(s,t,r,q)T为纹理坐标;
Pp为投影变换矩阵;
Mpv为投影视图变换矩阵;
Vw为端点在世界坐标系下的坐标。
纹理匹配后,单个摄像头的二维视频信息就可以映射到三维地图中。
10.根据权利要求5所述二维视频信息与三维地理信息融合的方法,其特征在于:步骤五具体为:通过求解摄像头覆盖区域和视频信息映射可以在三维地图上得到1帧视频信息,通过回调函数来更新下一帧的纹理数据,当摄像头内外参数发生变化的时候,纹理数据也会随之变化,根据新的纹理数据来计算新的纹理坐标,实现这一帧的映射,持续以上操作,可实现视频和三维地理信息的实时融合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011309715.7A CN112365397A (zh) | 2020-11-20 | 2020-11-20 | 一种二维视频信息与三维地理信息融合的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011309715.7A CN112365397A (zh) | 2020-11-20 | 2020-11-20 | 一种二维视频信息与三维地理信息融合的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112365397A true CN112365397A (zh) | 2021-02-12 |
Family
ID=74533024
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011309715.7A Pending CN112365397A (zh) | 2020-11-20 | 2020-11-20 | 一种二维视频信息与三维地理信息融合的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112365397A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112927356A (zh) * | 2021-03-03 | 2021-06-08 | 中国人民解放军战略支援部队信息工程大学 | 一种无人机图像的三维显示方法 |
CN113115001A (zh) * | 2021-04-13 | 2021-07-13 | 大庆安瑞达科技开发有限公司 | 一种油气田视频监控实时三维投影融合方法 |
CN114581287A (zh) * | 2022-02-18 | 2022-06-03 | 高德软件有限公司 | 数据处理方法以及装置 |
CN114638771A (zh) * | 2022-03-11 | 2022-06-17 | 北京拙河科技有限公司 | 基于混合模型的视频融合方法及系统 |
CN115546377A (zh) * | 2022-12-01 | 2022-12-30 | 杭州靖安科技有限公司 | 一种视频融合方法、装置、电子设备及存储介质 |
CN115830124A (zh) * | 2022-12-27 | 2023-03-21 | 北京爱特拉斯信息科技有限公司 | 基于匹配的摄像头像素坐标和大地坐标转换方法及系统 |
CN116309884A (zh) * | 2023-05-24 | 2023-06-23 | 成都陆拓信息技术有限公司 | 一种三维空间区域视频盲区识别方法 |
WO2023138469A1 (zh) * | 2022-01-21 | 2023-07-27 | 北京字跳网络技术有限公司 | 图像处理方法、装置、设备及存储介质 |
CN117058342A (zh) * | 2023-10-12 | 2023-11-14 | 天津科汇新创科技有限公司 | 一种基于投影图像的脊柱3d体素模型构建方法 |
CN117495694A (zh) * | 2023-11-09 | 2024-02-02 | 大庆安瑞达科技开发有限公司 | 一种视频和地图三维场景融合的方法、电子设备及存储介质 |
CN117934729A (zh) * | 2024-03-21 | 2024-04-26 | 西安众望能源科技有限公司 | 一种油气田视频监控实时三维投影融合方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108230434A (zh) * | 2017-12-15 | 2018-06-29 | 腾讯科技(深圳)有限公司 | 图像纹理的处理方法、装置、存储介质和电子装置 |
CN109544671A (zh) * | 2018-11-12 | 2019-03-29 | 浙江大学 | 一种基于屏幕空间的视频在三维场景中投影映射方法 |
CN111754552A (zh) * | 2020-06-29 | 2020-10-09 | 华东师范大学 | 一种基于深度学习的多摄像头协同目标跟踪方法 |
-
2020
- 2020-11-20 CN CN202011309715.7A patent/CN112365397A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108230434A (zh) * | 2017-12-15 | 2018-06-29 | 腾讯科技(深圳)有限公司 | 图像纹理的处理方法、装置、存储介质和电子装置 |
CN109544671A (zh) * | 2018-11-12 | 2019-03-29 | 浙江大学 | 一种基于屏幕空间的视频在三维场景中投影映射方法 |
CN111754552A (zh) * | 2020-06-29 | 2020-10-09 | 华东师范大学 | 一种基于深度学习的多摄像头协同目标跟踪方法 |
Non-Patent Citations (5)
Title |
---|
周凡等: "基于OpenGL的交互式全景视频显示系统", 《液晶与显示》 * |
施杨峰: ""多视频与三维场景实时融合方法研究"", 《中国优秀硕士学位论文全文数据库 基础科学辑》 * |
沈昌力等: "视频监控中的纹理映射技术", 《指挥信息系统与技术》 * |
赵刚等: "PTZ摄像机视频与三维模型的配准技术研究", 《计算机工程与设计》 * |
马原野等: "3DGIS与多视频融合系统的设计与实现", 《计算机应用与软件》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112927356B (zh) * | 2021-03-03 | 2022-12-09 | 中国人民解放军战略支援部队信息工程大学 | 一种无人机图像的三维显示方法 |
CN112927356A (zh) * | 2021-03-03 | 2021-06-08 | 中国人民解放军战略支援部队信息工程大学 | 一种无人机图像的三维显示方法 |
CN113115001A (zh) * | 2021-04-13 | 2021-07-13 | 大庆安瑞达科技开发有限公司 | 一种油气田视频监控实时三维投影融合方法 |
CN113115001B (zh) * | 2021-04-13 | 2022-11-04 | 大庆安瑞达科技开发有限公司 | 一种油气田视频监控实时三维投影融合方法 |
WO2023138469A1 (zh) * | 2022-01-21 | 2023-07-27 | 北京字跳网络技术有限公司 | 图像处理方法、装置、设备及存储介质 |
CN114581287A (zh) * | 2022-02-18 | 2022-06-03 | 高德软件有限公司 | 数据处理方法以及装置 |
CN114638771A (zh) * | 2022-03-11 | 2022-06-17 | 北京拙河科技有限公司 | 基于混合模型的视频融合方法及系统 |
CN114638771B (zh) * | 2022-03-11 | 2022-11-29 | 北京拙河科技有限公司 | 基于混合模型的视频融合方法及系统 |
CN115546377A (zh) * | 2022-12-01 | 2022-12-30 | 杭州靖安科技有限公司 | 一种视频融合方法、装置、电子设备及存储介质 |
CN115830124A (zh) * | 2022-12-27 | 2023-03-21 | 北京爱特拉斯信息科技有限公司 | 基于匹配的摄像头像素坐标和大地坐标转换方法及系统 |
CN116309884A (zh) * | 2023-05-24 | 2023-06-23 | 成都陆拓信息技术有限公司 | 一种三维空间区域视频盲区识别方法 |
CN116309884B (zh) * | 2023-05-24 | 2023-08-01 | 成都陆拓信息技术有限公司 | 一种三维空间区域视频盲区识别方法 |
CN117058342A (zh) * | 2023-10-12 | 2023-11-14 | 天津科汇新创科技有限公司 | 一种基于投影图像的脊柱3d体素模型构建方法 |
CN117058342B (zh) * | 2023-10-12 | 2024-01-26 | 天津科汇新创科技有限公司 | 一种基于投影图像的脊柱3d体素模型构建方法 |
CN117495694A (zh) * | 2023-11-09 | 2024-02-02 | 大庆安瑞达科技开发有限公司 | 一种视频和地图三维场景融合的方法、电子设备及存储介质 |
CN117495694B (zh) * | 2023-11-09 | 2024-05-31 | 大庆安瑞达科技开发有限公司 | 一种视频和地图三维场景融合的方法、电子设备及存储介质 |
CN117934729A (zh) * | 2024-03-21 | 2024-04-26 | 西安众望能源科技有限公司 | 一种油气田视频监控实时三维投影融合方法 |
CN117934729B (zh) * | 2024-03-21 | 2024-06-11 | 西安众望能源科技有限公司 | 一种油气田视频监控实时三维投影融合方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112365397A (zh) | 一种二维视频信息与三维地理信息融合的方法 | |
CN108564527B (zh) | 基于神经网络的全景图内容补全和修复的方法及装置 | |
US9024947B2 (en) | Rendering and navigating photographic panoramas with depth information in a geographic information system | |
JP4658993B2 (ja) | 3d画像のセルフシャドウを発生させるに必要な情報を予め記憶する装置、方法、アプリケーションプログラムおよびコンピュータ読取り可能媒体 | |
US8390617B1 (en) | Visualizing oblique images | |
US9153011B2 (en) | Movement based level of detail adjustments | |
CN110516014B (zh) | 一种面向城市道路监控视频映射到二维地图的方法 | |
US20200098140A1 (en) | Soft-Occlusion for Computer Graphics Rendering | |
CN110852952B (zh) | 一种基于gpu的大规模地形实时绘制方法 | |
CN114387198B (zh) | 一种影像与实景模型的融合显示方法、装置及介质 | |
CN115359223A (zh) | 一种实景三维城市开发显示系统及方法 | |
CN109544671B (zh) | 一种基于屏幕空间的视频在三维场景中投影映射方法 | |
CN112906125B (zh) | 铁路固定设施bim模型轻量化加载方法 | |
US20220392121A1 (en) | Method for Improved Handling of Texture Data For Texturing and Other Image Processing Tasks | |
CN115937482A (zh) | 一种自适应屏幕尺寸的全息场景动态构建方法及系统 | |
CN110910482B (zh) | 视频数据组织调度的方法、系统及可读存储介质 | |
US10275939B2 (en) | Determining two-dimensional images using three-dimensional models | |
KR100490885B1 (ko) | 직각 교차 실린더를 이용한 영상기반 렌더링 방법 | |
JP2973413B2 (ja) | コンピュータグラフィックスの照度計算方法及び表示装置 | |
CN106875480B (zh) | 一种城市三维数据组织的方法 | |
JP2002092597A (ja) | 画像処理方法及び装置 | |
CN116993894B (zh) | 虚拟画面的生成方法、装置、设备、存储介质及程序产品 | |
CN115187843B (zh) | 基于物方体素及几何特征约束的深度图融合方法 | |
CN118071955B (zh) | 一种基于Three.JS实现三维地图埋点方法 | |
CN111563947B (zh) | 全球三维云的互动实时体渲染方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210212 |
|
RJ01 | Rejection of invention patent application after publication |