CN106600691B - 多路二维视频图像在三维地理空间中融合校正方法、系统 - Google Patents
多路二维视频图像在三维地理空间中融合校正方法、系统 Download PDFInfo
- Publication number
- CN106600691B CN106600691B CN201610065790.0A CN201610065790A CN106600691B CN 106600691 B CN106600691 B CN 106600691B CN 201610065790 A CN201610065790 A CN 201610065790A CN 106600691 B CN106600691 B CN 106600691B
- Authority
- CN
- China
- Prior art keywords
- target
- triangle
- point
- control points
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Generation (AREA)
Abstract
本发明提供了一种多路二维视频图像在三维地理空间中校正、配准、融合的方法和系统,首先输入三维地理信息空间中的多个目标控制点和在视频图像中多个源控制点,并建立所述源控制点与所述目标控制点的一一映射关系;并利用所述目标控制点或源控制点生成三角网格或多边形网格;之后根据所述控制点映射关系,获得源三角形或多边形与目标三角形或多边形之间的映射关系,并求变换矩阵;之后对于每一个源三角形或多边形,根据其顶点的坐标以及变换矩阵,计算得到视频图像中每一像素在对应目标三角形或多边形中的融合坐标,实现了在三维地理信息空间中多路的二维视频的校正、配准、拼接和融合。在本专利中多边形网格可通过裂分的方式转化为三角网格。
Description
技术领域
本发明属于地理信息融合技术领域,更具体涉及一种多路二维视频图像在三维地理空间中融合校正方法、系统。
背景技术
随着地理信息系统(GIS)技术的日益成熟,国家重点建设项目“金盾工程”的快速推进,地理信息在视频监控中进行了广泛的应用。公安机关打击犯罪、维护治安和服务管理社会的工作职责以及协同作战、快速反应的工作特点决定了其必须大量使用地理信息。近期现有技术中出现了将二维实时监控视频放置于三维地理信息空间中,但基本都是点状分布于空间中,只能分散的查看各个路口的摄像头。所以若密集地安装摄像头,急需一种在三维地理信息空间中完成多路视频的矫正与拼接融合技术来扩展观察者的视野。
发明内容
本发明要解决的技术问题如何在三维地理信息空间中完成多路二位视频的矫正与拼接融合。
为了解决上述技术问题,本发明提供一种多路二维视频图像在三维地理空间中融合校正方法,所述方法包括以下步骤:
S1、输入三维地理信息空间中的多个目标控制点以及视频图像中的多个源控制点,并建立所述源控制点与所述目标控制点的一一映射关系;
S2、利用所述目标控制点生成目标多边形网格,其中所述多边形网格以所述目标控制点为顶点;
S3、根据所述一一映射关系获得与所述目标多边形网格对应的源多边形网格,并求得所述目标控制点与所述源控制点的变换矩阵;
S4、对于每一个所述源多边形网格,根据其顶点坐标以及变换矩阵,计算得到视频图像中每一像素在对应所述目标多边形网格中的融合坐标。
优选地,所述步骤S4之后还包括以下步骤:
S5、若所述目标多边形网格内的一点的融合坐标没有在一个确定的像素位置,则对该点进行双线性插值,为该点匹配颜色值。
优选地,所述目标多边形网格为目标三角形,所述步骤S2还包括以下步骤:
S21、根据所述多个目标控制点,利用最小生成树算法求解第一边表;其中所述第一边表包括多条边,并且所述边的两个顶点为两个目标控制点;
S22、根据所述第一边表求解相关边对表;其中所述相关边对表包括多个相关边对,并且所述相关边对包括两个共用一个顶点的边;
S23、求解所述相关边对的夹角,在所述相关边对表中存在至少一对相关边时执行以下操作:
查询夹角最小的相关边对,若该相关边对构成的三角形满足预定条件则将该相关边对组成的三角形放入三角网格表中,并将该相关边对构成的三角形中除该相关边对外的边加入所述边表中,将该相关边对构成的三角形中除该相关边对外的边引入的相关边对加入所述相关边对表中;
S24、利用最大-最小内角准则对所述三角网格表中的每个三角形进行优化得到所述目标三角网。
优选地,所述步骤S24包括以下步骤:
S241、利用所述三角网格表中的每个三角形中的边形成第二边表;
S242、对于所述第二边表中每一个非边界边执行以下操作:
以该非边界边为边的两个三角形构成一个四边形,若该四边形是凹四边形则不进行处理;若该四边形是凸四边形,则计算以该非边界边为边的两个三角形中的最小内角,之后交换该四边形的对角线,形成两个新的三角形,并计算所述两个新的三角形中的最小内角,若所述两个新的三角形中的最小内角大于所述以该非边界边为边的两个三角形中的最小内角,则用所述两个新的三角形代替所述以该非边界边为边的两个三角形。
优选地,所述步骤S21包括以下步骤:
S211、计算所述多个目标控制点中任意两个目标控制点之间的距离,并将计算得到的距离存入距离数组中,所述距离数组中的每个元素包括距离以及与所述距离对应的起始点和终止点,所述起始点和所述终止点均为目标控制点;
S212、初始化第一边表;
S213、按照距离从小到大的顺序,对于每个距离进行以下操作:
取该距离对应的起始点和终止点,若以所述起始点为起点和终止点为终点形成的边与所述第一边表中的边不构成回路,则将以所述起始点为起点和终止点为终点形成的边加入所述第一边表中。
优选地,所述步骤S23中预定条件为:
该相关边对构成的三角形与所述三角网格表中其他三角形中的任一个三角形除顶点外无交点;并且
该相关边对构成的三角形内不包含所述三角网格表中其他任意三角形;并且
所述三角网格表中其他任意三角形内不包含该相关边对构成的三角形。
优选地,所述方法还包括计算所述变换矩阵的步骤:其中,所述目标多边形网格为目标三角形,源多边形网格为源三角形;
利用如下公式,根据已知的源三角形三个顶点的坐标以及对应的目标三角形三个顶点的坐标计算所述变换矩阵:
式中,(xA,yA,1),(xB,yB,1),(xC,yC,1)为所述源三角形三个顶点的坐标,(x'A,y'A,1),(x'B,y'B,1),(x'C,y'C,1)为所述目标三角形三个顶点的坐标。
优选地,所述步骤S5包括以下步骤:
判断没有在一个确定的像素位置的所述目标多边形网格内的一点是否在一矩形内,若在利用如下公式为该点匹配颜色值:
式中,f(Q11)、f(Q12)、f(Q21)、f(Q22)为所述矩形四个顶点的颜色值,f(x,y)为该点的颜色值,x1为所述矩形的横坐标的最小值,x2所述矩形的横坐标的最大值,y1为所述矩形的纵坐标的最小值,y2所述矩形的纵坐标的最大值。
一种利用上述方法进行融合校正的系统,所述系统包括目标多边形网格生成单元、映射构建单元、三角形对构建单元以及坐标融合单元;
所述映射构建单元用于建立源控制点与目标控制点的一一映射关系;
所述目标多边形网格生成单元用于利用所述目标控制点生成目标多边形网格,其中所述多边形网格以所述目标控制点为顶点;
所述三角形对构建单元用于根据所述一一映射关系获得与所述目标多边形网格对应的源多边形网格,并求得所述目标控制点与所述源控制点的变换矩阵;
所述坐标融合单元用于对于每一个所述源多边形网格,根据其顶点坐标以及变换矩阵,计算得到视频图像中每一像素在对应所述目标多边形网格中的融合坐标。
优选地,所述系统还包括颜色匹配单元,所述颜色匹配单元用于在所述目标多边形网格内一点的融合坐标没有在一个确定的像素位置时,对该点进行双线性插值,为该点匹配颜色值。
本发明提供了一种多路二维视频图像在三维地理空间中融合校正方法、系统,首先输入三维地理信息空间中的多个目标控制点和在视频图像中多个源控制点,并建立所述源控制点与所述目标控制点的一一映射关系;并利用所述目标控制点或源控制点生成三角网格或多边形网格;之后根据所述控制点映射关系,获得对应的三角形网格或多边形网格,并求得相应的三角形网格(多边形网格)的变换矩阵;之后对于每一个所述源三角形网格或源多边形,根据个顶点的坐标以及变换矩阵,计算得到视频图像中每一像素在对应目标三角形网格或多边形网格中的融合坐标,实现了在三维地理信息空间中多路的二维视频的校正、配准、拼接和融合。在本专利中多边形网格可通过裂分的方式转化为三角网格,极大拓宽了观察者在三维地理信息空间中观察视频的视野。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一个较佳实施例的多路二维视频图像在三维地理空间中融合校正方法流程图;
图2为本发明中步骤S21的流程图;
图3为本发明中步骤S24的流程图;
图4为本发明中步骤S4中进行坐标融合的示意图;
图5为本发明中步骤5中颜色匹配示意图;
图6为本发明一个较佳实施例的系统的结构示意图;
图7为本发明另一个较佳实施例的多路二维视频图像在三维地理空间中融合校正方法流程图。
具体实施方式
下面结合附图和实施例对本发明作进一步详细描述。以下实施例用于说明本发明,但不能用来限制本发明的范围。
一种多路二维视频图像在三维地理空间中融合校正方法,如图1所示,所述方法包括以下步骤:
S1、输入三维地理信息空间中的多个目标控制点以及视频图像中的多个源控制点,并建立所述源控制点与所述目标控制点的一一映射关系;
S2、利用所述目标控制点生成目标多边形网格,其中所述多边形网格以所述目标控制点为顶点;
S3、根据所述一一映射关系获得与所述目标多边形网格对应的源多边形网格,并求得所述目标控制点与所述源控制点的变换矩阵;
S4、对于每一个所述源多边形网格,根据其顶点坐标以及变换矩阵,计算得到视频图像中每一像素在对应所述目标多边形网格中的融合坐标。
上述目标控制点以及源控制点可以通过人工选取,也可以通过图像匹配的方法获得。
上述方法实现了在三围地理信息空间中上百路的二维视频的拼接融合,极大拓宽了观察者在三维地理信息空间中观察视频的视野。
进一步地,上述步骤S2中是利用目标控制点生成目标多边形网格,步骤S3中即利用目标多边形网格获得源多边形网格,应该明白的是步骤S2中也可以利用源控制点生成源多边形网格,再利用源多边形网格获得目标多边形网格。
上述步骤S4中源多边形网格可以优选源三角形网格,可以使用三角映射算法进行,三角映射算法既可以使用CPU串行实现,亦可以由GPU并行算法实现,当大量二维视频接入计算机中,GPU并行算法可以极高的效率,是CPU串行算法效率的千倍以上。
本发明将视频放置于三维地理空间的拼接融合使视频图像每一个像素具有了地理信息属性,区别于以往单纯的视频;同时本发明的拼接与融合是在动态视频情景下实现的,区别于以往的静态图像;同时本发明的视频的校正、配准、拼接和融合是基于三维地理信息的,区别于以往的二维图像的拼接和融合。
进一步地,所述步骤S4之后还包括以下步骤:
S5、若所述目标多边形网格内的一点的融合坐标没有在一个确定的像素位置,则对该点进行双线性插值,为该点匹配颜色值。
进一步地,所述目标多边形网格优选为目标三角形,所述步骤S2包括以下步骤:
S21、根据所述多个目标控制点,利用最小生成树算法求解第一边表EMST(P);其中所述第一边表包括多条边,并且所述边的两个顶点为两个目标控制点;此步骤中多个目标控制点用P={p1,p2......,pn}表示,n为目标控制点个数
S22、根据所述第一边表求解相关边对表IEPL(P);其中所述相关边对表包括多个相关边对,并且所述相关边对包括两个共用一个顶点的边;
S23、求解所述相关边对的夹角,在所述相关边对表中存在至少一对相关边时执行以下操作:
查询夹角最小的相关边对,并置该相关边对的标志为1,若该相关边对构成的三角形满足预定条件则将该相关边对组成的三角形放入三角网格表TML中,并将该相关边对构成的三角形中除该相关边对外的边加入所述边表中,将该相关边对构成的三角形中除该相关边对外的边引入的相关边对加入所述相关边对表中;
S24、利用最大-最小内角准则对所述三角网格表中的每个三角形进行优化得到所述目标三角网。
上述步骤S23之前还包括以下步骤:
根据相关边对的夹角,从小到大排序相关边对表IEPL(P)中的所有相关边对;
初始化三角网格表TML(Triangle Mesh List)。
进一步地,所述步骤S24包括以下步骤,如图3所示:
S241、利用所述三角网格表TML中的每个三角形中的边形成第二边表EL;
S242、对于所述第二边表中每一个非边界边执行以下操作:
以该非边界边为边的两个三角形构成一个四边形,若该四边形是凹四边形则不进行处理;若该四边形是凸四边形,则计算以该非边界边为边的两个三角形中的最小内角A1,之后交换该四边形的对角线,形成两个新的三角形,并计算所述两个新的三角形中的最小内角A2,如果A2>A1,则用所述两个新的三角形代替所述以该非边界边为边的两个三角形。并按新的三角形修改TML,交换边计数变量inter_changed_edge加1(初始值为0)。如果inter_changed-edge=0,则结束,否则,转步骤S241。
进一步地,所述步骤S21包括以下步骤,如图2所示:
S211、计算所述多个目标控制点中任意两个目标控制点之间的距离,并将计算得到的距离存入距离数组Dist[M]中,所述距离数组中的每个元素包括距离以及与所述距离对应的起始点和终止点,所述起始点和所述终止点均为目标控制点;其中M=n(n-1)/2,n为点集P中点的个数,数组Dist中每一元素包含三项;Start存放起点,end存放终点,length存放两点之间的距离;
S212、初始化第一边表为空,k←1,e←0;
S213、按数组Dist中元素的length项的值从小到大排序数组Dist,并按照距离从小到大的顺序,对于每个距离进行以下操作:
(1)取该距离对应的起始点和终止点,若以所述起始点为起点和终止点为终点形成的边与所述第一边表中的边不构成回路,则将以所述起始点为起点和终止点为终点形成的边加入所述第一边表中。即步骤S112可以表述为:当e≤n-1,则做以下操作:取u=Dist[k].start,v=Dist[k].end,置k←k+1若边(u,v)与T(P)中的边不构成回路,则把边(u,v)加入到T(P)中,并置e←e+1。
进一步地,所述步骤S23中预定条件为:
该相关边对构成的三角形与所述三角网格表中其他三角形中的任一个三角形除顶点外无交点,即三角形相互之间是不相交的;并且
该相关边对构成的三角形内不包含所述三角网格表中其他任意三角形;并且
所述三角网格表中其他任意三角形内不包含该相关边对构成的三角形,即三角形相互之间是互不包含的。
进一步地,源多边形选用原三角形,目标多边形选用目标的三角形,那么目标三角形与源三角形的三角对生成方法,具体为:
(1)输入源控制点与目标控制点对应,记录源控制点序号,目标控制点序号及其对应的位置坐标,形成控制点对,即所述源控制点与所述目标控制点的一一映射关系,
(2)遍历三角网格表TML中的三角索引,据此查找目标控制点,通过控制点对查找源控制点,形成三角对;
(3)将每个三角对加入到三角对列表当中,以备后续使用。
进一步地,所述方法还包括计算所述变换矩阵的步骤:
其中,所述目标多边形网格为目标三角形,源多边形网格为源三角形;
利用如下公式,根据已知的源三角形三个顶点的坐标以及对应的目标三角形三个顶点的坐标计算所述变换矩阵:
式中,(xA,yA,1),(xB,yB,1),(xC,yC,1)为所述源三角形三个顶点的坐标,(x'A,y'A,1),(x'B,y'B,1),(x'C,y'C,1)为所述目标三角形三个顶点的坐标。
如上图4所示,三角对(ABC,A'B'C'),ABC点的齐次坐标为(x'A,y'A,1),(x'B,y'B,1)(x'C,y'C,1)(xB,yB,1),(xC,yC,1)矩阵的变换相当于将△ABC中的每个点映射到△A'B'C',由于已经存在了三个顶点的对应关系,即A->A',B->B',C->C',则可以定义一个3×3的矩阵M,则有M(A,B,C)=(A',B',C'),由于三角形的三个顶点不共线,因此(A,B,C)组成的矩阵存在逆矩阵,从而得到矩阵M=(A',B',C')·(A,B,C)-1,该矩阵M决定了△ABC到△A'B'C'的映射关系。之后通过M矩阵与相应的源三角形相乘得到相应的目标三角形。
进行矩阵变换算法后,即步骤S4之后,△A'B'C'中的任何一点在△ABC都存在原象,换言之,△A'B'C'中存在的任意一个像素都能匹配到△ABC中的某一点,如果该点未必恰好为某个像素位置,就需要进行插值得到适合的颜色值。
本实施例采用双线性插值,步骤S5包括以下步骤:
判断没有在一个确定的像素位置的所述目标多边形内的一点是否在一矩形内,若在利用如下公式为该点匹配颜色值:
式中,f(Q11)、f(Q12)、f(Q21)、f(Q22)为所述矩形四个顶点的颜色值,如图5所示,f(x,y)为该点的颜色值,x1为所述矩形的横坐标的最小值,x2所述矩形的横坐标的最大值,y1为所述矩形的纵坐标的最小值,y2所述矩形的纵坐标的最大值。
进一步地,利用如下步骤判断没有在一个确定的像素位置的点(x,y)是否在矩形Q11Q12Q21Q22内,若左上顶点坐标(x1,y1),右下顶点坐标(x2,y2),点坐标(x,y),伪代码如下:
IF(x>x1 AND x<x2)AND(y>y1 AND y<y2)
THEN inside
ELSE outside
上述方法还适用于变形二维视频在三维地理信息空间中的校正。
进一步地,重复移动目标控制点坐标,即执行步骤S4、S5,实现三角的重新映射,可进一步提高精确。
上述控制点为手动设置或计算得到的用来控制和调整图形图像的特殊点。
上述源控制点为二维视频图像中的控制点。
上述目标控制点为三维图形空间中目标平面上的控制点。
上述控制点对为源控制点与目标控制点一一对应,形成映射关系,源控制点与相应的目标控制点构成一个控制点对。
上述三角对为三个控制点对,源控制点构成源三角形,目标控制点构成目标三角形,由源三角形和目标三角形构成一个三角对。
上述相关边及夹角为:设图G=(V,E),其中V是顶点集,E是边集,若有边eik=(vi,vk),eij=(vi,vj)则eik与eij为一对相关边。有向边vivj与vivk之间的夹角为相关边对eik,eij的夹角。
上述EMST为最小生成树算法。
上述相关边对表为由EMST或当前图中相关边对组成的表称为相关边对表(简记为IEPT)。
对应于上述方法存在一种进行融合校正的系统,所述系统包括PC客户端,具体包括目标多边形生成单元、映射构建单元、三角形对构建单元以及坐标融合单元;
所述映射构建单元用于建立源控制点与目标控制点的一一映射关系;
所述目标多边形网格生成单元用于利用所述目标控制点生成目标多边形网格,其中所述多边形网格以所述目标控制点为顶点;
所述三角形对构建单元用于根据所述一一映射关系获得与所述目标多边形网格对应的源多边形网格,并求得所述目标控制点与所述源控制点的变换矩阵;
所述坐标融合单元用于对于每一个所述源多边形网格,根据其顶点坐标以及变换矩阵,计算得到视频图像中每一像素在对应所述目标多边形网格中的融合坐标。
进一步地,所述系统还包括颜色匹配单元,所述颜色匹配单元用于在所述目标多边形网格内一点的融合坐标没有在一个确定的像素位置,对所述目标三角形内一点进行双线性插值,为所述目标三角形内一点匹配颜色值。
进一步地,上述系统还包括视频服务器和地理信息服务器,如图6所示,PC客户端通过网络从视频服务器读取多路视频流,并从地理信息服务器中读取三维地理信息,将多路视频流加载至地理信息空间,并在客户端完成视频流的拼接与融合。如图7所示,在客户端完成视频流的拼接与融合包括:视频图像三角网格化以及更改目标三角网中目标三角形的坐标,完成视频的拼接融合。
以上实施方式仅用于说明本发明,而非对本发明的限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行各种组合、修改或者等同替换,都不脱离本发明技术方案的精神和范围,均应涵盖在本发明的权利要求范围当中。
Claims (9)
1.一种多路二维视频图像在三维地理空间中融合校正方法,其特征在于,所述方法包括以下步骤:
S1、输入三维地理信息空间中的多个目标控制点以及视频图像中的多个源控制点,并建立所述源控制点与所述目标控制点的一一映射关系;
S2、利用所述目标控制点生成目标多边形网格,其中所述多边形网格以所述目标控制点为顶点;
S3、根据所述一一映射关系获得与所述目标多边形网格对应的源多边形网格,并求得所述目标控制点与所述源控制点的变换矩阵;
S4、对于每一个所述源多边形网格,根据其顶点坐标以及变换矩阵,计算得到视频图像中每一像素在对应所述目标多边形网格中的融合坐标。
2.根据权利要求1所述的方法,其特征在于,所述步骤S4之后还包括以下步骤:
S5、若所述目标多边形网格内的一点的融合坐标没有在一个确定的像素位置,则对该点进行双线性插值,为该点匹配颜色值。
3.根据权利要求1所述的方法,其特征在于,所述目标多边形网格为目标三角形,所述步骤S2还包括以下步骤:
S21、根据所述多个目标控制点,利用最小生成树算法求解第一边表;其中所述第一边表包括多条边,并且所述边的两个顶点为两个目标控制点;
S22、根据所述第一边表求解相关边对表;其中所述相关边对表包括多个相关边对,并且所述相关边对包括两个共用一个顶点的边;
S23、求解所述相关边对的夹角,在所述相关边对表中存在至少一对相关边时执行以下操作:
查询夹角最小的相关边对,若该相关边对构成的三角形满足预定条件则将该相关边对组成的三角形放入三角网格表中,并将该相关边对构成的三角形中除该相关边对外的边加入所述边表中,将该相关边对构成的三角形中除该相关边对外的边引入的相关边对加入所述相关边对表中;
S24、利用最大-最小内角准则对所述三角网格表中的每个三角形进行优化得到所述目标三角网。
4.根据权利要求3所述的方法,其特征在于,所述步骤S24包括以下步骤:
S241、利用所述三角网格表中的每个三角形中的边形成第二边表;
S242、对于所述第二边表中每一个非边界边执行以下操作:
以该非边界边为边的两个三角形构成一个四边形,若该四边形是凹四边形则不进行处理;若该四边形是凸四边形,则计算以该非边界边为边的两个三角形中的最小内角,之后交换该四边形的对角线,形成两个新的三角形,并计算所述两个新的三角形中的最小内角,若所述两个新的三角形中的最小内角大于所述以该非边界边为边的两个三角形中的最小内角,则用所述两个新的三角形代替所述以该非边界边为边的两个三角形。
5.根据权利要求3所述的方法,其特征在于,所述步骤S21包括以下步骤:
S211、计算所述多个目标控制点中任意两个目标控制点之间的距离,并将计算得到的距离存入距离数组中,所述距离数组中的每个元素包括距离以及与所述距离对应的起始点和终止点,所述起始点和所述终止点均为目标控制点;
S212、初始化第一边表;
S213、按照距离从小到大的顺序,对于每个距离进行以下操作:
取该距离对应的起始点和终止点,若以所述起始点为起点和终止点为终点形成的边与所述第一边表中的边不构成回路,则将以所述起始点为起点和终止点为终点形成的边加入所述第一边表中。
6.根据权利要求3所述的方法,其特征在于,所述步骤S23中预定条件为:
该相关边对构成的三角形与所述三角网格表中其他三角形中的任一个三角形除顶点外无交点;并且
该相关边对构成的三角形内不包含所述三角网格表中其他任意三角形;并且
所述三角网格表中其他任意三角形内不包含该相关边对构成的三角形。
9.一种利用权利要求1至8任一项所述的方法进行融合校正的系统,其特征在于,所述系统包括目标多边形网格生成单元、映射构建单元、三角形对构建单元以及坐标融合单元;
所述映射构建单元用于建立源控制点与目标控制点的一一映射关系;
所述目标多边形网格生成单元用于利用所述目标控制点生成目标多边形网格,其中所述多边形网格以所述目标控制点为顶点;
所述三角形对构建单元用于根据所述一一映射关系获得与所述目标多边形网格对应的源多边形网格,并求得所述目标控制点与所述源控制点的变换矩阵;
所述坐标融合单元用于对于每一个所述源多边形网格,根据其顶点坐标以及变换矩阵,计算得到视频图像中每一像素在对应所述目标多边形网格中的融合坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610065790.0A CN106600691B (zh) | 2016-01-29 | 2016-01-29 | 多路二维视频图像在三维地理空间中融合校正方法、系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610065790.0A CN106600691B (zh) | 2016-01-29 | 2016-01-29 | 多路二维视频图像在三维地理空间中融合校正方法、系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106600691A CN106600691A (zh) | 2017-04-26 |
CN106600691B true CN106600691B (zh) | 2020-04-07 |
Family
ID=58555573
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610065790.0A Active CN106600691B (zh) | 2016-01-29 | 2016-01-29 | 多路二维视频图像在三维地理空间中融合校正方法、系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106600691B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111161130B (zh) * | 2019-11-25 | 2024-05-17 | 北京智汇云舟科技有限公司 | 一种基于三维地理信息的视频矫正方法 |
CN111415411B (zh) * | 2020-03-02 | 2023-12-12 | 重庆市勘测院 | 三维模型空间坐标纠正及加密方法 |
CN113961746B (zh) * | 2021-09-29 | 2023-11-21 | 北京百度网讯科技有限公司 | 视频生成方法、装置、电子设备及可读存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101655992A (zh) * | 2009-09-15 | 2010-02-24 | 中国科学院软件研究所 | 一种三角网格模型的重建方法 |
CN101984465A (zh) * | 2010-10-19 | 2011-03-09 | 浙江大学 | 一种图像无缝复制的方法 |
CN102142043A (zh) * | 2010-02-03 | 2011-08-03 | 上海华宇电子工程有限公司 | 一种三角剖分方法 |
CN102957895A (zh) * | 2011-08-25 | 2013-03-06 | 上海安维尔信息科技有限公司 | 一种基于卫星图的全局拼接型视频监控显示方法 |
CN103049896A (zh) * | 2012-12-27 | 2013-04-17 | 浙江大学 | 三维模型的几何数据和纹理数据自动配准算法 |
CN103220975A (zh) * | 2010-10-08 | 2013-07-24 | 泰莱伊奥斯有限责任公司 | 用于为了诊断、外科或介入医学目的而在医学应用中映射三维空间的装置与方法 |
CN104320616A (zh) * | 2014-10-21 | 2015-01-28 | 广东惠利普路桥信息工程有限公司 | 一种基于三维场景建模的视频监控系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6694264B2 (en) * | 2001-12-19 | 2004-02-17 | Earth Science Associates, Inc. | Method and system for creating irregular three-dimensional polygonal volume models in a three-dimensional geographic information system |
-
2016
- 2016-01-29 CN CN201610065790.0A patent/CN106600691B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101655992A (zh) * | 2009-09-15 | 2010-02-24 | 中国科学院软件研究所 | 一种三角网格模型的重建方法 |
CN102142043A (zh) * | 2010-02-03 | 2011-08-03 | 上海华宇电子工程有限公司 | 一种三角剖分方法 |
CN103220975A (zh) * | 2010-10-08 | 2013-07-24 | 泰莱伊奥斯有限责任公司 | 用于为了诊断、外科或介入医学目的而在医学应用中映射三维空间的装置与方法 |
CN101984465A (zh) * | 2010-10-19 | 2011-03-09 | 浙江大学 | 一种图像无缝复制的方法 |
CN102957895A (zh) * | 2011-08-25 | 2013-03-06 | 上海安维尔信息科技有限公司 | 一种基于卫星图的全局拼接型视频监控显示方法 |
CN103049896A (zh) * | 2012-12-27 | 2013-04-17 | 浙江大学 | 三维模型的几何数据和纹理数据自动配准算法 |
CN104320616A (zh) * | 2014-10-21 | 2015-01-28 | 广东惠利普路桥信息工程有限公司 | 一种基于三维场景建模的视频监控系统 |
Non-Patent Citations (3)
Title |
---|
"3DGIS 与多视频融合系统的设计与实现";马原野 等;《计算机应用与软件》;20120630;第29卷(第6期);第110-112页 * |
"An approach to 3D model fusion in GIS systems and its application in a future ECDIS";Tao Liu.et al;《Computers & Geosciences》;20160116;第12-19页 * |
"监控视频与2D地理空间数据互映射";张兴国 等;《武汉大学学报 信息科学版》;20150831;第40卷(第8期);第1130-1134页 * |
Also Published As
Publication number | Publication date |
---|---|
CN106600691A (zh) | 2017-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104376552B (zh) | 一种3d模型与二维图像的虚实配准方法 | |
JP7300550B2 (ja) | 視覚標識に基づき標識マップを構築する方法、装置 | |
CN108304075A (zh) | 一种在增强现实设备进行人机交互的方法与设备 | |
CN112288826B (zh) | 双目相机的标定方法、装置及终端 | |
CN110276768B (zh) | 图像分割方法、图像分割装置、图像分割设备及介质 | |
CN109032348A (zh) | 基于增强现实的智能制造方法与设备 | |
CN111221933A (zh) | 海量地图数据与建筑信息模型融合的三维瓦片构建方法 | |
US10733777B2 (en) | Annotation generation for an image network | |
CN106600691B (zh) | 多路二维视频图像在三维地理空间中融合校正方法、系统 | |
WO2021035627A1 (zh) | 获取深度图的方法、装置及计算机存储介质 | |
CN116883251B (zh) | 基于无人机视频的图像定向拼接与三维建模方法 | |
CN114202632A (zh) | 网格线性结构恢复方法、装置、电子设备及存储介质 | |
CN113643414A (zh) | 一种三维图像生成方法、装置、电子设备及存储介质 | |
CN111583381A (zh) | 游戏资源图的渲染方法、装置及电子设备 | |
CN113223078A (zh) | 标志点的匹配方法、装置、计算机设备和存储介质 | |
CN113724391A (zh) | 三维模型构建方法、装置、电子设备和计算机可读介质 | |
CN115294268A (zh) | 一种物体的三维模型重建方法及电子设备 | |
CN112002007B (zh) | 基于空地影像的模型获取方法及装置、设备、存储介质 | |
CN111402429B (zh) | 一种尺度还原、三维重建方法、系统、存储介质及设备 | |
CN117495975A (zh) | 一种变焦镜头的标定方法、装置及电子设备 | |
CN107203984A (zh) | 针对第三方软件的投影融合矫正系统 | |
EP3410389A1 (en) | Image processing method and device | |
CN117058334A (zh) | 一种室内场景表面重建的方法、装置、设备及存储介质 | |
CN113298871B (zh) | 地图生成方法、定位方法及其系统、计算机可读存储介质 | |
CN103077523A (zh) | 手持相机拍摄取证方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |