CN103606151B - 基于影像点云的大范围虚拟地理场景自动构建方法 - Google Patents

基于影像点云的大范围虚拟地理场景自动构建方法 Download PDF

Info

Publication number
CN103606151B
CN103606151B CN201310573915.7A CN201310573915A CN103606151B CN 103606151 B CN103606151 B CN 103606151B CN 201310573915 A CN201310573915 A CN 201310573915A CN 103606151 B CN103606151 B CN 103606151B
Authority
CN
China
Prior art keywords
matched
image
point
dimensional
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201310573915.7A
Other languages
English (en)
Other versions
CN103606151A (zh
Inventor
张卡
闾国年
盛业华
刘学军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Normal University
Original Assignee
Nanjing Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Normal University filed Critical Nanjing Normal University
Priority to CN201310573915.7A priority Critical patent/CN103606151B/zh
Publication of CN103606151A publication Critical patent/CN103606151A/zh
Application granted granted Critical
Publication of CN103606151B publication Critical patent/CN103606151B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于影像点云的大范围虚拟地理场景自动构建方法。包括如下步聚:(1)输入序列航空/航天摄影影像,及其对应的定向参数文件,进行影像分块裁剪存储、确定多视影像匹配的基准影像、搜索影像和待匹配区域等预处理工作;(2)采用附加物方信息约束和双向一致性验证的多视影像匹配方法,获取基准影像上待匹配区域内所有像素在搜索影像上的同名像点;(3)根据多像光束法平差,计算待匹配像素对应地物点的三维坐标,再结合其RGB颜色信息,并按照一定的数据结构,生成表达待匹配区域地理场景的三维影像点云。根据本发明的方法获得的影像点云可用于从序列影像中自动构建大范围地理场景的虚拟三维模型。

Description

基于影像点云的大范围虚拟地理场景自动构建方法
技术领域
本发明属于摄影测量、计算机视觉和虚拟地理环境领域,涉及基于影像的虚拟地理场景构建方法。
背景技术
地理场景的三维重建既是3DGIS和虚拟地理环境发展的关键技术,也是空间信息服务环境具备强沉浸感体验性的基础。快速且自动地实现大范围复杂地理场景的真三维虚拟重建,一直是GIS、计算机视觉、虚拟现实、摄影测量等领域的难点问题和研究热点。针对地理场景的数字化三维重建,当前的方法按技术实现的途径可主要分为两大类:基于三维激光扫描的方法和基于影像的方法。虽然三维激光扫描获得的三维点云的几何精度高、点的密度较大,但在从点云到三维模型的重建过程中,需对点云进行配准、滤波、分割、特征提取、表面格网构建、纹理映射等一系列的处理,人机交互工作量较大;而且,点云数据中缺乏纹理和语义信息,若要构建真实感较强的三维模型,必需额外进行纹理影像的采集和纹理映射,增加了自动化三维建模的处理复杂度。
相较于激光扫描点云,影像数据中所蕴含的信息要丰富很多,其集几何、属性、语义等多种隐含的或显示的信息于一身,是真实地理场景最直观、最简洁的记录方式。但是,现有基于影像的三维重建方法或是仅将影像视为纹理属性来用,或是仅利用影像来提取几何模型(格网、TIN等);且在三维模型构建完成后,原始采集的带有各种定位信息的高分辨率的影像数据就不再使用。这种几何模型与纹理属性分开采集再映射融合的三维重建方法,一方面增加了数据处理的复杂度,一方面也使得重建场景的视觉效果不够真实。
在摄影测量领域,立体像对经相对定向和绝对定向后,可获得地理场景的真实感很强的视觉三维立体模型。然而,此视觉模型仍是一个不可接触的虚拟视像,也不能直接以数字化方式存储;需要同时保存其对应的原始立体像对和定向参数,才能在专业的数字摄影测量系统(VirtuoZo、JX4、ImageInfo-PixelGrid、Inpho等)中对其进行可视化与人机交互数据采集等操作。若能将视觉立体模型中所看到的每个地物点都以三维彩色点形式明确地编码并记录其几何空间信息和颜色属性,则可将基于原始影像呈现的视觉立体模型转换成可接触的数字化三维虚拟场景模型,从而有望以真实、简洁的数据模型来重建三维虚拟地理场景,并支持场景的可视化、交互及地理分析。显然,同时具有三维几何信息和二维颜色纹理信息的影像点云,是实现视觉立体模型到数字化虚拟场景转换的有效方法。
发明内容
本发明的目的在于针对现有基于影像的三维建模方法中人机交互操作过多、处理过程复杂和效率低下的不足,提出一种基于影像点云的大范围虚拟地理场景自动构建方法。本发明的影像点云是根据摄影测量原理,从序列航空或航天摄影影像中生成的同时具有三维激光扫描点云的三维几何信息和二维平面影像的颜色纹理属性的三维彩色点集,其能有效地将几何信息和颜色纹理信息进行一体化表达,且点集密度远远超过传统机载LiDAR点云,可有效地对现实地理场景进行真三维数字化重建和再现。
基于影像点云的大范围虚拟地理场景自动构建方法包括如下步骤:
步骤一,输入序列航空或航天摄影影像,及其对应的定向参数文件,进行影像分块裁剪存储、确定多视影像匹配的基准影像、搜索影像和待匹配区域等预处理工作;
步骤二,采用附加物方信息约束和双向一致性验证的多视影像匹配方法,获取基准影像上待匹配区域内所有像素在搜索影像上的同名像点;
步骤三,根据多像光束法平差,计算待匹配像素对应地物点的三维坐标,再结合其RGB颜色信息,并按照一定的数据结构,生成表达待匹配区域地理场景的三维影像点云。
所述步骤一具体包括:
(1)输入具有重叠度的n幅序列航空或航天摄影影像,及其对应的定向参数文件;
(2)将输入的序列影像,按t*t分块裁剪并存储,其中t为两位整数;
(3)确定一幅基准影像I0和n-1幅搜索影像S1、Si、…、Sn-1,并根据影像间的重叠度,确定基准影像上的待匹配区域范围的左上角和右下角的行列号;
(4)将待匹配区域进行m*m均匀格网划分,以提高后续的多视影像匹配的效率。
所述步骤二具体包括:对于基准影像上m*m均匀格网划分的待匹配区域,依次取出每一块待匹配区域,对此区域内的每一个待匹配像素点并行进行如下的多视影像匹配过程。
(1)根据待匹配区域的最大高程Zmax和最小高程Zmin,确定待匹配点在各幅搜索影像上的候选同名点搜索范围;
(2)在同名点搜索范围内,分别计算待匹配点和各幅搜索影像上的每个候选点的匹配测度ρ1、…、ρn-1,取n-1个匹配测度的平均值作为每个候选同名点和待匹配点的多像匹配测度,并以最大多像匹配测度所对应的各个候选同名点作为待匹配点在各幅搜索影像上的同名像点;
(3)对于每幅搜索影像上的同名像点,按照双像立体影像匹配的方式,确定其在基准影像上的同名点,并将该同名点和原来的待匹配点进行比较,如果其列号之间的差值小于一定的阈值,则认为该幅搜索影像上的同名像点有效,并将该同名像点放入基准影像上待匹配点的同名像点集合;若待匹配点在各幅搜索影像上都没有找到有效的同名像点,则该待匹配点为无效的点,其同名像点集合为空,并赋予其对应地物点的三维坐标为一个无效的值。
所述步骤三具体包括:
(1)对于待匹配区域内的每一个有效的待匹配点,利用此待匹配点在基准影像上的行列数值、及其对应的同名点集合中的各个同名点在各自搜索影像上的行列数值,根据多像光束法平差,计算待匹配点对应地物点的三维空间坐标X、Y、Z;再结合该待匹配点在基准影像上的RGB颜色信息,将此待匹配点从二维像素转换成一个三维彩色点;
(2)按照一定的数据结构,将待匹配区域内的所有三维彩色点组织成测区地理场景的三维影像点云。
本发明的基于影像点云的大范围虚拟地理场景自动构建方法是全自动的方法,仅需要用户指定一些初始输入参数。本发明根据多视摄影测量原理,将序列航空或航天摄影影像的重叠区域内的每一个二维平面像素转换成具有三维空间坐标和RGB颜色信息的彩色点,从而得到重叠区域内地理场景的超密集三维彩色点集,即影像点云。此种影像点云同时具有三维激光扫描点云的三维几何信息和二维平面影像的颜色纹理属性,能有效地将几何信息和颜色纹理信息进行一体化表达,可有效地对现实地理场景进行真三维数字化重建和再现;其点集密度远远超过传统机载LiDAR点云,可用于从序列影像中自动构建大范围地理场景的虚拟三维模型,有效地对现实地理场景进行真三维数字化重建和再现,解决了传统基于影像的三维建模过程中先几何建模再纹理映射的效率低下问题。
附图说明
图1是本发明实施例的方法框架图;
图2是本发明实施例搜索影像上同名像点的同名搜索核线示意图;
图3是本发明实施例多视摄影测量交会定点示意图;
图4是本发明实施例某地区局部区域的航空影像;
图5是本发明实施例生成的某地区地理场景的三维影像点云效果图。
具体实施方式
以下结合具体实施例,并参照附图,对本发明作进一步详细说明。
如图1所示,基于影像点云的大范围虚拟地理场景自动构建方法包括三部分:(1)影像数据准备与预处理;(2)逐像素的多视影像并行匹配;(3)影像点云生成。具体实施步骤为:
第一步:影像数据准备与预处理。
(1)输入具有重叠度的n幅序列航空/航天摄影影像,及其对应的定向参数文件,参数文件包括数码传感器的检校参数文件、每幅影像的外方位元素文件或RPC参数文件(航空摄影影像为空中三角测量处理后得到的外方位元素文件,航天摄影影像为RPC参数文件)、立体像对的空中三角测量处理后的相对定向像点坐标文件(用以自动计算测区的最大、最低高程,此文件不是必须使用);
(2)将输入的序列影像,按t*t分块裁剪并存储(t为两位整数,如t取10,则每幅影像被裁剪成100块小块影像),存储时,各分块影像文件名的命名规则为:原始影像文件名+“_”+两位字符串表示的分块行数+两位字符串表示的分块列数(如第1行第9列处的小块影像,其名称为原始影像文件名_0109);
(3)确定一幅基准影像I0和n-1幅搜索影像S1、Si、…、Sn-1,并根据影像间的重叠度,确定基准影像上的待匹配区域范围的左上角和右下角的行列号;
若原始影像的宽度为Width、高度为Height(单位像素),影像间的重叠度为p%,则基准影像上的待匹配区域的左上角行列号(RTL,CTL)、右下角行列号(RBR,CBR)按下式计算:
R TL = Height 50 ; C TL = Width × ( 1 - p % ) R BR = Height - Height 50 ; C BR = Width × p % - - - ( 1 )
左上角的行号、右下角行号没取0和Height-1,是考虑影像间在竖直方向存在一定的偏移。
(4)将待匹配区域进行m*m均匀格网划分(参数m为任意整数,由人工指定),以提高后续的多视影像匹配的效率。
第二步:逐像素的多视影像并行匹配。
对于基准影像上m*m均匀格网划分的待匹配区域,依次取出每一块待匹配区域,对此区域内的每一个待匹配像素点并行进行如下的多视影像匹配过程。
(1)根据待匹配区域的最大高程Zmax和最小高程Zmin,确定待匹配点在各幅搜索影像上的候选同名点搜索范围(即同名搜索核线),确定基准影像上的待匹配点在某一幅搜索影像上的候选同名点的同名搜索核线的示意图如附图2所示,候选同名点q′所在的同名核线的两个端点q′min、q′max,其在搜索影像上的像平面坐标(x′,y′)按下式计算:
(x',y')=F(X,Y,Z)(2)
式中,F为影像的成像模型函数(航空影像的成像模型是共线方程,航天影像则是有理函数模型),(X,Y,Z)为像点对应地物点的物方三维坐标。
根据同名核线的两个端点坐标,则可按下式确定搜索核线的直线方程:
y ′ = kx ′ + b k = ( y ′ max - y ′ min ) / ( x ′ max - x ′ min ) ; b = y ′ max - kx ′ max - - - ( 3 )
(2)在同名点搜索范围内,分别计算待匹配点和各幅搜索影像上的每个候选点的匹配测度ρ1、…、ρn-1,取n-1个匹配测度的平均值作为每个候选同名点和待匹配点的多像匹配测度,并以最大多像匹配测度所对应的各个候选同名点作为待匹配点在各幅搜索影像上的同名像点;
对于基准影像上的待匹配点p和其在某幅搜索影像上的候选同名点q′,两点之间的匹配测度按如下的方法计算:
首先,分别以待匹配点p和候选同名点q′为中心在基准影像和搜索影像上取两个大小为N*N的影像窗口W、W′,按下式计算两个窗口在红、绿、蓝三个灰度通道内的灰度相关系数ρr g、ρg g、ρb g,并取三个相关系数的平均值作为两个点之间的颜色相关系数ρc=(ρr gg gb g)/3;
ρ g r = Σ i = 1 N Σ j = 1 N R i , j R i , j ′ - ( Σ i = 1 N Σ j = 1 N R i , j ) ( Σ i = 1 N Σ j = 1 N R i , j ′ ) / N 2 ( Σ i = 1 N Σ j = 1 N R i , j 2 - ( Σ i = 1 N Σ j = 1 N R i , j ) 2 / N 2 ) ( Σ i = 1 N Σ j = 1 N R i , j ′ 2 - ( Σ i = 1 N Σ j = 1 N R i , j ′ ) 2 / N 2 ) - - - ( 4 )
式中,Ri,j、R′i,j分别表示影像窗口W、W′中第i行第j列像素的红色通道内的灰度值。
其次,分别以待匹配点p和候选同名点q′为中心在基准影像和搜索影像上取两个大小为16*16的灰度影像窗口W、W′,窗口内的像素值都取红绿、蓝三个灰度通道内的灰度值的平均值,计算待匹配点和搜索点的128维的SIFT特征向量T、T′,并按下式计算两点之间的特征相似度ρs
ρs=T·T'/(length(T)×length(T'))(5)
最后,取颜色相关系数ρc和特征相似度ρs的平均值作为待匹配点和候选同名点之间的匹配测度ρ=(ρcs)/2。
(3)对于每幅搜索影像上的同名像点,按照双像立体影像匹配的方式,确定其在基准影像上的同名点,并将该同名点和原来的待匹配点进行比较,如果其列号之间的差值小于一定的阈值,则认为该幅搜索影像上的同名像点有效,并将该同名像点放入基准影像上待匹配点的同名像点集合;若待匹配点在各幅搜索影像上都没有找到有效的同名像点,则该待匹配点为无效的点,其同名像点集合为空,并赋予其对应地物点的三维坐标为一个无效的值。
第三步:影像点云生成。
逐像素的多视影像匹配过程,确定了基准影像上的待匹配区域内的每个像素点p在各搜索影像上的k(k<=n-1)个同名像点集合{q′1、…、q′k},然后按下面的多视摄影测量原理(如附图3所示)生成待匹配区域地理场景的影像点云。
(1)对于待匹配区域内的每一个有效的待匹配点,利用此待匹配点在基准影像上的行列数值、及其对应的同名点集合中的各个同名点在各自搜索影像上的行列数值,根据多像光束法平差,计算待匹配点对应地物点的三维空间坐标X、Y、Z;再结合该待匹配点在基准影像上的RGB颜色信息,将此待匹配点从二维像素转换成一个三维彩色点;
对于每幅影像上的像点,在影像内外方位元素已知的情况下,视像点的像平面坐标为观测值,可列出如下的像平面坐标(x,y)与对应物方三维坐标(X,Y,Z)之间的误差方程(以基准影像I0为例):
v x I 0 = a 11 I 0 x ^ - a 12 I 0 y ^ - a 13 I 0 z ^ - ( x I 0 - x I 0 0 ) v y I 0 = - a 21 I 0 x ^ - a 22 I 0 y ^ - a 23 I 0 z ^ - ( y I 0 - y I 0 0 ) - - - ( 6 )
式中,
a 11 I 0 = ( a 1 I 0 f + a 3 I 0 x I 0 ) / Z &OverBar; , a 12 I 0 = ( b 1 I 0 f + b 3 I 0 x I 0 ) / Z &OverBar; , a 13 I 0 = ( c 1 I 0 f + c 3 I 0 x I 0 ) / Z &OverBar; a 21 I 0 = ( a 2 I 0 f + a 3 I 0 x I 0 ) / Z &OverBar; , a 22 I 0 = ( b 2 I 0 f + b 3 I 0 x I 0 ) / Z &OverBar; , a 23 I 0 = ( c 2 I 0 f + c 3 I 0 x I 0 ) / Z &OverBar; Z &OverBar; = a 3 I 0 ( X 0 - X I 0 ) + b 3 I 0 ( Y 0 - Y I 0 ) + c 3 I 0 ( Z 0 - Z I 0 )
aI0 i、bI0 i、cI0 i(i=1,2,3)是由影像I0的外方位角元素确定的旋转矩阵中的九个方向余弦;(X0,Y0,Z0)是地物点待求坐标(X,Y,Z)的近似值(可根据p和q′点,利用双像前方交会计算得到),是近似三维坐标的平差改正数,(x0 I0,y0 I0)是将近似三维坐标带入式(2)计算的点p在I0上的近似像平面坐标。
因此,对于基准影像上的待匹配点p,及其在各搜索影像上的k(k<=n-1)个同名像点集合{q′1、…、q′k},可以按式(6)列出2k个误差方程,则多像光束法平差的矩阵形式的误差方程如下式所示:
V=AX-L(7)
式中, V = v x I 0 v y I 0 v x S 1 v y S 1 . . . v x S k v y S k T , X = x ^ y ^ z ^ T
A = - a 11 I 0 - a 12 I 0 - a 13 I 0 - a 21 I 0 - a 22 I 0 - a 23 I 0 - a 11 S 1 - a 12 S 1 - a 13 S 1 - a 12 S 1 - a 22 S 1 - a 23 S 1 . . . . . . . . . - a 11 S k - a 12 S k - a 13 S k - a 21 S k - a 22 S k - a 23 S k , L = x I 0 - x I 0 0 y I 0 - y I 0 0 x S 1 - x S 1 0 y S 1 - y S 1 0 . . . x S k - x S k 0 y S k - y S k 0
根据最小二乘间接平差原理,近似坐标改正数向量的解为:X=(ATA)-1(ATL)
进而求出待匹配点对应地物点的三维坐标: X = X 0 + x ^ , Y = Y 0 + y ^ , Z = Z 0 + z ^
(2)按照一定的数据结构,将待匹配区域内的所有三维彩色点组织成测区地理场景的三维影像点云。
对于即具有三维坐标和RGB颜色信息的彩色点,定义如下的数据结构ColorPoint以对其进行描述:
本发明的影像点云则是密集三维彩色点的集合,其数据结构ImagePointCloud定义如下:
附图4、附图5展示了基于本发明的方法从航空影像生成的某地区地理场景的影像点云效果图,其中,附图4是局部区域的原始航空影像,附图5是对应于该区域地理场景的三维影像点云。

Claims (3)

1.基于影像点云的大范围虚拟地理场景自动构建方法,其特征在于包括如下步骤:
步骤一,输入序列航空或航天摄影影像,及其对应的定向参数文件,进行影像分块裁剪存储、确定多视影像匹配的基准影像、搜索影像和待匹配区域的预处理工作;
步骤二,采用附加物方信息约束和双向一致性验证的多视影像匹配方法,获取基准影像上待匹配区域内所有像素在搜索影像上的同名像点;具体过程为:
对于基准影像上m*m均匀格网划分的待匹配区域,依次取出每一块待匹配区域,对此区域内的每一个待匹配像素点并行进行如下的多视影像匹配过程:
(1)根据待匹配区域的最大高程Zmax和最小高程Zmin,确定待匹配点在各幅搜索影像上的候选同名像点搜索范围;
(2)在同名像点搜索范围内,分别计算待匹配点和各幅搜索影像上的每个候选点的匹配测度ρ1、…、ρn-1,其中n为步骤一输入的序列影像的个数,取n-1个匹配测度的平均值作为每个候选同名像点和待匹配点的多像匹配测度,并以最大多像匹配测度所对应的各个候选同名像点作为待匹配点在各幅搜索影像上的同名像点;
(3)对于每幅搜索影像上的同名像点,按照双像立体影像匹配的方式,确定其在基准影像上的同名像点,并将该同名像点和原来的待匹配点进行比较,如果其列号之间的差值小于一定的阈值,则认为该幅搜索影像上的同名像点有效,并将该同名像点放入基准影像上待匹配点的同名像点集合;若待匹配点在各幅搜索影像上都没有找到有效的同名像点,则该待匹配点为无效的点,其同名像点集合为空,并赋予其对应地物点的三维坐标为一个无效的值;
步骤三,根据多像光束法平差,计算待匹配像素对应地物点的三维坐标,再结合其RGB颜色信息,并按照一定的数据结构,生成表达待匹配区域地理场景的三维影像点云,将获得的影像点云用于表达大范围地理场景的虚拟三维模型,实现从序列影像对虚拟地理场景的自动构建。
2.根据权利要求1所述的基于影像点云的大范围虚拟地理场景自动构建方法,其特征在于,所述步骤一的具体过程为:
(1)输入具有重叠度的n幅序列航空或航天摄影影像,及其对应的定向参数文件;
(2)将输入的序列影像,按t*t分块裁剪并存储,其中t为两位整数;
(3)确定一幅基准影像I0和n-1幅搜索影像S1、Si、…、Sn-1,并根据影像间的重叠度,确定基准影像上的待匹配区域范围的左上角和右下角的行列号;
(4)将待匹配区域进行m*m均匀格网划分,以提高后续的多视影像匹配的效率。
3.根据权利要求1所述的基于影像点云的大范围虚拟地理场景自动构建方法,其特征在于,所述步骤三的具体过程为:
(1)对于待匹配区域内的每一个有效的待匹配点,利用此待匹配点在基准影像上的行列数值、及其对应的同名像点集合中的各个同名像点在各自搜索影像上的行列数值,根据多像光束法平差,计算待匹配点对应地物点的三维空间坐标X、Y、Z;再结合该待匹配点在基准影像上的RGB颜色信息,将此待匹配点从二维像素转换成一个三维彩色点;
(2)按照一定的数据结构,将待匹配区域内的所有三维彩色点组织成测区地理场景的三维影像点云。
CN201310573915.7A 2013-11-15 2013-11-15 基于影像点云的大范围虚拟地理场景自动构建方法 Expired - Fee Related CN103606151B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310573915.7A CN103606151B (zh) 2013-11-15 2013-11-15 基于影像点云的大范围虚拟地理场景自动构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310573915.7A CN103606151B (zh) 2013-11-15 2013-11-15 基于影像点云的大范围虚拟地理场景自动构建方法

Publications (2)

Publication Number Publication Date
CN103606151A CN103606151A (zh) 2014-02-26
CN103606151B true CN103606151B (zh) 2016-05-04

Family

ID=50124371

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310573915.7A Expired - Fee Related CN103606151B (zh) 2013-11-15 2013-11-15 基于影像点云的大范围虚拟地理场景自动构建方法

Country Status (1)

Country Link
CN (1) CN103606151B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318566B (zh) * 2014-10-24 2017-04-05 南京师范大学 可返回多个高程值的新型多视影像铅垂线轨迹匹配方法
CN104851127B (zh) * 2015-05-15 2017-07-04 北京理工大学深圳研究院 一种基于交互的建筑物点云模型纹理映射方法及装置
CN106548509A (zh) * 2016-10-20 2017-03-29 中国科学院光电研究院 一种基于cuda及三维成像载荷的三维影像生成方法
CN107705269A (zh) * 2017-10-27 2018-02-16 广东电网有限责任公司机巡作业中心 一种三维建模中的去噪方法
CN108051837A (zh) * 2017-11-30 2018-05-18 武汉大学 多传感器集成室内外移动测绘装置及自动三维建模方法
CN110136179B (zh) * 2018-02-08 2022-02-22 中国人民解放军战略支援部队信息工程大学 一种基于直线拟合的三维激光点云配准方法及装置
CN110148205B (zh) * 2018-02-11 2023-04-25 北京四维图新科技股份有限公司 一种基于众包影像的三维重建的方法和装置
US11095900B2 (en) * 2018-12-19 2021-08-17 Sony Group Corporation Point cloud coding structure
CN109829939B (zh) * 2019-01-18 2023-03-24 南京泛在地理信息产业研究院有限公司 一种缩小多视影像匹配同名像点搜索范围的方法
CN110880003B (zh) * 2019-10-12 2023-01-17 中国第一汽车股份有限公司 一种图像匹配方法、装置、存储介质及汽车
CN110910338A (zh) * 2019-12-03 2020-03-24 煤炭科学技术研究院有限公司 一种三维实景视频的获取方法、装置、设备及存储介质
CN113379891A (zh) * 2021-04-30 2021-09-10 中石化石油工程技术服务有限公司 一种基于点云扫描的老旧供热站改造方法
CN114998397B (zh) * 2022-05-20 2023-04-11 中国人民解放军61540部队 一种多视角卫星影像立体像对优化选择方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101901501A (zh) * 2010-07-22 2010-12-01 首都师范大学 一种生成激光彩色云图的方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6816629B2 (en) * 2001-09-07 2004-11-09 Realty Mapping Llc Method and system for 3-D content creation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101901501A (zh) * 2010-07-22 2010-12-01 首都师范大学 一种生成激光彩色云图的方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Efficient 3D object recognition using foveated point clouds;Rafael Beserra Gomes等;《Computers & Graphics》;20130831;第37卷(第5期);第496-508页 *
基于双向最大相关与视差约束的特征点匹配;徐玮 等;《计算机工程与应用》;20081231;第44卷(第28期);第155-157页 *
基于多视影像匹配的三维彩色点云自动生成;张卡 等;《光学精密工程》;20130731;第21卷(第7期);第1841-1849页 *

Also Published As

Publication number Publication date
CN103606151A (zh) 2014-02-26

Similar Documents

Publication Publication Date Title
CN103606151B (zh) 基于影像点云的大范围虚拟地理场景自动构建方法
CN108038905B (zh) 一种基于超像素的目标重建方法
Zhang et al. Advances in fusion of optical imagery and LiDAR point cloud applied to photogrammetry and remote sensing
CN103606188B (zh) 基于影像点云的地理信息按需采集方法
CN111127538B (zh) 一种基于卷积循环编码-解码结构的多视影像三维重建方法
CN110674829A (zh) 一种基于图卷积注意网络的三维目标检测方法
CN104065947B (zh) 一种集成成像系统的深度图获取方法
CN102592275A (zh) 虚拟视点绘制方法
CN107170000B (zh) 基于全局块优化的立体影像密集匹配方法
CN102724529B (zh) 虚拟视点视频序列的生成方法及生成装置
Liu et al. Assessing the quality of building height extraction from ZiYuan-3 multi-view imagery
CN106683163B (zh) 一种视频监控的成像方法及系统
Condorelli et al. A comparison between 3D reconstruction using nerf neural networks and mvs algorithms on cultural heritage images
CN105809734B (zh) 一种基于多视角交互式的机械模型三维建模方法
CN115937461B (zh) 多源融合模型构建及纹理生成方法、装置、介质及设备
Haala et al. High density aerial image matching: State-of-the-art and future prospects
Yu et al. Incremental reconstruction of manifold surface from sparse visual mapping
CN104796624A (zh) 一种光场编辑传播方法
WO2024055211A1 (zh) 基于NeRF多景层结合的三维视频重建方法及系统
Waschbüsch et al. 3d video billboard clouds
KR102440916B1 (ko) 데이터 결합을 통한 3차원 문화재의 데이터베이스 구축방법 및 시스템
CN114283258A (zh) 一种基于cnn的单幅图像生成三维点云的方法
Weßling et al. Structure from motion for systematic single surface documentation of archaeological excavations
Zhang et al. UAVStereo: A Multiple Resolution Dataset for Stereo Matching in UAV Scenarios
Jun et al. National museum research based on virtual roaming technology

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160504

Termination date: 20181115

CF01 Termination of patent right due to non-payment of annual fee