CN105737805B - 卫星立体影像自适应制作方法 - Google Patents

卫星立体影像自适应制作方法 Download PDF

Info

Publication number
CN105737805B
CN105737805B CN201610063555.XA CN201610063555A CN105737805B CN 105737805 B CN105737805 B CN 105737805B CN 201610063555 A CN201610063555 A CN 201610063555A CN 105737805 B CN105737805 B CN 105737805B
Authority
CN
China
Prior art keywords
elevation
orthography
coordinate
picture point
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610063555.XA
Other languages
English (en)
Other versions
CN105737805A (zh
Inventor
范大昭
董杨
纪松
李奇峻
雷蓉
刘楚斌
李晶晶
刘小庆
欧阳欢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Information Engineering University of PLA Strategic Support Force
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201610063555.XA priority Critical patent/CN105737805B/zh
Publication of CN105737805A publication Critical patent/CN105737805A/zh
Application granted granted Critical
Publication of CN105737805B publication Critical patent/CN105737805B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/36Videogrammetry, i.e. electronic processing of video signals from a single source or from different sources to give parallax or range information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种卫星立体影像自适应制作方法,包括以下步骤:A、获取制作区域内正射影像的最大高差和人体双眼的最大限度高差;B、根据正射影像中各个像点的高程分别获得其相对高程;C、通过相对高程迭代计算正射影像中各个像点的同名像点坐标;D、根据正射影像中所有像点的同名像点坐标解算出正射影像立体配对片;E、依据由正射影像和正射影像立体配对片组成的立体像对,合成制作区域的立体影像。本发明依据影像覆盖地区的数字高程模型或数字表面模型格网点的高程自适应的确定该点的视差,能够很好的减小大范围立体影像制作时的视差变形,进而提高立体像对的可靠性,并增加观看影像时人眼的舒适度。

Description

卫星立体影像自适应制作方法
技术领域
本发明涉及摄影测量与遥感测绘技术领域,尤其涉及一种卫星立体影像自适应制作方法。
背景技术
在摄影测量与遥感测绘领域,一般需借助立体像对,形成立体影像,进行目标的三维显示或量测。传统的立体像对是基于影像获取时形成的天然视差制作而成的。
随着科技的发展,测绘卫星已成为摄影测量与遥感测绘领域获取数据的主要途径之一。但由于卫星一般沿南北方向飞行,获取的影像的方向与常规航空摄影不同。此时,直接利用原始影像制作出的立体影像与实际方位不符,无法与常规地图及地理空间信息相融合,给用户使用带来极大的不便。因此,需利用其它方法制作符合真实地理方位及人眼视觉感受的立体像对。同时,随着影像共享网站的丰富,人们已能免费下载较高分辨率的卫星正射影像、数字高程模型(简称DEM)以及数字表面模型(简称DSM)等,如何借助这些公共数据,制作成形象直观、真实感强、观看舒适的立体影像,具有很强的现实意义和实用价值。
基于卫星正射影像与影像覆盖地区的DEM可制作出具有一定视差的正射影像配对片,从而形成简单的立体影像对供用户使用。然而,国内外学者的研究表明,对于大范围的卫星立体影像制作,简单的正射影像配对片并不能很好地适应大范围内的视差变形,影像对立体感不强,人眼观察舒适性差,大大限制了卫星立体影像的应用效能。
发明内容
本发明的目的在于提供一种卫星立体影像自适应制作方法,能够减小大范围立体影像制作时易产生的视差变形,提高卫星立体影像的可观测性,同时提高人眼观看立体影像时的舒适度。
为实现上述目的,本发明采用的技术方案是:
卫星立体影像自适应制作方法,包括以下步骤:
A、根据制作区域内正射影像的最高高程与最低高程,计算最大高差,并根据正射影像的分辨率获取人体双眼的最大限度高差,然后进入步骤B;
B、依次读取正射影像中各个像点的高程,利用最低高程、最大高差与最大限度高差进行高程映射,分别获得正射影像中各个像点的相对高程,然后进入步骤C;
C、根据投影角度确定视差函数,然后通过相对高程迭代计算正射影像中各个像点的左右视差,最终获得正射影像中各个像点的同名像点坐标,然后进入步骤D;
D、将正射影像中所有像点的同名像点坐标反算至正射影像坐标,并按照正射影像的灰度值内插计算各个同名像点的灰度值,由此解算出正射影像立体配对片,然后进入步骤E;
E、依据由正射影像和正射影像立体配对片组成的立体像对,合成制作区域的立体影像。
所述的步骤A包括以下步骤:
A1、获取制作区域的正射影像,以及制作区域的数字高程模型或数字表面模型;
A2、确定正射影像中像点的最高高程hmax与最低高程hmin,并计算最大高差Δhmax,Δhmax=hmax-hmin
A3、根据正射影像的分辨率获取人体双眼的最大限度高差φmax,φmax=m·Dis,式中m为人体双眼能够容纳的最大视差,Dis为正射影像的分辨率。
所述的步骤B包括以下步骤:
B1、将正射影像中的各个像点依次标记为P1,P2,……,Pn,其中n为正射影像中的像点个数,像点P1的坐标为(x1,y1),像点P2的坐标为(x2,y2),……,像点Pn的坐标为(xn,yn);
B2、根据P1的坐标(x1,y1)从数字高程模型或数字表面模型中获取P1的高程h1,根据P2的坐标(x2,y2)从数字高程模型或数字表面模型中获取P2的高程h2,以此类推,直至根据Pn的坐标(xn,yn)从数字高程模型或数字表面模型中获取Pn的高程hn
B3、确定映射函数φ(h)=f·Δh,其中f=F(Δh)为压缩率函数,h为高程,Δh为高差,hmin为最低高程,Δh=h-hmin
B4、将P1的高程h1代入映射函数φ(h),得到P1的相对高程φ1,将P2的高程h2代入映射函数φ(h),得到P2的相对高程φ2,以此类推,直至将Pn的高程hn代入映射函数φ(h),得到Pn的相对高程φn
所述的步骤C包括以下步骤:
C1、设定投影角度α,投影系数k=tan(α),视差函数p=k·φ(h);
C2、将正射影像中的P1作为基准像点,并记P1的高程h1为h1,0,记P1的相对高程φ1为φ1,0,根据P1的坐标(x1,y1)和投影系数k,获取与P1仅有左右视差的像点P1,i,下标i=1,2,……,i为迭代索引;
C3、计算P1,i的横坐标x1,i=x1+k·φi-1,根据P1,i的坐标(x1,i,y1)从数字高程模型或数字表面模型中获取P1,i的高程h1,i,当δ1<|h1,i-h1,i-1|且i≤Pnum时,将P1,i的高程h1,i代入映射函数φ(h),得到P1,i的相对高程φ1,i,将i的值加1,然后返回步骤C3,当δ1≥|h1,i-h1,i-1|或i>Pnum时,将P1,i作为P1的同名像点,然后进入步骤C4,其中δ1为设定的高程差阈值,Pnum为设定的迭代次数阈值;
C4、分别对P2的相对高程φ2,P3的相对高程φ3,……,Pn的相对高程φn按照步骤C2和C3的方法进行相对高程迭代,依次获得P2的同名像点,P3的同名像点,……,Pn的同名像点。
所述的步骤E包括以下步骤:
E1、依据由正射影像和正射影像立体配对片生成的立体像对,合成相同大小的立体影像;
E2、当正射影像为灰度影像时,向立体影像的红波段写入正射影像的灰度值,向立体影像的绿波段和蓝波段分别写入正射影像立体配对片的灰度值;
当正射影像为彩色影像时,向立体影像的红波段写入正射影像红波段的灰度值,向立体影像的绿波段写入正射影像立体配对片绿波段的灰度值,向立体影像的蓝波段写入正射影像立体配对片蓝波段的灰度值。
所述的人体双眼能够容纳的最大视差m取值为120。
所述的映射函数
所述的投影角度α为45°或135°,即k=1或k=-1。
所述的高程差阈值δ1≤1米,迭代次数阈值Pnum≥10。
本发明依据影像覆盖地区的数字高程模型或数字表面模型格网点的高程自适应的确定该点的视差,能够很好的减小大范围立体影像制作时的视差变形,进而提高立体像对的可靠性,并增加观看影像时人眼的舒适度。
附图说明
图1为本发明的流程示意图;
图2为本发明正射影像的示意图;
图3为本发明部分像点的高程示意图;
图4为图3中像点的相对高程示意图;
图5为本发明立体辅助影像的示意图;
图6为本发明解算立体影像同名像点的示意图。
具体实施方式
如图1所示,本发明提供的卫星立体影像自适应制作方法,包括以下步骤:
A、根据制作区域内正射影像的最高高程与最低高程,计算最大高差,并根据正射影像的分辨率获取人体双眼的最大限度高差,然后进入步骤B。
步骤A包括以下步骤:
A1、获取制作区域的正射影像,以及制作区域的数字高程模型或数字表面模型,如图2所示,正射影像的投影方向垂直于水平面。
A2、确定正射影像中像点的最高高程hmax与最低高程hmin,并计算最大高差Δhmax,Δhmax=hmax-hmin
A3、根据正射影像的分辨率获取人体双眼的最大限度高差φmax,φmax=m·Dis,式中m为人体双眼能够容纳的最大视差,m的取值为120,Dis为正射影像的分辨率。
B、依次读取正射影像中各个像点的高程,利用最低高程、最大高差与最大限度高差进行高程映射,分别获得正射影像中各个像点的相对高程,然后进入步骤C。
步骤B包括以下步骤:
B1、将正射影像中的各个像点依次标记为P1,P2,……,Pn,其中n为正射影像中的像点个数,像点P1的坐标为(x1,y1),像点P2的坐标为(x2,y2),……,像点Pn的坐标为(xn,yn)。
B2、根据P1的坐标(x1,y1)从数字高程模型或数字表面模型中获取P1的高程h1,根据P2的坐标(x2,y2)从数字高程模型或数字表面模型中获取P2的高程h2,以此类推,直至根据Pn的坐标(xn,yn)从数字高程模型或数字表面模型中获取Pn的高程hn,图3为制作区域部分像点的高程示意图。
B3、确定映射函数φ(h)=f·Δh,其中f=F(Δh)为压缩率函数,h为高程,Δh为高差,hmin为最低高程,Δh=h-hmin,本实施例中的映射函数为
B4、将P1的高程h1代入映射函数φ(h),得到P1的相对高程φ1,将P2的高程h2代入映射函数φ(h),得到P2的相对高程φ2,以此类推,直至将Pn的高程hn代入映射函数φ(h),得到Pn的相对高程φn,图4为对图3中的像点进行高程映射后得到的相对高程示意图。
C、根据投影角度确定视差函数,然后通过相对高程迭代计算正射影像中各个像点的左右视差,最终获得正射影像中各个像点的同名像点坐标,然后进入步骤D。
步骤C包括以下步骤:
C1、设定投影角度α,投影系数k=tan(α),视差函数p=k·φ(h),如图5所示,立体辅助影像的投影方向倾斜于水平面。
C2、选取正射影像中的P1作为基准像点,并记P1的高程h1为h1,0,记P1的相对高程φ1为φ1,0,根据P1的坐标(x1,y1)和投影系数k,获取与P1仅有左右视差的像点P1,i,下标i=1,2,……,i为迭代索引。
C3、计算P1,i的横坐标x1,i=x1+k·φ1,i-1,根据P1,i的坐标(x1,i,y1)从数字高程模型或数字表面模型中获取P1,i的高程h1,i,设定高程差阈值δ1和迭代次数阈值Pnum,本实施例中取δ1=1米,Pnum=10,当δ1<|h1,i-h1,i-1|且i≤Pnum时,将P1,i的高程h1,i代入映射函数φ(h),得到P1,i的相对高程φ1,i,将i的值加1,然后返回步骤C3,当δ1≥|h1,i-h1,i-1|或i>Pnum时,将P1,i作为P1的同名像点,然后进入步骤C4。其中,图6为通过高程迭代解算立体影像同名像点的过程示意图。
C4、分别对P2的相对高程φ2,P3的相对高程φ3,……,Pn的相对高程φn按照步骤C2和C3的方法进行相对高程迭代,依次获得P2的同名像点,P3的同名像点,……,Pn的同名像点,具体过程如下。
获取P2的同名像点:
c1、选取正射影像中的P2作为基准像点,并记P2的高程h2为h2,0,记P2的相对高程φ2为φ2,0,根据P2的坐标(x2,y2)和投影系数k,获取与P2仅有左右视差的像点P2,i,下标i=1,2,……,i为迭代索引。
c2、计算P2,i的横坐标x2,i=x2+k·φ2,i-1,根据P2,i的坐标(x2,i,y2)从数字高程模型或数字表面模型中获取P2,i的高程h2,i,取高程差阈值δ1=1米,迭代次数阈值Pnum=10,当δ1<|h2,i-h2,i-1|且i≤Pnum时,将P2,i的高程h2,i代入映射函数φ(h),得到P2,i的相对高程φ2,i,将i的值加1,然后返回步骤c2,当δ1≥|h2,i-h2,i-1|或i>Pnum时,将P2,i作为P2的同名像点。
获取P3的同名像点:
c3、选取正射影像中的P3作为基准像点,并记P3的高程h3为h3,0,记P3的相对高程φ3为φ3,0,根据P3的坐标(x3,y3)和投影系数k,获取与P3仅有左右视差的像点P3,i,下标i=1,2,……,i为迭代索引。
c4、计算P3,i的横坐标x3,i=x3+k·φ3,i-1,根据P3,i的坐标(x3,i,y3)从数字高程模型或数字表面模型中获取P3,i的高程h3,i,取高程差阈值δ1=1米,迭代次数阈值Pnum=10,当δ1<|h3,i-h3,i-1|且i≤Pnum时,将P3,i的高程h3,i代入映射函数φ(h),得到P3,i的相对高程φ3,i,将i的值加1,然后返回步骤c3,当δ1≥|h3,i-h3,i-1|或i>Pnum时,将P3,i作为P3的同名像点。
以此类推,直至获取Pn的同名像点:
c5、选取正射影像中的Pn作为基准像点,并记Pn的高程hn为hn,0,记Pn的相对高程φn为φn,0,根据Pn的坐标(xn,yn)和投影系数k,获取与Pn仅有左右视差的像点Pn,i,下标i=1,2,……,i为迭代索引。
c6、计算Pn,i的横坐标xn,i=xn+k·φn,i-1,根据Pn,i的坐标(xn,i,yn)从数字高程模型或数字表面模型中获取Pn,i的高程hn,i,取高程差阈值δ1=1米,迭代次数阈值Pnum=10,当δ1<|hn,i-hn,i-1|且i≤Pnum时,将Pn,i的高程hn,i代入映射函数φ(h),得到Pn,i的相对高程φn,i,将i的值加1,然后返回步骤c6,当δ1≥|hn,i-hn,i-1|或i>Pnum时,将Pn,i作为Pn的同名像点。
D、将正射影像中所有像点的同名像点坐标反算至正射影像坐标,并按照正射影像的灰度值内插计算各个同名像点的灰度值,由此解算出正射影像立体配对片,然后进入步骤E。
E、依据由正射影像和正射影像立体配对片组成的立体像对,合成制作区域的立体影像。
步骤E包括以下步骤:
E1、依据由正射影像和正射影像立体配对片生成的立体像对,合成相同大小的立体影像。
E2、当正射影像为灰度影像时,向立体影像的红波段写入正射影像的灰度值,向立体影像的绿波段和蓝波段分别写入正射影像立体配对片的灰度值;
当正射影像为彩色影像时,向立体影像的红波段写入正射影像红波段的灰度值,向立体影像的绿波段写入正射影像立体配对片绿波段的灰度值,向立体影像的蓝波段写入正射影像立体配对片蓝波段的灰度值。
本发明能够依据影像覆盖地区的数字高程模型或数字表面模型格网点的高程自适应地确定各个像点的模拟视差,较好地减小了大范围立体影像制作时易产生的视差变形,大大提高了卫星立体影像的可观测性,并在很大程度上增加了观看立体影像时人眼的舒适度。

Claims (7)

1.卫星立体影像自适应制作方法,其特征在于,包括以下步骤:
A、根据制作区域内正射影像的最高高程与最低高程,计算最大高差,并根据正射影像的分辨率获取人体双眼的最大限度高差,具体包括以下步骤:
A1、获取制作区域的正射影像,以及制作区域的数字高程模型或数字表面模型;
A2、确定正射影像中像点的最高高程hmax与最低高程hmin,并计算最大高差Δhmax,Δhmax=hmax-hmin
A3、根据正射影像的分辨率获取人体双眼的最大限度高差φmax,φmax=m·Dis,式中m为人体双眼能够容纳的最大视差,Dis为正射影像的分辨率;
B、依次读取正射影像中各个像点的高程,利用最低高程、最大高差与最大限度高差进行高程映射,分别获得正射影像中各个像点的相对高程,具体包括以下步骤:
B1、将正射影像中的各个像点依次标记为P1,P2,……,Pn,其中n为正射影像中的像点个数,像点P1的坐标为(x1,y1),像点P2的坐标为(x2,y2),……,像点Pn的坐标为(xn,yn);
B2、根据P1的坐标(x1,y1)从数字高程模型或数字表面模型中获取P1的高程h1,根据P2的坐标(x2,y2)从数字高程模型或数字表面模型中获取P2的高程h2,以此类推,直至根据Pn的坐标(xn,yn)从数字高程模型或数字表面模型中获取Pn的高程hn
B3、确定映射函数φ(h)=f·Δh,其中f=F(Δh)为压缩率函数,h为高程,Δh为高差,hmin为最低高程,Δh=h-hmin
B4、将P1的高程h1代入映射函数φ(h),得到P1的相对高程φ1,将P2的高程h2代入映射函数φ(h),得到P2的相对高程φ2,以此类推,直至将Pn的高程hn代入映射函数φ(h),得到Pn的相对高程φn
C、根据投影角度确定视差函数,然后通过相对高程迭代计算正射影像中各个像点的左右视差,最终获得正射影像中各个像点的同名像点坐标,然后进入步骤D;
D、将正射影像中所有像点的同名像点坐标反算至正射影像坐标,并按照正射影像的灰度值内插计算各个同名像点的灰度值,由此解算出正射影像立体配对片,然后进入步骤E;
E、依据由正射影像和正射影像立体配对片组成的立体像对,合成制作区域的立体影像。
2.如权利要求1所述的卫星立体影像自适应制作方法,其特征在于,所述的步骤C包括以下步骤:
C1、设定投影角度α,投影系数k=tan(α),视差函数p=k·φ(h);
C2、将正射影像中的P1作为基准像点,并记P1的高程h1为h1,0,记P1的相对高程φ1为φ1,0,根据P1的坐标(x1,y1)和投影系数k,获取与P1仅有左右视差的像点P1,i,下标i=1,2,……,i为迭代索引;
C3、计算P1,i的横坐标x1,i=x1+k·φi-1,根据P1,i的坐标(x1,i,y1)从数字高程模型或数字表面模型中获取P1,i的高程h1,i,当δ1<|h1,i-h1,i-1|且i≤Pnum时,将P1,i的高程h1,i代入映射函数φ(h),得到P1,i的相对高程φ1,i,将i的值加1,然后返回步骤C3,当δ1≥|h1,i-h1,i-1|或i>Pnum时,将P1,i作为P1的同名像点,然后进入步骤C4,其中δ1为设定的高程差阈值,Pnum为设定的迭代次数阈值;
C4、分别对P2的相对高程φ2,P3的相对高程φ3,……,Pn的相对高程φn按照步骤C2和C3的方法进行相对高程迭代,依次获得P2的同名像点,P3的同名像点,……,Pn的同名像点。
3.如权利要求2所述的卫星立体影像自适应制作方法,其特征在于;所述的步骤E包括以下步骤:
E1、依据由正射影像和正射影像立体配对片生成的立体像对,合成相同大小的立体影像;
E2、当正射影像为灰度影像时,向立体影像的红波段写入正射影像的灰度值,向立体影像的绿波段和蓝波段分别写入正射影像立体配对片的灰度值;
当正射影像为彩色影像时,向立体影像的红波段写入正射影像红波段的灰度值,向立体影像的绿波段写入正射影像立体配对片绿波段的灰度值,向立体影像的蓝波段写入正射影像立体配对片蓝波段的灰度值。
4.如权利要求3所述的卫星立体影像自适应制作方法,其特征在于:所述的人体双眼能够容纳的最大视差m取值为120。
5.如权利要求4所述的卫星立体影像自适应制作方法,其特征在于:所述的映射函数
6.如权利要求5所述的卫星立体影像自适应制作方法,其特征在于:所述的投影角度α为45°或135°,即k=1或k=-1。
7.如权利要求6所述的卫星立体影像自适应制作方法,其特征在于:所述的高程差阈值δ1≤1米,迭代次数阈值Pnum≥10。
CN201610063555.XA 2016-01-29 2016-01-29 卫星立体影像自适应制作方法 Active CN105737805B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610063555.XA CN105737805B (zh) 2016-01-29 2016-01-29 卫星立体影像自适应制作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610063555.XA CN105737805B (zh) 2016-01-29 2016-01-29 卫星立体影像自适应制作方法

Publications (2)

Publication Number Publication Date
CN105737805A CN105737805A (zh) 2016-07-06
CN105737805B true CN105737805B (zh) 2018-05-08

Family

ID=56247045

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610063555.XA Active CN105737805B (zh) 2016-01-29 2016-01-29 卫星立体影像自适应制作方法

Country Status (1)

Country Link
CN (1) CN105737805B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108427967B (zh) * 2018-03-13 2021-08-27 中国人民解放军战略支援部队信息工程大学 一种实时影像聚类方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102520406A (zh) * 2011-12-20 2012-06-27 中国测绘科学研究院 基于影像坐标映射的sar立体模型构建与量测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5927608B2 (ja) * 2012-04-09 2016-06-01 横山 隆三 立体形状の立体視画像作成方法、立体形状の立体視表示方法及び立体形状の立体視画像作成プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102520406A (zh) * 2011-12-20 2012-06-27 中国测绘科学研究院 基于影像坐标映射的sar立体模型构建与量测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
三维可视化工程设计的研究;张祖勋等;《武汉大学学报·信息科学版》;20020831;第27卷(第4期);第337-342页 *
实时立体视觉系统中的深度映射;李大锦等;《中国图象图形学报》;20150331;第20卷(第3期);第0366-0373页 *

Also Published As

Publication number Publication date
CN105737805A (zh) 2016-07-06

Similar Documents

Publication Publication Date Title
CN103345771B (zh) 一种基于建模的图像高效渲染方法
CN104820991B (zh) 一种基于代价矩阵的多重软约束立体匹配方法
CN105303616B (zh) 基于单张照片的浮雕建模方法
CN111737790B (zh) 仿真城市模型的构建方法和设备
CN102568026A (zh) 一种多视点自由立体显示的三维增强现实方法
CN106296825B (zh) 一种仿生三维信息生成系统及方法
CN102073874A (zh) 附加几何约束的航天三线阵ccd相机多影像立体匹配方法
CN109147025B (zh) 一种面向rgbd三维重建的纹理生成方法
CN109741446B (zh) 一种三维数字地球动态生成精细海岸地形的方法
CN104463791A (zh) 一种基于球面模型的鱼眼图像校正法
CN106875437A (zh) 一种面向rgbd三维重建的关键帧提取方法
CN103269435A (zh) 双目转多目虚拟视点合成方法
CN106023230A (zh) 一种适合变形图像的稠密匹配方法
CN109597074A (zh) 一种sar影像几何定位参数校正方法及系统
CN111815765A (zh) 一种基于异构数据融合的图像三维重建方法
CN106251349B (zh) 一种sar立体影像密集匹配方法
CN104217461B (zh) 一种基于深度图模拟实时凹凸效果的视差映射方法
CN105737805B (zh) 卫星立体影像自适应制作方法
CN117115359B (zh) 一种基于深度图融合的多视图电网三维空间数据重建方法
CN112927348B (zh) 一种基于多视点rgbd相机高分辨率人体三维重建方法
CN107958491B (zh) 移动增强现实虚拟坐标与施工现场坐标匹配方法
CN102142154B (zh) 生成脸部虚拟图像的方法与装置
AU2008344047B2 (en) Method for displaying a virtual image
CN113077401A (zh) 一种基于新型网络的视点合成技术进行立体校正的方法
CN105137431A (zh) 一种sar立体模型构建与量测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20201027

Address after: 450001 No. 62 science Avenue, hi tech Zone, Henan, Zhengzhou

Patentee after: Information Engineering University of the Chinese People's Liberation Army Strategic Support Force

Address before: 450001 Information Engineering University, 62 science Avenue, Zhengzhou, Henan

Patentee before: Fan Dazhao