CN113255740B - 一种多源遥感影像平差定位精度分析方法 - Google Patents

一种多源遥感影像平差定位精度分析方法 Download PDF

Info

Publication number
CN113255740B
CN113255740B CN202110496656.7A CN202110496656A CN113255740B CN 113255740 B CN113255740 B CN 113255740B CN 202110496656 A CN202110496656 A CN 202110496656A CN 113255740 B CN113255740 B CN 113255740B
Authority
CN
China
Prior art keywords
coordinates
adjustment
point
remote sensing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110496656.7A
Other languages
English (en)
Other versions
CN113255740A (zh
Inventor
左德山
王磊
陈敏
李璐
陈凤
张傲
郭萱
郭树坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Remote Sensing Information
Original Assignee
Beijing Institute of Remote Sensing Information
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Remote Sensing Information filed Critical Beijing Institute of Remote Sensing Information
Priority to CN202110496656.7A priority Critical patent/CN113255740B/zh
Publication of CN113255740A publication Critical patent/CN113255740A/zh
Application granted granted Critical
Publication of CN113255740B publication Critical patent/CN113255740B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种多源遥感影像平差定位精度分析方法,包括:在多源遥感影像重叠区域获取同名点作为连接点,选取控制点和检查点;获取连接点的像方坐标、控制点和检查点的像方坐标和物方坐标;建立基于有理函数的区域网平差模型,将连接点和控制点的像方坐标代入区域网平差模型,通过控制点的物方坐标进行控制,获取平差模型参数,对区域网平差模型进行精化;将检查点的像方坐标输入到精化后的区域网平差模型中,生成检查点地面三维坐标;建立精度分析模型,将检查点地面三维坐标和检查点物方坐标输入到精度分析模型中,获取多源遥感影像联合平差几何定位精度。该方法形式简单,解算方便。可充分提高平差定位分析精度,具有显著的经济和社会效益。

Description

一种多源遥感影像平差定位精度分析方法
技术领域
本发明涉及遥感影像技术领域,特别涉及一种多源遥感影像平差定位精度分析方法。
背景技术
随着遥感技术的不断发展,高分辨率光学卫星遥感影像的分辨率逐渐提高,已经达到亚米级。由于高分辨率光学卫星遥感影像覆盖范围广、重访周期短、分辨率高等特点,广泛地应用于城市建设与规划、交通监控与管理、地形测绘、灾变化监测等领域。目前,可以很方便的获取到各种不同卫星覆盖某一地区的高分辨率遥感影像数据,这些数据的成像时间、成像角度、影像分辨率存在一定的差异。
采用多源遥感数据联合区域网平差的方式,可以提高低分辨率遥感卫星影像的几何定位精度,实现高精度无控制几何定位,为各个领域提供高精度的遥感数据产品。钟斌等人提出了多源卫星遥感影像区域网联合平差法,利用WorldView-1,WorldView-2和QuickBird共计16景影像进行区域网平差得到了高精度的DOM产品。邢帅等人提出了不同类型卫星遥感影像联合区域网平差的方法,建立了光束法联合区域网平差模型。张曼祺研究利用直线段特征来进行多源遥感影像配准的方法,可以进一步应用于多源遥感影像的区域网平差中。Wu等人建立了多源遥感影像的联合平差数学模型,并用岭估计法来保证大量参数参与平差计算时解的收敛性。但是,对于多时相多角度异源光学遥感影像的联合平差定位精度的分析方法研究较少,无法明确得到各多源遥感影像的平差定位精度,并对其进行分析比较,从而选取几何定位精度最高的多源遥感影像。
因此,在现有的多源遥感影像的基础上,如何提供一种多源遥感影像平差定位精度的分析方法,成为本领域技术人员亟需解决的问题。
发明内容
鉴于上述问题,本发明提出了一种至少解决上述部分技术问题的多源遥感影像平差定位精度分析方法,该方法可对各多源遥感影像联合平差几何定位精度进行分析,进而确定影响多源遥感影像联合平差几何定位精度的主要因素,可为多源遥感影像联合平差方案的选取提供依据。
本发明实施例提供一种多源遥感影像平差定位精度分析方法,包括:
在多源遥感影像重叠区域进行影像匹配,获取同名点作为连接点,选取控制点;获取所述连接点的像方坐标、所述控制点的像方坐标和物方坐标;
建立基于有理函数的区域网平差模型,将所述连接点的像方坐标和所述控制点的像方坐标代入所述区域网平差模型,通过所述控制点的物方坐标进行控制,获取平差模型参数,对所述区域网平差模型进行精化;
在所述多源遥感影像重叠区域选取检查点;获取所述检查点的像方坐标和物方坐标;
将所述检查点的像方坐标输入到所述精化后的区域网平差模型中,生成检查点地面三维坐标;
建立精度分析模型,将所述检查点地面三维坐标和检查点物方坐标输入到所述精度分析模型中,获取所述多源遥感影像联合平差几何定位精度。
进一步地,所述连接点、控制点和检查点的像方坐标为从所述多源遥感影像上获得的人工选点。
进一步地,所述控制点和检查点的物方坐标通过以下任意一种方式获得:GPS、GLONASS或BDS野外测量。
进一步地,所述基于有理函数的区域网平差模型为:
式中,(l,s)为所述连接点或控制点的像方坐标;(U,V,W)为所述连接点或控制点的物方坐标;vl,vs为所述连接点或控制点的像方坐标量测误差;Δl,Δs为像方补偿函数;NumL(U,V,W)、DenL(U,V,W)、NumS(U,V,W)、DenS(U,V,W)为关于所述连接点或控制点物方坐标的多项式。
进一步地,所述像方补偿函数为:
式中,ai,bi(i=0,1,2)为所述平差模型参数。
进一步地,通过最小二乘法获取所述平差模型参数。
进一步地,将所述检查点的像方坐标输入到所述精化后的区域网平差模型中,生成检查点地面三维坐标为通过如下公式获得:
式中,(li,si)为检查点i的像方坐标;(Ui,Vi,Wi)为所述检查点i地面三维坐标;ai,bi(i=0,1,2)为所述平差模型参数;MumL(Ui,Vi,Wi)、DenL(Ui,Vi,Wi)、MumS(Ui,Vi,Wi)、DenS(Ui,Vi,Wi)为关于所述检查点i地面三维坐标的多项式。
进一步地,所述建立精度分析模型,将所述检查点地面三维坐标和检查点物方坐标输入到所述精度分析模型中,获取所述多源遥感影像联合平差几何定位精度,包括:
根据所述检查点地面三维坐标和检查点物方坐标,建立精度分析模型,计算所述检查点的中误差指标:
式中,分别为检查点i的物方坐标和检查点i的地面三维坐标,RMSEX、RMSEY分别为检查点i在X方向和Y方向上的中误差;RMSEXY、RMSEZ分别为检查点i在平面和高程的中误差;
根据所述检查点i在平面和高程的中误差以及所述检查点i在行和列方向的残差,获取所述多源遥感影像联合平差几何定位精度。
本发明实施例提供的上述技术方案的有益效果至少包括:本发明实施例提供的一种多源遥感影像平差定位精度分析方法,包括:在多源遥感影像重叠区域获取同名点作为连接点,选取控制点和检查点;获取连接点的像方坐标、控制点和检查点的像方坐标和物方坐标;建立基于有理函数的区域网平差模型,将连接点和控制点的像方坐标代入区域网平差模型,通过控制点的物方坐标进行控制,获取平差模型参数,对区域网平差模型进行精化;将检查点的像方坐标输入到精化后的区域网平差模型中,生成检查点地面三维坐标;建立精度分析模型,将检查点地面三维坐标和检查点物方坐标输入到精度分析模型中,获取多源遥感影像联合平差几何定位精度。该方法可精确分析得出不同平差方案的多源遥感影像的几何定位精度。公式形式简单,解算方便。对多时相多角度异源光学和多源遥感影像的联合平差定位精度分析提供了一种新方法,可充分减少多源遥感影像的像方坐标量测误差,提高平差定位分析精度,具有显著的经济和社会效益。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例提供的多源遥感影像平差定位精度分析流程图;
图2为本发明实施例提供的四张影像的相对位置示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明实施例提供一种多源遥感影像平差定位精度分析方法,参照图1所示,该方法包括如下步骤:
S1、在多源遥感影像重叠区域进行影响匹配,获取同名点作为连接点,选取控制点;获取连接点的像方坐标、控制点的像方坐标和物方坐标;
S2、建立基于有理函数的区域网平差模型,将连接点的像方坐标和控制点的像方坐标代入区域网平差模型,通过控制点的物方坐标进行控制,获取平差模型参数,对区域网平差模型进行精化;
S3、在多源遥感影像重叠区域选取检查点;获取检查点的像方坐标和物方坐标;
S4、将检查点的像方坐标输入到精化后的区域网平差模型中,生成检查点地面三维坐标;
S5、建立精度分析模型,将检查点地面三维坐标和检查点物方坐标输入到精度分析模型中,获取多源遥感影像联合平差几何定位精度。
其中,上述步骤S3与步骤S1~S2可同时进行,不存在先后顺序。
本实施例中,先建立基于有理函数的区域网平差模型,后通过最小二乘法求得平差模型参数,以使像方坐标量测误差最小化,从而得到精化后的区域网平差模型,基于该精化后的模型可以求得检查点地面三维坐标。根据检查点地面三维坐标和检查点像方坐标,建立精度分析模型,从而对其多源遥感影像进行联合平差几何定位精度分析。该方法可精确分析得出不同平差方案的多源遥感影像的几何定位精度。公式形式简单,解算方便。本发明对多时相多角度异源光学和多源遥感影像的联合平差定位精度分析提供了一种新方法,可充分减少多源遥感影像的像方坐标量测误差,提高平差定位分析精度,具有显著的经济和社会效益。
具体地,连接点、控制点和检查点的像方坐标为从多源遥感影像进行人工选点获得,像点坐标的量测精度可优于0.5个像素。人工选点主要选取为道路的交叉口和规则地物的角点,其纹理比较明显的点,选取这些纹理明显的点,从而使得多源遥感影像的平差定位精度较高。
具体地,控制点和检查点的物方坐标为通过以下任意一种方式获得:GPS、GLONASS或BDS野外测量,精度可以达到cm级。GPS为全球定位系统(Global Positioning System,GPS)是一种以人造地球卫星为基础的高精度无线电导航的定位系统。GLONASS为全球卫星导航系统(GLOBAL NAVIGATION SATELLITE SYSTEM)的缩写。BDS为中国北斗卫星导航系统(BeiDou Navigation Satellite System,简称BDS)是中国自行研制的全球卫星导航系统。本实施例中,各物方坐标是通过外业测绘勘察获得,为以下任意一种野外测量:GPS、GLONASS或BDS,本实施例对其不作限定,可采取任意一种方式获得。
具体地,上述步骤S2中,建立基于有理函数的区域网平差模型为:
式中,(l,s)为连接点或控制点的像方坐标;(U,V,W)为连接点或控制点的物方坐标;vl,vs为连接点或控制点的像方坐标量测误差,通过平差使其最小化;Δl,Δs为像方补偿函数,以消除系统误差;NumL(U,V,W)、DenL(U,V,W)、NumS(U,V,W)、DenS(U,V,W)为关于连接点或控制点物方坐标的多项式,具体表示如下:
NumL(U,V,W)=a1+a2V+a3U+a4W+a5VU+a6VW+a7UW+a8V2+a9U2+a10W2+a11UVW+a12V3+a13VU2+a14VW2+a15V2U+a16U3+a17UW2+a18V2W+a19U2W+a20W3
DenL(U,V,W)=b1+b2V+b3U+b4W+b5VU+b6VW+b7UW+b8V2+b9U2+b10W2+b11UVWb12V3+b13VU2+b14VW2+b15V2U+b16U3+b17UW2+b18V2W+b19U2W+b20W3
NumS(U,V,W)=c1+c2V+c3U+c4W+c5VU+c6VW+c7UW+c8V2+c9U2+c10W2+c11UVW+c12V3+c13VU2+c14VW2+c15V2U+c16U3+c17UW2+c18V2W+c19U2W+c20W3
DenS(U,V,W)=d1+d2V+d3U+d4W+d5VU+d6VW+d7UW+d8V2+d9U2+d10W2+d11UVW+d12V3+d13VU2+d14VW2+d15V2U+d16U3+d17UW2+d18V2W+d19U2W+d20W3
式中,ai,bi,ci,di(i=1,2…20)为有理多项式系数(RationalPolynomialCoefficients,RPCs)。一般情况下,b1,d1均取值为1。一次多项式表示由光学投影引起的畸变改正;二次多项式表示由地球曲率、大气折射、镜头畸变等固有误差引起的改正;三次多项式表示由其他未知畸变引起的改正,如相机震动等。
进一步地,由于卫星平台、传感器等因素,使影像像点坐标产生一定的平移或尺度变化,因此需要对像方坐标进行一定的补偿以消除系统误差的影响。从而,建立Δl,Δs的像方补偿函数:
式中,ai,bi(i=0,1,2)为平差模型参数,在平差过程中,通过最小二乘法求得上述平差模型参数值。
具体地,上述步骤S4中,将检查点的像方坐标输入到精化后的区域网平差模型中,生成检查点地面三维坐标为通过如下公式获得:
式中,(li,si)为检查点i的像方坐标;(Ui,Vi,Wi)为所述检查点i地面三维坐标;ai,bi(i=0,1,2)为所述平差模型参数;MumL(Ui,Vi,Wi)、DenL(Ui,Vi,Wi)、MumS(Ui,Vi,Wi)、DenS(Ui,Vi,Wi)为关于所述检查点i地面三维坐标的多项式。
进一步地,上述步骤S5,包括:
S51、根据检查点地面三维坐标和检查点物方坐标,建立精度分析模型,获取中误差指标,即计算利用平差得到的检查点平面和高程坐标与实际平面和高程坐标之间差异的均方根误差:
式中,分别为检查点i的物方坐标和检查点i的地面三维坐标,RMSEX、RMSEY分别为检查点i在X方向和Y方向上的中误差;RMSEXY、RMSEZ分别为检查点i在平面和高程的中误差;
S52、根据检查点i在平面和高程的中误差以及检查点i在行和列方向的残差,获取多源遥感影像联合平差几何定位精度。即,根据检查点i在X方向、Y方向、平面和高程的中误差以及检查点i在行和列方向的残差,综合分析该多源遥感影像的平差定位精度。
以下结合一个具体实施例,对本发明的具体实施方式、结构特征及其作用效果,详细说明如下:
选取吉林(JL101A)和世景(SV1)卫星在不同时间以不同的侧摆角对河南登封地区扫描成像的四景1级产品数据(包括1级产品影像、RPC文件以及相关元数据文件)进行实验。JL101A影像的分辨率为0.72米,SV1影像的分辨率为0.5米。JL101A卫星的第一景数据拍摄于2014年12月16日,侧摆角为6.07度,JL101A卫星的第二景数据拍摄于2016年6月18日,侧摆角为14.42度,SV1卫星的第一景数据拍摄于2016年3月27日,侧摆角为0.77度,SV1卫星的第二景数据拍摄于2016年3月31日,侧摆角为14.42度。表1列出了实验区数据具体信息。
表1实验区影像数据信息
侧摆角是指卫星在拍摄时垂轨方向的姿态角度,由于实验数据是通过JL101A和SV1卫星侧摆成像获得的,所以可以利用卫星侧摆角计算出多源遥感影像的交会角的大小。计算公式如下:
式中,δ为两张影像的交会角,ω1、ω2分别为第一张和第二张影像的侧摆角。因此,可以通过表1中的侧摆角信息计算出各个多源遥感影像的交会角的大小。
进一步地,参见图2所示,图2为本发明实施例四张影像的相对位置示意图。在影像重叠区域内选取了四个地面控制点和四个检查点,并将多源遥感影像进行高精度影像自动匹配获得的同名点作为联合平差的连接点。控制点和检查点的物方坐标是通过GPS野外测量获取,精度可以达到cm级,主要位于道路交叉口以及规则地物的角点。控制点和检查点的像方坐标是通过人工在影像上选取得到,量测精度可优于0.5个像素。控制点和检查点的分布如图2所示,控制点用三角形表示,检查点用圆形表示,四个控制点分别位于影像重叠区域的四个角点附近,为了保证整个区域平差的整体化;四个检查点在实验区范围内均匀分布,从而可以更好地衡量多源遥感影像联合平差几何定位的整体精度。
进一步地,对于每一景影像,建立基于有理函数的区域网平差模型。将连接点的像方坐标和控制点的像方坐标代入区域网平差模型中,并通过控制点的物方坐标进行控制,利用最小二乘法进行平差求解,求得平差模型参数和连接点的物方坐标,对区域网平差模型进行精化。
进一步地,将检查点的像方坐标代入精化后的区域网平差模型中,得到检查点地面三维坐标。
进一步地,根据上述检查点地面三维坐标和检查点物方坐标,建立精度分析模型,采用中误差指标和残差指标综合评价几何定位精度。设计三种不同的平差方案,来分别分析各个平差方案的平差定位精度。第一种方案是利用两张影像进行平差,第二种方案是利用三张影像进行平差,第三种方案是利用四张影像进行平差。表2列出了不同方案的各种影像组合情况,共11种影像组合情况。
表2实验区影像组合方案
表3和表4分别列出了两张影像平差的几何定位精度和各张影像的像方精度。
表3两张影像平差的几何定位精度
表4两张影像平差的像方精度
表5和表6分别列出了三张影像平差的几何定位精度和各张影像的像方精度。
表5三张影像组合平差的几何定位精度
表6三张影像组合平差的像方精度
表7和表8分别列出了四张影像平差的几何定位精度和各张影像的像方精度。
表7四张影像组合平差的几何定位精度
表8四张影像组合平差的像方精度
通过以上表格可以精确分析出各多源遥感影像的平差定位精度,且可以进一步得出影响其平差定位精度的因素:在表3中,第一行数据是利用JL101A的两张影像进行平差的结果,第二行至第五行数据是将JL101A的一张影像与SV1的一张影像进行联合平差的结果,第六行数据是利用SV1的两张影像进行平差的结果。分析其几何定位精度可知,第二行的几何精度高于第一行的几何定位精度,可以看出高分辨率的遥感影像与低分辨率的遥感影像进行联合平差可以提高低分辨率遥感影像的几何定位精度;第三行的几何定位精度高于第二行的几何定位精度,可以看出在分辨率相同的情况下,交会角越大,几何定位精度越高;第三行和第四行数据的几何定位精度相近,可以看出,分辨率和交会角相近的时候,几何定位精度近似。分辨率的高低对平面几何精度影响明显,交会角大小对高程的定位精度影响非常明显,如第二行到第五行数据,交会角从5度增加到21度,高程的几何定位精度从8米提高到2米。表格中其他类似的数据也可得到上述结果。
通过分析表5的数据可知,第一行和第二行数据是将JL101A的两张影像与SV1的一张影像进行联合平差的结果,可以看出其几何定位精度远远高于只利用两张JL101A的影像进行平差的结果(表3中的第一行数据),这是因为高分辨率可以提高影像的几何定位精度;第二行数据的平面定位精度与第一行的近似,但是高程定位精度却远远高于第一行的高程定位精度,这是因为两行数据的影像分辨率一致,但是第二行数据的交会角大于第一行数据的交会角。第三行和第四行数据是将SV1的两张影像与JL101A的一张影像进行联合平差的结果,第三行数据的几何定位精度低于只利用两张SV1的影像进行平差的结果(表3中的第六行数据),这是因为两个组合的交会角类似,但是由于分辨率的降低导致几何定位精度降低(JL101A相对与SV1卫星,分辨率降低)。同样,因为交会角的变大,使得第四行数据的高程精度高于第三行数据,且高于只利用两张SV1的影像的高程精度。
通过分析表6的数据可知,通过四张影像的联合平差,几何定位精度明显的提高,尤其是高程精度。但是平面精度低于只利用SV1的两张影像进行平差的结果,这是因为分辨率的限制导致的(SV1的空间分辨率高于JL101A的分辨率)。
可见,通过以上实施例,可以精确分析出不同多源遥感影像的联合平差几何定位精度,有助于在实际生产应用中,为合理选择多源遥感影像组合实现高精度的几何定位提供依据。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (7)

1.一种多源遥感影像平差定位精度分析方法,其特征在于,包括:
在多源遥感影像重叠区域进行影像匹配,获取同名点作为连接点,选取控制点;获取所述连接点的像方坐标、所述控制点的像方坐标和物方坐标;
建立基于有理函数的区域网平差模型,将所述连接点的像方坐标和所述控制点的像方坐标代入所述区域网平差模型,通过所述控制点的物方坐标进行控制,获取平差模型参数,对所述区域网平差模型进行精化;
在所述多源遥感影像重叠区域选取检查点;获取所述检查点的像方坐标和物方坐标;
将所述检查点的像方坐标输入到所述精化后的区域网平差模型中,生成检查点地面三维坐标;
建立精度分析模型,将所述检查点地面三维坐标和检查点物方坐标输入到所述精度分析模型中,获取所述多源遥感影像联合平差几何定位精度;
所述控制点位于所述多源遥感影像重叠区域的四个角点附近;所述检查点在所述多源遥感影像重叠区域内均匀分布;
所述连接点、控制点和检查点的像方坐标为从所述多源遥感影像上获得的人工选点;
所述人工选点选取为道路的交叉口和规则地物的角点。
2.如权利要求1所述的一种多源遥感影像平差定位精度分析方法,其特征在于,所述控制点和检查点的物方坐标通过以下任意一种方式获得:GPS、GLONASS或BDS野外测量。
3.如权利要求1所述的一种多源遥感影像平差定位精度分析方法,其特征在于,所述基于有理函数的区域网平差模型为:
式中,(l,s)为所述连接点或控制点的像方坐标;(U,V,W)为所述连接点或控制点的物方坐标;vl,vs为所述连接点或控制点的像方坐标量测误差;Δl,Δs为像方补偿函数;NumL(U,V,W)、DenL(U,V,W)、NumS(U,V,W)、DenS(U,V,W)为关于所述连接点或控制点物方坐标的多项式。
4.如权利要求3所述的一种多源遥感影像平差定位精度分析方法,其特征在于,所述像方补偿函数为:
式中,ai,bi(i=0,1,2)为所述平差模型参数。
5.如权利要求1所述的一种多源遥感影像平差定位精度分析方法,其特征在于,通过最小二乘法获取所述平差模型参数。
6.如权利要求1所述的一种多源遥感影像平差定位精度分析方法,其特征在于,将所述检查点的像方坐标输入到所述精化后的区域网平差模型中,生成检查点地面三维坐标为通过如下公式获得:
式中,(li,si)为检查点i的像方坐标;(Ui,Vi,Wi)为所述检查点i地面三维坐标;ai,bi(i=0,1,2)为所述平差模型参数;MumL(Ui,Vi,Wi)、DenL(Ui,Vi,Wi)、MumS(Ui,Vi,Wi)、DenS(Ui,Vi,Wi)为关于所述检查点i地面三维坐标的多项式。
7.如权利要求1所述的一种多源遥感影像平差定位精度分析方法,其特征在于,所述建立精度分析模型,将所述检查点地面三维坐标和检查点物方坐标输入到所述精度分析模型中,获取所述多源遥感影像联合平差几何定位精度,包括:
根据所述检查点地面三维坐标和检查点物方坐标,建立精度分析模型,计算所述检查点的中误差指标:
式中,分别为检查点i的物方坐标和检查点i的地面三维坐标,RMSEX、RMSEY分别为检查点i在X方向和Y方向上的中误差;RMSEXY、RMSEZ分别为检查点i在平面和高程的中误差;
根据所述检查点i在平面和高程的中误差以及所述检查点i在行和列方向的残差,获取所述多源遥感影像联合平差几何定位精度。
CN202110496656.7A 2021-05-07 2021-05-07 一种多源遥感影像平差定位精度分析方法 Active CN113255740B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110496656.7A CN113255740B (zh) 2021-05-07 2021-05-07 一种多源遥感影像平差定位精度分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110496656.7A CN113255740B (zh) 2021-05-07 2021-05-07 一种多源遥感影像平差定位精度分析方法

Publications (2)

Publication Number Publication Date
CN113255740A CN113255740A (zh) 2021-08-13
CN113255740B true CN113255740B (zh) 2024-04-19

Family

ID=77223904

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110496656.7A Active CN113255740B (zh) 2021-05-07 2021-05-07 一种多源遥感影像平差定位精度分析方法

Country Status (1)

Country Link
CN (1) CN113255740B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113899386B (zh) * 2021-09-27 2023-11-21 武汉大学 基于立体基准网的多源光学卫星遥感影像协同区域网平差方法及系统
CN114562982B (zh) * 2022-03-09 2023-09-26 北京市遥感信息研究所 一种光学和sar异源卫星影像联合平差的定权方法和装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104729529A (zh) * 2013-12-24 2015-06-24 北京市测绘设计研究院 地形图测量系统误差判断的方法和系统
CN105698766A (zh) * 2016-03-03 2016-06-22 中国测绘科学研究院 考虑定向参数精度信息的卫星影像rfm模型区域网平差方法
CN107705329A (zh) * 2017-10-24 2018-02-16 武汉大学 基于几何约束的高分辨率光学卫星凝视影像配准方法
CN109029368A (zh) * 2018-05-29 2018-12-18 淮阴师范学院 像方补偿的遥感影像/sar影像高精度几何定位后处理方法
CN109919835A (zh) * 2019-03-20 2019-06-21 湖北省电力勘测设计院有限公司 基于多源卫星遥感影像联合平差的境外电力选线方法
CN109977344A (zh) * 2019-03-20 2019-07-05 武汉大学 一种星载夜光遥感影像的区域网平差方法
CN111722922A (zh) * 2020-05-25 2020-09-29 同济大学 一种gpu并行加速的卫星影像区域网平差方法和装置
CN112017224A (zh) * 2020-10-19 2020-12-01 航天宏图信息技术股份有限公司 Sar数据区域网平差处理方法和系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201135269A (en) * 2010-04-12 2011-10-16 Univ Nat Central Integrated positioning method of high-resolution multidimensional satellite image

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104729529A (zh) * 2013-12-24 2015-06-24 北京市测绘设计研究院 地形图测量系统误差判断的方法和系统
CN105698766A (zh) * 2016-03-03 2016-06-22 中国测绘科学研究院 考虑定向参数精度信息的卫星影像rfm模型区域网平差方法
CN107705329A (zh) * 2017-10-24 2018-02-16 武汉大学 基于几何约束的高分辨率光学卫星凝视影像配准方法
CN109029368A (zh) * 2018-05-29 2018-12-18 淮阴师范学院 像方补偿的遥感影像/sar影像高精度几何定位后处理方法
CN109919835A (zh) * 2019-03-20 2019-06-21 湖北省电力勘测设计院有限公司 基于多源卫星遥感影像联合平差的境外电力选线方法
CN109977344A (zh) * 2019-03-20 2019-07-05 武汉大学 一种星载夜光遥感影像的区域网平差方法
CN111722922A (zh) * 2020-05-25 2020-09-29 同济大学 一种gpu并行加速的卫星影像区域网平差方法和装置
CN112017224A (zh) * 2020-10-19 2020-12-01 航天宏图信息技术股份有限公司 Sar数据区域网平差处理方法和系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZY-3卫星异轨立体影像几何定位精度分析;胡芬 等;《航天返回与遥感》;第37卷(第01期);第2-3节 *
一种异源多视影像的立体定位方法;李莹莹 等;《测绘科学》;第41卷(第11期);第1-3节,图1 *

Also Published As

Publication number Publication date
CN113255740A (zh) 2021-08-13

Similar Documents

Publication Publication Date Title
Hu et al. Understanding the rational function model: methods and applications
CN102506824B (zh) 一种城市低空无人机系统生成数字正射影像图的方法
KR101965965B1 (ko) 위성영상과 제공 rpc로부터 제작된 수치표고모델의 자동 오차보정 방법
CN107014399B (zh) 一种星载光学相机-激光测距仪组合系统联合检校方法
CN113255740B (zh) 一种多源遥感影像平差定位精度分析方法
CN105424058B (zh) 基于摄影测量技术的数码相机投影中心位置精确标定方法
DE112010000812T5 (de) Verfahren und Systeme zum Bestimmen von Winkeln und Orten von Punkten
WO2019172065A1 (ja) 柱状物体状態検出装置、柱状物体状態検出方法、柱状物体状態検出処理プログラム
CN113538595B (zh) 利用激光测高数据辅助提升遥感立体影像几何精度的方法
CN101750619A (zh) 自检校pos直接对地目标定位方法
CN113514829B (zh) 面向InSAR的初始DSM的区域网平差方法
CN108226982B (zh) 单线阵卫星激光联合高精度定位处理方法
CN109029368A (zh) 像方补偿的遥感影像/sar影像高精度几何定位后处理方法
CN107656286A (zh) 大倾斜远端观测环境下目标定位方法及系统
Stöcker et al. UAV-based cadastral mapping: An assessment of the impact of flight parameters and ground truth measurements on the absolute accuracy of derived orthoimages
CN110986888A (zh) 一种航空摄影一体化方法
CN116758234A (zh) 一种基于多点云数据融合的山地地形建模方法
CN110030968B (zh) 一种基于星载立体光学影像的地面遮挡物仰角测量方法
CN113947638A (zh) 鱼眼相机影像正射纠正方法
CN105571598B (zh) 一种卫星激光高度计足印相机姿态的测定方法
CN110780313A (zh) 一种无人机可见光立体测量采集建模方法
CN111611525B (zh) 基于物方匹配高程偏差迭代修正的遥感数据高程解算方法
CN109696155B (zh) 光线共面约束的弱交会光学卫星影像联合平差方法及系统
Giussani et al. Application of TLS to support landslides study: survey planning, operational issues and data processing
Willneff et al. Single-image high-resolution satellite data for 3D information extraction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant