CN114459461A - 一种基于gis与实时光电视频的导航定位方法 - Google Patents

一种基于gis与实时光电视频的导航定位方法 Download PDF

Info

Publication number
CN114459461A
CN114459461A CN202210093987.0A CN202210093987A CN114459461A CN 114459461 A CN114459461 A CN 114459461A CN 202210093987 A CN202210093987 A CN 202210093987A CN 114459461 A CN114459461 A CN 114459461A
Authority
CN
China
Prior art keywords
real
image
carrier
data
photoelectric
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210093987.0A
Other languages
English (en)
Other versions
CN114459461B (zh
Inventor
高强
陶忠
李良福
卜忠红
张魁甲
安学智
王晶
范浩硕
王亚楠
惠鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian institute of Applied Optics
Original Assignee
Xian institute of Applied Optics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian institute of Applied Optics filed Critical Xian institute of Applied Optics
Priority to CN202210093987.0A priority Critical patent/CN114459461B/zh
Publication of CN114459461A publication Critical patent/CN114459461A/zh
Application granted granted Critical
Publication of CN114459461B publication Critical patent/CN114459461B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

本发明属于机载光电侦察、态势感知领域,公开了一种基于GIS(地理信息系统)与实时光电视频的导航定位方法,包括:载机实时位姿传感器数据和瞄准线姿态数据获取;生成静态的三维场景;生成动态合成视觉;获取对应的传感器图像;进行光电图像与合成视觉图像的配准与映射;根据匹配点对进行二者图像的相对位姿结算,基于解算内容求解载机的高精度定位数据。本发明通过相关技术手段实现载机的空间定位,比载机平台导航系统自身提供的位姿数据精度有所提升;并能够在短暂拒止环境下计算载机空间位置,从而提供一种拒止环境下的载机定位能力。

Description

一种基于GIS与实时光电视频的导航定位方法
技术领域
本发明属于机载光电侦察、态势感知领域,涉及一种基于GIS(地理信息系统)与实时光电视频的导航定位方法。
背景技术
传统的导航技术依赖于GPS或者北斗系统,属于外源性导航,即对于本体的空间定位数据,一般通过无线信号系统获取。该技术存在的一个缺陷是容易受到外部电磁信号的干扰导致缺失定位数据,或者受到诱骗接收到误导的定位数据。
机载光电系统提供了类似于视觉信号的图像信息,具有内源性,即一般较少受到外界干扰,主要基于自身获得的图像信息进行解算。通过结合GIS与实时光电视频的匹配,结合空间光电成像几何三维模型可以确定载机的定位信息。该技术可辅助用于拒止环境下或者强干扰环境下的定位导航能力,而拒止环境下的定位能力,是现代战场作战飞机不可或缺的能力。
发明内容
(一)发明目的
本发明的目的是:提供一种基于GIS(地理信息系统)与实时光电视频的导航定位方法,快速的计算更高精度的载机空间位置和姿态,提供更好的载机定位能力。
(二)技术方案
为实现将载机更高精度的定位能力,需要同时采集光电系统图像与对应区域的合成视觉图像,将光电系统的图像与合成视觉图像进行配准之后;求解出光电系统的图像相对于合成视觉图像的空间运动,基于原始的载机位姿数据,解算出更高精度的载机空间位置。本发明基于GIS(地理信息系统)与实时光电视频的导航定位方法,包括:括三维合成视觉生成,光电图像采集,光电图像与三维场景配准融合,光电图像与合成视觉图像相对位姿解算,高精度载机位置解算等主要步骤。三维合成视觉利用真实地形数据生成三维地形场景,该三维场景具备了三维空间地理信息系统的能力;光电图像采集包括了图像内容中每一帧以及对应该帧的载机位姿数据,基于该帧产生时的载机位姿数据,可计算出该帧图像对应的地理探测区域;光电图像与三维场景的配准融合,将光电图像中的视频帧与三维场景中该帧对应探测区域进行配准与融合,可得到若干配准点对;基于配准点对,可计算出光电系统的图像相对于合成视觉图像的空间运动;从而进一步基于原始数据计算出高精度载机定位数据。
(三)有益效果
上述技术方案所提供的基于GIS(地理信息系统)与实时光电视频的导航定位方法,通过相关技术手段实现更高精度的载机定位能力,根据该发明提供的方法。可以将其设计为软件功能,利用该功能可实现在现代战争中,辅助提升载机在拒止环境下或者强电磁干扰环境下的定位导航能力。
附图说明
图1是本发明中方法的流程组成示意图。
具体实施方式
为使本发明的目的、内容和优点更加清楚,下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
如图1所示,本发明实施例载机导航定位方法包括以下步骤:获取载机实时位姿传感器数据以及光电瞄准线姿态数据,计算基于原始载机平台导航数据的空间位置转换矩阵和空间姿态转换矩阵;根据预置的地形数据生成三维静态场景;获取对应时空关系的实时光电图像;根据空间位置转换矩阵和空间姿态转换矩阵驱动三维静态场景,生成动态的合成视觉图像,将光电图像与合成视觉图像进行匹配得到匹配点对;基于匹配点对解算合成视觉图像相对光电图像的空间运动位姿估计;求解高精度载机空间定位数据。
下面对上述过程中的每个步骤进行详细描述:
S1:获取载机实时位姿传感器数据以及光电瞄准线实时数据,计算载机的空间位置转换矩阵和空间姿态转换矩阵
载机的位姿参数主要包括载机位置参数和姿态参数,位置参数包括经度、纬度、高度,分别记为L、B、H,位置数据以地理坐标系为基准,经度、纬度单位为度,姿态参数包括航向角、俯仰角、横滚角,分别记为a、p、r,单位为度,该角度以东北天坐标系为基准。光电瞄准线姿态数据包括瞄准线的俯仰角和方位角,分别记为alos、plos,该角度以载机坐标系为基准。
获取包括载机位置、姿态,瞄准线姿态在内的共8个数据,作为后续动态连续合成视觉图像生成步骤的输入。
空间位置转换矩阵记为Mpos,姿态矩阵Mpos采用如下计算过程:
Figure BDA0003490346060000031
其中,n,u,v是转换坐标系下的基向量,nx,ny,nz分别是向量n的x,y,z分量,ux、uy、uz分别是向量u的x,y,z分量,vx、vy、vz分别是向量v的x,y,z分量),其计算采用如下公式:
n=(cos Lcos B,sin Lcos B,sin B)
vpx是地心坐标下的载机位置vp的x分量,vpy是地心坐标下的载机位置vp的y分量,vpz是地心坐标下的载机位置vp的z分量,计算采用如下公式:
vpx=(N+H)cos B cos L
vpy=(N+H)cos B sin L
vpz=[(N(1-e2)+H]sin B
其中,L,B分别是上述步骤中采集得到的载机位置数据中每一帧的经度和纬度,N为卯酉圈半径,e2为第一偏心率,分别采用如下计算公式:
Figure BDA0003490346060000041
Figure BDA0003490346060000042
上式中,a,c分别为地球椭球体模型的长半径和短半径,
a=6378137.0m
c=6356752.3142m。
空间姿态转换矩阵记为Matti
姿态矩阵Matti采用如下计算过程,首先根据载机的姿态数据构建四元数,记为q:
Figure BDA0003490346060000043
其中,a,p,r分别为上述步骤中采集得到的载机的航向角、俯仰角、横滚角;
Figure BDA0003490346060000044
S2:三维静态场景生成
基于载机所在地理区域的地形数据,包含高程数据和卫星纹理影像数据,生成该区域的三维地理场景SCENEstategraph;以该区域三维地理场景SCENEstategraph为输入,S1阶段采集得到的载机位姿数据Mpos,Matti,瞄准线姿态Mlos为输入,其中Mlos为瞄准线姿态数据构建的瞄准线空间变换矩阵,计算得到复合转换矩阵Mcomposite,由复合矩阵Mcomposite驱动生成的三维静态场景
Mcomposite=Mlos*Matti*Mpos
即可生成动态连续的合成视觉图像,其中某一帧的图像记为fsvs(x,y,z,t)
S3:机载光电系统实时光电图像获取:
机载光电系统实时光电图像由光电转塔发送,不同的传感器有不同的帧率,根据帧率接收每一帧图像数据,记为feo(x,y,t),作为后续配准融合步骤的输入。
S4:实时光电图像与合成视觉图像进行匹配:
以步骤S2、步骤S3输出的合成视觉图像fsvs(x,y,z,t)与载机实时光电图像feo(x,y,t)为基础,利用相位一致性对合成视觉图像与实时光电图像进行多模态匹配,可得到大量匹配特征点,挑选其中不小于3对匹配点对,记为P1(svs1,eo1),P2(svs2,eo2),P3(svs3,eo3);作为后续目标地理位置解算步骤的输入。
S5:合成视觉图像相对于实时光电图像的空间位姿运动估计
以步骤S4输出的合成视觉图像与光电图像匹配点P1(svs1,eo1),P2(svs2,eo2),P3(svs3,eo3)对为输入,以PnP(Perspective-n-Point)方法求解合成视觉图像中3维点到光电图像2维点的旋转和平移运动,可得到合成视觉图像相对于实时光电图像的旋转矩阵,记为Reo-svs,和平移矩阵,记为Teo-svs
S6:高精度载机空间定位数据解算
以S5阶段得到的平移矩阵Teo-svs为输入,进行其次变换,得到齐次化平移矩阵,记为
Figure BDA0003490346060000051
S1阶段计算得到基于原始导航数据的空间位置矩阵为Mpos,基于此,计算更高精度的空间位置矩阵,记为Mpos_high
Figure BDA0003490346060000061
计算完成后,可快速从Mpos_high矩阵中分离出更高精度的载机空间定位数据。
由上述技术方案可以看出,本发明利用地理信息系统对大规模三维场景的空间描述能力,将光电传感器图像与空间场景匹配后,形成匹配点对,从而计算出合成视觉图像相对于实时光电图像的空间位姿运动,进一步修正了原始导航数据中的误差,提升导航定位精度。该方法结合测绘领域以及信息融合处理的成果,以软件方式实现了一种新的载机导航定位方法,对于机载航电系统有较强的工程应用意义,无须激光测距等硬件设备的支持,易于在以往航电系统改造升级中实现,可提高直升机的目标侦察能力和多目标侦察能力,其战术意义值得进一步挖掘,提升直升机的战场生存能力。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (10)

1.一种基于GIS与实时光电视频的导航定位方法,其特征在于,包括以下步骤:
S1:获取载机实时位姿传感器数据以及光电瞄准线姿态数据,计算载机的空间位置转换矩阵和空间姿态转换矩阵;
S2:三维静态场景生成;
S3:机载光电系统实时光电图像获取;
S4:合成视觉图像与实时光电图像匹配;
S5:合成视觉图像与实时光电图像相对位姿估计;
S6:高精度载机定位数据解算。
2.如权利要求1所述的基于GIS与实时光电视频的导航定位方法,其特征在于,所述步骤S1中,位姿传感器数据包括位置参数和姿态参数,位置参数包括经度、纬度、高度,分别记为L、B、H,位置数据以地理坐标系为基准,经度、纬度单位为度,姿态参数包括航向角、俯仰角、横滚角,分别记为a、p、r,单位为度,该角度以东北天坐标系为基准;光电瞄准线姿态数据包括瞄准线的俯仰角和方位角,分别记为alos、plos,该角度以载机坐标系为基准。
3.如权利要求2所述的基于GIS与实时光电视频的导航定位方法,其特征在于,所述步骤S1中,空间位置转换矩阵的计算过程为:
空间位置转换矩阵记为Mpos
Figure FDA0003490346050000011
其中,n,u,v是转换坐标系下的基向量,nx,ny,nz分别是向量n的x,y,z分量,ux、uy、uz分别是向量u的x,y,z分量,vx、vy、vz分别是向量v的x,y,z分量,其计算采用如下公式:
n=(cosLcosB,sinLcosB,sinB)
vpx是地心坐标下的载机位置vp的x分量,vpy是地心坐标下的载机位置vp的y分量,vpz是地心坐标下的载机位置vp的z分量,计算采用如下公式:
vpx=(N+H)cos B cos L
vpy=(N+H)cos B sin L
vpz=[(N(1-e2)+H]sin B
其中,L,B分别是上述步骤中采集得到的载机位置数据中每一帧的经度和纬度,N为卯酉圈半径,e2为第一偏心率,分别采用如下计算公式:
Figure FDA0003490346050000021
Figure FDA0003490346050000022
上式中,a,c分别为地球椭球体模型的长半径和短半径,
a=6378137.0m
c=6356752.3142m。
4.如权利要求3所述的基于GIS与实时光电视频的导航定位方法,其特征在于,所述步骤S1中,空间姿态转换矩阵记为Matti,计算过程为:
首先根据载机的姿态数据构建四元数,记为q:
Figure FDA0003490346050000023
其中,a,p,r分别为上述步骤中采集得到的载机的航向角、俯仰角、横滚角;
Figure FDA0003490346050000031
5.如权利要求4所述的基于GIS与实时光电视频的导航定位方法,其特征在于,所述步骤S2中,基于载机所在地理区域的地形数据,包含高程数据和卫星纹理影像数据,生成该区域的三维静态地理场景SCENEstategraph,并根据该场景生成合成视觉图像,具体步骤包括:
4.1根据载机位姿数据构建空间变换矩阵,包括位置空间变换矩阵Mpos和姿态空间变换矩阵Matti
4.2根据瞄准线姿态数据构建瞄准线空间变换矩阵Mlos,Mlos的构建方法与Matti类似,以瞄准线的方位角和俯仰角替换载机姿态空间变换矩阵航向角和俯仰角,横滚角置零;
4.3根据上述步骤构建复合空间变换矩阵Mcomposite,Mcomposite=Mlos*Matti*Mpos
4.4以三维静态场景生成的场景节点树为对象SCENEstategraph,应用复合空间变换矩阵Mcomposite,生成动态连续的合成视觉图像,记为SVSsequce,其中某一帧的图像记为fsvs(x,y,z,t)。
6.如权利要求5所述的基于GIS与实时光电视频的导航定位方法,其特征在于,所述步骤S3中,机载光电系统实时光电图像由光电转塔发送,根据特定帧率接收每一帧图像数据,记为feo(x,y,t)。
7.如权利要求6所述的基于GIS与实时光电视频的导航定位方法,其特征在于,所述步骤S4中,将实时光电图像与合成视觉图像进行匹配:根据步骤S2和S3得到的实时光电图像fsvs(x,y,z,t)和合成视觉图像feo(x,y,t),利用相位一致性进行多模态匹配,得到不小于3对匹配点对,记为P1(svs1,eo1),P2(svs2,eo2),P3(svs3,eo3)。
8.如权利要求7所述的基于GIS与实时光电视频的导航定位方法,其特征在于,所述步骤S5中,根据步骤S4输出的合成视觉图像与光电图像匹配点对P1(svs1,eo1),P2(svs2,eo2),P3(svs3,eo3),以开源计算机视觉处理库的PnP方法求解合成视觉图像中3维点到光电图像2维点的旋转和平移运动,得到合成视觉图像相对于实时光电图像的旋转矩阵和平移矩阵,旋转矩阵记为Reo-svs,平移矩阵记为Teo-svs
9.如权利要求8所述的基于GIS与实时光电视频的导航定位方法,其特征在于,所述步骤S6中,对步骤S5阶段得到的平移矩阵Teo-svs,进行齐次变换,得到齐次化平移矩阵,记为
Figure FDA0003490346050000041
根据S1阶段计算得到的载机空间位置矩阵Mpos,计算高精度的空间位置矩阵,记为Mpos_high,计算公式如下:
Figure FDA0003490346050000042
计算完成后,从Mpos_high矩阵中分离出更高精度的载机空间定位数据。
10.一种基于权利要求1-9中任一项所述基于GIS与实时光电视频的导航定位方法在机载光电侦察、态势感知领域中的应用。
CN202210093987.0A 2022-01-26 2022-01-26 一种基于gis与实时光电视频的导航定位方法 Active CN114459461B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210093987.0A CN114459461B (zh) 2022-01-26 2022-01-26 一种基于gis与实时光电视频的导航定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210093987.0A CN114459461B (zh) 2022-01-26 2022-01-26 一种基于gis与实时光电视频的导航定位方法

Publications (2)

Publication Number Publication Date
CN114459461A true CN114459461A (zh) 2022-05-10
CN114459461B CN114459461B (zh) 2023-11-28

Family

ID=81412201

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210093987.0A Active CN114459461B (zh) 2022-01-26 2022-01-26 一种基于gis与实时光电视频的导航定位方法

Country Status (1)

Country Link
CN (1) CN114459461B (zh)

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19625727A1 (de) * 1996-06-27 1998-01-02 Bernd Porr Verfahren zur dreidimensionalen Echtzeit-Stereobildanalyse
JP2003216982A (ja) * 2002-01-17 2003-07-31 Sony Corp 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム
JP2006154131A (ja) * 2004-11-26 2006-06-15 Ntt Docomo Inc 画像表示装置、立体画像表示装置及び立体画像表示システム
JP2017063244A (ja) * 2015-09-24 2017-03-30 キヤノン株式会社 撮像装置
CN109612512A (zh) * 2018-10-23 2019-04-12 南京航空航天大学 一种空基光电系统多模态一体化测试平台及测试方法
CN110296688A (zh) * 2019-05-16 2019-10-01 武汉新瑞通达信息技术有限公司 一种基于被动地理定位技术的侦测一体倾斜航测吊舱
CN110930508A (zh) * 2019-11-27 2020-03-27 西安应用光学研究所 二维光电视频与三维场景融合方法
CN112184786A (zh) * 2020-10-16 2021-01-05 西安应用光学研究所 一种基于合成视觉的目标定位方法
CN112365591A (zh) * 2020-09-29 2021-02-12 西安应用光学研究所 一种基于合成视觉的空地协同综合态势生成方法
CN112381935A (zh) * 2020-09-29 2021-02-19 西安应用光学研究所 一种合成视觉生成及多元融合装置
CN112419211A (zh) * 2020-09-29 2021-02-26 西安应用光学研究所 一种基于合成视觉的夜视系统图像增强方法
WO2021188596A1 (en) * 2020-03-17 2021-09-23 Siemens Healthcare Diagnostics Inc. Compact clinical diagnostics system with planar sample transport
CN114463234A (zh) * 2022-01-26 2022-05-10 西安应用光学研究所 一种基于综合视景的三维障碍数据保形融合方法
CN114777760A (zh) * 2022-04-08 2022-07-22 岭南师范学院 一种基于双波长相位解调的矿井下人员定位系统
CN114964249A (zh) * 2022-04-07 2022-08-30 西安应用光学研究所 一种三维数字地图与实时光电视频同步关联方法
CN114964248A (zh) * 2022-04-07 2022-08-30 西安应用光学研究所 一种运动轨迹出视场的目标位置计算和指示方法

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19625727A1 (de) * 1996-06-27 1998-01-02 Bernd Porr Verfahren zur dreidimensionalen Echtzeit-Stereobildanalyse
JP2003216982A (ja) * 2002-01-17 2003-07-31 Sony Corp 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム
JP2006154131A (ja) * 2004-11-26 2006-06-15 Ntt Docomo Inc 画像表示装置、立体画像表示装置及び立体画像表示システム
JP2017063244A (ja) * 2015-09-24 2017-03-30 キヤノン株式会社 撮像装置
CN109612512A (zh) * 2018-10-23 2019-04-12 南京航空航天大学 一种空基光电系统多模态一体化测试平台及测试方法
CN110296688A (zh) * 2019-05-16 2019-10-01 武汉新瑞通达信息技术有限公司 一种基于被动地理定位技术的侦测一体倾斜航测吊舱
CN110930508A (zh) * 2019-11-27 2020-03-27 西安应用光学研究所 二维光电视频与三维场景融合方法
WO2021188596A1 (en) * 2020-03-17 2021-09-23 Siemens Healthcare Diagnostics Inc. Compact clinical diagnostics system with planar sample transport
CN112365591A (zh) * 2020-09-29 2021-02-12 西安应用光学研究所 一种基于合成视觉的空地协同综合态势生成方法
CN112381935A (zh) * 2020-09-29 2021-02-19 西安应用光学研究所 一种合成视觉生成及多元融合装置
CN112419211A (zh) * 2020-09-29 2021-02-26 西安应用光学研究所 一种基于合成视觉的夜视系统图像增强方法
CN112184786A (zh) * 2020-10-16 2021-01-05 西安应用光学研究所 一种基于合成视觉的目标定位方法
CN114463234A (zh) * 2022-01-26 2022-05-10 西安应用光学研究所 一种基于综合视景的三维障碍数据保形融合方法
CN114964249A (zh) * 2022-04-07 2022-08-30 西安应用光学研究所 一种三维数字地图与实时光电视频同步关联方法
CN114964248A (zh) * 2022-04-07 2022-08-30 西安应用光学研究所 一种运动轨迹出视场的目标位置计算和指示方法
CN114777760A (zh) * 2022-04-08 2022-07-22 岭南师范学院 一种基于双波长相位解调的矿井下人员定位系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
AKAM B 等: "An integrated radar imaging system for the STAR-2 aircraft", 《PROCEEDING OF THE 1988 IEEE NATIONAL RADAR CONFERENCE》, pages 28 - 32 *
何鹏;庞澜;何樱;高强;张鑫诚;: "一种直升机光电图像定位方法研究", 光学与光电技术, no. 01, pages 87 - 92 *
和鹏 等: "一种直升机光电图像定位方法研究", 《光学与光电技术》, vol. 16, no. 1, pages 83 - 88 *
张涛;杨丽梅;: "机载图像辅助导航实时匹配算法研究", 计算机测量与控制, no. 11, pages 149 - 151 *
范晋祥: "军用机载光电探测系统发展动向分析", 《2016年红外、遥感技术与应用研讨会暨交叉学科论坛》, pages 377 - 382 *

Also Published As

Publication number Publication date
CN114459461B (zh) 2023-11-28

Similar Documents

Publication Publication Date Title
US10613231B2 (en) Portable GNSS survey system
CN112184786B (zh) 一种基于合成视觉的目标定位方法
CN109597095A (zh) 背包式三维激光扫描与立体成像组合系统及数据获取方法
WO2015096806A1 (zh) 智能机姿态测定、全景影像生成及目标识别方法
KR100762891B1 (ko) Los벡터 조정모델을 이용한 영상의 기하보정 방법 및 그장치
CN110930508B (zh) 二维光电视频与三维场景融合方法
US20090262974A1 (en) System and method for obtaining georeferenced mapping data
CN113850126A (zh) 一种基于无人机的目标检测和三维定位方法和系统
CN112381935A (zh) 一种合成视觉生成及多元融合装置
JP2018021865A (ja) 移動体、移動体の制御方法、移動体を制御するプログラム、制御システム、及び情報処理装置
CN112461204B (zh) 卫星对动态飞行目标多视角成像联合计算航行高度的方法
CN108253942B (zh) 一种提高倾斜摄影测量空三质量的方法
CN114964249A (zh) 一种三维数字地图与实时光电视频同步关联方法
CN114964248A (zh) 一种运动轨迹出视场的目标位置计算和指示方法
CN114459461B (zh) 一种基于gis与实时光电视频的导航定位方法
CN113821052A (zh) 集群无人机协同目标定位方法、系统、协同目标定位终端
CN109341685B (zh) 一种基于单应变换的固定翼飞机视觉辅助着陆导航方法
Li et al. Geodetic coordinate calculation based on monocular vision on UAV platform
Pritt et al. Stabilization and georegistration of aerial video over mountain terrain by means of lidar
Hrabar et al. PTZ camera pose estimation by tracking a 3D target
Hashimov et al. GIS technology and terrain orthophotomap making for military application
CN112925002B (zh) 空中非合作目标分布式视觉定位方法
Mostafa et al. GPS/INS integrated navigation system in support of digital image georeferencing
CN118071589A (zh) 三维模型的实时拼接方法及装置
Nakamura et al. Fusion of VSLAM/GNSS/INS for Augmented Reality Navigation in Ports

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant