CN112419211A - 一种基于合成视觉的夜视系统图像增强方法 - Google Patents

一种基于合成视觉的夜视系统图像增强方法 Download PDF

Info

Publication number
CN112419211A
CN112419211A CN202011051616.3A CN202011051616A CN112419211A CN 112419211 A CN112419211 A CN 112419211A CN 202011051616 A CN202011051616 A CN 202011051616A CN 112419211 A CN112419211 A CN 112419211A
Authority
CN
China
Prior art keywords
night vision
image
transformation matrix
attitude
composite
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011051616.3A
Other languages
English (en)
Other versions
CN112419211B (zh
Inventor
高强
纪明
陶忠
何樱
李良福
安学智
张魁甲
王俊林
章文娟
舒营恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian institute of Applied Optics
Original Assignee
Xian institute of Applied Optics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian institute of Applied Optics filed Critical Xian institute of Applied Optics
Priority to CN202011051616.3A priority Critical patent/CN112419211B/zh
Publication of CN112419211A publication Critical patent/CN112419211A/zh
Application granted granted Critical
Publication of CN112419211B publication Critical patent/CN112419211B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)

Abstract

本发明属于光电侦察、态势感知领域,公开了一种基于合成视觉的夜视系统图像增强方法,包括:夜视系统空间位姿数据采集,空间转换矩阵生成,合成视觉图像生成,线框化处理,线框化合成视觉与夜视图像叠加融合;该方法以合成视觉技术为基础,利用夜视系统探测目标时的空间位姿数据,合成视觉系统生成对应的图像,针对该图像提取地形地貌等线框化特征,融合在对应的时空的夜视图像上。本发明能够提升夜视系统在恶劣视觉条件下的环境探测能力,增强对飞机的辅助导航能力,帮助飞行员在云/雨气候异常条件下,更加有效的感知外部环境,降低载机与地物山体碰撞的概率,可提高直升机在恶略视觉环境下的感知能力和侦察能力,提升直升机的战场生存能力。

Description

一种基于合成视觉的夜视系统图像增强方法
技术领域
本发明属于光电侦察、态势感知领域,主要涉及一种基于合成视觉的夜视系统图像增强方法。
背景技术
机载平台上的夜视系统,为载机在夜间的机动提供了辅助导航能力,它利用微光和夜视传感器,使得载机能够在黑夜条件下探测到前方的地形环境,为飞行员提供了黑夜条件下较为清晰的外部飞行环境。
然而载机面临的环境和任务可能会更加复杂,特别是武装直升机,会经常面临在山区高原的机动和飞行,这类地形环境在黑夜条件下会特别危险,并且该类环境下气候极端异常情况时有发生,浓云、大雨、大雾甚至降雪与黑夜条件严重影响飞行员的视觉环境,会产生夜视系统无法应对的视觉环境,在复杂地形条件下极易发生事故。
夜视系统是利用多波段的传感器探测外部环境,能够解决黑夜条件导致的恶劣视觉问题,然而面对其它的包括雨,雪,雾,霾,烟,沙尘等外部环境时,环境探测传感器会降低功效甚至完全丧失能力,此时夜视系统可能会无法保障载机的飞行安全。需要新的技术机制能够应对此类恶劣视觉环境条件。
合成视觉技术利用地形数据生成三维场景,由于它利用信息处理的方式产生外部环境图像,所以呈现的外部地形地貌环境,不会受到气候条件影响。利用合成视觉的技术特点,将其优势吸收到夜视系统中,是一个提升载机恶劣环境适应性的方向。
发明内容
(一)要解决的技术问题
直升机夜视系统在面临更加恶劣的视觉环境时,比如除了黑夜之外,同时面临雨、雪、云、雾、霾、沙尘等其它气候异常导致的视觉条件恶化的问题,此时,需要在夜视系统技术基础上,结合合成视觉技术的优势,将合成视觉图像长生的外部地形场景,以线框化的方式提取地形地貌或者山体特征,叠加到夜视图像上,提供给飞行员一个更好的感知周围态势的方案,以提高飞行安全、态势感知效果。
(二)技术方案
为解决直升机面临的黑夜条件与复杂异常极端气候条件叠加问题,本发明提出基于合成视觉的夜视系统图像增强方法,该方法采集夜视系统的空间位姿数据,基于该数据生成对应的合成视觉图像,并针对该环境图像提取线框化的地形地貌特征,将该特征叠加融合在夜视图像之上,提供相互补充的外界环境信息;线框化的方式保证了既能体现地形地貌特点,又不会对夜视图像大范围遮挡,并且在外界视觉环境变差或消失后,也能提供足够的外部地形地貌视觉参考。
(三)有益效果
上述技术方案所提供的基于合成视觉的夜视系统图像增强方法,通过相关技术手段实现在夜视图像中融合合成视觉图像的部分信息,能够弥补夜视传感器在云、雨、雪、雾、霾、沙尘、硝烟等条件下的能效降低或消失,增强夜视图像的恶劣视觉条件下环境再现能力,提升辅助导航能力,提高夜视条件下的飞机安全能力。
附图说明
图1是本发明中方法的流程组成示意图。
图2是生成的合成视觉图像效果图。
图3是线框化的合成视觉图像特征提取效果图。
图4是叠加在夜视图像上的线框特征图效果。
具体实施方式
为使本发明的目的、内容、和优点更加清楚,下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
如图1所示,本发明实施例夜视系统图像增强方法主要包括以下步骤:载机位姿以及夜视瞄准线姿态参数获取,静态三维场景生成,空间变换矩阵构建,动态合成视觉图形生成,线框化合成视觉图像特征提取,夜视图像叠加融合特征。
下面对具体步骤详述:
S1:载机位姿以及夜视瞄准线姿态参数获取
载机位姿参数包括载机位置参数和姿态参数,载机位置参数包括经度、纬度、高度,分别记为l、b、h,载机位置参数以地理坐标系为基准,经度、纬度单位为度,姿态参数包括航向角、俯仰角、横滚角,分别记为a、p、r,单位为度,该角度以东北天坐标系为基准;夜视瞄准线姿态参数包括瞄准线的方位角和俯仰角,分别记为alos、plos,该角度以载机坐标系为基准。
获取包括载机位置、姿态,瞄准线姿态在内的共8个数据,作为后续动态连续合成视觉图像生成步骤的输入。
S2:静态三维场景生成
基于载机所在地理区域的地形数据,地形数据包含高程数据和卫星纹理影像数据,生成该区域的三维地理场景,步骤包括:
2.1单块规则高程地形数据可视化
高程数据形式为规则网格高程数据文件形式,对规则网格高程数据文件进行解析,根据高程数据进行模型视点变换、透视投影变换、视口变换,生成单块规则高程地形数据的网格化三维模型。
2.2海量数据组织方法
海量地形数据由单块规则高程地形数据组成,以四叉树多分辨率方法对多块规则高程地形数据进行组织,生成超大规模的三维地形场景模型。
2.3基于纹理的映射方法;
以卫星影像为纹理,在大规模的三维地形场景表面映射卫星纹理,生成超大规模真实效果的三维地形场景。
该步骤生成的三维场景,记为SCENEstategraph,作为后续动态连续合成视觉图像生成步骤的输入。
S3:空间变换矩阵构建
本步骤涉及到的空间变换矩阵包括:载机的空间位置变换矩阵,记为Mairplane-pos,载机的空间姿态变换矩阵,记为Mairplane-atti,以及瞄准线的空间姿态变换矩阵,记为Mlos-atti,下面分别介绍其计算过程:
载机的空间位置变换矩阵以载机位置为输入,计算载机的空间位置变换矩阵,采用如下公式:
Figure BDA0002709742130000041
其中,u,v,n的计算采用如下公式:
u=[ux,uy,uz]=[-sinl,cosl,0]
v=[vx,vy,vz]=[coslsinb,sinbsinl,-cosb]
n=[nx,ny,nz]=[coslcosb,sinlsinb,sinb]
b、l是步骤一中采集得到的载机纬度和经度,h为载机高度。
位置矩阵px,py,pz的计算采用如下公式:
px=(N+H)cosbcosl
py=(N+H)cosbsinl
pz=[(N(1-e2)+H]sinb
其中:
Figure BDA0002709742130000051
Figure BDA0002709742130000052
a,b分别为地球半径长短半径
载机的空间姿态变换矩阵Mairplane-atti采用如下计算公式:
Figure BDA0002709742130000053
Figure BDA0002709742130000054
其中:θ,
Figure BDA0002709742130000055
σ分别是载机姿态的横滚角、俯仰角和方位角。
瞄准线在载机坐标系下的姿态矩阵Mlos-atti采用如下计算公式:。
Figure BDA0002709742130000056
其中,
Figure BDA0002709742130000057
其中,alos,plos分别是载机瞄准线的方位角和俯仰角。
S4:合成视觉图形生成
以步骤S2和步骤S3的输出作为输入,即采集得到的载机空间位置变换矩阵、载机空间姿态变换矩阵、瞄准线空间姿态变换矩阵驱动生成的三维静态场景,生成动态连续的合成视觉图像,具体方法包括:
4.1获取载机位姿数据构建空间变换矩阵,包括位置空间变换矩阵Mairplane-pos和空间姿态变换矩阵Mairplane-atti
4.2根据瞄准线姿态数据构建瞄准线空间变换矩阵Mairplane-los
4.3根据上述步骤构建复合空间变换矩阵Mcomposite,即Mcomposite=Mlos*Matti*Mpos
4.4以三维静态场景生成的场景节点树为对象SCENEstategraph,应用上一步中构建的复合空间变换矩阵Mcomposite,生成动态连续的合成视觉图像,记为SVSsequce;其中某一帧的图像记为fsvs(x,y,z,t)。
本步骤中输出的合成视觉图像作为后续配准融合步骤的输入。
S5:线框化合成视觉图像特征提取
假设生成的合成视觉某一帧图像为f(x,y),针对该帧图像进行线框化特征提取方法如下:
5.1对f(x,y)进行高斯平滑滤波,高斯核采用如下核K:
Figure BDA0002709742130000061
5.2计算f(x,y)的梯度幅值和方向,采用如下卷积阵列:
Figure BDA0002709742130000062
采用下式计算梯度幅值和方向:
Figure BDA0002709742130000063
Figure BDA0002709742130000064
5.3采用非极大值抑制排除非边缘像素
针对f(x,y)中的每一个像素,与周边相邻像素比较相同梯度方向下的梯度幅值,保留梯度幅值最大的像素,去除其它像素点。
5.4采用滞后阈值算法选择像素
设置高阈值h(max)和低阈值h(min),对于f(x,y)的灰度梯度高于h(max)的像素进行保留,对于f(x,y)的灰度梯度小于h(min)的像素进行去除,灰度梯度介于h(max)和h(min)的像素,如果和高于h(max)的边缘像素相连接,则保留,否则去除。
线框化提取地形地貌特征的效果图见图3。
S6:夜视图与合成视觉特征图的叠加融合
将步骤S5中合成视觉图像进行线框化特征提取后的图像叠加在夜视图像上,注意该步骤叠加的仅仅是提取出来的特征,比如上一步骤中的线条,叠加融合二者图像的益处是:在夜视图像由于外界视觉条件恶化(比如硝烟、沙尘、雨、雪、云、雾等),图像内容可能模糊甚至消失,叠加对应的合成视觉特征仍然可以帮助飞行员识别山体地貌特征等,合成视觉特征不受外界影响,二者的融合提升了夜视系统在恶劣视觉条件下的适应能力。
在夜视图像上叠加线框图的示意效果见图4a和图4b,
本发明利用了合成视觉数据不受外界环境影像的特点,结合了夜视数据在微光夜视条件下的探测能力,采用线框化方式将二者图像融合叠加,产生增强型夜视图像,能够提升夜视系统在恶劣视觉条件下的环境探测能力,增强夜视系统对飞机的辅助导航能力。帮助飞行员在高原山区等云/雨气候异常条件下,更加有效的感知外部环境,降低载机与地物山体碰撞的概率,可提高直升机在恶略视觉环境下的感知能力和侦察能力,提升直升机的战场生存能力。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (10)

1.一种基于合成视觉的夜视系统图像增强方法,其特征在于,包括以下步骤:
S1:载机位姿以及夜视瞄准线姿态参数获取;
S2:静态三维场景生成;
S3:空间变换矩阵构建;
S4:动态合成视觉图形生成;
S5:线框化合成视觉图像特征提取;
S6:夜视图像叠加融合特征。
2.如权利要求1所述的基于合成视觉的夜视系统图像增强方法,其特征在于,所述步骤S1中,载机位姿参数包括载机位置参数和姿态参数,载机位置参数包括经度、纬度、高度,分别记为l、b、h,载机位置参数以地理坐标系为基准,经度、纬度单位为度,姿态参数包括航向角、俯仰角、横滚角,分别记为a、p、r,单位为度,该角度以东北天坐标系为基准;夜视瞄准线姿态参数包括瞄准线的方位角和俯仰角,分别记为alos、plos,该角度以载机坐标系为基准。
3.如权利要求2所述的基于合成视觉的夜视系统图像增强方法,其特征在于,所述步骤S2中,基于载机所在地理区域的地形数据,地形数据包含高程数据和卫星纹理影像数据,生成该区域的三维地理场景,包括以下子步骤:
2.1单块规则高程地形数据可视化
高程数据形式为规则网格高程数据文件形式,对规则网格高程数据文件进行解析,根据高程数据进行模型视点变换、透视投影变换、视口变换,生成单块规则高程地形数据的网格化三维模型;
2.2海量数据组织方法
海量地形数据由单块规则高程地形数据组成,以四叉树多分辨率方法对多块规则高程地形数据进行组织,生成大规模的三维地形场景模型;
2.3基于纹理的映射方法;
以卫星影像为纹理,在大规模的三维地形场景表面映射卫星纹理,生成超大规模真实效果的三维地形场景;该步骤生成的三维地形场景记为SCENEstategraph
4.如权利要求3所述的基于合成视觉的夜视系统图像增强方法,其特征在于,所述步骤S3中,所构建的空间变换矩阵包括:载机的空间位置变换矩阵,记为Mairplane-pos;载机的空间姿态变换矩阵,记为Mairplane-atti;瞄准线的空间姿态变换矩阵,记为Mlos-atti
5.如权利要求4所述的基于合成视觉的夜视系统图像增强方法,其特征在于,所述步骤S3中,载机的空间位置变换矩阵以载机位置为输入,计算载机的空间位置变换矩阵,采用如下公式:
Figure FDA0002709742120000021
其中,u,v,n的计算采用如下公式:
u=[ux,uy,uz]=[-sinl,cosl,0]
v=[vx,vy,vz]=[coslsinb,sinbsinl,-cosb]
n=[nx,ny,nz]=[coslcosb,sinlsinb,sinb]
b、l是步骤一中采集得到的载机纬度和经度,h为载机高度;
位置矩阵px,py,pz的计算采用如下公式:
px=(N+H)cosbcosl
py=(N+H)cosbsinl
pz=[(N(1-e2)+H]sinb
其中:
Figure FDA0002709742120000031
Figure FDA0002709742120000032
a,b分别为地球半径长短半径。
6.如权利要求5所述的基于合成视觉的夜视系统图像增强方法,其特征在于,所述步骤S3中,载机的空间姿态变换矩阵Mairplane-atti采用如下计算公式:
Figure FDA0002709742120000033
Figure FDA0002709742120000034
其中:θ,
Figure FDA0002709742120000035
σ分别是载机姿态的横滚角、俯仰角和方位角。
7.如权利要求6所述的基于合成视觉的夜视系统图像增强方法,其特征在于,所述步骤S3中,瞄准线在载机坐标系下的姿态矩阵Mlos-atti采用如下计算公式:
Figure FDA0002709742120000036
其中,
Figure FDA0002709742120000037
其中,alos,plos分别是载机瞄准线的方位角和俯仰角。
8.如权利要求7所述的基于合成视觉的夜视系统图像增强方法,其特征在于,所述步骤S4中,以步骤S2和步骤S3的输出作为输入,即采集得到的载机空间位置变换矩阵、载机空间姿态变换矩阵、瞄准线空间姿态变换矩阵驱动生成的三维静态场景,生成动态连续的合成视觉图像,包括以下子步骤:
4.1获取载机位姿数据构建空间变换矩阵,包括位置空间变换矩阵Mairplane-pos和空间姿态变换矩阵Mairplane-atti
4.2根据瞄准线姿态数据构建瞄准线空间变换矩阵Mairplane-los
4.3根据上述步骤构建复合空间变换矩阵Mcomposite,即Mcomposite=Mlos*Matti*Mpos
4.4以三维静态场景生成的场景节点树为对象SCENEstategraph,应用上一步中构建的复合空间变换矩阵Mcomposite,生成动态连续的合成视觉图像,记为SVSsequce;其中某一帧的图像记为fsvs(x,y,z,t)。
9.如权利要求8所述的基于合成视觉的夜视系统图像增强方法,其特征在于,所述步骤S5中,定义生成的合成视觉某一帧图像为f(x,y),针对该帧图像进行线框化特征提取方法如下:
5.1对f(x,y)进行高斯平滑滤波,高斯核采用如下核K:
Figure FDA0002709742120000041
5.2计算f(x,y)的梯度幅值和方向,采用如下卷积阵列:
Figure FDA0002709742120000042
采用下式计算梯度幅值和方向:
Figure FDA0002709742120000051
Figure FDA0002709742120000052
5.3采用非极大值抑制排除非边缘像素
针对f(x,y)中的每一个像素,与周边相邻像素比较相同梯度方向下的梯度幅值,保留梯度幅值最大的像素,去除其它像素点;
5.4采用滞后阈值算法选择像素
设置高阈值h(max)和低阈值h(min),对于f(x,y)的灰度梯度高于h(max)的像素进行保留,对于f(x,y)的灰度梯度小于h(min)的像素进行去除,灰度梯度介于h(max)和h(min)的像素,如果和高于h(max)的边缘像素相连接,则保留,否则去除。
10.如权利要求9所述的基于合成视觉的夜视系统图像增强方法,其特征在于,所述步骤S6中,将步骤S5中合成视觉图像进行线框化特征提取后的图像叠加在夜视图像上。
CN202011051616.3A 2020-09-29 2020-09-29 一种基于合成视觉的夜视系统图像增强方法 Active CN112419211B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011051616.3A CN112419211B (zh) 2020-09-29 2020-09-29 一种基于合成视觉的夜视系统图像增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011051616.3A CN112419211B (zh) 2020-09-29 2020-09-29 一种基于合成视觉的夜视系统图像增强方法

Publications (2)

Publication Number Publication Date
CN112419211A true CN112419211A (zh) 2021-02-26
CN112419211B CN112419211B (zh) 2024-02-02

Family

ID=74855333

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011051616.3A Active CN112419211B (zh) 2020-09-29 2020-09-29 一种基于合成视觉的夜视系统图像增强方法

Country Status (1)

Country Link
CN (1) CN112419211B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114459461A (zh) * 2022-01-26 2022-05-10 西安应用光学研究所 一种基于gis与实时光电视频的导航定位方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050232512A1 (en) * 2004-04-20 2005-10-20 Max-Viz, Inc. Neural net based processor for synthetic vision fusion
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
CN104469155A (zh) * 2014-12-04 2015-03-25 中国航空工业集团公司第六三一研究所 一种机载图形图像虚实叠加方法
CN108288301A (zh) * 2018-01-26 2018-07-17 南京乐飞航空技术有限公司 一种基于OpenGL的双目夜视成像模拟方法及系统
CN109544696A (zh) * 2018-12-04 2019-03-29 中国航空工业集团公司西安航空计算技术研究所 一种基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法
CN110930508A (zh) * 2019-11-27 2020-03-27 西安应用光学研究所 二维光电视频与三维场景融合方法
CN111145362A (zh) * 2020-01-02 2020-05-12 中国航空工业集团公司西安航空计算技术研究所 一种机载综合视景系统虚实融合显示方法及系统
CN111192229A (zh) * 2020-01-02 2020-05-22 中国航空工业集团公司西安航空计算技术研究所 一种机载多模态视频画面增强显示方法及系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050232512A1 (en) * 2004-04-20 2005-10-20 Max-Viz, Inc. Neural net based processor for synthetic vision fusion
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
CN104469155A (zh) * 2014-12-04 2015-03-25 中国航空工业集团公司第六三一研究所 一种机载图形图像虚实叠加方法
CN108288301A (zh) * 2018-01-26 2018-07-17 南京乐飞航空技术有限公司 一种基于OpenGL的双目夜视成像模拟方法及系统
CN109544696A (zh) * 2018-12-04 2019-03-29 中国航空工业集团公司西安航空计算技术研究所 一种基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法
CN110930508A (zh) * 2019-11-27 2020-03-27 西安应用光学研究所 二维光电视频与三维场景融合方法
CN111145362A (zh) * 2020-01-02 2020-05-12 中国航空工业集团公司西安航空计算技术研究所 一种机载综合视景系统虚实融合显示方法及系统
CN111192229A (zh) * 2020-01-02 2020-05-22 中国航空工业集团公司西安航空计算技术研究所 一种机载多模态视频画面增强显示方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
PRATIK KUMAR等: ""Vision based flying robot with sensing devices for multi-purpose application"", 《2015 INTERNATIONAL CONFERENCE ON INNOVATIONS IN INFORMATION, EMBEDDED AND COMMUNICATION SYSTEMS》 *
张超: ""退化视觉环境三维复杂场景感知及其可视化技术"", 《中国优秀硕士学位论文全文数据库》 *
熊斌;丁晓青;王生进;: "基于三维模型的前视红外目标匹配识别方法", 激光与红外, no. 03 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114459461A (zh) * 2022-01-26 2022-05-10 西安应用光学研究所 一种基于gis与实时光电视频的导航定位方法
CN114459461B (zh) * 2022-01-26 2023-11-28 西安应用光学研究所 一种基于gis与实时光电视频的导航定位方法

Also Published As

Publication number Publication date
CN112419211B (zh) 2024-02-02

Similar Documents

Publication Publication Date Title
CN106908775B (zh) 一种基于激光反射强度的无人车实时定位方法
CN106681353B (zh) 基于双目视觉与光流融合的无人机避障方法及系统
US7642929B1 (en) Helicopter brown-out landing
CN110930508B (zh) 二维光电视频与三维场景融合方法
US20130027554A1 (en) Method and Apparatus for Automated Camera Location and Orientation with Image Processing and Alignment to Ground Based Reference Point(s)
JP2015522458A (ja) 4dlidarに基づく許容ヘリコプター着陸地点のポイントクラウド可視化
CN103822635A (zh) 基于视觉信息的无人机飞行中空间位置实时计算方法
KR101413231B1 (ko) 증강현실 기반 차량 주변 모니터링 장치 및 방법, 그리고 차량
CN113359782B (zh) 一种融合lidar点云与图像数据的无人机自主选址降落方法
JP5571199B2 (ja) 地面に基づく画像と上からとられた画像の組み合わせに基づく三次元モデル法
CN115980785A (zh) 一种用于直升机辅助导航的点云数据处理方法
Rankin et al. Stereo-vision-based terrain mapping for off-road autonomous navigation
CN111145362A (zh) 一种机载综合视景系统虚实融合显示方法及系统
CN111563957B (zh) 一种煤田火灾及矸石山火灾三维温度场数字化成像方法
Lacroix et al. Digital elevation map building from low altitude stereo imagery
CN113807435A (zh) 一种基于多传感器的遥感图像特征点高程获取方法
Ai et al. Obstacle detection using U-disparity on quadratic road surfaces
CN112419211B (zh) 一种基于合成视觉的夜视系统图像增强方法
CN109961043B (zh) 一种基于无人机高分辨率影像的单木高度测量方法及系统
CN113155126B (zh) 一种基于视觉导航的多机协同目标高精度定位系统及方法
CN111325836A (zh) 生成地形的三维表示的方法、计算机程序产品和装置
CN112182774B (zh) 一种直升机载环境下的三维场景实时更新方法
US10415993B2 (en) Synthetic vision augmented with multispectral sensing
Funk et al. A passive cloud detection system for UAV: Weather situation mapping with imaging sensors
Lehmann et al. Efficient pre-segmentation algorithm for sidescan-sonar images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant