CN112419211A - 一种基于合成视觉的夜视系统图像增强方法 - Google Patents
一种基于合成视觉的夜视系统图像增强方法 Download PDFInfo
- Publication number
- CN112419211A CN112419211A CN202011051616.3A CN202011051616A CN112419211A CN 112419211 A CN112419211 A CN 112419211A CN 202011051616 A CN202011051616 A CN 202011051616A CN 112419211 A CN112419211 A CN 112419211A
- Authority
- CN
- China
- Prior art keywords
- night vision
- image
- transformation matrix
- attitude
- composite
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004297 night vision Effects 0.000 title claims abstract description 56
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000004438 eyesight Effects 0.000 title claims abstract description 29
- 230000009466 transformation Effects 0.000 claims abstract description 41
- 239000011159 matrix material Substances 0.000 claims abstract description 39
- 230000000007 visual effect Effects 0.000 claims abstract description 34
- 239000002131 composite material Substances 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000000694 effects Effects 0.000 claims description 9
- 230000003068 static effect Effects 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 4
- 238000013079 data visualisation Methods 0.000 claims description 2
- 230000007717 exclusion Effects 0.000 claims description 2
- 238000009499 grossing Methods 0.000 claims description 2
- 230000008520 organization Effects 0.000 claims description 2
- 230000001629 suppression Effects 0.000 claims description 2
- 230000015572 biosynthetic process Effects 0.000 claims 2
- 230000002708 enhancing effect Effects 0.000 claims 2
- 238000003786 synthesis reaction Methods 0.000 claims 2
- 230000002159 abnormal effect Effects 0.000 abstract description 4
- 230000008447 perception Effects 0.000 abstract description 4
- 238000001514 detection method Methods 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 abstract description 2
- 239000000284 extract Substances 0.000 abstract description 2
- 230000035899 viability Effects 0.000 abstract description 2
- 230000008901 benefit Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000000428 dust Substances 0.000 description 3
- 239000004576 sand Substances 0.000 description 3
- 239000000779 smoke Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012876 topography Methods 0.000 description 2
- 206010047531 Visual acuity reduced Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/268—Signal distribution or switching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Image Processing (AREA)
Abstract
本发明属于光电侦察、态势感知领域,公开了一种基于合成视觉的夜视系统图像增强方法,包括:夜视系统空间位姿数据采集,空间转换矩阵生成,合成视觉图像生成,线框化处理,线框化合成视觉与夜视图像叠加融合;该方法以合成视觉技术为基础,利用夜视系统探测目标时的空间位姿数据,合成视觉系统生成对应的图像,针对该图像提取地形地貌等线框化特征,融合在对应的时空的夜视图像上。本发明能够提升夜视系统在恶劣视觉条件下的环境探测能力,增强对飞机的辅助导航能力,帮助飞行员在云/雨气候异常条件下,更加有效的感知外部环境,降低载机与地物山体碰撞的概率,可提高直升机在恶略视觉环境下的感知能力和侦察能力,提升直升机的战场生存能力。
Description
技术领域
本发明属于光电侦察、态势感知领域,主要涉及一种基于合成视觉的夜视系统图像增强方法。
背景技术
机载平台上的夜视系统,为载机在夜间的机动提供了辅助导航能力,它利用微光和夜视传感器,使得载机能够在黑夜条件下探测到前方的地形环境,为飞行员提供了黑夜条件下较为清晰的外部飞行环境。
然而载机面临的环境和任务可能会更加复杂,特别是武装直升机,会经常面临在山区高原的机动和飞行,这类地形环境在黑夜条件下会特别危险,并且该类环境下气候极端异常情况时有发生,浓云、大雨、大雾甚至降雪与黑夜条件严重影响飞行员的视觉环境,会产生夜视系统无法应对的视觉环境,在复杂地形条件下极易发生事故。
夜视系统是利用多波段的传感器探测外部环境,能够解决黑夜条件导致的恶劣视觉问题,然而面对其它的包括雨,雪,雾,霾,烟,沙尘等外部环境时,环境探测传感器会降低功效甚至完全丧失能力,此时夜视系统可能会无法保障载机的飞行安全。需要新的技术机制能够应对此类恶劣视觉环境条件。
合成视觉技术利用地形数据生成三维场景,由于它利用信息处理的方式产生外部环境图像,所以呈现的外部地形地貌环境,不会受到气候条件影响。利用合成视觉的技术特点,将其优势吸收到夜视系统中,是一个提升载机恶劣环境适应性的方向。
发明内容
(一)要解决的技术问题
直升机夜视系统在面临更加恶劣的视觉环境时,比如除了黑夜之外,同时面临雨、雪、云、雾、霾、沙尘等其它气候异常导致的视觉条件恶化的问题,此时,需要在夜视系统技术基础上,结合合成视觉技术的优势,将合成视觉图像长生的外部地形场景,以线框化的方式提取地形地貌或者山体特征,叠加到夜视图像上,提供给飞行员一个更好的感知周围态势的方案,以提高飞行安全、态势感知效果。
(二)技术方案
为解决直升机面临的黑夜条件与复杂异常极端气候条件叠加问题,本发明提出基于合成视觉的夜视系统图像增强方法,该方法采集夜视系统的空间位姿数据,基于该数据生成对应的合成视觉图像,并针对该环境图像提取线框化的地形地貌特征,将该特征叠加融合在夜视图像之上,提供相互补充的外界环境信息;线框化的方式保证了既能体现地形地貌特点,又不会对夜视图像大范围遮挡,并且在外界视觉环境变差或消失后,也能提供足够的外部地形地貌视觉参考。
(三)有益效果
上述技术方案所提供的基于合成视觉的夜视系统图像增强方法,通过相关技术手段实现在夜视图像中融合合成视觉图像的部分信息,能够弥补夜视传感器在云、雨、雪、雾、霾、沙尘、硝烟等条件下的能效降低或消失,增强夜视图像的恶劣视觉条件下环境再现能力,提升辅助导航能力,提高夜视条件下的飞机安全能力。
附图说明
图1是本发明中方法的流程组成示意图。
图2是生成的合成视觉图像效果图。
图3是线框化的合成视觉图像特征提取效果图。
图4是叠加在夜视图像上的线框特征图效果。
具体实施方式
为使本发明的目的、内容、和优点更加清楚,下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
如图1所示,本发明实施例夜视系统图像增强方法主要包括以下步骤:载机位姿以及夜视瞄准线姿态参数获取,静态三维场景生成,空间变换矩阵构建,动态合成视觉图形生成,线框化合成视觉图像特征提取,夜视图像叠加融合特征。
下面对具体步骤详述:
S1:载机位姿以及夜视瞄准线姿态参数获取
载机位姿参数包括载机位置参数和姿态参数,载机位置参数包括经度、纬度、高度,分别记为l、b、h,载机位置参数以地理坐标系为基准,经度、纬度单位为度,姿态参数包括航向角、俯仰角、横滚角,分别记为a、p、r,单位为度,该角度以东北天坐标系为基准;夜视瞄准线姿态参数包括瞄准线的方位角和俯仰角,分别记为alos、plos,该角度以载机坐标系为基准。
获取包括载机位置、姿态,瞄准线姿态在内的共8个数据,作为后续动态连续合成视觉图像生成步骤的输入。
S2:静态三维场景生成
基于载机所在地理区域的地形数据,地形数据包含高程数据和卫星纹理影像数据,生成该区域的三维地理场景,步骤包括:
2.1单块规则高程地形数据可视化
高程数据形式为规则网格高程数据文件形式,对规则网格高程数据文件进行解析,根据高程数据进行模型视点变换、透视投影变换、视口变换,生成单块规则高程地形数据的网格化三维模型。
2.2海量数据组织方法
海量地形数据由单块规则高程地形数据组成,以四叉树多分辨率方法对多块规则高程地形数据进行组织,生成超大规模的三维地形场景模型。
2.3基于纹理的映射方法;
以卫星影像为纹理,在大规模的三维地形场景表面映射卫星纹理,生成超大规模真实效果的三维地形场景。
该步骤生成的三维场景,记为SCENEstategraph,作为后续动态连续合成视觉图像生成步骤的输入。
S3:空间变换矩阵构建
本步骤涉及到的空间变换矩阵包括:载机的空间位置变换矩阵,记为Mairplane-pos,载机的空间姿态变换矩阵,记为Mairplane-atti,以及瞄准线的空间姿态变换矩阵,记为Mlos-atti,下面分别介绍其计算过程:
载机的空间位置变换矩阵以载机位置为输入,计算载机的空间位置变换矩阵,采用如下公式:
其中,u,v,n的计算采用如下公式:
u=[ux,uy,uz]=[-sinl,cosl,0]
v=[vx,vy,vz]=[coslsinb,sinbsinl,-cosb]
n=[nx,ny,nz]=[coslcosb,sinlsinb,sinb]
b、l是步骤一中采集得到的载机纬度和经度,h为载机高度。
位置矩阵px,py,pz的计算采用如下公式:
px=(N+H)cosbcosl
py=(N+H)cosbsinl
pz=[(N(1-e2)+H]sinb
其中:
a,b分别为地球半径长短半径
载机的空间姿态变换矩阵Mairplane-atti采用如下计算公式:
瞄准线在载机坐标系下的姿态矩阵Mlos-atti采用如下计算公式:。
其中,alos,plos分别是载机瞄准线的方位角和俯仰角。
S4:合成视觉图形生成
以步骤S2和步骤S3的输出作为输入,即采集得到的载机空间位置变换矩阵、载机空间姿态变换矩阵、瞄准线空间姿态变换矩阵驱动生成的三维静态场景,生成动态连续的合成视觉图像,具体方法包括:
4.1获取载机位姿数据构建空间变换矩阵,包括位置空间变换矩阵Mairplane-pos和空间姿态变换矩阵Mairplane-atti;
4.2根据瞄准线姿态数据构建瞄准线空间变换矩阵Mairplane-los;
4.3根据上述步骤构建复合空间变换矩阵Mcomposite,即Mcomposite=Mlos*Matti*Mpos;
4.4以三维静态场景生成的场景节点树为对象SCENEstategraph,应用上一步中构建的复合空间变换矩阵Mcomposite,生成动态连续的合成视觉图像,记为SVSsequce;其中某一帧的图像记为fsvs(x,y,z,t)。
本步骤中输出的合成视觉图像作为后续配准融合步骤的输入。
S5:线框化合成视觉图像特征提取
假设生成的合成视觉某一帧图像为f(x,y),针对该帧图像进行线框化特征提取方法如下:
5.1对f(x,y)进行高斯平滑滤波,高斯核采用如下核K:
5.2计算f(x,y)的梯度幅值和方向,采用如下卷积阵列:
采用下式计算梯度幅值和方向:
5.3采用非极大值抑制排除非边缘像素
针对f(x,y)中的每一个像素,与周边相邻像素比较相同梯度方向下的梯度幅值,保留梯度幅值最大的像素,去除其它像素点。
5.4采用滞后阈值算法选择像素
设置高阈值h(max)和低阈值h(min),对于f(x,y)的灰度梯度高于h(max)的像素进行保留,对于f(x,y)的灰度梯度小于h(min)的像素进行去除,灰度梯度介于h(max)和h(min)的像素,如果和高于h(max)的边缘像素相连接,则保留,否则去除。
线框化提取地形地貌特征的效果图见图3。
S6:夜视图与合成视觉特征图的叠加融合
将步骤S5中合成视觉图像进行线框化特征提取后的图像叠加在夜视图像上,注意该步骤叠加的仅仅是提取出来的特征,比如上一步骤中的线条,叠加融合二者图像的益处是:在夜视图像由于外界视觉条件恶化(比如硝烟、沙尘、雨、雪、云、雾等),图像内容可能模糊甚至消失,叠加对应的合成视觉特征仍然可以帮助飞行员识别山体地貌特征等,合成视觉特征不受外界影响,二者的融合提升了夜视系统在恶劣视觉条件下的适应能力。
在夜视图像上叠加线框图的示意效果见图4a和图4b,
本发明利用了合成视觉数据不受外界环境影像的特点,结合了夜视数据在微光夜视条件下的探测能力,采用线框化方式将二者图像融合叠加,产生增强型夜视图像,能够提升夜视系统在恶劣视觉条件下的环境探测能力,增强夜视系统对飞机的辅助导航能力。帮助飞行员在高原山区等云/雨气候异常条件下,更加有效的感知外部环境,降低载机与地物山体碰撞的概率,可提高直升机在恶略视觉环境下的感知能力和侦察能力,提升直升机的战场生存能力。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (10)
1.一种基于合成视觉的夜视系统图像增强方法,其特征在于,包括以下步骤:
S1:载机位姿以及夜视瞄准线姿态参数获取;
S2:静态三维场景生成;
S3:空间变换矩阵构建;
S4:动态合成视觉图形生成;
S5:线框化合成视觉图像特征提取;
S6:夜视图像叠加融合特征。
2.如权利要求1所述的基于合成视觉的夜视系统图像增强方法,其特征在于,所述步骤S1中,载机位姿参数包括载机位置参数和姿态参数,载机位置参数包括经度、纬度、高度,分别记为l、b、h,载机位置参数以地理坐标系为基准,经度、纬度单位为度,姿态参数包括航向角、俯仰角、横滚角,分别记为a、p、r,单位为度,该角度以东北天坐标系为基准;夜视瞄准线姿态参数包括瞄准线的方位角和俯仰角,分别记为alos、plos,该角度以载机坐标系为基准。
3.如权利要求2所述的基于合成视觉的夜视系统图像增强方法,其特征在于,所述步骤S2中,基于载机所在地理区域的地形数据,地形数据包含高程数据和卫星纹理影像数据,生成该区域的三维地理场景,包括以下子步骤:
2.1单块规则高程地形数据可视化
高程数据形式为规则网格高程数据文件形式,对规则网格高程数据文件进行解析,根据高程数据进行模型视点变换、透视投影变换、视口变换,生成单块规则高程地形数据的网格化三维模型;
2.2海量数据组织方法
海量地形数据由单块规则高程地形数据组成,以四叉树多分辨率方法对多块规则高程地形数据进行组织,生成大规模的三维地形场景模型;
2.3基于纹理的映射方法;
以卫星影像为纹理,在大规模的三维地形场景表面映射卫星纹理,生成超大规模真实效果的三维地形场景;该步骤生成的三维地形场景记为SCENEstategraph。
4.如权利要求3所述的基于合成视觉的夜视系统图像增强方法,其特征在于,所述步骤S3中,所构建的空间变换矩阵包括:载机的空间位置变换矩阵,记为Mairplane-pos;载机的空间姿态变换矩阵,记为Mairplane-atti;瞄准线的空间姿态变换矩阵,记为Mlos-atti。
5.如权利要求4所述的基于合成视觉的夜视系统图像增强方法,其特征在于,所述步骤S3中,载机的空间位置变换矩阵以载机位置为输入,计算载机的空间位置变换矩阵,采用如下公式:
其中,u,v,n的计算采用如下公式:
u=[ux,uy,uz]=[-sinl,cosl,0]
v=[vx,vy,vz]=[coslsinb,sinbsinl,-cosb]
n=[nx,ny,nz]=[coslcosb,sinlsinb,sinb]
b、l是步骤一中采集得到的载机纬度和经度,h为载机高度;
位置矩阵px,py,pz的计算采用如下公式:
px=(N+H)cosbcosl
py=(N+H)cosbsinl
pz=[(N(1-e2)+H]sinb
其中:
a,b分别为地球半径长短半径。
8.如权利要求7所述的基于合成视觉的夜视系统图像增强方法,其特征在于,所述步骤S4中,以步骤S2和步骤S3的输出作为输入,即采集得到的载机空间位置变换矩阵、载机空间姿态变换矩阵、瞄准线空间姿态变换矩阵驱动生成的三维静态场景,生成动态连续的合成视觉图像,包括以下子步骤:
4.1获取载机位姿数据构建空间变换矩阵,包括位置空间变换矩阵Mairplane-pos和空间姿态变换矩阵Mairplane-atti;
4.2根据瞄准线姿态数据构建瞄准线空间变换矩阵Mairplane-los;
4.3根据上述步骤构建复合空间变换矩阵Mcomposite,即Mcomposite=Mlos*Matti*Mpos;
4.4以三维静态场景生成的场景节点树为对象SCENEstategraph,应用上一步中构建的复合空间变换矩阵Mcomposite,生成动态连续的合成视觉图像,记为SVSsequce;其中某一帧的图像记为fsvs(x,y,z,t)。
9.如权利要求8所述的基于合成视觉的夜视系统图像增强方法,其特征在于,所述步骤S5中,定义生成的合成视觉某一帧图像为f(x,y),针对该帧图像进行线框化特征提取方法如下:
5.1对f(x,y)进行高斯平滑滤波,高斯核采用如下核K:
5.2计算f(x,y)的梯度幅值和方向,采用如下卷积阵列:
采用下式计算梯度幅值和方向:
5.3采用非极大值抑制排除非边缘像素
针对f(x,y)中的每一个像素,与周边相邻像素比较相同梯度方向下的梯度幅值,保留梯度幅值最大的像素,去除其它像素点;
5.4采用滞后阈值算法选择像素
设置高阈值h(max)和低阈值h(min),对于f(x,y)的灰度梯度高于h(max)的像素进行保留,对于f(x,y)的灰度梯度小于h(min)的像素进行去除,灰度梯度介于h(max)和h(min)的像素,如果和高于h(max)的边缘像素相连接,则保留,否则去除。
10.如权利要求9所述的基于合成视觉的夜视系统图像增强方法,其特征在于,所述步骤S6中,将步骤S5中合成视觉图像进行线框化特征提取后的图像叠加在夜视图像上。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011051616.3A CN112419211B (zh) | 2020-09-29 | 2020-09-29 | 一种基于合成视觉的夜视系统图像增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011051616.3A CN112419211B (zh) | 2020-09-29 | 2020-09-29 | 一种基于合成视觉的夜视系统图像增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112419211A true CN112419211A (zh) | 2021-02-26 |
CN112419211B CN112419211B (zh) | 2024-02-02 |
Family
ID=74855333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011051616.3A Active CN112419211B (zh) | 2020-09-29 | 2020-09-29 | 一种基于合成视觉的夜视系统图像增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112419211B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114459461A (zh) * | 2022-01-26 | 2022-05-10 | 西安应用光学研究所 | 一种基于gis与实时光电视频的导航定位方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050232512A1 (en) * | 2004-04-20 | 2005-10-20 | Max-Viz, Inc. | Neural net based processor for synthetic vision fusion |
US20130278631A1 (en) * | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
CN104469155A (zh) * | 2014-12-04 | 2015-03-25 | 中国航空工业集团公司第六三一研究所 | 一种机载图形图像虚实叠加方法 |
CN108288301A (zh) * | 2018-01-26 | 2018-07-17 | 南京乐飞航空技术有限公司 | 一种基于OpenGL的双目夜视成像模拟方法及系统 |
CN109544696A (zh) * | 2018-12-04 | 2019-03-29 | 中国航空工业集团公司西安航空计算技术研究所 | 一种基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法 |
CN110930508A (zh) * | 2019-11-27 | 2020-03-27 | 西安应用光学研究所 | 二维光电视频与三维场景融合方法 |
CN111145362A (zh) * | 2020-01-02 | 2020-05-12 | 中国航空工业集团公司西安航空计算技术研究所 | 一种机载综合视景系统虚实融合显示方法及系统 |
CN111192229A (zh) * | 2020-01-02 | 2020-05-22 | 中国航空工业集团公司西安航空计算技术研究所 | 一种机载多模态视频画面增强显示方法及系统 |
-
2020
- 2020-09-29 CN CN202011051616.3A patent/CN112419211B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050232512A1 (en) * | 2004-04-20 | 2005-10-20 | Max-Viz, Inc. | Neural net based processor for synthetic vision fusion |
US20130278631A1 (en) * | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
CN104469155A (zh) * | 2014-12-04 | 2015-03-25 | 中国航空工业集团公司第六三一研究所 | 一种机载图形图像虚实叠加方法 |
CN108288301A (zh) * | 2018-01-26 | 2018-07-17 | 南京乐飞航空技术有限公司 | 一种基于OpenGL的双目夜视成像模拟方法及系统 |
CN109544696A (zh) * | 2018-12-04 | 2019-03-29 | 中国航空工业集团公司西安航空计算技术研究所 | 一种基于视觉惯性组合的机载增强合成视景虚实图像精确配准方法 |
CN110930508A (zh) * | 2019-11-27 | 2020-03-27 | 西安应用光学研究所 | 二维光电视频与三维场景融合方法 |
CN111145362A (zh) * | 2020-01-02 | 2020-05-12 | 中国航空工业集团公司西安航空计算技术研究所 | 一种机载综合视景系统虚实融合显示方法及系统 |
CN111192229A (zh) * | 2020-01-02 | 2020-05-22 | 中国航空工业集团公司西安航空计算技术研究所 | 一种机载多模态视频画面增强显示方法及系统 |
Non-Patent Citations (3)
Title |
---|
PRATIK KUMAR等: ""Vision based flying robot with sensing devices for multi-purpose application"", 《2015 INTERNATIONAL CONFERENCE ON INNOVATIONS IN INFORMATION, EMBEDDED AND COMMUNICATION SYSTEMS》 * |
张超: ""退化视觉环境三维复杂场景感知及其可视化技术"", 《中国优秀硕士学位论文全文数据库》 * |
熊斌;丁晓青;王生进;: "基于三维模型的前视红外目标匹配识别方法", 激光与红外, no. 03 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114459461A (zh) * | 2022-01-26 | 2022-05-10 | 西安应用光学研究所 | 一种基于gis与实时光电视频的导航定位方法 |
CN114459461B (zh) * | 2022-01-26 | 2023-11-28 | 西安应用光学研究所 | 一种基于gis与实时光电视频的导航定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112419211B (zh) | 2024-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106908775B (zh) | 一种基于激光反射强度的无人车实时定位方法 | |
CN106681353B (zh) | 基于双目视觉与光流融合的无人机避障方法及系统 | |
US7642929B1 (en) | Helicopter brown-out landing | |
CN110930508B (zh) | 二维光电视频与三维场景融合方法 | |
US20130027554A1 (en) | Method and Apparatus for Automated Camera Location and Orientation with Image Processing and Alignment to Ground Based Reference Point(s) | |
JP2015522458A (ja) | 4dlidarに基づく許容ヘリコプター着陸地点のポイントクラウド可視化 | |
CN103822635A (zh) | 基于视觉信息的无人机飞行中空间位置实时计算方法 | |
KR101413231B1 (ko) | 증강현실 기반 차량 주변 모니터링 장치 및 방법, 그리고 차량 | |
CN113359782B (zh) | 一种融合lidar点云与图像数据的无人机自主选址降落方法 | |
JP5571199B2 (ja) | 地面に基づく画像と上からとられた画像の組み合わせに基づく三次元モデル法 | |
CN115980785A (zh) | 一种用于直升机辅助导航的点云数据处理方法 | |
Rankin et al. | Stereo-vision-based terrain mapping for off-road autonomous navigation | |
CN111145362A (zh) | 一种机载综合视景系统虚实融合显示方法及系统 | |
CN111563957B (zh) | 一种煤田火灾及矸石山火灾三维温度场数字化成像方法 | |
Lacroix et al. | Digital elevation map building from low altitude stereo imagery | |
CN113807435A (zh) | 一种基于多传感器的遥感图像特征点高程获取方法 | |
Ai et al. | Obstacle detection using U-disparity on quadratic road surfaces | |
CN112419211B (zh) | 一种基于合成视觉的夜视系统图像增强方法 | |
CN109961043B (zh) | 一种基于无人机高分辨率影像的单木高度测量方法及系统 | |
CN113155126B (zh) | 一种基于视觉导航的多机协同目标高精度定位系统及方法 | |
CN111325836A (zh) | 生成地形的三维表示的方法、计算机程序产品和装置 | |
CN112182774B (zh) | 一种直升机载环境下的三维场景实时更新方法 | |
US10415993B2 (en) | Synthetic vision augmented with multispectral sensing | |
Funk et al. | A passive cloud detection system for UAV: Weather situation mapping with imaging sensors | |
Lehmann et al. | Efficient pre-segmentation algorithm for sidescan-sonar images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |