CN108225309A - 通过地理配准增强多个原始传感器图像的方法和设备 - Google Patents
通过地理配准增强多个原始传感器图像的方法和设备 Download PDFInfo
- Publication number
- CN108225309A CN108225309A CN201711390862.XA CN201711390862A CN108225309A CN 108225309 A CN108225309 A CN 108225309A CN 201711390862 A CN201711390862 A CN 201711390862A CN 108225309 A CN108225309 A CN 108225309A
- Authority
- CN
- China
- Prior art keywords
- sensor
- image
- estimation
- newer
- inertial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1652—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Radar Systems Or Details Thereof (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明涉及通过地理配准增强多个原始传感器图像的方法和设备。一种用于从原始传感器数据生成图像的方法和设备。在实施例中,所述方法包括:在多个传感器惯性状态下从一个或多个传感器读取多个原始传感器数据集;生成多个传感器惯性状态中的每一个的估计,并且同时保留每个原始传感器数据集,生成图像,所述图像至少部分地从多个估计的传感器惯性状态和多个原始传感器数据集生成;并且生成传感器惯性状态中的至少一个的更新的估计,传感器惯性状态中的至少一个的更新估计至少部分地从生成的图像和多个估计的传感器惯性状态生成。最后,从保留的原始传感器数据集和传感器惯性状态中的至少一个的更新的估计生成增强图像。
Description
相关申请的交叉引用
本申请涉及以下共同未决和共同转让的专利申请,这些申请在此通过引用并入本文:
与Daniel T.Phillips在同一日期提交的标题为“METHOD AND APPARATUS FORRAW SENSOR IMAGE ENHANCEMENT THROUGH GEOREGISTRATION,”的申请序列号--/---,---。
技术领域
本公开涉及用于从原始传感器数据生成图像的系统和方法,并且具体涉及用于通过地理配准来增强这种图像生成的系统和方法。
背景技术
图像配准是将不同集合的图像数据转换到单个坐标系的过程。在配准过程中使用的图像数据通常包括基本上相同的场景的多个图像,并且这样的图像可以在相同的时间或者在不同的时间或观察点被拍摄。数据配准技术用于计算机视觉、医学成像、军事自动目标识别以及编译和分析来自卫星的图像和数据。为了能够比较或整合从这些不同测量而获得的数据,有必要进行配准。
在一些情况下,图像可以与图像中描绘的相同场景的参考视图合成模型一起配准。例如,通过引用结合于此的美国专利公开2005/0220363描述用于用参考图像数据库和/或数字高程模型(DEM)自动配准图像的处理架构。
传感器数据的收集和随后的图像处理被进行原始传感器测量的传感器位置的不确定性失真。这是由于安装传感器的平台的导航系统的不确定性,图像配准过程中的错误,以及通常只有有限的参考高程数据集可用于处理图像。
所需要的是减少这种失真的系统和方法。下面公开这种系统和方法。
发明内容
为了解决上述需求,该文档公开了用于从原始传感器数据生成图像的系统和方法。在一个实施例中,该方法包括:读取多个原始传感器数据集,每个原始传感器数据集在多个传感器惯性状态下从一个或多个传感器读取;生成多个传感器惯性状态的每一个的估计,以及保留每个原始传感器数据集。保留原始传感器数据集中的每一个,同时至少部分地从多个估计的传感器惯性状态和多个原始传感器数据集生成图像,并且生成传感器惯性状态的至少一个的更新的估计,其中,至少部分地从生成的图像和多个估计的传感器惯性状态生成传感器惯性状态的至少一个的更新的估计。最后,从保留的原始传感器数据集和传感器惯性状态的至少一个的更新的估计生成增强图像。通过用于执行上述操作的装置来实施另一个实施例。
还有另一个实施例通过用于从原始传感器数据生成图像的设备来实施,该设备包括:传感器,用于生成原始数据;图像处理器,通信地耦接到传感器,用于从传感器读取多个原始传感器数据集,每个原始传感器数据集在多个传感器惯性状态下从传感器读取;惯性导航系统,通信地耦接到传感器,用于生成多个传感器惯性状态中的每一个的估计;图像处理器,通信地耦接到传感器和惯性导航系统,用于生成图像,该图像至少部分地从多个估计的传感器惯性状态和多个原始传感器数据集生成;以及地理配准系统,通信地耦接到惯性导航系统和图像处理器,用于生成传感器惯性状态中的至少一个的更新的估计,传感器惯性状态中的至少一个的更新的估计至少部分地从生成的图像和多个估计的传感器惯性状态生成。在该实施例中,图像处理器从保留的原始传感器数据集和传感器惯性状态中的至少一个的更新的估计来生成增强图像,并且,当从原始传感器数据生成图像,并且生成传感器惯性状态中的至少一个的更新的估计时,传感器保留每个原始传感器数据集。还有另一个实施例通过具有处理器和通信地耦接的存储器的设备来实施,该存储器存储用于执行前述操作的处理器指令。
已经讨论的特征、功能和优点可以在本发明的各种实施例中独立地实现,或者可以在其他实施例中组合,其进一步的细节可以参考以下描述和附图来看到。
附图说明
现在参考附图,其中相同的参考数字始终表示相应的部分:
图1是示出传感器平台操作的示图;
图2是呈现示例性地理配准系统的示图;
图3是示出地理配准系统的更详细实施例的示图;
图4A至图4D是呈现可用于从原始传感器数据生成图像的示例性处理步骤的示图;
图5是改进的地理配准系统的一个实施例的示图;以及
图6示出可以用来实现处理元件的示例性计算机或系统600。
具体实施方式
在下面的描述中,参考形成几个实施例的一部分并示意性示出的附图。应该理解的是,可以不脱离本公开的范围内,可以利用其它实施例并且可以进行结构改变。
概述
与用于从原始传感器数据生成图像的现有系统和方法不同,本文描述的系统和方法保留原始传感器图像数据(例如,合成孔径雷达(SAR)IQ收集数据)。在成功地地理配准到高分辨率参考图像时,原始传感器数据利用计算的增强的传感器位置和参考图像数据被重新处理,从而得到具有更高准确度和减少的失真的增强输出传感器图像,例如,使用像反投影的算法重新处理原始传感器SAR数据,其主要益处将在具有显著的平面外加速度的高分辨率集合中可以看到。其他可能改善的失真包括透视和缓和失真,这在SAR应用中是有问题的。
平台
图1是示出传感器平台104(以下也称为平台)的操作的示图。传感器平台104可以在地球的大气或空间中操作,并且可以是无人操纵的或有人操纵的。在实施例中,传感器平台是无人飞行器(UAV)。平台104通常包括具有视场(FOV)108的传感器106(其可以安装在可旋转的转台105上),视场108监视地面上或附近的目标110。
平台104通常还包括通信地耦接到存储用于执行本文描述的操作的处理器指令的存储器116的处理器112,以及用于对平台104的运动进行惯性测量并且通过适当的坐标转换,将这些测量结果转换成诸如惯性导航系统(INS)114的平台104或传感器106的惯性状态的估计的设备。典型地,INS114包括惯性参考单元(IRU),该惯性参考单元包括三个在三个正交方向上提供加速度测量的加速度计,以及诸如在三个正交方向上感测旋转的陀螺仪的三个速率传感器。典型地,INS114还可以包括用于接收全球导航信息(诸如从诸如全球定位系统(GPS)的系统可获得的信息)的另一个接收器。GPS包括多个卫星102A-102N,它们传输INS114用来帮助确定其在惯性空间中的位置的信号。在一些应用中,INS114还可以包括用于估计位置的星形跟踪器或其他设备。
在实施例中,平台104还包括通信地耦接到处理器112的接收器117,其用于与地面站118收发命令和其他信息。使用地面站118中的计算机和其他设备,用户120向平台104提供命令并接收包括由传感器106获得的数据的数据。
传感器实施例
在一个实施例中,传感器106包括SAR,该SAR扫描包括目标110的场景109,并且利用从这样的扫描生成的原始传感器数据构建目标110和/或场景109的图像。
SAR是大多数一致的空中或者太空中的侧视雷达系统,其利用平台104的飞行路径电子模拟极大的天线或孔径,并且生成高分辨率的遥感图像。随着时间的推移,随着每个周期的数据被电子存储,单独的发送/接收周期结束。信号处理使用来自合成孔径元素的连续脉冲上的接收信号的幅度和相位。经过给定数量的周期后,所存储的数据被重新组合(考虑不同发射器中固有的多普勒效应,以在每个后续周期中针对几何结构),以创建飞越地形的高分辨率图像。
SAR与相控阵类似地工作,但是SAR不是使用相控阵的大量并行天线元件,而是使用一个天线(生成可机械或电子操控的波束),并将测量结果时分复用以模拟大的光圈传感器。天线元件的不同几何位置是移动平台104的结果。
图像处理器将在一段时间内所有雷达返回信号存储为幅度和相位,使得每个信号表示从惯性空间中的关联位置获取的数据。现在可以重建由长度为v*T的天线所获得的信号,其中,v是平台速度,T是时间段。当视线方向沿着雷达平台轨迹变化时,通过具有延长天线的效果的信号处理生成合成孔径。使T大会使“合成孔径”大,并且可以实现更高的分辨率。
当目标110首先进入雷达波束时,来自每个发射脉冲的反向散射回波开始被记录。随着平台继续向前移动,在目标位于波束内的整个时间内记录来自目标的每个脉冲的所有回波。目标离开雷达波束的视点一段时间后的点决定了模拟天线或合成天线的长度。合成的扩展波束宽度与目标在光束范围内随着地面距离的增加而增加的时间相结合,相互平衡,使得整个截幅(swath)的分辨率保持不变。SAR的可达到的方位分辨率大致等于实际(真实)天线长度的一半,并且不取决于平台高度(距离)。生成图像的过程可以被认为是这样的过程,其中,输入的原始传感器数据被提供至移位寄存器,使得每个新的原始传感器数据的到达导致先前测量的原始数据被移位至相邻的移位寄存元件,并将新数据放入空的元素中。然后,使用算术运算或处理函数将来自每个移位寄存器的数据组合,使得随着每个新的原始图像数据集被处理为期望的结果,图像的分辨率提高,因为每个新的测量增加了与图像数据总量相关的“孔径”。典型地,一旦图像被生成,移位寄存器中的数据被删除或被写入覆盖,从而消除了可以使用传感器的惯性状态的估计(通过地理配准从图像生成)的改进来改善图像的质量的可能性。
因此,SAR使用连续的原始图像数(使用SAR图像处理技术被组合)据实例来生成图像,将在惯性空间中不同点处的获取的每个数据实例进行组合以创建完整的图像。生成的图像的精度取决于几个因素,包括在拍摄每个连续图像时平台104位置的任何确定的准确性。对这种系统的要求是稳定的、完全相干的发射器,高效且强大的SAR图像处理器以及传感器的飞行路径和/或速度的知识。
SAR遭受倾斜范围失真,包括透视收缩、叠置(layover,覆盖)、和阴影效果。发生这种倾斜范围失真是因为雷达测量的是距倾斜范围内的特征的距离,而不是沿着地面的真实的水平距离。这会导致不同的图像比例,从近到远范围移动。在雷达波束到达顶部之前,雷达波束到达朝向雷达倾斜的高特征(例如,山脉)的基部时发生透视收缩。由于雷达测量的是倾斜范围内而非水平范围内的距离,因此斜率会呈现压缩状态,并且在像平面上斜坡的长度将被错误地表示出来。当雷达波束在到达底部之前到达高特征的顶部时,发生叠置。来自特征顶部的返回信号将在来自底部的信号之前被接收。因此,该特征的顶部从其在地面上的真实位置向着雷达移动,并“叠置在”该特征的底部。阴影效果随着入射角θ的增大而增加,就像我们的阴影随着太阳的落下而变长一样。补偿所有这样的倾斜范围失真是可能的,但是这样的补偿至少部分依赖于对传感器的惯性状态(例如其位置和/或速度)的精确了解识。在http://www.radartutorial.eu/20.airborne/ab07.en.html上介绍了SAR的基本原理。
在另一个实施例中,传感器106包括平面成像传感器,该平面成像传感器也扫描包括目标110的场景109,并且利用从这样的扫描生成的原始传感器数据构建目标110和/或场景109的图像。典型地,平面成像传感器包括允许捕获一系列图像的相机(诸如电影摄像机),并且可以感测可见光、红外(IR)或紫外波长的能量。在一些应用中,平面传感器收集整个电磁频谱的其他波长的数据。典型地,成像传感器106可以通过操纵平台104俯仰、偏航和滚动来定向,并且还可以在倾斜和平移方向上与平台104本体独立地定向。遮掩的倾斜和平移可以使用转台105或类似结构以电子方式或机械方式完成。
地理配准系统
图2是呈现示例性地理配准系统200的示图。地理配准系统包括传感器106,通信地耦接到图像处理器204。图像处理器204处理原始传感器数据202以生成图像206。典型地,图像处理器204是专用于生成图像206的目的的专用处理器,并且与平台处理器112不同。然而,平台处理器112也可以用于执行图像处理器204的功能。
地理配准系统200还包括INS114,其通信地耦接到图像处理器204。如上所述,随着时间的推移,INS114生成平台104的惯性状态的估计,并且通过合适的坐标变换生成传感器106的惯性状态的估计。传感器惯性状态208可以包括例如传感器106的位置、速度、加速度、姿态或姿态率。这些状态可以相对于惯性坐标空间来表示,该惯性坐标空间可以是笛卡儿坐标、极坐标或其它坐标方案(NED、ECEF、系统/传感器主体)。为了简单起见,对应于一个或多个原始传感器数据收集事件的传感器的位置、速度、加速度、姿态或姿态率的一个或多个估计分别被定义为传感器惯性状态和原始传感器数据。
图像处理器204接收原始传感器数据202并处理该数据以生成图像。在实施例中,其中,传感器106是SAR,图像处理器204从传感器106接收在多个物理传感器106位置处获得的原始IQ传感器数据202,并且当每个这样的原始传感器数据被获得时使用对传感器106的物理位置的估计来生成图像206。
图像206和传感器惯性状态208被提供给地理配准模块210。地理配准模块210从传感器惯性状态208、图像206,以及参考图像和/或其他来自参考图像数据库的参考地理空间数据(例如,仰角)生成地理配准传感器图像212。
图3是示出地理配准系统300的更详细的实施例的示图。将平台参数322(其可以转换成传感器惯性状态208)和传感器参数332(例如,视场或FOV)提供给传感器覆盖区分析模块324以生成由图像和传感器覆盖区描绘的场景的位置的估计。该信息被提供给关注区域(AOI)提取模块326,其使用参考图像数据库214和参考数字高程模型(DEM)数据库340来生成参考片330和DEM片342。
平台参数322和传感器参数320也被提供给传感器透视分析模块350,其生成透视参数352,透视参数352与描述平台和传感器之间的关系的传感器变换模型354一起被使用以生成用于将参考图像转换为传感器透视图的转换。参考片330和DEM片342被提供给正视图构建模块(orthoimage construction module)344以生成参考正视图片348和参考DEM片346,它们由传感器透视模块356变换成传感器透视图以生成透视参考图像358。透视参考图像358与由图像匹配模块360从原始传感器数据生成的传感器图像匹配以生成匹配参数。这些匹配参数定义匹配函数362,其反映将传感器图像与透视参考图像匹配的变换(例如,平移、旋转、逆透视等)。在美国专利公布2005/0220363中进一步描述了前述系统的示例性实施例,其通过引用结合于此。
该地理配准图像212可以用于增加在收集时间处发生的传感器106的惯性状态的确定的准确性,并由此增加平台104本身惯性状态的确定的准确性。重要的是,如下所述,如果原始传感器数据202被保留,则关于传感器106的惯性状态的该更准确的数据也可以被用于生成增强的(例如,更好质量的)图像206。为了实现这个,原始传感器数据202必须被保留或以其他方式存储,以便使用更准确的传感器106的惯性状态数据来重复(例如再次执行)用于生成图像206的图像处理。因此,一旦成功地地理配准到高分辨率参考图像,原始传感器数据202就用所计算的增强的传感器位置和参考图像数据重新处理,从而产生具有更高精度和减小的失真的增强的输出传感器图像(例如,平面外加速度、透视收缩和叠置)。
增强图像生成
图4A至图4D是呈现可用于从原始传感器数据202生成图像206的示例性处理步骤的示图。首先转到图4A,在框402中,从传感器106读取原始传感器数据202。在框404中,传感器惯性状态208的估计由INS114生成。典型地,读取原始传感器数据202的处理和生成传感器106的惯性状态的估计的处理由独立处理同时执行,使得来自每个处理的数字数据被时间标记,以便当原始传感器数据202被读取时允许原始传感器数据202与估计的传感器惯性状态208相关。因此,惯性估计传感器惯性状态208可以在从传感器106读取原始传感器数据期间或与其同时生成。
如框406所示,原始传感器数据202被保留或以其他方式存储,以供稍后用于生成图像206的更新(或增强)版本。在实施例中,这是通过将原始传感器数据202存储在与传感器106分开的存储器(例如,图5所示的存储器502)中来实现。在其他实施例中,这通过将原始传感器数据202存储在传感器106本身的存储器中,在图像处理器204或平台处理器112的一部分或对于图像处理器204或平台处理器112来说可访问的存储器中实现。
如框408所示,至少部分地从原始传感器数据202生成图像206。这可以例如使用图5中所示的图像处理器204来实现。在一个实施例中,原始传感器数据包括从平面成像传感器(例如具有对红外或可见光敏感的元件阵列的红外或可见光传感器)获得的数据。在该实施例中,可以从原始传感器数据生成图像,而不需要估计的惯性传感器状态,因为不需要读取原始数据时的传感器的位置来生成图像。尽管不需要其来生成图像,但是该数据可以用作第二传感器数据输入,以增强平台的惯性状态的估计,如图4C中那样。
在另一个实施例中,图像处理器204需要估计的传感器惯性状态208来生成图像。例如,在通过组合来自多个传感器106位置(例如,诸如SAR的合成孔径系统)的原始传感器数据202来生成图像206的应用中,不仅使用原始传感器数据202而且还使用获取原始传感器数据202时的传感器106的惯性状态来生成图像206。
如框410所示,传感器惯性状态的更新的估计至少部分地来自于生成的图像206和估计的传感器惯性状态。在一个实施例中,通过对在框408中生成的图像进行地理配准并且使用地理配准图像来获得传感器惯性状态的更新估计来生成传感器惯性状态的更新的估计。这在下面参考图5进一步描述。最后,在框412中,从保留的原始传感器数据和传感器惯性状态的更新的估计生成增强图像。
在实施例中,框412中生成的增强图像被提供给框410,并被用于进一步改进传感器惯性状态的更新的估计。由于原始传感器数据仍然可用,所以当重复框412的操作时,这允许生成进一步增强的图像。可以迭代地重复该处理,改善所生成的图像以及传感器惯性状态的估计,直到这样的迭代不再有效地改进传感器惯性状态的估计。
对于另外的原始传感器数据和另外的传感器惯性状态的估计,可以重复上述处理。例如,这可应用于使用诸如SAR(其中,多个原始传感器数据获取自不同时间点的不同位置)或多个传感器实施例(其中,多个原始传感器数据获取自在相同或几乎相同的时间点的不同位置)的合成孔径技术的实施例中。
图4B是示出使用另外的原始传感器数据和传感器惯性状态的估计的示图。例如,该实施例在选定的SAR应用中是有用的。在框422中,从传感器读取第二原始数据。在该实施例中,传感器是读取上述第一原始数据(但是在不同时间的不同位置)的相同传感器。在框424中,生成第二传感器惯性状态的估计。第二传感器惯性状态是同一传感器的状态,但处于与上述传感器惯性状态不同的位置(和时间)。在框426中,保留第二原始传感器数据(第一原始传感器数据也被保留以供使用)。
在框428中,生成图像。该图像至少部分地从传感器惯性状态的更新的估计、第二传感器惯性状态的估计、原始传感器数据和第二原始传感器数据生成。例如,在SAR实施例中,从在第一传感器位置处获取的第一原始数据和在第二位置处获取的第二原始数据,以及从获取原始数据所在位置处的传感器状态,生成进一步生成的图像。
在框430中,生成第二惯性传感器状态的更新的估计。第二惯性传感器状态的这个更新的估计至少部分地从在框428中生成的进一步生成的图像和估计的第二传感器惯性状态来生成。
最后,在框432中,使用保留的原始传感器数据、保留的第二原始传感器数据、传感器惯性状态的更新的估计以及第二传感器惯性状态的更新的估计来生成另外的增强图像。
类似于图4A所示的处理,对于另外的原始传感器数据和另外传感器惯性状态的估计,可以重复上述处理。例如,这可应用于使用诸如SAR(其中多个原始传感器数据获取自不同时间点的不同位置)或多个传感器实施例(其中多个原始传感器数据获取自在相同或几乎相同的时间点的不同位置)的合成孔径技术的实施例中。
图4C是示出在使用两个传感器的实施例中使用另外的原始传感器数据和惯性状态的估计的示图。在该实施例中,第一原始传感器数据和第二原始传感器是从两个不同的传感器获取的,并且可以在相同或不同的时间获取。框432从第二传感器读取第二原始传感器数据,并且框434生成第二传感器惯性状态的估计。框436至少将第二原始传感器数据保留直到框438和440的操作被执行那么长的时间(第一原始传感器数据也被保留使用)。在框438中,至少部分地从(第一传感器的)传感器惯性状态的更新的估计、(第二传感器的)第二估计惯性状态以及来自第一传感器和第二传感器的原始数据来进一步生成图像。在框440中,(第二传感器的)第二惯性传感器状态的更新的估计至少部分地从另外生成的图像和(第二传感器的)第二传感器惯性状态生成。最后,在框442中,从第一保留的原始传感器数据、第二保留的原始传感器数据生成另外的增强图像。
此外,类似于结合图4A和图4B讨论的实施例,可以将框442中生成的增强图像提供给框440并且用于进一步改进第二传感器惯性状态的更新的估计。由于第二原始传感器数据仍然可用,所以当重复框442的操作时,这允许生成进一步增强的图像。
图4D是可用于从原始传感器数据202生成图像206的示例性处理步骤的另一实施例的示图。在该实施例中,需要特定分辨率的覆盖特定区域109的目标110的图像。生成关于在收集期间需要多长时间来收集图像(时间)以及验证图像被预测为保留在传感器106的视场108内的预测。当收集不同传感器位置处的数据点越多时会获得越高的分辨率,这通常反映在更长的时间内收集数据。当传感器平台104移动时,传感器106开始收集在多个传感器位置或惯性状态下的原始数据(在SAR的情况下,每组原始数据是从射频脉冲获得的)。INS114为与脉冲对应的每组原始数据生成传感器位置或惯性状态的估计。然后将每组原始传感器数据202与传感器106的惯性位置的估计相关联。例如,这可以通过将从每个脉冲收集原始传感器数据202的记录时间与传感器106的惯性状态的估计时间相关联来实现。
在框458中,至少部分地从原始传感器数据202(其包括来自多个脉冲中的每一个的数据组)以及对应于每个原始传感器数据202组的传感器208的惯性状态的估计来生成图像206。在框460中,至少部分地从所生成的图像和估计的传感器惯性状态生成传感器惯性状态的更新的估计。在一个实施例中,这是通过从所生成的图像206和参考图像数据库214生成地理配准图像212,然后使用地理配准图像212来生成传感器位置的更新估计来实现的。在框462中,从保留的原始传感器数据组456和传感器惯性状态的更新估计生成增强的图像。
此外,类似于结合图4A至图4C讨论的实施例,框462中生成的增强图像可被提供给框460,并用于进一步改善传感器惯性状态的更新的估计。由于原始传感器数据仍然可用,当框462的操作被重复时,这允许生成进一步增强的图像。
此外,可以使用传感器惯性状态的改善估计来改善未来原始传感器数据202组的估计的惯性状态,从而进一步改善所生成的图像206。
在参考图4A至图4D讨论的实施例中,估计的传感器惯性状态可以包括不同的数据,这取决于所使用的传感器106。例如,在通过相同的传感器(例如,SAR)在不同的传感器位置处获取原始传感器数据的实施例中,估计的传感器惯性状态包括惯性空间中的传感器位置,并且还可以包括惯性空间中的传感器速度。在实施例中(例如,使用具有对IR、UV或可见光带宽中的能量敏感的像素阵列的平面传感器),传感器惯性状态可以包括读取原始传感器数据时的传感器位置和传感器姿态。
图5是改进的地理配置系统500的一个实施例的示图。图4A、图4B、图4C和图4D的框410、430、440和460分别描述了至少部分地从相关图像生成传感器惯性状态的更新估计的操作。这可以通过地理配准模块210来完成,地理配准模型210从生成的图像和参考图像数据库214以及上面提到的参考DEM数据库生成地理配准图像。然后至少部分地从地理配准图像生成更新的传感器惯性状态。这可以通过将地理配准图像与DEM数据库340中的已知特征和如美国专利公开2005/0220363中所述的地理配准图像进行比较来实现,以在读取用于生成图像的原始传感器数据时提供关于传感器的位置的附加信息。这样的比较可以由INS114的硬件、软件或固件模块506、图像处理器204的硬件、软件或固件模块504和/或平台处理器112的硬件、软件或固件模块执行。
最后,由于可以从上述处理获得增强的图像,所以可以从增强的图像和更新的传感器位置生成增强的地理配准图像。这通过将增强的图像206(使用更新的传感器惯性状态208创建)和更新的传感器惯性状态208本身提供给地理配准模块210来完成。由于地理配准模块210现在具有增强的图像和更新的(并且更精确)传感器惯性状态208,可以生成增强的地理配准传感器图像212。当然,该增强的地理配准传感器图像212可以用于进一步提高传感器惯性状态208的精确度,这进而可以用于改善图像206,其然后允许生成进一步增强的地理配准传感器图像212。因此,通过保留原始传感器数据202,使得其对于通过地理配准处理利用传感器惯性状态208数据进行再处理是可用的,从而可以具有改善的精确度,定义了闭环处理,其不断改善图像和传感器状态的估计。
处理环境
图6示出了可用于实现上述公开的处理元件(包括平台处理器112、图像处理器204、地理配准模块210、INS114的部分、接收器117和地面站118)的示例性计算机或系统600。计算机602包括处理器604(604A和604B)和诸如随机存取存储器(RAM)606的存储器。在需要用户界面的实施例中,计算机602可操作地耦接到显示器622,显示器622在图形用户界面618B上向用户呈现诸如窗口的图像。计算机602可以耦接到其他装置,诸如键盘614、鼠标装置616、打印机等。当然,本领域技术人员将认识到,上述组件的任意组合,或任何数量的不同组件、外围设备和其他装置可以与计算机602一起使用。
典型地,计算机602在存储在存储器606中的操作系统608的控制下操作,并与用户交互以接受输入和命令,并通过图形用户界面(GUI)模块618A呈现结果。虽然GUI模块618B被描绘为单独的模块,执行GUI功能的指令可以驻留或分布在操作系统608、计算机程序610中,或者用专用存储器和处理器来实现。计算机602还实现编译器612,编译器612允许以诸如Java、C++、C#或其他语言的编程语言编写的应用程序610被翻译成处理器604的可读代码。结束后,应用程序610使用通过编译器612生成的关系和逻辑来访问和操作存储在计算机602的存储器606中的数据。类似的结果可以用现场可编程门阵列(FPGA)来完成。计算机602还可选地包括诸如调制解调器、卫星链路、以太网卡或用于与其他计算机进行通信的其他装置的外部通信装置。
在实施例中,实现操作系统608、计算机程序610和编译器612的指令有形地体现在计算机可读介质中,例如数据存储装置620,其可以包括一个或多个固定的或可移动的数据存储装置,诸如zip驱动器、软盘驱动器624、硬盘驱动器、CD-ROM驱动器、磁带驱动器等。此外,操作系统608和计算机程序610由指令构成,当由计算机602读取和执行时,其使计算机602执行本文描述的操作。计算机程序610和/或操作指令也可以有形地体现在存储器606和/或数据通信装置630中,由此制造计算机程序产品或制造物品。这样,这里使用的术语“制造物品”、“程序存储装置”和“计算机程序产品”旨在涵盖可从任何计算机可读装置或介质访问的计算机程序。
可以理解的是,计算机系统的前述实施例包括在地面站118和类似应用中可能有用的外围设备(例如,显示器622、GUI模块618A、GUI618、鼠标装置616、键盘614、打印机628或编译器612),但是不必包括在其他处理元件中。
本领域的技术人员将认识到,在不脱离本公开的范围的情况下可以对该配置进行许多修改。例如,本领域技术人员将认识到,可以使用上述组件的任何组合,或者任何数量的不同组件,外围设备和其他装置。
结论
这结束了本公开的优选实施例的描述。已经出于说明和描述的目的给出了对优选实施例的上述描述。其并不意图是穷尽的或将本公开限制为所公开的确切形式。鉴于上述教导,许多修改和变化是可能的。该意图为权利的范围不受该详细描述的限制,而是受所附权利要求的限制。
Claims (13)
1.一种生成图像的方法,包括:
读取多个原始传感器数据集,每个原始传感器数据集在多个传感器惯性状态下从一个或多个传感器读取;
生成多个所述传感器惯性状态中的每一个的估计;
保留所述原始传感器数据集中的每一个,同时执行包括以下的步骤:
生成图像,所述图像至少部分地从多个估计的传感器惯性状态和多个所述原始传感器数据集中生成;以及
生成所述传感器惯性状态中的至少一个的更新的估计,所述传感器惯性状态中的至少一个的更新的估计至少部分地从所生成的图像和所述多个估计的传感器惯性状态生成;
从所保留的原始传感器数据集和所述传感器惯性状态中的至少一个的更新的估计生成增强图像。
2.根据权利要求1所述的方法,其中:
生成所述传感器惯性状态中的至少一个的更新的估计,所述传感器惯性状态的至少一个的所述更新的估计至少部分地从所生成的图像和所述多个估计的传感器惯性状态生成包括:
生成多个所述传感器惯性状态中的每一个的更新的估计,多个所述传感器惯性状态中的每一个的更新的估计至少部分地从所述生成的图像和所述多个估计的传感器惯性状态生成。
3.根据权利要求2所述的方法,其中:
读取多个原始传感器数据集,每个原始传感器数据集在多个传感器惯性状态下从一个或多个传感器读取包括:
读取多个原始传感器数据集,每个原始传感器数据集在多个所述传感器惯性状态下从单个传感器读取。
4.根据权利要求3所述的方法,其中:
多个所述传感器惯性状态中的每一个的所述估计包括与多个所述原始传感器数据集相关联的多个传感器位置中的每一个的估计;以及
生成多个所述传感器惯性状态中的每一个的更新的估计,多个所述传感器惯性状态中的每一个的更新的估计至少部分地从所述生成的图像和所述多个估计的传感器惯性状态生成包括:
生成所述多个传感器位置中的每一个的更新的估计,所述多个传感器位置中的每一个的更新的估计至少部分地从所述生成的图像和多个估计的传感器位置生成。
5.根据权利要求4所述的方法,其中,生成所述多个传感器位置中的每一个的更新的估计,所述多个传感器位置中的每一个的更新的估计至少部分地从所述生成的图像和多个估计的传感器位置生成包括:
从所述生成的图像和参考图像数据库生成地理配准图像;以及至少部分地从所述地理配准图像生成所述多个传感器位置中的每一个的更新的估计。
6.根据权利要求5所述的方法,还包括:
从所述增强图像和所述多个传感器位置中的每一个的更新的估计生成增强的地理配准图像。
7.一种用于生成图像的设备,包括:
传感器,用于生成原始数据;
图像处理器,通信地耦接到所述传感器,用于从所述传感器读取多个原始传感器数据集,每个原始传感器数据集在多个传感器惯性状态下从所述传感器读取;
惯性导航系统,通信地耦接到所述传感器,用于生成多个所述传感器惯性状态中的每一个的估计;
图像处理器,通信地耦接到所述传感器和所述惯性导航系统,用于生成图像,所述图像至少部分地从多个估计的传感器惯性状态和多个所述原始传感器数据集生成;以及
地理配准系统,通信地耦接到所述惯性导航系统和所述图像处理器,用于生成所述传感器惯性状态中的至少一个的更新的估计,所述传感器惯性状态中的至少一个的更新的估计至少部分地从所生成的图像和所述多个估计的传感器惯性状态生成;
其中,所述图像处理器从保留的原始传感器数据集和所述传感器惯性状态中的至少一个的更新的估计生成增强图像,并且,当从所述原始传感器数据生成图像,并且生成所述传感器惯性状态中的至少一个的更新的估计时,所述传感器保留每个所述原始传感器数据集。
8.根据权利要求7所述的设备,其中:
所述地理配准系统至少部分地从所述生成的图像和所述多个估计的传感器惯性状态生成多个所述传感器惯性状态中的每一个的更新的估计。
9.根据权利要求8所述的设备,其中:
多个所述传感器惯性状态中的每一个的估计包括与所述多个原始传感器数据集相关联的多个传感器位置的估计;以及
所述地理配准系统生成所述多个传感器位置中的每一个的更新的估计,所述多个传感器位置中的每一个的更新的估计至少部分地从所述生成的图像和多个估计的传感器位置生成。
10.根据权利要求9所述的设备,其中,所述地理配准系统:
至少部分地从所述生成的图像和所述多个估计的传感器位置,通过从所述生成的图像和参考图像数据库生成地理配准图像来生成所述多个传感器位置中的每一个的更新的估计;以及
至少部分地从所述地理配准图像生成所述多个传感器位置中的每一个的更新的估计。
11.根据权利要求10所述的设备,其中:
所述地理配准系统还从所述增强图像和所述多个传感器位置中的每一个的更新的估计生成增强的地理配准图像。
12.根据权利要求11所述的设备,其中,所述传感器包括合成孔径雷达(SAR)。
13.一种用于生成图像的设备,包括:
用于读取多个原始传感器数据集的装置,每个原始传感器数据集在多个传感器惯性状态下从一个或多个传感器读取;
生成多个所述传感器惯性状态中的每一个的估计;
保留每个原始传感器数据集,同时执行包括以下的步骤:
生成图像,所述图像至少部分地从多个估计的传感器惯性状态和所述多个原始传感器数据集生成;以及
生成所述传感器惯性状态中的至少一个的更新的估计,所述传感器惯性状态中的至少一个的更新的估计至少部分地从所生成的图像和所述多个估计的传感器惯性状态生成;
从保留的原始传感器数据集和所述传感器惯性状态中的至少一个的更新的估计生成增强图像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/387,493 US11175398B2 (en) | 2016-12-21 | 2016-12-21 | Method and apparatus for multiple raw sensor image enhancement through georegistration |
US15/387,493 | 2016-12-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108225309A true CN108225309A (zh) | 2018-06-29 |
CN108225309B CN108225309B (zh) | 2023-09-26 |
Family
ID=60935660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711390862.XA Active CN108225309B (zh) | 2016-12-21 | 2017-12-21 | 通过地理配准增强多个原始传感器图像的方法和设备 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11175398B2 (zh) |
EP (1) | EP3340174B1 (zh) |
JP (1) | JP7403210B2 (zh) |
CN (1) | CN108225309B (zh) |
TW (1) | TWI771350B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10395017B2 (en) * | 2017-02-01 | 2019-08-27 | International Business Machines Corporation | Selectively redacting digital footprint information in order to improve computer data security |
US10591300B2 (en) * | 2017-05-01 | 2020-03-17 | RideOn Ltd. | Fixing magnetometer based azimuth according to sun positioning |
CN111750850B (zh) * | 2019-03-27 | 2021-12-14 | 杭州海康威视数字技术股份有限公司 | 角度信息获取方法、装置和系统 |
CN110617802A (zh) * | 2019-07-26 | 2019-12-27 | 北京控制工程研究所 | 一种星载动目标检测及速度估计方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010038718A1 (en) * | 1997-05-09 | 2001-11-08 | Rakesh Kumar | Method and apparatus for performing geo-spatial registration of imagery |
JP2006195540A (ja) * | 2005-01-11 | 2006-07-27 | Ntt Data Corp | モザイク画像合成装置、モザイク画像合成方法及びモザイク画像合成プログラム |
US20060293854A1 (en) * | 2005-06-23 | 2006-12-28 | Raytheon Company | System and method for geo-registration with global positioning and inertial navigation |
CN101038669A (zh) * | 2007-04-12 | 2007-09-19 | 上海交通大学 | 全局异常信号环境下基于联合显著图的鲁棒图像配准方法 |
JP2008304260A (ja) * | 2007-06-06 | 2008-12-18 | Mitsubishi Electric Corp | 画像処理装置 |
CN103438904A (zh) * | 2013-08-29 | 2013-12-11 | 深圳市宇恒互动科技开发有限公司 | 一种使用视觉辅助校正的惯性定位方法及系统 |
CN103745474A (zh) * | 2014-01-21 | 2014-04-23 | 南京理工大学 | 基于惯性传感器和摄像机的图像配准方法 |
US20160098838A1 (en) * | 2013-04-24 | 2016-04-07 | Commissariat à l'Energie Atomique et aux Energies Alternatives | Registration of sar images by mutual information |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6738532B1 (en) | 2000-08-30 | 2004-05-18 | The Boeing Company | Image registration using reduced resolution transform space |
US7197160B2 (en) * | 2001-03-05 | 2007-03-27 | Digimarc Corporation | Geographic information systems using digital watermarks |
US20030225513A1 (en) * | 2002-04-12 | 2003-12-04 | Nikhil Gagvani | Method and apparatus for providing multi-level blended display of arbitrary shaped textures in a geo-spatial context |
US20030218674A1 (en) | 2002-05-24 | 2003-11-27 | Sarnoff Corporation | Method and apparatus for video georegistration |
US7773799B2 (en) | 2004-04-02 | 2010-08-10 | The Boeing Company | Method for automatic stereo measurement of a point of interest in a scene |
US7751651B2 (en) | 2004-04-02 | 2010-07-06 | The Boeing Company | Processing architecture for automatic image registration |
US7873240B2 (en) | 2005-07-01 | 2011-01-18 | The Boeing Company | Method for analyzing geographic location and elevation data and geocoding an image with the data |
US7580591B2 (en) | 2005-07-01 | 2009-08-25 | The Boeing Company | Method for generating a synthetic perspective image |
JP2008164545A (ja) | 2006-12-29 | 2008-07-17 | Mitsubishi Electric Corp | 移動目標検出装置、移動目標検出方法および移動目標検出プログラム |
EP2423873B1 (en) * | 2010-08-25 | 2013-12-11 | Lakeside Labs GmbH | Apparatus and Method for Generating an Overview Image of a Plurality of Images Using a Reference Plane |
US20140168264A1 (en) | 2012-12-19 | 2014-06-19 | Lockheed Martin Corporation | System, method and computer program product for real-time alignment of an augmented reality device |
IL232853A (en) * | 2014-05-28 | 2015-11-30 | Elbit Systems Land & C4I Ltd | Imaging Georegistration System and Method |
US10274958B2 (en) | 2015-01-22 | 2019-04-30 | Bae Systems Information And Electronic Systems Integration Inc. | Method for vision-aided navigation for unmanned vehicles |
JP6325116B2 (ja) | 2015-05-23 | 2018-05-16 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 慣性および画像センサを用いたセンサ融合 |
ITUA20164568A1 (it) * | 2016-06-21 | 2017-12-21 | Thales Alenia Space Italia Spa Con Unico Socio | Metodo di formazione di immagini sar per analisi interferometriche |
-
2016
- 2016-12-21 US US15/387,493 patent/US11175398B2/en active Active
-
2017
- 2017-12-18 TW TW106144411A patent/TWI771350B/zh active
- 2017-12-19 EP EP17208518.5A patent/EP3340174B1/en active Active
- 2017-12-20 JP JP2017243745A patent/JP7403210B2/ja active Active
- 2017-12-21 CN CN201711390862.XA patent/CN108225309B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010038718A1 (en) * | 1997-05-09 | 2001-11-08 | Rakesh Kumar | Method and apparatus for performing geo-spatial registration of imagery |
JP2006195540A (ja) * | 2005-01-11 | 2006-07-27 | Ntt Data Corp | モザイク画像合成装置、モザイク画像合成方法及びモザイク画像合成プログラム |
US20060293854A1 (en) * | 2005-06-23 | 2006-12-28 | Raytheon Company | System and method for geo-registration with global positioning and inertial navigation |
CN101038669A (zh) * | 2007-04-12 | 2007-09-19 | 上海交通大学 | 全局异常信号环境下基于联合显著图的鲁棒图像配准方法 |
JP2008304260A (ja) * | 2007-06-06 | 2008-12-18 | Mitsubishi Electric Corp | 画像処理装置 |
US20160098838A1 (en) * | 2013-04-24 | 2016-04-07 | Commissariat à l'Energie Atomique et aux Energies Alternatives | Registration of sar images by mutual information |
CN103438904A (zh) * | 2013-08-29 | 2013-12-11 | 深圳市宇恒互动科技开发有限公司 | 一种使用视觉辅助校正的惯性定位方法及系统 |
CN103745474A (zh) * | 2014-01-21 | 2014-04-23 | 南京理工大学 | 基于惯性传感器和摄像机的图像配准方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2018139105A (ja) | 2018-09-06 |
US11175398B2 (en) | 2021-11-16 |
TWI771350B (zh) | 2022-07-21 |
JP7403210B2 (ja) | 2023-12-22 |
US20180172822A1 (en) | 2018-06-21 |
EP3340174B1 (en) | 2021-10-27 |
EP3340174A1 (en) | 2018-06-27 |
TW201824182A (zh) | 2018-07-01 |
CN108225309B (zh) | 2023-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102741706B (zh) | 地理参照图像区域的方法 | |
US8494687B2 (en) | Method for enhancing a three dimensional image from a plurality of frames of flash LIDAR data | |
CN108225309A (zh) | 通过地理配准增强多个原始传感器图像的方法和设备 | |
EP3062066A1 (en) | Determination of object data by template-based UAV control | |
US8655513B2 (en) | Methods of real time image enhancement of flash LIDAR data and navigating a vehicle using flash LIDAR data | |
US9709673B2 (en) | Method and system for rendering a synthetic aperture radar image | |
Johnson et al. | Real-time terrain relative navigation test results from a relevant environment for Mars landing | |
US20060215935A1 (en) | System and architecture for automatic image registration | |
CN108230374B (zh) | 通过地理配准增强原始传感器图像的方法和装置 | |
US20040054488A1 (en) | Method of using a self-locking travel pattern to achieve calibration of remote sensors using conventionally collected data | |
Szabó et al. | Zooming on aerial survey | |
Ruzgienė et al. | UAV photogrammetry for road surface modelling | |
US20240044645A1 (en) | Apparatus and method for area mapping | |
Theiss | Generic Linear Array Scanner Modeling of Spectral Imaging Systems Containing Limited Metadata | |
Tadrowski | Accurate mapping using drones (UAV's) | |
Rodrigues et al. | A NOVEL MODEL FOR ORIENTATION OF LINEAR OPTICAL SATELLITE IMAGES BASED IN THE ADAPTATION OF THE ORBIT-ATTITUDE MODEL | |
Phan et al. | Mobile 3D Mapping with A Low-Cost UAV-Based LIDAR System | |
Garcia et al. | Development of a Best Practices Workflow for Rapid Beach Surveying Using a Lower-Cost Mobile Lidar System | |
Rambat | A low-cost remote sensing system for agricultural applications | |
LaForest et al. | System Calibration Including Time Delay Estimation for GNSS/INS-Assisted Pushbroom Scanners Onboard UAV Platforms | |
Yang et al. | Acquisition and tracking landmarks for navigation of aircraft | |
JP2023095165A (ja) | 測量システム及び方法 | |
Olawale | Near real-time monitoring of buried oil pipeline right-of-way for third-party incursion | |
Lindenbergh et al. | Spatio-temporal Data Fusion | |
KR20080033287A (ko) | 이미지와 관련된 위치를 결정하는 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |