CN101971167A - 用于以多光谱图像、融合图像以及三空间维度图像来呈现遥感可视化数据的系统和方法 - Google Patents

用于以多光谱图像、融合图像以及三空间维度图像来呈现遥感可视化数据的系统和方法 Download PDF

Info

Publication number
CN101971167A
CN101971167A CN2008801134491A CN200880113449A CN101971167A CN 101971167 A CN101971167 A CN 101971167A CN 2008801134491 A CN2008801134491 A CN 2008801134491A CN 200880113449 A CN200880113449 A CN 200880113449A CN 101971167 A CN101971167 A CN 101971167A
Authority
CN
China
Prior art keywords
image
images
sensor information
data
remote sensing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2008801134491A
Other languages
English (en)
Inventor
威廉·M·卡斯泽斯
杰里·C·尼姆斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of CN101971167A publication Critical patent/CN101971167A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1278Dedicated interfaces to print systems specifically adapted to adopt a particular infrastructure
    • G06F3/1285Remote printer device, e.g. being remote from client or server
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B44DECORATIVE ARTS
    • B44FSPECIAL DESIGNS OR PICTURES
    • B44F1/00Designs or pictures characterised by special or unusual light effects
    • B44F1/08Designs or pictures characterised by special or unusual light effects characterised by colour effects
    • B44F1/10Changing, amusing, or secret pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1202Dedicated interfaces to print systems specifically adapted to achieve a particular effect
    • G06F3/1203Improving or facilitating administration, e.g. print management
    • G06F3/1208Improving or facilitating administration, e.g. print management resulting in improved quality of the output result, e.g. print layout, colours, workflows, print preview
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1223Dedicated interfaces to print systems specifically adapted to use a particular technique
    • G06F3/1237Print job management
    • G06F3/125Page layout or assigning input pages onto output media, e.g. imposition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • B42D2035/20
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B42BOOKBINDING; ALBUMS; FILES; SPECIAL PRINTED MATTER
    • B42DBOOKS; BOOK COVERS; LOOSE LEAVES; PRINTED MATTER CHARACTERISED BY IDENTIFICATION OR SECURITY FEATURES; PRINTED MATTER OF SPECIAL FORMAT OR STYLE NOT OTHERWISE PROVIDED FOR; DEVICES FOR USE THEREWITH AND NOT OTHERWISE PROVIDED FOR; MOVABLE-STRIP WRITING OR READING APPARATUS
    • B42D25/00Information-bearing cards or sheet-like structures characterised by identification or security features; Manufacture thereof
    • B42D25/30Identification or security features, e.g. for preventing forgery
    • B42D25/324Reliefs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1223Dedicated interfaces to print systems specifically adapted to use a particular technique
    • G06F3/1237Print job management
    • G06F3/1244Job translation or job parsing, e.g. page banding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

用于根据遥感信息生成可视化信息的系统和方法可以包括收集第一遥感图像。第二遥感图像可以被收集。所述图像可以被处理以便以基本相同的取向对图像进行定向。第一和第二图像可以被打印到单个材料上,并且所述单个材料可以被配置为使得观看者能够在观看所述材料时以不同角度分别地观看每个遥感图像。所述图像可以处于不同的波长范围内。在一个实施例中,所述遥感信息被打印在或者附着在微透镜阵列上,所述微透镜阵列使得观看者能够通过改变该观看者通过所述微透镜阵列进行查看的角度来查看所述遥感图像之中的每一个。

Description

用于以多光谱图像、融合图像以及三空间维度图像来呈现遥感可视化数据的系统和方法
背景技术
来自卫星和其它遥感器(“remote sensor”)的数据被用在多种应用和领域中的决策,所述应用和领域包括:农业、地图学、自然资源保护、救灾规划(disaster planning)、教育、电力/燃气、环境论、地质学、卫生及人类服务(health and human services)、执法、地方政府、矿产、军事、自然资源、海洋/大海、石油、管道、规划、公共安全、电信、旅游业、运输、水/废水、以及气象。应用的范围可以从以维度模型测绘地形到跟踪农作物的生长。随着这些应用扩展,有越来越多的算法正在被开发,并且软件正在激增以操控所述数据。而且,越来越多的光谱数据正在根据矩阵以组合形式被使用,由此传递知识而不是信息,以解决由平民和军事决策者二者所提出的问题。决策者需要使信息被编纂并且以清楚简明的方式被呈现。如今,遥感器信息-包括卫星图像、航空图像、气球图像、或者任意其它遥感的光谱或非光谱图像(例如红外图像)是不完备的,其中所述遥感器信息要么描绘平坦空间和平地,要么描绘需要佩戴立体眼镜来观看的隐秘(stenographic)图像。在任一情况下,都需要“专家”就所述遥感器信息的内容给出他或她的意见。由于遥感器信息的所述限制,决策者并不具有完备的可视化(visual)信息来亲自做出知情的决策。对于许多决策者而言,快速的瞥视(coupe de oeil)、瞥视的力量是决定成败的关键。
发明内容
为了克服决策者不具有来自遥感器信息的完备可视化信息以亲自做出知情的决策这一问题,本发明的原理提供了产生从多个遥感器信息产生的清楚简明的图像的系统和方法,其中所述图像给决策者提供完整的能够被迅速且容易地理解的可视化信息。由所述系统产生的图像可以是(i)空间融合图像(例如三维图像);(ii)时间融合图像(例如时间序列图像);以及(iii)光谱融合图像(例如在电磁光谱的不同频带处获得的图像)。所述图像被认为是“融合图像”。
为了生成融合图像,该系统可以将计算机算法与光学、材料科学、遥感技术(例如卫星技术)、打印技术、以及对不同电磁光谱数据的解释的先进知识相结合。从该系统获得融合图像可以解决如今许多向卫星专家提出的主导问题,由此使得非遥感专家能够在没有遥感专家协助的情况下更佳地理解所述图像。融合图像被格式化,这样决策者能够查看该融合图像中的遥感器信息并且在不依赖如今常常进行的大量的专家报告的情况下做出明智的决策。事实上,所述专家报告被构建到融合图像中作为可视化信息。在遥感器中被捕获的对象、元素等可以具有三个空间维度以使得非遥感专家能够更容易地理解包含在所述图像中的信息。
用于产生遥感图像的系统的一个实施例可以包括输入/输出单元平台,所述输入/输出单元平台被配置为接收多个遥感信息集。数字处理平台可以被配置为执行一个或多个算法以处理所述遥感信息集以生成包括至少两个经过处理的遥感信息集的单个图像。打印机可以与所述数字处理平台进行通信并且被配置为接收和打印所述单个图像,其中所打印的单个图像被配置为使得观看者能够分别地(individually)观看每个经过处理的遥感信息集。每个经过处理的遥感信息集可以来自不同的波长带。所述遥感信息可以是三维的。附加地或可替代地,所述遥感信息可以是按时间顺序的。在一个实施例中,所述遥感信息被打印在或者附着在(adhere to)微透镜阵列上,其中所述微透镜阵列使得观看者能够通过改变该观看者通过所述微透镜阵列查看单个图像的角度来查看所述遥感图像之中的每一个。
用于根据遥感信息生成可视化信息的方法的一个实施例包括收集(collect)第一遥感图像。第二遥感图像可以被收集。第一和第二图像可以被处理以便以基本相同的取向(orientation)对图像进行定向(orient)。第一和第二图像可以被打印到单个材料上,并且所述单个材料可以被配置为使得观看者能够在观看该材料时以不同角度分别地观看每个遥感图像。在一个实施例中,所述遥感信息被打印在或附着在微透镜阵列上,其中所述微透镜阵列使得观看者能够通过改变该观看者通过所述微透镜阵列查看单个图像的角度来查看所述遥感图像之中的每一个。
附图说明
将参考附图来描述所公开的发明,所述附图示出了本发明的示例性实施例,并且通过引用就此并入本说明书,其中:
图1是被配置为使用单图像数据或多图像数据来收集对象的卫星图像的示例性卫星系统的图示;
图2是用于生成和呈现从遥感器图像数据得到的一个或多个融合图像以供决策者观看的示例系统(“等级(Level)1”)的图示;
图3是使用遥感器图像数据来生成融合图像以供决策者观看的示例性系统(等级2)的图示;
图4是用于根据本发明原理生成从遥感器图像数据得到的融合图像的硬拷贝的示例性硬件的图示;
图5是描述根据本发明原理的系统的操作的示意性过程的流程图;以及
图6是描述根据本发明原理的系统的操作的另一示例性过程的流程图。
具体实施方式
人类对三个空间维度的认知处理提高了视觉推理。数据融合或图像融合是对所感测到的信息的组合。融合图像可以包括:(i)空间融合图像(例如三维图像);(ii)时间序列图像或时间融合图像;或者(iii)来自电磁光谱(“EMS”)的不同区域的图像的光谱融合或组合(例如可见光谱图像和非可见光谱图像),比如在美国专利6,781,707中对此进行了描述,该专利申请的全部内容通过引用结合于此。图像融合可以使在某个时间段内(比如在许多年内)所收集的可视化数据对观看者可用。图像融合被定义成两个或更多的如下图像:其被相间(interphase)在一起以使得每个图像都能够以不同的视角被清晰地观看。所述图像可以是处于不同时间的相同视图-即“时间融合”,或者是利用不同的电磁光谱波长来观看的相同图像-即“EMS融合”。三个空间维度是用于描述真实视图三个维度的用语。在卫星成像中,术语“3D”是图像在计算机屏幕上的透视图,其中按照眼睛在捕获场景时实际能看到什么来区分所述透视图。相同的道理适用于其它形式的遥感信息。三空间维度图像捕获真实视图。通过使用图像融合,观看者可以以适于人类从视觉上解释可视化数据的方式来查看所述可视化数据。通过给观看者提供定量和定性的可视化数据,该观看者被提供更大的明确性以帮助该观看者做出决策。
卫星技术在传感器、硬件、以及数据收集方面得到认可。图1是示例性的卫星系统100的图示,所述卫星系统100被配置为使用单图像数据或多图像数据来收集对象的卫星图像。卫星102可以配备有单点或多点传感器(未示出)以便以像素数据的形式在它从上方经过地区104时收集地区104中的卫星图像数据。所述像素数据或卫星图像作为多位信息或数据集而被收集。所述传感器能够从电磁光谱的所有区域(比如可见光区域、红外区域、雷达区域、超声区域、伽玛区域等)或者在EMS的子集上收集卫星图像数据。此外,所述卫星图像数据可以被空间融合(例如三维)和/或融合成时间序列。
所述卫星图像数据可以通过卫星信号106被发射给位于世界各地的地面站。卫星信号106可以包括使用遥感器所收集的单图像或多图像电磁光谱数据。卫星信号106可以是模拟或数字的,并且可以使用本领域所熟悉的任意通信协议而被传送。地面站108可以接收卫星信号106并且收集和存储被传送到那里的卫星图像数据。然后,卫星图像数据可以通过网络112被中继给遥感器信息处理系统110。在一个实施例中,卫星图像数据以数据分组114的形式通过网络112被传送,其中网络112可以是局域网(LAN)或广域网(WAN)(例如因特网)等。
尽管图1描述了遥感系统作为卫星的操作,但是本发明的原理可以附加地或可替代地使用其它遥感器来收集遥感器数据。例如,可以使用配备有遥感器设备或者感测电磁光谱信息(例如地面区域的可视化图像或者对地面上方的大气的热成像)的飞机或热气球来收集图像数据集。无论是从相同还是不同的遥感器平台被收集,遥感器信息都可以被融合到融合图像中。如果使用其它遥感器、而不是广播遥感信息,则所述信息可以被收集在介质(比如数字磁带或磁介质)上,并且直接或间接地被插入到遥感器信息处理系统100中。应当理解,遥感信息或图像可以包括地面或地面上方(例如大气)信息的数据集。
图2是示例性系统(“等级1”)200的图示,所述系统200用于生成和呈现从遥感器信息得到的一个或多个融合图像以供决策者观看。随着卫星在地球上方作轨道行进或其它遥感器在地球上方行进,区域的各个图像随着时间的变化(as a function of time)而被收集。卫星图像数据被遥感器信息处理系统110接收以用于处理。遥感器信息处理系统110可以包括处理单元202,所述处理单元202执行实现各种算法的软件204。可以包括一个或多个处理器的处理单元202可以与存储器206、输入/输出(I/O)单元208、以及存储单元210进行通信,其中存储器206在执行软件204期间存储信息,I/O单元208在操作时与地面站108和输出设备212通信,并且存储单元210存储通过所述算法所生成的遥感器信息。
遥感器信息可以包括单点或多点图像数据,并且可以是来自单个时间点的光谱数据的集合(collection)、或者随时间的光谱数据的集合。遥感器信息可以是空间、时间、或者光谱融合数据之中的任意项或所有,其中每个数据集都可以被认为是图像。遥感器信息可以通过内部算法被变换或操纵成可使用的形式。例如,数据集可以属于电磁光谱的非可见光谱区域,并且内部算法可以生成非光谱数据集的可视化表示。应当注意,可使用的形式与在根据本发明原理的系统算法的语言之内可兼容的格式相关。也可以完成对图像的数学调整以保证重叠以及正交正确。这些用于对图像进行定向或以其它方式对准图像的数学调整算法是现有技术中已知的并且处于公共领域之内。所使用的算法可以根据如下项而改变:(i)从中取得数据的卫星;(ii)所使用的波长;以及(iii)针对所产生的可视化数据呈现所执行的数据操纵。“兼容化”的数据可以被转换成由内部算法所规定的像素阵列。美国专利6,781,707、6,894,809以及7,019,865描述了该系统内固有的算法,所述专利的全部内容通过引用结合于此。
然后,经过操纵的数据(其可以被相间)可以被打印到纸上并且被覆盖上专门设计的微光学透镜阵列,或者通过使用专门设计的打印机而被打印到微光学阵列上,比如在美国专利6,709,080中对此进行了描述,所述专利的全部内容通过引用结合于此。术语“相间”是指通常由计算机对图像进行的一种操纵,其中所述图像被分割成线(line)并且然后被相间成单个图像。单个图像可以由所规定的阵列中的各个线组成以使得当微光学透镜阵列被覆盖时,所规定的多维图像可以被观看。系统200被称为等级1,这是用在产生所述图像时的技术复杂等级的描述性名称。如上所述,所述系统中固有的是合适的算法,以将所述数据格式化并且将所述数据操纵成所期望的结果。
输出数据214可以被呈现为多维图像和/或融合数据。在遥感成像中,以硬拷贝格式显示景深的能力还未以其它方式在商业上可用。除可视图像以外还到达对人眼不可见的光谱(例如伽玛、红外、声纳/雷达、以及x射线)的能力进一步允许数据流从遥感器被收集并且被并入到单页上的单个图像中,其中所述图像包括多页信息。所述单个图像可以唯一地对(一个或多个)决策者有意义,其中所述决策者可能是或者可能不是解释遥感器图像方面的专家。系统200通过将其知识并入到上面所给出的算法中、相关联的软件平台中来增强专家分析。另外,系统200提供关于从不同EMS波长所收集的数据的知识。当EMS图像和时间序列图像能够被观看时分析知识被并入,并且基于所述图像,能够做出决策。关于使用哪些图像的知识来自专家,每个单独的图像的含义来自专家,但是总体性结论来自决策者。因此,被嵌入到系统200中的专家知识使得决策者能够在没有专家协助的情况下解释所述信息,由此改善决策者的理解和效率。
与当前的技术和可用性相比,系统200提供即时性和易用性这二者,因为系统200提供硬拷贝形式的实时反馈并且不需要或几乎不需要操作训练。在观看者为最终决策者的情况下,不可低估融合图像的观看的力量。下面是决策者可以根据本发明原理容易地理解并解释卫星图像的例子。
(1)那不勒斯(Naples)地区中的地层移动在延长的时间段内被跟踪。该地层移动被时间融合到一起以提供那不勒斯的总体图像。当该图像被移动(即视角被改变)时,发生地层移动的地区(即新的图像)投射出该移动。因此,该图像可以根据运动的角度来区分不稳定区域以及将不稳定性相联系。保险公司主管(即决策者)可以观看该融合图像来确定风险度。城市规划师(即决策者)可以就给定区域中的建筑危险以及所需的建筑类型进行观看。所有这种遥感器信息都可以被包含在一个图像中并且容易地被决策者观看和解释。
(2)污染云团的时间序列可以根据时间序列数据而被创建以绘出路径并且编集该污染对受影响地区的影响以供将来参考。保险公司为应对由于灾难(由于风而移动)而引起的索赔可以使用遥感器信息或数据来观看索赔地区是否处于灾区中。对与污染相关的污染物的跟踪可以由辅助单元从关于地面的硬拷贝中读出。
如前面所描述的那样,数据或图像融合涉及空间信息(例如3D)、可视化信息作为时间序列的组合、或者光谱上相异的信息、比如来自电磁光谱的相同或不同区域的由遥感器收集的图像的组合。因此,数据融合可以回答比如如下这样的问题:“何处是开发石油、燃气、和水的最佳地形结构?”再者,遥感专家可以解释遥感器图像和报告以提供答案,但是非专家通常不具有充分解释遥感器图像的能力,并且因此不能在没有一个或多个遥感器专家的协助下做出有根据的决策。
系统200和软件204可以编纂遥感器信息、比如时间序列内或者一个或多个频带中的图像、卫星图像,并且提供输出格式-比如单个融合图像,其中所述输出格式允许可能是也可能不是专家的决策者能够解释卫星图像。单个融合图像可以加强报告并且增强决策者的结论。融合图像本身甚至可以回答原本使用多个卫星图像难以回答的特定问题。此外,对于将要去往遥远地区的团队而言,能够生成具有要开发的突出地点的空间实时硬拷贝图。尽管计算机可以在监视器上模拟多维图像,但是在没有能力或者没有谁愿意保证计算机不会在现场崩溃的情况下,工作在地区中的团队可能会发现硬拷贝图要可靠的多。多维模型可以根据地点处的声波数据或MRI数据而被生成以进一步精确定位例如可能发现石油或燃气的确切位置。多维图像图的使用可以减少探井的数目,并且测绘出建立井的最佳位置的场地,由此节省用户的时间和资金。
多维硬拷贝由于所述图像中固有的光谱和反射式彩色细节而比常规的图和报告要好。借助于在此所描述的系统,不仅有两个通道(channel)被包含在卫星图像中,而且各式各样的通道被添加。所使用的通道的数目可以由正在解决的问题的复杂度以及所使用的微光学材料的设计来确定。通常,问题越复杂,越多的信息通常被使用来处理答案。信息量越大,用在相间的程序中的信息通道量就越大,其中每个图像都可以被分解成离散的线,并且然后所述线被相间为在微光学材料后面排齐。为了获得图像的最佳保真度,所述信息可以从所述阵列中以合适的顺序以及在正确的帧中被呈现给观看者的眼睛。光线追踪技术以及打印机分辨率的知识被用于设计最优透镜阵列配置以将信息适当地呈现给观看者。
系统200提供时间融合数据的能力。时间融合数据这一能力允许将事件序列表示为运动,这使得决策者能够获得对事件方向的更佳领会或者预期序列的发展。而且,使用时间融合,可以在序列之前和之后进行观察以得出信息,比如保险损失、项目进展、以及人造结构对环境的影响。在上面所述算法之内的能力是将多视图捆绑成具有受控视差的多维图像。该算法与如下项相关地控制视差:所使用的透镜系统、特殊打印机所输出的每英寸的像素、以及从在先景深著作中开发出的规则,在美国专利4,086,585和4,124,291中对此进一步进行了描述,所述专利的全部内容通过引用结合于此。控制视差和景深的能力意味着所产生的图像是准确的并且能够被用于获得测量计算。图像覆盖还允许创建准确的景深图,所述景深图可以通过创建屏幕上虚拟三维图像来产生进一步的细化和视图。可以使用软件来创建图像的硬拷贝。系统200提供了使用射线追踪技术来根据相同场景的不同视图创建多维图像的能力。
图3是示例性系统300(等级2)的图示,所述系统300使用遥感器信息(例如图像数据)来为决策者生成融合图像。系统300可以被用于创建“视觉上回答问题的融合定量数据”。与图2一致,来自电磁光谱的不同带宽可以被用于给出关于遥感图像的不同信息。系统300适于使用专家生成的矩阵来“辨别(finger print)”遥感图像。例如,矩阵可以列出电磁光谱的被定义为可见光谱、红外光谱、雷达、声纳等的波长以及从这样的(一个或多个)带宽获得的信息。下面是频带矩阵的例子,其中提供有可以在不同带宽中生成的信息的例子。
  频带   波长(纳米)   光谱区域  主要应用
  1   450-520   蓝  沿海航道测绘区别土壤、植被、以及森林描绘人文特征(culture feature)有限的水渗透
  2   520-600   绿  评估植被健康状况识别人文特征
  3   630-690   红   用叶绿素吸收灵敏度帮助区分植物
  4   760-900   近红外   植被的类型和健康状况生物量含量估计土壤水分估计
  5   900-1,750   中红外   植被应激(stress)土壤水分含量评估热测绘
  6   2,080-2,350   中红外   区别矿产和岩石类型植被水分含量评估
  7   10,400-12,500   热红外   植被应激土壤水分确定热测绘
因此,如果寻求针对所陈述的问题的特定解决方案,则该矩阵可以用于确定:可以使用哪个(些)带宽来制订解决方案。例如,对于给定的区域,水被定量供应并且水利机构想要知道哪些亚区(sub-region)需要接收水以用于灌溉。(所陈述的问题)根据上面的示例性频带矩阵,前面三个频带可以被组合成可视化图像。(图像1)然后,从频带4产生的图像可以用于获悉哪种类型的植物处于亚区中,并且获得关于土壤中水分的信息。(图像2)图像3可以从频带7取得以评估植物水分,并且与来自频带5或6的图像(图像4)相结合以观看植被应激。然后,这四个图像被在此所描述的系统融合成一个多光谱图像。然后,决策者能够通过旋转多维图像而改变视角来观看多光谱图像上的信息。随着问题在决策者的头脑中产生,进一步来回旋转提供快速的答案。该图像可以与来自所述频带之中的任意频带(比如频带7)的区域的时间融合相结合,以便确定植被中的水分的损失速率。该例表示了使用根据本发明原理的系统的一个例子。根据所陈述的问题,可以创制不同的矩阵。每个陈述的问题都可以具有不同的多维图像集以用于解决所陈述的问题。
在一个实施例中,处理系统110(图1)可以被配置为使得用户能够基于正在解决的问题从遥感信息对其可用的不同波长之中进行选择。可以访问频带矩阵或其它格式化的频带信息的处理系统110可以访问遥感信息以进行处理。所述处理可以对遥感信息进行定向或以其它方式进行对准以形成单个图像,所述单个图像包括每个波长带上的每个遥感信息集。该单个图像可以被打印到如下材料上:所述材料在通过微透镜阵列被观看时允许观看者查看从相应波长范围内的相应遥感信息产生的每个图像,这将在此予以进一步描述。
一旦选择了合适的带宽,来自遥感器的数据就能够被下载到系统300中,并且融合可视化信息能够被生成,因此人可以聚集信息以往下进行,以便确定当前问题的解决方案。该系统还可以生成所讨论的地区的多维硬拷贝以用于进一步审视和研究。所讨论的地区的多维硬拷贝可以用于供决策者在几乎没有或没有技术支持的情况下解决给定问题。高光谱(即多光谱)显示可以充当分析设备的书面输出。根据本发明原理的系统可以提供可以执行的中间步骤,比如形成可用频带的矩阵并且然后选择频带以回答特定的问题。
可以根据本发明原理使用从提出问题到要求(postulation)遥感信息来回答所提出的问题的系统方法来操纵数据以创建高光谱显示并且最后输出可使用的所述显示。所述系统方法可以通过如下方式来执行:把将光传递给使用特殊MicrOpticalTM材料(如在此和通过引用所结合的专利中所描述的那样)的特殊打印机的遥感器软件程序或平台与特殊的墨相结合来创建完成的对数据的视觉显示。所述特殊的墨可以被配制成附着在例如由MicrOpticalTM材料形成的透镜阵列。可替代地,所述墨可以被打印到另外的材料上并且附着在透镜阵列。因此,在此所描述的系统简化了对卫星数据的使用。该系统内的每个平台都可以适合基于专家的输入来回答问题,其中专家的输入被嵌入在软件中使得决策者可以从多种不同的和被详尽地指定的(一个或多个)源(例如现有卫星或新卫星)接收输入数据。
包括内部算法的系统300或平台可以编纂和融合遥感信息-比如图像数据,并且将经过编纂和融合的遥感信息发送给专门设计的输出设备,所述输出设备在专门设计的材料上进行打印以创建包括“视觉上回答问题的融合定量数据”的视觉显示。基于被嵌入到被创建以回答所提出的问题的软件程序中的专家的输入以及图3的等级2系统,经过预编程的模块可以如图5中所提供的那样被创建,其中图5以流程图的形式来解释该系统如何操作。图5可以用于回答广泛的问题、比如:
程序“污染”:污染模块可以被配置为跟踪污染在某个时间段内的影响。污染模块可以具有随着时间的变化而融合不同光谱数据的能力。
程序“地球”:地球模块可以随着时间的变化而跟踪地球的变化。地质不稳定的地区中的地面高度随着时间的移动是跟踪地球变化的一个例子。其它例子包括跟踪侵蚀、断层分离、熔岩流等。
程序“城市规划”:城市规划跟踪模块可以随着时间的变化而跟踪发展。住房供应、土地清理、砍伐森林、以及其它结构性跟踪可以随时间被跟踪。
图4是示例性硬件400的图示,所述硬件400可以用于根据本发明的原理生成从遥感信息(比如卫星图像数据)得到的融合图像的硬拷贝。该硬件可以定义要根据融合图像生成的对用户可用的输出的类型。该硬件的三个部件可以根据本发明原理而被使用,包括:
1.多元(multi-variant)光学介质402表示允许该系统被观看者的眼睛去耦合(decouple)的光学基础。通常,可以使用两种类型的材料。一种材料是用于多维显示的高保真度、低衰减角材料。第二种材料是用于融合系统的高保真度、高角材料。所述材料可以要么背面具有粘性以用于进行层叠,要么针对吸墨性而被涂敷。在一个实施例中,每英寸60个透镜的广角透镜设计可以用于时间融合和EMS融合。可以使用具有大致34至36度衰减角的用于“真实视图(True View)”数据显示的每英寸100个透镜的广角透镜设计。这些透镜二者都可以是柱面的。然而,可以使用执行相同或等价功能的其它透镜设计。系统变量可以包括打印机的每英寸点数(DPI)、所观看的帧数、材料的厚度、透镜的折射率、透镜的衰减角、以及透镜的形状。这些参数是数学相关的,并且对于本领域的技术人员而言是公知的。所述材料的一个实施例可以包括使用美国专利US 5,362,351或US 6,060,003中所描述的工艺之一而被制造,所述专利的全部内容通过引用结合于此。高保真度是指具有在大致32与大致38度之间的衰减角的材料。该角度范围很适合“真实视图”数据显示并且产生清晰聚焦的图像。较高的衰减角往往使对象的边界失真并且不如经过聚焦的。广角材料对融合图像奏效,因为图像之间的交叠(cross over)趋向于更可控。
2.可以使用特殊打印机来将所述介质与打印头光学对准。所述打印机可以被设计为使用光或超声波来检测透镜图案(lens pattern)。通过感测透镜的峰值并且给打印机头提供反馈,所述打印机对准并记录(register)微光学材料。所述记录使得能够控制点的布局以使保真度(即清晰度)最大化。使用光和传感器,透镜间距和介质的间隔(pitch)被感测到,并且被反馈给打印头,这样光栅化的图像与该介质对准。特殊的点图案被用于产生图像的最高保真度。该打印机可以包括针对平面(X-Y)图像所设计的阵列。可以根据本发明原理使用其它阵列。
3.特殊的墨可以供该系统使用。所述墨给打印物提供高的保真度、低扩散(spread)以及高的饱和度。所述墨被配制为与打印介质的背面上的涂层一起良好地工作。所述墨还是耐久和防水的。在墨系统根据本发明原理进行操作中可能涉及若干因素。首先,涂层可以被施加到与纸相对的塑料。其次,可以在该塑料的背面上执行打印,以使得光穿过该塑料并且然后从背面穿出到达观看者以观看该图像。正常的打印处于表面上并且眼睛直接接收所反射的光。在一个实施例中,整个涂层系统被打印或其它方式被沉积在微光学材料的背面上,以使得所述墨贴附于所述涂层。具有低表面能的塑料使非常少的墨在没有首先处理或涂敷塑料表面的情况下贴附,并且该墨应当必须具有较强的颜料沉积作用以克服两次透射穿过塑料透镜板。所述较强的颜料沉积作用可以在可能的最小点尺寸的情况下被保持,所述最小点尺寸等价于标准点尺寸。
图5是示意性过程500的流程图,所述过程500描述了根据本发明原理的系统的操作。过程500表示针对客户提出的问题的模块开发。如所示的那样,在步骤502,客户或决策者提出问题。遥感数据504可以被收集并且内部专家可以在步骤506审视所述数据以确定如何最佳地组合所述数据以在步骤508生成可用于解决所提出的问题的频带矩阵。在步骤510,输出方案可以被确定以创建数据呈现。在步骤512,数字数据平台(DDP)或数字处理平台可以被开发以用于数据呈现。客户可以观看被组合成单个遥感数据图像的卫星数据或者示出遥感数据的不同组合的多个图像,以在步骤514生成模块测试编集(documentation)以便在步骤516做出关于如何解决所提出的问题的决策。
图6是另一示例性过程600的流程图,所述过程600描述了根据本发明原理的系统的操作。在步骤602,遥感数据可以被收集。所述遥感数据可以包括电磁光谱中的可视化或非可视化数据。在步骤604,算法可以被用于转换所述图像数据。这样的算法可以位于NASA或Goddard Space网站上。在步骤606,可以使用对从步骤604产生的图像进行解密的算法。这样的算法可以在Idaho Water Resources网站上找到。可以在步骤608执行用于纠正图像的算法。该算法可以保证每个遥感数据集都被对准,并且具有基本上相同的正交表示。用于纠正所述图像的算法可以在www.microimages.com/getstart/pdf/rectify.pdf上找到。
在步骤610,包含用于可视化数据转换的算法的专家系统可以被提供。如前面所描述的那样,所述专家系统可以基于由客户提出的问题来创建。一个或多个遥感器专家可以给该系统提供信息以转换可视化数据。在步骤612,相间算法可以被用于生成遥感数据的融合图像。所述相间算法可以在美国专利6,781,707、6,894,904以及7,019,865中找到,所述专利的全部内容通过引用结合于此。在步骤614,打印机算法可以被用于打印融合图像。所述打印机算法可以在美国专利6,709,080中找到,所述专利的全部内容通过引用结合于此。在所示的每个步骤,算法都可以被执行,由此引起遥感数据602被处理和打印以使得决策者能够观看将被组合并且被打印到单页上的多个图像。应当理解,所示过程不是限制性的,并且仅仅阐述根据本发明原理的一个实施例。
已经出于说明和描述的目的而给出上面的描述,并且该描述并不旨在是穷举的或者限制于所公开形式的示例性实施例。许多修改和变型对于本领域的普通技术人员而言是显而易见的。

Claims (20)

1.一种用于产生遥感图像的系统,所述系统包括:
输入/输出单元平台,其被配置为接收多个遥感信息集;
数字处理平台,其被配置为执行一个或多个算法以处理所述遥感信息集以生成包括至少两个经过处理的遥感信息集的单个图像;
打印机,其与所述数字处理平台进行通信并且被配置为接收和打印所述单个图像,其中所打印的单个图像被配置为使得观看者能够分别地观看每个经过处理的遥感信息集。
2.根据权利要求1所述的系统,其中所述至少两个经过处理的遥感信息集来自不同的波长带。
3.根据权利要求1所述的系统,其中所述数据集随时间被捕获。
4.根据权利要求1所述的系统,其中所述遥感数据包括来自电磁光谱中的不同高光谱频带的可视化数据集。
5.根据权利要求1所述的系统,其中所述图像是多维图像。
6.根据权利要求1所述的系统,其中所述打印机被配置为将所述单个图像打印到针对吸墨性而被涂敷的材料上。
7.根据权利要求1所述的系统,进一步包括微透镜阵列,所述微透镜阵列被部署在所打印的单个图像前面以使得观看者通过所述微透镜阵列进行查看来查看所述单个图像中的每个经过处理的遥感信息集。
8.根据权利要求7所述的系统,其中所述透镜阵列包括每英寸60至100个透镜。
9.根据权利要求7所述的系统,其中所述透镜阵列具有大致34至大致36度的衰减角。
10.根据权利要求1所述的系统,其中所述数字处理平台使得用户能够从多个可选波长带选项中进行选择以选择性地打印相应所选波长带上的遥感信息。
11.一种用于根据遥感信息生成可视化信息的方法,所述方法包括:
收集第一遥感图像;
收集第二遥感图像;
处理第一和第二图像以便以基本相同的取向对图像进行定向;
将第一和第二遥感图像打印到单个材料上;以及
将所述单个材料配置为使得观看者能够在观看所述材料时以不同角度分别地观看每个遥感图像。
12.根据权利要求11所述的方法,其中收集第一图像包括收集可见光谱上的图像,并且收集第二图像包括收集非可见光谱上的图像。
13.根据权利要求11所述的方法,其中收集第一图像包括收集第一波长带上的图像,并且收集第二图像包括收集电磁光谱内的第二波长带上的图像。
14.根据权利要求13所述的方法,其中配置所述单个材料包括将微光学透镜阵列施加到所述单个材料。
15.根据权利要求11所述的方法,其中所述单个材料是微光学透镜阵列。
16.根据权利要求11所述的方法,进一步包括:
收集至少一个第三图像;
处理第三图像以便以与第一和第二图像基本相同的取向对第三图像进行定向;并且
其中打印包括将第三图像打印在与第一和第二图像相同的材料上。
17.根据权利要求16所述的方法,进一步包括:
创建在其上收集遥感图像的波长范围的频带矩阵;
选择所述频带矩阵内的与所述遥感图像相关联的频带中的至少两个来处理和打印。
17.根据权利要求11所述的方法,其中配置所述单个材料包括:将所述单个材料施加在微光学透镜阵列的第一侧上,以使得第一和第二图像的观看者经由包括微光学透镜的第二侧通过所述微光学透镜阵列进行查看。
18.根据权利要求11所述的方法,其中收集第一和第二遥感图像包括:收集三维图像。
19.根据权利要求11所述的方法,其中收集第一和第二遥感图像包括:收集属于相同位置并且在不同时间取得的图像。
20.根据权利要求11所述的方法,其中收集遥感图像包括:收集包括聚焦于地面的一部分上的图像的至少一个图像。
CN2008801134491A 2007-08-31 2008-08-25 用于以多光谱图像、融合图像以及三空间维度图像来呈现遥感可视化数据的系统和方法 Pending CN101971167A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
ITTO2007/A000620 2007-08-31
IT000620A ITTO20070620A1 (it) 2007-08-31 2007-08-31 Sistema e metodo per presentare dati visuali rilevati a distanza in immagini multi-spettrali, di fusione, ed a tre dimensioni spaziali.
PCT/US2008/010036 WO2009032088A1 (en) 2007-08-31 2008-08-25 System and method for presenting remotely sensed visual data in multi-spectral, fusion, and three-spatial dimenson images

Publications (1)

Publication Number Publication Date
CN101971167A true CN101971167A (zh) 2011-02-09

Family

ID=40299947

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008801134491A Pending CN101971167A (zh) 2007-08-31 2008-08-25 用于以多光谱图像、融合图像以及三空间维度图像来呈现遥感可视化数据的系统和方法

Country Status (8)

Country Link
US (1) US20110037997A1 (zh)
EP (2) EP3159848A1 (zh)
CN (1) CN101971167A (zh)
CA (1) CA2698090A1 (zh)
ES (1) ES2610502T3 (zh)
IT (1) ITTO20070620A1 (zh)
TW (1) TWI460399B (zh)
WO (1) WO2009032088A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102779353A (zh) * 2012-05-31 2012-11-14 哈尔滨工程大学 一种具有距离保持特性的高光谱彩色可视化方法
CN109542062A (zh) * 2018-11-20 2019-03-29 四川省宇行规划设计有限公司 资源环境动态数字监测控制系统及方法、信息数据处理终端
CN112585669A (zh) * 2018-07-03 2021-03-30 瑞克斯姆股份有限公司 显示处理电路系统

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5429176B2 (ja) * 2008-09-30 2014-02-26 コニカミノルタ株式会社 光学部品の製造方法並びに光学部品、レンズユニット及びカメラモジュール
CN102903114A (zh) * 2012-10-09 2013-01-30 河海大学 一种基于改进型层次聚类的高光谱遥感数据降维方法
US10033990B2 (en) 2015-01-30 2018-07-24 Jerry Nims Digital multi-dimensional image photon platform system and methods of use
US9992473B2 (en) * 2015-01-30 2018-06-05 Jerry Nims Digital multi-dimensional image photon platform system and methods of use
WO2018021079A1 (ja) * 2016-07-25 2018-02-01 日本電気株式会社 情報処理装置、情報処理方法、及び、記録媒体
US10621406B2 (en) 2017-09-15 2020-04-14 Key Technology, Inc. Method of sorting
US10685230B2 (en) * 2018-09-06 2020-06-16 National Central University Method of top-of-atmosphere reflectance-based spatiotemporal image fusion using aerosol optical depth
US11917119B2 (en) 2020-01-09 2024-02-27 Jerry Nims 2D image capture system and display of 3D digital image
RU2764838C1 (ru) * 2021-03-24 2022-01-21 Федеральное государственное бюджетное образовательное учреждение высшего образования "Рязанский государственный радиотехнический университет имени В.Ф. Уткина" Способ совмещения изображений от матричных фотоприёмников различных спектральных диапазонов
CN113376612B (zh) * 2021-08-12 2021-11-23 成都众享天地网络科技有限公司 一种基于地形矩阵化及探测的雷达杂波生成方法

Family Cites Families (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4101210A (en) * 1976-06-21 1978-07-18 Dimensional Development Corporation Projection apparatus for stereoscopic pictures
US4124291A (en) 1976-12-03 1978-11-07 Dimensional Development Corp. Control of depth of field in three dimensional photography
US4086585A (en) 1976-12-27 1978-04-25 Dimensional Development Corporation System and camera for controlling depth of field in three-dimensional photography
JPH0786914B2 (ja) * 1986-11-07 1995-09-20 株式会社日立製作所 画像を用いた変化検出方法
US5512922A (en) * 1989-10-10 1996-04-30 Xaar Limited Method of multi-tone printing
US5323317A (en) * 1991-03-05 1994-06-21 Hampton Terry L Method and apparatus for determining runoff using remote geographic sensing
WO1993013929A1 (en) 1992-01-15 1993-07-22 Karszes William M Method of making lenticular plastics and products therefrom
US5329595A (en) * 1992-06-05 1994-07-12 Trw Inc. System and method for analyzing optical spectral data of a terrain image
US5498444A (en) * 1994-02-28 1996-03-12 Microfab Technologies, Inc. Method for producing micro-optical components
WO1996009154A1 (en) 1994-09-23 1996-03-28 Karszes William M Method of making lenticular plastics
US5600402A (en) * 1995-05-04 1997-02-04 Kainen; Daniel B. Method and apparatus for producing three-dimensional graphic images using a lenticular sheet
US7215451B1 (en) * 1996-04-15 2007-05-08 Dai Nippon Printing Co., Ltd. Reflection type diffuse hologram, hologram for reflection hologram color filters, etc., and reflection type display device using such holograms
US6046848A (en) * 1996-12-20 2000-04-04 Eastman Kodak Company Integral image display
US5828495A (en) * 1997-07-31 1998-10-27 Eastman Kodak Company Lenticular image displays with extended depth
US5867322A (en) * 1997-08-12 1999-02-02 Eastman Kodak Company Remote approval of lenticular images
US6016225A (en) * 1997-11-07 2000-01-18 Vision International Production, Inc. Data card with lenticular optical display
US6211896B1 (en) * 1998-12-16 2001-04-03 Eastman Kodak Company Method for producing lenticular images
US6366681B1 (en) * 1999-04-07 2002-04-02 Space Imaging, Lp Analysis of multi-spectral data for extraction of chlorophyll content
AU5740200A (en) * 1999-06-15 2001-01-02 Dimensional Media Associates, Inc. Lenticular imaging system, method, and apparatus
US7223364B1 (en) * 1999-07-07 2007-05-29 3M Innovative Properties Company Detection article having fluid control film
US7058197B1 (en) * 1999-11-04 2006-06-06 Board Of Trustees Of The University Of Illinois Multi-variable model for identifying crop response zones in a field
WO2001082593A1 (en) * 2000-04-24 2001-11-01 The Government Of The United States Of America, As Represented By The Secretary Of The Navy Apparatus and method for color image fusion
US6760021B1 (en) * 2000-07-13 2004-07-06 Orasee Corp. Multi-dimensional image system for digital image input and output
US6709080B2 (en) 2000-12-08 2004-03-23 Orasee Corp. Method and apparatus for direct printing on a lenticular foil
US20020121336A1 (en) * 2000-12-22 2002-09-05 Karszes William M. System and method for multidimensional imagery
US20020085207A1 (en) * 2000-12-27 2002-07-04 Hait John N. Hyper-resolution, topographic, holographic imaging apparatus and method
AU2002248400A1 (en) * 2001-02-06 2002-08-19 Orasee Corp. Method for scaling and interlacing multidimensional and motion images
US6816627B2 (en) * 2001-04-12 2004-11-09 Lockheed Martin Corporation System for morphological image fusion and change detection
US20020196249A1 (en) * 2001-06-21 2002-12-26 Peters Paul F. System of processing and printing multidimensional and motion images from medical data sets
US7088396B2 (en) * 2001-12-21 2006-08-08 Eastman Kodak Company System and camera for creating lenticular output from digital images
US6894809B2 (en) * 2002-03-01 2005-05-17 Orasee Corp. Multiple angle display produced from remote optical sensing devices
US6781707B2 (en) * 2002-03-22 2004-08-24 Orasee Corp. Multi-spectral display
KR100488685B1 (ko) * 2002-08-22 2005-05-11 한국과학기술원 자동 영상등록 및 보정을 위한 영상 처리방법
US6898331B2 (en) * 2002-08-28 2005-05-24 Bae Systems Aircraft Controls, Inc. Image fusion system and method
WO2004021151A2 (en) * 2002-08-30 2004-03-11 Orasee Corp. Multi-dimensional image system for digital image input and output
TW559959B (en) 2002-09-03 2003-11-01 Via Tech Inc TAB package and method for fabricating the same
US7210836B2 (en) * 2002-09-19 2007-05-01 Mitsubishi Denki Kabushiki Kaisha Display unit and electronic apparatus with display unit
US7283664B2 (en) * 2002-09-25 2007-10-16 Southwest Research Institute Interactive computer aided analysis of images from sensor combinations
GB0227887D0 (en) * 2002-11-29 2003-01-08 Mirada Solutions Ltd Improvements in or relating to image registration
US7340099B2 (en) * 2003-01-17 2008-03-04 University Of New Brunswick System and method for image fusion
US6909815B2 (en) * 2003-01-31 2005-06-21 Spectral Sciences, Inc. Method for performing automated in-scene based atmospheric compensation for multi-and hyperspectral imaging sensors in the solar reflective spectral region
US20050111756A1 (en) * 2003-11-25 2005-05-26 Turner Robert W. System and method for generating coherent data sets of images from various sources
US7620265B1 (en) * 2004-04-12 2009-11-17 Equinox Corporation Color invariant image fusion of visible and thermal infrared video
US7564019B2 (en) * 2005-08-25 2009-07-21 Richard Ian Olsen Large dynamic range cameras
TWI250445B (en) * 2004-10-15 2006-03-01 Kwang-Chu Yang Continuous laser printer with adjustable printing speed
US7450761B2 (en) * 2004-11-02 2008-11-11 The Boeing Company Spectral geographic information system
WO2006113583A2 (en) * 2005-04-15 2006-10-26 Mississippi State University Remote sensing imagery accuracy analysis method and apparatus
US7491944B1 (en) * 2005-07-14 2009-02-17 Sandia Corporation Method to analyze remotely sensed spectral data
US8189877B2 (en) * 2005-10-21 2012-05-29 Carnegie Institution Of Washington Remote sensing analysis of forest disturbances
US20070111171A1 (en) * 2005-10-27 2007-05-17 Mary Kane Lenticular teaching and greeting card apparatus
JP4723387B2 (ja) * 2006-01-18 2011-07-13 富士フイルム株式会社 インクジェット描画方法および装置
US8224018B2 (en) * 2006-01-23 2012-07-17 Digimarc Corporation Sensing data from physical objects
US7613360B2 (en) * 2006-02-01 2009-11-03 Honeywell International Inc Multi-spectral fusion for video surveillance
US7805020B2 (en) * 2006-07-25 2010-09-28 Itt Manufacturing Enterprises, Inc. Motion compensated image registration for overlaid/fused video
US8538195B2 (en) * 2007-09-17 2013-09-17 Raytheon Company Hyperspectral image dimension reduction system and method
KR100944462B1 (ko) * 2008-03-07 2010-03-03 한국항공우주연구원 위성 영상 융합 방법 및 시스템
US9117133B2 (en) * 2008-06-18 2015-08-25 Spectral Image, Inc. Systems and methods for hyperspectral imaging
CN101394487B (zh) * 2008-10-27 2011-09-14 华为技术有限公司 一种合成图像的方法与系统
US8136938B2 (en) * 2009-05-19 2012-03-20 William Karszes System and method for printing on lenticular sheets
GB0914982D0 (en) * 2009-08-27 2009-09-30 Univ East Anglia Methods and apparatus for generating accented image data
US8503761B2 (en) * 2009-11-12 2013-08-06 Harris Corporation Geospatial modeling system for classifying building and vegetation in a DSM and related methods
US8559719B2 (en) * 2010-03-12 2013-10-15 The United States Of America, As Represented By The Secretary Of The Navy Spectral anomaly detection in deep shadows

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102779353A (zh) * 2012-05-31 2012-11-14 哈尔滨工程大学 一种具有距离保持特性的高光谱彩色可视化方法
CN112585669A (zh) * 2018-07-03 2021-03-30 瑞克斯姆股份有限公司 显示处理电路系统
US11961431B2 (en) 2018-07-03 2024-04-16 Google Llc Display processing circuitry
CN109542062A (zh) * 2018-11-20 2019-03-29 四川省宇行规划设计有限公司 资源环境动态数字监测控制系统及方法、信息数据处理终端

Also Published As

Publication number Publication date
WO2009032088A1 (en) 2009-03-12
TW200921045A (en) 2009-05-16
CA2698090A1 (en) 2009-03-12
ES2610502T3 (es) 2017-04-27
EP3159848A1 (en) 2017-04-26
EP2193449A1 (en) 2010-06-09
EP2193449B1 (en) 2016-10-12
EP2193449A4 (en) 2012-08-29
TWI460399B (zh) 2014-11-11
ITTO20070620A1 (it) 2009-03-01
US20110037997A1 (en) 2011-02-17

Similar Documents

Publication Publication Date Title
CN101971167A (zh) 用于以多光谱图像、融合图像以及三空间维度图像来呈现遥感可视化数据的系统和方法
Koeva et al. Using UAVs for map creation and updating. A case study in Rwanda
Campbell et al. Introduction to remote sensing
US5808916A (en) Method for monitoring the environment
DeBell et al. Water resource management at catchment scales using lightweight UAVs: Current capabilities and future perspectives
US5815417A (en) Method for acquiring and presenting data relevant to an emergency incident
US5652717A (en) Apparatus and method for collecting, analyzing and presenting geographical information
US7206131B2 (en) Optic array for three-dimensional multi-perspective low observable signature control
CN106530343A (zh) 一种基于目标深度图像的投影装置和投影方法
US6781707B2 (en) Multi-spectral display
Gopi Advanced surveying: total station, GIS and remote sensing
Congalton et al. Unmanned Aerial Systems (UAS) and Thematic Map Accuracy Assessment
Smith Topographic mapping
Jaalama 3D geovisualizations in human-centered quality assessments of urban and green spaces-—from point clouds to nonabsolute spaces
Quilter Vegetation monitoring using low-altitude, large-scale imagery from radio-controlled drones
Polcyn et al. The application of remote sensing techniques: Technical and methodological issues
Tabrizian Integrating Geospatial Computation, Virtual Reality and Tangible Interaction to Improve Landscape Design and Research
Hossain et al. Introduction to remote sensing
Coppock Land use surveys
Garrison Introducing the December Issue [From the Editor]
Garrison Introducing the December Issue
Marques et al. Valorization of urban heritage: modeling UAV 3D data for mobile platforms
Poole Appropriate geomatic technology for local earth observation
Gurtner et al. Capacity Building in Geoprocessing
Villegas Display of the Nevado del Ruiz volcanic hazard map using GIS

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C12 Rejection of a patent application after its publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20110209