CN205265783U - 成像系统 - Google Patents

成像系统 Download PDF

Info

Publication number
CN205265783U
CN205265783U CN201390001107.7U CN201390001107U CN205265783U CN 205265783 U CN205265783 U CN 205265783U CN 201390001107 U CN201390001107 U CN 201390001107U CN 205265783 U CN205265783 U CN 205265783U
Authority
CN
China
Prior art keywords
infrared
sensor
image
array
infrared imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
CN201390001107.7U
Other languages
English (en)
Inventor
N·霍根斯特恩
M·纳斯迈耶
E·A·库尔特
T·R·赫尔特
K·斯特兰德玛
P·布朗热
B·夏普
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Teledyne Flir LLC
Original Assignee
Flir Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/099,818 external-priority patent/US9723227B2/en
Priority claimed from US14/101,258 external-priority patent/US9723228B2/en
Priority claimed from US14/101,245 external-priority patent/US9706139B2/en
Application filed by Flir Systems Inc filed Critical Flir Systems Inc
Application granted granted Critical
Publication of CN205265783U publication Critical patent/CN205265783U/zh
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0208Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using focussing or collimating elements, e.g. lenses or mirrors; performing aberration correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0262Constructional arrangements for removing stray light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2803Investigating the spectrum using photoelectric array detector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/30Measuring the intensity of spectral lines directly on the spectrum itself
    • G01J3/36Investigating two or more bands of a spectrum by separate detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/67Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response
    • H04N25/671Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction
    • H04N25/673Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction by using reference sources
    • H04N25/674Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction by using reference sources based on the scene itself, e.g. defocusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/68Noise processing, e.g. detecting, correcting, reducing or removing noise applied to defects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/48Increasing resolution by shifting the sensor relative to the scene

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)

Abstract

成像系统可以包括系统外壳和成像器阵列。该成像器阵列可包括多个红外成像模块。每个红外成像模块可包括与光学元件相关的多个红外传感器。例如,红外成像模块可被定向,例如平面基本面向同一方向并配置成检测同一场景的图像。这种图像可根据各种技术来处理,以提供红外辐射图像。红外成像模块可包括滤波器或透镜涂层,以选择性检测红外辐射的期望的范围。成像器阵列的红外成像模块的这种布置可用于在各种不同的应用中产生有利影响。

Description

成像系统
相关申请的交叉参考
本申请要求2012年12月21日提出的申请号为61/745,193,题为“IMAGERWITHARRAYOFMULTIPLEINFRAREDIMAGINGMODULES”的美国临时专利申请的权益,通过引用的方式将其全文合并于此。
本申请是2013年12月9日提出的申请号为14/101,245,题为“LOWPOWERANDSMALLFORMFACTORINFRAREDIMAGING”的美国专利申请的部分接续申请案,通过引用的方式将其全文合并于此。
本申请是2013年12月6日提出的申请号为14/099,818,题为“NON-UNIFORMITYCORRECTIONTECHNIQUESFORINFRAREDIMAGINGDEVICES”的美国专利申请的部分接续申请案,通过引用的方式将其全文合并于此。
本申请是2013年12月9日提出的申请号为14/101,258,题为“INFRAREDCAMERASYSTEMARCHITECHURES”的美国专利申请的部分接续申请案,通过引用的方式将其全文合并于此。
本申请要求2012年12月31日提出的申请号为61/748,018,题为“COMPACTMULTI-SPECTRUMIMAGINGWITHFUSION”的美国临时专利申请的权益,通过引用的方式将其全文合并于此。
本申请要求2013年3月15日提出的申请号为61/792,582,题为“TIMESPACEDINFRAREDIMAGEENHANCEMENT”的美国临时专利申请的权益,通过引用的方式将其全文合并于此。
本申请要求2013年3月15日提出的申请号为61/793,952,题为“INFRAREDIMAGINGENHANCEMENTWITHFUSION”的美国临时专利申请的权益,通过引用的方式将其全文合并于此。
本申请要求2012年12月26日提出的申请号为61/746,069,题为“TIMESPACEDINFRAREDIMAGEENHANCEMENT”的美国临时专利申请的权益,通过引用的方式将其全文合并于此。
本申请要求2012年12月26日提出的申请号为61/746,074,题为“NFRAREDIMAGINGENHANCEMENTWITHFUSION”的美国临时专利申请的权益,通过引用的方式将其全文合并于此。
技术领域
本实用新型的一个或者多个实施例大体上涉及图像传感器,更具体地,例如,涉及具有多组图像传感器、红外传感器和相关光学器件的装置。
背景技术
有各种各样的图像探测器,例如可见光图像探测器、红外图像探测器、或可用于捕获用于存储和显示的图像的其他类型的图像探测器。焦平面阵列(FPA)和图像处理的工艺技术的最新进展,导致所得的成像系统的性能和复杂性增加。虽然这些发展可提供改良的特性和图像质量,但他们往往会负面地影响相关系统的尺寸、重量和功率。特别是,支持多光谱成像的单孔径光学系统通常是复杂的、重的和昂贵的。另外,长波红外波段中常规高分辨率传感器可能需要非常大的孔径。
作为实例,热摄像机频繁地用在军事和商业应用中。然而,在许多环境下,尺寸和重量的限制可能会使这种热摄像机不切实际。对于许多应用中的市场渗透而言,成本也是一个障碍。特别是,红外摄像机光学器件往往会显著地促进这些装置的总成本和尺寸。结果,需要改良的图像探测器实现,其在不过度影响图像探测器或其相关装置的尺寸、重量和功率的情况下提供高能力。
实用新型内容
根据本公开的各种实施例,成像器阵列可被提供为成像系统的一部分。成像器阵列可包括多个红外成像模块。每个红外成像模块可包括与光学元件相关的多个红外传感器。红外成像模块可被定向,例如平面基本面向同一方向并配置成使用该成像器阵列检测同一场景的多个图像。这种图像可根据各种技术来处理,以提供红外辐射图像。在一些实施例中,红外成像模块可包括滤波器或透镜涂层,以选择性检测红外辐射的期望范围。成像器阵列的红外成像模块的这种布置可用于如本文所述的各种不同的应用中的有利的影响。
根据本公开的一个实施例,成像系统包括系统外壳,和布置在系统外壳中的并适于成像场景的成像器阵列。该成像器阵列可包括多个红外成像模块。每个红外成像模块可包括模块外壳,相对于模块外壳固定并适于从场景接收红外辐射的光学元件,和适于基于经由光学元件接收的红外辐射捕获场景图像的焦平面阵列(FPA)中的多个红外传感器。
根据本公开的另一个实施例,成像方法包括在布置在成像系统的系统外壳中的成像器阵列从场景接收红外辐射。成像器阵列可包括多个红外成像模块。每个红外成像模块可包括模块外壳、相对于模块外壳固定的并适于从场景接收红外辐射的光学元件和适于基于经由光学元件接收到的红外辐射捕获场景图像的焦平面阵列(FPA)中多个红外传感器。该方法可进一步包括基本上同时使用红外成像模块的红外传感器捕获场景的多个图像。
根据本公开的另一个实施例,气体检测系统包括适于成像场景的成像器阵列,其中该成像器阵列可包括多个红外成像模块。每个红外成像模块可包括模块外壳、相对于模块外壳固定的并适于从场景接收红外辐射的光学元件和适于基于经由光学元件接收到的红外辐射捕获场景图像的焦平面阵列(FPA)中多个红外传感器。第一个红外成像模块可适于捕获红外辐射的第一波长范围的第一图像,第二个红外成像模块可适于捕获红外辐射的第二波长范围的第二图像,第二波长范围可以是第一波长范围的子集并基本上对应于气体的吸收带。
根据本公开的另一个实施例,检测气体的方法包括在成像器阵列从场景接收红外辐射,其中该成像器阵列包括多个红外成像模块。每个红外成像模块可包括模块外壳、相对于模块外壳固定的并适于从场景接收红外辐射的光学元件和适于基于经由光学元件接收到的红外辐射捕获场景图像的焦平面阵列(FPA)中多个红外传感器。该方法可进一步包括使用第一个红外成像模块捕获红外辐射的第一波长范围的第一图像,和使用第二个红外成像模块捕获红外辐射的第二波长范围的第二图像,其中第二波长范围可以是第一波长范围的子集并基本上对应于气体的吸收带。
根据本公开的另一个实施例,成像器校准系统包括适于成像场景的成像器阵列,其中该成像器阵列可包括多个红外成像模块。每个红外成像模块可包括模块外壳、相对于模块外壳固定的并适于从场景接收红外辐射的光学元件和适于基于经由光学元件接收到的红外辐射捕获场景图像的焦平面阵列(FPA)中多个红外传感器。该处理器可适于:接收与由红外成像模块的红外传感器捕获的图像相关的多个像素值,以将该传感器映射到坐标空间,其中将每个红外成像模块的至少一个红外传感器映射到坐标空间的每个坐标,并基于映射到同一坐标的所有红外传感器的像素值,为每个红外传感器计算偏移校正项。
根据本公开的另一个实施例,校准成像器系统的方法包括在成像器阵列从场景接收红外辐射,其中该成像器阵列包括多个红外成像模块。每个红外成像模块可包括模块外壳、相对于模块外壳固定的并适于从场景接收红外辐射的光学元件和适于基于经由光学元件接收到的红外辐射捕获场景图像的焦平面阵列(FPA)中多个红外传感器。该方法可进一步包括:接收与由红外成像模块的红外传感器捕获的图像相关的多个像素值,将红外传感器映射到坐标空间,其中将每个红外成像模块的至少一个红外传感器映射到坐标空间的每个坐标,并基于映射到同一坐标的所有红外传感器的像素值,为每个红外传感器计算偏移校正项。
本实用新型的范围由权利要求书限定,通过引用的方式将这部分合并于此。通过考虑下面对一个或者多个实施例的详细描述,将会向本领域技术人员提供对本实用新型实施例的更加完整的理解以及其中附加的优点的实现。下面将参考首先会简要描述的附图。
附图说明
图1示出了根据本公开实施例的成像系统100的方块图。
图2A-B示出了根据本公开实施例的具有多个基本相等尺寸的传感器阵列的成像器阵列的几种视图。
图2C-D示出了根据本公开实施例的具有多个不同尺寸的传感器阵列的成像器阵列的多个视图。
图2E-F根据本公开实施例确定了作为波长函数的通风盘的直径。
图3示出了根据本公开实施例的获得具有期望信噪比的图像的过程。
图4示出了根据本公开实施例的使用传感器阵列之间的相移获得高分辨率图像的过程。
图5示出了根据本公开实施例的配置成提供立体成像的成像器阵列。
图6A示出了根据本公开实施例的校正成像器阵列中有缺陷的像素的过程。
图6B-C示出了根据本公开实施例的具有有缺陷的像素的图像。
图7A-B示出了根据本公开实施例的校准成像器阵列的传感器的过程。
图8A示出了根据本公开实施例的作为可由成像器阵列探测的气体的波长的函数的传输率。
图8B示出了根据本公开实施例的作为可由成像器阵列探测的大气条件的波长的函数的经由大气的传输率。
图8C示出了根据本公开实施例的执行气体探测的过程。
图9A示出了根据本公开实施例的包括多个传感器阵列和光束分离器的成像器阵列。
图9B示出了根据本公开实施例的包括多个摄像机的成像器阵列。
图10示出了根据本公开实施例的使用人工神经网络提供高分辨率图像的过程。
图11A-F示出了根据本公开实施例的具有多个红外成像模块的成像器阵列的几种视图和类型。
图12示出了根据本公开实施例的被配置为在主机装置中实现的红外成像模块。
图13示出了根据本公开实施例的装配好的红外成像模块。
图14示出了根据本公开的实施例的并置于插座之上的红外成像模块的分解图。
图15示出了根据本公开的实施例的包括红外传感器阵列的红外传感器组件的方块图。
图16示出了根据本公开实施例的确定非均匀校正(NUC)项的各种操作的流程图。
图17示出了根据本公开实施例的相邻像素之间的差值。
图18示出了根据本公开实施例的平场校正技术。
图19示出了根据本公开实施例的应用在图像处理流水线中的图16的各种图像处理技术和其他操作。
图20示出了根据本公开实施例的时域噪声消减步骤。
图21示出了根据本公开实施例的图19的图像处理流水线的几个步骤的具体的实施细节。
图22示出了根据本公开实施例的邻近像素中的空间相关的固定模式噪声(FPN)。
图23示出了根据本公开实施例的包括红外传感器阵列和低压差稳压器的红外传感器组件的另一个实现方式的方块图。
图24示出了根据本公开实施例的图23的红外传感器组件的一部分的电路图。
通过参考下面的详细说明,将会更好地理解本实用新型的实施例及其优点。应当理解的是,相同的参考数字用于表示在一幅或者多幅附图中示出的相同元件。
具体实施方式
图1示出了根据本公开实施例的成像系统100的方块图。成像系统100可用于根据本文描述的各种技术捕获并处理图像。如图所示,成像系统100的各种部件可被提供在外壳101中,例如摄像机或其他系统的外壳中。在一个实施例中,成像系统100包括处理部件110、存储部件120、图像捕获部件130(例如,包括多个传感器阵列的成像器阵列)、显示部件140、控制部件150和模式传感部件160。在另一个实施例中,成像系统100还可包括通信部件152和一个或多个其他传感部件162。
在各种实施例中,成像系统100可表示捕获例如场景170的图像的成像装置(例如摄像机)。成像系统100可表示例如探测电磁辐射并提供代表性数据(例如,一个或多个静止图像或视频图像)的任何类型的摄像机系统。例如,成像系统100可表示用于探测一种或多种电磁辐射范围并提供相关的图像数据的摄像机。成像系统100可包括便携式装置,并例如可被实现为手持装置,和/或在其他实例中被耦合到各种类型的交通工具(例如,陆地车辆、船舶、飞机、宇宙飞船或其他交通工具),或经由一种或多种类型的底座被耦合到各种类型的固定位置(例如,家庭安全底座、营地或室外底座或其他位置)。在又一实例中,成像系统100可被集成为非移动设施的一部分以提供被存储的和/或被显示的图像。
在一个实施例中,处理部件110包括微处理器、单核处理器、多核处理器、微控制器、逻辑器件(例如,配置成执行处理功能的可编程逻辑器件)、数字信号处理(DSP)装置或任何其他类型的公知处理器。处理部件110适于与部件120、130、140、150、160和162交互并通信,以执行如本文所述的方法和处理步骤。处理部件110可包括用于以一种或多种操作模式操作的(例如,根据本文公开的各种实施例中的任何一个实施例操作的)一个或多个模式模块112A-112N。在一个方面,模式模块112A-112N适于限定可被嵌入在处理部件110中的或可被存储在存储部件120上以由处理部件110存取并执行的预处理和/或显示功能。在另一方面,处理部件110可适于执行如本文所述的各种类型的图像处理算法。
在各种实施例中,应该理解的是,每个模式模块112A-112N可被集成在软件和/或硬件中作为处理部件110的一部分,或者可以是可被存储在存储部件120中的、与每个模式模块112A-112N相关的每种操作模式的编码。本文公开的模式模块112A-112N的实施例(即,操作模式)可由单独的机器可读介质(例如,存储器,例如硬盘驱动器、光盘、数字视频光盘或闪存储器)存储,以被计算机(例如,逻辑器件或基于处理器的系统)执行,从而完成本文描述的各种操作。
在一个实例中,通过将机器可读介质耦合到成像系统100和/或通过使成像系统100从机器可读介质下载(例如,经由有线或无线链接)模式模块112A-112N(例如,包括非暂时性信息)而向成像系统100提供存储的模式模块112A-112N,机器可读介质可以是便携的和/或与成像系统100分开。在各种实施例中,如本文所述,模式模块112A-112N为实时应用提供改善的摄像机处理技术,其中用户或操作者可根据具体应用(例如越野应用、海上应用、飞机应用、太空应用或其他应用)来改变操作模式。
在一个实施例中,存储部件120包括存储数据和信息的一个或多个存储装置。该一个或多个存储装置可包括包含有易失性和非易失性存储装置的各种类型的存储器,例如RAM(随机存取存储器)、ROM(只读存储器)、EEPROM(电可擦除只读存储器)、闪存储器或其他类型的存储器。在一个实施例中,处理部件110适于执行存储在存储部件120中的软件,以便以如本文所述的方式执行各种方法、过程和操作模式。
在一个实施例中,图像捕获部件130包括用于捕获代表场景170的图像的图像信号的一个或多个传感器(例如,任何类型的探测器,例如焦平面阵列)。在一个实施例中,图像捕获部件130的传感器用于将捕获的场景170的图像信号表示(例如转换)为数字数据(例如,经由包括为传感器的一部分的或与传感器分开的作为成像系统100的一部分的模数转换器)。处理部件110可适于从图像捕获部件130接收图像信号、处理图像信号(例如,提供处理的图像数据)、在存储部件120中存储图像信号或图像数据,和/或从存储部件120取回存储的图像信号。处理部件110可适于处理存储在存储部件120中的图像信号,以向显示部件140提供图像数据(例如,捕获的和/或处理的图像数据)供用户查看。
在一个实施例中,显示部件140包括图像显示器(例如,液晶显示器(LCD))或各种其他类型的公知的视频显示器或监视器。处理部件110可适于在显示部件140上显示图像数据和信息。处理部件110可适于从存储部件120取回图像数据和信息,并在显示部件140上显示任何取回的图像数据和信息。显示部件140可包括显示电子器件,其可由处理部件110用以显示图像数据和信息。显示部件140可经由处理部件110直接从图像捕获部件130接收图像数据和信息,或者可经由处理部件110从存储部件120传输图像数据和信息。
在一个实施例中,处理部件110可以以对应于模式模块112A-112N的一个模式,初始地处理捕获的图像和当前处理的图像,然后在用户向控制部件150输入时,处理部件110就可将当前模式切换为不同的模式,以在显示部件140上以不同的模式查看处理的图像。这种切换可被称为将模式模块112A-112N的摄像机处理技术应用于实时应用,其中当在显示部件140上基于对控制部件150的用户输入查看图像时,用户或操作者可改变模式。在各个方面,显示部件140可被远程布置,并且处理部件110可适于经由如本文所述的与显示部件140的有线或无线通信,在显示部件140上远程地显示图像数据和信息。
在一个实施例中,控制部件150包括具有一个或多个用户驱动部件)例如一个或多个按钮、滑动条、旋转旋钮或键盘)的用户输入和/或接口装置,其适于产生一个或多个用户驱动输入控制信号。控制部件150可适于被集成为显示部件140的一部分,以用作用户输入装置和显示装置两种功能,例如,适于从接触的显示屏的不同部分的用户接收输入信号的触摸屏装置。处理部件110可适于感应来自控制部件150的控制输入信号,并对从那接收的任何感应的控制输入信号作出响应。
在一个实施例中,控制部件150可包括适于与用户接口并接收用户输入控制信号,该控制面板单元具有一个或多个适于与用户交互并接收用户输入控制信号的用户激活机构(例如,按钮、旋钮、滑块或其他)。在各种实施例中,控制面板单元的一个或多个用户激活机构可用于在如本文中相对于参考模式模块112A-112N描述的各种操作模式之间选择。在其他实施例中,应该理解的是,控制面板单元可适于包括一个或多个用户激活机构,以提供成像系统100的各种其他控制功能,例如自动对焦、菜单启用和选择、视场(FoV)、亮度、对比、增益、偏移、空间、时域和/或各种其他特性和/或参数。在又一实施例中,可基于选择的操作模式,通过用户或操作者来调整可变的增益信号。
在另一实施例中,控制部件150可包括图形用户接口(GUI),其可被集成为具有一个或多个用户激活机构(例如,按钮、旋钮、滑块或其他)的图像的显示部件140的一部分(例如,用户驱动触摸屏),一个或多个用户激活机构的图像适于经由显示部件140与用户交互并接收用户输入的控制信号。作为如本文进一步论述的一个或多个实施例的实例,显示部件140和控制部件150可表示智能手机、平板电脑、个人数字助理(例如,无线、移动装置)、笔记本电脑、台式电脑或其他类型的装置。
在一个实施例中,模式传感部件160包括适于根据感应的应用(例如,想要的应用和实现)自动识别操作模式并且向处理部件110提供相关信息的应用传感器。在各种实施例中,应用传感器可包括机械触发机构(例如,钳、夹子、钩、开关、按钮或其他)、电子触发机构(例如,电子开关、按钮、电信号、电连接或其他)、电机触发机构、电磁触发机构或它们的一些组合。例如,对一个或多个实施例而言,模式传感部件160基于用户已耦合成像系统100(例如,图像捕获部件130)的安装类型(例如,附件或固定装置),感测对应于成像系统100的想要的应用的操作模式。可替代地,操作模式可以由成像系统100的用户经由控制部件150来提供(例如,经由具有触摸屏的显示部件140或表示控制部件150的其他用户输入来无线地提供)。
此外,根据一个或多个实施例,例如,当模式传感部件160不感应特定操作模式(例如,没有感应到底座或没有提供用户选择)时,可提供缺省操作模式。例如,成像系统100可用在自由模式(例如,不用底座的手持设备)中,且缺省操作模式可被设置为手持操作,同时向无线显示器(例如,具有显示器的其他手持设备,例如智能手机,或提供给交通工具的显示器)无线地提供图像。
在一个实施例中,模式传感部件160可包括适于将成像系统100固定到交通工具或其一部分上的机械锁紧机构,且当将成像系统100安装和/或固定到交通工具时,可包括适于向处理部件110提供传感信号的传感器。在一个实施例中,模式传感部件160可适于接收电信号和/或识别电连接类型和/或机械安装类型,并向处理部件110提供传感信号。可替代地或附加地,如本文所述的一个或多个实施例,用户可经由控制部件150(例如,显示部件140的无线触摸屏)提供用户输入,以指定成像系统100的期望模式(例如,应用)。
处理部件110可适于与模式传感部件160通信(例如,通过接收来自模式传感器部件160的传感器信息)和与图像捕获部件130通信(例如,通过从图像捕获部件130接收数据和信息,并向和/或从成像系统100的其他部件提供和/或接收指令、控制和/或其他信息)。
在各种实施例中,模式传感部件160适于提供与系统应用有关的数据和信息,系统应用包括手持实现和/或与各种类型的交通工具(陆地车辆、船舶、飞机、宇宙飞船或其他交通工具)或固定应用(例如,固定位置,例如在建筑物上)相关的耦合实现。在一个实施例中,模式传感器部件160可包括通信装置,其经由无线通信向处理部件110传递信息。例如,模式传感部件160可适于经由卫星、经由当地广播传输(例如,无线电频率)、经由移动或蜂窝网络和/或经由基础设施中的信息信标(例如,运输或公路信息信标基础设施)或各种其他的有线或无线技术(例如,使用各种局域或广域无线标准),接收和/或提供信息。
在另一个实施例中,图像捕获系统100可包括一个或多个其他类型的传感部件162,包括环境和/或操作性传感器,其基于传感应用或实现向处理部件110提供信息(例如,通过从每个传感部件162接收传感器信息)。在各种实施例中,其他传感部件162可适于提供与环境条件有关的数据和信息,该环境条件例如为内部和/或外部温度条件、照明条件(例如,白天、夜晚、黄昏和/或黎明)、湿度水平、具体的天气条件(例如,晴、雨和/或雪)、距离(例如,激光测距仪)、和/或是否已进入或离开隧道、被覆盖的停车场或一些类型的封围。因此,正如本领域的技术人员所应理解的,其他传感部件160可包括一个或多个常规传感器,以监测可能会对由图像捕获部件130提供的数据产生影响(例如,对图像外观)的各种条件(例如,环境条件)。
在一些实施例中,其他传感部件162可包括经由无线通信向处理部件110传递信息的装置。例如,每个传感部件162都可适于经由当地广播(例如,无线电频率)传输、经由移动或蜂窝网络和/或经由基础设施中的信息信标(例如,运输或公路信息信标基础设施)或各种其他的有线或无线技术,从卫星接收信息。
在各种实施例中,根据期望的或根据应用需要,可以或者可以不组合和/或实现实现图像捕获系统100的部件,其中图像捕获系统100代表系统的各种功能块。例如,可将处理部件110与存储部件120、图像捕获部件130、显示部件140和/或模式传感部件160组合在一起。在另一个实例中,可将处理部件110与图像捕获部件130组合在一起,而仅通过图像捕获部件130内的电路(例如,处理器、微处理器、微控制器、逻辑器件或其他电路)执行处理部件110的某些功能。在又一实例中,可经由有线或无线控制装置,将控制部件150与一个或多个其他部件组合在一起,或远程地连接到至少一个其他部件(例如处理部件110),以为其提供控制信号。
在一个实施例中,图像捕获系统100可包括通信部件152,例如适于与网络(包括网络中的其他装置)通信的网络接口部件(NIC)。在各种实施例中,通信部件152可包括无线通信部件,例如基于IEEE802.11标准的无线局域网(WLAN)部件、无线宽带部件、移动蜂窝部件、无线卫星部件、或包括适于与网络通信的无线电频率(RF)、微波频率(MWF)和/或红外频率(IRF)部件的各种其他类型的无线通信部件。如此,通信部件152可包括耦接到其上的天线,以用于无线通信目的。在其他实施例中,通信部件152可适于与DSL(例如,数字用户线)调制解调器、PSTN(公共交换电话网)调制解调器、以太网设备和/或适于与网络通信的各种其他类型的有线和/或无线网络通信设备交互。
在各种实施例中,网络可被实现为单个网络或多个网络的组合。例如,在各种实施例中,该网络可包括互联网和/或一个或多个内联网、有线网、无线网和/或其他适当类型的通信网络。在另一个实例中,该网络可包括适于与其他通信网络(例如互联网)通信的无线电信网络(例如,移动电话网络)。如此,在各种实施例中,成像系统100可与具体的网络链接(例如作为实例的URL(统一资源定位器)、IP(网络协议)地址和/或移动电话号码)关联在一起。
图2A-B示出了根据本公开实施例的成像器阵列200的几种视图。成像器阵列200可用于例如实现成像系统100的图像捕获部件130。
如图2A的顶视图所示,成像器阵列200可包括传感器阵列202(例如,还被称为小透镜或光学元件)的阵列(例如,在一个实施例中是8乘6)。虽然图2A示出了48个传感器阵列202,但在其他实施例中可以使用任何期望数量的传感器阵列202。当在成像器阵列200中实现时,传感器阵列202可以是基本相同的尺寸。
如图2B的轮廓图所示,每个传感器阵列202都可包括多个传感器206(例如,还被称为像素、元件和传感器元件)和相关的透镜208。在一个实施例中,传感器206可被实现为未冷却的微测辐射热计传感器、InGaAs传感器或其他类型的传感器。在一个实施例中,通过使用分束器,不同的传感器阵列202可共享公共的孔径。例如,传感器206可被提供在底座210上。在一个实施例中,每个传感器阵列202都可包括传感器206的阵列(例如,在一个实施例中为80乘80)。在其他实施例中,可以使用任何期望数量的传感器206。在一个实施例中,成像器阵列200的所有传感器206可共同提供640列和480行像素。在一个实施例中,成像器阵列200可包括一个或多个读出集成电路(ROIC)以为处理和显示提供探测信号。
透镜208可被布置在传感器206的前面,并且间隔开一距离218。对于传感器206捕获的电磁辐射(例如,辐照度)的波段(例如,波长范围),透镜208可以是透射的,并且具有适当的折射率。在一个实施例中,透镜208可用光学器件F#1来实现。有利地,通过将多个透镜208与成像器阵列200一起使用(例如,而不是将单个透镜用于全部成像器阵列200),焦距、成像器阵列200的相关体积和光学器件尺寸可以允许摄像机或其他成像系统100的尺寸变小(例如,在一个实施例中变小一个数量级)。结果,与更大更重的常规成像器相比,成像器阵列200可被实现为紧凑的、重量轻的设备。如果需要,小尺寸的成像器阵列200还可以允许彼此紧密地布置多个成像器阵列200。
传感器阵列202可被定向,例如,基本上在平面中面向同一方向。对于远处的物体(例如,在一个实施例中大于50m),每个传感器阵列202可成像空间中的同一锥形,因此可用忽略不计的视差来捕获同一场景170的图像。这些图像可根据各种技术被成像系统100的适当部件处理以提供电磁辐射的图像。在一个实施例中,传感器阵列202可通过例如并排布置被彼此紧靠地布置,或者用相关的RGB图案或其他图案来布置为用于每像素滤波。
在一个实施例中,高分辨率(例如,超分辨)图像可通过处理由多个传感器阵列202捕获的图像来提供。就这方面而言,在各种传感器阵列202之间有一些已知的相移(例如,在一些实施例中,局部或全面相移非整数像素数)。在一个实施例中,由所选孔径(例如,衍射极限)的透镜208提供的光学分辨率可高于传感器阵列202的采样分辨率。
在一个实施例中,传感器阵列202的制造工艺可导致传感器阵列202的图像锥的随机指向差异。在另一个实施例中,传感器阵列202的高精确的制造工艺可允许实现精确的相对指向差异。在任一个实施例中,可使用适当的技术,由成像系统100来测量传感器阵列202捕获的图像(例如,还称为框架)之间的最终每像素相移。
通过将不同的高、低或带通波长滤波器应用于传感器阵列202,例如,用不同的涂层技术和/或滤波器,能够实现类似于拜耳图案的效果。大多数传感器阵列202可以被制造成使得它们能在宽光谱带内传输辐照度,从而在组合成单个图像时,它们会为大多数辐射敏感传感器阵列202实现最高空间分辨率。还可以以较低的帧速率(允许窄波段和低辐照度像素的较长整合时间)读出带通滤波的传感器阵列202,由此提供高分辨率和高灵敏度的多光谱成像(例如,用于中波红外成像或其他波段)。
传感器206可通过例如以网格形式提供的多个隔板204来使它们相互隔开。在一个实施例中,隔板204可以对传感器206的有效波段不透明。这样,隔板204可以阻挡传感器206的期望FoV之外的电磁辐射。就这方面而言,如图2B所示,经过角度φ传递的电磁辐射212和214(例如,视场角的一半)可被传感器206接收,但电磁辐射216会被传感器206阻挡,且不会被传感器206接收。以这种方式实现的隔板204可防止将场外的物体成像在相邻的传感器阵列202上。在另一个实施例中,自定义传感器可允许传感器阵列202的空间分离,以使场外的辐射不会影响邻近的传感器阵列202。
隔板204还可以为透镜208提供结构支架,尤其是在将成像器阵列200实现为真空封装而透镜208为真空封装提供窗口并接收与之相关的应力的实施例中。在一个实施例中,结合其相关隔板204的传感器206和透镜208的每个相关组可以有效地形成尺寸约为2mm乘2mm乘2mm的立方体状结构。
在一个实施例中,成像器阵列200可被实现为真空封装,其中透镜208有效地为真空封装提供窗口以及为整个成像系统100提供光学器件。结果,完整的摄像机或其他类型的成像系统可用更少的生产步骤和具有分离光学器件的常规摄像机来制造。而且,紧密接近的透镜208和传感器206可允许整个真空体积保持为与常规的未冷却的传感器差不多,而不需要额外的光学器件。
在各种实施例中,传感器阵列202可执行多光谱成像以选择性探测电磁辐射(例如,波段)的范围,例如,热辐射、长波红外(LWIR)辐射、中波红外(MWIR)辐射、短波红外(SWIR)辐射、近红外(NIR)辐射、可见光(VIS)和/或其他范围。就这方面而言,透镜208可包括适当的涂层,或者传感器阵列202可以配备有适当的滤波器,以过滤传感器206接收的电磁辐射。结果,不同的传感器阵列202可探测电磁辐射的不同的宽或窄频带。在一个实施例中,可探测至少五个光谱带(例如,从可见光到LWIR的范围,或其他范围)。
例如,在一个实施例中,传感器阵列202的组220可包括探测红可见光的滤波器,传感器阵列202的组222可包括探测绿可见光的滤波器,传感器阵列202的组224可包括探测蓝可见光的滤波器(例如,组220、222和224可提供RGB图案),和传感器阵列202的组226可包括探测NIR/SWIR辐射(例如,约700-1700nm)的滤波器。在其他实施例中,可提供其他配置、分组和探测范围。例如,不同的传感器阵列202可使用不同类型的传感器206来探测不同的波段(例如,InGAs传感器可用于探测VIS-SWIR波段,测辐射热计传感器可用于探测MWIR-LWIR波段)。
多谱成像可能比单波段成像具有巨大优势,并且可用于各种不同的应用中,例如使用多个传感器阵列202以改善功能和性能的地理感测、目标探测、目标、分类和目标跟踪。通过处理来自不同波段组合和不同相移传感器阵列202的图像,可以产生提供适当的空间分辨率、极佳低光性能和有关场景170的多谱信息的图像。
从NIR到LWIR的波段可表现出完全不同的特性,且大致适于在特定环境条件下的特定成像应用。诸如大气中的蒸气含量、粉尘或气溶胶中的颗粒尺寸和场景动态范围的因素可致使MWIR传感器阵列无效,但不会或仅非常有限地影响NIR或LWIR传感器阵列。而且,特定的材料可具有特定的光谱特征。通过使用多波段捕获场景,可以比较响应曲线和规范化的已知光谱响应的数据库。因此,成像系统100试图将材料分类。
表1确定了在配置为在LWIR波段中操作的实施例中的成像器阵列200的各种参数。
表1
特性
成像阵列 以8乘6矩阵布置的48个传感器阵列
成像阵列尺寸 16mm乘12mm
传感器阵列 80乘80矩阵的6400个传感器
传感器阵列尺寸 2mm乘2mm
传感器间距 25μm
焦距 2.5mm
F数 1.25
规范化的波长 10μm
有效FoV 44°
通风盘直径 1.22像素(第一最小值)
表2确定了在配置为在VIS-NIR波段中操作的实施例中(例如,使用能执行例如低至350nm的可见光波段中的扩展探测的InGaAs传感器)的成像器阵列200的各种参数。
表2
特性
成像阵列 以8乘6矩阵布置的48个传感器阵列
成像阵列尺寸 16mm乘12mm10 -->
传感器阵列 80乘80矩阵的6400个传感器
传感器阵列尺寸 2mm乘2mm
传感器间距 25μm
焦距 4mm
F数 2
规范化的波长 1300nm
有效FoV 28°
通风盘直径 0.25像素(第一最小值)
在一个实施例中,与许多现有成像设备相比,传感器阵列202可呈现出减小的尺寸。例如,每个传感器阵列202的滤波器或透镜涂层的使用,可在不需要使用大的外部光学器件或滤波轮的情况下,允许探测期望波带的光谱,因此减小了尺寸。
在一个实施例中,单个传感器阵列202可小于常规图像传感器。例如,在一个实例中,传感器阵列202中的一个阵列可呈现出与单个常规传感器阵列大约相同的表面面积。通过在每个传感器阵列202中提供透镜208,这种配置不需要以具有小间距传感器元件(例如,小于20微米)的常规高分辨率传感器(例如,大于640乘480像素分辨率)的方式限制衍射,其中光学器件的空间分辨率可设置用于常规传感器的绝对衍射极限。在一个实施例中,衍射极限可通过孔径的尺寸来设置。
成像器阵列200的各种特性可以以极大的优势应用于各种应用中。例如,在一个实施例中,成像器阵列200可被修改以支持中央凹成像。
就这方面而言,图2C-D示出了根据本公开实施例的成像器阵列230的几种视图。例如,成像器阵列230可用于实现成像系统100的图像捕获部件130。成像器阵列230包括不同尺寸的且具有不同焦距的多个传感器阵列202和232。就这方面而言,在更高的频率波段(例如,VIS-SWIR),在没有由光学器件限制的失真风险的情况下,可以使用较长的焦距。
如图2C的顶视图所示,成像器阵列230可包括传感器阵列202的阵列(例如,在一个实施例中为4乘6)。虽然在图2C中示出了24个传感器阵列202,但在其他实施例中,可以使用任何期望数量的传感器阵列202。
成像器阵列230还可以包括传感器阵列232的阵列(例如,在一个实施例中为2乘3)。虽然在图2C中示出了6个传感器阵列232,但在其他实施例中,可以使用任何期望数量的传感器阵列232。
如图2D的剖面图所示,每个传感器阵列232可以包括多个传感器236(例如,也被称为像素)和相关的透镜238。在一个实施例中,每个传感器阵列232可以包括传感器236的阵列。在各种实施例中,可使用任何期望数量的传感器236。透镜238可布置在传感器236的前面并间隔开一距离248。
如图2D所示,距离248可大于距离218。就这方面而言,传感器阵列232可以呈现出比传感器阵列202更大的焦距。
传感器阵列202和232可被定向,例如,基本上在一个平面中面向同一方向,并被配置为从场景170探测图像。可由成像系统100的适当部件根据各种技术来处理这些图像,以提供电磁辐射图像。
传感器232可通过例如以网格形式提供的多个隔板234来使它们相互隔开。在一个实施例中,隔板234可阻挡传感器234的期望FoV之外的电磁辐射。就这方面而言,如图2D所示,经过角度ρ传递的电磁辐射242和244(例如,视场角的一半)可被传感器236接收,但FoV之外的电磁辐射会被隔板234阻挡,且不会被传感器236接收。
在各种实施例中,传感器阵列202和232可以探测相同或不同范围的电磁辐射。就这方面而言,透镜208和238可包括相同或不同的涂层,或传感器阵列202和232可以配备有相同或不同的滤波器,以过滤传感器206和236接收的电磁辐射。
如图2D所示,传感器阵列202可呈现出比传感器阵列232更宽的FoV(例如,在一个实施例中为两倍大)。而且,与传感器阵列202的传感器206相比,传感器阵列232可以包括更多数量的传感器236(例如,在一个实施例中为四倍多)。
结果,传感器阵列202可捕获具有相对宽FoV和相对较低的分辨率的图像(例如,用于捕获低空间频率图像)。例如,可以通过不能支持与极高分辨率图像相关的带宽的低带宽连接,将这种低分辨率图像作为视频图像提供给远程查看人员。相比较而言,传感器阵列232可捕获具有相对窄FoV和相对高分辨率的图像(例如,用于捕获高空间频率的图像)。在一些实施例中,对于给定的FoV,这种配置允许传感器阵列232接收比传感器阵列202更多的辐射样本。就这方面而言,传感器阵列202和232可用来提供中央凹成像(例如,允许人或机器观察员监测场景170的宽FoV图像,并同时查看场景内170的详细的、较高空间分辨率的、窄FoV的图像)。
例如,可实现传感器阵列202和232以使它们的光学中心大致相互匹配。因此,由传感器阵列232提供的窄FoV图像,可在由具有较低的空间分辨率的传感器阵列202提供的宽FoV图像的中心中,提供高空间分辨率抽样。如果需要的话,这种实施例可允许中央凹成像,其中宽FoV图像被捕获(例如,使用传感器阵列202),同时也捕获窄视场图像(例如,使用传感器阵列232)以使场景170的精细的空间细节在期望时被解析。
在一个实施例中,可以组合并映射多个传感器阵列232,以在FoV的中心提供更高空间分辨率的网格。例如,可将四个传感器阵列232组合成采样率为高于一个单独传感器阵列232四倍的单一的窄FoV图像。
有利地,使用成像阵列230执行中央凹成像,可以避免与常规中央凹成像技术相关的各种限制,其包括例如大孔径光学器件,高成本制造,复杂性(例如,多视场光学器件),视差或其他限制。
虽然在本公开中对成像阵列202和传感器阵列200进行了各种参考,但是这种特征可通过适当的成像器阵列230和传感器阵列232来类似地提供。
在一个实施例中,为了最小化尺寸、复杂性、功耗和成本,可将传感器206实现为用于LWIR波段的未冷却的微测辐射热计传感器。如果与透镜208一起使用,则可将高通滤波应用于由这种传感器206提供的信号,以允许在MWIR波段中检测场景170中的静止目标。在一个实施例中,大光圈(例如,低F#)可用于接收足够的MWIR辐射以执行成像。
当将传感器206实现为LWIR传感器时,传感器阵列202的光学设计和配置会使衍射受限制。例如,图2E确定了根据本公开实施例的用于不同视场的衍射极限。在图2E中,传感器阵列202用间距为25μ(如通风盘第一极小值的直径所建议的)的80乘80传感器206的阵列来实现。如图所示,大约百分之五十的能量被包含在大小为通风盘一半的圆内。在一个实施例中,较大的传感器206(例如,像素)可以是期望的以提高灵敏度,并可允许传感器阵列202呈现出高于传感器分辨率的光学分辨率(例如,单个传感器206可欠采样场景170)。
图2F根据本公开实施例确定了作为波长的函数的通风盘尺寸。在图2F中,通风盘尺寸随波长线性增加(例如,对于F#约等于1的光学器件和间距为25μ传感器206而言)。
在另一实施例中,成像器阵列200可用于提供具有高信噪比(SNR)的图像。就这方面而言,常规热成像器(例如,尤其是使用微测辐射热计的未冷却的系统)通常会遭受高空间和时域噪声。这种噪声可能限制成像器探测辐照度中细微变化的能力。
不幸地是,增加信噪比的许多常规方法是不切实际的或过于复杂的。例如,直接影响信噪比的一个参数是单位时间能吸收的辐照度的量(例如,每单位面积的电磁辐射的功率)。在基于常规微测辐射热计的成像器中,传感器的表面积可至少部分地确定多少辐射可被收集。然而,增加单个传感器的尺寸可能会导致在相同尺寸的成像器中提供更少的传感器。这种方法可能会导致大幅降低空间分辨率(例如,由于较少的传感器),降低可靠性(例如,在传感器失效的情况下,由于较少的剩余传感器),和更高的成本(例如,由于较大的光学器件和特殊传感器的几何形状的复杂性)。
作为另一个实例,较大光圈的光学器件可用于每时间单位收集更多的辐照度以提高SNR。然而,这种方法可能需要增加重量和增大材料成本的更大的光学元件,且可能需要复杂的制造技术。
作为进一步的实例,可在模拟域中使用更高的增益信号放大器,以提高SNR。然而,当仍保持线性时,高增益可能难以实现。而且,由于可能在较低的辐照度水平达到模数(A/D)转换器的限制,因此高增益级可能会限制成像系统的动态范围。
作为另一个实例,图像数据的后处理(例如,数字化的信号)可以提高SNR。然而,这种处理可能会引入不必要的伪像,例如模糊,且不可能总能从实际的场景辐照度中分离出噪声。
与这种方法相比,通过使用多个传感器阵列202成像大致相同的场景170,成像器阵列200可以提供更好的SNR。就这方面而言,来自多个传感器阵列202的信号可以被组合,以提供与由单个传感器阵列202提供的图像相比呈现出更高信噪比的虚拟的传感器图像。
例如,图3示出了根据本公开实施例的获得具有期望信噪比的图像的过程。在方块302,多个传感器阵列202的传感器206可被映射到虚拟的传感器网格(例如,一组像素)。传感器阵列202可捕获场景170的图像(方块304)。
通过降低虚拟传感器网格的分辨率,可以实现一种改善的SNR,其与映射到虚拟传感器网格中的每个位置的积累信号大致成比例。例如,如果虚拟传感器网格的分辨率在垂直和水平维度上(例如,在被组合的所有传感器阵列202中的所有传感器206的数量)均是整个成像器阵列200的分辨率的四分之一(1/4),则虚拟传感器网格的每个像素可从多个传感器元件积累信号(方块306)。例如,在一个实施例中,每个虚拟传感器网格都可从16个传感器阵列202积累信号。由此产生的与虚拟传感器网格相关的图像(例如,结果图像)可能会呈现出比来自单个传感器阵列202的图像更高的SNR(方块308)。就这方面而言,如果随机噪声具有零均值,则虚拟传感器网格的噪声(例如,具有较低的分辨率)可能是来自传感器阵列202的真实信号的四分之一(例如,噪声可被减少为样本数的平方根)。
通过根据图3的过程降低空间和时域噪声,可改善成像器阵列200的探测范围。例如,这种改善可能对于监视摄像机而言是尤其有用的,所述监视摄像机用在诸如周边保护的应用中。
在另一实施例中,通过利用不同传感器阵列202之间的预定相移,可使用成像器阵列200来提供高分辨率图像。例如,图4示出了根据本公开实施例的使用传感器阵列202之间的相移来获得高分辨率图像的过程。在一个实施例中,图4的过程可使用超分辨率处理技术来实现。
传感器206和/或透镜208的相对位置的有意或无意产生的变化可能会导致不同的传感器阵列202从略有不同场景170捕获图像(例如,导致来自不同的传感器阵列202的图像之间相移的非相同位置)。超分辨率处理技术可用于将来自不同传感器阵列202的相移图像组合成单一的超分辨图像。例如,在一个实施例中,这种超分辨率处理可用于将约80乘80像素的低分辨率图像组合和转换成约320乘240像素的高分辨率图像,或者接近于光学器件的衍射极限。
例如,在图4的方块402中,不同传感器阵列202的透镜208可相对于彼此略微移动,以使每个传感器阵列202的光轴中心略微不同于另一个传感器阵列202。在一个实施例中,对于每个传感器阵列202,光轴上(例如,水平和垂直偏移)的这些差异可以相对于参考传感器阵列200被校准、测量和确定。这些操作可以在例如制造传感器阵列202时被执行(例如,因此消除了对复杂的和容易出错的实时光流计算的需要)。因此,虽然可布置面向同一场景170的传感器阵列202,但是可使由每个传感器阵列202接收的电磁辐射相对于由其他传感器阵列202接收的电磁辐射相移(例如,呈现出子像素的相移)已知量(方块404)。结果,可使每个传感器阵列202捕获的图像相对于其他传感器阵列202捕获的图像相移(方块406)。
因此,通过改变每个传感器阵列202的光轴的中心的校准,捕获的图像可以呈现出任意子像素的相移。对于遥远的场景170,在图像平面中,与空间分离相关的视差影响可忽略不计。
多个传感器阵列202所捕获的相移图像可以被组合和/或以其他方式处理,以提供比以其他方式提供的单个传感器阵列202所捕获的图像更高分辨率的图像(例如,结果图像)(方块408)。
有利的是,通过组合相移的图像(例如,在一个实施例中,在每像素水平上),可以实现更高的场景采样率。在一个实施例中,透镜208所提供的光学分辨率可高于传感器206的采样分辨率。在这种情况下,通过组合来自多个传感器阵列202的相移图像和应用适当的维纳滤波器或其他反褶积方法,所得到的图像可能会呈现出比单个传感器阵列202所提供的图像更高的分辨率(例如,在一个实施例中约为两到三倍高)。在一个实施例中,图4的过程可以自动执行。
在一个实施例中,可以组合图3和4的过程,以使成像系统100能以几个不同的模式运行。例如,在一个模式中,可根据图3的过程来提供具有低SNR的低分辨率图像。在另一种模式中,可根据图4的过程来提供更高分辨率的图像。在另一种模式中,可以同时执行图3和4的过程(例如,使用不同的过程,提供不同的结果图像)。如在特定应用中期望的那样,可以适当地组合本公开提供的其他过程。
在另一实施例中,成像器阵列200可用于提供立体成像(例如,立体视觉)。例如,图5示出了根据本公开实施例的配置为提供立体成像的成像器阵列200。
如所述,在某些实施例中(例如,在一个实施例中,距离大于50m的对象),由传感器阵列202之间的相对间距引起的视差可以忽略不计。然而,在另一个实施例中,这种视差可用于提供场景170的立体图像(例如,来自任意两个传感器阵列202捕获的单对图像的三维和/或深度成像)。
例如,在图5中,可在距成像器阵列200为短距离A的位置,将对象X布置在场景170中(例如,在一个实施例中小于约5m)。对象X可相对于透镜208B的光轴偏移距离B,并相对于透镜208C的光轴偏移距离C。在图5示出的实施例中,透镜208B和208C可具有约为2mm的焦距。
如图5所示,对象X的电磁辐射在与透镜208B的光轴成角度的位置可被透镜208B接收,在与透镜208C的光轴成角度的位置可被透镜208C接收。结果,当与透镜208B相关的传感器206B捕获场景170的图像时,对象X可能会从图像的中心偏离距离D1。然而,当与透镜208C相关的传感器206C捕获场景170的图像时,对象X可能会从图像的中心偏离不同的距离D2。
在一个实施例中,传感器206B和206C提供的不同的图像可用于例如以实时立体视频图像或静态立体图像的形式提供立体视觉。这种图像向用户提供了场景170中对象X的三维视图。
这种立体图像可以在各种应用中使用。例如,成像器阵列200可提供在危险环境中使用的热成像立方体中(例如由消防人员或其他应急人员提供),以提供危险环境的三维图像。这种图像可通过无线或有线从危险环境传输到用于观察的安全位置。
在另一个实施例中,多个传感器阵列202可被配置为从经由分布在设备外表面上的多个孔径接收的电磁辐射中探测图像,以提供可被投入或以其他方式引入到例如充满烟的危险环境中的坚固的探测器。这种装置可被配置为以无线方式传送图像(例如,红外、多光谱或其他图像)到非危险场所,以使用户能够安全地观看危险环境(例如,以360度的视场)。
在另一实施例中,成像器阵列200可用于提供冗余传感器阵列202,其不管在一个或多个传感器206中可能出现的缺陷而允许成像器阵列200提供高质量图像。就这方面而言,现代的高空间分辨率成像设备是昂贵、复杂的设备,且可能会受到严格的制造公差。事实上,对于许多成像设备,成像器(例如,探测器)可能是单一最昂贵的部件。具有小尺寸(例如,小像素间距)的微测辐射热计热成像微机电系统(MEMS)装置可具有特别难以不断满足的生产参数。例如,这种生产参数包括:洁净室规格、生产设备、工艺重复性、原材料纯度、完成零件的手工处理以及其他参数。任何生产参数的变化都可能会导致产量下降(例如,由于有缺陷的设备),这增加了每个规范设备的整体成本。
尤其是对于热成像设备,生产中的缺陷可能会导致任意数量的非操作性传感器。对于高分辨率的设备,例如具有640乘480个传感器或更多传感器的设备,生产100%可操作性的设备可能是困难的(例如,其中,在所有操作条件下每个像素都在规范内操作)。
结果,成像设备的生产者(例如,制造商)可以指定一些最大数量的非操作性像素。例如,生产者可以设置可允许的有缺陷像素数为所有像素的0.1%,或可以限制在图像的中心中的有缺陷像素的数量为小数目,但在图像的外围部分中允许存在较大数量的有缺陷像素。作为另一个实例,生产者可以限制可允许的严重缺陷,例如完全有缺陷的行或列的数量。特别是,置换来自两个或多个相邻行或列的值是困难的。因此,生产者一般会抛弃或丢弃包括相邻的有缺陷行或列的或有缺陷像素集群的设备。
对于有缺陷像素的大型集群,常规校正技术往往是无效的。而且,在其他较低分辨率的产品中,再利用具有有缺陷像素的设备往往是不现实的。
图6A示出了根据本公开实施例校正成像器阵列200中的有缺陷像素(例如,传感器206)的过程。可以检测一个或多个有缺陷的传感器206(方块602),并且可以识别包括有缺陷的传感器206的成像器阵列200的对应传感器阵列202(方块604)。在各种实施例中,可以在成像器阵列200的制造和测试期间,或者在该领域中的成像器阵列200的后续操作期间,执行这种检测和识别。
例如,图6B和6C分别示出了由12个传感器阵列202(例如,传感器阵列202的子集)捕获的各种图像622和632的组620和630。如图6B所示,其中一个图像622包括有缺陷像素624的集群,其在很大程度上掩盖了有缺陷图像示出的信息。就这方面而言,一个传感器阵列202中的传感器206的集群是有缺陷的,并且不能提供捕获场景的可用图像数据。还如图6B所示,其余十一个图像622不包括有缺陷的像素,并利用具有工作传感器206的传感器阵列202来提供。
在图6C中,三个图像632包括有缺陷像素634的各种集群,其跨越多个行和列,并在很大程度上掩盖了三个有缺陷图像示出的信息。还如图6C所示,其余九个图像632不包括有缺陷的像素,并用具有工作传感器206的传感器阵列202来提供。
有利的是,传感器阵列202可以捕获同一场景170的至少部分冗余图像。结果,成像系统100可以忽略由具有有缺陷传感器206的传感器阵列202提供的有缺陷的图像,或者利用来自其他传感器阵列202中的工作传感器206的适当的图像数据来校正有缺陷的图像或像素(方块606)。结果,成像系统100可以提供校正的图像(例如,结果图像),其包括用适当的图像数据填满的所有有缺陷像素(方块608)。
而且,在不同传感器阵列202呈现出略有不同的光学对准和局部失真的实施例中,由不同传感器阵列202提供的图像可以不完全相同。这种差异可允许使用插补技术来校正有缺陷的图像数据。
在另一实施例中,可在不使用快门的情况下对成像器阵列200进行校准。在MWIR和LWIR波段的红外摄像机对热辐射敏感。与被构造成使得可见光仅可通过光学器件进入的可见光频谱摄像机不同,热摄像机可由热摄像机内部的源产生红外辐射。例如,电子器件可产生大量的红外辐射(例如,辐照度)。不幸的是,来自非被成像场景的这些辐射源,仍然可通过红外摄像机传器来测量(来自热摄像机内部的热源的红外辐射可反射出成像器内的表面并最终由红外摄像机传感器探测到)。
补偿冷却的和未冷却的热成像器的这种内部红外辐射的常规方法是进行平场校正(FFC)。就这方面而言,场景的探测可以通过在光通路中插入不透明物体(例如,快门)而被暂时挡住(例如,假设当光路阻塞时,由传感器测量的信号保持不变或几乎恒定)。通过在光路阻塞时(例如,固定模式噪声(FPN))测量传感器探测的信号,并且用在光路未阻塞时探测的信号减去这种信号,可以提供只包括场景信息的图像。
不幸的是,这种常规方法通常涉及使用移动的快门,这可能会增加成像系统的复杂性和成本,并可能会危及可靠性。而且,用快门执行的校准可能会暂时使成像系统看不到场景。此外,具有恒定的、均匀的温度单一快门不允许增益校准(例如,仅偏移校正),这可能会导致图像伪像,特别是对于高动态范围场景而言。
补偿这种内部红外辐射的另一种方法是执行信号处理,例如依赖于两个或两个以上视频帧之间比较的基于场景的非均匀校正(SBNUC)处理。如果有一些帧间运动(不管是由于成像器相对场景移动或场景中的一些物体移动),在一个传感器元件位置测量的辐照度可以与在另一个视频帧中的另一个传感器元件位置测量的辐照度相比较。假设场景辐照度保持恒定,则认为对于场景中的指定点,所有传感器元件应该测量到相同的辐照度水平。如果测量到不同的辐照度水平,则可被解释为是使图像损坏的场外辐照度的结果(例如,FPN)。
不幸的是,这种SBNUC方法通常需要一些已知为一定精度的帧间运动。例如,运动可以是基于图像的(例如,基于场景信息计算)或是非基于图像的(例如,基于外部运动传感器计算,例如MEMS陀螺仪)。不幸的是,当场景动态范围小和/或FPN的量大时(例如,在SNR差时),基于图像的运动估计方法往往会失败。当存在场景变形或内部场景运动时(例如,相对于场景移动的人或汽车),非基于图像的运动估计方法往往会失败。
成像器阵列200可以使用上述方法的若干替代方法来进行校准。例如,依赖于传感器206和其相关ROIC的精密特性,传感器阵列202可以同时或基本同时捕获同一场景170的多幅图像。
例如,在有48个传感器阵列202的实施例中,基本上可同时捕获场景170的48幅图像。在光学特性期间,能够准确确定每个传感器阵列202中的哪些传感器206对应于其他传感器阵列202中传感器206。由对应传感器206探测的独立信号(例如,数据)的平均值或中值(例如,对应于场景中的单个点),可用于校正所有对应传感器206。这种方法可用在于任意差的SNR条件下,不需要成像器或场景运动,不需要移动部件,且不受帧场景变形的影响。因此,对于降低FPN的常规方法,这种方法有明显的益处。
图7A示出了根据本公开实施例校正成像器阵列200的传感器206过程。有利的是,图7A的过程可以在不需要移动快门和不需要掩盖来自成像器阵列200的视图的场景170的情况下进行。在一个实施例中,根据传感器阵列202的设计、制造和装配的重复性和准确性,能够确定一个传感器阵列202中的哪个传感器206对应于其他传感器阵列202中的其他传感器206(例如,对应于场景170的同一坐标或像素)。然而,如果存在一些生产变化,则可测试每个传感器阵列202以确定这种对应关系。
就这方面而言,传感器阵列202可用于成像具有已知图案的且位于足够远处以使视差可忽略不计的目标(例如,场景170)。例如,瞄准仪可用于在无限空间处产生目标。
单个传感器阵列202失真系数702可识别单个传感器206与全局场景坐标空间之间的偏移量。在一个实施例中,全局场景坐标空间可以以与单个传感器阵列的分辨率相同的分辨率被分成离散场景坐标(例如,场景像素)。在一个实施例中,全局场景坐标空间可对应于主传感器阵列202。
因此,可以相对于由全局场景坐标空间提供的理想场景映射来表达失真系数。例如,失真系数可被表示为相对于全局场景坐标空间的垂直和水平偏移值。例如,失真系数702可被存储到在成像器阵列200上或成像系统100中提供的非易失性存储器中。
如果打算将成像器阵列200用于足够小的对象距离从而视差影响可能会使失真系数702无效,则根据方块705中的视差补偿过程,可以使未校正的数据701或失真系数702可选地偏移一适当的视差补偿值,。就这方面而言,因为每个传感器阵列202的光学中心之间的距离可以是已知的,因此根据常规技术可容易地测量视差影响。因为视差影响对于近处的物体更强,方块705中的视差补偿过程可以接收来自方块703的视差估计过程的或来自距离传感器704(例如,激光测距仪)的成像器阵列200和场景170之间距离的测量或估计。
可选择地,方块703中的视差估计过程可以分析每个传感器阵列202捕获的图像,并匹配共同特征。例如,可以使用常规角探测特征提取过程。作为另一个实例,块匹配可用于测量视差的量。如果透镜208的焦距是已知的并且它们的光学中心之间的距离是已知的,则从每个传感器阵列202到场景170的距离与视差成比例。
如果多个特征(例如,角)匹配,则可以计算多个局部视差估计。这些估计可以被平均以提供更准确的平均场景的距离,或可局部插补它们,以提供具有空间变化视差的局部距离映射。由于视差而观察到的物体的位移可用于修改方块705的视差补偿过程中的失真系数。
在一个实施例中,方块705的视差补偿过程可通过将图像从传感器阵列202映射到超分辨率网格上的位置来执行(例如,使用适当的处理或光学器件)。例如,可通过在所有传感器阵列202中测量场景170的可见非闭塞对象的位置或通过使用适当的外部距离测量装置,来估算与指定传感器阵列202相关的视差量。
在方块706,例如,可使用正向变换,通过应用失真系数702(例如,用于视差补偿的可选地进一步偏移)将传感器阵列202的每个传感器206捕获的未校正数据701(例如,信号、样本或数据值,如像素值),映射到全局场景坐标空间。在一个实施例中,例如,通过选择中心最匹配对应传感器206的中心的场景坐标,可将每个传感器阵列202的每个传感器206(例如,和其对应像素)映射到场景坐标空间的对应坐标。还可以使用适当的插补技术(例如,使用最接近的领域逼近或其他技术)以将每个传感器206映射到对应场景坐标(例如,如果精确的整数匹配是可用的)。
对于每个场景坐标,采样值(例如,探测数据)可由每个传感器阵列202的一个对应传感器206积累,以为每个场景坐标提供积累值(块707)。例如,在一个实施例中,可以提供48个传感器阵列202。因此,可以为每个场景坐标积累48个采样值(例如,每个值都由每个传感器阵列202中的对应传感器206提供)。
在一个实施例中,由于局部失真可以使得特定传感器206成像的位置不是传感器阵列202集体组的公共FOV的一部分,所以一些传感器阵列202的一些传感器206可以不被映射到场景坐标。
在一个实施例中,可以为每个场景坐标确定参考(例如,“校正”)场景辐照度(例如,数据值),且其可以是由传感器阵列202的对应传感器206探测的平均采样值(例如,采样的辐照度水平)。例如,通过将场景坐标的积累值除以映射到场景坐标的传感器206的数量,可以计算场景坐标的平均值。当下一图像帧的采样值可用时,为了防止改写积累值,在方块707中可以使用两个累加器,一个累加器被写入,而另一个累加器用于计算方块708中的偏移校正项(例如,值),如将要描述的那样。
在方块708,可以为所有传感器206计算偏移校正项(例如,值)。例如,如果有MxN个传感器阵列202,且每个阵列202有RxC个传感器206,那么总共有MxNxRxC个偏移校正项。
在一个实施例中,可通过得到对应于特定传感器206的场景坐标的平均采样值和由特定传感器206探测的实际采样值之间的差异,来计算特定传感器206的偏移校正项。偏移校正项可被存储在偏移校正项映射中(方块714)。
而且在方块708,可以确定一组增益校正项。例如,在时间T0捕获的一组(例如,图像帧)未校正数据可以被存储并且与在时间T1捕获的另一组相比较。
对于任一个传感器206,如果在时间T0和T1捕获的数据值的差异明显大于预期的噪声,则可以确定辐照度已经增加或减少了。这种差异可独立于任何偏移误差。
通过比较测量来自场景170中同一位置的辐照度的所有传感器206的这些差异(例如,对应于同一场景坐标的所有传感器),可以确定每个传感器206的增益项,以使传感器206相对响应性被彼此(例如,假定FPN在时间T0和T1之间没有显著改变)规范化(例如,同等)。增益项可在方块712被存储。
例如,可以计算在时间T0的场景坐标的采样传感器值的平均值V0,并将其存储在存储器中。在稍后的时间T1,可以计算并存储呈现出辐照度变化的同一场景坐标的平均值V1。该场景坐标可被映射到每个传感器阵列202的对应传感器206(例如,使用本文中进一步描述的逆失真系数)。如果精确映射不可用,则可以选择最邻近的相邻传感器206,或者可以使用适当的插补技术。
平均值之间的差D(D=V1–V0)可表示关于场景170中辐照度变化的平均响应。如果v0和v1表示由特定传感器阵列202中的特定传感器206测量的辐照度,则差d(d=v0–v1)可表示关于特定场景170中辐照度变化的特定传感器206的响应。因此,特定传感器206的增益校正项可以为D/d。例如,如果D=10且d=20,则单个传感器206在响应性方面可以是所有对应传感器206的平均值的两倍,困此可用0.5的增益来调整单个传感器206的增益,以使其响应标准化。
在一个实施例中,图7A的过程可被迭代地执行,以使这种偏移校正项714可被重复更新。就这方面而言,可以通过使用先前存储的偏移校正项和重新计算的偏移校正项的加权平均来计算衰减偏移项,使用可选的衰减过程(方块713)来抑制偏移校正项的变化速率。就这方面而言,使用方块713的过程可以抑制偏移校正项和增益校正项,由此减少了具有很强的梯度的场景170中的显著样本值差异的影响,该很强的梯度是由于例如对粗粒度传感器阵列202的不完美建模的失真影响。
如图7A所示,在方块709,可将增益项712应用于未校正数据701。可将偏移校正项714应用于增益调整的未校正数据701(方块710),以提供校正数据711。校正后的数据711还可以被用于方块703中的视差估计过程。
在一个实施例中,图7A的过程可以是图7B中确定的更普通过程的最邻近的领域逼近。就这方面而言,图7B示出了根据本公开实施例校准成像器阵列200的传感器206的另一个过程。与图7A类似,图7B的过程也可以在不需要移动快门和不需要掩盖来自成像器阵列200的视图的场景170的情况下进行。
图7B的过程中,可以将每个传感器阵列202的传感器206探测的数据值与由对应于场景170中同一位置的其他传感器阵列202的传感器206探测的一个或多个数据值相比较。数据值之间的差异可以被积累以提供偏移校正项。在一个实施例中,其他传感器阵列202的传感器206的数据值可通过在一些最邻近近邻传感器206之间执行插补来确定。
可将未校正数据701提供到帧缓冲器(方块721),并传输到方块706,在方块706中,使用失真系数702,以先前关于图7A描述的方式来映射未校正的数据701。这样,可以使用失真系数702将每个传感器阵列202的每个传感器206映射到对应的场景坐标。
另外,可以利用逆失真系数727(例如,也被称为反向失真系数)将每个场景坐标映射(例如,又称为反向变换)到每个传感器阵列202中的对应传感器206。例如,在一个实施例中,在48个传感器的各个传感器阵列202中,可将每个场景坐标映射到48个不同的单个传感器206。因此,在该实施例中,为了将每个场景坐标映射到对应的传感器206(方块726),可以为每个场景坐标提供48组逆失真系数727(例如,每组都包括水平系数和垂直系数)。
适当的插补技术(例如,使用多个最邻近近邻的线性组合或其他技术)也可以用于将场景坐标映射到每个传感器阵列202中的对应传感器206(例如,如果精确整数匹配不可用),以及确定与对应传感器206相关的样本值。例如,通过例如四个最邻近的逆失真系数727的双线性插补,可以将指定传感器阵列202的每个传感器206映射到其他传感器阵列202的位置(例如,对应的传感器206)。
因为相对于其他传感器阵列202的其他传感器206,传感器206之间的失真(例如,偏移)是恒定的,因此,例如,从第一传感器阵列202中的第一传感器206到其他传感器阵列202中的其他对应传感器206的映射(例如,使用映射第一传感器206到场景坐标的失真系数702,和使用映射场景坐标到其他传感器阵列202的对应传感器206的逆失真系数727)可以被预先计算并存储在每个传感器206的表中。因此,使用在方块726确定的映射,可以将每个传感器阵列202的每个传感器206映射到其他传感器阵列202的对应传感器206。
在方块734,可以比较每个传感器206的采样值与所有其他映射的对应传感器206的采样值。可以累积每个传感器206的采样值和其对应的映射传感器206的采样值之间的差异(方块734)。积累的差异可用于以图7A中描述的方式在方块708计算偏移校正项。
如图7B所示,可以在如图7A所述的方块708、709、710、712、713和714中执行额外的处理以提供校正的数据732。在各种实施例中,可以自动执行图7A和7B的处理。
在另一实施例中,成像器阵列200可用于执行气体检测。许多气体在可见光中是透明的。这些透明气体中的一些可能对人类直接有害,或者可对环境有短期或长期的负面影响。因此,检测这种气体的排放是重要的。
然而,用于气体检测的常规多光谱系统往往是复杂的和昂贵的。他们往往需要将多个探测器布置在具有反射镜和滤波器的复杂的系统中,其可能是大尺寸的、重的,并对冲击和振动敏感。而且,人类便携式多光谱系统通常在同时可探测波段的数量上也有限。
存在着各种常规气体排放检测技术。例如,在一个方法中,可以测量包含气体的系统的压力,并通过压力的减少可检测气体泄漏。然而,这种做法仅在压力保持恒定且气体泄漏显著时好使,因为很难确定压力变化是由于气体泄漏、正常操作还是环境变化(例如温度升高)引起的。而且,如果包含气体的系统大(例如,长管),也很难找到泄漏的确切位置。
对于一些气体,传感器可用于检测气体的存在,例如用于检测丙烷或天然气泄漏的常规的“嗅探器”。然而,这种传感器通常不适于远程监控,因为它们通常必须与被检测的气体直接接触。
在另一种方法中,使用检测一个或多个气体吸收带(例如,光谱波段)中辐照度的传感器,可以远程地感觉气体。例如,图8A示出了作为气体波长函数的传输率,图8B示出了大气条件下作为波长函数的通过大气的传输率。
对于具有LWIR波段中的吸收带的气体,可以使用带通滤波器。例如,可以调整滤波器,以使其与气体的吸收带紧密匹配。带通滤波器可以将可由传感器测量的辐射量减少到不存在带通滤波器的条件下应该测量的辐射量的百分之几。如果存在气体,则它可以吸收大量的总辐照度,且当它闭塞图像的背景时(例如,导致背景信号的损失),查看传感器提供的图像的操作者能够检测气体。
然而,为了使这种方法有效,气体吸收的一个或多个窄波段必须构成传感器测量的总辐射的很大一部分。例如,对波长在7-13μm范围内的电磁辐射敏感的红外传感器,检测气体的吸收带可以仅表示在典型成像条件下传感器检测的总辐照度的百分比的一小部分。结果,对传感器来说,气体似乎是透明的,因为气体后面的场景中的其他物体的大多数可用信号没有被气体吸收。
为了提高这种传感器的灵敏度,可以提供包括气体吸收带的窄带通滤波器。在这种情况下,气体可以在使气体易于检测的窄带中,吸收很大比例的电磁辐射(例如,可在气体存在时捕获的图像和气体不存在时捕获的图像之间具有更大的相对差异)。然而,这种方法可需要传感器高度响应。例如,如果由于带通滤波器丢失百分之95的信号,那么该传感器可需要有20倍以上的灵敏度来使场景保持逼真。这种高度灵敏的传感器需要极高性能的成像系统(例如,在红外波段,这种系统可以使用具有大口径光学器件的低温冷却的传感器)。结果,这种系统可能比未冷却红外系统的价格贵两个数量级,可能具有使它们适于电池操作的显著功率要求,可能比未冷却系统更大和更重。
而且,一些材料(例如,不同于气体)可具有匹配的被检测气体的光谱特性的光谱特性,以致这些材料的辐照度主要落在气体吸收带内。这可导致虚假警报。例如,一些表面例如涂绘表面或金属,可发出波带匹配气体吸收带之一的非常小的信号。减少这种虚假警报的一种方法是,测量匹配气体多个吸收带的多个光谱波段中的辐射。这可通过设计在多于一个的频带中具有显著传输的频谱滤波器来实现。然而,这会使滤波器的设计复杂化,并限制了它的效率(例如,由传输到传感器的辐照度的百分比所衡量的)。减少这种虚假警报的另一种方法是时隙多路复用具有不同光谱带的多个滤波器(例如,通过使用旋转滤波轮和单一检测器)。
然而,这种方法可能需要配准图像来补偿成像器或场景运动(例如,当成像非静态场景,或当成像器被手持或以其他方式运动时,可能引入未对准)。另外,这种方法只允许由滤波器轮旋转的周期设定的短的积分或曝光时间。
图8C示出了根据本公开实施例的执行气体检测的过程。如所讨论的,不同传感器阵列202可以检测电磁辐射的不同宽或窄的频带(例如,波长范围)。因此,可提供对应于不同频带的传感器阵列信号801(例如,响应检测的电磁辐射,由各种传感器阵列202提供的信号、样本或数据值,例如像素值)。在一个实施例中,一些传感器阵列202可被配置为检测电磁辐射的宽光谱波段(BSB),其他传感器阵列202可被配置为检测电磁辐射的窄光谱波段(NSB)。例如,NSB可以大致匹配已知气体(例如,如图8A所示)的一个吸收波段(例如,波长范围)。在一个实施例中,NSB可包括各种波段的全部或部分,例如热辐射、LWIR辐射、MWIR辐射、SWIR辐射、NIR辐射、可见光(VIS)和/或其他范围。在一个实施例中,BSB可能包括波段高于这种NSB的波段。
与BSB或NSB传感器阵列202相关的透镜208,可被涂覆或以其他方式滤波,以反射它们各自频带外的大部分电磁辐射。因此,传感器阵列信号801可以包括对应于BSB电磁辐射的一些信号和对应于NSB电磁辐射的一些信号。
在方块802,处理传感器阵列信号801以确定它们是对应于BSB传感器阵列还是对应于NSB传感器阵列。就这方面而言,对应于BSB传感器阵列信号的样本被传送到方块803,在那里,该样本被映射到全局BSB场景坐标空间。就这方面而言,例如,通过选择中心最匹配对应传感器206的中心的场景坐标(例如,像素),可以将每个传感器206和其每个BSB传感器阵列202的对应像素映射到BSB场景坐标空间的对应坐标。对应于NSB传感器阵列信号的样本被传送到方块804,在那里,该样本被映射到全局NSB场景坐标空间。就这方面而言,例如,通过选择中心最匹配对应传感器206的中心的场景坐标,可以将每个传感器206和其每个NSB传感器阵列202的对应像素映射到NSB场景坐标空间的对应坐标。
在方块805,可以比较由用于特定场景坐标的BSB传感器阵列202提供的映射样本(例如,像素值)与由用于同一场景坐标的NSB传感器阵列202提供的映射样本(例如,像素值)。例如,在一个实施例中,NSB可以是BSB的子集。在这种情况下,如果BSB传感器阵列202测量的辐照度的约百分之五归属于NSB电磁辐射,则可以预见的是,由用于特定场景坐标的NSB传感器阵列202提供的信号可以对应于由用于同一场景坐标的BSB传感器阵列202提供的信号的约5%。
因此,如果由NSB传感器阵列202提供的映射样本值接近于零,或至少远低于由用于同一场景坐标的BSB传感器阵列202提供的映射样本值的百分之五,则这些值可以表明,在场景坐标存在气体(方块807)(例如,在场景坐标,气体吸收了NSB电磁辐射)。可通过使用BSB和NSB传感器阵列(方块806)的光谱传输数据,处理映射的样本(方块808),来表明在场景坐标存在气体,以提供图像809(例如,结果图像),即,例如,在对应于确定气体的场景坐标增强亮度或带有颜色。
在另一个实施例中,不同NSB传感器阵列202可以检测不同窄频带中的NSB电磁辐射。例如,第一组的一个或多个NSB传感器阵列202可以检测第一窄频带中的NSB电磁辐射,第二组的一个或多个NSB传感器阵列202可以检测不同于第一窄频带的第二窄频带中的NSB电磁辐射。还可提供与其他窄频带相关的附加组的NSB传感器阵列202。
可以使用指向不同NSB的不同NSB传感器阵列202来高精度检测气体。例如,不同NSB可与同一气体的不同吸收带有关。因此,通过在图8C的过程使用这种不同NSB传感器阵列202,可以比较由BSB传感器阵列202提供的样本值(例如,信号强度)与由用于不同NSB的不同NSB传感器阵列202提供的样本值。因此,如果气体具有多个吸收带,则使用不同NSB检测这种频带可增加气体检测的准确性,并减少错误检测的可能性(例如,由于多种气体或材料共享相同或相似的吸收带)。
在另一个实施例中,一个或多个NSB传感器阵列202可以探测匹配多种气体吸收带的多个窄频带中的NSB电磁辐射。在这种情况下,可以检测具有不同光谱特性的多种气体。
而且,可如期望地结合使用NSB传感器阵列202的任何描述的方法。例如,一个或多个NSB传感器阵列202可用于检测用于单一气体或不同气体的多个NSB。有利的是,NSB传感器阵列202的使用可使多种类型的气体能用单个成像器阵列200来检测。
在各种实施例中,可将成像器阵列200的特性应用于其他实现。例如,图9A示出了根据本公开实施例的包括多个传感器阵列902/912和分束器901的成像器阵列900。例如,在一个实施例中,传感器阵列902可包括传感器906(例如,InGaAs传感器)和由LWIR摄像机提供的透镜908,并且传感器阵列912可包括传感器916(例如,InGaAs传感器)和由VIS/NIR摄像机提供的透镜918。就这方面而言,如果例如没有对所有感兴趣的波段敏感的、可用的合适探测器材料,则可以在示例的实施例中使用两种摄像机。有利的是,可在不需要相关冷却设备的额外重量和尺寸的情况下,实现LWIR和VIS/NIR摄像机。
如图9A所示,场景170的电磁辐射可以通过共用孔径903到达分束器901,其通过或反射电磁辐射到传感器阵列902和912。分束器901和共用孔径903的使用可使两个摄像机之间的视差最小。虽然在图9A中只确定了两个传感器阵列902/912,但应该意识到,可以使用任何期望数量的传感器阵列902/912或摄像机。
由于传感器阵列902和916之间的相移可用于提供各种特性(例如,根据本公开中描述的实施例),传感器阵列902和916不需要彼此精确对准。这减少了在该实施例中对复杂的轴线校准过程和机构的需要。
图9B示出了根据本公开实施例的包括多个摄像机922的成像器阵列920。在该实施例中,单个摄像机922可用于代替单个传感器阵列202。虽然在图9B中只确定了两种摄像机922,但应该意识到,可以使用任何期望数量的摄像机922。
与对可见光波段敏感的成像器相比,对红外波段的辐射敏感的成像器通常只有少量的传感器。这是出于各种原因,例如,通常用于红外辐射的是较大孔径的光学器件和较大的传感器元件,以及用于红外光学器件的材料(例如,硅和锗)的成本。
在一个实施例中,可以使用人工神经网络(ANN)根据传感器阵列202提供的低分辨率图像来估算高分辨率图像。例如,这种高分辨率图像可用于,例如目标跟踪或其他应用。
ANN可用于实现非线性分类过程,其中可将低空间频率信号(例如,捕获场景的低分辨率像素值)之间的非线性的、依赖场景和依赖波长的关系映射到对应的高空间频率信号(例如,存储在先前以高分辨率成像的场景数据库中的高分辨率像素值)。例如,可实现一个或多个这种ANN,以执行可适于硬件(例如,使用数字电路、模拟ROIC电路或其他电路)或软件实现的径向基函数(RBF)处理技术。
在一个实施例中,ANN可包括独立人工神经元(例如,对大脑进行模拟),其可通过在完全并行的体系结构中用独立的处理器来实现。在这种情况下,所有这种处理器可被配置为在几个时钟周期内同时访问数据并提供输出数据。
图10示出了根据本公开实施的使用ANN提供高分辨率图像的过程。例如,在一个实施例中,该ANN可通过成像系统100的适当的处理器、存储器和机器可读指令来提供。
在方块1002,成像系统100捕获场景170的期望类型的高分辨率瞄准图像。例如,成像系统1002可以使用单独的高分辨率成像器阵列,或可为高分辨率操作配置成像器阵列200(例如,通过使用所有的传感器阵列202作为单一传感器阵列)。在一个实施例中,在方块1002执行的瞄准可被非迭代地执行,可大大提高增强在线性能的实时可能性(例如,连续场景学习)。
例如,高分辨率瞄准图像可存储在成像系统100的适当存储器中、本地或远程数据库或任何其他所需位置。因此,成像系统100可访问场景170的特定类型的一组高分辨率瞄准图像(例如,学习的“字典”),场景170随后可由成像器阵列200的低分辨率传感器阵列202成像。
在方块1004,成像系统100使用低分辨率传感器阵列202捕获特定场景170的一个或多个低分辨率图像。在方块1006,成像系统100处理低分辨率图像的单独的像素(例如,根据RBF技术使用ANN),以确定从每个像素到一个或多个高分辨率瞄准图像的至少一部分的映射。
在一个实施例中,为了在方块1006中增加精确像素映射的可能性,方块1004中成像的场景应该是至少类似于在方块1002中成像的场景。例如,如果场景显著不同,那么成像系统100可将低分辨率场景图像标记为无效。
在方块1008,成像系统100用映射的高分辨率瞄准图像取代低分辨率图像的像素,以提供最终的高分辨率图像(例如,结果图像)。
在一个实施例中,类似或好于将可用的常规单孔径成像器,图10的过程可允许将低分辨率图像转换为高分辨率图像。例如,在一个实施例中,图10的过程可将约80乘80个像素的低分辨率图像转换为高分辨率图像。
而且,因为图10的过程不需要计算每个像素光流,所以在芯片(SoC)上自定义系统装置的可用处理内,可保持合理和良好计算负担。
在另一实施例中,图10的过程可根据各种替代的工艺步骤进行修改。例如,在方块1002,也可以提供低分辨率瞄准图像(例如,高分辨率瞄准图像的低分辨率版本)。在一个实施例中,高分辨率瞄准图像可由高分辨率传感器阵列(例如,传感器阵列232)来捕获,低分辨率瞄准图像可由低分辨率传感器阵列(例如,传感器阵列202)来捕获。
使用不同的传感器阵列232和202,可基本上同时捕获这种高和低分辨率瞄准图像,其中高分辨率瞄准图像可具有包含在低分辨率瞄准图像的宽FoV的成像锥内的窄FoV。例如,如果由两倍ρ角确定的图像锥在由两倍φ角确定的图像锥内(参照2D),并且传感器阵列202和232提供的图像被准确地映射到共同的场景坐标空间,则低分辨率瞄准图像可直接由传感器阵列202捕获的图像来提供(例如,如果低分辨率是高分辨率的一半,则成像阵列232的8乘8个像素可被表示为成像阵列202的4乘4个像素)。
在另一个实施例中,可使用具有不同光学器件的相同传感器阵列,来捕获高和低分辨率瞄准图像以提供不同的窄和宽FoV。在另一实施例中,可在不同的时间,使用能使用至少两个不同放大率设置(例如,不同变焦位置)的单一光学器件,来捕获高和低分辨率瞄准图像。在另一实施例中,低分辨率瞄准图像可通过模糊高分辨率瞄准图像并以低分辨率密度重新采样来产生。
方块1002中提供的高和低分辨率瞄准图像,在存储在数据库中之前,可被分离成多个子图像。例如,在一个实施例中,每个低分辨率瞄准子图像可提供8乘8个像素。同样在方块1002,低分辨率瞄准子图像可被映射到其对应的高分辨率子图像。
在方块1006,低分辨率图像(例如,方块1004中捕获的非瞄准图像)可分离成多个子图像,并且子图像可以映射到预先存储的低分辨率瞄准子图像。例如,在一个实施例中,这种映射可基于由非瞄准低分辨率子图像的像素值定义的矢量和由瞄准低分辨率子图像的像素值定义的矢量之间计算的欧几里得距离。
同样在方块1006,已映射到非瞄准低分辨率子图像的低分辨率瞄准子图像,可用于识别高分辨率子图像(例如,先前在方块1002映射到低分辨率瞄准子图像)。结果,确定的高分辨率子图像可用于代替方块1008中的非瞄准低分辨率子图像,以提供高分辨率图像(例如,结果图像)。
在其他实施例中,可将与运动无关的、基于样本的或单一图像超分辨率处理技术用于成像器阵列200。例如,这种技术可依赖于高分辨率图像(例如,样本)的学习的数据库(例如,字典),超分辨结果图像的质量(例如,由峰值信噪比(PSNR)测得的)在很大程度上取决于数据库和成像场景170的图像之间的相似性。因此,如果数据库中的高分辨率图像是实际成像场景170的图像,则使用这种技术获得的结果图像的质量可以被改善。
根据各种实施例,为了能在各种其他应用中使用,可以使用和/或更改成像器阵列200。例如,在一个实施例中,成像系统100可处理由各种传感器阵列202提供的图像,以同时向用户提供图像,以及执行序列相关(signaturecorrelation),从而执行例如激光瞄准、自动目标检测与跟踪或其他操作。
在其他实施例中,成像器阵列200可用于各种应用中,例如夜视镜、弹道式检测与跟踪、自主车辆有效负载以及其他。在一个实施例中,成像器阵列200可以以相对小尺寸的和基本平坦的轮廓来实现,其允许方便地集成到衣服、头盔或其他装置中。例如,用六个成像器阵列200实现的立方体(例如,立方体的每平面有一个成像器阵列200)可用于提供全球面成像。
在其他实施例中,成像器阵列200可用于低成本、多光谱、红外或其他类型的成像系统的各种面向消费者的应用中。在另一个实施例中,通过考虑不同的波段发射率,成像器阵列200可以在辐射测定应用中执行自动校准。
图11A-F示出了根据本公开实施例的具有多个红外成像模块1102的成像阵列类型的几种视图。图11A-F的成像器阵列1100a-e可用于,例如实现成像系统100的图像捕获部件130。特别是,关于下面的图12-24论述的红外成像模块2100的实施例,可用于提供,例如代替(例如,可分别互换)关于图1-10论述的任何一个或所述传感器阵列的成像模块1102。在一些实施例中,图11A-F的成像器阵列1100a-e中的任何一个红外成像模块1102,可分别与关于图1-10论述的一个或多个传感器阵列互换。
在各种实施例中,红外成像模块1102每个都可包括2120模块外壳1120(例如,图14中的外壳2120),相对于模块外壳1120固定的光学元件1108(例如,图14中光学元件2180),和适于基于经由光学元件1108接收的红外辐射捕获图像的焦平面阵列中的多个红外传感器。在一些实施例中,光学元件1108可被透镜筒1109至少部分地包围(例如,图14中的透镜筒2110,其可与外壳2120组合在一起或与外壳2120分开形成)。在一些实施例中,红外成像模块1102可以包括其他元件或不同的元件,例如关于图12-24描述的那些元件。
在各种实施例中,红外成像模块1102可执行多光谱成像,以选择性检测红外辐射的期望范围,例如热辐射、长波红外(LWIR)辐射、中波红外(MWIR)辐射、短波红外(SWIR)辐射、近红外(NIR)辐射和/或其他范围。就这方面而言,光学元件1108可包括适当的涂层,或者红外成像模块1102可用适当的滤波器来提供,以过滤由红外成像模块1102的红外传感器(例如,图14中的红外传感器2132)接收的红外辐射。结果,不同的红外成像模块1102可以检测电磁(例如,尤其是红外线)辐射的不同宽或窄频带。
在各种实施例中,一个或多个红外成像模块1102可以以与传感器阵列相同或相似的方式,用基本相等尺寸和/或不同尺寸来实现,以提供如本文所述的这种尺寸的特征和优势。
红外成像模块1102可以以各种配置布置在成像器阵列内。举例来说,这些配置可包括:正方形格、长方形格、斜角格、菱形格、六边形格或任何其他配置或配置的组合。在一些实施例中,红外成像模块1102的模块外壳1120可被配置为补充特定的配置,例如主要是三角形或矩形。
在相关实施例中,例如,可基于对成像器阵列捕获的图像数据执行的处理图像的类型,或者基于红外成像模块1102的数量与成像器阵列二维区域的期望比率(例如,封装率),来选择特定配置。在进一步的实施例中,增加成像阵列的封装率可有效缩短和/或均匀化邻近红外成像模块1102的光学轴之间的距离。在这种实施例中,可增加成像器阵列1100a的有效分辨率。在一些实施例中,成像阵列的封装率可通过例如在多级交错结构中错开红外成像模块1102来调整。
虽然红外成像模块1102的各种部件(例如光学元件1108、透镜筒1109和模块外壳1120)被示出为与图11A-F基本类似,但这些和/或其他部件可以以各种配置(例如以成像器阵列的不同配置)被不同地实施,。
如图11A提供的顶视图所示,成像器阵列1100a可包括在正方形格结构中布置的红外成像模块1102a的阵列(例如,在一个实施例中为8乘6)。还示出了可选的隔板1104a,例如,其可为成像器阵列1100a提供结构支撑,和/或可用于限制一个或多个红外成像模块1102a的视场。在一些实施例中,红外成像模块1102a可用于执行如本文所述的多光谱成像。例如,在一个实施例中,可以检测至少四个光谱波段,在图11A中描绘为红外成像模块1102a的组1120、1122、1124和1126。
图11B示出了沿图11A的剖面线11B-11B观察的成像器阵列1100a。在一些实施例中,成像器阵列1110a可包括例如用于支撑结构和/或电气走线的基座1110a。距离1111a表示红外成像模块1102a离基座1110a的高度,并且距离1112a表示隔板1104a离基座1110a的高度。例如,距离1111a和1112a可被选择成为每个红外成像模块1102a产生期望的视场1106a(例如,光学宽度)。在一些实施例中,成像器阵列1100a可以不包括可选隔板1104a,相反,成像器阵列1100a可根据红外成像模块1102a的尺寸和配置来例如为每个红外成像模块1102a产生期望的视场(包括可选择的视场)。
图11C-D示出了其中成像器阵列1100c包括布置在两层交错结构中的红外成像模块1102的实施例,其中红外成像模块1102c布置在成像器阵列1100c的上层中并且红外成像模块1102d布置在成像器阵列1100c的下层中。在红外成像模块1102c和1102d尺寸类似于图11A-B中红外成像模块1102a的实施例中,成像器阵列1100c具有比成像器阵列1100a更大的封装率。红外成像模块1102c-d可包括光学元件1108、透镜筒1109、外壳1120和/或所论述的其他特征。
图11D示出了沿图11C的剖面线11D-11D观察的成像器阵列1100c。图11D示出了基座1110c、具有光学器件宽度1106c的可选隔板1104c(例如,为了清晰的目的,图11C中未示出)和距离1111c-1112c。距离1111c表示下红外成像模块1103c离基座1110c的高度,距离1112c表示上红外成像模块1102c离基座1110c的高度。如图11D所示,在一些实施例中,一个或多个下红外成像模块1103c可包括延长的透镜筒1109c和延长的光学元件(例如,在延长的透镜筒1109c),例如,其可适于接近于上红外成像模块1102c的高度,且在一些实施例中,其适于调整下红外成像模块1103的视场,以与上红外成像模块1102c的视场相匹配。
从图11C-D可以看出,成像器阵列1100C可在具有两层红外成像模块1102c和1102d的多级交错结构中实现,其中为了增加成像器阵列1100c的整体封装率,可在高度上交替错开成像器阵列1100c的列或者行。虽然图11C示出了具有布置在正方形格结构中的红外成像模块1102c和1102d的成像器阵列1100c,但在其他实施例中,成像器阵列1100c可包括例如布置在不同格结构中的多个红外成像模块1102c和1102d,红外成像模块的行、列或其他分组可布置在适于增加成像器阵列1100c的封装率的两层交错结构中。在一些实施例中,红外成像模块1102c和1102d的外壳1120和/或其他适当的部件可被配置为补充特定格结构和/或多级交错结构例如,例如主要是三角形或矩形,和/或有凹口的或倾斜的,以与邻近的上成像模块1102c和/或下红外成像模块1102d互锁在一起。
图11E-F示出了其中成像器阵列1100e包括布置在四层交错结构中的红外成像模块1102e-1102h的实施例。在红外成像模块1102e-1102h尺寸类似于红外成像模块1102c和1102d的实施例中,成像器阵列1100e具有比成像器阵列1100c更大的封装率。更普遍地,例如,为了增加成像器阵列的封装率,或者为了有助于特定的图像处理技术,成像器阵列可包括布置在多个交错层中的红外成像模块。这种图像处理技术可包括例如,傅里叶变换类型和/或方法、插补方法和颜色(例如,伪色、或红外光谱)分布方法。在一些实施例中,成像器阵列1100e可用如本文类似描述的可选隔板(例如,为了清晰的目的,图11E-F中未示出)来实现。
图11E-F示出了其中成像器阵列1100e包括布置在成像器阵列1100e的第一级的红外成像模块1102e、布置在成像器阵列1100e的第二级的红外成像模块1102f、布置在成像器阵列1100e的第三级的红外成像模块1102g和布置在成像器阵列1100e的第四级的红外成像模块1102h的实施例。红外成像模块1102e-h可包括光学元件1108、透镜筒1109、延长的透镜筒1109e(例如,如关于图11D所讨论的)、延长的光学元件(例如,在延长的透镜筒1109e内)、外壳1120和/或所论述的其他特征。图11F示出了沿图11E的剖面线11F-11F观察的成像器阵列1100e,并包括了基座1110e和距离1111e-1114e。距离1111e表示第一级红外成像模块1102e离基座1110e的高度,距离1112e表示第二级红外成像模块1102f离基座1110e的高度,距离1113e表示第三级红外成像模块1102g离基座1110e的高度,和距离1114e表示第四级红外成像模块1102h离基座1110e的高度。在一些实施例中,一个或更多下级红外成像模块1102e-g可包括如关于图11D类似论述的延长的光学元件和/或延长的透镜筒,以接近第四级(例如,顶级)红外成像模块1102h的高度。
从图11E-F可以看出,成像器阵列1100e可在具有四层红外成像模块1102e-h的多级交错结构中实现,其中为了增加成像器阵列1100e的整体封装率,成像器阵列1100e的红外成像模块可在高度上在四级上交错。虽然图11E示出了具有布置在正方形格结构中的红外成像模块1102e-h的成像器阵列1100e,但在其他实施例中,成像器阵列1100e可包括例如布置在不同格结构中的多个红外成像模块1102e-h,红外成像模块的其他分组可布置在适于增加成像器阵列1100e的封装率的四级交错结构中。更普遍地,成像器阵列的红外成像模块可布置在适于增加成像器阵列的封装率的多级交错结构中。在各种实施例中,红外成像模块1102e-h的模块外壳1120可被配置为补充特定格结构和/或多级交错结构。
图12示出了根据本公开实施例的被配置为在主机装置2102中实现的红外成像模块2100(例如,红外照相机或者红外成像装置)。在一个或者多个实施例中,可根据晶圆级封装技术或者其他封装技术,实现小形状因子的红外成像模块2100。
在一个实施例中,红外成像模块2100可被配置为在小型的便携式主机装置2102中实现,例如,移动电话、平板电脑装置、膝上型电脑装置、个人数字助理、可见光照相机、音乐播放器或者任何其他合适的移动装置。就这方面而言,红外成像模块2100可用于向主机装置2102提供红外成像功能。例如,红外成像模块2100可被配置为捕获、处理、和/或管理红外图像,并将该红外图像提供给主机装置2102,主机装置2102能够以任何期望的方式来使用该红外图像(例如,对该红外图像进行进一步的处理、存储到存储器中、显示、由运行在主机装置2102中的各种应用程序使用、输出到其他装置、或者其他应用)。
在各种实施例中,红外成像模块2100可被配置为在低电压电平和宽温度范围内工作。例如,在一个实施例中,红外成像模块2100可使用约2.4伏、2.5伏、2.8伏或更低的电压的电源工作,并且可在约-20℃到约+60℃的温度范围中工作(例如,在约80℃的环境温度范围中提供合适的动态范围和性能)。在一个实施例中,通过使红外成像模块2100在低电压电平下工作,与其他类型的红外成像装置相比,红外成像模块2100自身所产生的热量较少。因此,红外成像模块2100在工作时,可利用简化的措施来补偿这种自身产生的热量。
如图12所示,主机装置2102可包括插座2104、快门2105、运动传感器2194、处理器2195、存储器2196、显示器2197和/或其他部件2198。插座2104可被配置为如箭头2101所示的接收红外成像模块2100。就这方面而言,图13示出了根据本公开实施例的装配在插座2104中的红外成像模块2100。
可由一个或者多个加速度计、陀螺仪或者可用于检测主机装置2102的运动的其他合适的装置来实现运动传感器2194。处理模块2160或者处理器2195可对运动传感器2194进行监控并且运动传感器2194向处理模块2160或者处理器2195提供信息,以检测运动。在各种实施例中,运动传感器2194可实现为主机装置2102的一部分(如图12所示),也可实现为红外成像模块2100、或者连接到主机装置2102或与主机装置2102接触的其他装置的一部分。
处理器2195可实现为任何合适的处理装置(例如,逻辑装置、微控制器、处理器、专用集成电路(ASIC)或者其他装置),主机装置2102可使用上述处理装置来执行适当的指令,例如,存储在存储器2196中的软件指令。显示器2197可用于显示捕获的和/或处理后的红外图像和/或其他图像、数据和信息。其他部件2198可用于实现主机装置2102的任何功能,如可能期望的各种应用(例如,时钟、温度传感器、可见光照相机或者其他部件)。另外,机器可读介质2193可用于存储非临时性指令,可将该非临时性指令加载到存储器2196中并由处理器2195执行。
在各种实施例中,可大量生产红外成像模块2100和插座2104,以推动它们的广泛应用,例如,其可应用在移动电话或者其他装置(例如,需要小形状因子的装置)中。在一个实施例中,当红外成像模块2100安装到插座2104中时,红外成像模块2100和插座2104的组合所显示出的整体尺寸大约为8.5mm×8.5mm×5.9mm。
图14示出了根据本公开的实施例的并置于插座2104之上的红外成像模块2100的分解图。红外成像模块2100可包括透镜镜筒2110、外壳2120、红外传感器组件2128、电路板2170、基座2150和处理模块2160。
透镜镜筒2110可至少部分的装入光学元件2180(例如,透镜),通过透镜镜筒2110中的孔2112,所述光学元件2180在图14中部分的可见。透镜镜筒2110可包括大致呈圆柱形的延长部分2114,其可用于使透镜镜筒2110与外壳2120中的孔2122接触。
例如,可由安装在基板2140上的帽2130(例如,盖子)来实现红外传感器组件2128。红外传感器组件2128可包括按列或者其他方式设置在基板2140上并由帽2130覆盖的多个红外传感器2132(例如,红外探测器)。例如,在一个实施例中,红外传感器组件2128可实现为焦平面阵列(FPA)。这种焦平面阵列可实现为例如真空封装的组件(例如,由帽2130和基板2140密封)。在一个实施例中,红外传感器组件2128可实现为晶片级封装(例如,红外传感器组件2128可以是与设置在晶片上一组真空包装组件相分离的单片)。在一个实施例中,红外传感器组件2128可实现为使用约2.4伏、2.5伏、2.8伏或者类似的电压的电源来工作。
红外传感器2132可被配置为检测目标场景的红外辐射(例如,红外能量),所述目标场景包括:例如中波红外波段(MWIR)、长波红外波段(LWIR)、和/或如在特定应用中所期望的其他热成像波段。在一个实施例中,可根据晶片级封装技术来提供红外传感器组件2128。
红外传感器2132可实现为例如微辐射热计探测器,或者以任意期望的阵列方向图案配置以提供多个像素的其他类型的热成像红外传感器。在一个实施例中,红外传感器2132可实现为具有17微米像素间距的氧化钒(VOx)探测器。在各种实施例中,可使用约32×32阵列的红外传感器2132、约64×64阵列的红外传感器2132、约80×64阵列的红外传感器2132或者其他大小的阵列。
基板2140可包括各种电路,其中包括例如读出集成电路(ROIC),在一个实施例中,该读出集成电路(ROIC)的尺寸比约5.5mm×5.5mm小。基板2140还可包括接合焊盘2142,其可用于当如图14所示的那样装配好红外成像模块2100时,与放置在外壳2120的内表面上的相辅相成的连接点相接触。在一个实施例中,可利用执行电压调节的低压差稳压器(LDO)来实现ROIC,以降低引入到红外传感器组件2128中的噪声,从而提供改进的电源抑制比(PSRR)。另外,通过实现具有ROIC的LDO(例如,在晶圆级封装内),可消耗更少的管芯面积并且需要的离散管芯(或者芯片)较少。
图15示出了根据本公开的实施例的、包括红外传感器2132阵列的红外传感器组件2128的框图。在示出的实施例中,红外传感器2132作为ROIC2402的单位晶格阵列的一部分。ROIC2402包括偏压产生和定时控制电路2404、列放大器2405、列多路复用器2406、行多路复用器2408和输出放大器2410。可通过输出放大器2410将红外传感器2132捕获的图像帧(即,热图像)提供给处理模块2160、处理器2195和/或任何其他合适的部件,以执行本文所描述的各种处理技术。尽管图15示出的是8×8的阵列,但是任何期望的阵列配置均可用于其他实施例中。ROIC和红外传感器的进一步描述可在2000年2月22日公开的美国专利No.6,028,309中找到,通过引用的方式将其全文合并于此。
红外传感器阵列2128可捕获图像(例如,图像帧),并以各种速率从它的ROIC提供这种图像。处理模块2160可用于对捕获的红外图像执行适当的处理,并且可以根据任何适当的结构来实现该处理模块2160。在一个实施例中,处理模块2160可实现为ASIC。就这方面而言,这种ASIC可被配置为高性能的和/或高效率的执行图像处理。在另一个实施例中,可利用通用中央处理单元(CPU)来实现处理模块2160,所述CPU可被配置为执行适当的软件指令,以进行图像处理、调整以及通过各种图像处理块进行图像处理、处理模块2160和主机装置2102之间的互相配合的交互和/或其他操作。在另一个实施例中,可利用现场可编程门阵列(FPGA)来实现处理模块2160。在其他实施例中,如本领域技术人员所理解的,可利用其他类型的处理和/或逻辑电路来实现处理模块2160。
在这些和其他实施例中,处理模块2160还可与其他合适的部件来实现,例如,易失性存储器、非易失性存储器和/或一个或者多个接口(例如,红外检测器接口、内部集成电路(I2C)接口、移动行业处理器接口(MIPI)、联合测试行动组(JTAG)接口(例如,IEEE1149.1标准测试访问端口和边界扫描结构)、和/或其他接口)。
在一些实施例中,红外成像模块2100可进一步包括一个或者多个致动器2199,其可用于调整红外传感器组件2128捕获的红外图像帧的焦点。例如,致动器2199可用于移动光学元件2180、红外传感器2132和/或彼此相关的其他部件,以根据本文所描述的技术来选择性地聚焦和散焦红外图像帧。可根据任何类型的运动感应设备或者装置来实现致动器2199,并且可将致动器2199放置在红外成像模块2100内部或者外部的任何位置,以适应不同的应用。
当将红外成像模块2100装配好后,外壳2120随后可将红外传感器组件2128、基座2150以及处理模块2160完全的密封起来。外壳2120可便于红外成像模块2100的各种部件的连接。例如,在一个实施例中,外壳2120可提供用于连接各种部件的电连接部件2126,下面将对其进行详细描述。
当将红外成像模块2100装配好时,电连接部件2126(例如,导电路径、电气轨迹或者其他类型的电连接部件)可与接合焊盘2142电气连接。在各种实施例中,可将电连接部件2126嵌入到外壳2120中、设置在外壳2120的内表面上和/或由外壳2120提供所述电连接部件2126。如图3所示,电连接部件2126可终止于突出于外壳2120的底表面的连接部件2124中。当将红外成像模块2100装配好时,连接部件2124可与电路板2170连接(例如,在各种实施例中,外壳2120可置于电路板2170的顶部)。处理模块2160可通过合适的电连接部件与电路板2170电连接。因此,红外传感器组件2128可例如通过导电路径与处理模块2160电连接,所述导电路径可由接合焊盘2142、外壳2120内部表面上的相辅相成的连接点、外壳2120的电连接部件2126、连接部件2124及电路板2170提供。有利的是,这种布置的实现可无需在红外传感器组件2128和处理模块2160之间设置焊线。
在各种实施例中,可使用任何期望的材料(例如,铜或者任何其他合适的导电材料)来制造外壳2120中的电连接部件2126。在一个实施例中,电连接部件2126可有助于对红外成像模块2100产生的热量进行散热。
其他连接可用于其他实施例中。例如,在一个实施例中,传感器组件2128可通过陶瓷板连接到处理模块2160,所述陶瓷板通过焊线连接到传感器组件2128并通过球栅阵列(BGA)连接到处理模块2160。在另一个实施例中,传感器组件2128可直接安装到刚柔性板上并与焊线电连接,并且可利用焊线或者BGA将处理模块2160安装并且连接到刚柔性板。
本文所阐述的红外成像模块2100和主机装置2102的各种应用只是为了举例,而不是限制。就这方面而言,本文所描述的各种技术中的任何一个均可应用到任何红外照相机系统、红外成像器或者用于进行红外/热成像的其他装置。
红外传感器组件2128的基板2140可安装到基座2150上。在各种实施例中,基座2150(例如,底座)可例如由通过金属注射成形(MIM)形成的铜制造,并且对所述基座2150进行黑色氧化处理或者镍涂层处理。在各种实施例中,基座2150可由任何期望的材料制造,例如,可根据特定应用,由例如锌、铝或者镁制造,并且,基座2150可通过任何期望的应用流程形成,例如,可根据特定应用,例如通过铝铸件、MIM或者锌的快速铸造来形成。在各种实施例中,基座2150可用于提供结构支撑、各种电路路径、热散热器性能以及其他合适的功能。在一个实施例中,基座2150可以是至少部分使用陶瓷材料实现的多层结构。
在各种实施例中,电路板2170可容纳外壳2120,从而可在物理上支撑红外成像模块2100的各种部件。在各种实施例中,电路板2170可实现为印刷电路板(例如,FR4电路板或者其他类型的电路板)、刚性或者柔性的互连设备(例如,互连带或者其他类型的互连设备)、柔性电路基板、柔性塑料基板或者其他合适的结构。在各种实施例中,基座2150可实现为具有描述的电路板2170的各种功能和属性,反之亦然。
插座2104可包括被配置为容纳红外成像模块2100(例如,如图13所示的装配后的视图)的腔体2106。红外成像模块2100和/或插座2104可包括合适的卡片、臂、销、紧固件或者任何其他合适的接合部件,所述接合部件可用于通过摩擦、张力、粘附和/或任何其他合适的方式将红外成像模块2100固定到插座2104,或者将红外成像模块2100固定到插座2104内部。插座2104可包括接合部件2107,其可在当红外成像模块2100插入到插座2104的腔体2106中时,接合外壳2120的表面2109。其他类型的接合部件可用于其他实施例中。
红外成像模块2100可通过适当的电连接部件(例如,触点、销、电线或者任何其他合适的连接部件)与插座2104电连接。例如,插座2104可包括电连接部件2108,其可与红外成像模块2100的相应的电连接部件(例如,互连焊盘、触点、或者在电路板2170侧面或者底表面上的其他电连接部件、接合键盘2142或者基座2150上的其他电连接部件、或者其他连接部件)接触。电连接部件2108可由任何期望的材料(例如,铜或者任何其他合适的导电材料)制造。在一个实施例中,电连接部件2108可被机械的压扁,以当红外成像模块2100插入到插座2104的腔体2106中时可贴着红外成像模块2100的电连接部件。在一个实施例中,电连接部件2108可至少部分的将红外成像模块2100固定到插座2104中。其他类型的电连接部件可用于其他实施例中。
插座2104可通过类似类型的电连接部件与主机2102电连接。例如,在一个实施例中,主机2102可包括穿过孔2190与电连接部件2108连接的电连接部件(例如,焊接连接、搭扣式连接或者其他连接)。在各种实施例中,这种电连接部件可置于插座2104的侧面和/或底部。
可通过倒装芯片技术来实现红外成像模块2100的各种部件,所述倒装芯片技术可用于将部件直接安装到电路板上,而无需通常用于焊线连接的额外的间隙。倒装芯片连接例如可用于在紧凑小形状因子应用中减少红外成像模块2100的整体尺寸。例如,在一个实施例中,可使用倒装芯片连接部件将处理模块2160安装到电路板2170。例如,可使用这种倒装芯片配置来实现红外成像模块2100。
在各种实施例中,可根据如申请号为12/844,124,申请日为2010年7月27日的美国专利申请和申请号为61/469,651,申请日为2011年3月30日的美国临时专利申请所记载的各种技术(例如,圆晶级封装技术),来实现红外成像模块2100和/或相关的部件,通过引用的方式将其全文合并于此。另外,根据一个或者多个实施例,可根据如下所述文献记载的各种技术来实现、校正、测试和/或使用红外成像模块2100和/或相关的部件,所述文献例如为:如公开号为7,470,902、公开日为2008年12月30日的美国专利,公开号为6,028,309、公开日为2000年2月22日的美国专利,公开号为6,812,465、公开日为2004年11月2日的美国专利,公开号为7,034,301、公开日为2006年4月25日的美国专利,公开号为7,679,048、公开日为2010年3月16日的美国专利,公开号为7,470,904、公开日为2008年12月30日的美国专利,申请号为12/202,880、申请日为2008年9月2日的美国专利申请以及申请号为12/202,896、申请日为2008年9月2日的美国专利申请,通过引用的方式将上述文献全文合并于此。
在一些实施例中,主机设备2102可以包括其他部件2198,如非热摄像机(例如,可见光摄像机或其他类型的非热成像器)。非热摄像机可以是小形状因子成像模块或成像装置,且在一些实施例中,可以以与本文公开的红外成像模块2100的各种实施例类似的方式来实现,其具有响应非热谱中的辐射(例如,可见光的波长、紫外线波长和/或其他非热波长中的辐射)的一个或多个传感器和/或传感器阵列。例如,在一些实施例中,非热摄像机可用电荷耦合器件(CCD)传感器、电子倍增CCD(EMCCD)传感器、互补金属氧化物半导体(CMOS)传感器、科学的CMOS(SCMOS)传感器或其他的滤波器和/或传感器来实现。
在一些实施例中,非热摄像机可与红外成像模块2100位于同一地点并被定向,以使非热摄像机的视场(FoV)至少部分重叠红外成像模块2100的视场。在一个实例中,根据以引用的方式并入本文的、2012年12月31日提出的专利号为61/748,018的美国临时专利描述各种技术,红外成像模块2100和非热摄像机可被实现为共用公共基板的双传感器模块。
对于具有这种非热光摄像机的实施例,各种部件(例如,处理器2195、处理模块2160和/或其他处理部件)可被配置成叠加、熔合、混合或以其他方式组合不管是在基本相同的时间还是在基本不同的时间(例如,时间间隔为小时、天、白天与夜间,等)由红外成像模块2100捕获的红外图像(例如,包括热图像)和由非热摄像机捕获的非热图像(例如,包括可见光图像)。
在一些实施例中,热与非热图像可被处理以产生组合的图像(例如,在一些实施例中,对这种图像执行的一种或多种处理)。例如,可执行基于场景的NUC处理(正如本文进一步描述的),可执行真彩色处理,和/或可执行高对比度处理。
对于真彩色处理,可根据由用户和/或在一些实施例中由机器调节的混合参数,通过例如混合热图像的辐射分量与非图像的对应分量,将热图像与非热图像混合在一起。例如,根据混合参数可组合热和非热图像的亮度和色度分量。在一个实施例中,这种混合技术可被称为真色红外成像。例如,在白天成像时,融合的图像可包括含有亮度分量和色度分量的非热彩色图像,非热彩色图像具有由热图像的亮度值替换的亮度值。热图像的亮度数据的使用,使真实的非热彩色图像的亮度基于物体的温度变亮或变暗。如此,这些混合技术为白天或可见光图像提供了热成像。
对于高对比度处理,高空间频率内容可从一幅或多幅热和非热图像中获得(例如,通过进行高通滤波、差分成像和/或其他技术)。组合图像可包括热图像的辐射分量和混合成分,并且该混合分量包括根据混合参数而与高空间频率内容混合的场景的红外(例如,热)特征,该混合参数可由用户和/或机器在一些实施例中调节。在一些实施例中,通过将高空间频率内容叠加到热图像上,可以将非热图像的高空间频率内容与热图像混合在一起,其中高空间频率内容取代或覆盖对应于存在高空间频率内容的这些部分热图像。例如,高空间频率内容可包括在场景图像中描绘的对象的边缘,但不可能不存在于这些种对象的内部。在这种实施例中,混合图像数据可简单包括随后将被编码成组合图像的一个或多个成分分量的高空间频率的内容。
例如,热图像的辐射分量可以是该热图像的色度分量,高空间频率内容可分成非热图像的亮度和/或色度分量。在该实施例中,组合图像可包括编码成组合图像的色度分量的辐射分量(例如,热图像的色度分量),和直接编码(例如,没有热图像贡献的混合图像数据)成组合图像的亮度分量的高空间频率内容。通过这样做,可以保留热图像的辐射分量的辐射标准。在类似的实施例中,混合图像数据可包括加入热图像的亮度分量的高空间频率内容,和编码成结果组合图像的亮度分量的结果混合数据。
例如,在各种实施例中可以使用下列申请中公开的任何技术,该下列申请包括:2009年6月3日提出的申请号为12/477,828的美国专利申请;2010年4月23日提出的申请号为12/766,739的美国专利申请;2011年5月11日提出的申请号为13/105,765的美国专利申请;2012年4月2日提出的申请号为13/437,645的美国专利申请;2011年4月8日提出的申请号为61/473,207的美国临时专利申请;2012年12月26日提出的申请号为61/746,069的美国临时专利申请;2012年12月26日提出的申请号为61/746,074的美国临时专利申请;2012年12月31日提出的申请号为61/748,018的美国临时专利申请;2013年3月15日提出的申请号为61/792,582的美国临时专利申请;2013年3月15日提出的申请号为61/793,952的美国临时专利申请;和2011年4月21日提出的申请号为PCT/EP2011/056432的国际专利申请;所有这些申请都通过引用的方式全文并入本文。本文所描述的各种技术,或者引用本文的其他申请或专利中描述的各种技术,都可应用于各种热装置、非热装置,以及本文描述的应用。
再次参考图12,在各种实施例中,主机装置2102可包括快门2105。就这方面而言,可在红外成像模块2100安装在插座中时,将快门2105选择性的放置在插座2104上(例如,如箭头2103所确定的方向)。就这方面而言,快门2105例如可用于在红外成像模块2100不使用时对其进行保护。快门2105还可用作温度参考,如本领域技术人员所应当理解的,所述温度参考作为红外成像模块2100的校正过程(例如,非均匀校正(NUC)过程或者其他校正过程)的一部分。
在各种实施例中,快门2105可由各种材料制造,例如,聚合物、玻璃、铝(例如,涂漆的或者经过阳极氧化处理后的)或者其他材料。在各种实施例中,快门2105可包括一个或者多个涂层(例如,均匀的黑体涂层或者反射性的镀金涂层),其用于选择性地过滤电磁辐射和/或调整快门2105的各种光学属性。
在另一个实施例中,可将快门2105固定在适当位置以全天候的保护红外成像模块2100。在这种情况下,快门2105或者快门2105的一部分可由基本上不会过滤掉需要的红外线波长的合适的材料(例如,聚合物,或者诸如硅、锗、硒化锌或硫系玻璃的红外透射材料)制造。如本领域技术人员所应当理解的,在另一个实施例中,快门可实现为红外成像模块2100的一部分(例如,在透镜镜筒或者红外成像模块2100的其他部件内,或者作为透镜镜筒或者红外成像模块2100的其他部件的一部分)。
可选地,在另一个实施例中,无需提供快门(例如,快门2105或者其他类型的外部或者内部快门),而是可使用无快门的技术进行NUC步骤或者其他类型的校正。在另一个实施例中,使用无快门技术的NUC步骤或者其他类型的校正可与基于快门的技术结合进行。
可根据下述文献记载的各种技术中的任意一种来实现红外成像模块2100和主机装置2102,所述文献为:申请号为61/495,873,申请日为2011年6月10日的美国临时专利申请;申请号为61/495,879,申请日为2011年6月10日的美国临时专利申请;以及申请号为61/495,888,申请日为2011年6月10日的美国临时专利申请。通过引用的方式将上述文献全文合并于此。
在各种实施例中,主机装置2102和/或红外成像模块2100的部件可实现为本地系统,或者实现为部件之间通过有线和/或无线网络进行通信的分布式系统。因此,可根据特定实施的需要,通过本地和/或远程部件来执行本公开所提及的各种操作。
图16示出了根据本公开实施例的确定NUC项的各种操作的流程图。在一些实施例中,可由对红外传感器2132捕获的图像帧进行处理的处理模块2160或者处理器2195(二者通常也指处理器)来执行图16的操作。
在方块2505,红外传感器2132开始捕获场景的图像帧。通常,场景将会是主机装置2102当前处于的真实环境。就这方面而言,快门2105(如果可选的提供)可打开以允许红外成像模块从场景接收红外辐射。在图16所示的所有操作期间,红外传感器2132可连续地捕获图像帧。就这方面而言,连续地捕获图像帧可用于如下文所进一步讨论的各种操作。在一个实施例中,可对捕获的图像帧进行时域滤波(例如,根据方块2826的步骤对捕获的图像帧进行时域滤波,本文将根据图19对其进一步描述),并且在所述图像帧被用于图16所示的操作之前,由其他项(例如,工厂增益项2812、工厂偏移项2816、先前确定的NUC项2817、列FPN项2820以及行FPN项2824,本文将根据图19对其做进一步描述)对它们进行处理。
在方块2510,检测到NUC步骤的启动事件。在一个实施例中,NUC步骤可响应于主机装置2102的物理移动而启动。例如,可由被处理器轮询的运动传感器2194来检测这种移动。在一个例子中,用于可能会以特定的方式来移动主机装置2102,例如,通过有意的来回移动主机装置2102,使主机装置2102做“消除”或者“重击”运动。就这方面而言,用户可根据预定的速率和方向(速度),例如,通过上下、左右或者其他类型的运动来移动主机装置2102从而启动NUC步骤。在这个例子中,这种移动的使用可允许用户直观的操作主机装置2102,以模拟对捕获的图像帧的噪声“消除”。
在另一个例子中,如果运动超过阈值(例如,运动超过了期望的正常使用),则可由主机装置2102来启动NUC步骤。可以预期的是,主机装置2102的任何期望的类型的空间移位均可用于启动NUC步骤。
在另一个例子中,如果自从先前执行的NUC步骤以来,已经过去了最小时间,则可由主机装置2102启动NUC步骤。在另一个例子中,如果自从先前执行的NUC步骤以来,红外成像模块2100已经经历了最小的温度改变,则可由主机装置2102启动NUC步骤。在另外的例子中,可连续地启动并重复NUC步骤。
在方块2515,检测到NUC步骤启动事件之后,确定是否应该真正地执行NUC步骤。就这方面而言,可基于一个或者多个附加条件是否满足,来选择性地启动NUC步骤。例如,在一个实施例中,除非自从先前执行的NUC步骤以来,已经过去了最小时间,否则不会执行NUC步骤。在另一个实施例中,除非自从先前执行的NUC步骤以来,红外成像模块2100已经经历了最小的温度变化,否则不会执行NUC步骤。其他标准或者条件可用于其他实施例中。如果已经满足合适的标准或者条件,流程图就会继续到方块2520。否则,流程图返回到方块2505。
在NUC步骤中,模糊图像帧可用于确定NUC项,所述NUC项可应用于捕获的图像帧以校正FPN。如所讨论的,在一个实施例中,可通过累加运动场景的多个图像帧(例如,当场景和/或热成像仪处于运动的状态时捕获的图像帧)来获得模糊图像帧。在另一个实施例中,可通过使热成像仪的光学元件或者其他部件散焦,来获得模糊图像帧。
因此,方块2520提供了两种方法的选择。如果使用基于运动的方法,则流程图继续到方块2525。如果使用基于散焦的方法,则流程图继续到方块2530。
现在参考基于运动的方法,在方块2525,检测到运动。例如,在一个实施例中,可基于红外传感器2132捕获的图像帧检测运动。就这方面而言,合适的运动检测步骤(例如,图像配准步骤、帧到帧的差值计算或者其他合适的步骤)可应用于捕获的图像帧,以确定是否存在运动(例如,是否已经捕获到静态的或者运动的图像帧)。例如,在一个实施例中,能够确定连续图像帧的像素的周围的像素或者区域发生改变的数量已经超过了用户定义的数量(例如,百分比和/或阈值)。如果至少给定百分比的像素已经发生改变且发生改变的像素的数量至少为用户定义的数量,则可以非常肯定的检测到运动,从而流程图转到方块2535。
在另一个实施例中,可以在每个像素的基础上确定运动,其中,只累加那些显示出明显变化的像素,以提供模糊图像帧。例如,可以为每个像素设置计数器,所述计数器用于保证每个像素累加的像素值的数量相同,或者用于根据每个像素实际上累加的像素值的数量来对像素值取平均。可执行其他类型的基于图像的运动检测,例如,执行拉东(Radon)变换。
在另一个实施例中,可基于运动传感器2194提供的数据来检测运动。在一个实施例中,这种运动检测可包括检测主机装置2102是否在空间中沿着相对笔直的轨迹移动。例如,如果主机装置2102正沿着相对笔直的轨迹移动,那么下述情况是可能的:出现在成像后的场景中的某些对象可能不够模糊(例如,场景中的对象与笔直轨迹对准或者基本上沿着平行于所述笔直轨迹的方向移动)。因此,在该实施例中,只有主机装置2102显示出运动、或者没有显示出运动但沿着特定轨迹运动时,运动传感器2194才能检测到运动。
在另一个实施例中,可使用运动检测步骤和运动传感器2194二者。因此,使用这些各种实施例中任意一个,能够确定在场景的至少一部分和主机装置2102相对于彼此之间运动的同时(例如,这可由主机装置2102相对于场景移动、场景的至少一部分相对于主机装置2102移动或者上述两种情况引起),是否捕获到每个图像帧。
可以预期的是,检测到运动的图像帧可显示出捕获的场景的某些次级模糊(例如,与场景相关的模糊的热图像数据),所述次级模糊是由于红外传感器2132的热时间常数(例如,微辐射热时间常数)与场景移动交互而引起的。
在方块2535,对检测到运动的图像帧进行累加。例如,如果检测到连续的一系列图像帧的运动,则可对系列图像帧进行累加。做为另外一个例子,如果只检测到某些图像帧的运动,则可忽略掉没有运动的图像帧并不对这些没有运动的图像帧进行累加。因此,可基于检测到的运动,选择连续的或者不连续的一系列图像帧进行累加。
在方块2540,对累加的图像帧进行平均以提供模糊图像帧。因为累加的图像帧是在运动期间捕获到的,所以我们期望图像帧之间实际的场景信息将会不同,从而导致模糊之后的图像帧中的场景信息被进一步的模糊(方块2545)。
与此相反,在运动期间,在至少短时间内以及场景辐射的至少有限变化时,FPN(例如,由红外成像模块2100的一个或者多个部件引起的)保持不变。结果是,在运动期间捕获到的时间和空间上接近的图像帧将会遭受相同的或者至少类似的FPN。因此,尽管连续图像帧中的场景信息可能会改变,但是FPN将保持基本不变。通过对运动期间捕获到的多个图像帧进行平均,所述多个图像帧将会模糊场景信息,但是不会模糊FPN。结果是,与场景信息相比,FPN将在方块2545提供的模糊图像帧中保持的更加清楚。
在一个实施例中,在方块2535和2540中,对32个或者更多图像帧进行累加和平均。然而,任何期望数量的图像帧均可用在其他实施例中,只是随着帧的数量的减少,校正精度通常会降低。
现在参考基于散焦的方法,在方块2530,进行散焦操作以有意地使红外传感器2132捕获的图像帧散焦。例如,在一个实施例中,一个或者多个致动器2199可用于调整、移动或者平移光学元件2180、红外传感器组件2128和/或红外成像模块2100的其他部件,以使得红外传感器2132捕获场景的模糊的(例如,没有聚焦)图像帧。也可考虑使用其他不基于致动器的技术来有意地使红外图像帧散焦,例如,如人工(例如,用户启动的)散焦。
尽管图像帧中的场景可能会出现模糊,但是通过散焦操作,FPN(例如,由红外成像模块2100的一个或者多个部件引起)将会保持不受影响。结果是,场景的模糊图像帧(方块2545)将会具有FPN,并且与场景信息相比,所述FPN将在所述模糊图像中保持的更加清楚。
在上面的讨论中,已经描述的基于散焦的方法与单个捕获的图像帧有关。在另一个实施例中,基于散焦的方法可包括当红外成像模块2100已经被散焦时对多个图像帧进行累加,并且对散焦的图像帧进行平均以消除时域噪声的影响并在方块2545提供模糊图像帧。
因此,可以理解的是,既可通过基于运动的方法也可通过基于散焦的方法来在方块2545提供模糊的图像帧。因为运动、散焦或者上述二者均会使很多的场景信息模糊,所以可实际上将模糊图像帧认为是原始捕获的有关场景信息的图像帧的低通滤波版本。
在方块2505,对模糊图像帧进行处理以确定更新的行和列的FPN项(例如,如果之前没有确定行和列的FPN项,那么更新的行和列的FPN项可以是方块2550的第一次迭代中的新的行和列的FPN项)。如本公开所使用的,根据红外传感器2132和/或红外成像模块2100的其他部件的方向,术语行和列可互换的使用。
在一个实施例中,方块2550包括确定每行模糊图像帧(例如,每行模糊图像帧可具有其自身的空间FPN校正项)的空间FPN校正项,以及还确定每列模糊图像帧(例如,每列模糊图像帧可具有其自身的空间FPN校正项)的空间FPN校正项。这种处理可用于减少空间并减少热成像仪固有的行和列FPN的缓慢变化(1/f),这种缓慢变化例如是由ROIC2402中的放大器的1/f噪声特征引起,所述1/f噪声特征可表现为图像帧中的垂直和水平条。
有利的是,通过利用模糊图像帧确定空间行和列的FPN,会降低将实际成像的场景中的垂直和水平物体误认为是行和列噪声的风险(例如,真实场景内容被模糊,而FPN保持不被模糊)。
在一个实施例中,可通过考虑模糊图像帧的相邻像素之间的差值来确定行和列FPN项。例如,图17示出了根据本公开实施例的相邻像素之间的差值。具体地,在图17中,将像素2610与它附近的8个水平相邻像素进行比较:d0-d3在一侧,d4-d7在另一侧。可对相邻像素之间的差值进行平均,以获得示出的像素组的偏移误差的估计值。可对行或者列中的每个像素的偏移误差均进行计算,并且得到的平均值可用于校正整个行或者列。
为了防止将真实的场景数据解释为噪声,可使用上限阈值和下限阈值(thPix和-thPix)。落入该阈值范围之外的像素值(在该例子中,是像素d1和d4)不用于获得偏移误差。另外,这些阈值可限制行和列FPN校正的最大量。
申请号为12/396,340,申请日为2009年3月2日的美国专利申请记载了执行空间行和列FPN校正处理的更具体的技术,通过引用的方式将其全文合并于此。
再次参考图16,将在方块2550确定的更新的行和列FPN项进行存储(方块2552)并将其应用于(方块2555)方块2545提供的模糊图像帧。在应用这些项之后,可降低模糊图像帧中的一些空间行和列的FPN。然而,因为这些项通常应用于行和列,所以附加的FPN可保持,例如,空间不相关的FPN与像素到像素的偏移或者其他原因相关。与单个行和列可能不直接相关的、空间相关的FPN的邻域也可保持不变。因此,可进行进一步的处理以确定NUC项,下面将对其进行描述。
在方块2560,确定模糊图像帧中的局部反差值(例如,相邻像素或者小组像素之间的梯度边缘值或者绝对值)。如果模糊图像帧中的场景信息包括还没有被明显模糊的反差区域(例如,原始场景数据中的高反差边缘),那么可由方块2560的反差确定步骤来识别这些特征。
例如,可计算模糊图像帧中的局部反差值,或者任何其他类型的边缘检测步骤可应用于识别作为局部反差区域的一部分的、模糊图像中的某些像素。可以认为以这种方式标记的像素包含很高空间频率的场景信息,可将该很高空间频率的场景信息解释为FPN(例如,这种区域可对应于还没有被充分模糊的场景的部分)。因此,可将这些像素排除在用于进一步确定NUC项的处理之外。在一个实施例中,这种反差检测处理可依赖于高于与FPN相关的期望反差值的阈值(例如,可以认为显示出的反差值高于阈值的像素是场景信息,而认为那些低于阈值的像素是显示FPN)。
在一个实施例中,在行和列FPN项已经应用于模糊图像帧之后,可对模糊图像帧执行方块2560的反差确定(例如,如图16所示)。在另一个实施例中,可在方块2550之前执行方块2560,以在确定行和列FPN项之前确定反差(例如,以防止基于场景的反差对于确定该项有影响)。
在方块2560之后,可以预期的是,残留在模糊图像帧中的任何高空间频率分量可一般的归因于空间不相关的FPN。就这方面而言,在方块2560之后,已经将很多其他噪声或者真正需要的基于场景的信息去除或者排除在模糊图像帧之外,这是因为:对图像帧的有意地模糊(例如,通过从方块2520到2545的运动或者散焦)、行和列FPN项的应用(方块2555)以及反差的确定(方块2560)。
因此,可以预期的是,在方块2560之后,任何残留的高空间频率分量(例如,显示为模糊图像帧中的反差或者差别区域)均可归因于空间不相关的FPN。因此,在方块2565,对模糊图像帧进行高通滤波。在一个实施例中,这可包括应用高通滤波器以从模糊图像帧中提取高空间频率分量。在另一个实施例中,这可包括对模糊图像帧应用低通滤波器,并提取低通滤波后的图像帧和没有滤波的图像帧之间的差值以获得高空间频率分量。根据本公开的各种实施例,可通过计算传感器信号(例如,像素值)和其相邻信号之间的平均差值来实现高通滤波器。
在方块2570,对高通滤波后的模糊图像帧进行平场校正处理,以确定更新的NUC项(例如,如果先前没有进行NUC步骤,那么更新的NUC项可以是方块2570的第一次迭代中的新的NUC项)。
例如,图18示出了根据本公开实施例的平场校正技术2700。在图18中,可通过使用像素2710的相邻像素2712到2726的值来确定模糊图像帧的每个像素2710的NUC项。对于每个像素2710来说,可基于各种相邻像素的值之间的绝对差值来确定数个梯度。例如,可确定下述像素之间的绝对差值:像素2712和2714之间(从左到右的对角梯度)、像素2716和2718之间(从上到下的垂直梯度)、像素2720和2722之间(从右到左的对角梯度)以及像素2724和2726之间(从左到右的水平梯度)。
可对这些绝对差值进行求和,以提供像素2710的求和梯度。可确定像素2710的权重值,所述权重值与求和梯度成反比。可对模糊图像帧的全部像素2710执行该步骤,直到为每个像素2710提供加权值。对于具有低梯度的区域(例如,被模糊的区域或者具有低对比度的区域)来说,权重值将会接近1。相反,对于具有高梯度的区域来说,权重值将会为0或者接近0。如由高通滤波器估计的NUC项的更新值与权重值相乘。
在一个实施例中,通过将一定量的时间衰减应用到NUC项确定步骤,能够进一步地降低将场景信息引入到NUC项的风险。例如,可选择位于0和1之间的时间衰减因子λ,这样存储的新的NUC项(NUCNEW)是旧的NUC项(NUCOLD)和估计的更新的NUC项(NUCUPDATE)的平均加权值。在一个实施例中,这可表示为:NUCNEW=λ·NUCOLD+(1-λ)·(NUCOLD+NUCUPDATE)。
尽管已经描述了根据梯度来确定NUC项,但是适当的时候也可使用局部反差值来代替梯度。也可使用其他技术,例如,标准偏差计算。可执行其他类型的平场校正步骤以确定NUC项,包括:例如公开号为6,028,309,公开日为2000年2月22日的美国专利;公开号为6,812,465,公开日为2004年11月2日的美国专利;以及申请号为12/114,865,申请日为2008年5月5日的美国专利申请所记载的各种步骤。通过引用的方式将上述文献全文合并于此。
再次参考图16,方块2570可包括对NUC项的附加处理。例如,在一个实施例中,为了保留场景信号的平均值,可通过从每个NUC项中减去NUC项的平均值来将全部NUC项的和归一化到0。同样的在方块2570,为了避免行和列噪声影响NUC项,可从每行和列的NUC项中减去每行和列的平均值。结果是,使用在方块2550确定的行和列FPN项的行和列FPN滤波器可以更好地过滤掉将NUC项应用到捕获的图像之后(例如,在方块2580所进行的步骤,本文将对此作进一步地描述)的进一步的迭代中(例如,如图19所详细示出的)的行和列噪声。就这方面而言,行和列FPN滤波器通常可使用更多的数据来计算每行和每列的偏移系数(例如,行和列的FPN项),并且与基于高通滤波器来捕获空间上不相关的噪声的NUC项相比,可从而提供更加可靠的、用于减少空间相关的FPN的可选项。
在方块2571-2573,可以可选地对更新的NUC项执行附加高通滤波和进一步的确定处理以消除空间相关的FPN,所述空间相关的FPN具有比先前由行和列FPN项消除的空间频率更低的空间频率。就这方面而言,红外传感器2132或者红外成像模块2100的其他部件的一些变化可产生空间相关的FPN噪声,不能容易地将所产生的空间相关的FPN噪声建模为行或者列噪声。这种空间相关的FPN可包括例如传感器组件或者红外传感器2132组上的窗样缺损,所述红外传感器2132组与相邻的红外传感器2132相比,其响应不同的辐射度。在一个实施例中,可使用偏移校正来减少这种空间相关的FPN。如果这种空间相关的FPN的数量很多,则也可在模糊图像帧中检测到噪声。由于这种类型的噪声可影响相邻像素,具有很小内核的高通滤波器可能不能检测到相邻像素中的FPN(例如,高通滤波器使用的全部值可从与受到影响的像素附近的像素中提取,从而所述全部值可被同样的偏移误差影响)。例如,如果使用小的内核执行方块2565的高通滤波(例如,只考虑落入受到空间相关的FPN影响的像素的附近范围中的直接相邻的像素),则可能不能检测到广泛分布的空间相关的FPN。
例如,图22示出了根据本公开实施例的附近像素中的空间相关的FPN。如采样的图像帧21100所示,像素21110附近的像素可表现出空间相关的FPN,所述空间相关的FPN不准确的与单个行和列相关,并且分布于附近的多个像素(例如,在该例子中,附近的像素约为4×4的像素)。采样的图像帧21100还包括一组像素21120和一组像素21130,所述像素21120表现出在滤波计算中没有使用的基本上均匀的响应,所述像素21130用于估计像素21110附近的像素的低通值。在一个实施例中,像素21130可以是可分为2个的多个像素,以便于硬件或者软件的有效计算。
再次参考图16,在方块2571-2573,可以可选的对更新的NUC项执行附加高通滤波和进一步的确定处理,以消除空间相关的FPN,例如,像素21110表现出的空间相关的FPN。在方块2571,将在方块2570确定的更新的NUC项应用到模糊图像帧。因此,此时,模糊图像帧将会已经用于初步校正空间相关的FPN(例如,通过在方块2555应用更新的行和列FPN项),并且也用于初步校正空间不相关的FPN(例如,通过在方块2571应用更新的NUC项)。
在方块2572,进一步的应用高通滤波器,该高通滤波器的核比方块2565中使用的高通滤波器的核大,并且可在方块2573进一步地确定更新的NUC项。例如,为了检测像素21110中存在的空间相关的FPN,在方块2572应用的高通滤波器可包括来自像素的足够大的相邻区域的数据,从而能够确定没有受到影响的像素(例如,像素21120)和受到影响的像素(例如,像素21110)之间的差值。例如,可使用具有大核的低通滤波器(例如,远大于3×3像素的N×N内核),并且可减去得到的结果以进行适当的高通滤波。
在一个实施例中,为了提高计算效率,可使用稀疏内核,从而仅使用N×N附近区域内的较少数量的相邻像素。对于任何给定的使用较远的相邻像素的高通滤波器操作(例如,具有大核的高通滤波器)来说,存在将实际的(可能模糊的)场景信息建模为空间相关的FPN的风险。因此,在一个实施例中,可将用于在方块2573确定的更新的NUC项的时间衰减因子λ设置为接近1。
在各种实施例中,可重复方块2571-2573(例如,级联),以利用递增的核尺寸迭代地执行高通滤波,从而提供进一步更新的NUC项,所述进一步更新的NUC项用于进一步校正需要的相邻尺寸区域的空间相关的FPN。在一个实施例中,可根据通过方块2571-2573的先前操作所得到的更新的NUC项是否已经将空间相关的FPN真正的消除,来确定执行这种迭代的决定。
在方块2571-2573完成之后,作出是否将更新的NUC项应用到捕获的图像帧的决定(方块2574)。例如,如果整个图像帧的NUC项的绝对值的平均值小于最小的阈值,或者大于最大的阈值,则可认为该NUC项是假的或者不能提供有意义的校正。可选的,可将阈值标准应用到各个像素,以确定哪个像素接收到更新的NUC项。在一个实施例中,阈值可对应于新计算的NUC项和先前计算的NUC项之间的差值。在另一个实施例中,阈值可独立于先前计算的NUC项。可应用其他测试(例如,空间相关性测试)以确定是否应用该NUC项。
如果认为NUC项是假的或者不可能提供有意义的校正,则流程图返回到方块2505。否则,存储最新确定的NUC项(方块2575)以替代先前的NUC项(例如,由图16中先前执行的迭代确定),并将所述最新确定的NUC项应用到(方块2580)捕获的图像帧。
图19示出了根据本公开实施例的应用在图像处理流水线2800中的图16的各种图像处理技术和其他操作。就这方面而言,流水线2800标识了在用于校正红外成像模块2100提供的图像帧的全部迭代图像的处理方案的情况下,图16的各种操作。在一些实施例中,可由对通过红外传感器2132捕获的图像帧进行操作的处理模块2160或者处理器2195(二者通常也指处理器)来提供流水线2800。
可将红外传感器2132捕获的图像帧提供给帧平均器2804,所述帧平均器2804求多个图像帧的积分以提供具有改进的信噪比的图像帧2802。可通过红外传感器2132、ROIC2402以及实现为支持高图像捕获速率的红外传感器组件2128的其他组件来有效地提供帧平均器2804。例如,在一个实施例中,红外传感器组件2128可以以240Hz的帧速率(例如,每秒捕获240幅图像)来捕获红外图像帧。在该实施例中,例如可通过使红外传感器组件2128工作在相对较低的电压(例如,与移动电话的电压相兼容),以及通过使用相对较小的红外传感器2132阵列(例如,在一个实施例中,为64×64的红外传感器阵列),来实现这样高的帧速率。
在一个实施例中,可以以较高的帧速率(例如,240Hz或者其他帧速率)将这种来自红外传感器组件2128的红外图像帧提供给处理模块2160。在另一个实施例中,红外传感器组件2128可以在较长的时间段或者多个时间段进行积分,从而以较低的帧速率(例如,30Hz、9Hz或者其他帧速率)将积分后的(例如,取平均后的)红外图像帧提供给处理模块2160。有关可用于提供较高图像捕获速率的实现方案的详细信息可在通过引用的方式将其全文并入本文的2011年6月10提出的申请号为61/495,879的美国临时专利申请中找到。
通过流水线2800处理的图像帧2802用于确定各种调整项和增益补偿,其中,由各种项、时域滤波来对所述图像帧2802进行调整。
在方块2810和2814,将工厂增益项2812和工厂偏移项2816应用于图像帧2802,以分别补偿在制造和测试期间所确定的各种红外传感器2132和/或红外成像模块2100的其他部件之间的增益和偏移差。
在方块2580,将NUC项2817应用于图像帧2802,以如上所述的校正FPN。在一个实施例中,如果还没有确定NUC项2817(例如,在已经启动NUC步骤之前),则可能不会执行方块2580,或者可将初始值用于不会导致图像数据改变的NUC项2817(例如,每个像素的偏移值将等于0)。
在方块2818到2822,分别将列FPN项2820和行FPN项2824应用到图像帧2802。如上所述可根据方块2550来确定列FPN项2820和行FPN项2824。在一个实施例中,如果还没有确定列FPN项2820和行FPN项2824(例如,在已经启动NUC步骤之前),则可能不会执行方块2818和2822,或者可将初始值用于不会导致图像数据改变的列FPN项2820和行FPN项2824(例如,每个像素的偏移值将等于0)。
在方块2826,根据时域噪声消减(TNR)步骤对图像帧2802执行时域滤波。图20示出了根据本公开实施例的TNR步骤。在图20中,对当前接收到的图像帧2802a和先前时域滤波后的图像帧2802b进行处理以确定新的时域滤波后的图像帧2802e。图像帧2802a和2802b包括分别以像素2805a和2805b为中心的局部相邻像素2803a和2803b。相邻像素2803a和2803b对应于图像帧2802a和2802b内的相同位置,并且是图像帧2802a和2802b全部像素的子集。在示出的实施例中,相邻像素2803a和2803b包括5×5像素的区域。其他尺寸的相邻像素可用于其他实施例中。
确定相邻像素2803a和2803b对应的像素的差值并对其求平均,以为对应于像素2805a和2805b的位置提供平均增量值2805c。平均增量值2805c可用于在方块2807确定权重值,以将其应用到图像帧2802a和2802b的像素2805a和2805b。
在一个实施例中,如曲线图2809所示,在方块2807确定的权重值可与平均增量值2805c成反比,以使得当相邻像素2803a和2803b之间差别较大时,权重值迅速的降低到0。就这方面而言,相邻像素2803a和2803b之间较大差别可表示场景内已经发生了变化(例如,由于运动而发生的变化),并且在一个实施例中,可对像素2802a和2802b进行适当的加权,以避免在遇到帧到帧的场景改变时引入模糊。权重值和平均增量值2805c之间的其他关联可用于其他实施例中。
在方块2807确定的权重值可用于像素2805a和2805b,以确定图像帧2802e的相应像素2805e的值(方块2811)。就这方面而言,像素2805e可具有根据在方块2807确定的平均增量值2805c和权重值对像素2805a和2805b加权平均(或者其他组合)后的值。
例如,时域滤波后的图像帧2802e的像素2805e可能是图像帧2802a和2802b的像素2805a和2805b的加权和。如果像素2805a和2805b之间的平均差别是由于噪声引起的,那么可以预期的是,相邻像素2805a和2805b之间的平均值的变化将会接近于0(例如,对应于不相关的变化的平均值)。在这种情况下,可以预期的是,相邻像素2805a和2805b之间的差值的和将会接近于0。在这种情况下,可对图像帧2802a的像素2805a进行适当的加权,以有助于生成像素2805e的值。
然而,如果该差值的和不为0(例如,在一个实施例中,甚至很接近于0),那么可将变化解释为是由运动引起的,而不是由噪声引起的。因此,可基于相邻像素2805a和2805b所表现出的平均值的变化来检测运动。在这种情况下,可对图像帧2802a的像素2805a施加较大的权重,而对图像帧2802b的像素2805b施加较小的权重。
其他实施例也是可以考虑的。例如,尽管描述的是根据相邻像素2805a和2805b来确定平均增量值2805c,但是在其他实施例中,可根据任何期望的标准(例如,根据单个像素或者其他类型的由一系列像素组成的像素组)来确定平均增量值2805c。
在上面的实施例中,已经将图像帧2802a描述为当前接收到的图像帧,并且已经将图像帧2802b描述为先前经过时域滤波后的图像帧。在另一个实施例中,图像帧2802a和2802b可以是红外成像模块2100捕获到的还没有经过时域滤波的第一和第二图像帧。
图21示出了与方块2826所执行的TNR步骤有关的详细的实施细节。如图21所示,分别将图像帧2802a和2802b读入到行缓冲器21010a和21010b,并且在将图像帧2802b(例如,先前图像帧)读入到行缓冲器21010b之前,可将其存储到帧缓冲器21020中。在一个实施例中,可由红外成像模块2100和/或主机装置2102的任何合适的部件提供的一块随机存储器(RAM)来实现行缓冲器21010a-b和帧缓冲器21020。
再次参考图19,可将图像帧2802e传送到自动增益补偿方块2828,其对图像帧2802e进行进一步地处理,以提供主机装置2102可根据需要使用的结果图像帧2830。
图19进一步地示出了用于如所讨论的确定行和列FPN项以及NUC项所执行的各种操作。在一个实施例中,这些操作可使用如图19所示的图像帧2802e。因为已经对图像帧2802e进行了时域滤波,所以可消除至少某些时域噪声,从而不会不经意的影响对行和列FPN项2824和2820以及NUC项2817的确定。在另一个实施例中,可使用没有经过时域滤波的图像帧2802。
在图19中,图16的方块2510、2515和2520集中的表示在一起。如所讨论的,可响应于各种NUC步骤启动事件以及基于各种标准或者条件来选择性地启动和执行NUC步骤。还如所讨论的,可根据基于运动的方法(方块2525、2535和2540)或者基于散焦的方法(方块2530)来执行NUC步骤,以提供模糊的图像帧(方块2545)。图8进一步地示出了先前所讨论的关于图16种附加方块2550、2552、2555、2560、2565、2570、2571、2572、2573和2575。
如图19所示,可确定行和列FPN项2824和2820以及NUC项2817,并且以迭代的方式应用上述项,以使得使用已经应用了先前项的图像帧2802来确定更新的项。结果是,图19的所有步骤可重复地更新,并应用这些项以连续地减少主机装置2102将要使用的图像帧2830中的噪声。
再次参考图21,其示出了图5和图8中与流水线2800有关的各种块的详细的实施细节。例如,将方块2525、2535和2540显示为以通过流水线2800接收的图像帧2802的正常帧速率操作。在图21所示的实施例中,将在方块2525所做的决定表示为决定菱形(decisiondiamond),其用于确定给定图像帧2802是否已经充分的改变,从而可以认为如果将图像帧加入到其他图像帧中,该图像帧将会增强模糊,因此将该图像帧进行累加(在该实施例中,通过箭头来表示方块2535)和平均(方块2540)。
同样的在图21中,将对列FPN项2820的确定(方块2550)显示为以更新速率操作,在该例子中,由于在方块2540执行的平均处理,该更新速率为传感器帧速率(例如,正常帧速率)的1/32。其他更新速率可用于其他实施例中。尽管图21仅标识出了列FPN项2820,但是可以以相同的方式,以降低的帧速率来实现行FPN项2824。
图21还示出了与方块2570的NUC确定步骤有关的详细的实施细节。就这方面而言,可将模糊图像帧读入到行缓冲器21030(例如,由红外成像模块2100和/或主机装置2102的任何合适的部件提供的一块RAM来实现)。可对模糊图像帧执行图18的平场校正技术2700。
鉴于本公开的内容,应当理解的是,本文描述的技术可用于消除各种类型的FPN(例如,包括很高幅度的FPN),例如,空间相关的行和列FPN以及空间不相关的FPN。
其他实施例也是可以考虑的。例如,在一个实施例中,行和列FPN项和/或NUC项的更新速率可与模糊图像帧中的模糊的估计数量成反比,和/或与局部反差值(例如,在方块2560确定的局部反差值)的大小成反比。
在各种实施例中,描述的技术优于传统的基于快门的噪声校正技术。例如,通过使用无快门的步骤,不需要设置快门(例如,如快门2105),从而可以减少尺寸、重量、成本和机械复杂度。如果不需要机械的操作快门,还可降低提供给红外成像模块2100或者由红外成像模块2100产生的电源和最大电压。通过将作为潜在的故障点的快门去除,将会提高可靠性。无快门的步骤还消除了由通过快门成像的场景的暂时性堵塞所引起的潜在的图像中断。
同样地,通过有意地使用从真实场景(不是快门提供的均匀场景)捕获的模糊图像帧来校正噪声,可对辐射水平与期望成像的那些真实场景类似的图像帧进行噪声校正。这能够改进根据各种描述的技术所确定的噪声校正项的精度和效率。
如所讨论的,在各种实施例中,红外成像模块2100可被配置为在低电压下工作。特别的,可通过被配置为在低功耗下工作和/或根据其他参数工作的电路来实现红外成像模块2100,所述其他参数允许红外成像模块2100方便有效地在各种类型的主机装置2102(例如,移动装置及其他装置)中实现。
例如,图23示出了根据本公开实施例的包括红外传感器2132和低压差稳压器(LDO)21220的红外传感器组件2128的另一个实现方式的框图。如图所示,图23还示出了各种部件21202、21204、21205、21206、21208和21210,可以以与先前描述的有关图15的相应的部件相同或者相似的方式来实现这些部件。图23还示出了偏压校正电路21212,其可用于对提供给红外传感器2132的一个或者多个偏压电压进行调整(例如,以补偿温度改变、自热和/或其他因素)。
在一些实施例中,可将LDO21220设置为红外传感器组件2128的一部分(例如,位于相同的芯片上和/或晶片级封装为ROIC)。例如,可将LDO21220设置为具有红外传感器组件2128的FPA的一部分。如所讨论的,这种实现可减少引入到红外传感器组件2128中的电源噪声,从而提供改进的PSRR。另外,通过利用ROIC来实现LDO,可消耗较少的模片面积,并且需要较少的分离模片(或者芯片)。
LDO21220通过馈电线21232接收电源21230提供的输入电压。LDO21220通过馈电线21222向红外传感器组件2128的各种部件提供输出电压。就这方面而言,根据例如以引用的方式将其全文并入本文的、2013年12月9日提出申请号为14/101,245的美国专利申请所记载的各种技术,LDO21220可响应于从电源21230接收到的单输入电压,向红外传感器组件2128的各个部件提供基本上相同的调节输出电压。
例如,在一些实施例中,电源21230可提供从大约2.8v到大约11v范围的输入电压(例如,在一个实施例中为大约2.8v),并且LDO21220可提供从大约1.5v到大约2.8v范围的输出电压(例如,在各种实施例中大约为2.8、2.5、2.4或更低的电压)。就这方面而言,无论电源21230是提供大约9v到大约11v的传统电压范围,还是提供低电压(例如,大约2.8v),LDO21220都可用于提供恒定的调节输出电压。因此,尽管为输入和输出电压提供了多种电压范围,但是可以预期的是,不管输入电压如何变化,LDO21220的输出电压将会保持不变。
与用于FPA的传统电源相比,将LDO21220实现为红外传感器组件2128的一部分具有很多优点。例如,传统的FPA通常依赖于多个电源,所述多个电源中的每一个可分开的向FPA供电,并且分开的分布于FPA的各个部件。通过由LDO21220对单电源21230进行调节,合适的电压可分别的提供给(例如,以减少可能的噪声)低复杂性的红外传感器组件2128的所有部件。即使来自电源21230的输入电压发生改变(例如,如果由于电池或者用于电源21230的其他类型的装置的充电或者放电而使输入电压增加或者降低),LDO21220的使用还使得红外传感器组件2128仍能以恒定的方式工作。
图23中示出的红外传感器组件2128的各种部件也可实现为在比传统装置使用的电压更低的电压下工作。例如,如所讨论的,LDO21220可实现为提供低电压(例如,大约2.5v)。这与通常用于为传统的FPA供电的多个较高电压形成了鲜明的对比,所述多个较高电压例如为:用于为数字电路供电的大约3.3v到大约5v的电压;用于为模拟电路供电的大约3.3v的电压;以及用于为负载供电的大约9v到大约11v的电压。同样的,在一些实施例中,LDO21220的使用可减少或者消除对提供给红外传感器组件2128的单独负参考电压的需要。
参考图24,可进一步地理解红外传感器组件2128的低电压操作的其他方面。图24示出了根据本公开实施例的图23的红外传感器组件2128的一部分的电路图。特别的,图24示出了连接到LDO21220和红外传感器2132的偏压校正电路21212的其他部件(例如,部件21326、21330、21332、21334、21336、21338和21341)。例如,根据本公开的实施例,偏压校正电路21212可用于补偿偏置电压中依赖于温度的变化。通过参考公开号为7,679,048、公开日为2010年3月16的美国专利中标示的相似的部件,可进一步地理解这些其他附件的操作,通过引用的方式将其全文合并于此。还可根据公开号为6,812,465、公开日为2004年11月2日的美国专利中标示的各种部件来实现红外传感器组件2128,通过引用的方式将其全文合并于此。
在各种实施例中,全部或者部分偏压校正电路21212可实现在如图24所示的整体阵列基础上(例如,用于集中在阵列中的所有红外传感器2132)。在其他实施例中,可在单个传感器基础上实现全部或者部分偏压校正电路21212(例如,对每个传感器2132都全部或者部分地复制)。在一些实施例中,图24的偏压校正电路21212和其他部件可实现为ROIC21202的一部分。
如图24所示,LDO21220向沿着馈电线1222中的一个的偏压校正电路21212提供负载电压Vload。如所讨论的,在一些实施例中,Vload可以大约为2.5v,与此形成对比的是,可用作传统红外成像装置中的负载电压的大小大约为9v到大约11v的较高的电压。
基于Vload,偏压校正电路21212在节点21360提供传感器偏置电压Vbolo。Vbolo可通过适合的开关电路21370(例如,由图24中的虚线表示的)分发至一个或者多个红外传感器132。在一些例子中,可根据本文之前引用的公开号为6,812,465和7,679,048的专利中标示出的合适的部件来实现开关电路21370。
每个红外传感器2132均包括通过开关电路21370接收Vbolo的节点21350以及可接地的另一个节点21352、基底和/或负参考电压。在一些实施例中,节点21360处的电压与节点21350处的Vbolo基本相同。在其他实施例中,可调整在节点21360处的电压,以补偿与开关电路21370和/或其他因素有关的可能的压降。
可利用通常比传统红外传感器偏压所使用的电压较低的电压来实现Vbolo。在一个实施例中,Vbolo可以在从大约0.2v到大约0.7v的范围。在另一个实施例中,Vbolo可以在大约0.4v到大约0.6v的范围。在另一个实施例中,Vbolo大约为0.5v。相比之下,传统红外传感器通常使用的偏置电压大约为1v。
与传统的红外成像装置相比,根据本公开的红外传感器2132的较低偏置电压的使用使得红外传感器组件2128能够具有显著降低的功耗。特别的,每个红外传感器2132的功耗以偏置电压的平方减少。因此,电压的降低(例如,从1.0v降到0.5v)提供了显著的功耗的降低,特别是当所述电压的降低应用到红外传感器阵列中的多个红外传感器2132时。这种功率的降低还可导致红外传感器阵列2128的自热的减少。
根据本公开的其他实施例,提供了用于降低由工作在低电压的红外成像装置提供的图像帧中的噪声效应的各种技术。就这方面而言,当红外传感器组件2128以所描述的低电压工作时,如果不对噪声、自热和/或其他现象进行校正,所述噪声、自热和/或其他现象会在红外传感器组件2128所提供的图像帧中变得更加明显。
例如,参考图24,当LDO21220以本文所述的方式保持在低电压Vload时,Vbolo也将保持在它的相应的低电压,并且可降低它的输出信号的相对尺寸。因此,噪声、自热和/或其他现象可对从红外传感器2132读出的较小的输出信号产生较大的影响,从而导致输出信号的变化(例如,错误)。如果不进行校正,这些变化可能表现为图像帧中的噪声。此外,尽管低电压工作可以降低某些现象(例如,自热)的总体数量,但是较小的输出信号可使得残留的误差源(例如,残留的自热)在低电压工作期间对输出信号产生不成比例的影响。
为了补偿这种现象,可利用各种阵列尺寸、帧率和/或帧平均技术来实现红外传感器组件2128、红外成像模块2100和/或主机装置2102。例如,如所讨论的,各种不同的阵列尺寸可考虑用于红外传感器2132。在一些实施例中,可利用范围从32×32到160×120的阵列尺寸的红外传感器2132来实现红外传感器2132。其他例子的阵列尺寸包括80×64、80×60、64×64以及64×32。可使用任何期望的尺寸。
有利的是,当利用这种相对小的阵列尺寸实现红外传感器组件2128时,所述红外传感器组件2128可以在无需对ROIC及相关电路进行较大变动的情况下,以相对高的帧率来提供图像帧。例如,在一些实施例中,帧率的范围可以从大约120Hz到大约480Hz。
在一些实施例中,阵列尺寸和帧率可以相对于彼此之间增减(例如,以成反比例的方式或者其他方式),以使得较大的阵列实现为具有较低的帧率,而较小的阵列实现为具有较高的帧率。例如,在一个例子中,160×120的阵列可提供大约为120Hz的帧率。在另一个实施例中,80×60的阵列可提供相应的大约为240Hz的较高的帧率。其他帧率也是可以考虑的。
通过阵列尺寸和帧率相对于彼此之间的增减,无论实际的FPA阵列尺寸或者帧率为多少,FPA阵列的行和/或列的特定读出定时都可以保持不变。在一个实施例中,读出定时可以为大约每行或列63微秒。
如之前关于图19的讨论,红外传感器2132捕获的图像帧可提供给帧平均器2804,所述帧平均器2804求多个图像帧的积分以提供具有低帧率(例如,大约30Hz、大约60Hz或者其他帧率)和改进的信噪比的图像帧2802(例如,处理后的图像帧)。特别的,通过对由相对小的FPA阵列提供的高帧率图像帧进行平均,可将图像帧2802中由于低电压工作而产生的图像噪声有效的平均掉和/或显著的减少。因此,红外传感器组件2128可以工作在由如所讨论的LDO21220提供的相对低的电压,并且在帧平均器2804对产生的图像帧2802进行处理之后,红外传感器组件2128不会受到所述产生的图像帧2802中的额外的噪声及相关的副作用的影响。
其他实施例也是可以考虑的。例如,尽管示出了红外传感器2132的单个阵列,但是可以预期的是,可一起使用多个这样的阵列以提供较高分辨率的图像帧(例如,一个场景可以在多个这样的阵列上成像)。这种阵列可设置在多个红外传感器组件2128和/或设置在同样的红外传感器组件2128中。如所描述的,每个这样的阵列均可工作在低电压,并且也可为每个这样的阵列配置相关的ROIC电路,以使得每个阵列仍然可以相对高的帧率工作。共享或者专用帧平均器2804可对由这种阵列提供的高帧率图像帧进行平均,以减少和/或消除与低电压工作相关的噪声。因此,当工作在低电压时仍然可获得高分辨率红外图像。
在各种实施例中,可将红外传感器组件2128实现为合适的尺寸,以使得红外成像模块2100能够与小形状因子的插座2104(例如,用于移动装置的插座)一起使用。例如,在一些实施例中,可将红外传感器组件2128实现为范围为大约4.0mm×大约4.0mm到大约5.5mm×大约5.5mm(例如,在一个实施例中,大约4.0mm×大约5.5mm)的芯片尺寸。可将红外传感器组件2128实现为这种尺寸或者其他合适的尺寸,以使得能够与实现为各种尺寸的插座2104一起使用,所述插座2104的尺寸例如为:8.5mm×8.5mm、8.5mm×5.9mm、6.0mm×6.0mm、5.5mm×5.5mm、4.5mm×4.5mm和/或其他插座尺寸,例如,如以引用的方式将其全文并入本文的2011年6月10提出的申请号为61/495,873的美国临时专利申请表1所示的那些尺寸。
在合适的情况下,可通过硬件、软件或者硬件和软件的结合来实现本公开所提供的各种实施例。同样的在合适的情况下,在不脱离本公开的精神的情况下,可将本文所提出的各种硬件部件和/或软件部件合并为包括软件、硬件和/或二者的复合部件。在合适的情况下,在不脱离本公开的精神的情况下,可将本文所提出的各种硬件部件和/或软件部件分离为包括软件、硬件或二者的子部件。另外,在合适的情况下,可以预期的是,软件部件能够实现为硬件部件,反之亦然。
根据本公开的软件,例如,非暂时性指令、程序代码和/或数据可存储在一个或者多个非暂时性机器可读介质中。还可以预期的是,可使用一个或者多个通用或者专用计算机和/或计算机系统、网络和/或其他方式来实现本文所提及的软件。在合适的情况下,本文所描述的各种步骤的顺序可以改变、合并为复合步骤和/或分离为子步骤,以提供本文所描述的功能。
上述公开不意指将本实用新型限制为公开的精确形式或特定的使用领域。可预期的是,根据该公开可能存在关于本实用新型的各种替代实施方案和/或修改,无论是明示或隐含的。
以上描述的实施例仅为了举例说明,而不是限制本实用新型。还应当理解的是,根据本实用新型的精神,可能有许多修改和改变。因此,本实用新型的范围仅由下面的权利要求书限定。

Claims (17)

1.一种成像系统,其特征在于,包括:
系统外壳;和
成像器阵列,其布置在系统外壳中并适于成像场景,其中成像器阵列包括多个红外成像模块,其中每个红外成像模块包括:
模块外壳,
光学元件,其相对于模块外壳固定并适于从场景接收红外辐射,和
焦平面阵列中的多个红外传感器,其适于基于经由光学元件接收的红外辐射捕获场景的图像。
2.根据权利要求1所述的成像系统,其特征在于,红外成像模块以多级错开配置的方式布置在系统外壳内,以增加成像器阵列的封装率。
3.根据权利要求1所述的成像系统,其特征在于,
第一红外成像模块包括第一滤波器,该第一滤波器适于将由第一红外成像模块接收的红外辐射限制在第一频谱范围;和
第二红外成像模块包括第二滤波器,该第二滤波器适于将由第二红外成像模块接收的红外辐射限制在第二频谱范围。
4.根据权利要求1所述的成像系统,其特征在于,
至少第一红外成像模块在尺寸上大于第二红外成像模块;和
第一红外成像模块适于以比第二红外成像模块更高的分辨率和更窄的视场捕获场景的图像。
5.根据权利要求1所述的成像系统,其特征在于,至少一个红外成像模块适于挡住其红外传感器的期望视场之外的红外辐射。
6.根据权利要求1所述的成像系统,其特征在于,至少两个红外成像模块相对于彼此呈现出视差,并适于提供场景的立体图像。
7.根据权利要求1所述的成像系统,其特征在于,
每个红外成像模块都包括从其红外传感器延伸穿过其光学元件的光轴;
至少两个红外成像模块的光轴相对于彼此呈现出相移;
由至少两个红外成像模块提供的图像相对于彼此相移;和
成像系统进一步包括处理器,该处理器适于执行相移图像的超分辨率处理以提供场景的结果图像,该结果图像的分辨率比至少两个红外成像模块的分辨率更高。
8.根据权利要求1所述的成像系统,其特征在于,
成像器阵列适于使用至少第一个红外成像模块捕获场景的第一图像;
成像器阵列适于使用至少第二个红外成像模块与第一图像同时捕获场景的第二图像,其中第二图像比第一图像具有更高的分辨率;和
成像系统进一步包括:
包括从第一图像到第二图像的映射的数据库,和
处理器,其适于:
将由成像器阵列提供的第三图像映射到第一图像,其中第三图像具有等于第一图像的分辨率,和
用第二图像替换第三图像以提供高分辨率的结果图像。
9.根据权利要求1所述的成像系统,其特征在于,
第一个红外成像模块中的一个红外传感器是有缺陷的;和
该成像系统还进一步包括处理器,该处理器适于用与第二个红外成像模块中的对应于有缺陷的传感器的一个红外传感器相关的图像数据替换与有缺陷的红外传感器相关的图像数据。
10.根据权利要求1所述的成像系统,其特征在于,进一步包括处理器,该处理器适于:
将至少两个红外成像模块的红外传感器映射到包括多个像素的网格;
为每个网格像素累积来自至少两个红外成像模块的信号;和
从网格像素提供场景的结果图像,其中结果图像的信噪比高于红外成像模块捕获的图像的信噪比。
11.根据权利要求1所述的成像系统,其特征在于,成像器阵列进一步包括:
多个可见光传感器阵列,其中每个可见光传感器阵列包括:
适于从场景接收可见光辐射的透镜;和
多个可见光传感器,其适于基于经由透镜接收到的可见光辐射来捕获场景的图像。
12.根据权利要求1所述的成像系统,其特征在于,
第一个红外成像模块适于捕获红外辐射的第一波长范围的第一图像;
第二个红外成像模块适于捕获红外辐射的第二波长范围的第二图像;
第二波长范围是第一波长范围的子集,并且对应于气体的吸收带;和
该成像系统进一步包括处理器,其适于比较第一图像和第二图像以确定场景中气体的存在。
13.根据权利要求12所述的成像系统,其特征在于,
第三个红外成像模块适于捕获红外辐射的第三波长范围的第三图像;
第三波长范围对应于该气体的另一个吸收带;和
该处理器适于将第一图像或第二图像与第三图像比较,以确定场景中气体的存在。
14.根据权利要求1所述的成像系统,其特征在于,每个红外成像模块进一步包括处理器,该处理器适于:
接收与红外成像模块的红外传感器捕获的图像相关的多个像素值;
将红外传感器映射到坐标空间,其中将每个红外成像模块的至少一个红外传感器映射到坐标空间的每个坐标;和
基于映射到同一坐标的所有红外传感器的像素值,为每个红外传感器计算偏移校正项。
15.根据权利要求1所述的成像系统,其特征在于,每个红外成像模块的焦平面阵列包括适于接收从0.2伏至0.7伏的范围中选择的偏置电压的微测辐射热计的阵列。
16.根据权利要求15所述的成像系统,其特征在于,
微测辐射热计的阵列的尺寸为80乘60;和
每个红外成像模块适于被插入到尺寸小于8.5mm乘8.5mm的插座中。
17.根据权利要求1所述的成像系统,其特征在于,
图像是场景的未模糊的红外图像;
至少一个红外成像模块被配置为捕获场景的有意模糊的红外图像;和
成像系统进一步包括处理器,该处理器适于基于有意模糊的红外图像确定多个非均匀校正项,并将非均匀校正项应用于对应的未模糊的红外图像以去除未模糊的红外图像的噪声。
CN201390001107.7U 2012-12-21 2013-12-20 成像系统 Expired - Lifetime CN205265783U (zh)

Applications Claiming Priority (19)

Application Number Priority Date Filing Date Title
US201261745193P 2012-12-21 2012-12-21
US61/745,193 2012-12-21
US201261746069P 2012-12-26 2012-12-26
US201261746074P 2012-12-26 2012-12-26
US61/746,074 2012-12-26
US61/746,069 2012-12-26
US201261748018P 2012-12-31 2012-12-31
US61/748,018 2012-12-31
US201361793952P 2013-03-15 2013-03-15
US201361792582P 2013-03-15 2013-03-15
US61/792,582 2013-03-15
US61/793,952 2013-03-15
US14/099,818 US9723227B2 (en) 2011-06-10 2013-12-06 Non-uniformity correction techniques for infrared imaging devices
US14/099,818 2013-12-06
US14/101,245 2013-12-09
US14/101,258 US9723228B2 (en) 2011-06-10 2013-12-09 Infrared camera system architectures
US14/101,258 2013-12-09
US14/101,245 US9706139B2 (en) 2011-06-10 2013-12-09 Low power and small form factor infrared imaging
PCT/US2013/077224 WO2014143338A2 (en) 2012-12-21 2013-12-20 Imager with array of multiple infrared imaging modules

Publications (1)

Publication Number Publication Date
CN205265783U true CN205265783U (zh) 2016-05-25

Family

ID=51538264

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201390001107.7U Expired - Lifetime CN205265783U (zh) 2012-12-21 2013-12-20 成像系统

Country Status (2)

Country Link
CN (1) CN205265783U (zh)
WO (1) WO2014143338A2 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107271039A (zh) * 2017-07-13 2017-10-20 西安交通大学 紧凑微型快照式光谱成像探测装置及探测方法
WO2018176493A1 (en) * 2017-04-01 2018-10-04 SZ DJI Technology Co., Ltd. Low-profile multi-band hyperspectral imaging for machine vision
CN110207842A (zh) * 2019-07-01 2019-09-06 中国电子科技集团公司第十三研究所 亚像素级边缘效应的修正方法及终端设备
CN111051984A (zh) * 2017-08-14 2020-04-21 Asml荷兰有限公司 光学检测器
CN111433591A (zh) * 2017-10-09 2020-07-17 Csir公司 气体检测系统和方法
CN111727358A (zh) * 2017-12-29 2020-09-29 前视红外系统股份公司 具有被配置用于不同光谱响应的传感器的红外传感器阵列
CN112560841A (zh) * 2020-12-07 2021-03-26 上海新产业光电技术有限公司 一种阵列相机
CN112788201A (zh) * 2019-11-07 2021-05-11 虹软科技股份有限公司 摄像系统
CN113950403A (zh) * 2019-06-11 2022-01-18 惠普发展公司,有限责任合伙企业 适配制造模拟

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2579655B1 (es) * 2015-02-12 2017-06-01 Universidad De Salamanca Equipo portátil de puntería para cámaras termográficas
US20170127000A1 (en) 2015-10-28 2017-05-04 Delphi Technologies, Inc. Automated vehicle imager device with improved infrared sensitivity
US10451548B2 (en) 2016-01-15 2019-10-22 The Mitre Corporation Active hyperspectral imaging system
DE102019008472B4 (de) 2019-01-18 2023-06-29 Cubert GmbH Multilinsen-Kamerasystem und Verfahren zur hyperspektralen Aufnahme von Bildern
DE102019101324B4 (de) * 2019-01-18 2021-06-10 Cubert GmbH Multilinsen-Kamerasystem und Verfahren zur hyperspektralen Aufnahme von Bildern
EP3917789A4 (en) * 2019-01-31 2022-09-21 Hewlett-Packard Development Company, L.P. PERFORMANCE OF LASERS FOR PRINTING COLORS OF SECURITY PIXELS
US11891057B2 (en) * 2019-09-24 2024-02-06 Seek Thermal, Inc. Thermal imaging system with multiple selectable viewing angles and fields of view for vehicle applications
FR3104873B1 (fr) * 2019-12-16 2023-05-26 Tangram Image Sensor Terminal communiquant avec imageur perfectionné
CN112366212B (zh) * 2020-10-28 2024-02-09 中国兵器工业集团第二一四研究所苏州研发中心 一种光收集效率高的emccd及其制作方法
US20220261964A1 (en) * 2021-02-12 2022-08-18 Flir Commercial Systems, Inc. Image non-uniformity mitigation systems and methods
GB2609420A (en) * 2021-07-29 2023-02-08 ams Sensors Germany GmbH Sectional multi spectral sensor with optical blurring
US20230316467A1 (en) * 2022-04-05 2023-10-05 Baker Hughes Holdings Llc Digital Detector Array Correction

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6028309A (en) 1997-02-11 2000-02-22 Indigo Systems Corporation Methods and circuitry for correcting temperature-induced errors in microbolometer focal plane array
US6596979B2 (en) * 2001-02-20 2003-07-22 Syscan Technology (Shenzhen) Co., Limited Method and apparatus for scanning colors using multiple arrays of photodetectors
US6812465B2 (en) 2002-02-27 2004-11-02 Indigo Systems Corporation Microbolometer focal plane array methods and circuitry
US7034301B2 (en) 2002-02-27 2006-04-25 Indigo Systems Corporation Microbolometer focal plane array systems and methods
US7224382B2 (en) * 2002-04-12 2007-05-29 Image Masters, Inc. Immersive imaging system
US7470902B1 (en) 2006-03-20 2008-12-30 Flir Systems, Inc. Infrared camera electronic architectures
US7470904B1 (en) 2006-03-20 2008-12-30 Flir Systems, Inc. Infrared camera packaging
US7679048B1 (en) 2008-04-18 2010-03-16 Flir Systems, Inc. Systems and methods for selecting microbolometers within microbolometer focal plane arrays
US8766808B2 (en) * 2010-03-09 2014-07-01 Flir Systems, Inc. Imager with multiple sensor arrays
WO2018227003A1 (en) 2017-06-08 2018-12-13 Superior Energy Services, Llc Deep set safety valve

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10962858B2 (en) 2017-04-01 2021-03-30 SZ DJI Technology Co., Ltd. Low-profile multi-band hyperspectral imaging for machine vision
WO2018176493A1 (en) * 2017-04-01 2018-10-04 SZ DJI Technology Co., Ltd. Low-profile multi-band hyperspectral imaging for machine vision
CN107271039A (zh) * 2017-07-13 2017-10-20 西安交通大学 紧凑微型快照式光谱成像探测装置及探测方法
CN111051984A (zh) * 2017-08-14 2020-04-21 Asml荷兰有限公司 光学检测器
CN111051984B (zh) * 2017-08-14 2022-04-12 Asml荷兰有限公司 光学检测器
CN111433591B (zh) * 2017-10-09 2023-07-25 Csir公司 气体检测系统和方法
CN111433591A (zh) * 2017-10-09 2020-07-17 Csir公司 气体检测系统和方法
CN111727358A (zh) * 2017-12-29 2020-09-29 前视红外系统股份公司 具有被配置用于不同光谱响应的传感器的红外传感器阵列
CN111727358B (zh) * 2017-12-29 2023-11-21 前视红外系统股份公司 具有被配置用于不同光谱响应的传感器的红外传感器阵列
CN113950403A (zh) * 2019-06-11 2022-01-18 惠普发展公司,有限责任合伙企业 适配制造模拟
CN113950403B (zh) * 2019-06-11 2024-06-18 惠普发展公司,有限责任合伙企业 用于三维制造的方法、三维打印设备以及计算机可读介质
CN110207842B (zh) * 2019-07-01 2020-09-01 中国电子科技集团公司第十三研究所 亚像素级边缘效应的修正方法及终端设备
CN110207842A (zh) * 2019-07-01 2019-09-06 中国电子科技集团公司第十三研究所 亚像素级边缘效应的修正方法及终端设备
CN112788201A (zh) * 2019-11-07 2021-05-11 虹软科技股份有限公司 摄像系统
CN112560841A (zh) * 2020-12-07 2021-03-26 上海新产业光电技术有限公司 一种阵列相机

Also Published As

Publication number Publication date
WO2014143338A3 (en) 2015-01-29
WO2014143338A2 (en) 2014-09-18

Similar Documents

Publication Publication Date Title
CN205265783U (zh) 成像系统
US11445131B2 (en) Imager with array of multiple infrared imaging modules
US11778289B2 (en) Multi-camera imaging systems
CN105009568B (zh) 用于处理可见光谱图像和红外图像的系统、方法及非易失性机器的可读介质
US8766808B2 (en) Imager with multiple sensor arrays
CN105191288B (zh) 异常像素检测
Burke Image Acquisition: Handbook of machine vision engineering: Volume 1
CN204649311U (zh) 测量装置
US20160156880A1 (en) Durable compact multisensor observation devices
CN204442498U (zh) 可佩戴的成像设备与多方向威胁监视头盔
CN104782116B (zh) 热图像中的行和列降噪
CN107547892A (zh) 热异常检测
CN106595869B (zh) 一种高分辨率制冷型红外热像仪
CN205160655U (zh) 用于交通工具的红外成像系统
US9354045B1 (en) Image based angle sensor
CN106123915B (zh) 一种基于直接点扩散函数的气动退化图像复原系统
CN110476412A (zh) 信息处理装置、信息处理方法和程序
Toet et al. The TRICLOBS dynamic multi-band image data set for the development and evaluation of image fusion methods
CN107084788A (zh) 一种多光谱成像系统
CN205212950U (zh) 具有可区域化测辐射热计的成像装置
Walczak et al. The GONet (Ground Observing Network) camera: an inexpensive light pollution monitoring system
Preston et al. Development of a field-portable imaging system for scene classification using multispectral data fusion algorithms
CN106705942A (zh) 一种检验遥感影像处理质量的方法
Yang et al. Panoramic camera on the Yutu lunar rover of the Chang'e-3 mission
Zhang et al. Image Acquisition Devices

Legal Events

Date Code Title Description
C14 Grant of patent or utility model
GR01 Patent grant
CX01 Expiry of patent term
CX01 Expiry of patent term

Granted publication date: 20160525