JP2024514493A - Snapshot type high-precision multispectral imaging system and method using multiplexed illumination - Google Patents

Snapshot type high-precision multispectral imaging system and method using multiplexed illumination Download PDF

Info

Publication number
JP2024514493A
JP2024514493A JP2023560286A JP2023560286A JP2024514493A JP 2024514493 A JP2024514493 A JP 2024514493A JP 2023560286 A JP2023560286 A JP 2023560286A JP 2023560286 A JP2023560286 A JP 2023560286A JP 2024514493 A JP2024514493 A JP 2024514493A
Authority
JP
Japan
Prior art keywords
imaging system
multispectral imaging
light
multispectral
frequency bands
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023560286A
Other languages
Japanese (ja)
Inventor
イュ,シュァイ
ドゥワイト,ジェイソン
レー,ハン
イー. サッチャー,ジェフリー
ファン,ウェンシェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Spectral MD Inc
Original Assignee
Spectral MD Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Spectral MD Inc filed Critical Spectral MD Inc
Publication of JP2024514493A publication Critical patent/JP2024514493A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0208Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using focussing or collimating elements, e.g. lenses or mirrors; performing aberration correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0272Handheld
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • G01J3/51Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors using colour filters
    • G01J3/513Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors using colour filters having fixed filter-detector pairs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/10Arrangements of light sources specially adapted for spectrometry or colorimetry
    • G01J2003/102Plural sources
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/12Generating the spectrum; Monochromators
    • G01J2003/1226Interference filters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2803Investigating the spectrum using photoelectric array detector
    • G01J2003/2806Array and filter array
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • G01J2003/2826Multispectral imaging, e.g. filter imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J2003/283Investigating the spectrum computer-interfaced
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/10Arrangements of light sources specially adapted for spectrometry or colorimetry

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Spectrometry And Color Measurement (AREA)

Abstract

本発明の技術は、概して、少なくともカラーカメラと、特注設計の8バンド光学フィルタと、電動ズームレンズと、8個の波長のマルチカラーLED照明システムからなるスナップショット型シングルアパーチャマルチスペクトルイメージング装置を含む。さらに、本発明の技術は、8枚のマルチスペクトルイメージング画像を得るための、LED照明の時系列とLED照明の組み合わせの設計およびアンミキシングアルゴリズムに関する方法を含む。本発明の装置および方法によれば、マルチスペクトル画像の取得速度の高速化(100ミリ秒未満)、シングルアパーチャシステムの採用による視差補正計算なしでの後処理速度の高速化、調整可能な視野、フォームファクタの低減、コストの削減およびスペクトル情報の高精度化を達成することができる。The present technology generally includes a snapshot type single aperture multispectral imaging device consisting of at least a color camera, a custom designed 8 band optical filter, a motorized zoom lens, and an 8 wavelength multicolor LED illumination system. In addition, the present technology includes a method for designing a time sequence of LED illumination and a combination of LED illumination and an unmixing algorithm to obtain 8 multispectral imaging images. The present device and method can achieve high speed acquisition of multispectral images (less than 100 ms), high speed post-processing without parallax correction calculations by adopting a single aperture system, adjustable field of view, reduced form factor, reduced cost, and high accuracy of spectral information.

Description

関連出願の相互参照
本出願は、2021年3月30日に出願された「多重化照明を利用したスナップショット型高精度マルチスペクトルイメージングシステムおよびその方法」という名称の米国仮特許出願第63/168,151号の利益を主張するものであり、この出願は、あらゆる目的で引用によりその全体が本明細書に明示的に援用される。
Cross-reference to Related Applications This application is filed on March 30, 2021, and is filed under U.S. Provisional Patent Application No. 63/168,151 entitled "Snapshot High Precision Multispectral Imaging System and Method Utilizing Multiplexed Illumination" No. 5,002,101, which application is expressly incorporated herein by reference in its entirety for all purposes.

連邦政府の助成による研究開発に関する陳述
本開示に記載の発明の一部は、契約番号HHSO100201300022Cの下、米国保健福祉省の事前準備・対応担当次官補局内の米生物医学先端研究開発局(BARDA)により付与された米国政府の支援を受けてなされたものである。また、本開示に記載の発明の一部は、契約番号W81XWH-17-C-0170および/または契約番号W81XWH-18-C-0114の下、米国国防保健局(DHA)により付与された米国政府の支援を受けてなされたものである。米国政府は、本発明に関し一定の権利を保有する場合がある。
STATEMENT REGARDING FEDERALLY SPONSORED RESEARCH AND DEVELOPMENT Certain inventions described in this disclosure were made with the Biomedical Advanced Research and Development Agency (BARDA) within the Office of the Assistant Secretary for Preparedness and Response, U.S. Department of Health and Human Services under contract number HHSO100201300022C. It was made with support from the U.S. government granted by the United States. In addition, some of the inventions described in this disclosure may be made by the United States Government under Contract No. W81XWH-17-C-0170 and/or Contract No. W81XWH-18-C-0114 awarded by the United States Government Health Agency (DHA). This was done with the support of The U.S. Government may have certain rights in this invention.

本明細書に開示されたシステムおよび方法は、スペクトルイメージングに関し、より具体的には、多重化照明を利用したマルチスペクトルイメージングシステムおよびその方法に関する。 The systems and methods disclosed herein relate to spectral imaging, and more particularly to a multispectral imaging system and method utilizing multiplexed illumination.

電磁スペクトルとは、電磁放射線(例えば光)の波長または周波数の帯域である。電磁スペクトルは、長い波長から短い波長の順に、電波、マイクロ波、赤外線光(IR)、可視光(すなわちヒトの眼の構造により検出可能な光)、紫外線光(UV)、X線、およびガンマ線を含む。また、スペクトルイメージングは、像平面の様々な位置においてスペクトル情報の一部または完全なスペクトルを収集する分光学および写真撮影術の一分野を指す。マルチスペクトルイメージングシステムは、複数のスペクトル帯域(通常、それぞれ異なるスペクトル領域にある十数個以下のスペクトル帯域)を撮影して、画素ごとにそのスペクトル帯域での測定値を収集することができ、1個のスペクトルチャネルあたり数十nmの帯域幅を参照することができる。 The electromagnetic spectrum is a band of wavelengths or frequencies of electromagnetic radiation (e.g., light). From longest to shortest wavelengths, the electromagnetic spectrum includes radio waves, microwaves, infrared light (IR), visible light (i.e., light detectable by structures in the human eye), ultraviolet light (UV), x-rays, and gamma rays. Spectral imaging also refers to a branch of spectroscopy and photography that collects partial or complete spectra of spectral information at various locations in the image plane. Multispectral imaging systems can image multiple spectral bands (usually up to a dozen spectral bands, each in a different spectral region) and collect measurements in the spectral bands for each pixel, and can refer to tens of nm of bandwidth per spectral channel.

スペクトル帯域は、光学フィルタおよび/またはマルチチャネルイメージセンサ(例えばカラーカメラ)により分離してもよい。フィルタホイールを用いたシングルアパーチャマルチスペクトルイメージングシステムはスペクトルの精度が高いが、その一方で、フィルタ切り換え時のホイールの機械的回転が低速であることから、時間分解能が低い(数十秒)という制約がある。マルチアパーチャスペクトルイメージングシステムは、マルチバンドパス光学フィルタを備えた多色カメラを採用することによって、このような制約を克服しており、アンミキシングアルゴリズムを利用して、ある程度の時間分解能(100ミリ秒未満、いわゆるスナップショット)でマルチスペクトルイメージング(MSI)画像を得ることができる。しかし、このようなマルチアパーチャスペクトルイメージングシステムは、複数のアパーチャ間の視差補正が煩雑であるという問題が依然として残されていた。 Spectral bands may be separated by optical filters and/or multi-channel image sensors (eg, color cameras). Single-aperture multispectral imaging systems using filter wheels have high spectral accuracy, but are limited by low temporal resolution (tens of seconds) due to the slow mechanical rotation of the wheel when switching filters. There is. Multi-aperture spectral imaging systems overcome such limitations by employing polychromatic cameras with multi-bandpass optical filters and utilize unmixing algorithms to achieve some degree of temporal resolution (100 ms Multispectral imaging (MSI) images can be obtained in less than 10 minutes (so-called snapshots). However, such a multi-aperture spectral imaging system still has the problem that parallax correction between a plurality of apertures is complicated.

本明細書で開示するマルチスペクトルイメージングシステムおよびマルチスペクトルイメージング技術は、いくつかの特徴を有するが、このうちのいずれか1つのみでは所望の特性を達成することはできない。本明細書で開示するスペクトルイメージングの特定の特徴を簡潔に説明するが、以下の説明は、後述の請求項で示す本発明の範囲を限定するものではない。当業者であれば、本明細書で開示するスペクトルイメージングの特徴が、従来のシステムや方法と比べてどのような利点を有するのかを十分に理解できるであろう。 The multispectral imaging system and multispectral imaging techniques disclosed herein have several features, but any one of them alone cannot achieve the desired characteristics. While certain features of the spectral imaging disclosed herein are briefly described, the following description is not intended to limit the scope of the invention as set forth in the claims below. Those skilled in the art will appreciate how the spectral imaging features disclosed herein have advantages over conventional systems and methods.

本発明の技術の第1の態様において、マルチスペクトル画像システムは、
4個以上の所定の周波数帯のセットのうち1個以上の周波数帯を含む光を選択的に放射して物体を照射するように構成された光源;
前記放射された光のうち、前記物体によって反射された部分を受光するように構成されたイメージセンサ;
前記放射された光のうち、前記物体によって反射された部分を通過させて、前記イメージセンサに入射させるように配置されたアパーチャ;
前記アパーチャ上に配置され、前記4個以上の所定の周波数帯の光を通過させるように構成されたマルチバンドパスフィルタ;
マルチスペクトル画像を生成してアンミキシングを実行する命令が格納されているメモリ;および
少なくとも1つのプロセッサ
を含む。
前記少なくとも1つのプロセッサは、前記命令に従って、少なくとも、
前記所定の周波数帯のうち2個以上の周波数帯からなる第1のサブセットの光を前記光源から放射させ;
第1のサブセットの光の反射光に基づいて生成された第1の画像データを前記イメージセンサから受信し;
前記所定の周波数帯のうち2個以上の周波数帯からなる第2のサブセットの光を前記光源から放射させ;
第2のサブセットの光の反射光に基づいて生成された第2の画像データを前記イメージセンサから受信し;
第1の画像データと第2の画像データを処理して、少なくとも第1のマルチスペクトル画像と第2のマルチスペクトル画像を生成し;
スペクトルアンミキシングを実行して、前記4個以上の所定の周波数帯のうちのいずれか1個にそれぞれ対応する単一の周波数帯の前記物体の画像を複数枚生成する
ように構成されている。
In a first aspect of the present technique, a multispectral imaging system includes:
a light source configured to selectively emit light comprising one or more of a set of four or more predetermined frequency bands to illuminate an object;
an image sensor configured to receive a portion of the emitted light that is reflected by the object;
an aperture positioned to pass a portion of the emitted light that is reflected by the object and incident on the image sensor;
a multi-bandpass filter disposed over the aperture and configured to pass light in the four or more predetermined frequency bands;
A memory having instructions stored thereon for generating a multispectral image and performing unmixing; and at least one processor.
The at least one processor performs at least the following steps in accordance with the instructions:
emitting light from the light source in a first subset of two or more of the predetermined frequency bands;
receiving first image data from the image sensor generated based on the reflected light of a first subset of light;
emitting light from the light source in a second subset of two or more of the predetermined frequency bands;
receiving second image data from the image sensor generated based on the reflected light of a second subset of light;
processing the first image data and the second image data to generate at least a first multispectral image and a second multispectral image;
The system is configured to perform spectral unmixing to generate a plurality of images of the object in a single frequency band, each image corresponding to one of the four or more predetermined frequency bands.

いくつかの実施形態において、前記プロセッサは、前記所定の周波数帯のうち2個以上の周波数帯からなる第3のサブセットまたはそれ以上のサブセットの光を前記光源から放射させ;かつ第3のサブセットまたはそれ以上のサブセットの光の反射光に基づいて生成された第3の画像データまたはそれ以上の画像データを前記イメージセンサから受信するようにさらに構成されている。 In some embodiments, the processor causes the light source to emit light in a third or more subset of two or more frequency bands of the predetermined frequency bands; and a third subset or The image sensor is further configured to receive third or more image data generated based on the reflected light of the further subset of light from the image sensor.

いくつかの実施形態において、前記光源は複数の発光ダイオード(LED)を含み、各LEDは、前記4個以上の所定の周波数帯のうちのいずれか1個の周波数帯の光を放射するように構成されている。いくつかの実施形態において、前記少なくとも1つのプロセッサは、前記光源の個々のLEDの起動を制御することによって、該光源によって同時に放射される周波数帯を選択するようにさらに構成されている。いくつかの実施形態において、前記プロセッサは、各LEDにより放射される光の通過と遮断を選択的に行う電子切換シャッターを制御することによって個々のLEDの起動を制御する。 In some embodiments, the light source includes a plurality of light emitting diodes (LEDs), each LED configured to emit light in any one of the four or more predetermined frequency bands. In some embodiments, the at least one processor is further configured to select the frequency bands simultaneously emitted by the light source by controlling activation of individual LEDs of the light source. In some embodiments, the processor controls activation of individual LEDs by controlling electronic switching shutters that selectively pass or block light emitted by each LED.

いくつかの実施形態において、前記マルチバンドパスフィルタは、光を通過させる複数の周波数帯を備え、各周波数帯は、前記4個以上の所定の周波数帯のうちのいずれか1個にそれぞれ対応している。いくつかの実施形態において、前記LEDと前記マルチバンドパスフィルタは、同じ数の周波数帯を備え、前記LEDの各周波数帯は、前記マルチバンドパスフィルタの対応する周波数帯と一致するように並んでいる。いくつかの実施形態において、前記マルチスペクトル画像システムは、前記複数のLEDの個々のLED上に配置されたバンドパスフィルタをさらに含むことにより、個々のLEDにより放射される光を正確なスペクトルに閉じ込める。いくつかの実施形態において、前記4個以上の所定の周波数帯のセットは8個の所定の周波数帯を含み、前記光源は8個のLEDを含み、各LEDは、前記所定の周波数帯のうちのいずれか1個の周波数帯の光を放射するように構成されている。いくつかの実施形態において、前記マルチバンドパスフィルタは、前記8個の所定の周波数帯のそれぞれを通過させるように構成された8バンドフィルタを含む。いくつかの実施形態において、前記少なくとも1つのプロセッサは、前記命令に従って、前記所定の周波数帯の第3のサブセットの光を前記光源から放射させ、かつ第3のサブセットの光の反射光に基づいて生成された第3の画像データを前記イメージセンサから受信するようにさらに構成されている。いくつかの実施形態において、第1のサブセット、第2のサブセットおよび第3のサブセットのそれぞれは、前記所定の周波数帯のうち3個の周波数帯を含む。いくつかの実施形態において、前記所定の周波数帯は、紫外線(UV)から短波長赤外線の範囲の中心波長によって定義される。いくつかの実施形態において、前記所定の周波数帯の中心波長は、それぞれ420nm、525nm、581nm、620nm、660nm、726nm、820nm、855nmである。 In some embodiments, the multi-band pass filter includes a plurality of frequency bands for passing light, each frequency band corresponding to any one of the four or more predetermined frequency bands. ing. In some embodiments, the LED and the multi-bandpass filter have the same number of frequency bands, and each frequency band of the LED is aligned to match a corresponding frequency band of the multi-bandpass filter. There is. In some embodiments, the multispectral imaging system further includes a bandpass filter disposed on each individual LED of the plurality of LEDs to confine the light emitted by each individual LED to a precise spectrum. . In some embodiments, the set of four or more predetermined frequency bands includes eight predetermined frequency bands, and the light source includes eight LEDs, each LED having one of the predetermined frequency bands. It is configured to emit light in one of the frequency bands. In some embodiments, the multi-band pass filter includes an 8-band filter configured to pass each of the eight predetermined frequency bands. In some embodiments, the at least one processor causes a third subset of light of the predetermined frequency band to be emitted from the light source according to the instructions, and based on reflected light of the third subset of light. The image sensor is further configured to receive generated third image data from the image sensor. In some embodiments, each of the first subset, second subset, and third subset includes three frequency bands of the predetermined frequency bands. In some embodiments, the predetermined frequency band is defined by a center wavelength ranging from ultraviolet (UV) to short wavelength infrared. In some embodiments, the center wavelengths of the predetermined frequency bands are 420nm, 525nm, 581nm, 620nm, 660nm, 726nm, 820nm, and 855nm, respectively.

いくつかの実施形態において、前記マルチスペクトル画像システムは、前記アパーチャ上に配置された電動の同焦点ズームレンズまたは電動の可変焦点ズームレンズをさらに含み、前記1つ以上のプロセッサは、前記電動ズームレンズを制御して、前記マルチスペクトル画像システムの視野(FOV)を調整するようにさらに構成されている。いくつかの実施形態において、前記同焦点ズームレンズまたは前記可変焦点ズームレンズは、該レンズの焦点距離(FL)を変更することによって焦点を自動調整または手動調整できるように構成されている。いくつかの実施形態において、前記マルチスペクトル画像システムの視野を調整しても、前記物体と前記イメージセンサの間の撮影距離は変化しない。いくつかの実施形態において、前記1つ以上のプロセッサは、前記物体と前記イメージセンサの間の撮影距離を変更することによって、前記マルチスペクトル画像システムの視野を調整するようにさらに構成されている。いくつかの実施形態において、前記プロセッサは、前記ズームレンズによるコントラストの低下を補うようにさらに構成されている。いくつかの実施形態において、前記視野は、少なくとも8cm~23cmの範囲で調整可能であり、例えば、8cm、9cm、10cm、11cm、12cm、13cm、14cm、15cm、16cm、17cm、18cm、19cm、20cm、21cm、22cmもしくは23cm、またはこれらの長さのいずれか2つを上下限とする範囲内の長さに調整可能である。いくつかの実施形態において、前記マルチスペクトル画像システムは、分解能が犠牲になる後処理によるデジタルトリミング法とは異なって、前記視野内のサンプリング数を減少させることなく高い空間分解能を保持している。 In some embodiments, the multispectral imaging system further includes a motorized parfocal zoom lens or a motorized variable focus zoom lens disposed over the aperture, and the one or more processors further configured to control a field of view (FOV) of the multispectral imaging system. In some embodiments, the parfocal zoom lens or the variable focus zoom lens is configured to allow automatic or manual focus adjustment by changing the focal length (FL) of the lens. In some embodiments, adjusting the field of view of the multispectral imaging system does not change the viewing distance between the object and the image sensor. In some embodiments, the one or more processors are further configured to adjust the field of view of the multispectral imaging system by changing a viewing distance between the object and the image sensor. In some embodiments, the processor is further configured to compensate for contrast reduction due to the zoom lens. In some embodiments, the field of view is adjustable over a range of at least 8 cm to 23 cm, such as 8 cm, 9 cm, 10 cm, 11 cm, 12 cm, 13 cm, 14 cm, 15 cm, 16 cm, 17 cm, 18 cm, 19 cm, 20 cm. , 21 cm, 22 cm, or 23 cm, or any two of these lengths as upper and lower limits. In some embodiments, the multispectral imaging system maintains high spatial resolution without reducing the number of samples within the field of view, unlike post-processing digital cropping methods that sacrifice resolution.

いくつかの実施形態において、前記1つ以上のプロセッサは、前記マルチスペクトル画像に基づいて前記物体を自然な疑似カラーで可視化するようにさらに構成されている。 In some embodiments, the one or more processors are further configured to visualize the object in natural pseudocolor based on the multispectral image.

いくつかの実施形態において、前記1つ以上のプロセッサは、行列演算式を用いて前記物体の反射係数を求めることによってスペクトルアンミキシングを実行するように構成されている。いくつかの実施形態において、前記反射係数は、各チャネルごとの、入射照度の値、前記マルチバンドパスフィルタの透過係数の値および前記イメージセンサの量子係数の値に少なくとも部分的に基づいて求められる。いくつかの実施形態において、前記マルチスペクトル画像システムは、100ミリ秒未満で3枚以上のマルチスペクトル画像を撮影することができる。 In some embodiments, the one or more processors are configured to perform spectral unmixing by determining reflection coefficients of the object using a matrix equation. In some embodiments, the reflection coefficients are determined based at least in part on incident illuminance values, transmission coefficient values of the multiple bandpass filters, and quantum coefficient values of the image sensor for each channel. In some embodiments, the multispectral imaging system is capable of capturing three or more multispectral images in less than 100 milliseconds.

いくつかの実施形態において、前記物体は組織領域である。いくつかの実施形態において、前記組織は創傷を含む。いくつかの実施形態において、前記創傷は、糖尿病性潰瘍、非糖尿病性潰瘍、慢性潰瘍、術後創、切断部位、熱傷、がん性病変または損傷組織を含む。いくつかの実施形態において、前記マルチスペクトル画像システムは、組織分類の同定または組織の治癒スコアの同定において使用するためのものであり、前記組織分類は、例えば、生きた組織もしくは健康な組織、死んだ組織もしくは壊死組織、灌流した組織もしくは灌流していない組織、または虚血組織もしくは非虚血組織であり、前記組織の治癒スコアは、例えば、30日間の標準的な創傷ケア治療の後に創傷の少なくとも50%が治癒する傾向、または30日間の標準的な創傷ケア治療の後に創傷の少なくとも50%が治癒しない傾向である。いくつかの実施形態において、前記マルチスペクトル画像システムは、創傷、がん、潰瘍または熱傷のイメージングに使用するためのものであり、前記創傷、がん、潰瘍または熱傷は、例えば、糖尿病性潰瘍、非糖尿病性潰瘍、慢性潰瘍、術後創、切断部位、熱傷、がん性病変または損傷組織である。 In some embodiments, the object is a tissue region. In some embodiments, the tissue comprises a wound. In some embodiments, the wound comprises a diabetic ulcer, a non-diabetic ulcer, a chronic ulcer, a post-operative wound, an amputation site, a burn, a cancerous lesion, or damaged tissue. In some embodiments, the multispectral imaging system is for use in identifying a tissue classification or identifying a healing score of a tissue, the tissue classification being, for example, live or healthy tissue, dead or necrotic tissue, perfused or non-perfused tissue, or ischemic or non-ischemic tissue, and the healing score of the tissue being, for example, a tendency for at least 50% of the wound to heal after 30 days of standard wound care treatment, or a tendency for at least 50% of the wound to not heal after 30 days of standard wound care treatment. In some embodiments, the multispectral imaging system is for use in imaging a wound, cancer, ulcer, or burn, where the wound, cancer, ulcer, or burn is, for example, a diabetic ulcer, a non-diabetic ulcer, a chronic ulcer, a post-operative wound, an amputation site, a burn, a cancerous lesion, or damaged tissue.

様々な主光線入射角でフィルタに入射する光の一例を示す。An example of light incident on the filter at various chief ray incidence angles is shown.

様々な主光線入射角の光が透過した図1Aのフィルタから得られた透過効率の一例を示すグラフである。1B is a graph showing an example of the transmission efficiency obtained from the filter of FIG. 1A through which light is transmitted at various chief ray angles of incidence.

マルチスペクトル画像データキューブの一例を示す。An example of a multispectral image data cube is shown.

特定のマルチスペクトルイメージング技術が、どのようにして図2Aのデータキューブを生成するのかを示した一例を示す。An example is shown of how a particular multispectral imaging technique generates the data cube of FIG. 2A.

図2Aのデータキューブを生成することができるスナップショット型イメージングシステムの一例を示す。2B shows an example of a snapshot-type imaging system capable of generating the data cube of FIG. 2A.

本開示による、湾曲したマルチバンドパスフィルタを備えたマルチアパーチャイメージングシステムの一例の光学設計を示した断面模式図を示す。1 shows a cross-sectional schematic diagram illustrating an example optical design of a multi-aperture imaging system with a curved multi-bandpass filter according to the present disclosure. FIG.

図3Aに示したマルチアパーチャイメージングシステムの1つの光路を構成する光学部品の光学設計の一例を示す。3B shows an example of an optical design of optical components constituting one optical path of the multi-aperture imaging system shown in FIG. 3A.

本発明の技術によるシングルアパーチャ・マルチスペクトルイメージングシステムの一例の模式図と、このマルチスペクトルイメージングシステムの各部品の性能を示したプロットを示す。1 shows a schematic diagram of an example of a single-aperture multispectral imaging system according to the techniques of the present invention, and plots showing the performance of each component of the multispectral imaging system.

本発明の技術によりマルチスペクトル画像を取得する際のLED照明の時系列の一例と、これに対応する各チャネルごとの検知係数を示す。1 shows an example of a time series of LED illumination when acquiring a multispectral image using the technique of the present invention, and the corresponding detection coefficients for each channel.

本発明の技術によるシングルアパーチャ・マルチスペクトルイメージングシステムを具体化した実施形態の一例を示す。1 shows an example of an embodiment embodying a single-aperture multispectral imaging system according to the techniques of the present invention.

本発明の技術によるシングルアパーチャシステムによる試験の結果を示す。3 shows the results of a test with a single aperture system according to the technique of the present invention.

本明細書に概説するように、本開示は、速い画像取得速度(スナップショット、100ミリ秒未満)、高精度なスペクトルおよび調整可能な視野を特徴とするシングルアパーチャ・単レンズ・シングルカメラシステムを用いた二次元マルチスペクトルイメージング(MSI)に関する。さらに、本開示は、このようなカメラシステムからの画像取得速度を向上させるための、スペクトルアンミキシングの実装技術に関する。後述するように、本開示の技術は、現在のスペクトルイメージングに関する問題を克服するものである。 As outlined herein, the present disclosure provides a single-aperture, single-lens, single-camera system that features fast image acquisition speed (snapshots, less than 100 milliseconds), high spectral accuracy, and adjustable field of view. Regarding two-dimensional multispectral imaging (MSI). Additionally, the present disclosure relates to techniques for implementing spectral unmixing to increase the speed of image acquisition from such camera systems. As discussed below, the techniques of the present disclosure overcome problems with current spectral imaging.

多重化照明を利用したマルチスペクトルイメージングは、スペクトル帯域の分離が可能であり、高速な切り換え、堅牢性および費用対効果をもたらすことができる。現在、このような解決策では、重複した複数のスペクトルと限られたチャネルを用いた多重化照明を採用している。このような多重化照明によって、滑らかに変化し、良好に近似させることができる分光反射率(s(λ))を撮影状況において最も良好に取得することができる。しかし、生物医学的な用途では、生物組織の分光反射率(s(λ))がやや複雑であることから、高精度なスペクトル情報が望まれる。このような制約を取り除くため、スペクトル間のクロストークを大幅に減少させる必要がある。 Multispectral imaging using multiplexed illumination allows separation of spectral bands, and offers fast switching, robustness, and cost-effectiveness. Currently, such solutions employ multiplexed illumination with overlapping spectra and limited channels. Such multiplexed illumination best captures smoothly varying and well-approximated spectral reflectance (s(λ)) in imaging situations. However, for biomedical applications, highly accurate spectral information is desired due to the somewhat complex spectral reflectance (s(λ)) of biological tissues. To remove such limitations, the crosstalk between spectra needs to be significantly reduced.

本明細書に開示する多重化照明を利用したスナップショット型高精度マルチスペクトルイメージングシステムおよびその方法には、いくつかの特徴がある。いくつかの実施形態において、本発明のマルチスペクトルイメージングシステムは、二次元マルチスペクトルセンシング用のシングルアパーチャ・単レンズ・シングルRGBカラーカメラを採用している。いくつかの実施形態において、本発明のマルチスペクトルイメージングシステムは、マルチスペクトルのフィルタリング用のマルチバンド光学フィルタを採用している。この設計におけるマルチバンド光学フィルタは、例えば、8バンドMSI用の8バンドフィルタであってもよい。しかし、本明細書に開示するシステムおよび方法は、本開示において規定する数に限定されず、本開示に規定の数よりも多い数または少ない数の波長帯域を用いたMSIにも等しく使用することができる。いくつかの実施形態において、本明細書に開示するマルチスペクトルイメージングシステムは、複数の発光ダイオード(LED)による8つの波長を照明に採用しており、各波長スペクトルは各MSI帯域と重複している。いくつかの実施形態において、各LEDの前面には、各LEDに一致したMSI帯域を持つバンドパス光学フィルタが配置されている。いくつかの実施形態において、本明細書に開示するマルチスペクトルイメージングシステムは電動ズームレンズを採用している。イメージング速度を加速させるために、LED照明の調節を利用したスペクトルアンミキシング法を利用してもよい。特定の組み合わせと時系列で複数のLEDの複数の波長を点灯または消灯することができ、これについては後で詳しく検討している。アンミキシング係数は、LEDの照度(I0)、フィルタの透過係数(T%)および/またはカラーカメラのRGBチャネルの検知量子効率(Q%)に基づいて計算してもよい。 The present disclosure provides a snapshot-type high-precision multispectral imaging system and method using multiplexed illumination, which has several features. In some embodiments, the present disclosure provides a multispectral imaging system using a single aperture, single lens, single RGB color camera for two-dimensional multispectral sensing. In some embodiments, the present disclosure provides a multiband optical filter for multispectral filtering. The multiband optical filter in this design may be, for example, an 8-band filter for an 8-band MSI. However, the present disclosure provides a system and method that is not limited to the number specified in this disclosure and may be equally used for MSI using more or less wavelength bands than those specified in this disclosure. In some embodiments, the present disclosure provides a multispectral imaging system using eight wavelengths of light emitting diodes (LEDs) for illumination, each wavelength spectrum overlapping with each MSI band. In some embodiments, a bandpass optical filter with an MSI band matched to each LED is placed in front of each LED. In some embodiments, the present disclosure provides a multispectral imaging system using a motorized zoom lens. To accelerate imaging speed, a spectral unmixing method using LED illumination modulation may be used. Multiple wavelengths of multiple LEDs can be turned on or off in specific combinations and time sequences, which are discussed in more detail below.The unmixing coefficients may be calculated based on the illuminance of the LEDs ( I0 ), the transmission coefficients of the filters (T%) and/or the detection quantum efficiency (Q%) of the RGB channels of the color camera.

本開示のマルチスペクトルイメージングシステムおよびその方法の様々な実施形態は、改良された特徴を有するマルチスペクトルイメージングを提供することができ、その特徴として、以下のうちの1つ以上が挙げられるが、これらに限定されない。
(a)シングルアパーチャシステムを採用していることから、視差補正において複雑なアルゴリズムを使用する必要はなく、視差誤差も発生しない。
(b)マルチアパーチャシステムと比較して、フォームファクタが小さく(例えば、小型化および軽量化されており)、低コストである。
(c)速い画像取得速度(100ミリ秒未満)と速い後処理速度を有することから、モーションアーチファクトが少なく、リアルタイムイメージングに利用可能である。
(d)狭い帯域のLED照明、LEDの前面に配置されたバンドパス光学フィルタ、およびマルチバンド光学フィルタによる閉じ込めにより、高精度なスペクトル情報が得られる。
(e)電動ズームレンズを用いていることから、様々な用途に応じて視野を調整可能である。
(f)MSI画像を元に天然の疑似カラーで可視化できる。
(g)多機能な生物医学的イメージングを行うことができる。
Various embodiments of the multispectral imaging systems and methods of the present disclosure can provide multispectral imaging with improved characteristics, including, but not limited to, one or more of the following:
(a) Because it is a single aperture system, there is no need to use complex algorithms for parallax correction, and no parallax error occurs.
(b) Smaller form factor (e.g., smaller and lighter) and lower cost compared to multi-aperture systems.
(c) It has a fast image acquisition speed (less than 100 ms) and fast post-processing speed, which reduces motion artifacts and allows it to be used for real-time imaging.
(d) Highly accurate spectral information can be obtained by narrow band LED illumination, bandpass optical filters placed in front of the LEDs, and confinement by multiband optical filters.
(e) Since a power zoom lens is used, the field of view can be adjusted according to various applications.
(f) MSI images can be visualized in native pseudocolor.
(g) Multifunctional biomedical imaging can be performed.

本発明のマルチスペクトルイメージングシステムは、機械的に回転するフィルタホイールを備えたフィルタホイールを用いたシングルアパーチャ・マルチスペクトルイメージングシステムと比べて、マルチバンドパスの光学フィルタリング用に8バンドフィルタを用いていることから速い画像取得速度を達成することができる。これと同時に、いくつかの実施形態では、所望のMSI帯域と近似したスペクトルまたは所望のMSI帯域に正確に重複するスペクトルを持つ複数のマルチカラーLEDを採用することによって、各MSI帯域(例えばチャネル)のスペクトル情報を取得する。正確なスペクトルの照明と、LEDフィルタおよび8バンドフィルタによるスペクトルの閉じ込めとを利用することによって、スペクトル帯域外への光の漏れやチャンネル間のクロストークを回避し、スペクトルの精度を有意に向上させることができる。各LEDは速やかに繰り返し点灯および消灯することができることから、時間で区切った系を用いて単色照明を得ることができる。 The multispectral imaging system of the present invention can achieve a faster image acquisition speed compared to a single aperture multispectral imaging system using a filter wheel with a mechanically rotating filter wheel due to the use of 8-band filters for multi-bandpass optical filtering. At the same time, in some embodiments, spectral information for each MSI band (e.g., channel) is acquired by employing multiple multicolor LEDs with spectra that approximate or exactly overlap the desired MSI band. By utilizing precise spectral illumination and spectral confinement with LED filters and 8-band filters, light leakage outside the spectral band and crosstalk between channels can be avoided, significantly improving spectral accuracy. Each LED can be rapidly cycled on and off to obtain monochromatic illumination using a time-separated system.

いくつかの実施形態において、本発明のマルチスペクトルイメージングシステムは、(例えばLED照明なしで)背景画像を取得することによって、周囲環境または室内灯環境で作動させることができ、次に、(例えば、室内灯とLED照明に露出した)得られたMSI画像から背景画像を差し引くことができる。さらに、いくつかの実施形態では、マルチチャネルイメージセンサ(例えばRGBカメラ)を採用し、3つのチャネルのLEDを同時に点灯させ、この3つのチャネルから得られたスペクトル情報をアンミキシングアルゴリズムにより分離することによって、MSIの取得速度をさらに向上させてもよい。したがって、本開示の技術によるスナップショットイメージング速度により、非常に速いイメージングを行うことができ、ターゲットのモーションアーチファクトを有意に減少させることができることから、様々な生物医学的な用途において利点がある。 In some embodiments, the multispectral imaging system of the present invention can be operated in an ambient or room light environment by acquiring a background image (e.g., without LED illumination) and then (e.g., The background image can be subtracted from the resulting MSI image (exposed to room light and LED lighting). Furthermore, some embodiments employ a multi-channel image sensor (e.g., an RGB camera), simultaneously illuminate three channels of LEDs, and separate the spectral information obtained from the three channels by an unmixing algorithm. The MSI acquisition speed may be further improved by Therefore, the snapshot imaging speed of the techniques of the present disclosure allows for very fast imaging and significantly reduces target motion artifacts, which is advantageous in a variety of biomedical applications.

いくつかの実施形態において、本発明のマルチスペクトルイメージングシステムおよびその方法は、マルチアパーチャMSIイメージングシステムと比べて、シングルアパーチャと単レンズとシングルカメラからなる構成を採用することができることから、画像の後処理速度が顕著に遅くなりうる複雑なアルゴリズムが必要とされうる視差補正計算は必要とされない。さらに、シングルアパーチャと単レンズとシングルカメラからなる構成を実装していることから、画素に基づくスペクトル情報の誤解釈を回避することができる。例えば、既存のマルチアパーチャMSIイメージングシステムでは、イメージセンサ(例えば複数のカメラからなる構成)の分離とアンミキシングアルゴリズムを利用してスペクトル帯域を分離することができる。一方、本開示のMSIシステムおよびその方法では、多重化照明(例えば、個別に制御可能な複数のマルチカラーLED)とアンミキシングアルゴリズムを利用してスペクトル帯域を分離することができる。本開示では、フィルタホイールシステムに組み込まれた単一バンドのバンドパスフィルタを複数備えた機械的回転ホイールと比べて非常に速い電子切換シャッターを用いて、LED照明の操作を時系列で制御することができるため、瞬時のバンドの切り換えとそのイメージング取得速度は、マルチアパーチャMSIイメージングシステムに近く、視差補正計算を行う必要がなく、後処理速度が速い。 In some embodiments, the multispectral imaging system and method of the present invention can employ a single aperture, single lens, and single camera configuration, compared to multi-aperture MSI imaging systems, so that the No parallax correction calculations are required, which can require complex algorithms that can significantly slow processing speed. Furthermore, by implementing a configuration consisting of a single aperture, a single lens, and a single camera, misinterpretation of spectral information based on pixels can be avoided. For example, existing multi-aperture MSI imaging systems can utilize image sensor (eg, multiple camera configuration) separation and unmixing algorithms to separate spectral bands. On the other hand, the MSI system and method of the present disclosure may utilize multiplexed illumination (eg, multiple individually controllable multi-color LEDs) and unmixing algorithms to separate spectral bands. The present disclosure provides chronological control of the operation of LED lighting using an electronic switching shutter that is much faster than a mechanical rotating wheel with multiple single-band bandpass filters incorporated into a filter wheel system. As a result, the instantaneous band switching and imaging acquisition speed are similar to multi-aperture MSI imaging systems, there is no need to perform parallax correction calculations, and post-processing speed is fast.

本開示のMSIシステムおよびその方法は、LED照明用にバンドパス光学フィルタを使用し、検出器用に8バンド光学フィルタを使用することができることから、検知スペクトルを所望の帯域に良好に閉じ込めることができ、各照明間のクロストークを回避することができ、スペクトル帯域外への光の漏れを排除し、スペクトルの精度を向上させることができる。本開示は、多重化照明を含む既存のシステムの改良された利点を単純な設計で提供するものである。 The MSI system and method of the present disclosure can use a band-pass optical filter for the LED illumination and an 8-band optical filter for the detector, so that the detection spectrum can be well confined to the desired band. , crosstalk between each illumination can be avoided, light leakage outside the spectral band can be eliminated, and spectral accuracy can be improved. The present disclosure provides improved benefits over existing systems that include multiplexed lighting in a simple design.

スペクトルイメージングシステムの概要
図1Aは、イメージセンサ110に向かう光路に沿って配置されたフィルタ108の一例と、様々な光線入射角でフィルタ108に入射する光を示す。光線102A、光線104A、光線106Aは、フィルタ108を通過した後、レンズ112により屈折されてセンサ110上に入射する線として示す。レンズ112は、ミラーおよび/またはアパーチャなどの(ただしこれらに限定されない)別の画像形成光学系と置き換えてもよい。図1Aにおいて、各光線の光は広帯域であると見なされ、例えば、広い波長領域のスペクトル組成を有する光であり、フィルタ108により特定波長の光のみが選択的に透過される。3つの光線102A、104A、106Aは、互いに異なる入射角でフィルタ108に入射する。説明を目的として、光線102Aは、フィルタ108に対して実質的に垂直な入射として示され、光線104Aは、光線102Aよりも大きな入射角を有し、光線106Aは、光線104Aよりも大きい入射角を有する。フィルタを通過した各光線102B、104B、106Bは、入射角に依存したフィルタ108の透過特性により、特有のスペクトラムを示し、これらの特有のスペクトラムは、センサ110で検出される。この入射角度依存性という効果から、入射角が増加するほど波長が短くなるという、フィルタ108の帯域通過特性のシフトが起こる。さらに、入射角度依存性によって、フィルタ108の透過効率が低下することがあり、フィルタ108の帯域通過特性を示すスペクトル形状が変化することがある。このような複合効果は、入射角度依存性のスペクトル透過と呼ばれる。図1Bは、センサ110の位置に存在すると仮定した分光器で検出された図1Aの各光線のスペクトラムを示し、入射角が増加するほど、フィルタ108の帯域通過特性を示すスペクトルがシフトすることを説明している。曲線102C、曲線104Cおよび曲線106Cは、帯域通過特性の中心波長が短くなっていることを示し、したがって、この例では、光学系から照射された光の波長が短縮していることが示されている。また、この図に示すように、帯域通過特性のスペクトル形状および透過率のピークも入射角により変化する。特定のコンシューマー向けの用途では、このような入射角度依存性のスペクトル透過による目に見える効果を除去するため、画像処理を行うことができる。しかし、このような後加工技術では、どの波長の光が実際にフィルタ108に入射したのかという正確な情報を回復することはできない。したがって、得られる画像データは、特定の高精密な用途には使用できない可能性がある。
Overview of a Spectral Imaging System FIG. 1A shows an example of a filter 108 placed along an optical path toward an image sensor 110 and light incident on the filter 108 at various ray incidence angles. Rays 102A, 104A, and 106A are shown as rays that pass through filter 108 and then are refracted by lens 112 and incident on sensor 110. Lens 112 may be replaced with other imaging optics such as, but not limited to, mirrors and/or apertures. In FIG. 1A, each beam of light is considered to be broadband, eg, light having a spectral composition over a wide wavelength range, and only light of a specific wavelength is selectively transmitted by filter 108. Three light rays 102A, 104A, 106A enter filter 108 at different angles of incidence. For purposes of illustration, ray 102A is shown as substantially perpendicular incidence to filter 108, ray 104A has a greater angle of incidence than ray 102A, and ray 106A has a greater angle of incidence than ray 104A. has. Each light ray 102B, 104B, 106B passing through the filter exhibits a unique spectrum due to the transmission characteristics of the filter 108 depending on the angle of incidence, and these unique spectra are detected by the sensor 110. This effect of dependence on the angle of incidence causes a shift in the bandpass characteristics of the filter 108, such that the wavelength becomes shorter as the angle of incidence increases. Furthermore, the transmission efficiency of the filter 108 may decrease due to the incident angle dependence, and the spectral shape indicating the bandpass characteristic of the filter 108 may change. Such a combined effect is called angle-of-incidence-dependent spectral transmission. FIG. 1B shows the spectrum of each light ray in FIG. 1A detected by a spectrometer assumed to be present at the location of sensor 110, and shows that as the angle of incidence increases, the spectrum indicating the bandpass characteristic of filter 108 shifts. Explaining. Curve 102C, Curve 104C and Curve 106C show that the center wavelength of the bandpass characteristic is shortened and therefore, in this example, the wavelength of the light emitted from the optical system is shown to be shortened. There is. Furthermore, as shown in this figure, the spectral shape of the bandpass characteristic and the transmittance peak also change depending on the incident angle. In certain consumer applications, image processing can be performed to remove the visible effects of such angle-of-incidence-dependent spectral transmission. However, such post-processing techniques cannot recover accurate information about which wavelength of light actually entered the filter 108. Therefore, the resulting image data may not be usable for certain high precision applications.

既存の特定のスペクトルイメージングシステムが直面している別の課題として、完全なスペクトル画像データセットの撮影に必要とされる時間が挙げられる。これについては、図2Aおよび図2Bに関連して検討する。スペクトルイメージセンサは、特定のシーンのスペクトル放射照度I(x,y,λ)を取得し、データキューブと一般に呼ばれる三次元(3D)データセットを収集する。図2Aは、スペクトル画像のデータキューブ120の一例を示す。この図に示すように、データキューブ120は、三次元の画像データを示し、このうち、2つの空間次元(xおよびy)は、イメージセンサの二次元(2D)表面に対応し、スペクトル次元(λ)は、特定の波長域に対応している。データキューブ120のサイズは、NxNyNλで求めることができ、NxおよびNyは、各空間次元(x,y)方向の標本点の数であり、Nλは、スペクトル軸λ方向の標本点の数である。データキューブは、現在利用可能な2D検出器アレイ(例えばイメージセンサ)よりも次元が高いため、典型的なスペクトルイメージングシステムでは、データキューブ120の時系列2Dスライス(すなわち平面)(本明細書において「走査型」イメージングシステムと呼ぶ)を撮影するか、あるいは、演算過程でデータキューブ120を分割して、このデータキューブ120に再統合可能な複数の二次元データを得ることにより、データキューブ120のすべての標本点を同時に測定する(本明細書において「スナップショット型」イメージングシステムと呼ぶ)。 Another challenge facing certain existing spectral imaging systems is the time required to acquire a complete spectral image dataset. This will be discussed in connection with Figures 2A and 2B. A spectral image sensor captures the spectral irradiance I(x,y,λ) of a particular scene and collects a three-dimensional (3D) data set commonly referred to as a data cube. FIG. 2A shows an example of a data cube 120 of a spectral image. As shown in this figure, data cube 120 represents three-dimensional image data, of which two spatial dimensions (x and y) correspond to the two-dimensional (2D) surface of the image sensor and a spectral dimension ( λ) corresponds to a specific wavelength range. The size of the data cube 120 can be determined by N x N y N λ , where N x and N y are the number of sample points in each spatial dimension (x,y), and N λ is the spectral axis λ is the number of sample points in the direction. Because the data cube has higher dimensions than currently available 2D detector arrays (e.g., image sensors), typical spectral imaging systems use time-series 2D slices (i.e., planes) of the data cube 120 (hereinafter referred to as " All of the data cube 120 can be imaged using a "scanning" imaging system) or by splitting the data cube 120 during a computational process to obtain multiple two-dimensional data that can be reintegrated into the data cube 120. sample points simultaneously (referred to herein as a "snapshot" imaging system).

図2Bは、特定の走査スペクトルイメージング技術が、どのようにしてデータキューブ120を生成するのかを示した一例を示す。具体的には、図2Bは、1回の検出器の積分時間に収集することができるデータキューブ120の部分132、134および136を示す。ポイントスキャン分光器は、例えば、1つの空間位置(x,y)においてスペクトル平面λの全体に延びる部分132を撮影することができる。ポイントスキャン分光器は、空間次元の各(x,y)位置に対して積分を複数回行うことによってデータキューブ120を構築することができる。フィルタホイールイメージングシステムは、例えば、空間次元xおよびyの全体に延びるが、単一のスペクトル平面λのみに位置する部分134を撮影することができる。フィルタホイールイメージングシステムなどの波長走査イメージングシステムは、スペクトル平面λに対して積分を複数回行うことによってデータキューブ120を構築することができる。ラインスキャン分光器は、例えば、スペクトル次元λの全体と空間次元の一方(xまたはy)の全体に延びるが、もう一方の空間次元(yまたはx)の1つの点のみに位置する部分136を撮影することができる。ラインスキャン分光器は、この一方の空間次元(yまたはx)位置に対して積分を複数回行うことによってデータキューブ120を構築することができる。 FIG. 2B shows an example of how a particular scanning spectral imaging technique generates a data cube 120. Specifically, FIG. 2B shows portions 132, 134, and 136 of the data cube 120 that can be collected in one detector integration time. A point-scanning spectrometer can, for example, image portion 132 that extends across the entire spectral plane λ at one spatial location (x,y). A point-scanning spectrometer can build the data cube 120 by performing multiple integrations for each (x,y) location in the spatial dimensions. A filter wheel imaging system can, for example, image portion 134 that extends across the entire spatial dimensions x and y, but is located in only a single spectral plane λ. A wavelength-scanning imaging system, such as a filter wheel imaging system, can build the data cube 120 by performing multiple integrations over the spectral plane λ. A line-scanning spectrometer can, for example, image portion 136 that extends across the entire spectral dimension λ and across one of the spatial dimensions (x or y), but is located at only one point in the other spatial dimension (y or x). A line-scan spectrometer can construct a data cube 120 by performing multiple integrations over the position of one of the spatial dimensions (y or x).

対象物体とイメージングシステムの両方が静止している(または露光時間において比較的静止した状態の)用途では、前述した走査型イメージングシステムは、高分解能のデータキューブ120が得られるという利点がある。ラインスキャンイメージングシステムおよび波長走査型イメージングシステムでは、イメージセンサの全域を使用して各スペクトルまたは各空間画像が撮影されることにより、このような利点が得られる場合がある。しかし、最初の露光と次の露光の間にイメージングシステムおよび/または物体に動きがあると、得られる画像データにアーチファクトが発生する場合がある。例えば、データキューブ120において同じ(x,y)位置であっても、実際には、スペクトル次元λにおいて、画像化した物体上の別の物理的位置が示される場合がある。このようなアーチファクトによって、後続の分析において誤差が生じることがあり、かつ/または位置合わせを行う必要性が出てくることがある(例えば、特定の(x,y)位置が物体上の同じ物理的位置に対応するように、スペクトル次元λの位置調整を行う必要性が出てくる)。 In applications where both the target object and the imaging system are stationary (or relatively stationary during the exposure time), the scanning imaging system described above has the advantage of providing a high resolution data cube 120. Line-scan and wavelength-scanning imaging systems may provide these benefits by using the entire area of the image sensor to capture each spectral or spatial image. However, if there is movement in the imaging system and/or object between the first exposure and the next exposure, artifacts may occur in the resulting image data. For example, the same (x,y) location in data cube 120 may actually represent a different physical location on the imaged object in the spectral dimension λ. Such artifacts may introduce errors in subsequent analysis and/or may necessitate alignment (e.g. if a particular (x,y) location has the same physical It becomes necessary to adjust the position of the spectral dimension λ so that it corresponds to the target position).

これに対して、スナップショット型イメージングシステム140では、1つの積分時間または1回の露光でデータキューブ120の全体を撮影することができることから、前述のような動きが画質に与える影響を回避することができる。図2Cは、スナップショット型イメージングシステムの作製に使用可能なイメージセンサ142および光学フィルタアレイ144(カラーフィルタアレイ(CFA)など)の一例を示す。この一例でのカラーフィルタアレイ(CFA)144は、イメージセンサ142の表面にカラーフィルタユニット146の繰り返しパターンが配置されたものである。スペクトル情報を得るためのこの方法は、マルチスペクトルフィルタアレイ(MSFA)またはスペクトル分解検出器アレイ(SRDA)と呼ぶこともできる。この図に示した一例では、カラーフィルタユニット146は、5×5に配置された様々なカラーフィルタを含むことから、得られる画像データにおいて25個のスペクトルチャネルが生成される。CFAは、様々なカラーフィルタを使用することによって入射光を各カラーフィルタの帯域に分割し、分割した光をイメージセンサ上の各色の感光体へと導くことができる。このようにして実際には、所定の色148に対して、25個の感光体のうちの1個のみが、その色の波長の光を示すシグナルを検出する。したがって、このようなスナップショット型イメージングシステム140を使用した場合、1回の露光で25個のカラーチャネルが生成されうるが、各カラーチャネルの測定データ量は、イメージセンサ142の総出力よりも小さくなる。いくつかの実施形態において、CFAは、フィルタアレイ(MSFA)およびスペクトル分解検出器アレイ(SRDA)の一方または両方を含んでいてもよく、かつ/または従来のべイヤーフィルタ、CMYKフィルタもしくはその他の吸収系フィルタもしくは干渉系フィルタを含んでいてもよい。干渉系フィルタの一種として、薄膜フィルタアレイがグリッド状に配置され、各グリッドの素子が1つ以上のセンサ素子に対応しているものがある。別の種類の干渉系フィルタとして、ファブリ・ペローフィルタがある。ナノエッチングされたファブリ・ペロー干渉フィルタは、通常、半値全幅(FWHM)が約20~50nmの帯域通過特性を示すが(例えば、20nm、21nm、22nm、23nm、24nm、25nm、26nm、27nm、28nm、29nm、30nm、31nm、32nm、33nm、34nm、35nm、36nm、37nm、38nm、39nm、40nm、41nm、52nm、53nm、44nm、45nm、46nm、47nm、48nm、49nmもしくは50nmの半値全幅、またはこれらの波長のいずれか2つを上下限とする範囲により定義される半値全幅を示すが)、フィルタの通過帯域の中心波長から阻止帯域への移行部においてロールオフが小さいことから、いくつかの実施形態において使用することできるという点で有利である。さらに、このようなフィルタは、阻止帯域において低い光学濃度(OD)を示すことから、通過帯域外の光に対する感度を向上させることができる。このような複合効果を有することから、これらの特定のフィルタは、蒸着やイオンビームスパッタリングなどのコーティング蒸着法により多数の薄膜層で構成された同様のFWHMの高光学濃度干渉フィルタの高いロールオフにより阻止されてしまうスペクトル領域に対して感度を示す。色素系CMYKフィルタまたはRGB系(べイヤー)フィルタを使用する構成の実施形態では、スペクトルのロールオフが小さく、かつ個々のフィルタの通過帯域のFWHMが大きいことが好ましく、これにより、観察されるスペクトラム全体において各波長に対するスペクトル透過率を特有のものとすることができる。 In contrast, a snapshot imaging system 140 can capture the entire data cube 120 in one integration time or exposure, thus avoiding the effects of motion on image quality. FIG. 2C shows an example of an image sensor 142 and an optical filter array 144 (such as a color filter array (CFA)) that can be used to create a snapshot imaging system. In this example, the color filter array (CFA) 144 is a repeating pattern of color filter units 146 arranged on the surface of the image sensor 142. This method of obtaining spectral information can also be called a multispectral filter array (MSFA) or a spectrally resolved detector array (SRDA). In the example shown in this figure, the color filter unit 146 includes various color filters arranged in a 5×5 array, thereby generating 25 spectral channels in the resulting image data. The CFA can use various color filters to split the incoming light into bands for each color filter and direct the split light to the photoreceptors of each color on the image sensor. In this way, for a given color 148, only one of the 25 photoreceptors actually detects a signal indicative of light of that wavelength. Thus, with such a snapshot imaging system 140, 25 color channels may be generated in one exposure, but the amount of measurement data for each color channel is less than the total output of the image sensor 142. In some embodiments, the CFA may include a filter array (MSFA) and/or a spectrally resolved detector array (SRDA), and/or may include conventional Bayer filters, CMYK filters, or other absorptive or interferometric filters. One type of interferometric filter is a thin film filter array arranged in a grid, with each grid element corresponding to one or more sensor elements. Another type of interferometric filter is the Fabry-Perot filter. Nano-etched Fabry-Perot interference filters typically exhibit bandpass characteristics with a full width at half maximum (FWHM) of about 20-50 nm (e.g., 20 nm, 21 nm, 22 nm, 23 nm, 24 nm, 25 nm, 26 nm, 27 nm, 28 nm, 29 nm, 30 nm, 31 nm, 32 nm, 33 nm, 34 nm, 35 nm, 36 nm, 37 nm, 38 nm, 39 nm, 40 nm, 41 nm, 52 nm, 53 nm, 44 nm, 45 nm, 46 nm, 47 nm, 48 nm, 49 nm, or 50 nm, or a range defined by any two of these wavelengths), but are advantageous in that they can be used in some embodiments due to their low roll-off from the center wavelength of the filter's passband to the stopband. Additionally, such filters exhibit a low optical density (OD) in the stopband, which can improve sensitivity to light outside the passband. Due to these combined effects, these particular filters exhibit sensitivity to spectral regions that would be blocked by the high roll-off of similar FWHM high optical density interference filters constructed from multiple thin film layers deposited by coating deposition techniques such as evaporation or ion beam sputtering. In embodiments using dye-based CMYK or RGB-based (Bayer) filters, low spectral roll-off and large FWHM of the passbands of the individual filters are preferred, allowing unique spectral transmission for each wavelength across the observed spectrum.

したがって、スナップショット型イメージングシステムにより得られるデータキューブ120は、高精度なイメージング用途において問題となりうる以下の2つの特性の一方を有する。1つ目の問題点として、スナップショット型イメージングシステムにより得られるデータキューブ120は、検出器アレイの(x,y)の大きさよりもNxおよびNyの大きさが小さくなりうることから、同じイメージセンサを有する走査型イメージングシステムにより得られるデータキューブ120よりも分解能が低くなる。2つ目の問題点として、スナップショット型イメージングシステムにより得られるデータキューブ120では、特定の(x,y)位置に対する数値補間により、NxおよびNyの大きさが検出器アレイの(x,y)の大きさと同じになることがある。しかし、データキューブの生成において補間が行われた場合、データキューブの特定の数値は、センサ上の入射光の波長の実測値ではなく、周辺値に基づいた実測の推定値であることを意味する。 Therefore, the data cube 120 obtained by the snapshot imaging system has one of the following two characteristics that can be problematic in high-precision imaging applications. The first problem is that the data cube 120 obtained by a snapshot imaging system is The resolution will be lower than the data cube 120 obtained by a scanning imaging system with an image sensor. A second problem is that in the data cube 120 obtained by a snapshot imaging system, numerical interpolation for a particular (x,y) position allows the magnitudes of N may be the same size as y). However, if interpolation is done in the generation of the data cube, it means that the particular number in the data cube is not the actual value of the wavelength of the incident light on the sensor, but an estimate of the actual value based on the surrounding values. .

露光を1回のみ行うマルチスペクトルイメージングにおいて使用される別の既存の部材として、マルチスペクトルイメージング用ビームスプリッターがある。このようなイメージングシステムにおいて、ビームスプリッターキューブは、入射光を異なる色帯域へと分割し、各帯域は独立した複数のイメージセンサにより観測される。ビームスプリッターの設計を変更して、測定するスペクトル帯域を調整することができるが、イメージングシステムの性能を損なうことなく、4つを超えるビームに入射光を分割することは容易ではない。したがって、4個のスペクトルチャネルが、このアプローチでの実用限界であると見られる。これと密接に関連した方法では、かさ高いビームスプリッターキューブ/プリズムの代わりに、薄膜フィルタを使用して光を分割するが、連続した複数のフィルタによる累積的な透過率の減衰と空間的制限により、このアプローチでも、約6個のスペクトルチャネルに制限される。 Another existing component used in multispectral imaging with a single exposure is the multispectral imaging beam splitter. In such imaging systems, a beam splitter cube splits the incoming light into different color bands, each of which is observed by separate image sensors. The beam splitter design can be modified to adjust the spectral bands measured, but it is not easy to split the incoming light into more than four beams without compromising the performance of the imaging system. Thus, four spectral channels appears to be the practical limit of this approach. A closely related method splits the light using thin film filters instead of bulky beam splitter cubes/prisms, but the cumulative transmission attenuation and spatial limitations of multiple successive filters limit this approach to about six spectral channels.

いくつかの実施形態において、特に前述の課題は、多重化照明と、照明光線を選択的に透過させるマルチバンドパスフィルタと、RGBカメラのカラーチャネルとを利用した本明細書で開示するスペクトルイメージングシステムと、これに関連する画像データ処理技術によって対処することができる。この特定の構成によって、速いイメージング速度、高分解能画像、および検出波長の高い忠実度という設計目標のすべてを達成することができる。したがって、本明細書で開示する光学設計および関連する画像データ処理技術は、ポータブルスペクトルイメージングシステムにおいて使用することができ、かつ/または移動している対象のイメージングに使用することができるとともに、高精度用途(例えば、臨床組織分析、生体認証、一時的な臨床徴候)に適したデータキューブを得ることができる。本明細書に記載の1つ以上の実施形態を利用して達成することが可能なこのような高精度用途として、転移前の進行度(0~3)の基底細胞癌、扁平上皮細胞癌および悪性黒色腫の診断;皮膚組織の熱傷もしくは創傷の重症度の分類;例えば、健康な皮膚もしくは正常な皮膚との比較などによる壊死組織もしくは虚血組織の同定およびそのマージンの特定;または末梢血管疾患もしくは糖尿病性足部潰瘍の組織診断または重症度の判定を挙げることができる。したがって、いくつかの実施形態で説明するスナップショットスペクトルの取得とスモールフォームファクタによって、例えば、様々な種類の網膜症(例えば、非増殖性糖尿病性網膜症、増殖性糖尿病性網膜症および加齢黄斑変性)の診断、ならびに動きが多い小児患者のイメージングを含む、一時的事象を扱う臨床環境において本発明を使用することができる。したがって、本明細書で開示するシステムの使用は、従来のスペクトルイメージングの実装と比べて大幅な技術的進歩となることを当業者であれば十分に理解できるであろう。 In some embodiments, the aforementioned challenges, among others, can be addressed by the spectral imaging system and associated image data processing techniques disclosed herein that utilize multiplexed illumination, multiple bandpass filters that selectively transmit the illumination rays, and color channels of an RGB camera. This particular configuration can achieve all of the design goals of fast imaging speed, high resolution images, and high fidelity of the detection wavelength. Thus, the optical design and associated image data processing techniques disclosed herein can be used in a portable spectral imaging system and/or can be used to image moving subjects and obtain data cubes suitable for high precision applications (e.g., clinical tissue analysis, biometrics, and episodic clinical signs). Such high precision applications that can be achieved using one or more embodiments described herein include diagnosis of pre-metastatic stages (0-3) of basal cell carcinoma, squamous cell carcinoma, and malignant melanoma; classification of the severity of burns or wounds in skin tissue; identification of necrotic or ischemic tissue and its margins, such as by comparison with healthy or normal skin; or tissue diagnosis or severity determination of peripheral vascular disease or diabetic foot ulcers. Thus, the snapshot spectral acquisition and small form factor described in some embodiments allows the present invention to be used in clinical settings dealing with transient events, including, for example, diagnosing various types of retinopathies (e.g., non-proliferative diabetic retinopathy, proliferative diabetic retinopathy, and age-related macular degeneration), as well as imaging of pediatric patients with high levels of motion. Thus, one skilled in the art will appreciate that the use of the systems disclosed herein represents a significant technological advance over conventional implementations of spectral imaging.

特定の例および実施形態に関連して、本開示の様々な態様について以下で述べる。これらの例および実施形態は説明を目的としたものであり、本開示を限定するものではない。本明細書で述べる例および実施形態は、説明を目的として、特定の計算およびアルゴリズムに焦点を当てているが、当業者であれば、これらの例が説明のみを目的としたものであり、本発明を限定するものではないことを十分に理解できるであろう。例えば、マルチスペクトルイメージングに関していくつかの例を挙げているが、本明細書で開示するシングルアパーチャイメージングシステムならびにこれに関連するフィルタおよび多重化照明は、その他の実装においてハイパースペクトルイメージングを実施できるように構成することができる。さらに、特定の例は、ハンドヘルド用途および/または移動している対象物体に対する用途において利点を達成するものとして提示されているが、本明細書で開示するイメージングシステムの設計およびこれに関連する処理技術により、固定されたイメージングシステムおよび/または比較的静止した状態の対象の分析に適した高精度なデータキューブを得ることができることは十分に理解できるであろう。 Various aspects of the disclosure are discussed below in connection with specific examples and embodiments. These examples and embodiments are for illustrative purposes and are not intended to limit this disclosure. Although the examples and embodiments described herein focus on specific calculations and algorithms for illustrative purposes, those skilled in the art will appreciate that these examples are for illustrative purposes only and that the present invention It will be understood that this does not limit the invention. For example, although some examples are given with respect to multispectral imaging, the single aperture imaging systems and associated filters and multiplexed illumination disclosed herein may be used to perform hyperspectral imaging in other implementations. Can be configured. Additionally, while specific examples are presented as achieving advantages in hand-held applications and/or applications with moving objects, the imaging system designs and processing techniques disclosed herein are It will be appreciated that this can provide a highly accurate data cube suitable for fixed imaging systems and/or analysis of relatively stationary objects.

電磁スペクトル範囲およびイメージセンサの概要
本明細書において、電磁スペクトルの特定の色または特定の部分に言及し、以下、ISO21348「放射照度スペクトルの種類の定義」による定義に従って、これらの波長を説明する。以下で詳述するように、特定のイメージング用途において、特定の色の波長領域を一括して特定のフィルタに通過させることができる。
Electromagnetic Spectral Ranges and Image Sensor Overview Reference is made herein to particular colors or portions of the electromagnetic spectrum, and these wavelengths are hereinafter described as defined by ISO 21348, "Definitions of Irradiance Spectral Types." As will be described in more detail below, in certain imaging applications, wavelength ranges of particular colors may be passed collectively through particular filters.

760nm~380nmまたは約760nm~約380nmの波長の範囲の電磁放射線は、通常、「可視」スペクトラム、すなわち、ヒトの眼の色受容体により認識可能なスペクトラム部分であると考えられている。可視スペクトルにおいて、赤色光は、通常、700nmもしくは約700nmの波長を有するか、または760nm~610nmもしくは約760nm~約610nmの範囲にあると考えられている。橙色光は、通常、600nmもしくは約600nmの波長を有するか、または610nm~591nmもしくは約610nm~約591nmの範囲にあると考えられている。黄色光は、通常、580nmもしくは約580nmの波長を有するか、または591nm~570nmもしくは約591nm~約570nmの範囲にあると考えられている。緑色光は、通常、550nmもしくは約550nmの波長を有するか、または570nm~500nmもしくは約570nm~約500nmの範囲にあると考えられている。青色光は、通常、475nmもしくは約475nmの波長を有するか、または500nm~450nmもしくは約500nm~約450nmの範囲にあると考えられている。紫色(赤紫色)光は、通常、400nmもしくは約400nmの波長を有するか、または450nm~360nmもしくは約450nm~約360nmの範囲にあると考えられている。 Electromagnetic radiation in the wavelength range of 760 nm to 380 nm or about 760 nm to 380 nm is usually considered to be the "visible" spectrum, i.e., the portion of the spectrum that is perceptible by the color receptors of the human eye. In the visible spectrum, red light is usually considered to have a wavelength of at or about 700 nm, or to be in the range of 760 nm to 610 nm or about 760 nm to 610 nm. Orange light is usually considered to have a wavelength of at or about 600 nm, or to be in the range of 610 nm to 591 nm or about 610 nm to 591 nm. Yellow light is usually considered to have a wavelength of at or about 580 nm, or to be in the range of 591 nm to 570 nm or about 591 nm to 570 nm. Green light is usually considered to have a wavelength of at or about 550 nm, or in the range of 570 nm to 500 nm, or about 570 nm to about 500 nm. Blue light is usually considered to have a wavelength of at or about 475 nm, or in the range of 500 nm to 450 nm, or about 500 nm to about 450 nm. Violet (magenta) light is usually considered to have a wavelength of at or about 400 nm, or in the range of 450 nm to 360 nm, or about 450 nm to about 360 nm.

可視スペクトル外の範囲に目を向けると、赤外線(IR)は、可視光よりも長い波長を有する電磁放射線を指し、通常、ヒトの眼には見えない。IRは、約760nmまたは760nmにある赤色の可視スペクトルの公称下限値から約1mmまたは1mmに及ぶ波長を有する。この範囲内において、近赤外線(NIR)は、赤色の範囲に隣接しているスペクトラムの一部を指し、約760nm~約1400nmまたは760nm~1400nmの波長範囲である。 Looking outside the visible spectrum, infrared (IR) refers to electromagnetic radiation that has longer wavelengths than visible light and is usually invisible to the human eye. IR has wavelengths ranging from about 760 nm or the nominal lower limit of the red visible spectrum at 760 nm to about 1 mm or 1 mm. Within this range, near-infrared (NIR) refers to the part of the spectrum adjacent to the red range, which ranges in wavelength from about 760 nm to about 1400 nm or from 760 nm to 1400 nm.

紫外線(UV)光は、可視光よりも短い波長の電磁放射線の一部を指し、通常、ヒトの眼には見えない。UVは、約40nmまたは40nmにある紫色の可視スペクトルの公称値下限値から約400mmに及ぶ波長を有する。この範囲内において、近紫外線(NUV)は、紫色の範囲に隣接しているスペクトラムの一部を指し、約400nm~約300nmまたは400nm~300nmの波長範囲であり、中間紫外線(MUV)は、約300nm~約200nmまたは300nm~200nmの波長範囲であり、遠紫外線(FUV)は、約200nm~約122nmまたは200nm~122nmの波長範囲である。 Ultraviolet (UV) light refers to the portion of electromagnetic radiation with wavelengths shorter than visible light and is generally invisible to the human eye. UV has wavelengths ranging from about 40 nm or the nominal lower limit of the visible spectrum at violet at 40 nm to about 400 mm. Within this range, near ultraviolet (NUV) refers to the portion of the spectrum adjacent to the violet range and has a wavelength range of about 400 nm to about 300 nm or 400 nm to 300 nm, mid ultraviolet (MUV) has a wavelength range of about 300 nm to about 200 nm or 300 nm to 200 nm, and far ultraviolet (FUV) has a wavelength range of about 200 nm to about 122 nm or 200 nm to 122 nm.

本明細書に記載のイメージセンサは、特定の用途に適した特定の波長領域に応じて、上述の領域のうち、どの電磁放射線であっても検出できるように構成することができる。通常のシリコン電荷結合素子(CCD)または相補型金属酸化膜半導体(CMOS)センサのスペクトル感度は、可視スペクトルの全体に及ぶが、近赤外線(IR)スペクトラムの大半およびUVスペクトラムの一部にも及ぶ。いくつかの実装では、裏面入射型または表面入射型のCCDアレイまたはCMOSアレイを付加的または代替的に使用することができる。高いSN比および科学グレードの測定が必要とされる用途では、いくつかの実装において、科学用途の相補型金属酸化膜半導体(sCMOS)カメラまたは電子増幅CCDカメラ(EMCCD)を付加的または代替的に使用することができる。別の実装では、目的とする用途に応じて、特定の色の範囲(例えば、短波長赤外線(SWIR)、中波長赤外線(MWIR)、または長波長赤外線(LWIR))において動作することが知られているセンサと、これに対応する光学フィルタアレイを付加的または代替的に使用することができる。これらのセンサおよび光学フィルタアレイは、インジウム・ガリウム・ヒ素(InGaAs)やインジウム・アンチモン(InSb)などの検出器の材質に応じたカメラ、またはマイクロボロメータアレイに応じたカメラを付加的または代替的に備えていてもよい。 The image sensors described herein can be configured to detect electromagnetic radiation in any of the above ranges, depending on the particular wavelength range that is appropriate for a particular application. Typical silicon charge-coupled device (CCD) or complementary metal-oxide semiconductor (CMOS) sensors have spectral sensitivity that spans the entire visible spectrum, but also most of the near-infrared (IR) spectrum and parts of the UV spectrum. In some implementations, back-illuminated or front-illuminated CCD or CMOS arrays can additionally or alternatively be used. For applications requiring high signal-to-noise ratios and scientific-grade measurements, some implementations can additionally or alternatively use scientific complementary metal-oxide semiconductor (sCMOS) cameras or electronically multiplied CCD cameras (EMCCDs). In other implementations, sensors known to operate in a particular color range (e.g., short-wave infrared (SWIR), mid-wave infrared (MWIR), or long-wave infrared (LWIR)) and corresponding optical filter arrays can additionally or alternatively be used, depending on the intended application. These sensors and optical filter arrays may additionally or alternatively include cameras based on detector materials such as indium gallium arsenide (InGaAs) or indium antimony (InSb), or cameras based on microbolometer arrays.

本明細書で開示するマルチスペクトルイメージング技術において使用されるイメージセンサは、カラーフィルタアレイ(CFA)などの光学フィルタアレイに併用して使用してもよい。いくつかの種類のCFAは、入射光を赤色(R)、緑色(G)および青色(B)の可視領域に分割し、分割した可視光をイメージセンサ上のそれぞれ専用の赤色、緑色または青色のフォトダイオード感光体に導くことができる。CFAの一般的な例として、ベイヤーパターンがあり、これは、光検出器の長方形のグリッド上にRGBカラーフィルタを特定のパターンで配置したカラーフィルタアレイである。ベイヤーパターンは、緑色50%、赤色25%および青色25%で構成されており、赤色のカラーフィルタと緑色のカラーフィルタが繰り返された列と、青色のカラーフィルタと緑色のカラーフィルタが繰り返された列とが交互に並んでいる。また、いくつかの種類のCFA(例えばRGB-NIRセンサ用のCFA)も、NIR光を分割し、分割したNIR光をイメージセンサ上のそれぞれ専用のフォトダイオード感光体に導くことができる。 Image sensors used in the multispectral imaging techniques disclosed herein may be used in conjunction with optical filter arrays, such as color filter arrays (CFAs). Some types of CFAs split the incident light into red (R), green (G), and blue (B) visible regions, and direct the split visible light to dedicated red, green, or blue regions on the image sensor. The photodiode can be guided to the photoreceptor. A common example of a CFA is the Bayer pattern, which is a color filter array with RGB color filters arranged in a specific pattern on a rectangular grid of photodetectors. The Bayer pattern consists of 50% green, 25% red and 25% blue, with rows of repeated red and green color filters and repeated rows of blue and green color filters. The rows are arranged alternately. Some types of CFA (such as those for RGB-NIR sensors) can also split NIR light and direct the split NIR light to dedicated photodiode photoreceptors on the image sensor.

したがって、CFAのフィルタ部品の波長領域により、撮影された画像において各画像チャネルが示す波長領域が決まることがある。したがって、様々な実施形態において、画像の赤色のチャネルは、カラーフィルタの赤色の波長領域に対応してもよく、黄色光および橙色光の一部を含むことができ、約570nm~約760nmまたは570nm~760nmの範囲である。様々な実施形態において、画像の緑色のチャネルは、カラーフィルタの緑色の波長領域に対応してもよく、黄色光の一部を含むことができ、約570nm~約480nmまたは570nm~480nmの範囲である。様々な実施形態において、画像の青色のチャネルは、カラーフィルタの青色の波長領域に対応してもよく、紫色光の一部を含むことができ、約490nm~約400nmまたは490nm~400nmの範囲である。当業者であれば、CFAの色(例えば、赤色、緑色および青色)を定義する正確な開始波長と終了波長(または電磁スペクトルの一部)が、CFAの実装に応じて様々に異なることがあることを十分に理解できるであろう。 Therefore, the wavelength range of the filter components of the CFA may determine the wavelength range represented by each image channel in the captured image. Accordingly, in various embodiments, the red channel of the image may correspond to the red wavelength region of the color filter and may include a portion of yellow light and orange light, from about 570 nm to about 760 nm or 570 nm. ~760nm range. In various embodiments, the green channel of the image may correspond to the green wavelength region of the color filter and may include a portion of yellow light, ranging from about 570 nm to about 480 nm or from 570 nm to 480 nm. be. In various embodiments, the blue channel of the image may correspond to the blue wavelength region of the color filter and may include a portion of violet light, ranging from about 490 nm to about 400 nm or from 490 nm to 400 nm. be. Those skilled in the art will appreciate that the exact starting and ending wavelengths (or portions of the electromagnetic spectrum) that define the colors of a CFA (e.g., red, green, and blue) may vary depending on the implementation of the CFA. You will be able to fully understand this.

さらに、通常の可視光用CFAは、可視スペクトル外の光を透過する。したがって、多くのイメージセンサでは、赤外線波長を阻止するが、可視光を通過させる薄膜赤外線反射フィルタをセンサの前面に配置することによって赤外線に対する感度を制限している。しかし、本明細書で開示するイメージングシステムのいくつかでは、薄膜赤外線反射フィルタを省略して、赤外線光を通過させてもよい。したがって、赤色のチャネル、緑色のチャネルおよび/または青色のチャネルを使用して、赤外線の波長帯域を収集してもよい。いくつかの実装において、青色のチャネルを使用して、特定のNUV波長帯域を収集してもよい。積み重ねたスペクトル画像の各波長において、赤色のチャネル、緑色のチャネルおよび青色のチャネルは、各チャネルが特有の透過効率を有することに関連して異なるスペクトル応答を示すことから、公知の透過プロファイルを使用して、アンミキシングを行う前の各スペクトル帯域に、特有の重み付け応答を提供してもよい。例えば、この重み付け応答には、赤外線波長領域および紫外線波長領域における赤色のチャネル、青色のチャネルおよび緑色のチャネルの公知の透過応答が含まれていてもよく、これによって、これらの波長領域からの帯域の収集に各チャネルを使用することが可能となる。 Additionally, typical visible light CFAs transmit light outside the visible spectrum. Therefore, many image sensors limit their sensitivity to infrared radiation by placing a thin film infrared reflective filter in front of the sensor that blocks infrared wavelengths but allows visible light to pass. However, in some of the imaging systems disclosed herein, the thin film infrared reflective filter may be omitted to allow infrared light to pass through. Accordingly, a red channel, a green channel and/or a blue channel may be used to collect infrared wavelength bands. In some implementations, the blue channel may be used to collect specific NUV wavelength bands. At each wavelength in the stacked spectral images, the red, green, and blue channels exhibit different spectral responses associated with each channel having a unique transmission efficiency, so we used a known transmission profile. may provide a unique weighting response for each spectral band before unmixing. For example, this weighted response may include the known transmission responses of the red, blue, and green channels in the infrared and ultraviolet wavelength regions, thereby allowing bands from these wavelength regions to Each channel can be used to collect data.

以下でさらに詳述するように、イメージセンサに向かう光路に沿って、追加のカラーフィルタをCFAの前に配置することにより、イメージセンサ上に入射する光の特定の帯域を選択的に抽出することができる。本明細書で開示するカラーフィルタは、(薄膜の)ダイクロイックフィルタおよび/もしくは吸収フィルタの組み合わせ、または単独のダイクロイックフィルタ、および/もしくは単独の吸収フィルタである。本明細書で開示するカラーフィルタの一部は、(通過帯域の)特定の領域内の周波数を通すが、(阻止領域において)その領域外の周波数を遮断(減衰)するバンドパスフィルタであってもよい。本明細書で開示するカラーフィルタの一部は、不連続な複数の波長領域を通すマルチバンドパスフィルタであってもよい。これらの「周波数帯」は、CFAフィルタの広い色範囲と比べて、通過帯域が狭く、阻止領域における減衰量が大きく、かつスペクトルのロールオフが急峻であってもよい。なお、ロールオフは、フィルタの通過帯域から阻止領域への移行部におけるスペクトル応答の急峻さとして定義される。例えば、本明細書で開示するカラーフィルタは、約20nm~約40nmまたは20nm~40nmの通過帯域をカバーすることができる。カラーフィルタのこのような特定の構成によって、実際にセンサに入射する波長帯域が決まることがあり、これによって、本明細書で開示するイメージング技術の精度が向上する場合がある。本明細書に記載のカラーフィルタは、特定の用途に適した特定の波長帯域に応じて、上述の領域のうち、電磁放射線の特定の帯域を選択的に阻止または通過させるように構成することができる。 Selectively extracting specific bands of light incident on the image sensor by placing additional color filters in front of the CFA along the optical path toward the image sensor, as detailed further below. Can be done. The color filters disclosed herein are a combination of (thin film) dichroic filters and/or absorption filters, or a single dichroic filter, and/or a single absorption filter. Some of the color filters disclosed herein are bandpass filters that pass frequencies within a particular region (in the passband) but block (attenuate) frequencies outside that region (in the rejection region). Good too. Some of the color filters disclosed in this specification may be multi-bandpass filters that pass a plurality of discontinuous wavelength regions. These "frequency bands" may have narrower passbands, greater attenuation in the stop region, and steeper spectral roll-offs than the wide color range of the CFA filter. Note that rolloff is defined as the steepness of the spectral response at the transition from the passband to the stopband of the filter. For example, the color filters disclosed herein can cover a passband from about 20 nm to about 40 nm or from 20 nm to 40 nm. This particular configuration of the color filter may determine the wavelength band actually incident on the sensor, which may improve the accuracy of the imaging techniques disclosed herein. The color filters described herein can be configured to selectively block or pass certain bands of electromagnetic radiation within the above-mentioned ranges, depending on the particular wavelength band appropriate for a particular application. can.

本明細書において、「画素」という用語は、二次元検出器アレイの素子により生成された出力を説明する場合に使用される。これに対して、二次元検出器アレイのフォトダイオード、すなわち、1つの感光素子は、光電効果を介して光子を電子に変換し、次いでこの電子を画素値の決定に使用可能なシグナルに変換することができるトランスデューサとして挙動する。データキューブの1つの要素は、「ボクセル」(例えば、体積のある要素)と呼ぶことができる。「スペクトルのベクトル」は、データキューブの特定の(x,y)位置におけるスペクトルデータ(例えば、物体空間の特定の点から受光した光のスペクトラム)を示すベクトルを指す。本明細書において、データキューブの1つの水平面(例えば、1つのスペクトル次元を表す画像)は、「画像チャネル」と呼ばれる。本明細書に記載の特定の実施形態では、スペクトルのビデオ情報を撮影してもよく、得られるデータ次元は、NxNyNλNtで示される「ハイパーキューブ」の形態であると想定することができる(ここで、Ntは、ビデオシーケンス中に撮影されたフレームの数である)。 The term "pixel" is used herein to describe the output produced by the elements of a two-dimensional detector array. In contrast, the photodiode, i.e. one photosensitive element, of the two-dimensional detector array converts photons into electrons via the photoelectric effect, which then converts the electrons into signals that can be used to determine pixel values. It behaves as a transducer that can. One element of a data cube may be referred to as a "voxel" (eg, a volumetric element). A “spectral vector” refers to a vector that represents spectral data (eg, the spectrum of light received from a particular point in object space) at a particular (x,y) location in the data cube. One horizontal plane of the data cube (eg, an image representing one spectral dimension) is referred to herein as an "image channel." In certain embodiments described herein, spectral video information may be captured and the resulting data dimensions are assumed to be in the form of a "hypercube" denoted N x N y N λ N t (where N t is the number of frames taken during the video sequence).

イメージングシステムの一例の概要
図3Aは、本開示による、湾曲したマルチバンドパスフィルタを備えるマルチアパーチャイメージングシステム200の一例の模式図を示す。ここに示した模式図は、第1のイメージセンサ領域225A(フォトダイオードPD1~PD3)および第2のイメージセンサ領域225B(フォトダイオードPD4~PD6)を含む。フォトダイオードPD1~PD6は、例えば、半導体基板(例えばCMOSイメージセンサ)に形成されたフォトダイオードであってもよい。通常、各フォトダイオードPD1~PD6は、何らかの材質、半導体、センサ素子または入射光を電流に変換できるその他の装置からなる単一ユニットであってもよい。この図では、マルチアパーチャイメージングシステムの構造およびその作動を説明することを目的として、マルチアパーチャイメージングシステム全体のごく一部のみを示しており、実装では、イメージセンサ領域は、何百個または何千個ものフォトダイオード(およびこれに対応するカラーフィルタ)を備えることができることは十分に理解できるであろう。第1のイメージセンサ領域225Aと第2のイメージセンサ領域225Bは、実装に応じて、別々のセンサとして実装してもよく、同じイメージセンサ上の別々の領域として実装してもよい。図3Aでは、2個のアパーチャとこれに対応する光路およびセンサ領域が示されているが、図3Aに示した光学設計原理は、実装に応じて、3個以上のアパーチャとこれに対応する光路およびセンサ領域を含む設計に拡大することができることは十分に理解できるであろう。
Overview of an Example Imaging System FIG. 3A shows a schematic diagram of an example multi-aperture imaging system 200 with curved multi-bandpass filters according to the present disclosure. The schematic diagram shown includes a first image sensor area 225A (photodiodes PD1-PD3) and a second image sensor area 225B (photodiodes PD4-PD6). The photodiodes PD1-PD6 may be, for example, photodiodes formed on a semiconductor substrate (e.g., a CMOS image sensor). Typically, each photodiode PD1-PD6 may be a single unit of some material, semiconductor, sensor element, or other device capable of converting incident light into an electrical current. This diagram shows only a small portion of the entire multi-aperture imaging system for purposes of illustrating the structure and operation of the multi-aperture imaging system, and it will be appreciated that in an implementation, the image sensor area may include hundreds or thousands of photodiodes (and corresponding color filters). The first image sensor area 225A and the second image sensor area 225B may be implemented as separate sensors or as separate areas on the same image sensor, depending on the implementation. Although FIG. 3A shows two apertures and corresponding optical paths and sensor areas, it will be appreciated that the optical design principles illustrated in FIG. 3A can be extended to designs including three or more apertures and corresponding optical paths and sensor areas, depending on the implementation.

マルチアパーチャイメージングシステム200は、第1のセンサ領域225Aに向かう第1の光路を提供する第1の開口部210A、および第2のセンサ領域225Bに向かう第1の光路を提供する第2の開口部210Bを含む。これらのアパーチャは、画像に反映される光の明るさを増加さたり減少させたりするために調整可能であってもよく、あるいは、これらのアパーチャを調整することによって、特定の画像の露光時間を変更し、イメージセンサ領域に入射する光の明るさが変化しないようにしてもよい。これらのアパーチャは、光学設計分野の当業者が妥当であると判断可能であれば、このマルチアパーチャシステムの光軸に沿ったどの位置に配置してもよい。第1の光路に沿って配置した光学部品の光軸を破線230Aで示し、第2の光路に沿って配置した光学部品の光軸を破線230Bで示すが、これらの破線が、マルチアパーチャイメージングシステム200の物理構造を示すわけではないことは十分に理解できるであろう。光軸230Aと光軸230Bは距離Dにより隔てられており、この距離Dは、第1のセンサ領域225Aにより撮影される画像と第2のセンサ領域225Bにより撮影される画像の間の視差となりうる。「視差」は、立体写真画像の左側と右側(または上側と下側)において対応する2つの点の間の距離を指し、物体空間の同じ物理点が各画像の異なる位置に現われる。この視差を補正し、かつ利用した処理技術を以下でさらに詳細に述べる。 Multi-aperture imaging system 200 includes a first aperture 210A that provides a first optical path toward a first sensor area 225A, and a second aperture that provides a first optical path toward a second sensor area 225B. Including 210B. These apertures may be adjustable to increase or decrease the brightness of the light reflected in the image, or alternatively, by adjusting these apertures, the exposure time for a particular image can be adjusted. The brightness of the light incident on the image sensor area may be changed so that the brightness of the light incident on the image sensor area does not change. These apertures may be located at any location along the optical axis of the multi-aperture system as determined to be reasonable by one skilled in the art of optical design. The optical axis of the optical component disposed along the first optical path is indicated by a dashed line 230A, and the optical axis of the optical component disposed along the second optical path is indicated by a dashed line 230B. It is well understood that it does not represent 200 physical structures. The optical axis 230A and the optical axis 230B are separated by a distance D, which can be a parallax between the image taken by the first sensor area 225A and the image taken by the second sensor area 225B. . "Disparity" refers to the distance between two corresponding points on the left and right sides (or top and bottom) of a stereophotographic image, such that the same physical point in object space appears at different positions in each image. The processing techniques used to correct for this parallax will be described in more detail below.

光軸230Aおよび光軸230Bは、それぞれに対応するアパーチャの中心Cを通過する。その他の光学部品も、これらの光軸を中心として配置することができる(例えば、光学部品の回転対称点をこの光軸に沿って配置することができる)。例えば、第1の光軸230Aを中心として、第1の湾曲マルチバンドパスフィルタ205Aおよび第1の結像レンズ215Aを配置することができ、第2の光軸230Bを中心として、第2の湾曲マルチバンドパスフィルタ205Bおよび第2の結像レンズ215Bを配置することができる。 Optical axis 230A and optical axis 230B pass through the center C of their respective apertures. Other optical components can also be arranged around these optical axes (for example, the rotational symmetry points of the optical components can be arranged along this optical axis). For example, the first curved multi-band pass filter 205A and the first imaging lens 215A can be arranged around the first optical axis 230A, and the second curved A multi-bandpass filter 205B and a second imaging lens 215B can be arranged.

本明細書において、光学素子の配置に関して述べる際に使用される「上」および「上方」という用語は、物体空間からイメージングシステム200に入った光が、別の構造に到達する(または入射する)前に通り抜ける特定の構造(例えばカラーフィルタまたはレンズ)の位置を指す。これを説明すると、第1の光路に沿って、湾曲マルチバンドパスフィルタ205Aが、アパーチャ210Aの上方に位置し、アパーチャ210Aが、結像レンズ215Aの上方に位置し、結像レンズ215Aが、CFA 220Aの上方に位置し、CFA 220Aが、第1のイメージセンサ領域225Aの上方に位置する。したがって、まず、物体空間(例えば、画像化の対象となる物理的空間)から入った光が、第1の湾曲マルチバンドパスフィルタ205Aを通過し、次にアパーチャ210Aを通過し、次に結像レンズ215Aを通過し、次にCFA 220Aを通過し、最後に、第1のイメージセンサ領域225Aに入射する。第2の光路(例えば、湾曲マルチバンドパスフィルタ205B、アパーチャ210B、結像レンズ215B、CFA 220B、第2のイメージセンサ領域225Bを含む光路)も同様の配置となる。別の実装では、アパーチャ210A,210Bおよび/または結像レンズ215A,215Bを、湾曲マルチバンドパスフィルタ205A,205Bの上方に配置することができる。さらに、別の実装では、物理的なアパーチャを使用しなくてもよく、光学部品のクリアアパーチャに依存して、センサ領域225A上およびセンサ領域225B上に結像される光の明るさを制御してもよい。したがって、レンズ215A,215Bは、アパーチャ210A,210Bと湾曲マルチバンドパスフィルタ205A,205Bの上方に配置してもよい。この実装では、光学設計分野の当業者が必要であると判断可能であれば、アパーチャ210A,210Bをレンズ215A,215Bの上方に配置してもよく、あるいはアパーチャ210A,210Bをレンズ215A,215Bの下方に配置してもよい。 As used herein, the terms "on" and "above" when discussing the placement of optical elements refer to the location of a particular structure (e.g., a color filter or lens) through which light entering the imaging system 200 from the object space passes before reaching (or entering) another structure. To illustrate this, along a first optical path, the curved multi-bandpass filter 205A is located above the aperture 210A, which is located above the imaging lens 215A, which is located above the CFA 220A, which is located above the first image sensor area 225A. Thus, light entering from the object space (e.g., the physical space to be imaged) first passes through the first curved multi-bandpass filter 205A, then through the aperture 210A, then through the imaging lens 215A, then through the CFA 220A, and finally enters the first image sensor area 225A. A second optical path (e.g., an optical path including curved multi-bandpass filter 205B, aperture 210B, imaging lens 215B, CFA 220B, and second image sensor area 225B) may be similarly arranged. In another implementation, apertures 210A, 210B and/or imaging lenses 215A, 215B may be located above curved multi-bandpass filters 205A, 205B. Additionally, another implementation may not use a physical aperture and may rely on a clear aperture of an optical component to control the brightness of the light imaged onto sensor area 225A and sensor area 225B. Thus, lenses 215A, 215B may be located above apertures 210A, 210B and curved multi-bandpass filters 205A, 205B. In this implementation, the apertures 210A and 210B may be located above the lenses 215A and 215B, or the apertures 210A and 210B may be located below the lenses 215A and 215B, as may be determined by one of ordinary skill in the art of optical design.

第1のセンサ領域225Aの上方に配置した第1のCFA 220Aと、第2のセンサ領域225Bの上方に配置した第2のCFA 220Bは、特定の波長を選択的に通過させるフィルタとして機能することができ、入射してきた可視領域の光を、赤色領域、緑色領域および青色領域(それぞれR、GおよびBの記号で示す)に分割することができる。選択された特定の波長のみを、第1のCFA 220Aおよび第2のCFA 220Bの各カラーフィルタに通過させることによって、光が「分割」される。分割された光は、イメージセンサ上のそれぞれ専用の赤色ダイオード、緑色ダイオードまたは青色ダイオードにより受光される。赤色フィルタ、青色フィルタおよび緑色フィルタが一般に使用されているが、別の実施形態では、撮影された画像データに必要とされるカラーチャネルに応じて様々なカラーフィルタを使用することができ、例えば、RGB-IR CFAと同様に、紫外線、赤外線または近赤外線を選択的に通過させるフィルタを使用することができる。 The first CFA 220A placed above the first sensor area 225A and the second CFA 220B placed above the second sensor area 225B function as filters that selectively pass specific wavelengths. It is possible to divide the incident light in the visible region into a red region, a green region, and a blue region (represented by symbols R, G, and B, respectively). The light is "split" by passing only certain selected wavelengths through each color filter of the first CFA 220A and the second CFA 220B. The divided light is received by a dedicated red diode, green diode, or blue diode on the image sensor. Although red filters, blue filters and green filters are commonly used, in other embodiments various color filters can be used depending on the color channels required for the captured image data, e.g. Similar to RGB-IR CFA, filters that selectively pass ultraviolet, infrared, or near-infrared radiation can be used.

図3Aに示すように、単一のフォトダイオードPD1~PD6の上方にCFAの各フィルタが配置されている。図3Aでは、マイクロレンズ(MLで示す)の一例も示されており、これらのマイクロレンズは、各カラーフィルタ上に形成するか、それ以外の方法で各カラーフィルタ上に配置することができ、アクティブ検出器の領域上に入射光を集光することができる。別の実装では、単一のフィルタの下方に複数個のフォトダイオードを有していてもよい(例えば、2個、4個またはそれ以上の個数の互いに隣接したフォトダイオードの集合体であってもよい)。この図に示した一例において、フォトダイオードPD1とフォトダイオードPD4は、赤色フィルタの下方に位置することから、赤色のチャネルの画素情報を出力し、フォトダイオードPD2とフォトダイオードPD5は、緑色フィルタの下方に位置することから、緑色のチャネルの画素情報を出力し、フォトダイオードPD3とフォトダイオードPD6は、青色フィルタの下方に位置することから、青色のチャネルの画素情報を出力する。さらに、以下で詳述するように、所定のフォトダイオードによる特定の色のチャネル出力は、アクティブな光源および/またはマルチバンドパスフィルタ205A,205Bを通過した特定の周波数帯に基づいて、さらに狭い周波数帯とすることができ、これによって、所定のフォトダイオードから、様々な露光により様々な画像チャネル情報を出力できるようになる。 As shown in FIG. 3A, the filters of the CFA are positioned above single photodiodes PD1-PD6. FIG. 3A also shows an example of a microlens (designated ML) that may be formed or otherwise disposed on each color filter to focus incident light onto the active detector area. Alternative implementations may have multiple photodiodes (e.g., a collection of two, four, or more adjacent photodiodes) below a single filter. In the example shown, photodiodes PD1 and PD4 are located below a red filter and therefore output pixel information for a red channel, photodiodes PD2 and PD5 are located below a green filter and therefore output pixel information for a green channel, and photodiodes PD3 and PD6 are located below a blue filter and therefore output pixel information for a blue channel. Additionally, as described in more detail below, the particular color channel output by a given photodiode can be further narrowed based on the active light source and/or the particular frequency bands passed through the multiple bandpass filters 205A, 205B, allowing different image channel information to be output from a given photodiode with different exposures.

結像レンズ215A,215Bは、センサ領域225A,225B上で物体シーンの画像の焦点が合うように成形することができる。各結像レンズ215A,215Bは、図3Aに示すような単一の凸面レンズに限定されず、画像形成に必要とされる数の光学素子および表面で構成されていてもよく、市販または特注設計による様々な種類の結像レンズまたはレンズアセンブリを使用することができる。各光学素子またはレンズアセンブリは、止め輪またはベゼルを備えた光学機械式鏡筒を使用して、直列に収容または積み重なるように形成または互いに結合されていてもよい。いくつかの実施形態において、光学素子またはレンズアセンブリは、1つ以上の結合レンズ群を含んでいてもよく、結合レンズ群として、2つ以上の光学部品が接合されたものや、それ以外の方法で2つ以上の光学部品が結合されたものを挙げることができる。様々な実施形態において、本明細書に記載のマルチバンドパスフィルタは、マルチスペクトル画像システムのレンズアセンブリの前面に配置してもよく、マルチスペクトル画像システムの単レンズの前面に配置してもよく、マルチスペクトル画像システムのレンズアセンブリの後ろに配置してもよく、マルチスペクトル画像システムの単レンズの後ろに配置してもよく、マルチスペクトル画像システムのレンズアセンブリの内部に配置してもよく、マルチスペクトル画像システムの結合レンズ群の内部に配置してもよく、マルチスペクトル画像システムの単レンズの表面上に直接配置してもよく、マルチスペクトル画像システムのレンズアセンブリの素子の表面上に直接配置してもよい。さらに、アパーチャ210Aおよびアパーチャ210Bを取り除き、デジタル一眼レフ(DSLR)カメラまたはミラーレスカメラによる写真撮影で通常使用される種類のレンズをレンズ215A,215Bに使用してもよい。さらに、レンズ215A,215Bは、CマウントスレッドまたはSマウントスレッドを装着に使用したマシンビジョンに使用される種類のレンズであってもよい。ピント調整は、例えば、手動フォーカス、コントラスト方式オートフォーカスまたはその他の適切なオートフォーカス技術に基づいて、センサ領域225A,225Bに対して結像レンズ215A,215Bを移動させることによって、あるいは結像レンズ215A,215Bに対してセンサ領域225A,225Bを移動させることによって行うことができる。 The imaging lenses 215A, 215B can be shaped to focus the image of the object scene on the sensor area 225A, 225B. Each imaging lens 215A, 215B is not limited to a single convex lens as shown in FIG. 3A, but may be composed of as many optical elements and surfaces as needed to form an image, and various types of imaging lenses or lens assemblies, either commercially available or custom designed, can be used. Each optical element or lens assembly can be formed or coupled to each other to be housed in series or stacked using an opto-mechanical barrel with a retaining ring or bezel. In some embodiments, the optical element or lens assembly can include one or more coupled lens groups, which can include two or more optical components bonded or otherwise coupled together. In various embodiments, the multiple bandpass filters described herein may be placed in front of a lens assembly of a multispectral imaging system, in front of a single lens of a multispectral imaging system, behind a lens assembly of a multispectral imaging system, behind a single lens of a multispectral imaging system, inside a lens assembly of a multispectral imaging system, inside a group of combined lenses of a multispectral imaging system, directly on the surface of a single lens of a multispectral imaging system, or directly on the surface of an element of a lens assembly of a multispectral imaging system. Additionally, apertures 210A and 210B may be eliminated and lenses 215A and 215B may be of the type typically used in digital single-lens reflex (DSLR) or mirrorless camera photography. Additionally, lenses 215A and 215B may be of the type used in machine vision using a C-mount or S-mount thread for attachment. Focus adjustment can be performed, for example, by moving the imaging lenses 215A, 215B relative to the sensor areas 225A, 225B, or by moving the sensor areas 225A, 225B relative to the imaging lenses 215A, 215B, based on manual focus, contrast-based autofocus, or other suitable autofocus techniques.

各マルチバンドパスフィルタ205A,205Bは、狭い周波数帯の複数の光を選択的に通過するように構成することができ、例えば、いくつかの実施形態では10~50nmの周波数帯の複数の光(別の実施形態では、これよりも広い周波数帯または狭い周波数帯の複数の光)を選択的に通過するように構成することができる。図3Aに示すように、マルチバンドパスフィルタ205A,205Bはいずれも周波数帯λc(「共通周波数帯」)を通過させることができる。3つ以上の光路を備えた実装では、各マルチバンドパスフィルタは、この共通周波数帯を通過させることができる。このような方法によって、各センサ領域は、同じ周波数帯(「共通チャネル」)の画像情報を撮影する。以下でさらに詳細に述べるように、この共通チャネルで得られたこの画像情報を使用して、各センサ領域により撮影された一組の画像の位置合わせを行うことができる。いくつかの実装では、1つの共通周波数帯と、これに対応する共通チャネルを有していてもよく、あるいは、複数の共通周波数帯と、これらに対応する共通チャネルを有していてもよい。 Each multi-bandpass filter 205A, 205B can be configured to selectively pass multiple lights in a narrow frequency band, for example, in some embodiments multiple lights in a frequency band from 10 to 50 nm ( In other embodiments, it may be configured to selectively pass a wider or narrower frequency band of light. As shown in FIG. 3A, both multi-bandpass filters 205A and 205B can pass the frequency band λc ("common frequency band"). In implementations with more than two optical paths, each multi-bandpass filter can pass this common frequency band. In this manner, each sensor area captures image information in the same frequency band (a "common channel"). As discussed in more detail below, this image information obtained on this common channel can be used to align the set of images taken by each sensor region. Some implementations may have one common frequency band and corresponding common channel, or may have multiple common frequency bands and corresponding common channels.

各マルチバンドパスフィルタ205A,205Bは、共通周波数帯λcに加えて、1つ以上の特有周波数帯を選択的に通過させるように構成することができる。このような方法によって、イメージングシステム200は、センサ領域205A,205Bにより一括して撮影される異なるスペクトルチャネルの数を、単一のセンサ領域により撮影可能なスペクトルチャネル数よりも多くすることができる。この態様は、特有周波数帯λu1を通過させるマルチバンドパスフィルタ205Aと、特有周波数帯λu2を通過させるマルチバンドパスフィルタ205Bとして、図3Aに示されており、ここでλu1およびλu2は、互いに異なる周波数帯を示す。この図では、2個の周波数帯の通過として示したが、本開示のマルチバンドパスフィルタは、それぞれ2個以上の周波数帯を一度に通過させることができる。例えば、図11Aおよび図11Bに関連して後述するように、いくつかの実装では、各マルチバンドパスフィルタは、4個の周波数帯を通過させることができる。様々な実施形態において、これよりも多くの周波数帯を通過させてもよい。例えば、4台のカメラを使用した実装では、8個の周波数帯を通過させるように構成されたマルチバンドパスフィルタを備えていてもよい。いくつかの実施形態において、周波数帯の数は、例えば、4個、5個、6個、7個、8個、9個、10個、12個、15個、16個またはそれ以上であってもよい。 Each of the multi-bandpass filters 205A, 205B can be configured to selectively pass one or more unique frequency bands in addition to the common frequency band λc. In this manner, the imaging system 200 can collectively image a greater number of different spectral channels by the sensor areas 205A, 205B than can be imaged by a single sensor area. This aspect is illustrated in FIG. 3A as multi-bandpass filter 205A passing unique frequency band λu1 and multi-bandpass filter 205B passing unique frequency band λu2 , where λu1 and λu2 represent different frequency bands. Although shown passing two frequency bands in this figure, the multi-bandpass filters of the present disclosure can each pass more than one frequency band at a time. For example, as described below in connection with FIGs. 11A and 11B, in some implementations, each of the multi-bandpass filters can pass four frequency bands. In various embodiments, more frequency bands may be passed. For example, a four camera implementation may include a multi-bandpass filter configured to pass eight frequency bands, in some embodiments the number of frequency bands may be, for example, four, five, six, seven, eight, nine, ten, twelve, fifteen, sixteen or more.

マルチバンドパスフィルタ205A,205Bは、それぞれに対応するセンサ領域225A,225Bにおける入射角度依存性のスペクトル透過が低下するように選択された湾曲を有する。この結果、物体空間から狭帯域の照明を受光する場合、その波長に感度を有するセンサ領域225A,225Bの表面全体に配置された各フォトダイオード(例えば、センサ領域を覆い、その波長を通過させるカラーフィルタ)は、図1Aに関連して前述したような、センサの端部近傍に配置されたフォトダイオードにおいて見られる波長のシフトは発生させず、実質的に同じ波長の光を受光すると考えられる。このような構成により、平坦なフィルタを使用した場合よりも正確なスペクトル画像データを生成することができる。 The multi-bandpass filters 205A, 205B have a curvature selected to reduce the incident angle-dependent spectral transmission in the respective sensor regions 225A, 225B. As a result, when receiving narrowband illumination from the object space, each photodiode (e.g., a color filter that covers the sensor area and passes that wavelength The filter is believed to receive light at substantially the same wavelength without the wavelength shift seen in photodiodes placed near the edge of the sensor, as described above in connection with FIG. 1A. With such a configuration, more accurate spectral image data can be generated than when using a flat filter.

図3Bは、図3Aに示したマルチアパーチャイメージングシステムの1つの光路を構成する光学部品の光学設計の一例を示す。より具体的には、図3Bは、マルチバンドパスフィルタ205A,205Bとして使用することができる特注の色消しダブレット240を示す。この特注の色消しダブレット240は、ハウジング250を通して光を通過させ、イメージセンサ225へと送る。ハウジング250は、前述したような、開口部210A,210Bおよび結像レンズ215A,215Bを備えていてもよい。 FIG. 3B shows an example of the optical design of optical components that constitute one optical path of the multi-aperture imaging system shown in FIG. 3A. More specifically, FIG. 3B shows a custom achromatic doublet 240 that can be used as a multi-bandpass filter 205A, 205B. This custom achromatic doublet 240 passes light through the housing 250 and onto the image sensor 225. Housing 250 may include openings 210A, 210B and imaging lenses 215A, 215B, as described above.

色消しダブレット240は、マルチバンドパスフィルタコーティング205A,205Bに必要とされる表面を組み込んで導入されることから、光学収差を補正するように構成される。この図に示した色消しダブレット240は、分散度と屈折率が異なるガラスまたはその他の光学材料から作製することが可能な2枚のレンズを含む。別の実装では、3枚以上のレンズを使用してもよい。これらの色消しダブレットレンズの設計は、湾曲した前面242上にマルチバンドパスフィルタコーティング205A,205Bが組み込まれ、フィルタコーティング205A,205Bを蒸着した湾曲単レンズの光学面を組み込むことにより光学収差を打ち消し、色消しダブレット240の湾曲した前面242と湾曲した背面244の組み合わせ効果により屈折力または集光力を制限し、ハウジング250に収容されたこれらのレンズのみで、集光のための主要な素子を構成することができる。したがって、色消しダブレット240は、イメージングシステム200により撮影された画像データの精度の向上に寄与することができる。これらの個々のレンズは互いに隣接して装着することができ、例えば、個々のレンズを結合または接合することにより、一方のレンズの収差が他方のレンズの収差によって相殺されるように成形することができる。色消しダブレット240の湾曲した前面242または湾曲した背面244は、マルチバンドパスフィルタコーティング205A,205Bでコーティングすることができる。別のダブレット設計を本明細書に記載のシステムに実装してもよい。 The achromatic doublet 240 is configured to correct optical aberrations due to the incorporation of the required surfaces for the multi-bandpass filter coatings 205A, 205B. The achromatic doublet 240 shown in this figure includes two lenses that can be made of glass or other optical materials with different dispersions and refractive indices. In other implementations, three or more lenses may be used. These achromatic doublet lens designs incorporate the multi-bandpass filter coatings 205A, 205B on the curved front surface 242, and incorporate the optical surfaces of the curved single lens onto which the filter coatings 205A, 205B are deposited to cancel optical aberrations, and the combined effect of the curved front surface 242 and curved back surface 244 of the achromatic doublet 240 limits the refractive or light gathering power, so that these lenses alone, housed in the housing 250, can constitute the primary elements for light gathering. The achromatic doublet 240 can thus contribute to improving the accuracy of image data captured by the imaging system 200. These individual lenses can be mounted adjacent to one another, e.g., by bonding or cementing the individual lenses together, and shaped so that the aberrations of one lens are offset by the aberrations of the other lens. The curved front surface 242 or the curved back surface 244 of the achromatic doublet 240 can be coated with multiple bandpass filter coatings 205A, 205B. Alternative doublet designs may be implemented in the systems described herein.

本明細書に記載の光学設計のさらなる変形例を実装してもよい。例えば、いくつかの実施形態において、図3Bに示すダブレット240の代わりに、図3Aに示す凸レンズ(正レンズ)または凹レンズ(負レンズ)のような、単レンズまたはその他の光学単レンズが光路に含まれていてもよい。図3Cは、平坦なフィルタ252をレンズのハウジング250とセンサ225の間に配置した実装の一例を示す。複数帯域透過特性を備えた平坦なフィルタ252を組み込んで導入した図3Cの色消しダブレット240は、ハウジング250に収容された各レンズの屈折力に顕著に寄与することなく、光学収差を補正する。図3Dは、ハウジング250内に収容されたレンズアセンブリの前面にマルチバンドパスコーティング254を施すことにより、マルチバンドパスコーティングが実装された実装の別の一例を示す。このように、このマルチバンドパスコーティング254は、ハウジング250内に収容されたどの光学素子のどの曲面に施してもよい。 Further variations of the optical designs described herein may be implemented. For example, in some embodiments, a single lens or other optical single lens, such as a convex (positive) or concave (negative) lens as shown in FIG. 3A, may be included in the optical path instead of the doublet 240 shown in FIG. 3B. FIG. 3C shows an example of an implementation in which a flat filter 252 is placed between the lens housing 250 and the sensor 225. The achromatic doublet 240 of FIG. 3C, which incorporates a flat filter 252 with multi-band transmission characteristics, corrects optical aberrations without significantly contributing to the optical power of each lens contained in the housing 250. FIG. 3D shows another example of an implementation in which a multi-bandpass coating is implemented by applying a multi-bandpass coating 254 to the front surface of the lens assembly contained in the housing 250. Thus, this multi-bandpass coating 254 may be applied to any curved surface of any optical element contained in the housing 250.

シングルアパーチャ・マルチスペクトルイメージングシステムおよびその方法
図4の(a)は、本開示によるマルチスペクトル画像システムの一例のシステムダイアグラムを示す。この設計において、カラーカメラはイメージセンサであるが、本発明の技術に従って、その他の種類の様々なイメージセンサを使用してもよい。このマルチスペクトル画像システムは、視野(FOV)を調整して画像を撮影できるように、電動ズームレンズを備えていてもよい。電動ズームレンズは、様々な撮影状況に応じて視野を調整することができるという点で有利な場合がある。例えば、創傷のイメージングにおける生物医学的な用途では、大きな面積の熱傷の撮像には、広い視野が望ましい場合があり、糖尿病性足部潰瘍(DFU)などの小さい面積の特徴の撮像には、狭い視野が望ましい場合がある。一例としての実施形態において、視野の直径は8cm~23cmの範囲であってもよいが、これに限定されない。電動ズームレンズとカラーカメラの間には、8バンド光学フィルタが配置され、この8個の周波数帯(バンド)は、マルチスペクトルイメージング帯域として設計されている。この特定の例において、8個の周波数帯(バンド)の中心波長は、それぞれ420nm、525nm、581nm、620nm、660nm、726nm、820nm、855nmであってもよい。同じスペクトル帯域を持つ8個の波長のLED光を照明用に提供することができる。いくつかの実施形態において、各周波数帯のLEDは、その他のLEDから独立して、選択的に点灯および消灯することができる。各LEDの前面には、各LEDに一致したスペクトル帯域を持つバンドパス光学フィルタが配置され、各LEDからの照明光のスペクトルの閉じ込めに利用される。
Single Aperture Multispectral Imaging System and Method FIG. 4(a) shows a system diagram of an example multispectral imaging system according to the present disclosure. In this design, the color camera is an image sensor, although a variety of other types of image sensors may be used in accordance with the techniques of the present invention. The multispectral imaging system may include a motorized zoom lens to adjust the field of view (FOV) to capture images. Electric zoom lenses can be advantageous in that the field of view can be adjusted according to various shooting situations. For example, in biomedical applications in wound imaging, a wide field of view may be desirable for imaging large area burns, while a narrow field of view may be desirable for imaging small area features such as diabetic foot ulcers (DFUs). Field of view may be desirable. In an exemplary embodiment, the diameter of the field of view may range from 8 cm to 23 cm, but is not limited thereto. An 8-band optical filter is placed between the motorized zoom lens and the color camera, and these 8 frequency bands are designed as multispectral imaging bands. In this particular example, the center wavelengths of the eight frequency bands may be 420nm, 525nm, 581nm, 620nm, 660nm, 726nm, 820nm, and 855nm, respectively. Eight wavelengths of LED light with the same spectral band can be provided for illumination. In some embodiments, each frequency band LED can be selectively turned on and off independently of other LEDs. In front of each LED is a bandpass optical filter with a spectral band matched to each LED, which is used to confine the spectrum of illumination light from each LED.

図4の(b)は、カラーカメラのRGBセンサの量子効率(Q%)を示す。青色の線、緑色の線および赤色の線は、それぞれカラーカメラの青色チャネル、緑色チャネルおよび赤色チャネルを示す。図4の(c)は、8バンドフィルタの透過係数を示し、このスペクトルでは合計8個のバンドパス帯域が存在する。これらの8個のバンドパス帯域は、マルチスペクトルイメージング帯域として望ましいものである。これと同様に、図4の(d)は、スペクトル上のそれぞれ独立した8個のLEDの照度(I0)を示す。これらのLEDの照明帯域は、8バンドフィルタ帯域と重ね合わせることができる。 FIG. 4b shows the quantum efficiency (Q%) of the RGB sensor of the color camera. The blue, green, and red lines represent the blue, green, and red channels of the color camera, respectively. FIG. 4c shows the transmission coefficient of the 8-band filter, which means that there are a total of eight bandpass bands in this spectrum. These eight bandpass bands are desirable as multispectral imaging bands. Similarly, FIG. 4d shows the illuminance (I 0 ) of eight independent LEDs on the spectrum. These LED illumination bands can be overlapped with the 8-band filter bands.

図5は、マルチスペクトルイメージング(MSI)の取得時のLED照明の時系列の一例と、この時系列に対応した各チャネルの検知係数を示す。このLED照明の時系列は、図4に示すマルチスペクトル画像システムを併用して実装してもよい。図5に示す時系列は、本発明の技術の範囲内で利用してもよい照明とスペクトルアンミキシングの実例の一例である。図4に示すマルチスペクトル画像システムは、本発明の技術の要旨または範囲から逸脱することなく、様々な時系列のLEDと組み合わせて使用してもよく、かつ/または図5に示す時系列は、様々なマルチスペクトル画像システムと組み合わせて使用してもよいと解釈される。 5 illustrates an example of a time series of LED illumination during acquisition of multispectral imaging (MSI) and the corresponding detection coefficients for each channel. This LED illumination time series may be implemented in conjunction with the multispectral imaging system illustrated in FIG. 4. The time series illustrated in FIG. 5 is an example of an example of illumination and spectral unmixing that may be utilized within the scope of the present technology. It is understood that the multispectral imaging system illustrated in FIG. 4 may be used in conjunction with various LED time series and/or the time series illustrated in FIG. 5 may be used in conjunction with various multispectral imaging systems without departing from the spirit or scope of the present technology.

第1段階において、図5の(I)のチャネル1、チャネル3およびチャネル5(420nm、581nmおよび660nm)のLED光を点灯する。この時間窓において、カラーカメラにより1枚の画像を取得する。3つの波長が光学フィルタを通過し、カラーカメラのRGBチャネルによって撮影され、これらの3つの波長は、(I)に示すようにフィルタ透過係数(T%)とRGB検知係数(Q%)が異なっている。次に、第2段階において、(II)に示すように、チャネル1、チャネル3およびチャネル5のLED光を消灯し、チャネル2、チャネル4およびチャネル6(525nm、620nmおよび726nm)のLED光を点灯する。上記と同様に、この時間窓においてカラーカメラにより1枚の画像を取得することによって、3つのカメラチャネルにより特定の係数を持つ3つの波長が撮影される。第3段階において、(III)に示すように、(726nmのチャネル6は点灯したまま)チャネル2およびチャネル4のLED光を消灯し、チャネル7およびチャネル8(820nmおよび855nm)のLED光を点灯して、カラーカメラにより、特定の係数を持つチャネル6、チャネル7およびチャネル8の波長に関する第3の画像を取得する。 In the first step, the LED lights of channels 1, 3 and 5 (420 nm, 581 nm and 660 nm) in FIG. 5 (I) are turned on. In this time window, one image is captured by the color camera. Three wavelengths pass through the optical filter and are captured by the RGB channels of the color camera, and these three wavelengths have different filter transmission coefficients (T%) and RGB detection coefficients (Q%) as shown in (I). Next, in the second step, the LED lights of channels 1, 3 and 5 are turned off, and the LED lights of channels 2, 4 and 6 (525 nm, 620 nm and 726 nm) are turned on, as shown in (II). As above, by capturing one image by the color camera in this time window, three wavelengths with specific coefficients are captured by the three camera channels. In the third step, as shown in (III), the LED lights of channels 2 and 4 are turned off (while channel 6 of 726 nm remains on), and the LED lights of channels 7 and 8 (820 nm and 855 nm) are turned on, and a third image is obtained by the color camera for the wavelengths of channels 6, 7, and 8 with specific coefficients.

いくつかの実施形態において、最初の校正を実施することができる。まず、以下の順序で標準板(例えば白色のZenithターゲットなど)の3枚の画像をカラーカメラで取得する。すなわち、(1)LED照明を点灯していない時点;(2)チャネル1、チャネル3およびチャネル5(420nm、581nmおよび660nm)のLED光を点灯した時点(その他のLEDチャネルは消灯する);(3)チャネル2、チャネル4およびチャネル6(525nm、620nmおよび726nm)のLED光を点灯した時点(その他のLEDチャネルは消灯する);ならびに(4)チャネル6、チャネル7およびチャネル8(726nm、820nmおよび855nm)のLED光を点灯した時点(その他のLEDチャネルは消灯する)において、標準板の3枚の画像をカラーカメラで取得する。いくつかの実施形態において、標準板は、スペクトル全体の光子の約95%を反射する白色のZenithターゲットであってもよく、この標準板を用いて、照明のフラットフィールド補正を行うことができる。 In some embodiments, an initial calibration may be performed. First, three images of a standard plate (for example, a white Zenith target) are acquired using a color camera in the following order. That is, (1) when the LED lighting is not turned on; (2) when the LED lights of channel 1, channel 3 and channel 5 (420nm, 581nm and 660nm) are turned on (other LED channels are turned off); ( 3) When channel 2, channel 4 and channel 6 (525nm, 620nm and 726nm) LED lights are turned on (other LED channels are turned off); and (4) channel 6, channel 7 and channel 8 (726nm, 820nm) At the point when the LED light of 855nm and 855nm is turned on (other LED channels are turned off), three images of the standard board are acquired with a color camera. In some embodiments, the standard can be a white Zenith target that reflects about 95% of the photons across the spectrum, and can be used to perform flat field correction of the illumination.

次に、同じ順序でイメージングターゲットの3枚の画像をカラーカメラで取得する(例えば、LED照明の点灯なし;次に、チャネル1、チャネル3およびチャネル5の点灯;次に、チャネル2、チャネル4およびチャネル6の点灯;最後に、チャネル6、チャネル7およびチャネル8の点灯)。背景差分とフラットフィールド補正を行うことによって、下記式を用いることができる。

Figure 2024514493000002
式中、I0は、入射照度であり、R%は、イメージングターゲットの反射係数であり(この反射係数が、計算の対象となる未知のスペクトルに相当する)、T%は、LEDフィルタと8バンドフィルタの透過係数であり、Q%は、カラーカメラの量子係数である。カラーカメラの画像は、3つの既知量として3つのチャネル(青色、緑色、赤色)を有し、LED照明は、同時に3つの波長しか含んでおらず、3つのスペクトル帯域の反射係数(例えば、チャネル1、チャネル3およびチャネル5のR%)が、同時に計算される3つの未知量であることから、以下の行列演算式(一例として、チャネル1、チャネル3およびチャネル5を用いている)に基づくアンミキシング行列によって、3つのチャネルの未知量であるR%を求めることができる。
Figure 2024514493000003
式中、[R%チャネル1 R%チャネル2 R%チャネル3]は3つの未知量であり、[画像,画像,画像]は3つの既知量であり、[I0×T%×Q%]は、アンミキシング係数行列である。したがって、反射係数は以下の式で求めることができる。
Figure 2024514493000004
Next, three images of the imaging target are acquired with the color camera in the same order (e.g., no LED illumination; then channel 1, channel 3, and channel 5; then channel 2, channel 4, and channel 6; and finally channel 6, channel 7, and channel 8). By performing background subtraction and flat-field correction, the following formula can be used:
Figure 2024514493000002
In the formula, I0 is the incident illuminance, R% is the reflection coefficient of the imaging target (this reflection coefficient corresponds to the unknown spectrum to be calculated), T% is the transmission coefficient of the LED filter and the 8-band filter, and Q% is the quantum coefficient of the color camera. Since the image of the color camera has three channels (blue, green, and red) as three known quantities, and the LED illumination only contains three wavelengths at the same time, the reflection coefficients of the three spectral bands (e.g., R% of channel 1, channel 3, and channel 5) are the three unknown quantities to be calculated at the same time, the unknown quantity R% of the three channels can be obtained by the unmixing matrix based on the following matrix operation formula (using channel 1, channel 3, and channel 5 as an example).
Figure 2024514493000003
In the formula, [R% channel 1, R% channel 2, R% channel 3 ] are three unknowns, [image blue , image green , image red ] are three knowns, and [I 0 ×T%×Q%] is the unmixing coefficient matrix. Therefore, the reflection coefficient can be calculated by the following formula.
Figure 2024514493000004

同様に、特定の波長の組み合わせでLED照明を点灯した場合の、その他のチャネル、すなわち、チャネル2、チャネル4、チャネル6、チャネル7およびチャネル8(525nm、620nm、726nm、820nmおよび855nm)の反射係数も、対応するアンミキシング行列により求められる。したがって、3つのアンミキシング行列により得られた各チャネルごとの画像に基づいて、8枚のMSI画像が生成される。 Similarly, the reflection coefficients of other channels, namely, channel 2, channel 4, channel 6, channel 7 and channel 8 (525 nm, 620 nm, 726 nm, 820 nm and 855 nm), when LED lighting is turned on with a specific wavelength combination, are also obtained by the corresponding unmixing matrices. Therefore, eight MSI images are generated based on the images for each channel obtained by the three unmixing matrices.

図5を参照して上記で述べた画像取得の時系列とLED照明の組み合わせは、8枚のMSI画像を取得する方法の一例である。実用に際しては、LED照明と画像取得の時系列は、様々な組み合わせおよび/または様々なタイミングで設計することができ、LED照明と画像取得の時系列の組み合わせは、ハードウェアの性能や経験則などに基づいて選択して使用してもよい。別の一方法として、各LED波長が個別に点灯するように設計する場合、モノクロカメラを使用することができ、したがって、アンミキシング行列は必要とされない。この場合、MSIの性能は、ターゲットを撮影し、MSI画像の品質をスペクトルの真値と比較すること(すなわち色校正)によって評価することができる。 The combination of image acquisition time series and LED illumination described above with reference to FIG. 5 is an example of a method for acquiring eight MSI images. In practice, the time series of LED illumination and image acquisition can be designed in various combinations and/or at various timings, and the combination of the time series of LED illumination and image acquisition depends on hardware performance, heuristics, etc. It may be selected and used based on the following. Alternatively, a monochrome camera can be used if each LED wavelength is designed to be lit individually, so no unmixing matrix is required. In this case, MSI performance can be evaluated by photographing the target and comparing the quality of the MSI image with the true value of the spectrum (i.e. color calibration).

シングルアパーチャ・マルチスペクトルイメージングシステムの実装およびその結果の一例
図6および図7は、本明細書に開示されたMSIシステムおよびその方法を利用して実装してもよいシングルアパーチャ・シングルカメラ・マルチスペクトル画像取得装置を具体化した実施形態の一例を示す。図6は、前述の多重化照明を行うためのLEDアレイとカメラとを備えたハンドヘルド型装置の透視図である。図6に示すこのハンドヘルド型装置内には、1つ以上のプロセッサと、取得した画像データを格納するためのメモリとが含まれていてもよい。本明細書に開示したスペクトルアンミキシングおよび/または本明細書で後述する個々のスペクトル画像の生成などのさらなる画像データ処理は、図6に示すハンドヘルド型装置内で行ってもよく、あるいは本開示の範囲から逸脱することなく、1つ以上の遠隔演算装置の完全な制御または部分的な制御のみで行ってもよく、または図6に示すハンドヘルド装置を併用して1つ以上の遠隔演算装置の完全な制御または部分的な制御により行ってもよい。
Illustrative Single Aperture Multispectral Imaging System Implementations and Results FIGS. 6 and 7 show an illustrative embodiment of a single aperture , single camera, multispectral image capture device that may be implemented using the MSI system and methods disclosed herein. FIG. 6 is a perspective view of a handheld device with an LED array and a camera for performing the multiplexed illumination described above. Included within the handheld device shown in FIG. 6 may be one or more processors and memory for storing captured image data. Further image data processing, such as spectral unmixing as disclosed herein and/or generation of individual spectral images as described below in this specification, may be performed within the handheld device shown in FIG. 6 or may be performed solely under the full or partial control of one or more remote computing devices or in conjunction with the handheld device shown in FIG. 6 under the full or partial control of one or more remote computing devices without departing from the scope of the present disclosure.

図7は、合計24個のLEDを含むLED構成の一例を示す。このLED構成では、波長帯域が異なる8種のLEDが3個ずつ、画像取得装置のシングルアパーチャを取り囲むように環状に配置されている。複雑さに起因するアンミキシングの誤差を減少させるため、LED照明の色の数を8つの波長に増やしている。個々のLEDは、所定のMSIスペクトル帯域をカバーし、その中心波長はそれぞれ約420nm、約525nm、約581nm、約620nm、約660nm、約726nm、約820nmおよび約880nmであってもよい。このイメージセンサは、シングルアパーチャ設計であることから、照明基板とイメージセンサの正面の大きさが小さくなるように、LEDの新たな空間配置を開発した。環状の設計であることから、LED照明から中心のカメラアパーチャへの光子の収集効率が望ましいものとなる。所望の作動距離(例えば、いくつかの実施形態では40cm)において均一な照射を得るため、照明基板上の各LEDの色は、最大で3個以上のLEDで構成されていてもよく、各LEDのビームの開きは120°であってもよい。照明基板上に拡散板を配置することができる。LEDと拡散板の間で十分な距離を確保して拡散板への熱損傷を防止するため、スペーサーを所定の位置に配置する。画像収集時系列の設計を最適化するために様々な色の組み合わせを試験できるように、イメージングヘッド(例えば、図6に示すハンドヘルド装置)に組み込まれた1つ以上のプロセッサを用いて、個々のLEDを制御することができる。さらに、このような構成とすることによって、個々の光源の照度の校正時間を調整して高いシグナル/ノイズ比を得ることができる。 FIG. 7 shows an example of an LED configuration including a total of 24 LEDs. In this LED configuration, three LEDs of eight types with different wavelength bands are arranged in a ring to surround a single aperture of the image acquisition device. To reduce unmixing errors due to complexity, the number of colors in LED lighting is increased to eight wavelengths. Individual LEDs may cover predetermined MSI spectral bands, with center wavelengths of about 420 nm, about 525 nm, about 581 nm, about 620 nm, about 660 nm, about 726 nm, about 820 nm, and about 880 nm, respectively. Since this image sensor has a single aperture design, a new spatial arrangement of the LEDs was developed to reduce the size of the front of the lighting board and image sensor. The annular design provides desirable photon collection efficiency from the LED illumination to the central camera aperture. To obtain uniform illumination at a desired working distance (e.g., 40 cm in some embodiments), each LED color on the lighting board may be composed of up to three or more LEDs, with each LED The beam aperture may be 120°. A diffuser plate can be placed on the lighting board. Place spacers in place to ensure sufficient distance between the LED and the diffuser to prevent heat damage to the diffuser. Using one or more processors integrated into the imaging head (e.g., the handheld device shown in Figure 6), individual LEDs can be controlled. Furthermore, with such a configuration, a high signal/noise ratio can be obtained by adjusting the calibration time of the illuminance of each light source.

図8~10は、本発明の技術によるシングルアパーチャシステムによる試験の結果を示す。図8は、7種のカラーLEDで照明を照射した条件で、単レンズ・シングルアパーチャ・シングルカメラシステムを用いて撮影し、周囲の室内灯を背景として差分したマクベスターゲットとZenithターゲットのRGB画像を示す。この試験例では、照明基板上に7種のカラーLED(青色、緑色、PCアンバー、深紅色、遠赤外線、NIR IおよびNIR II)を配置し、時系列に沿って個別に点灯および消灯させ、8種のMSI用バンドパス光学フィルタ(中心波長/全幅半値(FWHM):420/10nm、520/10nm、580/10nm、620/10nm、660/10nm、730/10nm、810/10nmおよび850/10nm)を用いて、RGBカメラ上で合計7×8=56枚の画像を取得した。 8-10 show the results of tests with a single aperture system according to the techniques of the present invention. Figure 8 shows the RGB images of the Macbeth and Zenith targets taken using a single lens, single aperture, and single camera system under conditions of illumination with seven types of color LEDs and subtracted against the background of the surrounding indoor lights. show. In this test example, seven types of color LEDs (blue, green, PC amber, deep red, far infrared, NIR I and NIR II) were placed on the lighting board and turned on and off individually in chronological order. Eight types of bandpass optical filters for MSI (center wavelength/full width at half maximum (FWHM): 420/10nm, 520/10nm, 580/10nm, 620/10nm, 660/10nm, 730/10nm, 810/10nm and 850/10nm ), a total of 7 × 8 = 56 images were acquired on the RGB camera.

リニアな後処理方法により、同じ色のLEDを照射し8種のフィルタを通して取得した8枚の画像を加算すると、7種の照明条件により取得した7枚のRGB画像を8バンドフィルタに通したものと同じ値となった。分光分析用にマクベスターゲットを撮像し、フラットフィールド補正用に95%の反射率のZenithターゲットを撮像した。次に、アンミキシングアルゴリズムを用いて8枚のMSI画像を生成した。アンミキシングの原理は本明細書で概説している。検出されたシグナル(S)は、照度(I)と、ターゲットの反射率(R)と、レンズおよびバンドパスフィルタを含む光学系の透過係数(T)と、スペクトル帯域(λ)におけるセンサの量子効率(Q)とを掛けたものの積分値であり、以下の式で示される。

Figure 2024514493000005
測定の目的はターゲットの反射率(R)であり、検出されたシグナル(S)が直接的な測定値である。8バンドフィルタは、8つの所定のMSIスペクトルウィンドウのみに光の透過を閉じ込めることから、Rの未知の測定値は8つのみである。7種のカラーLED照明(I)を調節し、量子効率(Q)が同じ3つのスペクトルセンサ(すなわちRGBチャネル)を用いることによって、十分な既知量(7×3=21)を用いたリニアなアンミキシング行列演算を行って、8つの未知量を求めることができる。このプロセスにより生成された8枚のMSI画像を図9に示す。 A linear post-processing method summed eight images captured with eight filters using the same LED color, which was equivalent to seven RGB images captured under seven illumination conditions filtered through eight band filters. A Macbeth target was imaged for spectroscopic analysis, and a Zenith target with 95% reflectance was imaged for flat-field correction. Eight MSI images were then generated using an unmixing algorithm. The principles of unmixing are outlined herein. The detected signal (S) is the integral of the illuminance (I) multiplied by the reflectance of the target (R), the transmission coefficient (T) of the optical system including the lens and bandpass filter, and the quantum efficiency (Q) of the sensor in the spectral band (λ), as follows:
Figure 2024514493000005
The measurement objective is the reflectance (R) of the target, and the detected signal (S) is the direct measurement. The 8-band filter confines the transmission of light only to the 8 predefined MSI spectral windows, so there are only 8 unknown measurements of R. By tuning the 7 color LED illumination (I) and using 3 spectral sensors (i.e., RGB channels) with the same quantum efficiency (Q), a linear unmixing matrix operation with enough known quantities (7 x 3 = 21) can be performed to determine the 8 unknown quantities. The 8 MSI images generated by this process are shown in Figure 9.

MSI画像を生成した後、マクベスターゲットの各パッチのMSIスペクトルと、校正した分光計で測定した真値とを比較することによって、スペクトルの正確性を分析した。比較結果を図10に示す。比較した結果、本発明の提案により改良されたシングルアパーチャMSIシステムの設計において、スペクトル測定の正確性が高いことが示された(平均相関係数=0.97)。 After generating the MSI images, we analyzed the spectral accuracy by comparing the MSI spectra of each patch of the Macbeth target with the true values measured with a calibrated spectrometer. The comparison results are shown in Figure 10. The comparison results showed that the improved single-aperture MSI system design proposed by the present invention has higher accuracy of spectral measurements (average correlation coefficient = 0.97).

用語
本明細書に記載の方法およびタスクはすべてコンピュータシステムにより実行されてもよく、完全に自動化されていてもよい。場合によっては、このコンピュータシステムは、ネットワーク上で通信し相互運用して、本明細書で述べる機能を実行する別々の複数のコンピュータまたはコンピュータ装置(例えば、物理サーバ、ワークステーション、ストレージアレイ、クラウドコンピューティングリソースなど)を含む。このようなコンピュータ装置は、いずれも、通常、メモリまたはその他の非一時的なコンピュータ可読記憶媒体もしくは非一時的なコンピュータ可読記憶装置(例えば、ソリッドステート記憶装置、ディスクドライブなど)に格納されたプログラム命令またはプログラムモジュールを実行するプロセッサ(または複数のプロセッサ)を含む。本明細書で開示した様々な機能は、そのようなプログラム命令で具体化してもよく、コンピュータシステムの特定用途向け回路(例えば、ASICやFPGA)の形態で実装してもよい。コンピュータシステムが複数のコンピュータ装置を含む場合、これらの装置は、同じ場所に配置してもよいし、別の場所に配置してもよい。本明細書で開示した方法およびタスクによる結果は、ソリッドステートメモリチップや磁気ディスクなどの物理的記憶装置を様々な形態に変換することによって、永続的に保存してもよい。いくつかの実施形態において、コンピュータシステムは、複数の別個の企業体またはその他のユーザにより処理リソースが共有されるクラウドベースのコンピューティングシステムであってもよい。
Terminology All methods and tasks described herein may be performed by computer systems or may be fully automated. In some cases, the computer system may include multiple separate computers or computing devices (e.g., physical servers, workstations, storage arrays, cloud computing devices) that communicate and interoperate over a network to perform the functions described herein. resources, etc.). Any such computing device typically includes programs stored in memory or other non-transitory computer-readable storage media (e.g., solid-state storage devices, disk drives, etc.). Includes a processor (or processors) that execute instructions or program modules. The various functions disclosed herein may be embodied in such program instructions or implemented in the form of special purpose circuitry (eg, an ASIC or FPGA) of a computer system. When a computer system includes multiple computing devices, these devices may be co-located or located at separate locations. The results of the methods and tasks disclosed herein may be permanently stored by converting physical storage devices, such as solid-state memory chips or magnetic disks, into various forms. In some embodiments, the computer system may be a cloud-based computing system where processing resources are shared by multiple separate business entities or other users.

本明細書で開示したプロセスは、ユーザまたはシステムアドミニストレータによって要求が開始された際に、所定のスケジュールや動的に決定したスケジュールなどのイベントに応答して開始してもよく、その他のいくつかのイベントに応答して開始してもよい。前記プロセスが開始されたら、1つ以上の非一時的なコンピュータ可読媒体(例えば、ハードドライブ、フラッシュメモリ、取り外し可能な媒体など)に格納された実行可能プログラム命令群を、サーバまたはその他のコンピュータ装置のメモリ(例えばRAM)にロードしてもよい。次に、実行可能命令は、コンピュータ装置が備えるハードウェアベースのコンピュータプロセッサにより実行してもよい。いくつかの実施形態において、本明細書で開示したプロセスまたはその一部は、直列または並列に、複数のコンピュータ装置および/または複数のプロセッサ上に実装してもよい。 The processes disclosed herein may be initiated in response to an event, such as a predefined schedule, a dynamically determined schedule, or some other event, upon request initiated by a user or system administrator. Once the processes are initiated, executable program instructions stored on one or more non-transitory computer-readable media (e.g., hard drives, flash memory, removable media, etc.) may be loaded into memory (e.g., RAM) of a server or other computing device. The executable instructions may then be executed by a hardware-based computer processor included in the computing device. In some embodiments, the processes disclosed herein, or portions thereof, may be implemented on multiple computing devices and/or multiple processors, either serially or in parallel.

実施形態に応じて、本明細書に記載のプロセスまたはアルゴリズムのいずれかによる特定の行為、イベントまたは機能は、異なる順序で行うことができ、互いに付加することができ、互いに合体することができ、すべてを省略することができる(例えば、本明細書に記載の作動およびイベントのすべてが、本明細書に記載のアルゴリズムの実行に必要とは限らない)。さらに、特定の実施形態において、複数の作動またはイベントは、例えば、マルチスレッド処理、割り込み処理、もしくは複数のプロセッサもしくは複数のプロセッサコアを使用して、またはその他の並列構造上で、順次ではなく同時に行うことができる。 Depending on the embodiment, certain acts, events, or functions of any of the processes or algorithms described herein may be performed in a different order, may be added to one another, may be combined with one another, or may be omitted altogether (e.g., not all of the acts and events described herein are required to perform the algorithms described herein). Furthermore, in certain embodiments, multiple acts or events may be performed simultaneously rather than sequentially, for example, using multithreaded processing, interrupt processing, or multiple processors or multiple processor cores, or on other parallel structures.

本明細書で開示した実施形態に関連して述べた例示的な様々な論理ブロック、モジュール、ルーチン、およびアルゴリズムの工程は、電子機器(例えばASICまたはFPGA装置)、コンピュータハードウェア上で作動するコンピュータソフトウェア、またはこれらの組み合わせとして実装することができる。さらに、本明細書で開示した実施形態に関連して述べた例示的な様々な論理ブロックおよびモジュールは、プロセッサ装置、デジタルシグナルプロセッサ(「DSP」)、特定用途向け集積回路(「ASIC」)、フィールドプログラマブルゲートアレイ(「FPGA」)もしくはその他のプログラマブルロジックデバイス、ディスクリートゲートロジックもしくはトランスファーロジック、ディスクリートハードウェアコンポーネント、または本明細書に記載の機能を実行するように設計された、これらの部品の組み合わせなどの機器により実装することができる。プロセッサ装置はマイクロプロセッサであってもよいが、別の態様において、プロセッサ装置は、制御装置、マイクロコントローラまたは状態機械、これらの組み合わせなどであってもよい。プロセッサ装置は、コンピュータ実行可能命令を処理するように構成された電気回路を含んでいてもよい。別の一実施形態において、プロセッサ装置は、FPGAを含むか、またはコンピュータ実行可能命令を処理することなく論理演算を行うその他のプログラマブルデバイスを含む。また、プロセッサ装置は、コンピュータ装置の組み合わせとして実装することができ、例えば、DSPとマイクロプロセッサの組み合わせ、複数のマイクロプロセッサの組み合わせ、DSPコアと1個以上のマイクロプロセッサの組み合わせ、またはこのようなその他の構成として実装することができる。本明細書では、主にデジタル技術に関して説明をしてきたが、プロセッサ装置は、主にアナログ部品を含んでいてもよい。例えば、本明細書に記載のレンダリング技術のすべてまたはそのうちの一部は、アナログ回路を使用して、またはアナログ回路とデジタル回路を併用して実装してもよい。コンピューティング環境は、何らかの種類のコンピュータシステムを含むことができ、このコンピュータシステムとして、いくつか例を挙げれば、マイクロプロセッサに基づくコンピュータシステム、メインフレームコンピュータ、デジタルシグナルプロセッサ、携帯型コンピュータ装置、デバイスコントローラ、電気器具内のコンピュータエンジンなどがあるが、これらに限定されない。 The various exemplary logic blocks, modules, routines, and algorithm steps described in connection with the embodiments disclosed herein may be implemented in a computer operating on electronic equipment (e.g., an ASIC or FPGA device), computer hardware. It can be implemented as software or a combination of these. Additionally, the various exemplary logic blocks and modules described in connection with the embodiments disclosed herein may include processor devices, digital signal processors ("DSPs"), application specific integrated circuits ("ASICs"), Field programmable gate arrays (“FPGAs”) or other programmable logic devices, discrete gate logic or transfer logic, discrete hardware components, or combinations of these components designed to perform the functions described herein It can be implemented with equipment such as. The processor device may be a microprocessor, but in other aspects the processor device may be a controller, a microcontroller or a state machine, combinations thereof, and the like. A processor device may include electrical circuitry configured to process computer-executable instructions. In another embodiment, the processor device includes an FPGA or other programmable device that performs logical operations without processing computer-executable instructions. The processor device may also be implemented as a combination of computing devices, such as a combination of a DSP and a microprocessor, a combination of multiple microprocessors, a combination of a DSP core and one or more microprocessors, or such other combinations. It can be implemented as a configuration. Although described herein primarily with respect to digital technology, the processor device may include primarily analog components. For example, all or some of the rendering techniques described herein may be implemented using analog circuitry or a combination of analog and digital circuitry. The computing environment may include any type of computer system, including a microprocessor-based computer system, a mainframe computer, a digital signal processor, a portable computing device, a device controller, to name a few. , computer engines in electrical appliances, etc., but are not limited to these.

本明細書で開示した実施形態に関して述べた方法、プロセス、ルーチンまたはアルゴリズムの構成要素は、ハードウェアで直接具現化することができ、プロセッサ装置により実行されるソフトウェアモジュールで直接具現化することもでき、またはこれらのハードウェアとソフトウェアモジュールの組み合わせで直接具現化することもできる。ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、リムーバブルディスク、CD-ROM、またはその他の形態の非一時的なコンピュータ可読記憶媒体に含まれていてもよい。典型的な記憶媒体は、プロセッサ装置がこのような記憶媒体から情報を読み取ったり、このような記憶媒体に情報を書き込んだりできるように、プロセッサ装置に接続することができる。この態様において、記憶媒体はプロセッサ装置にとって不可欠でありうる。このプロセッサ装置および記憶媒体は、ASICに含まれていてもよい。このASICは、ユーザ端末に含まれていてもよい。この態様において、このプロセッサ装置および記憶媒体は、ユーザ端末のディスクリート部品として存在していてもよい。 Components of the methods, processes, routines or algorithms described with respect to the embodiments disclosed herein may be directly embodied in hardware or in software modules executed by a processor device. , or can be directly realized by a combination of these hardware and software modules. Software modules may be contained in RAM memory, flash memory, ROM memory, EPROM memory, EEPROM memory, registers, hard disks, removable disks, CD-ROMs, or other forms of non-transitory computer-readable storage media. . Typical storage media may be coupled to a processor unit such that the processor unit can read information from, and write information to, such storage media. In this aspect, the storage medium may be integral to the processor device. The processor unit and storage medium may be included in an ASIC. This ASIC may be included in the user terminal. In this aspect, the processor device and storage medium may exist as discrete components of a user terminal.

本明細書で使用されている、「できる」、「場合がある」、「可能性がある」、「してもよい」、「例えば」などの、条件を示す用語は、別段の記載がない限り、あるいはこれらの用語が使用されている文脈上で別の意味に解釈されない限り、通常、特定の実施形態が特定の特徴、構成要素または工程を含み、別の実施形態には、これらの特徴、構成要素または工程が含まれないことを意味する。したがって、条件を示すこのような用語は、通常、特定の実施形態において特定の特徴、構成要素または工程が含まれるのか、あるいは実施されるのかにかかわらず、その他の入力やプロンプティングの存在下または非存在下において、1つ以上の実施形態が、これらの特徴、構成要素または工程を何らかの形で必要とすることや、1つ以上の実施形態が、決定のロジックを必然的に含むことを含意しない。また、「含む」、「備える」、「有する」などの用語は同義語であり、オープンエンド形式で包括的な意味で使用され、追加の構成要素、特徴、行為、作動などを除外するものではない。さらに、「または」という用語も、(排他的な意味ではなく)包括的な意味で使用され、例えば、「または」という用語が、構成要素を列記するために使用された場合、列記された構成要素のうちの1つ、その一部またはすべてを意味する。 As used herein, terms indicating conditions, such as "may," "may," "may," "may," and "for example," are used unless expressly stated otherwise. Typically, a particular embodiment includes certain features, components, or steps, and another embodiment does not include those features, unless the context in which those terms are used indicates otherwise. , means that no component or step is included. Accordingly, such terminology generally refers to the presence or absence of other input or prompting, regardless of whether a particular feature, component, or step is included or performed in a particular embodiment. does not imply that one or more embodiments require these features, components or steps in any way or that one or more embodiments necessarily include the logic of a decision in the absence of one or more embodiments; do not. Additionally, terms such as "comprising," "comprising," "having," and the like are synonymous and are used in an open-ended, inclusive sense and do not exclude additional components, features, acts, operation, etc. do not have. Additionally, the term "or" is also used in an inclusive (rather than an exclusive) sense, e.g., when the term "or" is used to list constituents, the listed constituents Refers to one, part or all of the elements.

別段の記載がない限り、「X、YまたはZの少なくとも1つ」などの選言的な用語は、本明細書中において、通常、特定の項目や用語などが、X、YもしくはZ、またはこれらの任意の組み合わせ(例えば、X、YまたはZ)であってもよいことを示すために使用されると理解される。したがって、このような選言的な用語は、通常、特定の実施形態において、Xの少なくとも1つと、Yの少なくとも1つと、Zの少なくとも1つのそれぞれの存在が必要であることを意味することを意図せず、そのように意図されるべきではない。 Unless otherwise specified, disjunctive terms such as "at least one of It is understood that it is used to indicate that any combination of these (eg, X, Y or Z) may be present. Thus, such disjunctive terms are generally understood to mean that the presence of each of at least one of X, at least one of Y, and at least one of Z is required in a particular embodiment. Unintentionally, and it should not be intended that way.

前述の詳細な説明において、様々な実施形態として適用される新規な特徴を示し、説明し、指摘してきたが、前述の装置またはアルゴリズムの形態およびその細部は、本開示の範囲から逸脱することなく、様々に省略、置換および変更することができることを理解できるであろう。本明細書に示した特徴のいくつかは、その他の特徴とは別々に使用または実施できることから、本明細書に記載の特定の実施形態は、本明細書に示された特徴および利点のすべてを提供するわけではない形態として具体化することができることは容易に理解できるであろう。請求項の記載と等価の意味および範囲内のあらゆる変更は、これらの請求項の範囲内に包含される。 While the foregoing detailed description has shown, described, and pointed out novel features as applied to various embodiments, the form of the foregoing apparatus or algorithm and the details thereof may be omitted without departing from the scope of this disclosure. , it will be understood that various omissions, substitutions and modifications may be made. Certain embodiments described herein may incorporate all of the features and advantages described herein, since some of the features described herein can be used or implemented separately from other features. It will be easily understood that the present invention may be embodied in a form other than that provided. All changes that come within the meaning and range of equivalency of the claims are to be embraced within their scope.

Claims (30)

マルチスペクトル画像システムであって、
4個以上の所定の周波数帯のセットのうち1個以上の周波数帯を含む光を選択的に放射して物体を照射するように構成された光源;
前記放射された光のうち、前記物体によって反射された部分を受光するように構成されたイメージセンサ;
前記放射された光のうち、前記物体によって反射された部分を通過させて、前記イメージセンサに入射させるように配置されたアパーチャ;
前記アパーチャ上に配置され、前記4個以上の所定の周波数帯の光を通過させるように構成されたマルチバンドパスフィルタ;
マルチスペクトル画像を生成してアンミキシングを実行する命令が格納されているメモリ;および
少なくとも1つのプロセッサ
を含み、
前記少なくとも1つのプロセッサが、前記命令に従って、少なくとも、
前記所定の周波数帯のうち2個以上の周波数帯からなる第1のサブセットの光を前記光源から放射させ;
第1のサブセットの光の反射光に基づいて生成された第1の画像データを前記イメージセンサから受信し;
前記所定の周波数帯のうち2個以上の周波数帯からなる第2のサブセットの光を前記光源から放射させ;
第2のサブセットの光の反射光に基づいて生成された第2の画像データを前記イメージセンサから受信し;
第1の画像データと第2の画像データを処理して、少なくとも第1のマルチスペクトル画像と第2のマルチスペクトル画像を生成し;
スペクトルアンミキシングを実行して、前記4個以上の所定の周波数帯のうちのいずれか1個にそれぞれ対応する単一の周波数帯の前記物体の画像を複数枚生成する
ように構成されている、
マルチスペクトル画像システム。
1. A multispectral imaging system, comprising:
a light source configured to selectively emit light comprising one or more of a set of four or more predetermined frequency bands to illuminate an object;
an image sensor configured to receive a portion of the emitted light that is reflected by the object;
an aperture positioned to pass a portion of the emitted light that is reflected by the object and incident on the image sensor;
a multi-bandpass filter disposed over the aperture and configured to pass light in the four or more predetermined frequency bands;
a memory having instructions stored thereon for generating a multispectral image and performing unmixing; and at least one processor,
The at least one processor performs at least the following steps in accordance with the instructions:
emitting light from the light source in a first subset of two or more of the predetermined frequency bands;
receiving first image data from the image sensor generated based on the reflected light of a first subset of light;
emitting light from the light source in a second subset of two or more of the predetermined frequency bands;
receiving second image data from the image sensor generated based on the reflected light of a second subset of light;
processing the first image data and the second image data to generate at least a first multispectral image and a second multispectral image;
configured to perform spectral unmixing to generate a plurality of images of the object in a single frequency band, each image corresponding to one of the four or more predetermined frequency bands.
Multispectral imaging system.
前記プロセッサが、
前記所定の周波数帯のうち2個以上の周波数帯からなる第3のサブセットまたはそれ以上のサブセットの光を前記光源から放射させ;かつ
第3のサブセットまたはそれ以上のサブセットの光の反射光に基づいて生成された第3の画像データまたはそれ以上の画像データを前記イメージセンサから受信する
ようにさらに構成されている、請求項1に記載のマルチスペクトル画像システム。
The processor,
emitting light from the light source in a third or more subset of two or more frequency bands of the predetermined frequency bands; and based on reflected light of the third or more subset of frequency bands; 2. The multispectral imaging system of claim 1, further configured to receive third or more image data generated by the image sensor from the image sensor.
前記光源が複数の発光ダイオード(LED)を含み、各LEDが、前記4個以上の所定の周波数帯のうちのいずれか1個の周波数帯の光を放射するように構成されている、請求項1または2に記載のマルチスペクトル画像システム。 The multispectral imaging system of claim 1 or 2, wherein the light source includes a plurality of light emitting diodes (LEDs), each LED being configured to emit light in any one of the four or more predetermined frequency bands. 前記少なくとも1つのプロセッサが、前記光源の個々のLEDの起動を制御することによって、該光源によって同時に放射される周波数帯を選択するようにさらに構成されている、請求項3に記載のマルチスペクトル画像システム。 4. The multispectral image of claim 3, wherein the at least one processor is further configured to select frequency bands simultaneously emitted by the light source by controlling activation of individual LEDs of the light source. system. 前記プロセッサが、各LEDにより放射される光の通過と遮断を選択的に行う電子切換シャッターを制御することによって個々のLEDの起動を制御する、請求項4に記載のマルチスペクトル画像システム。 5. The multispectral imaging system of claim 4, wherein the processor controls activation of individual LEDs by controlling an electronically switched shutter that selectively passes or blocks light emitted by each LED. 前記マルチバンドパスフィルタが、光を通過させる複数の周波数帯を備え、各周波数帯が、前記4個以上の所定の周波数帯のうちのいずれか1個にそれぞれ対応している、請求項1~5のいずれか1項に記載のマルチスペクトル画像システム。 Claims 1 to 3, wherein the multi-band pass filter comprises a plurality of frequency bands for passing light, each frequency band corresponding to any one of the four or more predetermined frequency bands. 5. The multispectral imaging system according to any one of 5. 前記LEDと前記マルチバンドパスフィルタが、同じ数の周波数帯を備え、前記LEDの各周波数帯が、前記マルチバンドパスフィルタの対応する周波数帯と一致するように並んでいる、請求項3~6のいずれか1項に記載のマルチスペクトル画像システム。 The multispectral imaging system of any one of claims 3 to 6, wherein the LEDs and the multi-bandpass filter have the same number of frequency bands, and each frequency band of the LEDs is aligned to match a corresponding frequency band of the multi-bandpass filter. 前記複数のLEDの個々のLED上に配置されたバンドパスフィルタをさらに含むことにより、個々のLEDにより放射される光が正確なスペクトルに閉じ込められる、請求項3~6のいずれか1項に記載のマルチスペクトル画像システム。 7. According to any one of claims 3 to 6, further comprising a bandpass filter placed on each individual LED of the plurality of LEDs, whereby the light emitted by each individual LED is confined to a precise spectrum. multispectral imaging system. 前記4個以上の所定の周波数帯のセットが8個の所定の周波数帯を含み、前記光源が8個のLEDを含み、各LEDが、前記所定の周波数帯のうちのいずれか1個の周波数帯の光を放射するように構成されている、請求項3に記載のマルチスペクトル画像システム。 The multispectral imaging system of claim 3, wherein the set of four or more predetermined frequency bands includes eight predetermined frequency bands, and the light source includes eight LEDs, each LED configured to emit light in one of the predetermined frequency bands. 前記マルチバンドパスフィルタが、前記8個の所定の周波数帯のそれぞれを通過させるように構成された8バンドフィルタを含む、請求項9に記載のマルチスペクトル画像システム。 The multispectral imaging system of claim 9, wherein the multi-bandpass filter includes an eight-band filter configured to pass each of the eight predetermined frequency bands. 前記少なくとも1つのプロセッサが、前記命令に従って、前記所定の周波数帯の第3のサブセットの光を前記光源から放射させ、かつ第3のサブセットの光の反射光に基づいて生成された第3の画像データを前記イメージセンサから受信するようにさらに構成されている、請求項10に記載のマルチスペクトル画像システム。 The multispectral imaging system of claim 10, wherein the at least one processor is further configured to, in accordance with the instructions, cause the light source to emit light of a third subset of the predetermined frequency band, and to receive third image data from the image sensor that is generated based on reflected light of the third subset of light. 第1のサブセット、第2のサブセットおよび第3のサブセットのそれぞれが、前記所定の周波数帯のうち3個の周波数帯を含む、請求項11に記載のマルチスペクトル画像システム。 12. The multispectral imaging system of claim 11, wherein each of the first, second and third subsets includes three frequency bands of the predetermined frequency bands. 前記所定の周波数帯が、紫外線(UV)から短波長赤外線の範囲の中心波長によって定義される、請求項9に記載のマルチスペクトル画像システム。 10. The multispectral imaging system of claim 9, wherein the predetermined frequency band is defined by a center wavelength ranging from ultraviolet (UV) to short wavelength infrared. 前記所定の周波数帯の中心波長がそれぞれ420nm、525nm、581nm、620nm、660nm、726nm、820nm、855nmである、請求項13に記載のマルチスペクトル画像システム。 14. The multispectral imaging system of claim 13, wherein the center wavelengths of the predetermined frequency bands are 420nm, 525nm, 581nm, 620nm, 660nm, 726nm, 820nm, 855nm, respectively. 前記アパーチャ上に配置された電動の同焦点ズームレンズまたは電動の可変焦点ズームレンズをさらに含み、前記1つ以上のプロセッサが、前記電動ズームレンズを制御して、前記マルチスペクトル画像システムの視野(FOV)を調整するようにさらに構成されている、請求項1~14のいずれか1項に記載のマルチスペクトル画像システム。 The multispectral imaging system of any one of claims 1 to 14, further comprising a motorized parfocal zoom lens or a motorized varifocal zoom lens disposed over the aperture, and the one or more processors are further configured to control the motorized zoom lens to adjust a field of view (FOV) of the multispectral imaging system. 前記同焦点ズームレンズまたは前記可変焦点ズームレンズが、該レンズの焦点距離(FL)を変更することによって焦点を自動調整または手動調整できるように構成されている、請求項15に記載のマルチスペクトル画像システム。 The multispectral imaging system of claim 15, wherein the parfocal zoom lens or the variable focus zoom lens is configured to allow automatic or manual focus adjustment by changing the focal length (FL) of the lens. 前記マルチスペクトル画像システムの視野を調整しても、前記物体と前記イメージセンサの間の撮影距離が変化しない、請求項15または16に記載のマルチスペクトル画像システム。 The multispectral imaging system of claim 15 or 16, wherein adjusting the field of view of the multispectral imaging system does not change the imaging distance between the object and the image sensor. 前記1つ以上のプロセッサが、前記物体と前記イメージセンサの間の撮影距離を変更することによって、前記マルチスペクトル画像システムの視野を調整するようにさらに構成されている、請求項15~17のいずれか1項に記載のマルチスペクトル画像センサ。 The multispectral image sensor of any one of claims 15 to 17, wherein the one or more processors are further configured to adjust the field of view of the multispectral imaging system by changing a shooting distance between the object and the image sensor. 前記プロセッサが、前記ズームレンズによるコントラストの低下を補うようにさらに構成されている、請求項18に記載のマルチスペクトル画像センサ。 The multispectral image sensor of claim 18, wherein the processor is further configured to compensate for contrast loss caused by the zoom lens. 前記視野が、少なくとも8cm~23cmの範囲で調整可能である、請求項15~19のいずれか1項に記載のマルチスペクトル画像システム。 The multispectral imaging system of any one of claims 15 to 19, wherein the field of view is adjustable over a range of at least 8 cm to 23 cm. 前記マルチスペクトル画像システムが、分解能が犠牲になる後処理によるデジタルトリミング法とは異なって、前記視野内のサンプリング数を減少させることなく高い空間分解能を保持している、請求項20に記載のマルチスペクトル画像システム。 21. The multispectral imaging system of claim 20, wherein the multispectral imaging system retains high spatial resolution without reducing the number of samples in the field of view, unlike post-processing digital cropping methods that sacrifice resolution. Spectral imaging system. 前記1つ以上のプロセッサが、前記マルチスペクトル画像に基づいて前記物体を自然な疑似カラーで可視化するようにさらに構成されている、請求項1~21のいずれか1項に記載のマルチスペクトル画像システム。 The multispectral imaging system of any one of claims 1 to 21, wherein the one or more processors are further configured to visualize the object in natural pseudocolor based on the multispectral image. 前記1つ以上のプロセッサが、行列演算式を用いて前記物体の反射係数を求めることによってスペクトルアンミキシングを実行するように構成されている、請求項1~22のいずれか1項に記載のマルチスペクトル画像システム。 23. The multiprocessor according to any one of claims 1 to 22, wherein the one or more processors are configured to perform spectral unmixing by determining the reflection coefficient of the object using matrix arithmetic expressions. Spectral imaging system. 前記反射係数が、各チャネルごとの、入射照度の値、前記マルチバンドパスフィルタの透過係数の値および前記イメージセンサの量子係数の値に少なくとも部分的に基づいて求められる、請求項23に記載のマルチスペクトル画像システム。 24. The multispectral imaging system of claim 23, wherein the reflection coefficients are determined based at least in part on the values of incident illuminance, the values of the transmission coefficients of the multiple bandpass filters, and the values of the quantum coefficients of the image sensor for each channel. 100ミリ秒未満で3枚以上のマルチスペクトル画像を撮影することができる、請求項1~24のいずれか1項に記載のマルチスペクトル画像システム。 Multispectral imaging system according to any one of claims 1 to 24, capable of taking three or more multispectral images in less than 100 milliseconds. 前記物体が組織領域である、請求項1~25のいずれか1項に記載のマルチスペクトル画像システム。 The multispectral imaging system of any one of claims 1 to 25, wherein the object is a tissue region. 前記組織が、創傷、がん、潰瘍または熱傷を含む、請求項26に記載のマルチスペクトル画像システム。 27. The multispectral imaging system of claim 26, wherein the tissue includes a wound, cancer, ulcer, or burn. 前記創傷が、糖尿病性潰瘍、非糖尿病性潰瘍、慢性潰瘍、術後創、切断部位、熱傷、がん性病変または損傷組織を含む、請求項27に記載のマルチスペクトル画像システム。 28. The multispectral imaging system of claim 27, wherein the wound comprises a diabetic ulcer, a non-diabetic ulcer, a chronic ulcer, a post-operative wound, an amputation site, a burn, a cancerous lesion, or damaged tissue. 組織分類の同定または組織の治癒スコアの同定において使用するための、請求項26に記載のマルチスペクトル画像システムであって、前記組織分類が、例えば、生きた組織もしくは健康な組織、死んだ組織もしくは壊死組織、灌流した組織もしくは灌流していない組織、または虚血組織もしくは非虚血組織であり、前記組織の治癒スコアが、例えば、30日間の標準的な創傷ケア治療の後に創傷の少なくとも50%が治癒する傾向、または30日間の標準的な創傷ケア治療の後に創傷の少なくとも50%が治癒しない傾向である、マルチスペクトル画像システム。 27. The multispectral imaging system of claim 26 for use in identifying a tissue classification or in identifying a tissue healing score, wherein the tissue classification is, for example, living or healthy tissue, dead tissue or necrotic tissue, perfused or non-perfused tissue, or ischemic or non-ischemic tissue, the healing score of which is at least 50% of the wound, e.g. after 30 days of standard wound care treatment. A multispectral imaging system that has a tendency to heal or at least 50% of the wound not to heal after 30 days of standard wound care treatment. 創傷、がん、潰瘍または熱傷のイメージングに使用するための、請求項26に記載のマルチスペクトル画像システムであって、前記創傷、がん、潰瘍または熱傷が、例えば、糖尿病性潰瘍、非糖尿病性潰瘍、慢性潰瘍、術後創、切断部位、熱傷、がん性病変または損傷組織である、マルチスペクトル画像システム。 27. The multispectral imaging system of claim 26 for use in imaging a wound, cancer, ulcer or burn, wherein the wound, cancer, ulcer or burn is, for example, a diabetic ulcer, a non-diabetic ulcer, a chronic ulcer, a post-operative wound, an amputation site, a burn, a cancerous lesion or damaged tissue.
JP2023560286A 2021-03-30 2022-03-29 Snapshot type high-precision multispectral imaging system and method using multiplexed illumination Pending JP2024514493A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202163168151P 2021-03-30 2021-03-30
US63/168,151 2021-03-30
PCT/US2022/022398 WO2022212413A1 (en) 2021-03-30 2022-03-29 System and method for high precision snapshot multi-spectral imaging based on multiplexed illumination

Publications (1)

Publication Number Publication Date
JP2024514493A true JP2024514493A (en) 2024-04-02

Family

ID=83459870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023560286A Pending JP2024514493A (en) 2021-03-30 2022-03-29 Snapshot type high-precision multispectral imaging system and method using multiplexed illumination

Country Status (5)

Country Link
US (1) US20240048823A1 (en)
EP (1) EP4314739A1 (en)
JP (1) JP2024514493A (en)
CN (1) CN117321394A (en)
WO (1) WO2022212413A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113260835A (en) 2018-12-14 2021-08-13 光谱Md公司 System and method for high precision multi-aperture spectral imaging
EP3893733A4 (en) 2018-12-14 2022-10-12 Spectral MD, Inc. Machine learning systems and methods for assessment, healing prediction, and treatment of wounds
US20220398820A1 (en) * 2021-06-11 2022-12-15 University Of Southern California Multispectral biometrics system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR0212668A (en) * 2001-09-19 2004-08-24 Joule Microsystems Canada Inc A spectrometer incorporating combined signal filtering
WO2014143235A1 (en) * 2013-03-14 2014-09-18 Integrated Plasmonics Corporation Ambient light assisted spectroscopy
US10740884B2 (en) * 2018-12-14 2020-08-11 Spectral Md, Inc. System and method for high precision multi-aperture spectral imaging

Also Published As

Publication number Publication date
US20240048823A1 (en) 2024-02-08
CN117321394A (en) 2023-12-29
EP4314739A1 (en) 2024-02-07
WO2022212413A1 (en) 2022-10-06

Similar Documents

Publication Publication Date Title
US10740884B2 (en) System and method for high precision multi-aperture spectral imaging
US11631164B2 (en) System and method for high precision multi-aperture spectral imaging
JP2024514493A (en) Snapshot type high-precision multispectral imaging system and method using multiplexed illumination
CN113260303B (en) Machine learning system and method for assessing, healing predicting and treating wounds
CN106456070B (en) Image forming apparatus and method
JP6060494B2 (en) Imaging device
EP4178426A1 (en) Spectral imaging systems and methods for histological assessment of wounds
JP6224275B2 (en) Multispectral imaging device
US10209440B2 (en) Imaging sensor with Bragg filter and method of manufacturing the same
EP3215818A1 (en) Spectral imaging method and system
EP2907300A1 (en) System for capturing scene and nir relighting effects in movie postproduction transmission
JP7355008B2 (en) Spectroscopic measurement device and spectroscopic measurement method
JP2018073122A (en) Image processing device and image processing method
Yi et al. Instrument an off-shelf CCD imaging sensor into a handheld multispectral video camera
JP7146477B2 (en) Detection device and detection method
JP6432138B2 (en) Measuring apparatus, color information acquisition apparatus and manufacturing method
JP6815628B2 (en) Multispectral imager
US20230082539A1 (en) Illuminant correction in an imaging system
CN116183021A (en) Illuminant correction in an imaging system
JP5409158B2 (en) Image pickup apparatus including single-plate color two-dimensional image pickup device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231020

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231129