JP2018101889A - Imaging apparatus and imaging control program - Google Patents

Imaging apparatus and imaging control program Download PDF

Info

Publication number
JP2018101889A
JP2018101889A JP2016246645A JP2016246645A JP2018101889A JP 2018101889 A JP2018101889 A JP 2018101889A JP 2016246645 A JP2016246645 A JP 2016246645A JP 2016246645 A JP2016246645 A JP 2016246645A JP 2018101889 A JP2018101889 A JP 2018101889A
Authority
JP
Japan
Prior art keywords
temperature
imaging
infrared
image processing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016246645A
Other languages
Japanese (ja)
Other versions
JP6819273B2 (en
Inventor
清茂 芝崎
Kiyoshige Shibazaki
清茂 芝崎
潤弥 萩原
Junya Hagiwara
潤弥 萩原
健太郎 彦坂
Kentaro Hikosaka
健太郎 彦坂
祐介 ▲高▼梨
祐介 ▲高▼梨
Yusuke Takanashi
洋志 榊原
Hiroshi Sakakibara
洋志 榊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2016246645A priority Critical patent/JP6819273B2/en
Publication of JP2018101889A publication Critical patent/JP2018101889A/en
Application granted granted Critical
Publication of JP6819273B2 publication Critical patent/JP6819273B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which, generally, a reflection and transmission spectrum of a substance in a near-infrared band has temperature dependency, and, even for the same observation object, if a temperature at the time of shooting is different, impression of a generated converted color image may be significantly different.SOLUTION: An imaging apparatus includes: an imaging unit having an imaging device having sensitivity in a near-infrared band, for imaging an object to be observed and outputting near-infrared imaging data; a temperature measuring unit for measuring a temperature of the object to be observed; and an image processing unit for converting the near-infrared imaging data into color image data by associating a pixel value of the near-infrared imaging data with a visible band. The image processing unit, on the basis of a temperature difference between a measured temperature measured by the object to be observed and a reference temperature, adjusts a correspondence relationship between the pixel value of the near-infrared imaging data and the visible band.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置および撮像制御プログラムに関する。   The present invention relates to an imaging apparatus and an imaging control program.

互いに中心波長が異なる非可視の3波長帯のそれぞれに可視の3原色(RGB)を割り当てる撮像システムが知られている。
[先行技術文献]
[特許文献]
[特許文献1]国際公開番号WO2007/083437号公報
An imaging system is known in which three primary colors (RGB) are assigned to each of three invisible wavelength bands having different center wavelengths.
[Prior art documents]
[Patent Literature]
[Patent Document 1] International Publication No. WO2007 / 083437

一般的に物質の近赤外帯域における反射・透過スペクトルには温度依存性があり、同一観察対象物であっても撮影時の温度が異なれば、生成される変換カラー画像の印象が大きく異なってしまうことがある。   In general, the reflection / transmission spectrum in the near-infrared band of a substance is temperature-dependent, and even if it is the same observation object, if the temperature at the time of shooting is different, the impression of the generated converted color image will differ greatly. May end up.

本発明の第1の態様における撮像装置は、近赤外帯域に感度を有する撮像素子を有し、観察対象物を撮像して近赤外撮像データを生成する撮像部と、観察対象物の温度を計測する温度計測部と、近赤外撮像データの画素値を可視帯域に対応づけて、近赤外撮像データをカラー画像データに変換する画像処理部とを備え、画像処理部は、観察対象物が計測した計測温度と基準温度との温度差温度差に基づいて、近赤外撮像データの画素値と前記可視帯域との対応関係を調整する。   The imaging device according to the first aspect of the present invention has an imaging device having sensitivity in the near-infrared band, images an observation object and generates near-infrared imaging data, and the temperature of the observation object A temperature measuring unit that measures the pixel value of the near-infrared imaging data and an image processing unit that converts the near-infrared imaging data into color image data by associating the pixel value of the near-infrared imaging data with the visible band. Based on the temperature difference between the measured temperature measured by the object and the reference temperature, the correspondence between the pixel value of the near-infrared imaging data and the visible band is adjusted.

本発明の第2の態様における撮像制御プログラムは、観察対象物を撮像して近赤外撮像データを生成する撮像ステップと、観察対象物の温度を計測する温度計測ステップと、近赤外撮像データの計測温度と基準温度との温度差に基づいて、近赤外撮像データの画素値と可視帯域との対応関係を調整して、近赤外撮像データをカラー画像データに変換する画像処理ステップとをコンピュータに実行させる。   The imaging control program according to the second aspect of the present invention includes an imaging step of imaging an observation object to generate near-infrared imaging data, a temperature measurement step of measuring the temperature of the observation object, and the near-infrared imaging data. An image processing step for converting the near-infrared imaging data into color image data by adjusting the correspondence between the pixel value of the near-infrared imaging data and the visible band based on the temperature difference between the measured temperature and the reference temperature; Is executed on the computer.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

撮像装置の構成を説明する図である。It is a figure explaining the structure of an imaging device. 第1撮像素子の各光電変換素子上に配置されたバンドパスフィルタを説明する図である。It is a figure explaining the band pass filter arrange | positioned on each photoelectric conversion element of a 1st image pick-up element. 光学バンドパスフィルタの特性を説明する図である。It is a figure explaining the characteristic of an optical band pass filter. 観察対象物における透過スペクトルの温度依存性を説明する図である。It is a figure explaining the temperature dependence of the transmission spectrum in an observation object. 温度に対するカラー画像の変化を説明する図である。It is a figure explaining the change of the color image with respect to temperature. 修正テーブルの例を説明する図である。It is a figure explaining the example of a correction table. カラー画像の調整処理の概念を説明する図である。It is a figure explaining the concept of the adjustment process of a color image. 撮像装置の処理フローを説明する図である。It is a figure explaining the processing flow of an imaging device.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、本実施形態に係る撮像装置100の構成を説明する図である。撮像装置100は、ひとつの観察対象物を被写体とする、近赤外画像と遠赤外画像を取得することができる。近赤外画像は、第1光学系101を通過して第1撮像素子102の受光面で結像する近赤外帯域の被写体光束を第1撮像素子102が光電変換して出力する出力信号として取得される。遠赤外画像は、第2光学系111を通過して第2撮像素子112の受光面で結像する遠赤外帯域の被写体光束を第2撮像素子112が光電変換して出力する出力信号として取得される。   FIG. 1 is a diagram illustrating the configuration of the imaging apparatus 100 according to the present embodiment. The imaging apparatus 100 can acquire a near-infrared image and a far-infrared image with one observation target as a subject. The near-infrared image is an output signal that the first image sensor 102 photoelectrically converts and outputs a near-infrared subject light beam that passes through the first optical system 101 and forms an image on the light receiving surface of the first image sensor 102. To be acquired. The far-infrared image is an output signal that the second image sensor 112 photoelectrically converts and outputs a far-infrared subject light beam that passes through the second optical system 111 and forms an image on the light receiving surface of the second image sensor 112. To be acquired.

第1撮像素子102は、近赤外帯域として例えば700nmから2500nmの範囲に感度を有する光電変換素子が2次元的に配列された撮像素子であり、第1光学系101は、光軸opに沿って入射するこの帯域の被写体光束を集光する。なお、図では第1光学系101を便宜的に1枚のレンズで表すが、もちろん複数のレンズで構成されても良い。また、第1光学系101は、オートフォーカス機能を備えても良い。第1撮像素子102の詳細については後述する。なお、近赤外光の波長範囲は一例でありこれに限らない。 The first image sensor 102 is an image sensor in which photoelectric conversion elements having sensitivity in a range of, for example, 700 nm to 2500 nm as a near-infrared band are two-dimensionally arranged, and the first optical system 101 has an optical axis op 1 . The subject luminous flux in this band incident along is condensed. In the figure, the first optical system 101 is represented by a single lens for the sake of convenience, but it may of course be configured by a plurality of lenses. The first optical system 101 may have an autofocus function. Details of the first image sensor 102 will be described later. Note that the wavelength range of near-infrared light is an example and is not limited thereto.

第1撮像素子102から出力された出力信号は、制御部201の制御により画像処理部205で処理され、近赤外撮像データに変換される。すなわち、第1光学系101、第1撮像素子102、制御部201および画像処理部205は、近赤外撮像データを生成する撮像部120として機能する。   The output signal output from the first image sensor 102 is processed by the image processing unit 205 under the control of the control unit 201 and converted to near-infrared imaging data. That is, the first optical system 101, the first imaging element 102, the control unit 201, and the image processing unit 205 function as the imaging unit 120 that generates near-infrared imaging data.

第2撮像素子112は、遠赤外帯域として例えば8000nmから15000nmの範囲に感度を有する光電変換素子が2次元的に配列された撮像素子であり、第2光学系111は、光軸opに沿って入射するこの帯域の被写体光束を集光する。なお、図では第2光学系111を便宜的に1枚のレンズで表すが、もちろん複数のレンズで構成されても良い。また、第2光学系111は、オートフォーカス機能を備えても良い。なお、遠赤外光の波長範囲は一例でありこれに限らない。 The second image sensor 112 is an image sensor in which photoelectric conversion elements having sensitivity in a range of, for example, 8000 nm to 15000 nm as a far-infrared band are two-dimensionally arranged, and the second optical system 111 has an optical axis op 2 . The subject luminous flux in this band incident along is condensed. In the figure, the second optical system 111 is represented by a single lens for the sake of convenience, but it may of course be configured by a plurality of lenses. The second optical system 111 may have an autofocus function. The wavelength range of far-infrared light is an example and is not limited to this.

第2撮像素子112から出力された出力信号は、制御部201の制御により画像処理部205で処理され、温度データに変換される。遠赤外像の画素値は温度に比例しているため、画像処理部205は、出力信号である各画素値から観察対象物の温度を算出して、2次元状に計測された温度データを生成する。すなわち、第2光学系111、第2撮像素子112、制御部201および画像処理部205は、観察対象物の温度を計測する温度計測部130として機能する。   The output signal output from the second image sensor 112 is processed by the image processing unit 205 under the control of the control unit 201 and converted into temperature data. Since the pixel value of the far-infrared image is proportional to the temperature, the image processing unit 205 calculates the temperature of the object to be observed from each pixel value that is the output signal, and uses the temperature data measured in a two-dimensional manner. Generate. That is, the second optical system 111, the second imaging element 112, the control unit 201, and the image processing unit 205 function as a temperature measurement unit 130 that measures the temperature of the observation object.

なお、本実施形態においては、撮像部120と温度計測部130が、制御部201と画像処理部205を共有する構成として説明するが、それぞれが制御部と画像処理部を備えても良い。この場合、後述する画像処理は、一方の画像処理部が担っても良いし、更に別個の画像処理部が処理する構成としても良い。また、制御部と画像処理部は、ひとつのASICとして構成しても良い。   In the present embodiment, the imaging unit 120 and the temperature measuring unit 130 are described as sharing the control unit 201 and the image processing unit 205, but each may include a control unit and an image processing unit. In this case, image processing to be described later may be performed by one image processing unit, or may be configured to be processed by a separate image processing unit. Further, the control unit and the image processing unit may be configured as one ASIC.

第1光学系101と第2光学系111は、第1撮像素子102と第2撮像素子112がそれぞれ、ひとつの観察対象物を被写体として捉えることができるように配置されている。このとき、光軸opとopによるパララックスはできる限り小さい方が好ましい。したがって、パララックスを軽減する、例えば観察対象物までの距離に応じて光軸を変位させるパララックス調整機構を備えても良い。 The first optical system 101 and the second optical system 111 are arranged so that each of the first image sensor 102 and the second image sensor 112 can capture one observation object as a subject. At this time, the parallax due to the optical axes op 1 and op 2 is preferably as small as possible. Therefore, a parallax adjustment mechanism that reduces parallax, for example, shifts the optical axis in accordance with the distance to the object to be observed may be provided.

撮像装置100は、制御部201、システムメモリ202、ワークメモリ203、画像処理部205、通信部206、表示部207および操作部208を備える。制御部201は、撮像装置100の全体を統括的に制御する。制御部201による制御は、不揮発性メモリであるシステムメモリに記憶された制御プログラムに従って実行される。   The imaging apparatus 100 includes a control unit 201, a system memory 202, a work memory 203, an image processing unit 205, a communication unit 206, a display unit 207, and an operation unit 208. The control unit 201 comprehensively controls the entire imaging apparatus 100. Control by the control unit 201 is executed according to a control program stored in a system memory that is a nonvolatile memory.

システムメモリ202は、制御プログラムの他に、画像処理などに用いる様々なパラメータ値や表示部207に表示するユーザインターフェイス画面データなどの情報も記憶している。また、後述する色変換処理に用いる修正テーブル212も記憶している。記憶されている情報は、制御部201により適宜読み出されて、ワークメモリ203に展開されて利用に供される。   In addition to the control program, the system memory 202 also stores various parameter values used for image processing and user interface screen data displayed on the display unit 207. In addition, a correction table 212 used for color conversion processing to be described later is also stored. The stored information is appropriately read out by the control unit 201 and developed in the work memory 203 for use.

ワークメモリ203は、制御部201等によって参照される情報が展開される揮発性メモリである。また、参照情報が展開される記憶領域としての役割の他にも、例えば画像処理部205による画像処理演算の作業領域としての役割も担う。   The work memory 203 is a volatile memory in which information referred to by the control unit 201 or the like is expanded. In addition to the role as a storage area in which the reference information is developed, it also serves as a work area for image processing calculation by the image processing unit 205, for example.

画像処理部205は、上述のように、第1撮像素子102から出力された出力信号を近赤外撮像データに変換し、第2撮像素子112から出力された出力信号を温度データに変換する。そして、近赤外撮像データをカラー画像に変換し、温度データと修正テーブル212を参照して、カラー画像を修正してカラー画像データを生成する処理を実行する。また、カラー画像データに付随する情報を関連付けて、予め定められたフォーマットに従ったファイル形式に変換するファイル変換処理を実行する。   As described above, the image processing unit 205 converts the output signal output from the first imaging element 102 into near-infrared imaging data, and converts the output signal output from the second imaging element 112 into temperature data. Then, the near-infrared imaging data is converted into a color image, and processing for correcting the color image and generating color image data with reference to the temperature data and the correction table 212 is executed. In addition, a file conversion process is performed in which information associated with the color image data is associated and converted into a file format in accordance with a predetermined format.

通信部206は、画像処理部205で生成されたカラー画像データのファイルを外部機器へ出力したり、必要な情報を外部機器から入力したりする通信機能を担う。例えば、USBやLANなどのインターフェイスである。   The communication unit 206 has a communication function of outputting the color image data file generated by the image processing unit 205 to an external device and inputting necessary information from the external device. For example, an interface such as USB or LAN.

表示部207は、生成されたカラー画像を表示したり、ユーザインターフェイス画面を表示したりする、例えば液晶ディスプレイである。表示部207は、撮像装置100から独立して、外部機器として通信部206に接続される構成であっても良い。   The display unit 207 is, for example, a liquid crystal display that displays the generated color image or displays a user interface screen. The display unit 207 may be configured to be connected to the communication unit 206 as an external device independently of the imaging device 100.

操作部208は、表示部207に重畳して設けられたタッチパネルのような機器によって構成される、ユーザの操作を受け付ける操作部材を含む。操作部208は、操作部材の操作を検知して制御部201に検知信号を送信する。   The operation unit 208 includes an operation member that receives a user operation and is configured by a device such as a touch panel provided to be superimposed on the display unit 207. The operation unit 208 detects the operation of the operation member and transmits a detection signal to the control unit 201.

図2は、第1撮像素子102の各光電変換素子上に配置されたバンドパスフィルタを説明する図である。第1撮像素子102の一部分を拡大した拡大図を参照すると、いわゆるベイヤー配列のように、左上の光電変換素子p、右上の光電変換素子p、左下の光電変換素子p、右下の光電変換素子pの4つをひと組とする光電変換素子群が2次元的に配列されていることがわかる。左上の光電変換素子p上には、入射する光束の波長帯域を制限する光学バンドパスフィルタであるNフィルタが配置されており、同様に、光電変換素子p上にはNフィルタが、光電変換素子p上にはNフィルタが、光電変換素子p上にはNフィルタが配置されている。種類の異なる光学バンドパスフィルタを光電変換素子上にそれぞれ配置することにより、光電変換素子そのものが有する700nmから2100nmの範囲に受光感度を、光電変換素子ごとに部分的に制限する。すなわち、第1撮像素子102は、受光面に結像する被写体像を近赤外帯域であって互いに異なる3つの波長帯域に分離して光電変換する。 FIG. 2 is a diagram illustrating a bandpass filter disposed on each photoelectric conversion element of the first image sensor 102. Referring to an enlarged view in which a part of the first image sensor 102 is enlarged, like a so-called Bayer array, the upper left photoelectric conversion element p 1 , the upper right photoelectric conversion element p 2 , the lower left photoelectric conversion element p 3 , the lower right photoelectric conversion element It can be seen that a group of photoelectric conversion elements each including four of the photoelectric conversion elements p4 is arranged two-dimensionally. Top left on the photoelectric conversion element p 1 is, N 1 filter is arranged an optical bandpass filter for limiting the wavelength band of the light flux incident, likewise, on the photoelectric conversion element p 2 has N 2 filter , on the photoelectric conversion element p 3 is N 2 filter, on the photoelectric conversion element p 4 are arranged N 3 filter. By disposing different types of optical bandpass filters on the photoelectric conversion elements, the light receiving sensitivity is partially limited for each photoelectric conversion element in the range of 700 nm to 2100 nm of the photoelectric conversion element itself. That is, the first image sensor 102 performs photoelectric conversion by separating the subject image formed on the light receiving surface into three different wavelength bands in the near-infrared band.

図3は、光学バンドパスフィルタの特性の例を説明する図である。横軸は波長[nm]を示し、縦軸は透過率[%]を示す。   FIG. 3 is a diagram illustrating an example of the characteristics of the optical bandpass filter. The horizontal axis indicates the wavelength [nm], and the vertical axis indicates the transmittance [%].

図示するように、Nフィルタ、Nフィルタ、Nフィルタの透過率の凸形状は、相互におよそ同一である。Nフィルタは、ピーク波長λが1150nmであり、実効的な透過帯域が700nmから1550nmである。Nフィルタは、ピーク波長λが1400nmであり、実効的な透過帯域が950nmから1800nmである。Nフィルタは、ピーク波長λが1650nmであり、実効的な透過帯域が1250nmから2100nmである。すなわち、Nフィルタ、Nフィルタ、Nフィルタは、透過帯域が重複するように設定されている。なお、各フィルタの透過率の形状はそれぞれ異なってもよい。具体的には、フィルタごとに透過帯域の幅やピーク波長の透過率が異なっていてもよい。 As shown in the figure, the convex shapes of the transmittances of the N 1 filter, the N 2 filter, and the N 3 filter are approximately the same. The N 1 filter has a peak wavelength λ 1 of 1150 nm and an effective transmission band of 700 nm to 1550 nm. The N 2 filter has a peak wavelength λ 2 of 1400 nm and an effective transmission band of 950 nm to 1800 nm. The N 3 filter has a peak wavelength λ 3 of 1650 nm and an effective transmission band of 1250 nm to 2100 nm. That is, the N 1 filter, the N 2 filter, and the N 3 filter are set so that the transmission bands overlap. The transmittance shape of each filter may be different. Specifically, the transmission band width and the peak wavelength transmittance may be different for each filter.

このような構成を有する第1撮像素子102からの出力信号を、いずれのフィルタを通過したかにより分類してそれぞれを寄せ集めると、それぞれのフィルタの通過帯域に対応する被写体像としての近赤外画像が3つ得られることになる。すなわち、Nフィルタに対応する近赤外画像I、Nフィルタに対応する近赤外画像I、Nフィルタに対応する近赤外画像Iが得られる。なお、他のフィルタが配置されていることによって信号が得られない座標については、周辺座標の信号を利用して補間する。 When the output signals from the first image sensor 102 having such a configuration are classified and collected according to which filter has passed through, the near infrared as a subject image corresponding to the pass band of each filter is collected. Three images are obtained. That is, the near-infrared image I 1, N 2 near-infrared image corresponding to the filter I 2, N 3 near-infrared image I 3 corresponding to the filter corresponding to N 1 filter is obtained. In addition, about the coordinate from which a signal is not obtained because other filters are arrange | positioned, it interpolates using the signal of a surrounding coordinate.

ここで、近赤外画像をカラー画像に変換する色変換処理について説明する。これは、本来は人間の目に認識されない近赤外画像を可視化する処理であり、画像処理部205で実行される。具体的には、近赤外画像Iは青色波長帯域における輝度分布を表わす画像とみなし、近赤外画像Iは緑色波長帯域における輝度分布を表わす画像とみなし、近赤外画像Iは赤色波長帯域における輝度分布を表わす画像とみなす。そして、これらを重ね合せると、各画素においてR値、G値、B値が揃うことになり、ひとつのカラー画像が得られる。すなわち、画像処理部205は、近赤外画像I〜Iの各画素における画素値を、可視帯域である青色、緑色、赤色の波長帯域に対応づけることで、近赤外画像である近赤外撮像データをカラー画像に変換する。このように、カラー画像に可視化されれば、表示部207に表示することができるので、ユーザは、視覚を通じて観察対象物の赤外情報を直感的に把握することができる。ここで、本実施形態のように、Nフィルタ、Nフィルタ、Nフィルタの透過帯域が重複していると、各フィルタに対応付けられるR値、G値、B値の複数の色を組み合わせた色を表示することができるので、より多色での表現が可能になる。なお、近赤外画像(I1、I2、I3)と可視画像(R,G,B)の対応関係は、波長の長短に制約されずに自由に組み合わせることができる。また、可視帯域は、たとえば380nmから780nmの範囲が挙げられるが、人間の目に認識可能であればこの範囲に限らない。さらに、可視帯域を対応付ける色は青色、緑色、赤色に限らず、他の色を対応づけることも可能である。 Here, a color conversion process for converting a near-infrared image into a color image will be described. This is a process of visualizing a near-infrared image that is not originally recognized by the human eye, and is executed by the image processing unit 205. Specifically, the near-infrared image I 1 is regarded as an image representing the luminance distribution in the blue wavelength band, the near-infrared image I 2 is regarded as an image representing the luminance distribution in the green wavelength band, and the near-infrared image I 3 is It is regarded as an image representing the luminance distribution in the red wavelength band. When these are superimposed, the R value, G value, and B value are aligned in each pixel, and a single color image is obtained. That is, the image processing unit 205 associates the pixel value in each pixel of the near-infrared images I 1 to I 3 with the blue, green, and red wavelength bands, which are visible bands, so that a near-infrared image is displayed. Infrared imaging data is converted into a color image. Thus, since it can display on the display part 207 if it visualizes in a color image, the user can grasp | ascertain intuitively the infrared information of an observation target object through vision. Here, when the transmission bands of the N 1 filter, N 2 filter, and N 3 filter overlap as in this embodiment, a plurality of colors of R value, G value, and B value that are associated with each filter are displayed. Since the combined colors can be displayed, it is possible to express in more colors. The correspondence relationship between the near-infrared image (I1, I2, I3) and the visible image (R, G, B) can be freely combined without being restricted by the length of the wavelength. The visible band is, for example, a range from 380 nm to 780 nm, but is not limited to this range as long as it can be recognized by the human eye. Furthermore, the color associated with the visible band is not limited to blue, green, and red, and other colors can be associated.

図4は、観察対象物における透過スペクトルの温度依存性を説明する図である。横軸は波長[nm]を示し、縦軸は透過率[%]を示す。図4では、観察対象物である水の透過スペクトルを模式的に示している。   FIG. 4 is a diagram for explaining the temperature dependence of the transmission spectrum in the observation object. The horizontal axis indicates the wavelength [nm], and the vertical axis indicates the transmittance [%]. FIG. 4 schematically shows a transmission spectrum of water as an observation object.

点線で表わす各凸形状は、図3で説明したNフィルタ、Nフィルタ、Nフィルタのフィルタ特性を示す。実線で示す透過スペクトルWは、約0℃における水の透過スペクトルを表わし、透過スペクトルWは、約50℃における水の透過スペクトルを表わし、透過スペクトルWは、約100℃における水の透過スペクトルを概略的に示す。 Each convex shape represented by a dotted line indicates the filter characteristics of the N 1 filter, N 2 filter, and N 3 filter described in FIG. The transmission spectrum W 1 shown by the solid line represents the transmission spectrum of water at about 0 ° C., the transmission spectrum W m represents the transmission spectrum of water at about 50 ° C., and the transmission spectrum W h represents the transmission of water at about 100 ° C. The spectrum is schematically shown.

図示するように、水は、低温から高温へ温度が変化するにしたがって、その透過スペクトルの分布は、短波長側へシフトする。したがって、例えばトマトを観察対象物として撮像すると、上述のように近赤外画像をカラー画像に変換する場合には、同じトマトを撮像してもそのトマトが冷たい場合には全体的に青みがかったカラー画像が生成され、逆に温かい場合には、赤みがかったカラー画像が生成されることになる。   As shown in the figure, the distribution of the transmission spectrum of water shifts to the short wavelength side as the temperature changes from low temperature to high temperature. Therefore, for example, when tomato is imaged as an observation object, when converting a near-infrared image to a color image as described above, if the same tomato is imaged but the tomato is cold, the overall bluish color When an image is generated and, conversely, warm, a reddish color image is generated.

例えば、ベルトコンベアで運ばれる複数のトマトを連続的に撮像してそれぞれのトマトの水分含有量を視覚的に把握したい場合において、それらのトマトが同一温度であれば、生成されたカラー画像の色味の違いを水分含有量の違いとして把握できる。特に、水の透過スペクトルの特徴に合わせて、1400nm付近に強度変化を有する照射光を照射すれば、より顕著に色味の違いが表われるので直感的にも把握しやすくなる。ところが、それぞれのトマトの温度に差があると、色味の違いがトマトに含まれる水分量の違いによるものなのか、透過スペクトルのシフトによるものなのか、判断が難しくなる。   For example, when it is desired to continuously capture a plurality of tomatoes carried on a belt conveyor and visually grasp the water content of each tomato, if the tomatoes are at the same temperature, the color of the generated color image Differences in taste can be grasped as differences in water content. In particular, if irradiation light having an intensity change near 1400 nm is irradiated in accordance with the characteristics of the water transmission spectrum, the difference in color appears more remarkably, so that it becomes easier to grasp intuitively. However, if there is a difference in the temperature of each tomato, it will be difficult to judge whether the difference in color is due to the difference in the amount of water contained in the tomato or the shift in the transmission spectrum.

そこで、画像処理部205は、透過スペクトルのシフトに起因する色味の違いを軽減すべく、カラー画像の色味を調整する色変換処理を行う。図5は、温度に対するカラー画像の変化を説明する図である。   Therefore, the image processing unit 205 performs color conversion processing for adjusting the color of the color image in order to reduce the color difference due to the shift of the transmission spectrum. FIG. 5 is a diagram for explaining the change of the color image with respect to the temperature.

図示する3つの画像模式図のうち上段の画像模式図は、観察対象物であるトマトが60℃の状態で撮像して得られたカラー画像の様子を示す。同様に、中段の画像模式図は、同一のトマトが20℃の状態で撮像して得られたカラー画像の様子を示し、下段の画像模式図は、同じく0℃の状態で撮像して得られたカラー画像の様子を示す。それぞれのハッチングの濃さは例えば赤味の濃さを表わす。すなわち、60℃のカラー画像は、赤みがかっており、0℃のカラー画像は、赤みが少なく相対的に青みがかって見える様子を表わしている。   Of the three image schematic diagrams shown in the drawing, the upper image schematic diagram shows a state of a color image obtained by capturing an image of a tomato as an observation object in a state of 60 ° C. Similarly, the middle schematic image shows a color image obtained by imaging the same tomato at 20 ° C., and the lower schematic image is also obtained by imaging at 0 ° C. Shows the state of the color image. The density of each hatching represents, for example, the redness. That is, the color image at 60 ° C. is reddish, and the color image at 0 ° C. represents a state in which the color appears to be relatively bluish with little redness.

水分の含有量を評価する場合の基準温度を20℃と定めれば、画像処理部205は、上段のカラー画像も下段のカラー画像も、撮像後の画像処理としての色変換処理を施して、中段のカラー画像にできるだけ近い色味のカラー画像が得られるように調整する。なお、基準温度は20℃でなくても良く、適宜定めれば良い。基準温度を60℃とするならば、画像処理部205は、中段のカラー画像も下段のカラー画像も、上段のカラー画像にできるだけ近い色味のカラー画像が得られるように調整する。   If the reference temperature in evaluating the moisture content is set to 20 ° C., the image processing unit 205 performs color conversion processing as image processing after imaging both the upper color image and the lower color image, Adjustment is performed so that a color image having a color as close as possible to the middle color image can be obtained. The reference temperature may not be 20 ° C. and may be determined as appropriate. If the reference temperature is set to 60 ° C., the image processing unit 205 adjusts the middle color image and the lower color image so that a color image having a color as close as possible to the upper color image can be obtained.

具体的には、画像処理部205は、修正テーブル212を参照して色変換処理を実行する。図6は、修正テーブル212の例を説明する概念図である。実際の修正テーブルは、ルックアップテーブルとして所定のデータ構造によって定義されるが、ここではその意味するところを、概念的に表わしている。   Specifically, the image processing unit 205 executes color conversion processing with reference to the correction table 212. FIG. 6 is a conceptual diagram illustrating an example of the correction table 212. The actual correction table is defined by a predetermined data structure as a lookup table, but here, the meaning is conceptually represented.

ユーザが、複数の観察対象物に対してそれぞれの水分含有量を比較したいと考える場合には、ユーザは、操作部208を操作して「水」を指定する。制御部201は、当該指定を受け付けて、システムメモリ202に記憶された修正テーブル212のうち「水」のルックアップテーブルを読み出す。   When the user wants to compare the moisture contents of a plurality of observation objects, the user operates the operation unit 208 to designate “water”. The control unit 201 receives the designation, and reads the “water” lookup table from the correction table 212 stored in the system memory 202.

水のルックアップテーブルは、基準温度を20℃として用意されている。すなわち、対象観察物が20℃であれば色変換を行わず、20℃以外の温度であれば、その温度差に応じて色変換を行うように修正値が用意されている。具体的には、図示するように、20℃に対する温度差として、+80℃から2℃刻みで−30℃まで用意されている。そして、各温度差において、R画素の画素値(R値)に対する修正値、G画素の画素値(G値)に対する修正値、B画素の画素値(B値)に対する修正値が規定されている。温度差がn℃であれば、R値の修正値はRであり、G値の修正値はGであり、B値の修正値はBである。例えば、温度差が+25℃であるときのR値の修正値として「R+25=−6」であると規定されている場合に、撮像によって得られたR値が「129」だとすると、変換後のR値は「123」(=129−6)となる。このような演算を全画素に対して行うと、基準温度である20℃で撮像した場合の色味に近いカラー画像を得ることができる。すなわち、画像処理部205は、まず温度計測部130が生成した温度データに基づいて計測温度と基準温度との温度差を演算する。そして、その温度差に基づいて、近赤外撮像データの画素値と可視帯域との対応関係を調整する。なお、本実施形態では、画素値と可視帯域との対応関係として、各画素が可視帯域であるRGB値をそれぞれどの程度有しているかを示している。 The water look-up table is prepared with a reference temperature of 20 ° C. That is, if the object to be observed is 20 ° C., color conversion is not performed, and if it is a temperature other than 20 ° C., a correction value is prepared so that color conversion is performed according to the temperature difference. Specifically, as shown in the figure, the temperature difference with respect to 20 ° C. is prepared from + 80 ° C. to −30 ° C. in increments of 2 ° C. In each temperature difference, a correction value for the pixel value (R value) of the R pixel, a correction value for the pixel value (G value) of the G pixel, and a correction value for the pixel value (B value) of the B pixel are defined. . If the temperature difference is n ° C., the R value correction value is R n , the G value correction value is G n , and the B value correction value is B n . For example, when it is defined that “R +25 = −6” as the correction value of the R value when the temperature difference is + 25 ° C., if the R value obtained by imaging is “129”, The R value is “123” (= 129−6). When such a calculation is performed on all the pixels, a color image close to the color when captured at 20 ° C., which is the reference temperature, can be obtained. That is, the image processing unit 205 first calculates the temperature difference between the measured temperature and the reference temperature based on the temperature data generated by the temperature measuring unit 130. Based on the temperature difference, the correspondence between the pixel value of the near-infrared imaging data and the visible band is adjusted. In the present embodiment, the correspondence between the pixel value and the visible band indicates how much each pixel has an RGB value in the visible band.

各温度差に対する修正値は、実験等を通じて決定されている。また、図6の水の例では、基準温度を20℃としているが、上述の通り他の温度でも良い。また、修正値を用意する温度差の上限および下限は、任意に設定され得る。上限、下限を超える温度差を検知した場合には、例えば表示部207に警告を表示するなどのエラー処理を実行しても良い。上限と下限の温度差は、対象物である「水」の透過スペクトルの特性に応じて定めても良い。例えば、基準温度における透過スペクトルの形状に対して、温度による変化が全体の形状を保ったままシフトしていると評価できる範囲の温度差に限ることができる。具体的には、基準温度における形状に対してマッチングを行ったときに、一致度が閾値以上であるときに形状を保っていると評価できる。また、図3を用いて説明した光学バンドパスフィルタの特性に応じて定めても良い。例えば、透過スペクトルのピーク波長がNフィルタのピーク波長と一致するまでシフトするシフト量を上限温度差とし、Nフィルタのピーク波長と一致するまでシフトするシフト量を下限温度差とする。 The correction value for each temperature difference is determined through experiments and the like. In the example of water in FIG. 6, the reference temperature is 20 ° C., but other temperatures may be used as described above. Further, the upper and lower limits of the temperature difference for preparing the correction value can be arbitrarily set. When a temperature difference exceeding the upper limit and the lower limit is detected, error processing such as displaying a warning on the display unit 207 may be executed. The temperature difference between the upper limit and the lower limit may be determined according to the characteristics of the transmission spectrum of “water” as the object. For example, it can be limited to a temperature difference within a range where it can be evaluated that a change due to temperature is shifted while maintaining the overall shape with respect to the shape of the transmission spectrum at the reference temperature. Specifically, when matching is performed on the shape at the reference temperature, it can be evaluated that the shape is maintained when the degree of coincidence is equal to or greater than a threshold value. Further, it may be determined according to the characteristics of the optical bandpass filter described with reference to FIG. For example, the shift amount that shifts until the peak wavelength of the transmission spectrum matches the peak wavelength of the N 1 filter is defined as the upper limit temperature difference, and the shift amount that shifts until it matches the peak wavelength of the N 3 filter is defined as the lower limit temperature difference.

また、温度差の刻みも2℃に限らない。他の温度でも良いし、修正値が「1」変化することを基準として温度差の方を動的に変化させても良い。また、温度差に対するR画素の修正値、G画素の修正値、B画素の修正値のそれぞれを、関数で定義しても良い。さらに、各温度差に対する修正値は、制御部201が機械学習により設定または更新してもよい。機械学習に用いる教師データとしては、ユーザが手動で修正した修正値や、他の装置やデータベースからネットワークを介して取得したデータを用いることができる。   Further, the increment of the temperature difference is not limited to 2 ° C. Other temperatures may be used, and the temperature difference may be dynamically changed on the basis that the correction value changes by “1”. Each of the R pixel correction value, the G pixel correction value, and the B pixel correction value with respect to the temperature difference may be defined by a function. Further, the correction value for each temperature difference may be set or updated by machine learning by machine learning. As teacher data used for machine learning, a correction value manually corrected by a user or data acquired from another device or database via a network can be used.

また、水に対するルックアップテーブル以外にも様々な物質のルックアップテーブルを用意することもできる。図6の例では、水以外にも「エタノール」「微結晶セルロース」のルックアップテーブルが用意されている。すなわち、ユーザが観察対象物においていずれの物質の含有量に着目するかに応じて、その物質のルックアップテーブルを用意すれば良い。逆に、撮像装置100が水の含有量の違いを認識させる専用の装置であれば、水のルックアップテーブルのみがあれば良い。   In addition to the lookup table for water, lookup tables for various substances can be prepared. In the example of FIG. 6, a lookup table for “ethanol” and “microcrystalline cellulose” is prepared in addition to water. That is, a lookup table for a substance may be prepared depending on which substance content the user observes. Conversely, if the imaging device 100 is a dedicated device for recognizing the difference in water content, only a water lookup table is required.

上述の色変換を行うためには、基準温度に対する温度差を取得する必要がある。また、観察対象物の温度分布は、部分ごとに異なる場合もあるので、観察対象物の部分に対応する画像上の領域ごとに温度差の情報を取得することが望ましい。そこで、撮像装置100は、温度計測部130を備えている。図7は、温度計測部130から得られる温度データと撮像部120から得られる近赤外画像とから、調整されたカラー画像を得るまでの調整処理の概念を説明する説明図である。   In order to perform the color conversion described above, it is necessary to obtain a temperature difference with respect to the reference temperature. In addition, since the temperature distribution of the observation target object may be different for each part, it is desirable to acquire temperature difference information for each region on the image corresponding to the part of the observation target object. Therefore, the imaging apparatus 100 includes a temperature measurement unit 130. FIG. 7 is an explanatory diagram for explaining the concept of the adjustment process until obtaining an adjusted color image from the temperature data obtained from the temperature measurement unit 130 and the near-infrared image obtained from the imaging unit 120.

遠赤外画像の画素数に基づく温度の計測点数と、近赤外画像の画素数が一致することが望ましいが、ここでは、温度の計測点数が近赤外画像の画素数よりも少ない場合について説明する。すなわち、第1撮像素子102と第2撮像素子112は、互いに観察対象物を同じ画角で捉えているものの、第2撮像素子112の出力信号数の方が、第1撮像素子102の出力信号数よりも少ない場合である。   It is desirable that the number of temperature measurement points based on the number of pixels in the far-infrared image and the number of pixels in the near-infrared image match, but here the case where the number of temperature measurement points is less than the number of pixels in the near-infrared image explain. That is, although the first image sensor 102 and the second image sensor 112 capture the observation object at the same angle of view, the number of output signals from the second image sensor 112 is greater than the output signal from the first image sensor 102. This is the case when it is less than the number.

図7の例では、観察対象物はトマトであり、トマト以外の背景は処理の対象外としている。対象外の領域は、カラー画像において例えば一律に黒色とすれば良い。   In the example of FIG. 7, the observation object is a tomato, and the background other than the tomato is excluded from processing. The non-target region may be uniformly black in the color image, for example.

温度データにおいて、トマトの全体は、第2撮像素子112の出力信号である遠赤外画像の画素一つ一つに対応する矩形で表わされた複数の計測点によって表現されている。したがって、各計測点はアドレスと温度の値を有する。図の横方向をx方向、縦方向をy方向とすれば、各計測点のアドレスは(x,y)で表わされる。図の例では、22℃の計測点、34℃の計測点、36℃の計測点、38℃の計測点が存在している。なお、図では温度の違いをハッチングの種類の違いで表現している。 In the temperature data, the whole tomato is represented by a plurality of measurement points represented by rectangles corresponding to each pixel of the far-infrared image that is the output signal of the second image sensor 112. Accordingly, each measurement point has an address and a temperature value. If the horizontal direction in the figure is the x direction and the vertical direction is the y direction, the address of each measurement point is represented by (x i , y i ). In the illustrated example, there are a measurement point of 22 ° C., a measurement point of 34 ° C., a measurement point of 36 ° C., and a measurement point of 38 ° C. In the figure, the difference in temperature is expressed by the difference in the type of hatching.

ここでは、近赤外画像の画素数の方が温度データの計測点数よりも多いので、それらの数を一致させる処理を行う。この処理を説明の便宜上、画像サイズを一致させる処理と称する。画像サイズを一致させる処理は、温度データの計測点数を補間処理によって増やして近赤外画像の画素数に一致させる方法と、近赤外画像の画素数を間引き処理によって減らして温度データの計測点数に一致させる方法とがある。精度を重視するなら前者を採用し、演算速度を重視するなら後者を採用すると良い。   Here, since the number of pixels of the near-infrared image is larger than the number of measurement points of the temperature data, a process for matching these numbers is performed. For convenience of explanation, this process is referred to as a process for matching the image sizes. The process of matching the image size is done by increasing the number of temperature data measurement points by interpolation to match the number of pixels in the near-infrared image, and reducing the number of near-infrared image pixels by thinning-out processing. There is a method to match. The former should be used if accuracy is important, and the latter should be used if calculation speed is important.

なお、遠分布画像と近赤外画像は、上述のように多少のパララックスを有するが、簡易的には、画像サイズを一致させる処理を行った後の対応する同一アドレスの画素どうしを被写体の同一部分を捉えている画素とみなすことができる。より精度を重視するならば、被写体全体の輪郭を用いてマッチング処理を行うなどして、対応するアドレスの変換を行って画素どうしを結びつけても良い。   Note that the far-distributed image and the near-infrared image have some parallax as described above, but for simplicity, the corresponding pixels at the same address after the processing for matching the image size are performed on the subject. It can be regarded as a pixel capturing the same part. If more importance is placed on the accuracy, matching processing may be performed using the contour of the entire subject, and the corresponding addresses may be converted to link the pixels together.

ここでは、温度データの(x,y)の計測点と近赤外画像の(x,y)の画素が被写体の同一部分を捉えているとする。図の例では、温度データの計測点(x,y)の温度が36℃であり、近赤外画像の画素(x,y)の画素値が(R,G,B)=(Rij,Gij,Bij)である。このとき、基準温度20℃との温度差は+16℃と算出される。制御部201は、修正テーブル212を参照して、+16℃の修正値(R+16,G+16,B+16)を読み出し、(Rij,Gij,Bij)にこの修正値を適用して、(R'ij,G'ij,B'ij)へ変換する。この作業を全画素にわたって行うと、修正されたカラー画像が得られる。 Here, the temperature data (x i, y i) ( x i, y i) of the measurement point and a near-infrared image of the pixels is regarded the same part of the subject. In the example of the figure, the temperature of the temperature data measurement point (x i , y i ) is 36 ° C., and the pixel value of the pixel (x i , y i ) of the near-infrared image is (R, G, B) = (R ij , G ij , B ij ). At this time, the temperature difference from the reference temperature of 20 ° C. is calculated as + 16 ° C. The control unit 201 reads the correction value (R +16 , G +16 , B +16 ) of + 16 ° C. with reference to the correction table 212, applies this correction value to (R ij , G ij , B ij ), (R ′ ij , G ′ ij , B ′ ij ) If this operation is performed over all pixels, a corrected color image is obtained.

以上の処理を処理フローとして説明する。図8は、処理フローを説明する図である。フローは、撮像装置100の電源がオンにされ、観察対象物においていずれの物質の含有量に着目するかの指示をユーザから受け付けた状態から開始する。   The above processing will be described as a processing flow. FIG. 8 is a diagram for explaining the processing flow. The flow starts from a state in which the power of the imaging apparatus 100 is turned on and an instruction as to which content of the substance to be focused on in the observation target is received from the user.

制御部201は、ステップS101で、ユーザからの撮像指示を待つ。ユーザの撮像指示を検知したら、ステップS102へ進む。なお、撮像指示はユーザの指示に限らず、例えば、ベルトコンベアで運ばれてくるトマトが検知されるたびに、自動的に撮像指示信号を生成されるようにしても良い。   In step S101, the control unit 201 waits for an imaging instruction from the user. If a user's imaging instruction is detected, the process proceeds to step S102. The imaging instruction is not limited to a user instruction, and for example, an imaging instruction signal may be automatically generated every time a tomato carried on a belt conveyor is detected.

制御部201は、ステップS102で、第1撮像素子102を駆動するなどして近赤外撮像データを生成する。ステップS103で、第2撮像素子112を駆動するなどして温度を計測する。なお、ステップS102とステップS103の処理順は逆であっても良いし、部分的にあるいは全体的に並列処理されても良い。   In step S102, the control unit 201 generates near-infrared imaging data by driving the first imaging element 102 or the like. In step S103, the temperature is measured by driving the second image sensor 112 or the like. Note that the processing order of step S102 and step S103 may be reversed, or may be partially or wholly processed in parallel.

制御部201は、ステップS104で、画像処理部205に、近赤外画像と温度データの画像サイズを、補間処理、間引き処理等により一致させる。そして、ステップS105で、対応する計測点の計測温度と基準温度との温度差を算出し、ステップS106で修正テーブル212を参照してRGBの各修正値を読み出す。ステップS107で、画像処理部205は、各アドレスの画素値を読み出した修正値を用いて変換する。全画素の色変換処理が完了すると、色味が調整されたカラー画像データが完成する。   In step S104, the control unit 201 causes the image processing unit 205 to match the image sizes of the near-infrared image and the temperature data by interpolation processing, thinning processing, or the like. In step S105, a temperature difference between the measurement temperature at the corresponding measurement point and the reference temperature is calculated, and in step S106, the RGB correction values are read with reference to the correction table 212. In step S107, the image processing unit 205 converts the pixel value at each address using the read correction value. When the color conversion process for all the pixels is completed, the color image data whose color is adjusted is completed.

調整されたカラー画像データが完成すると、制御部201は、表示部207に調整されたカラー画像を表示し、通信部206を介して完成したカラー画像データを外部の記録装置に記録する。制御部201は、ステップS109で、電源がオフにされたかを検知し、検知されない場合にはステップS101へ戻る。検知された場合には一連の処理を終了する。   When the adjusted color image data is completed, the control unit 201 displays the adjusted color image on the display unit 207, and records the completed color image data on an external recording device via the communication unit 206. In step S109, the control unit 201 detects whether the power is turned off. If not detected, the control unit 201 returns to step S101. If it is detected, the series of processing ends.

なお、制御部201は、記録するカラー画像データに、副情報として温度データ、調整前の近赤外撮像データを含めても良い。副情報を記録する形式としては、EXIF形式のサムネイル画像、メーカーノート領域への記述などが考えられる。また、MPF形式の第2画像、RAW形式のTag情報として記録しても良い。また、関連情報として、変換処理に用いた調整パラメータを記録しても良い。   Note that the control unit 201 may include temperature data and near-infrared imaging data before adjustment as sub information in the color image data to be recorded. As a format for recording the sub information, an EXIF format thumbnail image, a description in a maker note area, and the like are considered. Alternatively, it may be recorded as a second image in MPF format and Tag information in RAW format. Further, as related information, an adjustment parameter used for the conversion process may be recorded.

また、撮像装置100は、ユーザの選択を受け付けて、色変換処理を行わずに撮像部120が生成した近赤外撮像データをそのまま出力しても良い。このとき、温度計測部130が生成した温度データを関連情報として関連付けて出力しても良い。このように、近赤外撮像データと温度データとを併せて出力すれば、外部の処理装置で色変換処理を行うことができるので、撮像装置100に組み込まれたアルゴリズムとは異なるアルゴリズムを適用したり、更に複雑な処理を行ったりすることができる。   Further, the imaging apparatus 100 may accept the user's selection and output the near-infrared imaging data generated by the imaging unit 120 without performing color conversion processing as it is. At this time, the temperature data generated by the temperature measurement unit 130 may be output as associated information. As described above, if the near-infrared imaging data and the temperature data are output together, the color conversion process can be performed by the external processing device. Therefore, an algorithm different from the algorithm incorporated in the imaging device 100 is applied. Or a more complicated process.

また、上記の実施形態による色変換処理は、RGBの各値をシフトさせる処理であったが、色調整処理はこれに限らない。基準温度のカラー画像により一致させるために、他のパラメータを調整しても良い。例えば、ガンマを調整したり、彩度と色相を独立して調整したりしても良い。また、修正テーブルは、色の調整値に限らず、観察対象物の波長に対する透過度合いを表わす透過スペクトルの温度に対する変化についての温度変化情報であれば良い。色変換についての調整ルールが確定していれば、温度変化情報として必要な情報は、観察対象物ごとの物質としての特性情報であるので、この場合に修正テーブルは、透過スペクトル情報そのものであっても良い。また、修正テーブルは、システムメモリ202が記憶する場合に限らず、必要に応じて外部からネットワークを介して通信部206から取得しても良い。   In addition, the color conversion process according to the above embodiment is a process of shifting each value of RGB, but the color adjustment process is not limited to this. Other parameters may be adjusted to match the color image at the reference temperature. For example, gamma may be adjusted, or saturation and hue may be adjusted independently. In addition, the correction table is not limited to the color adjustment value, and may be temperature change information regarding a change in the transmission spectrum representing the degree of transmission with respect to the wavelength of the observation object. If the adjustment rule for color conversion is established, the information necessary as temperature change information is characteristic information as a substance for each observation object. In this case, the correction table is transmission spectrum information itself. Also good. Further, the correction table is not limited to being stored in the system memory 202, and may be acquired from the communication unit 206 from the outside via a network as necessary.

なお、上記の実施形態においては、色変換処理を行う際に、観察対象物の透過スペクトルに対する温度依存性に基づいて色を調整したが、観察対象物の波長に対する変化を示すスペクトルは、透過スペクトルに限らない。例えば、観察対象物の波長に対する吸収度合を表わす吸収スペクトルを用いても良い。この場合、修正テーブル212には、観察対象物の吸収スペクトルに対する温度依存性に基づいた修正値が用意されることになる。   In the above embodiment, when the color conversion process is performed, the color is adjusted based on the temperature dependence on the transmission spectrum of the observation object. However, the spectrum indicating the change with respect to the wavelength of the observation object is a transmission spectrum. Not limited to. For example, an absorption spectrum representing the degree of absorption with respect to the wavelength of the observation object may be used. In this case, a correction value based on the temperature dependence on the absorption spectrum of the observation object is prepared in the correction table 212.

また、上記の実施形態においては、着目する物質の含有量に応じて予めつくられた修正テーブルを用いて、より正確に基準温度のカラー画像に近い色味を目指して色変換処理を行ったが、全体的な傾向程度に色変換処理を行っても良い。すなわち、物質ごとの修正テーブルを持たなくても、検出された実温度が基準温度よりも高い場合は赤色方向に調整し、実温度が基準温度よりも低い場合は青色方向に調整するように処理を行っても良い。   In the above-described embodiment, the color conversion process is performed with a correction table created in advance according to the content of the target substance, aiming more accurately at the color near the reference temperature color image. The color conversion process may be performed to the overall trend level. In other words, even if there is no correction table for each substance, if the detected actual temperature is higher than the reference temperature, it will be adjusted in the red direction, and if the actual temperature is lower than the reference temperature, it will be adjusted in the blue direction. May be performed.

上記の実施形態においては、温度計測部130は、2次元状に光電変換素子が配列された第2撮像素子112によって遠赤外画像を撮像し、その遠赤外画像を2次元の温度データに変換しているが、温度データの計測はこれに限られない。例えば、温度計測部130は、ポイントセンサで被写体の1点の温度を計測してもよいし、複数のポイントセンサをドット状に配列して被写体のそれぞれの点の温度を計測してもよい。温度計測部130が被写体の1点の温度を計測するものである場合には、画像処理部205は、近赤外画像の全ての画素に対して、計測された温度を用いて参照温度との温度差による修正を実行する。温度計測部130が被写体の複数の点の温度を計測するものである場合には、画像処理部205は、それらの複数の点から近赤外画像の画素に対応する箇所の温度を補間処理して、それらの温度を用いて参照温度との温度差による修正を実行する。   In the above embodiment, the temperature measurement unit 130 captures a far-infrared image by the second imaging element 112 in which the photoelectric conversion elements are arrayed two-dimensionally, and converts the far-infrared image into two-dimensional temperature data. Although converted, the measurement of temperature data is not limited to this. For example, the temperature measurement unit 130 may measure the temperature of one point of the subject with a point sensor, or may measure the temperature of each point of the subject by arranging a plurality of point sensors in a dot shape. When the temperature measurement unit 130 measures the temperature of one point of the subject, the image processing unit 205 uses the measured temperature for all pixels of the near-infrared image to obtain the reference temperature. Perform corrections due to temperature differences. When the temperature measurement unit 130 measures the temperature of a plurality of points on the subject, the image processing unit 205 performs interpolation processing on the temperature of the portion corresponding to the pixel of the near-infrared image from the plurality of points. Then, the correction based on the temperature difference from the reference temperature is executed using these temperatures.

なお、上記の実施形態において、撮像部120が近赤外画像を撮像する際に、観察対象物に光を照射してもよい。この場合、撮像装置100に、制御部201と電気的に接続された照射部を設ける。照射部は光源を有し、照射する光の波長帯を設定可能である。照射部は、制御部201からの指令により、観察対象物に所望の波長帯の光を照射する。照射部が観察対象物に応じた特徴的な透過スペクトルの波長帯を含む光を照射することにより、撮像部120が撮像した近赤外画像に観察対象物の状態の変化がより顕著に表れる。なお、照射部は、観察対象物の撮像部120と対向する部分を照射してもよいし、観察対象物の裏側部分を照射してもよい。   In the above embodiment, when the imaging unit 120 captures a near-infrared image, the observation target may be irradiated with light. In this case, the imaging device 100 is provided with an irradiation unit that is electrically connected to the control unit 201. The irradiation unit has a light source and can set the wavelength band of the light to be irradiated. The irradiation unit irradiates the observation target with light in a desired wavelength band according to a command from the control unit 201. When the irradiation unit irradiates light including a wavelength band of a characteristic transmission spectrum corresponding to the observation object, a change in the state of the observation object appears more prominently in the near-infrared image captured by the imaging unit 120. Note that the irradiation unit may irradiate a portion of the observation object facing the imaging unit 120, or may irradiate the back side portion of the observation object.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

100 撮像装置、101 第1光学系、102 第1撮像素子、111 第2光学系、112 第2撮像素子、120 撮像部、130 温度計測部、201 制御部、202 システムメモリ、203 ワークメモリ、205 画像処理部、206 通信部、207 表示部、208 操作部、212 修正テーブル DESCRIPTION OF SYMBOLS 100 Image pick-up device, 101 1st optical system, 102 1st image pick-up element, 111 2nd optical system, 112 2nd image pick-up element, 120 Image pick-up part, 130 Temperature measurement part, 201 Control part, 202 System memory, 203 Work memory, 205 Image processing unit, 206 communication unit, 207 display unit, 208 operation unit, 212 correction table

Claims (11)

近赤外帯域に感度を有する撮像素子を有し、観察対象物を撮像して近赤外撮像データを生成する撮像部と、
前記観察対象物の温度を計測する温度計測部と、
前記近赤外撮像データの画素値を可視帯域に対応づけて、前記近赤外撮像データをカラー画像データに変換する画像処理部と
を備え、
前記画像処理部は、前記観察対象物が計測した計測温度と基準温度との温度差に基づいて、前記近赤外撮像データの画素値と前記可視帯域との対応関係を調整する撮像装置。
An imaging unit having an imaging device having sensitivity in the near-infrared band and imaging an observation object to generate near-infrared imaging data;
A temperature measuring unit for measuring the temperature of the observation object;
An image processing unit that associates the pixel value of the near-infrared imaging data with a visible band and converts the near-infrared imaging data into color image data;
The image processing unit is an imaging device that adjusts a correspondence relationship between a pixel value of the near-infrared imaging data and the visible band based on a temperature difference between a measured temperature measured by the observation object and a reference temperature.
前記温度計測部は、前記観察対象物の温度を2次元状に計測し、
前記画像処理部は、前記近赤外撮像データの各撮像領域に対応する位置の計測温度を用いて前記各撮像領域の温度差を演算し、前記温度差に基づいて前記各撮像領域で前記対応関係を調整する請求項1に記載の撮像装置。
The temperature measurement unit measures the temperature of the observation object two-dimensionally,
The image processing unit calculates a temperature difference of each imaging region using a measured temperature at a position corresponding to each imaging region of the near-infrared imaging data, and the correspondence in each imaging region based on the temperature difference The imaging apparatus according to claim 1, wherein the relationship is adjusted.
前記画像処理部は、前記温度計測部が計測した温度の計測点数と、前記近赤外撮像データの画素数を一致させる補間処理を行う請求項2に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the image processing unit performs an interpolation process to match the number of measurement points of the temperature measured by the temperature measurement unit with the number of pixels of the near-infrared imaging data. 前記画像処理部は、前記近赤外撮像データを前記カラー画像データに一旦変換した後に、前記温度差に基づいて前記対応関係を修正する請求項1から3のいずれか1項に記載の撮像装置。   The imaging apparatus according to any one of claims 1 to 3, wherein the image processing unit corrects the correspondence relationship based on the temperature difference after the near-infrared imaging data is once converted into the color image data. . 前記観察対象物の波長に対する透過率を表わす透過スペクトルの温度に対する変化についての温度変化情報を取得する取得部を備え、
前記画像処理部は、前記温度変化情報に基づいて前記対応関係を調整する請求項1から4のいずれか1項に記載の撮像装置。
An acquisition unit for acquiring temperature change information about a change with respect to temperature of a transmission spectrum representing a transmittance with respect to a wavelength of the observation object;
The imaging apparatus according to claim 1, wherein the image processing unit adjusts the correspondence relationship based on the temperature change information.
前記観察対象物の物質情報を受け付ける受付部を備え、
前記画像処理部は、前記物質情報に基づいて前記対応関係を調整する請求項1から5のいずれか1項に記載の撮像装置。
A reception unit for receiving material information of the observation object;
The imaging apparatus according to claim 1, wherein the image processing unit adjusts the correspondence relationship based on the substance information.
前記画像処理部は、前記基準温度の際に前記画素値を対応付ける前記可視帯域を設定し、 前記計測温度が前記基準温度よりも高い場合は前記可視帯域を長波長側に調整し、前記計測温度が前記基準温度よりも低い場合は前記可視帯域を短波長側に調整する請求項1から6のいずれか1項に記載の撮像装置。   The image processing unit sets the visible band for associating the pixel value at the reference temperature, and adjusts the visible band to a longer wavelength side when the measured temperature is higher than the reference temperature, and the measured temperature The imaging device according to claim 1, wherein when the temperature is lower than the reference temperature, the visible band is adjusted to a short wavelength side. 前記画像処理部に前記対応関係の調整を行わせるか否かを選択する選択部を備える請求項1から7のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a selection unit that selects whether or not the image processing unit adjusts the correspondence relationship. 前記画像処理部は、前記各撮像領域を画素単位で設定する請求項2から8のいずれか1項に記載の撮像装置。   The imaging apparatus according to any one of claims 2 to 8, wherein the image processing unit sets the imaging areas in units of pixels. 前記画像処理部は、前記計測部が計測した温度の温度データを、前記近赤外撮像データに関連づけて出力する請求項1から9のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the image processing unit outputs temperature data of the temperature measured by the measurement unit in association with the near-infrared imaging data. 観察対象物を撮像して近赤外撮像データを生成する撮像ステップと、
前記観察対象物の温度を計測する温度計測ステップと、
前記近赤外撮像データの計測温度と基準温度との温度差に基づいて、前記近赤外撮像データの画素値と前記可視波長帯域との対応関係を調整して、前記近赤外撮像データをカラー画像データに変換する画像処理ステップと
をコンピュータに実行させる撮像制御プログラム。
An imaging step of imaging an observation object and generating near-infrared imaging data;
A temperature measuring step for measuring the temperature of the observation object;
Based on the temperature difference between the measured temperature of the near-infrared imaging data and the reference temperature, the correspondence between the pixel value of the near-infrared imaging data and the visible wavelength band is adjusted, and the near-infrared imaging data is An imaging control program for causing a computer to execute an image processing step for converting color image data.
JP2016246645A 2016-12-20 2016-12-20 Imaging device and imaging control program Active JP6819273B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016246645A JP6819273B2 (en) 2016-12-20 2016-12-20 Imaging device and imaging control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016246645A JP6819273B2 (en) 2016-12-20 2016-12-20 Imaging device and imaging control program

Publications (2)

Publication Number Publication Date
JP2018101889A true JP2018101889A (en) 2018-06-28
JP6819273B2 JP6819273B2 (en) 2021-01-27

Family

ID=62714526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016246645A Active JP6819273B2 (en) 2016-12-20 2016-12-20 Imaging device and imaging control program

Country Status (1)

Country Link
JP (1) JP6819273B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080006772A1 (en) * 2006-07-05 2008-01-10 Honeywell International Inc. Thermally-directed optical processing
JP2011050049A (en) * 2009-07-30 2011-03-10 National Institute Of Advanced Industrial Science & Technology Image capturing apparatus and image capturing method
JP2014126493A (en) * 2012-12-27 2014-07-07 Seiko Epson Corp Food analysis device
JP2014204151A (en) * 2013-04-01 2014-10-27 パナソニック株式会社 Imaging computation device
WO2016088293A1 (en) * 2014-12-04 2016-06-09 Sony Corporation Imaging device, apparatus, and imaging method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080006772A1 (en) * 2006-07-05 2008-01-10 Honeywell International Inc. Thermally-directed optical processing
JP2011050049A (en) * 2009-07-30 2011-03-10 National Institute Of Advanced Industrial Science & Technology Image capturing apparatus and image capturing method
JP2014126493A (en) * 2012-12-27 2014-07-07 Seiko Epson Corp Food analysis device
JP2014204151A (en) * 2013-04-01 2014-10-27 パナソニック株式会社 Imaging computation device
WO2016088293A1 (en) * 2014-12-04 2016-06-09 Sony Corporation Imaging device, apparatus, and imaging method
JP2016111475A (en) * 2014-12-04 2016-06-20 ソニー株式会社 Image processing system, image processing method, and imaging system

Also Published As

Publication number Publication date
JP6819273B2 (en) 2021-01-27

Similar Documents

Publication Publication Date Title
US10231600B2 (en) Image processing apparatus
KR100858034B1 (en) One chip image sensor for measuring vitality of subject
JP4815267B2 (en) White balance control method, imaging apparatus, and white balance control program
JPWO2019230878A1 (en) Fluorescence observation device and fluorescence observation method
JP2014086862A5 (en)
JP5879745B2 (en) Spectral estimation parameter generation apparatus and method, and computer program
US10874293B2 (en) Endoscope device
EP3021577A1 (en) Imaging device
KR102565592B1 (en) System and method for measuring of luminance and chromaticity
JP5718138B2 (en) Image signal processing apparatus and program
JP2010193378A (en) Adjustment device and adjustment method; and imaging device
JP6819273B2 (en) Imaging device and imaging control program
JP7254440B2 (en) Image processing device, imaging device, image processing method, and program
JP2007147507A (en) Spectrometry and optical spectrometer
CN106716991A (en) Infrared imaging device, image processing method, and image processing program
JP6503522B1 (en) Image processing apparatus, image processing system and image processing method
WO2014208188A1 (en) Image processing apparatus and image processing method
JP7330867B2 (en) IMAGING DEVICE, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING SYSTEM, DATA GENERATION METHOD, AND PROGRAM
EP3669743B1 (en) System and method, in particular for microscopes and endoscopes, for creating an hdr image of a fluorescing fluorophore
JP4289973B2 (en) Color correction device for quantifying cataract symptoms based on color image data of cataract eye obtained from slit lamp microscope
JP4875578B2 (en) Color conversion definition creation method, color conversion definition creation device, and endoscope system
WO2020100623A1 (en) Imaging device
JP6884043B2 (en) Information processing device
US20230334780A1 (en) Three-dimensional modeling method and apparatus using same
JP2009273146A (en) Digital camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201214

R150 Certificate of patent or registration of utility model

Ref document number: 6819273

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250