JP2014233038A - Camera apparatus and imaging method - Google Patents

Camera apparatus and imaging method Download PDF

Info

Publication number
JP2014233038A
JP2014233038A JP2013114052A JP2013114052A JP2014233038A JP 2014233038 A JP2014233038 A JP 2014233038A JP 2013114052 A JP2013114052 A JP 2013114052A JP 2013114052 A JP2013114052 A JP 2013114052A JP 2014233038 A JP2014233038 A JP 2014233038A
Authority
JP
Japan
Prior art keywords
output
color
unit
light
color estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013114052A
Other languages
Japanese (ja)
Inventor
雄一 畑瀬
Yuichi Hatase
雄一 畑瀬
愼一 門脇
Shinichi Kadowaki
愼一 門脇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2013114052A priority Critical patent/JP2014233038A/en
Publication of JP2014233038A publication Critical patent/JP2014233038A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a camera apparatus, which acquires a color image by performing color estimation based on an image of invisible light, capable of performing precise color estimation even when the output of light changes.SOLUTION: The camera apparatus includes: plural light sources each of which outputs plural invisible light beams each having different wavelengths; an imaging section that takes an image of a subject irradiated with plural invisible light beams of different wavelengths; a color estimation section that estimates a color image by estimating a color based on the strength of the plural invisible light beams of different wavelengths in an obtained image data; a monitoring section that monitors the output strength from plural light sources; and a correction section that corrects the color estimation operation of the color estimation section based on a piece of information from the monitoring section.

Description

本発明は、非可視光を被写体に照射して被写体を撮像するカメラ装置および撮影方法に関する。   The present invention relates to a camera device and an imaging method for imaging a subject by irradiating the subject with invisible light.

以前より、暗視カメラなど、赤外線等の非可視光の映像を取り込み、可視光の映像に変換することで、暗闇において被写体を見ることのできるカメラ装置がある。   2. Description of the Related Art Conventionally, there are camera devices such as a night vision camera that can capture an invisible light image such as infrared light and convert it into a visible light image so that a subject can be seen in the dark.

また、従来、複数波長の非可視光を被写体に照射し、非可視光の反射光を受けて、各波長の反射率の違いから、被写体の色を推定する技術が知られている(例えば特許文献1を参照)。そして、この技術を利用して、暗闇において被写体のカラー映像を得るカメラ装置が提案されている。   Conventionally, a technique is known that irradiates a subject with invisible light of a plurality of wavelengths, receives reflected light of the invisible light, and estimates the color of the subject from the difference in reflectance of each wavelength (for example, a patent) Reference 1). And a camera device that obtains a color image of a subject in the dark using this technique has been proposed.

このようなカメラ装置は、複数波長の非可視光をそれぞれ出力する複数の光源と、複数波長の非可視光の映像を取り込む撮影部と、色を推定して非可視光の映像をカラー映像に変換する色推定部とを有する。   Such a camera device includes a plurality of light sources that output invisible light of a plurality of wavelengths, a photographing unit that captures images of invisible light of a plurality of wavelengths, and an invisible image into color images by estimating colors. A color estimation unit for conversion.

特開2011−050049号公報JP 2011-050049 A

上記したカメラ装置では、複数の光源が経年変化等により出力低下した場合、色の推定誤差が大きくなって、カラー映像の色が不正確になるという課題がある。   In the above-described camera device, when the output of a plurality of light sources decreases due to secular change or the like, there is a problem that the color estimation error becomes large and the color of the color image becomes inaccurate.

素子の材料が異なる複数種類の光源を用いる場合、各種類の光源ごとに経年変化の度合いが異なる。このため、長い年月が経過すると、カメラ装置から被写体に照射される複数波長の非可視光の割合が変化する。照射される非可視光の割合が変化すると、被写体から反射される複数波長の非可視光の割合に影響が及び、色の推定誤差の原因となる。   When a plurality of types of light sources having different element materials are used, the degree of secular change is different for each type of light source. For this reason, when a long time passes, the ratio of the invisible light of a plurality of wavelengths irradiated on the subject from the camera device changes. When the ratio of the invisible light to be irradiated changes, the ratio of the invisible light having a plurality of wavelengths reflected from the subject is affected, which causes a color estimation error.

光の出力変化は、発光素子の経年変化だけでなく、例えば、出射光が通過する光学系(レンズ又は保護フィルターなど)の劣化又は曇りなどにより、発生することもある。   The light output change may occur not only due to the secular change of the light emitting element but also due to, for example, deterioration of the optical system (lens or protective filter or the like) through which the emitted light passes or cloudiness.

本発明の目的は、非可視光の映像から色推定を行ってカラー映像を得るカメラ装置において、光の出力変化が生じても、精度の高い色推定を行えるようにすることである。   An object of the present invention is to enable highly accurate color estimation even when a change in light output occurs in a camera device that obtains a color image by performing color estimation from an invisible light image.

本発明の一態様に係るカメラ装置は、複数の異なる波長の非可視光をそれぞれ出力する複数の光源と、前記複数の異なる波長の非可視光が照射された被写体を撮像する撮像部と、前記撮像された画像データにおける前記複数の異なる波長の非可視光の強度から色を推定して、カラー画像を推定する色推定部と、前記複数の光源の出力強度を監視する監視部と、前記監視部からの情報に基づき前記色推定部の色の推定動作を補正する補正部と、を具備する構成を採る。   A camera device according to an aspect of the present invention includes a plurality of light sources that respectively output a plurality of different wavelengths of invisible light, an imaging unit that images a subject irradiated with the plurality of different wavelengths of invisible light, A color estimator for estimating a color image by estimating a color from intensities of the invisible light of the plurality of different wavelengths in the captured image data, a monitoring unit for monitoring output intensities of the plurality of light sources, and the monitoring And a correction unit that corrects the color estimation operation of the color estimation unit based on information from the unit.

本発明の一態様に係る撮影方法は、複数の異なる波長の非可視光を被写体にそれぞれ出力し、前記出力される非可視光の出力強度を監視し、前記複数の異なる波長の非可視光が照射された被写体を撮像し、前記撮像された画像データにおける前記複数の異なる波長の非可視光の強度から色の推定を行って、カラー画像を推定し、前記監視された出力強度の情報に基づき前記色の推定の処理動作を補正する、ものである。   An imaging method according to an aspect of the present invention outputs a plurality of different wavelengths of invisible light to a subject, monitors an output intensity of the output invisible light, and the plurality of different wavelengths of invisible light Based on the information of the monitored output intensity, the irradiated subject is imaged, the color is estimated from the invisible light intensities of the plurality of different wavelengths in the captured image data, and the color image is estimated. The color estimation processing operation is corrected.

本発明によれば、光源の出力変化が生じても、精度の高い色推定を行うことができる。   According to the present invention, accurate color estimation can be performed even when the output change of the light source occurs.

実施の形態1のカメラ装置の構成図Configuration diagram of camera device of Embodiment 1 実施の形態1における照射部の具体的な一例を示す側面図Side view showing a specific example of the irradiation unit in the first embodiment 光出力強度の低下特性を示すグラフGraph showing the light output intensity degradation characteristics 実施の形態1における色推定処理の手順を示すフローチャートFlowchart showing the procedure of color estimation processing in the first embodiment 実施の形態1における出力監視&補正処理の手順を示すフローチャートFlowchart showing the procedure of output monitoring and correction processing in the first embodiment 色と非可視光の反射率との関係を示すグラフGraph showing the relationship between color and reflectance of invisible light 実施の形態1における色変換テーブルの更新例を示す図FIG. 10 is a diagram illustrating an example of updating a color conversion table according to the first embodiment. 実施の形態2における色推定処理の手順を示すフローチャートFlowchart showing the procedure of color estimation processing in the second embodiment 実施の形態2における出力監視&補正処理の手順を示すフローチャートFlowchart showing the procedure of output monitoring & correction processing in the second embodiment 実施の形態3のカメラ装置の構成図Configuration of Camera Device of Embodiment 3 実施の形態3における出力センサーの具体的な配置例を示す斜視図(A)および内部透視図(B)The perspective view (A) and internal perspective view (B) which show the specific example of arrangement | positioning of the output sensor in Embodiment 3.

以下、本発明の各実施の形態について図面を参照して詳細に説明する。なお、各実施の形態は、互いに矛盾しない範囲において相互に利用可能である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Note that the embodiments can be used with each other as long as they do not contradict each other.

(実施の形態1)
図1は、本発明の実施の形態1のカメラ装置の構成図である。図2は、照射部の具体的な一例を示す側面図である。
(Embodiment 1)
FIG. 1 is a configuration diagram of a camera apparatus according to Embodiment 1 of the present invention. FIG. 2 is a side view showing a specific example of the irradiation unit.

実施の形態1のカメラ装置100は、図1に示すように、制御部101と、照射部150と、撮像部(カメラ部に相当)200とを備えている。   As illustrated in FIG. 1, the camera device 100 according to Embodiment 1 includes a control unit 101, an irradiation unit 150, and an imaging unit (corresponding to a camera unit) 200.

図1において、第1の出射部102、第2の出射部103、および、第3の出射部104は、複数の光源に相当する。制御部101および出力センサー112,113,114は、監視部として機能する。また、制御部101は、色の推定処理の動作を補正する補正部としても機能する。   In FIG. 1, the first emission unit 102, the second emission unit 103, and the third emission unit 104 correspond to a plurality of light sources. The control unit 101 and the output sensors 112, 113, and 114 function as a monitoring unit. The control unit 101 also functions as a correction unit that corrects the operation of the color estimation process.

照射部150は、被写体10を含む撮影対象の領域に非可視光を照射する構成である。   The irradiation unit 150 is configured to irradiate a region to be imaged including the subject 10 with invisible light.

照射部150は、図1に示すように、第1の出射部102、第2の出射部103、第3の出射部104、照明光学部105、および、複数組の出力センサー112〜114を備えている。   As illustrated in FIG. 1, the irradiation unit 150 includes a first emission unit 102, a second emission unit 103, a third emission unit 104, an illumination optical unit 105, and a plurality of sets of output sensors 112 to 114. ing.

第1の出射部102、第2の出射部103、および、第3の出射部104は、波長の異なる複数の非可視光をそれぞれ出力する。第1の出射部102、第2の出射部103、および、第3の出射部104は、例えば赤外線を出力する赤外LED(発光ダイオード)および/または紫外線を出力する紫外LEDの組み合わせからなる。   The first emitting unit 102, the second emitting unit 103, and the third emitting unit 104 each output a plurality of invisible lights having different wavelengths. The first emission unit 102, the second emission unit 103, and the third emission unit 104 are, for example, a combination of an infrared LED (light emitting diode) that outputs infrared rays and / or an ultraviolet LED that outputs ultraviolet rays.

以下では、第1の出射部102、第2の出射部103、および、第3の出射部104は、3つの赤外領域の波長IR1、IR2、IR3の光を、それぞれ出力する構成として説明する。   Below, the 1st output part 102, the 2nd output part 103, and the 3rd output part 104 are demonstrated as a structure which each outputs the light of the wavelengths IR1, IR2, and IR3 of three infrared regions. .

第1の出射部102は、1つの発光素子から構成してもよいし、同一波長の非可視光を出力する複数の発光素子を有する構成としてもよい。第2の出射部103および第3の出射部104も同様である。   The first emission unit 102 may be configured by a single light emitting element, or may have a plurality of light emitting elements that output invisible light having the same wavelength. The same applies to the second emission unit 103 and the third emission unit 104.

照明光学部105は、第1の出射部102、第2の出射部103および第3の出射部104から出力された非可視光を、撮影対象の領域に照射させる光学系である。照明光学部105には、図2のレンズ105aが含まれる。   The illumination optical unit 105 is an optical system that irradiates a region to be imaged with invisible light output from the first emission unit 102, the second emission unit 103, and the third emission unit 104. The illumination optical unit 105 includes the lens 105a shown in FIG.

出力センサー112〜114は、第1の出射部102、第2の出射部103、および、第3の出射部104の複数波長の非可視光の出力強度をそれぞれ検知する。   The output sensors 112 to 114 detect the output intensities of invisible light having a plurality of wavelengths from the first emission unit 102, the second emission unit 103, and the third emission unit 104, respectively.

ここでは、図2に示すように、第1の出射部102、第2の出射部103、および、第3の出射部104が、基板実装型のLEDからなる場合を、一つの具体例として説明する。第1の出射部102、第2の出射部103、および、第3の出射部104は、装置筐体300(図11(A)を参照)内の基板140上に実装されている。   Here, as shown in FIG. 2, a case where the first emission unit 102, the second emission unit 103, and the third emission unit 104 are made of board-mounted LEDs will be described as one specific example. To do. The first emission unit 102, the second emission unit 103, and the third emission unit 104 are mounted on a substrate 140 in the apparatus housing 300 (see FIG. 11A).

出力センサー112〜114は、例えばフォトダイオードなど、非可視光の受光量を検出できる光センサーである。このうち出力センサー112は、第1の出射部102の漏れ光が照射される箇所に配置される。具体的には、出力センサー112は、基板140上で、且つ、第1の出射部102の近傍に実装される。   The output sensors 112 to 114 are optical sensors that can detect the amount of invisible light received, such as photodiodes. Among these, the output sensor 112 is disposed at a location where the leakage light of the first emitting unit 102 is irradiated. Specifically, the output sensor 112 is mounted on the substrate 140 and in the vicinity of the first emitting unit 102.

このような配置により、第1の出射部102から出力された光の一部は、漏れ光となって出力センサー112で検出される。   With such an arrangement, part of the light output from the first emission unit 102 is detected by the output sensor 112 as leakage light.

出力センサー113,114は、同様に、第2の出射部103、第3の出射部104の漏れ光が照射される箇所に、それぞれ配置される。   Similarly, the output sensors 113 and 114 are disposed at locations where the leakage light of the second emission unit 103 and the third emission unit 104 is irradiated.

撮像部200は、非可視光を照射された被写体10の映像を取り込んで撮像する構成である。   The imaging unit 200 is configured to capture and capture an image of the subject 10 irradiated with invisible light.

撮像部200は、図1に示すように、撮像光学部201、センサー部202、データ処理部203、および、色推定部204を備えている。   As illustrated in FIG. 1, the imaging unit 200 includes an imaging optical unit 201, a sensor unit 202, a data processing unit 203, and a color estimation unit 204.

撮像光学部201は、撮影対象領域から入射される光を集光してセンサー部202に結像させる光学系である。撮像光学部201には、例えば撮像レンズ201A(図11(A)を参照)が含まれる。   The imaging optical unit 201 is an optical system that collects light incident from the imaging target region and forms an image on the sensor unit 202. The imaging optical unit 201 includes, for example, an imaging lens 201A (see FIG. 11A).

センサー部202は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal-Oxide Semiconductor)等の受光素子を含み、複数波長の非可視光からなる映像を電気信号へ変換する。電気信号は撮像データに変換されてデータ処理部203へ送られる。   The sensor unit 202 includes a light receiving element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), and converts an image composed of invisible light having a plurality of wavelengths into an electrical signal. The electrical signal is converted into imaging data and sent to the data processing unit 203.

データ処理部203は、センサー部202から出力された撮像データに対して、ゲイン調整、露光調整等の所定の画像処理を施すことにより、複数波長の非可視光の画像データを取得する。データ処理部203は、取得した画像データを色推定部204へ出力する。   The data processing unit 203 obtains image data of invisible light having a plurality of wavelengths by performing predetermined image processing such as gain adjustment and exposure adjustment on the imaging data output from the sensor unit 202. The data processing unit 203 outputs the acquired image data to the color estimation unit 204.

色推定部204は、データ処理部203から送られる複数波長の画像データに基づいて、各画素の色を推定する。また、色推定部204は、色推定結果に従って、3波長の画像データからカラーの表示用データを生成して出力する。   The color estimation unit 204 estimates the color of each pixel based on the image data of a plurality of wavelengths sent from the data processing unit 203. Further, the color estimation unit 204 generates and outputs color display data from the three-wavelength image data according to the color estimation result.

色推定部204は、内部に色推定テーブルを記憶し、色推定テーブルに基づいて色推定を行う。色推定テーブルは、詳細は後述するが、例えば、3波長の反射光の強度(又は強度の割合)と、色とが対応づけられたルックアップテーブルである。色推定部204には、第1の出射部102、第2の出射部103、および、第3の出射部104の出力強度が様々に変化した場合に対応した複数種類の色推定テーブルが記憶されている。   The color estimation unit 204 stores therein a color estimation table and performs color estimation based on the color estimation table. Although the details will be described later, the color estimation table is, for example, a lookup table in which the intensity (or ratio of intensity) of reflected light of three wavelengths is associated with the color. The color estimation unit 204 stores a plurality of types of color estimation tables corresponding to various output intensities of the first emission unit 102, the second emission unit 103, and the third emission unit 104. ing.

なお、複数種類の色推定テーブルは、色推定部204の内部に記憶させるのではなく、制御部101又は別のメモリに記憶させるようにしてもよい。また、色推定部204は、使用する色推定テーブルのみを記憶し、使用する色推定テーブルの変更が必要となったときに、制御部101が色推定部204の色推定テーブルを書き換えるように構成してもよい。   Note that the plurality of types of color estimation tables may be stored in the control unit 101 or another memory instead of being stored in the color estimation unit 204. Further, the color estimation unit 204 stores only the color estimation table to be used, and the control unit 101 rewrites the color estimation table of the color estimation unit 204 when it is necessary to change the color estimation table to be used. May be.

制御部101は、照射部150に対して、複数波長の非可視光の出力の制御を行う。具体的には、制御部101は、第1の出射部102、第2の出射部103、および、第3の出射部104に、それぞれ所定のデューティー比の駆動信号を出力して、各々から所定の強度の光出力が行われるように制御する。なお、制御部101による光出力制御は、デューティー制御に限られない。   The control unit 101 controls the irradiation unit 150 to output non-visible light having a plurality of wavelengths. Specifically, the control unit 101 outputs a drive signal having a predetermined duty ratio to each of the first emission unit 102, the second emission unit 103, and the third emission unit 104, and determines a predetermined value from each of them. It controls so that the light output of intensity | strength may be performed. The light output control by the control unit 101 is not limited to duty control.

制御部101は、出力センサー112〜114の検出信号を入力する。制御部101は、これらの検出信号に基づいて、第1の出射部102、第2の出射部103、および、第3の出射部104の出力変化を判定できる。   The control unit 101 inputs detection signals from the output sensors 112 to 114. Based on these detection signals, the control unit 101 can determine the output changes of the first emission unit 102, the second emission unit 103, and the third emission unit 104.

制御部101は、さらに、撮像部200の制御を行う。例えば、制御部101は、センサー部202、データ処理部203、および、色推定部204に、タイミング信号を出力して、これらの間の処理タイミングを同期させる。   The control unit 101 further controls the imaging unit 200. For example, the control unit 101 outputs a timing signal to the sensor unit 202, the data processing unit 203, and the color estimation unit 204, and synchronizes the processing timing among them.

制御部101は、さらに、照射部150から出力される非可視光の出力強度に変化が生じていないか出力監視を行い、変化が生じた場合に、色推定部204の処理動作を補正する処理を行う。この処理の詳細は後述する。   The control unit 101 further monitors whether or not the output intensity of the invisible light output from the irradiation unit 150 has changed, and corrects the processing operation of the color estimation unit 204 when the change has occurred. I do. Details of this processing will be described later.

制御部101は、さらに、外部から制御情報を入力し、この制御情報に基づいて、上述した各制御を開始または終了する。   The control unit 101 further receives control information from the outside, and starts or ends each control described above based on the control information.

なお、表示用データを表示するモニタ等の表示デバイスは、カメラ装置100に設けられても良いが、通信ネットワークを介してカメラ装置と通信可能に接続されたものであっても良い。     Note that a display device such as a monitor that displays display data may be provided in the camera apparatus 100, or may be connected to the camera apparatus via a communication network so as to be communicable.

本実施の形態ではカメラ装置100は一つの装置で構成される形態を示したが、被写体への非可視光の照射、照射された被写体を撮像する部分以外は、通信ネットワークを介して接続され、本実施の形態の色推定処理を行うアプリケーションを備えたパーソナルコンピュータや専用のセットトップボックスによっても実現可能である。   In the present embodiment, the camera device 100 is configured as a single device. However, the camera device 100 is connected via a communication network except for the irradiation of non-visible light to the subject and the image of the irradiated subject. The present invention can also be realized by a personal computer equipped with an application for performing the color estimation processing of the present embodiment or a dedicated set-top box.

[光出力強度の低下特性]
図3は、光出力強度の低下特性を示すグラフである。
[Light output intensity reduction characteristics]
FIG. 3 is a graph showing a decrease characteristic of the light output intensity.

第1の出射部102、第2の出射部103、および、第3の出射部104は、図3に示すように、同一条件で駆動した場合でも、経年変化により光の出力強度が低下してくる。   As shown in FIG. 3, even when the first emission unit 102, the second emission unit 103, and the third emission unit 104 are driven under the same conditions, the output intensity of light decreases due to secular change. come.

また、第1の出射部102、第2の出射部103、および、第3の出射部104は、それぞれ異なる材料を用いて3種類の波長IR1〜IR3の赤外光を出力する。このため、図3に示すように、3種類の波長IR1〜IR3の各出力強度の経年変化の度合いは異なる。   Moreover, the 1st output part 102, the 2nd output part 103, and the 3rd output part 104 output the infrared light of three types of wavelengths IR1-IR3, respectively using a different material. For this reason, as shown in FIG. 3, the degree of change with time of each output intensity of the three types of wavelengths IR1 to IR3 is different.

[色推定処理]
図4は、実施の形態1における色推定処理の手順を示すフローチャートである。図6は、色と非可視光の反射率との関係を示すグラフである。図7は、実施の形態1における色変換テーブルの更新例を示す図である。
[Color estimation processing]
FIG. 4 is a flowchart illustrating a procedure of color estimation processing according to the first embodiment. FIG. 6 is a graph showing the relationship between color and reflectance of invisible light. FIG. 7 is a diagram illustrating an example of updating the color conversion table according to the first embodiment.

図4の色推定処理は、例えば、1フレームの画像データの取得毎に、色推定部204により実行される。   The color estimation process in FIG. 4 is executed by the color estimation unit 204 every time one frame of image data is acquired, for example.

色推定処理が開始されると、色推定部204は、データ処理部203から送られた1フレーム分の3波長の非可視光の画像データから、色変換テーブルを用いて、各画素の色の推定を行う(ステップS1)。   When the color estimation process is started, the color estimation unit 204 uses the color conversion table to calculate the color of each pixel from the image data of three wavelengths of invisible light for one frame sent from the data processing unit 203. Estimation is performed (step S1).

ここで、色の推定方法の一つの具体例を説明する。   Here, a specific example of the color estimation method will be described.

図6に示すように、物体の色が異なると、複数の赤外波長IR1,IR2,IR3の反射率が異なってくる。例えば、ある画素において、IR1〜IR3の照射する光出力が一定とした場合、IR1の反射光が10%、IR2の反射光が35%、IR3の反射光が50%とした場合、その画素は青と推定することが出来る。また、IR1の反射光が90%、IR2の反射光が90%、IR3の反射光が90%とした場合、その画素は赤と推定することが出来る。したがって、反射した赤外波長IR1,IR2,IR3の強度、又は、この強度の割合から物体の色を推定することができる。ここでは、赤、青、緑の反射特性だけで判断したが、実際には、同様の考え方にて、いろいろな色を推定することが出来る。   As shown in FIG. 6, the reflectance of a plurality of infrared wavelengths IR1, IR2, and IR3 varies depending on the color of the object. For example, in a pixel, when the light output of IR1 to IR3 is constant, the reflected light of IR1 is 10%, the reflected light of IR2 is 35%, and the reflected light of IR3 is 50%. It can be estimated as blue. If the reflected light of IR1 is 90%, the reflected light of IR2 is 90%, and the reflected light of IR3 is 90%, the pixel can be estimated to be red. Therefore, the color of the object can be estimated from the intensity of the reflected infrared wavelengths IR1, IR2, and IR3, or the ratio of the intensity. Here, the determination is made based only on the reflection characteristics of red, blue, and green, but in practice, various colors can be estimated based on the same concept.

色推定テーブルは、図7(A)に示すように、3波長の反射光の強度(又は強度の割合)から算出される1つの「計算値」と、色を表わす「色データ」とが、対応づけられたルックアップテーブルである。   As shown in FIG. 7A, the color estimation table includes one “calculated value” calculated from the intensities (or intensity ratios) of reflected light of three wavelengths and “color data” representing colors. It is a lookup table that is associated.

色推定テーブルの「計算値」は、例えば、次式1の関数Fが示す値である。関数Fは、1画素における複数の赤外波長IR1,IR2,IR3の強度、又は、強度の割合「IIR1,IIR2,IIR3」を変数とする関数である。関数Fは、例えば、赤外波長IR1,IR2,IR3の強度の割合が異なれば、異なる値を示すように設計される。また、関数Fは、推定結果の色が近ければ関数値も近くなるように設計される。 The “calculated value” in the color estimation table is, for example, a value indicated by the function F in the following equation 1. The function F is a function having as variables the intensities of a plurality of infrared wavelengths IR1, IR2, and IR3 or intensity ratios “I IR1 , I IR2 , I IR3 ” in one pixel. The function F is designed to show different values when the intensity ratios of the infrared wavelengths IR1, IR2, and IR3 are different, for example. In addition, the function F is designed so that the function value is close when the color of the estimation result is close.

F=F(IIR1,IIR2,IIR3) ・・・(式1) F = F (I IR1 , I IR2 , I IR3 ) (Formula 1)

色推定テーブルの「色データ」は、特に制限されないが、3原色の強度を表わすRGBデータから輝度データを除いた色差データである。色差データとは、一般的な色差信号を表わす2つの値(図7では第1色差値、第2色差値と記す)から構成されるデータである。   The “color data” in the color estimation table is not particularly limited, but is color difference data obtained by removing luminance data from RGB data representing the intensity of the three primary colors. The color difference data is data composed of two values (referred to as a first color difference value and a second color difference value in FIG. 7) representing a general color difference signal.

色推定テーブルには、全ての計算値と全ての色データとの関係が示されていてもよい。また、色推定テーブルには、途中を間引いた一部の計算値と一部の色データとの関係のみが示されていてもよい。   The color estimation table may indicate the relationship between all calculated values and all color data. Further, the color estimation table may indicate only the relationship between a part of calculated values obtained by thinning the middle and a part of the color data.

全ての関係が示されている前者の場合には、色推定部204は、先ず、対象画素における複数の赤外波長IR1,IR2,IR3の強度から、関数Fを用いて計算値を求める。次に、色推定部204は、求められた計算値に対応する色データを色推定テーブルから引き出すことで、対象画素の色の推定を完了する。   In the former case where all the relationships are shown, the color estimation unit 204 first obtains a calculated value using the function F from the intensities of the plurality of infrared wavelengths IR1, IR2, IR3 in the target pixel. Next, the color estimation unit 204 completes the estimation of the color of the target pixel by extracting color data corresponding to the calculated value from the color estimation table.

一方、一部の関係のみが示されている後者の場合には、色推定部204は、計算値を求めた後、色推定テーブルの中から前後直近の計算値を見つけ、前後直近の2つの色データを抽出する。次に、色推定部204は、これら2つの色データの中間の色データを、対象画素の色として推定する。   On the other hand, in the latter case in which only a part of the relationship is shown, the color estimation unit 204 obtains the calculated value, finds the calculated value nearest to the front and rear from the color estimation table, and Extract color data. Next, the color estimation unit 204 estimates color data intermediate between these two color data as the color of the target pixel.

なお、この色の推定方法は一例であり、色の推定方法は、この具体例に限られるものではない。   Note that this color estimation method is an example, and the color estimation method is not limited to this specific example.

ステップS1の色推定の処理では、色推定部204は、1フレームの全画素について色推定の処理を実行する。   In the color estimation process in step S1, the color estimation unit 204 executes the color estimation process for all pixels in one frame.

色推定が完了したら、色推定部204は、色の推定結果を反映させて、1フレームのカラー画像の表示用データを生成する(ステップS2)。そして、色推定部204は、これを装置外部に出力して、1回の色推定処理を終了する。   When the color estimation is completed, the color estimation unit 204 reflects the color estimation result and generates display data for a one-frame color image (step S2). Then, the color estimation unit 204 outputs this to the outside of the apparatus and ends one color estimation process.

色推定部204は、図4の色推定処理を、複数フレームの画像データに対して繰り返し実行することで、非可視光の動画像データからカラーの動画像データを生成して出力する。   The color estimation unit 204 repeatedly generates the color moving image data from the non-visible moving image data by repeatedly executing the color estimation processing of FIG. 4 on the image data of a plurality of frames.

[出力監視&補正処理]
図5は、実施の形態1における出力監視&補正処理の手順を示すフローチャートである。図7は、実施の形態1における色変換テーブルの更新例を示す図である。
[Output monitoring & correction processing]
FIG. 5 is a flowchart showing a procedure of output monitoring & correction processing in the first embodiment. FIG. 7 is a diagram illustrating an example of updating the color conversion table according to the first embodiment.

図5の出力監視&補正処理は、制御部101により実行される。出力監視&補正処理の実行タイミングは、例えば、1フレームの画像データが取得される毎、複数フレームの画像データが取得される毎、所定日数毎など、様々に設定することができる。   The output monitoring and correction process in FIG. 5 is executed by the control unit 101. The execution timing of the output monitoring & correction process can be set variously, for example, every time one frame of image data is acquired, every time a plurality of frames of image data are acquired, every predetermined number of days, and the like.

制御部101は、初期状態で、第1の出射部102、第2の出射部103、および、第3の出射部104の初期の出力強度を、初期の出力基準値(Ref_IR1、Ref_IR2、Ref_IR3)として保持している。   In the initial state, the control unit 101 sets initial output intensities of the first emission unit 102, the second emission unit 103, and the third emission unit 104 to initial output reference values (Ref_IR1, Ref_IR2, Ref_IR3). Hold as.

出力監視&補正処理が開始されると、制御部101は、先ず、出力センサー112〜114の出力強度(IR1出力値、IR2出力値、IR3出力値)を取得する(ステップS3)。   When the output monitoring & correction process is started, the control unit 101 first acquires output intensities (IR1 output value, IR2 output value, IR3 output value) of the output sensors 112 to 114 (step S3).

次いで、制御部101は、各出力強度に変化が無いか、取得した出力強度と出力基準値とを比較する(ステップS4)。この比較は、色の推定に影響しない程度の小さな差異は無視されるように行われてもよい。   Next, the control unit 101 compares the acquired output intensity with the output reference value for whether there is any change in each output intensity (step S4). This comparison may be made such that small differences that do not affect color estimation are ignored.

比較の結果、出力強度に変動なしと判定されれば、制御部101は、色推定テーブルの更新を行わずに(ステップS5)、出力監視&補正処理を終了する。制御部101は、ステップS5では、特に何らの処理を行わない。   As a result of the comparison, if it is determined that there is no change in the output intensity, the control unit 101 ends the output monitoring and correction process without updating the color estimation table (step S5). In step S5, the control unit 101 does not perform any processing.

一方、比較の結果、出力強度に変更ありと判定されれば、制御部101は、先ず、次の比較のために出力基準値を更新する(ステップS6)。すなわち、制御部101は、新たな出力基準値として、変動ありと判定された出力強度の値を設定する。   On the other hand, if it is determined that the output intensity is changed as a result of the comparison, the control unit 101 first updates the output reference value for the next comparison (step S6). That is, the control unit 101 sets the value of the output intensity determined to be varied as a new output reference value.

続いて、制御部101は、出力強度の変動に応じて、色推定部204が使用する色推定テーブルを更新する(ステップS7)。   Subsequently, the control unit 101 updates the color estimation table used by the color estimation unit 204 according to the change in output intensity (step S7).

例えば、波長IR1の出力が5%低下したときには、被写体10の色が同一であっても、被写体10からの波長IR1の反射光の割合が、その分、低下する。この場合、色推定テーブルの計算値の値を、波長IR1の割合の低下分だけ補正することで、色推定の誤差を低減することができる。   For example, when the output of the wavelength IR1 decreases by 5%, even if the subject 10 has the same color, the ratio of the reflected light of the wavelength IR1 from the subject 10 decreases accordingly. In this case, it is possible to reduce the color estimation error by correcting the calculated value of the color estimation table by the decrease in the ratio of the wavelength IR1.

従って、制御部101は、色推定部204が使用する色推定テーブルを、各波長の出力強度の変動に応じた色推定テーブルに更新する。例えば、図7(A)の色推定テーブルから図7(B)の色推定テーブルへ変更される。そして、この出力監視&補正処理を終了する。   Therefore, the control unit 101 updates the color estimation table used by the color estimation unit 204 to a color estimation table corresponding to the output intensity variation of each wavelength. For example, the color estimation table in FIG. 7A is changed to the color estimation table in FIG. Then, the output monitoring & correction process is terminated.

以上のように、実施の形態1のカメラ装置100によれば、色推定テーブルの更新により、第1の出射部102、第2の出射部103、および、第3の出射部104に出力変動が生じた場合でも、色推定部204は色推定を正確に行うことができる。   As described above, according to the camera device 100 of the first embodiment, output fluctuations occur in the first emission unit 102, the second emission unit 103, and the third emission unit 104 due to the update of the color estimation table. Even if it occurs, the color estimation unit 204 can accurately perform color estimation.

また、実施の形態1のカメラ装置100によれば、出力センサー112〜114は、装置筐体300の内部で、第1の出射部102、第2の出射部103、および、第3の出射部104の漏れ光が及ぶ箇所に配置されている。この構成により、実施の形態1では、特に、第1の出射部102、第2の出射部103、および、第3の出射部104の経年変化による出力低下を、正確に監視することができる。   Further, according to the camera device 100 of the first embodiment, the output sensors 112 to 114 are provided in the device housing 300 with the first emission unit 102, the second emission unit 103, and the third emission unit. 104 is disposed at a location where the leaked light reaches. With this configuration, in the first embodiment, in particular, it is possible to accurately monitor a decrease in output due to aging of the first emission unit 102, the second emission unit 103, and the third emission unit 104.

(実施の形態2)
実施の形態2のカメラ装置100は、色推定の方法および色推定の補正方法が、実施の形態1と異なり、その他の構成は実施の形態1と同様のものである。実施の形態1と同様の構成については詳細な説明を省略する。
(Embodiment 2)
The camera apparatus 100 according to the second embodiment is different from the first embodiment in the color estimation method and the color estimation correction method, and the other configurations are the same as those in the first embodiment. Detailed description of the same configuration as that of the first embodiment is omitted.

[色推定処理]
図8は、実施の形態2における色推定処理の手順を示すフローチャートである。
[Color estimation processing]
FIG. 8 is a flowchart showing the procedure of color estimation processing in the second embodiment.

実施の形態2の色推定部204は、各画素の推定色を、色推定計算式を用いて求める(ステップS11)。色推定計算式は、特に制限されるものでないが、次式2のように表わされる。色推定計算式は、各画素における複数の赤外波長IR1,IR2,IR3の強度、又は、強度の割合を示す値「IIR1,IIR2,IIR3」から、色データ(Cb,Cr)を求める式である。色データは、例えば、3原色の強度を示すRGBデータから輝度データを除去した色差データである。 The color estimation unit 204 according to the second embodiment obtains an estimated color of each pixel using a color estimation calculation formula (step S11). The color estimation calculation formula is not particularly limited, but is expressed as the following formula 2. The color estimation calculation formula uses color data (Cb, Cr) from values “I IR1 , I IR2 , I IR3 ” indicating the intensities or intensity ratios of a plurality of infrared wavelengths IR1, IR2, IR3 in each pixel. This is the expression to be obtained. The color data is color difference data obtained by removing luminance data from RGB data indicating the intensity of the three primary colors, for example.

Cb = f1(a×IIR1,b×IIR2,c×IIR3
Cr = f2(a×IIR1,b×IIR2,c×IIR3) ・・・(式2)
ここで、f1は、「a×IIR1,b×IIR2,c×IIR3」を3つの変数とする関数、f2は、「a×IIR1,b×IIR2,c×IIR3」を3つの変数とする関数、a、b、cは、3つの定数パラメータである。
Cb = f1 (a × I IR1 , b × I IR2 , c × I IR3 )
Cr = f2 (a * IIR1 , b * IIR2 , c * IIR3 ) (Formula 2)
Here, f1 is a function having “a × I IR1 , b × I IR2 , c × I IR3 ” as three variables, and f2 is “a × I IR1 , b × I IR2 , c × I IR3 ”. The functions, a, b, and c, which are three variables, are three constant parameters.

色推定部204は、各画素の色推定を行ったら、色の推定結果に基づき、1フレームのカラー画像の表示用データを生成して、これを装置外部に出力する(ステップS12)。   After estimating the color of each pixel, the color estimation unit 204 generates display data for a color image of one frame based on the color estimation result, and outputs this to the outside of the apparatus (step S12).

[出力監視&補正処理]
図9は、実施の形態2における出力監視&補正処理の手順を示すフローチャートである。図9の初期基準値、ステップS13、S14、S16は、図5(実施の形態1)の初期基準値、ステップS3、S4、S6と同一である。
[Output monitoring & correction processing]
FIG. 9 is a flowchart illustrating a procedure of output monitoring and correction processing according to the second embodiment. The initial reference values in FIG. 9 and steps S13, S14, and S16 are the same as the initial reference values and steps S3, S4, and S6 in FIG. 5 (Embodiment 1).

実施の形態2では、ステップS14で出力の変動なしと判定されたら、制御部101は、色推定計算式のパラメータを更新せずに(ステップS15)、このまま、出力監視&補正処理を終了する。   In the second embodiment, if it is determined in step S14 that there is no change in output, the control unit 101 ends the output monitoring and correction processing as it is without updating the parameters of the color estimation calculation formula (step S15).

一方、ステップS14で出力変動ありと判定されたら、制御部101は、ステップS16の処理の後、出力の変動に従って、色推定計算式のパラメータを更新する(ステップS17)。そして、出力監視&補正処理を終了する。   On the other hand, if it is determined in step S14 that there is an output fluctuation, the control unit 101 updates the parameters of the color estimation calculation formula according to the output fluctuation after the process of step S16 (step S17). Then, the output monitoring & correction process ends.

パラメータの更新は、例えば、第1の出射部102の出力強度が5%低下したら、式2のパラメータaを、強度低下を補う倍率で乗算する(例えば、100/95を乗算する)ことで行う。   For example, when the output intensity of the first emitting unit 102 decreases by 5%, the parameter is updated by multiplying the parameter a in Expression 2 by a magnification that compensates for the decrease in intensity (for example, multiplying by 100/95). .

以上のように、実施の形態2のカメラ装置100によれば、色推定計算式のパラメータの更新により、第1の出射部102、第2の出射部103、および、第3の出射部104に出力変動が生じた場合でも、色推定部204は色推定を正確に行うことができる。   As described above, according to the camera device 100 of the second embodiment, the first emission unit 102, the second emission unit 103, and the third emission unit 104 are updated by updating the parameters of the color estimation calculation formula. Even when output fluctuation occurs, the color estimation unit 204 can accurately perform color estimation.

なお、上記実施の形態2では、光の出力変動に従って、色推定計算式中のパラメータを更新する構成を一例として示したが、光の出力変動に従って、色推定計算式自体を変形および更新する構成としてもよい。   In the second embodiment, the configuration in which the parameter in the color estimation calculation formula is updated according to the light output variation is shown as an example. However, the color estimation calculation formula itself is modified and updated according to the light output variation. It is good.

(実施の形態3)
実施の形態3のカメラ装置100は、第1の出射部102、第2の出射部103、および、第3の出射部104の出力変化を監視する構成を、実施の形態1又は実施の形態2と異ならせたものである。実施の形態3のその他の構成、色推定処理、および、出力監視&補正処理は、実施の形態1又は実施の形態2で示したものと同様である。同様の構成については詳細な説明を省略する。
(Embodiment 3)
The camera device 100 according to the third embodiment is configured to monitor the output changes of the first emission unit 102, the second emission unit 103, and the third emission unit 104 in the first or second embodiment. It is something different. Other configurations, color estimation processing, and output monitoring & correction processing of the third embodiment are the same as those described in the first or second embodiment. Detailed description of the same configuration is omitted.

図10は、実施の形態3のカメラ装置100の構成図である。図11(A)は、実施の形態3における出力センサーの具体的な配置例を示す斜視図、図11(B)はその内部透視図である。   FIG. 10 is a configuration diagram of the camera apparatus 100 according to the third embodiment. FIG. 11A is a perspective view showing a specific arrangement example of output sensors in Embodiment 3, and FIG. 11B is an internal perspective view thereof.

図10に示すように、実施の形態3のカメラ装置100は、第1の出射部102、第2の出射部103、および、第3の出射部104の出力強度をそれぞれ検出する複数の出力センサー115を備えている。複数の出力センサー115の各出力は、制御部101に個別に入力される。制御部101および複数の出力センサー115は光の出力強度の変化を監視する監視部として機能する。   As shown in FIG. 10, the camera device 100 according to the third embodiment includes a plurality of output sensors that respectively detect output intensities of the first emission unit 102, the second emission unit 103, and the third emission unit 104. 115. Each output of the plurality of output sensors 115 is individually input to the control unit 101. The control unit 101 and the plurality of output sensors 115 function as a monitoring unit that monitors changes in the output intensity of light.

出力センサー115は、例えば、フォトダイオードなど、非可視光の受光量を検出できる光センサーである。複数の出力センサー115は、第1の出射部102、第2の出射部103、および、第3の出射部104から出力され、照明光学部105を通過した光の漏れ光又は拡散光が照射される箇所にそれぞれ配置される。   The output sensor 115 is an optical sensor that can detect the amount of received invisible light, such as a photodiode. The plurality of output sensors 115 are output from the first emission unit 102, the second emission unit 103, and the third emission unit 104, and are irradiated with light leakage light or diffused light that has passed through the illumination optical unit 105. It is arranged in each place.

ここでは、図11(A),(B)に示すように、第1の出射部102、第2の出射部103、および、第3の出射部104が、撮像レンズ201Aを取り囲むように配置されている場合を、具体例として説明する。ここで、上記の撮像レンズ201Aは、図10の撮像光学部201の構成要素である。   Here, as shown in FIGS. 11A and 11B, the first emitting unit 102, the second emitting unit 103, and the third emitting unit 104 are arranged so as to surround the imaging lens 201A. The case will be described as a specific example. Here, the imaging lens 201A is a component of the imaging optical unit 201 in FIG.

この具体例では、第1の出射部102、第2の出射部103、および、第3の出射部104より外側には、非可視光を透過する保護フィルター320が設けられている。また、非可視光の出射口には、光の出射側へ張り出て、保護フィルター320の周縁を囲うカバー310が設けられている。保護フィルター320は、図10の照明光学部105の構成要素である。   In this specific example, a protective filter 320 that transmits invisible light is provided outside the first emission unit 102, the second emission unit 103, and the third emission unit 104. In addition, a cover 310 that protrudes toward the light emission side and surrounds the periphery of the protective filter 320 is provided at the emission port of the invisible light. The protection filter 320 is a component of the illumination optical unit 105 in FIG.

このような構成の場合、複数の出力センサー115は、図11(A),(B)に示すように、カバー310の内周側に配置することができる。   In the case of such a configuration, the plurality of output sensors 115 can be disposed on the inner peripheral side of the cover 310 as shown in FIGS.

複数の出力センサー115は、3組に分けられ、第1組の出力センサー115は第1の出射部102の近傍に配置され、第2組の出力センサー115は第2の出射部103の近傍に配置され、第3組の出力センサー115は第3の出射部104の近傍に配置される。   The plurality of output sensors 115 are divided into three sets, the first set of output sensors 115 is arranged in the vicinity of the first emission unit 102, and the second set of output sensors 115 is in the vicinity of the second emission unit 103. The third output sensor 115 is arranged in the vicinity of the third emitting unit 104.

このような配置により、第1の出射部102、第2の出射部103、および、第3の出射部104から出射され、照明光学部105を通過した各波長の非可視光の漏れ光または拡散光の強度が、3組の出力センサー115により検出される。   With such an arrangement, leakage light or diffusion of invisible light of each wavelength emitted from the first emission unit 102, the second emission unit 103, and the third emission unit 104 and passing through the illumination optical unit 105. The intensity of light is detected by three sets of output sensors 115.

第1の出射部102、第2の出射部103、および、第3の出射部104の経年変化による出力低下、或いは、照明光学部105の曇りなどにより、被写体10に照射される非可視光の強度が変化したとする。この場合、3組の出力センサー115の検出信号からこの変化を判定することができる。   Invisible light irradiated on the subject 10 due to a decrease in output due to aging of the first emission unit 102, the second emission unit 103, and the third emission unit 104, or clouding of the illumination optical unit 105, etc. Assume that the intensity has changed. In this case, this change can be determined from the detection signals of the three sets of output sensors 115.

以上のように、実施の形態3のカメラ装置100によれば、複数の出力センサー115が、照明光学部105を通過した非可視光の漏れ光又は拡散光を受光して光強度を検出する。この構成により、第1の出射部102、第2の出射部103、および、第3の出射部104の経年変化、および、照明光学部105の劣化等によるに出力低下を、正確に監視することができる。   As described above, according to the camera device 100 of the third embodiment, the plurality of output sensors 115 receive the invisible leakage light or diffused light that has passed through the illumination optical unit 105 and detect the light intensity. With this configuration, it is possible to accurately monitor a decrease in output due to aging of the first emission unit 102, the second emission unit 103, and the third emission unit 104, deterioration of the illumination optical unit 105, and the like. Can do.

そして、出射光の出力変化があった場合に、色推定の処理動作を補正することで、色推定が正確に行われる。   Then, when there is a change in output of the emitted light, the color estimation is accurately performed by correcting the color estimation processing operation.

以上、本発明の各実施の形態について説明した。   The embodiments of the present invention have been described above.

なお、上記実施の形態では、光源としてLEDを用いているが、光源はLEDに限定されるものではなく、レーザ、レーザ若しくはLED等で励起された蛍光体からの発光、高圧水銀ランプ、等、所望の波長の光を発する光源であれば、全て適用可能である。   In the above embodiment, an LED is used as the light source. However, the light source is not limited to the LED, and light emission from a phosphor excited by a laser, laser, LED, or the like, a high-pressure mercury lamp, etc. Any light source that emits light of a desired wavelength is applicable.

また、上記実施の形態では、色推定処理として、輝度を除いた色差データを推定する処理を説明したが、色推定処理は、輝度を含んだRGBデータを推定する処理としてもよい。   In the above-described embodiment, the process of estimating color difference data excluding luminance is described as the color estimation process. However, the color estimation process may be a process of estimating RGB data including luminance.

また、上記実施の形態では、照射部150、制御部101、および、撮像部200が、一体化された構成を例にとって説明した。しかしながら、制御部101および色推定部204は、その他の構成要素と別構成とし、有線又は無線の伝送路で結んだ構成とすることもできる。また、制御部101および色推定部204は、ソフトウェアからなる機能モジュールとして汎用コンピュータ上に構成することもできる。   Further, in the above embodiment, the configuration in which the irradiation unit 150, the control unit 101, and the imaging unit 200 are integrated has been described as an example. However, the control unit 101 and the color estimation unit 204 may be configured separately from other components and connected by a wired or wireless transmission path. Further, the control unit 101 and the color estimation unit 204 can be configured on a general-purpose computer as a functional module made of software.

本発明は、暗視カメラ等のカメラ装置に利用できる。   The present invention can be used for a camera device such as a night vision camera.

100 カメラ装置
101 制御部
102 第1の出射部
103 第2の出射部
104 第3の出射部
105 照明光学部
105a レンズ
112,113,114,115 出力センサー
140 基板
150 照射部
200 撮像部
201 撮像光学部
201A 撮像レンズ
202 センサー部
203 データ処理部
204 色推定部
300 装置筐体
310 カバー
320 保護フィルター


DESCRIPTION OF SYMBOLS 100 Camera apparatus 101 Control part 102 1st output part 103 2nd output part 104 3rd output part 105 Illumination optical part 105a Lens 112,113,114,115 Output sensor 140 Substrate 150 Irradiation part 200 Imaging part 201 Imaging optical Unit 201A imaging lens 202 sensor unit 203 data processing unit 204 color estimation unit 300 device housing 310 cover 320 protection filter


Claims (6)

複数の異なる波長の非可視光をそれぞれ出力する複数の光源と、
前記複数の異なる波長の非可視光が照射された被写体を撮像する撮像部と、
前記撮像された画像データにおける前記複数の異なる波長の非可視光の強度から色を推定して、カラー画像を推定する色推定部と、
前記複数の光源の出力強度を監視する監視部と、
前記監視部からの情報に基づき前記色推定部の色の推定動作を補正する補正部と、
を具備するカメラ装置。
A plurality of light sources each outputting a plurality of different wavelengths of invisible light,
An imaging unit that images a subject irradiated with invisible light of the plurality of different wavelengths;
A color estimation unit that estimates a color image by estimating a color from the invisible light intensities of the plurality of different wavelengths in the captured image data;
A monitoring unit for monitoring output intensities of the plurality of light sources;
A correction unit that corrects the color estimation operation of the color estimation unit based on information from the monitoring unit;
A camera apparatus comprising:
前記複数の異なる波長の非可視光の強度と色とを対応づけたルックアップテーブルを有し、
前記色推定部は、
前記ルックアップテーブルに基づいて色の推定を行い、
前記補正部は、
前記複数の光源の出力強度の変化に従って、前記ルックアップテーブルを更新する、
請求項1記載のカメラ装置。
A lookup table associating intensities and colors of the plurality of different wavelengths of invisible light;
The color estimation unit
Color estimation based on the lookup table;
The correction unit is
Updating the lookup table according to a change in output intensity of the plurality of light sources;
The camera device according to claim 1.
前記色推定部は、
計算式に従って前記複数の異なる波長の非可視光の強度から色を算出し、
前記補正部は、
前記複数の光源の出力強度の変化に従って、前記計算式を更新する、
請求項1記載のカメラ装置。
The color estimation unit
Calculate the color from the invisible light intensity of the plurality of different wavelengths according to the calculation formula,
The correction unit is
Updating the calculation formula according to a change in output intensity of the plurality of light sources;
The camera device according to claim 1.
前記監視部は、
装置筐体内で前記光源の漏れ光が及ぶ位置に配置された出力センサーを有し、
前記出力センサーの出力に基づき前記出力強度を監視する、
請求項1に記載のカメラ装置。
The monitoring unit
It has an output sensor arranged at a position where the leakage light of the light source reaches in the device casing,
Monitoring the output intensity based on the output of the output sensor;
The camera device according to claim 1.
前記監視部は、
前記光源から装置外部に出力された光を検出する出力センサーを有し、
前記出力センサーの出力に基づき前記出力強度を監視する、
請求項1に記載のカメラ装置。
The monitoring unit
An output sensor that detects light output from the light source to the outside of the device;
Monitoring the output intensity based on the output of the output sensor;
The camera device according to claim 1.
複数の異なる波長の非可視光を被写体にそれぞれ出力し、
前記出力される非可視光の出力強度を監視し、
前記複数の異なる波長の非可視光が照射された被写体を撮像し、
前記撮像された画像データにおける前記複数の異なる波長の非可視光の強度から色の推定を行って、カラー画像を推定し、
前記監視された出力強度の情報に基づき前記色の推定の処理動作を補正する、
撮影方法。



Output multiple invisible lights of different wavelengths to the subject,
Monitoring the output intensity of the output invisible light;
Imaging a subject irradiated with invisible light of the plurality of different wavelengths,
Estimating the color from the invisible light intensity of the plurality of different wavelengths in the captured image data, estimating a color image,
Correcting the color estimation processing operation based on the monitored output intensity information;
Shooting method.



JP2013114052A 2013-05-30 2013-05-30 Camera apparatus and imaging method Pending JP2014233038A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013114052A JP2014233038A (en) 2013-05-30 2013-05-30 Camera apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013114052A JP2014233038A (en) 2013-05-30 2013-05-30 Camera apparatus and imaging method

Publications (1)

Publication Number Publication Date
JP2014233038A true JP2014233038A (en) 2014-12-11

Family

ID=52126180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013114052A Pending JP2014233038A (en) 2013-05-30 2013-05-30 Camera apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP2014233038A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109816734A (en) * 2019-01-23 2019-05-28 武汉精立电子技术有限公司 Camera calibration method based on target optical spectrum

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109816734A (en) * 2019-01-23 2019-05-28 武汉精立电子技术有限公司 Camera calibration method based on target optical spectrum

Similar Documents

Publication Publication Date Title
US11962902B2 (en) Image sensor and electronic apparatus
KR100822053B1 (en) Apparatus and method for taking a picture
US20150062347A1 (en) Image processing methods for visible and infrared imaging
US9319597B2 (en) System and method for color imaging under low light
JP2012029269A (en) Imaging apparatus and projection type image display device
US11215505B2 (en) Calibration apparatus, calibration method, spectral camera, and display apparatus
JP7434487B2 (en) Image processing device, projection system, image processing method, and image processing program
US20180010966A1 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP2014122847A (en) Image correction device, image correction program and image correction method
US20110090379A1 (en) Image sensing system and correction method
US8570433B1 (en) Coloration artifact reduction
US10855962B2 (en) Projector, color correction system, and control method of projector
JP2014233038A (en) Camera apparatus and imaging method
CN113747004B (en) Imaging device, portable terminal device, and imaging method
US9906705B2 (en) Image pickup apparatus
JP2022031323A (en) Display control device, light emission control device, display control method, light emission control method, and program
JP2009222958A (en) Data generating device for color unevenness correction and data generating method for color unevenness correction
JP5818451B2 (en) Imaging apparatus and control method
JP2010205881A (en) White adjusting device of led backlight
JP7142140B2 (en) PROJECTION DEVICE, CONTROL METHOD AND CONTROL PROGRAM THEREOF
JP6277695B2 (en) Imaging device, adjustment device, and adjustment method
US20210014433A1 (en) Image Processing Method and Image Processing System Capable of Calibrating Images
JP2014150471A (en) Imaging apparatus
TWI572207B (en) Photographic image adjustment method
JP2014143478A (en) Camera device, and imaging method