JP2014140117A - Camera apparatus and imaging method - Google Patents

Camera apparatus and imaging method Download PDF

Info

Publication number
JP2014140117A
JP2014140117A JP2013008388A JP2013008388A JP2014140117A JP 2014140117 A JP2014140117 A JP 2014140117A JP 2013008388 A JP2013008388 A JP 2013008388A JP 2013008388 A JP2013008388 A JP 2013008388A JP 2014140117 A JP2014140117 A JP 2014140117A
Authority
JP
Japan
Prior art keywords
unit
subject
light
wavelength
invisible light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013008388A
Other languages
Japanese (ja)
Inventor
Yuichi Hatase
雄一 畑瀬
Shinichi Kadowaki
愼一 門脇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2013008388A priority Critical patent/JP2014140117A/en
Publication of JP2014140117A publication Critical patent/JP2014140117A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce power consumption by switching illumination operation according to the movement of an object.SOLUTION: A camera apparatus 100 emits a beam of non-visible light to an object 10 to take an image of the object 10. An irradiation part 150 performs a first operation to irradiate the object 10 with a beam of non-visible light which has plural different wavelengths and a second operation with power consumption smaller than that of the first operation. A sensor unit 112 receives the light which is reflected at the object 10 and collected by an imaging optical part 111 to take an image of the object 10. When the control unit 101 detects that the object 10 is still based on taken image data of the object 10, the control unit 101 controls the irradiation part 10 to perform the second operation.

Description

本発明は、非可視光を被写体に照射して被写体を撮像するカメラ装置及び撮像方法に関する。   The present invention relates to a camera device and an imaging method for imaging a subject by irradiating the subject with invisible light.

従来、非可視光の一種である赤外光を照射した被写体を撮像してカラー表示する暗視カメラが知られている(例えば、特許文献1)。特許文献1の暗視カメラは、複数の赤外光を時間をずらして被写体に照射し、被写体からの反射光を測定するとともにカラーテーブルを用いて色推定を行う。そして、特許文献1の暗視カメラは、色推定の推定結果に基づいて被写体をカラー表示する。   Conventionally, a night vision camera that captures and displays a color image of a subject irradiated with infrared light, which is a kind of invisible light, is known (for example, Patent Document 1). The night-vision camera of Patent Document 1 irradiates a subject with a plurality of infrared lights at different times, measures reflected light from the subject, and performs color estimation using a color table. And the night vision camera of patent document 1 displays a to-be-photographed object color based on the estimation result of color estimation.

図1は、特許文献1の暗視カメラが照射する赤外光の照射のタイミングを示す図である。   FIG. 1 is a diagram illustrating the irradiation timing of infrared light emitted from the night vision camera of Patent Document 1. In FIG.

図1より、特許文献1の暗視カメラは、出射強度S0及びデューティー比D0の波長λ1の赤外光を照射し、波長λ1の赤外光の照射が終了した後に、出射強度S0及びデューティー比D0の波長λ2の赤外光を照射する。また、特許文献1の暗視カメラは、波長λ2の赤外光の照射が終了した後に、続いて出射強度S0及びデューティー比D0の波長λ3の赤外光を照射する。そして、これ以後は、この順番で赤外光を波長毎に時間をずらして繰り返し照射する。   As shown in FIG. 1, the night vision camera of Patent Document 1 irradiates infrared light with a wavelength λ1 having an emission intensity S0 and a duty ratio D0, and after the irradiation with infrared light with a wavelength λ1 is completed, the emission intensity S0 and the duty ratio. Irradiate infrared light having a wavelength λ2 of D0. The night-vision camera of Patent Document 1 irradiates infrared light having a wavelength λ3 having an emission intensity S0 and a duty ratio D0 after the irradiation of infrared light having a wavelength λ2 is completed. After that, infrared light is repeatedly irradiated in this order at different wavelengths for different wavelengths.

特開2011−50049号公報JP 2011-50049 A

しかしながら、特許文献1の暗視カメラにおいては、被写体を撮像する際に、波長λ1〜波長λ3の全ての波長の非可視光を順番に繰り返し照射するため、各波長の非可視光の出射に伴って電力を消費し続けるため、低消費電力にすることができないという課題がある。   However, in the night-vision camera of Patent Document 1, when imaging a subject, invisible light of all wavelengths λ1 to λ3 is repeatedly irradiated in order, so that the invisible light of each wavelength is emitted. Therefore, there is a problem that low power consumption cannot be achieved.

本発明の目的は、被写体の動きに応じて、被写体を照射する際の動作を切り替えることにより、低消費電力にすることができるカメラ装置及び撮像方法を提供することである。   An object of the present invention is to provide a camera device and an imaging method capable of reducing power consumption by switching an operation when irradiating a subject in accordance with the movement of the subject.

本発明に係るカメラ装置は、非可視光を被写体に照射して前記被写体を撮像するカメラ装置であって、複数の異なる波長を有する非可視光を前記被写体に照射する第1の動作と、前記第1の動作よりも低消費電力である第2の動作とを行う照射部と、前記照射部により照射された前記被写体を撮像する撮像部と、前記撮像部により撮像した前記被写体の画像データに基づいて前記被写体が静止していることを検出した場合に、前記照射部に対して前記第2の動作を行わせる制御部と、を有する。   The camera device according to the present invention is a camera device that irradiates a subject with invisible light and images the subject, and includes a first operation for irradiating the subject with invisible light having a plurality of different wavelengths, An irradiation unit that performs a second operation that consumes less power than the first operation, an imaging unit that images the subject irradiated by the irradiation unit, and image data of the subject captured by the imaging unit And a control unit that causes the irradiation unit to perform the second operation when it is detected that the subject is stationary.

本発明に係る撮像方法は、非可視光を被写体に照射して前記被写体を撮像するカメラ装置における撮像方法であって、複数の異なる波長を有する非可視光を照射する第1の動作と、前記第1の動作よりも低消費電力である第2の動作とを行うステップと、前記照射された前記被写体を撮像するステップと、前記撮像した前記被写体の画像データに基づいて前記被写体が静止していることを検出した場合に、前記第2の動作を行わせるステップと、を有する。   An imaging method according to the present invention is an imaging method in a camera apparatus that images a subject by irradiating the subject with invisible light, the first operation for irradiating the invisible light having a plurality of different wavelengths, Performing a second operation with lower power consumption than the first operation, imaging the irradiated subject, and stopping the subject based on the captured image data of the subject. A step of causing the second operation to be performed when it is detected.

本発明によれば、被写体の動きに応じて、被写体を照射する際の動作を切り替えることにより、低消費電力にすることができる。   According to the present invention, the power consumption can be reduced by switching the operation when irradiating the subject in accordance with the movement of the subject.

特許文献1の暗視カメラが照射する赤外光の照射のタイミングを示す図The figure which shows the irradiation timing of the infrared light which the night vision camera of patent document 1 irradiates 本発明の実施の形態1に係るカメラ装置の構成を示すブロック図1 is a block diagram showing a configuration of a camera device according to Embodiment 1 of the present invention. 本発明の実施の形態1に係るカメラ装置の動作を示すフロー図The flowchart which shows operation | movement of the camera apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1における出射部から出射される非可視光の発光のタイミングと出射強度との関係を示す図The figure which shows the relationship between the light emission timing of the invisible light radiate | emitted from the radiation | emission part in Embodiment 1 of this invention, and radiation | emission intensity | strength. 本発明の実施の形態1に係るカメラ装置により撮像される被写体の波長と反射率との関係を示す図The figure which shows the relationship between the wavelength of the to-be-photographed object imaged with the camera apparatus which concerns on Embodiment 1 of this invention, and a reflectance. 本発明の実施の形態3に係るカメラ装置における光源の発光効率を示す図The figure which shows the luminous efficiency of the light source in the camera apparatus which concerns on Embodiment 3 of this invention. 本発明の実施の形態4における出射部から出射される非可視光の発光のタイミングと出射強度及びデューティー比との関係を示す図The figure which shows the relationship between the light emission timing of the invisible light radiate | emitted from the radiation | emission part in Embodiment 4 of this invention, an emitted intensity, and a duty ratio. 本発明の実施の形態5における出射部から出射される非可視光の発光のタイミングと出射強度との関係を示す図The figure which shows the relationship between the timing of light emission of the invisible light radiate | emitted from the output part in Embodiment 5 of this invention, and emitted intensity. 本発明の実施の形態6における出射部から出射される非可視光の発光のタイミングと出射強度との関係を示す図The figure which shows the relationship between the light emission timing of the invisible light radiate | emitted from the output part in Embodiment 6 of this invention, and an emitted intensity. 本発明の実施の形態7に係るカメラ装置の構成を示すブロック図Block diagram showing the configuration of a camera apparatus according to Embodiment 7 of the present invention 本発明の実施の形態7における撮像光学部の構成を示す図The figure which shows the structure of the imaging optical part in Embodiment 7 of this invention. 本発明の実施の形態7における出射部から出射される非可視光の発光のタイミングとデューティー比との関係を示す図The figure which shows the relationship between the timing of light emission of the invisible light radiate | emitted from the output part in Embodiment 7 of this invention, and a duty ratio. 本発明の実施の形態8におけるセンサー部の構成を示す図The figure which shows the structure of the sensor part in Embodiment 8 of this invention. 本発明の実施の形態8における波長と量子効率との関係を示す図The figure which shows the relationship between the wavelength and quantum efficiency in Embodiment 8 of this invention. 本発明の実施の形態8における波長フィルタの構成を示す図The figure which shows the structure of the wavelength filter in Embodiment 8 of this invention. 本発明の実施の形態8における可視光の波長領域の光を透過させる波長ファイルの領域における波長と透過率との関係を示す図The figure which shows the relationship between the wavelength in the area | region of the wavelength file which permeate | transmits the light of the wavelength range of visible light in Embodiment 8 of this invention, and the transmittance | permeability 本発明の実施の形態8における赤外光及び紫外光の波長領域の光を透過させる波長フィルタの領域における波長と透過率との関係を示す図The figure which shows the relationship between the wavelength and the transmittance | permeability in the area | region of the wavelength filter which permeate | transmits the light of the wavelength range of the infrared light and ultraviolet light in Embodiment 8 of this invention. 本発明の実施の形態8における全ての波長領域の光を透過させる波長フィルタの領域における波長と透過率との関係を示す図The figure which shows the relationship between the wavelength and the transmittance | permeability in the area | region of the wavelength filter which permeate | transmits the light of all the wavelength areas in Embodiment 8 of this invention. 本発明の実施の形態8に係るカメラ装置に波長フィルタを用いた場合の構成を示す図The figure which shows the structure at the time of using a wavelength filter for the camera apparatus which concerns on Embodiment 8 of this invention. 本発明の実施の形態9における撮像光学部の構成を示す図The figure which shows the structure of the imaging optical part in Embodiment 9 of this invention. 本発明の実施の形態9におけるビーム分離素子の構成を示す図The figure which shows the structure of the beam separation element in Embodiment 9 of this invention. 本発明の実施の形態9における波長フィルタの構成を示す図The figure which shows the structure of the wavelength filter in Embodiment 9 of this invention. 本発明の実施の形態9におけるセンサー部の構成を示す図The figure which shows the structure of the sensor part in Embodiment 9 of this invention. 本発明の実施の形態10におけるビーム分離素子及びセンサー部の構成を示す図The figure which shows the structure of the beam separation element and sensor part in Embodiment 10 of this invention. 本発明の実施の形態10におけるセンサー部の構成を示す図The figure which shows the structure of the sensor part in Embodiment 10 of this invention. 本発明の実施の形態11におけるビーム分離素子及びセンサー部の構成を示す図The figure which shows the structure of the beam separation element and sensor part in Embodiment 11 of this invention.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。なお、各図面において、同一の符号は、同一の構成若しくは同様の作用を有するかまたは同様の動作を行うものとする。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Note that in each drawing, the same reference numerals have the same configuration or the same action, or perform the same operation.

(実施の形態1)
<カメラ装置の構成>
本発明の実施の形態1に係るカメラ装置100の構成について、図2を用いて説明する。
(Embodiment 1)
<Configuration of camera device>
The configuration of the camera device 100 according to Embodiment 1 of the present invention will be described with reference to FIG.

カメラ装置100は、制御部101と、第1の出射部102と、第2の出射部103と、第3の出射部104と、照明光学部105と、撮像光学部111と、センサー部112と、データ処理部113と、動き検出部114と、色推定部115と、記憶部116とから主に構成されている。カメラ装置100は、非可視光を被写体10に照射して被写体10を撮像する。   The camera device 100 includes a control unit 101, a first emission unit 102, a second emission unit 103, a third emission unit 104, an illumination optical unit 105, an imaging optical unit 111, and a sensor unit 112. The data processing unit 113, the motion detection unit 114, the color estimation unit 115, and the storage unit 116 are mainly configured. The camera device 100 images the subject 10 by irradiating the subject 10 with invisible light.

制御部101は、外部から入力された制御情報に基づいて、第1の出射部102、第2の出射部103、及び第3の出射部104からの非可視光の出射を制御する。制御部101における第1の出射部102〜第3の出射部104の各々の制御を照射制御と言う。また、その時に制御部101から第1の出射部102〜第3の出射部104の各々に出力される、照射制御情報をもった信号を照射制御信号という。具体的に、制御部101は、制御情報に基づいて、第1の出射部102、第2の出射部103及び第3の出射部104の全てに対して非可視光を出射させる第1の動作、または第1の出射部102、第2の出射部103及び第3の出射部104に対して第1の動作よりも低消費電力である第2の動作を行わせるように制御する。ここで、非可視光とは赤外光もしくは紫外光である。なお、第1の動作及び第2の動作については後述する。   The control unit 101 controls the emission of invisible light from the first emission unit 102, the second emission unit 103, and the third emission unit 104 based on control information input from the outside. Control of each of the first emission unit 102 to the third emission unit 104 in the control unit 101 is referred to as irradiation control. A signal having irradiation control information that is output from the control unit 101 to each of the first emission unit 102 to the third emission unit 104 at that time is referred to as an irradiation control signal. Specifically, the control unit 101 performs a first operation for emitting non-visible light to all of the first emission unit 102, the second emission unit 103, and the third emission unit 104 based on the control information. Alternatively, the first emission unit 102, the second emission unit 103, and the third emission unit 104 are controlled to perform a second operation with lower power consumption than the first operation. Here, the invisible light is infrared light or ultraviolet light. The first operation and the second operation will be described later.

なお、制御部101は、事前に内部に制御情報をもつことができる。その場合、外部から制御情報を入力する必要はないか、もしくは外部から制御情報を入力する頻度は少なくて良い。   Note that the control unit 101 can have control information inside in advance. In that case, it is not necessary to input control information from the outside, or the frequency of inputting control information from the outside may be low.

<照射部の構成>
本発明の実施の形態1における照射部150の構成について、図2を用いて説明する。
<Configuration of irradiation unit>
The structure of the irradiation part 150 in Embodiment 1 of this invention is demonstrated using FIG.

照射部150は、制御部101と、第1の出射部102と、第2の出射部103と、第3の出射部104と、照明光学部105とから主に構成されている。第1の出射部102と、第2の出射部103と、第3の出射部104とは、照射部150の光源である。照射部150は、非可視光を被写体10に照射する。   The irradiation unit 150 mainly includes a control unit 101, a first emission unit 102, a second emission unit 103, a third emission unit 104, and an illumination optical unit 105. The first emission unit 102, the second emission unit 103, and the third emission unit 104 are light sources of the irradiation unit 150. The irradiation unit 150 irradiates the subject 10 with invisible light.

第1の出射部102、第2の出射部103及び第3の出射部104は、制御部101の制御に従って、各々互いに異なる波長λ11、λ12、λ13の非可視光を出射する。非可視光は、波長毎に時間をずらして間欠的に出射される。第1の出射部102、第2の出射部103及び第3の出射部104は、例えば発光ダイオード(LED)である。第1の出射部102、第2の出射部103及び第3の出射部104としてLEDを用いているが、LEDに限定されるものではなく、レーザー光の光源、レーザー光若しくはLED等で励起される蛍光体、または高圧水銀ランプ等、所望の波長の光を発する光源であれば、全て適用可能である。   The first emission unit 102, the second emission unit 103, and the third emission unit 104 emit invisible light having different wavelengths λ11, λ12, and λ13, respectively, under the control of the control unit 101. Invisible light is emitted intermittently at different wavelengths for each wavelength. The 1st output part 102, the 2nd output part 103, and the 3rd output part 104 are light emitting diodes (LED), for example. Although LEDs are used as the first emission unit 102, the second emission unit 103, and the third emission unit 104, they are not limited to LEDs, and are excited by a laser light source, laser light, LED, or the like. Any light source that emits light of a desired wavelength, such as a fluorescent material or a high-pressure mercury lamp, can be applied.

照明光学部105は、第1の出射部102から出射された非可視光、第2の出射部103から出射された非可視光、または第3の出射部104から出射された非可視光を被写体10に向けて照射する。照明光学部105は、被写体10に非可視光を照射するためのレンズを有している。照明光学部105から出射される非可視光は、レンズを用いることにより、効率良く被写体10の方向に導かれる。なお、本実施の形態のカメラ装置100は、レンズが無くても照明光学部105から出射される非可視光を被写体10に照射できるので、照明光学部105のレンズを省略しても構わない。   The illumination optical unit 105 subjects the invisible light emitted from the first emitting unit 102, the invisible light emitted from the second emitting unit 103, or the invisible light emitted from the third emitting unit 104 to the subject. Irradiate toward 10. The illumination optical unit 105 has a lens for irradiating the subject 10 with invisible light. The invisible light emitted from the illumination optical unit 105 is efficiently guided toward the subject 10 by using a lens. Note that the camera device 100 according to the present embodiment can irradiate the subject 10 with invisible light emitted from the illumination optical unit 105 without a lens, and therefore the lens of the illumination optical unit 105 may be omitted.

また、本実施の形態において、第1の出射部102〜第3の出射部104からの非可視光を拡散させる拡散素子を、第1の出射部102〜第3の出射部104と被写体10との間の光路に設けることにより、被写体10を照射する非可視光の光強度を広い範囲で均一にしてもよい。拡散素子は、回折型または屈折型等、一般的な構成のものを、何ら制約無く用いることができる。   In the present embodiment, the diffusion elements that diffuse invisible light from the first emission unit 102 to the third emission unit 104 are the first emission unit 102 to the third emission unit 104, the subject 10, and the like. By providing in the optical path between, the light intensity of the invisible light that irradiates the subject 10 may be made uniform over a wide range. A diffusion element having a general configuration such as a diffraction type or a refractive type can be used without any limitation.

また、照明光学部105は、第1の出射部102〜第3の出射部104に対して共通でなくてもよく、第1の出射部102〜第3の出射部104の各々に対して個別に設けてもよい。その場合、カメラ装置は、第1の出射部102〜第3の出射部104の各々から出射される非可視光の波長に対して、各照明光学部を最適な設計にすることができ、より広い範囲で均一な光強度を有する非可視光を照射することができる。   The illumination optical unit 105 may not be common to the first emission unit 102 to the third emission unit 104, and is individually provided for each of the first emission unit 102 to the third emission unit 104. May be provided. In that case, the camera apparatus can design each illumination optical unit optimally with respect to the wavelength of the invisible light emitted from each of the first emission unit 102 to the third emission unit 104, and more Invisible light having uniform light intensity in a wide range can be irradiated.

<撮像部の構成>
本発明の実施の形態1における撮像部160の構成について、図2を用いて説明する。
<Configuration of imaging unit>
The configuration of the imaging unit 160 according to Embodiment 1 of the present invention will be described with reference to FIG.

撮像部160は、撮像光学部111と、センサー部112と、データ処理部113と、動き検出部114と、色推定部115と、記憶部116とを有している。撮像部160は、非可視光を照射された被写体10を撮像し、撮像した被写体の画像を表示させるための処理を行う。   The imaging unit 160 includes an imaging optical unit 111, a sensor unit 112, a data processing unit 113, a motion detection unit 114, a color estimation unit 115, and a storage unit 116. The imaging unit 160 performs processing for capturing an image of the subject 10 irradiated with invisible light and displaying an image of the captured subject.

撮像光学部111は、非可視光を照射された被写体10で反射された反射光を集光してセンサー部112に出力する。撮像光学部111は、集光レンズを有している。集光レンズは、被写体10からの反射光をセンサー部112に集光することで被写体10の像をセンサー部112に結像する。集光レンズは、図示していないが、カメラ装置において一般的に用いられる撮像レンズである。   The imaging optical unit 111 condenses the reflected light reflected by the subject 10 irradiated with invisible light and outputs it to the sensor unit 112. The imaging optical unit 111 has a condenser lens. The condensing lens focuses the reflected light from the subject 10 on the sensor unit 112 to form an image of the subject 10 on the sensor unit 112. Although not shown, the condenser lens is an imaging lens that is generally used in camera devices.

センサー部112は、撮像光学部111で集光された被写体10からの反射光を受けて、被写体10を撮像し、受けた反射光を電気信号に変換する。センサー部112で変換された電気信号は、撮像データとしてセンサー部112からデータ処理部113に出力される。   The sensor unit 112 receives the reflected light from the subject 10 collected by the imaging optical unit 111, images the subject 10, and converts the received reflected light into an electrical signal. The electrical signal converted by the sensor unit 112 is output from the sensor unit 112 to the data processing unit 113 as imaging data.

センサー部112は、制御部101からセンサー制御を受ける。その時に制御部101からセンサー部112に入力する、センサー制御情報を含む信号をセンサー制御信号という。例えば、センサー制御信号には、第1の出射部102〜第3の出射部104により被写体10が照射されたタイミングの情報が含まれている。従って、センサー部112は、被写体10で反射された反射光が、どの波長に対する反射光であるかを確実に知ることができるため、第1の出射部102〜第3の出射部104の各々の波長の電気信号に確実に分離することができる。   The sensor unit 112 receives sensor control from the control unit 101. A signal including sensor control information input from the control unit 101 to the sensor unit 112 at this time is referred to as a sensor control signal. For example, the sensor control signal includes information on the timing at which the subject 10 is irradiated by the first emission unit 102 to the third emission unit 104. Therefore, the sensor unit 112 can reliably know which wavelength the reflected light reflected by the subject 10 is, and therefore each of the first emission unit 102 to the third emission unit 104. It can be reliably separated into electrical signals of wavelengths.

データ処理部113は、センサー部112から入力された撮像データに対して、ゲイン調整、及び露光調整等の所定の画像処理を施すことにより、第1の出射部102から出射された非可視光、第2の出射部103から出射された非可視光、または第3の出射部104から出射された非可視光で撮像された画像データをそれぞれ取得する。データ処理部113は、取得した画像データを動き検出部114及び色推定部115に出力するとともに、記憶部116に記憶させる。   The data processing unit 113 performs predetermined image processing such as gain adjustment and exposure adjustment on the imaging data input from the sensor unit 112, thereby invisible light emitted from the first emission unit 102, Image data captured with the invisible light emitted from the second emitting unit 103 or the invisible light emitted from the third emitting unit 104 is acquired. The data processing unit 113 outputs the acquired image data to the motion detection unit 114 and the color estimation unit 115 and stores the acquired image data in the storage unit 116.

データ処理部113は、制御部101からデータ処理制御を受ける。その時に制御部101からデータ処理部113に入力する、データ処理制御情報を含む信号をデータ処理制御信号という。データ処理制御信号は、センサー部112から出力された撮像データが、第1の出射部102〜第3の出射部104の何れから照射された波長の非可視光に対応する撮像データであるかを確認し、適切な処理をするため等に利用される。   The data processing unit 113 receives data processing control from the control unit 101. A signal including data processing control information input from the control unit 101 to the data processing unit 113 at that time is referred to as a data processing control signal. The data processing control signal indicates whether the imaging data output from the sensor unit 112 is imaging data corresponding to invisible light having a wavelength emitted from any of the first emission unit 102 to the third emission unit 104. It is used for confirmation and appropriate processing.

また、データ処理部113は、センサー部112から出力される撮像データから、データ処理制御信号の情報も同時に受けることもできることは言うまでもない。   It goes without saying that the data processing unit 113 can simultaneously receive information on the data processing control signal from the imaging data output from the sensor unit 112.

動き検出部114は、制御部101の制御に従って、データ処理部113から入力された画像データを解析して、被写体10の動きを検出する。動き検出部114は、被写体10の動きの検出結果を制御部101及び色推定部115に出力する。   The motion detection unit 114 detects the motion of the subject 10 by analyzing the image data input from the data processing unit 113 under the control of the control unit 101. The motion detection unit 114 outputs the detection result of the motion of the subject 10 to the control unit 101 and the color estimation unit 115.

色推定部115は、被写体10が動いている検出結果が動き検出部114から入力された場合に、データ処理部113から入力された画像データのスペクトルに基づいて色の推定を行う。色推定部115は、被写体10が静止している検出結果が動き検出部114から入力された場合に、記憶部116に記憶されている過去の画像データを読み出し、読み出した画像データのスペクトルに基づいて色の推定を行う。そして、色推定部115は、色を推定した結果に基づいて、被写体10を表示するための表示用データを生成し、モニタ200に出力する。   The color estimation unit 115 performs color estimation based on the spectrum of the image data input from the data processing unit 113 when the detection result of the movement of the subject 10 is input from the motion detection unit 114. When the detection result that the subject 10 is stationary is input from the motion detection unit 114, the color estimation unit 115 reads past image data stored in the storage unit 116, and based on the spectrum of the read image data. Color estimation. The color estimation unit 115 generates display data for displaying the subject 10 based on the color estimation result, and outputs the display data to the monitor 200.

色推定部115は、制御部101から色推定制御を受ける。その時に制御部101から色推定部115に入力する、色推定処理制御情報を含む信号を色推定制御信号という。色推定制御信号は、データ処理部113から出力された画像データが、第1の出射部102〜第3の出射部104の何れから照射された波長の非可視光に対応する画像データであるかを確認し、適切な処理をするため等に利用される。   The color estimation unit 115 receives color estimation control from the control unit 101. A signal including color estimation process control information input from the control unit 101 to the color estimation unit 115 at that time is referred to as a color estimation control signal. Whether the color estimation control signal is the image data corresponding to the invisible light having the wavelength emitted from any of the first emission unit 102 to the third emission unit 104 of the image data output from the data processing unit 113 It is used to confirm the above and perform appropriate processing.

なお、データ処理部113で行われる処理の一部もしくは全てを色推定部115で行っても構わない。データ処理部113で行われる処理の全てを色推定部115で行う場合には、データ処理部113を便宜的に無くしても構わないのは言うまでもない。   Note that part or all of the processing performed by the data processing unit 113 may be performed by the color estimation unit 115. Needless to say, when all of the processing performed by the data processing unit 113 is performed by the color estimation unit 115, the data processing unit 113 may be omitted for convenience.

<カメラ装置の動作>
本発明の実施の形態1に係るカメラ装置100の動作について、図3及び図4を用いて説明する。
<Operation of camera device>
The operation of the camera apparatus 100 according to Embodiment 1 of the present invention will be described with reference to FIGS.

まず、制御部101及び色推定部115は、動き検出部114において被写体10が静止している検出結果が得られたか否かを判定する(ステップST301)。   First, the control unit 101 and the color estimation unit 115 determine whether or not the motion detection unit 114 has obtained a detection result indicating that the subject 10 is stationary (step ST301).

カメラ装置100は、被写体10が動いている検出結果を動き検出部114から得た場合(ステップST301:NO)には、ステップST302〜ステップST308の通常撮影モードの処理を行う。   When the detection result of the movement of the subject 10 is obtained from the motion detection unit 114 (step ST301: NO), the camera apparatus 100 performs the normal shooting mode processing in steps ST302 to ST308.

即ち、制御部101は、被写体10が動いている検出結果を動き検出部114から得た場合(ステップST301:NO)には、第1の出射部102〜第3の出射部104に対して第1の動作を行わせる。これにより、第1の出射部102は、波長λ11の非可視光を出射することにより被写体10を照射する(ステップST302)。   That is, when the control unit 101 obtains the detection result of the movement of the subject 10 from the motion detection unit 114 (step ST301: NO), the control unit 101 performs the first output on the first emission unit 102 to the third emission unit 104. 1 operation is performed. Thereby, the 1st output part 102 irradiates the to-be-photographed object 10 by radiate | emitting the invisible light of wavelength (lambda) 11 (step ST302).

次に、データ処理部113は、波長λ11の被写体10からの反射光より画像データを取得する(ステップST303)。   Next, the data processing unit 113 acquires image data from reflected light from the subject 10 having the wavelength λ11 (step ST303).

次に、制御部101は、第1の動作として第2の出射部103から波長λ12の非可視光を出射させることにより被写体10を照射させる(ステップST304)。   Next, the control unit 101 irradiates the subject 10 by emitting invisible light having a wavelength λ12 from the second emitting unit 103 as a first operation (step ST304).

次に、データ処理部113は、波長λ12の被写体10からの反射光より画像データを取得する(ステップST305)。   Next, the data processing unit 113 acquires image data from reflected light from the subject 10 having the wavelength λ12 (step ST305).

次に、制御部101は、第1の動作として第3の出射部104から波長λ13の非可視光を出射させることにより被写体10を照射させる(ステップST306)。   Next, the control unit 101 irradiates the subject 10 by emitting invisible light having a wavelength λ13 from the third emitting unit 104 as a first operation (step ST306).

次に、データ処理部113は、波長λ13の被写体10からの反射光より画像データを取得する(ステップST307)。   Next, the data processing unit 113 acquires image data from reflected light from the subject 10 having the wavelength λ13 (step ST307).

次に、色推定部115は、ステップST303、ステップST305及びステップST307において取得した画像データから色推定処理を行う(ステップST308)。なお、通常撮影モードにおけるカメラ装置100の動作の詳細については後述する。   Next, the color estimation unit 115 performs color estimation processing from the image data acquired in step ST303, step ST305, and step ST307 (step ST308). The details of the operation of the camera device 100 in the normal shooting mode will be described later.

一方、カメラ装置100は、被写体10が静止している検出結果を動き検出部114から得た場合(ステップST301:YES)には、ステップST309〜ステップST312の静止画撮影モードの処理を行う。   On the other hand, when the camera apparatus 100 obtains a detection result indicating that the subject 10 is stationary from the motion detection unit 114 (step ST301: YES), the camera apparatus 100 performs processing in the still image shooting mode in steps ST309 to ST312.

即ち、制御部101は、第1の出射部102、第2の出射部103及び第3の出射部104に対して、第1の動作よりも低消費電力である第2の動作を行わせるように制御する。これにより、第1の出射部102は、波長λ11の非可視光を出射することにより被写体10を照射する(ステップST309)。また、第2の出射部103及び第3の出射部104は、駆動を停止して非可視光の出射を停止する(ステップST310)。   That is, the control unit 101 causes the first emission unit 102, the second emission unit 103, and the third emission unit 104 to perform a second operation that consumes less power than the first operation. To control. Thereby, the 1st output part 102 irradiates the to-be-photographed object 10 by radiate | emitting the invisible light of wavelength (lambda) 11 (step ST309). Moreover, the 2nd output part 103 and the 3rd output part 104 stop a drive, and stop the emission of invisible light (step ST310).

次に、データ処理部113は、波長λ11の被写体10からの反射光より画像データを取得する(ステップST311)。   Next, the data processing unit 113 acquires image data from reflected light from the subject 10 having the wavelength λ11 (step ST311).

次に、色推定部115は、ステップST311において取得した画像データ、及び記憶部116に記憶されている波長λ12及び波長λ13の過去の画像データより、色推定処理を行う(ステップST312)。なお、静止画撮影モードにおけるカメラ装置100の動作の詳細については後述する。   Next, the color estimation unit 115 performs color estimation processing from the image data acquired in step ST311 and the past image data of the wavelengths λ12 and λ13 stored in the storage unit 116 (step ST312). Details of the operation of the camera device 100 in the still image shooting mode will be described later.

カメラ装置100は、ステップST308の処理後またはステップST312の処理後に、撮像を継続するか否かを判定する(ステップST313)。   The camera apparatus 100 determines whether or not to continue imaging after the process of step ST308 or the process of step ST312 (step ST313).

カメラ装置100は、撮像を継続すると判定した場合(ステップST313:YES)には、ステップST301に処理を戻し、撮像を継続しないと判定した場合(ステップST313:NO)には、処理を終了する。   If the camera apparatus 100 determines to continue imaging (step ST313: YES), the process returns to step ST301, and if it is determined not to continue imaging (step ST313: NO), the process ends.

<通常撮影モードにおけるカメラ装置の動作>
本発明の実施の形態1における通常撮影モードにおけるカメラ装置100の動作について、図4を用いて説明する。図4において、第1の出射部102は波長λ11の非可視光を出射し、第2の出射部103は波長λ12の非可視光を出射し、第3の出射部104は波長λ13の非可視光を出射するものとする。
<Operation of Camera Device in Normal Shooting Mode>
The operation of the camera apparatus 100 in the normal shooting mode according to Embodiment 1 of the present invention will be described with reference to FIG. In FIG. 4, the first emitting unit 102 emits invisible light with a wavelength λ11, the second emitting unit 103 emits invisible light with a wavelength λ12, and the third emitting unit 104 is invisible with a wavelength λ13. It shall emit light.

なお、図4において、実線は、通常撮影モードと静止画撮影モードの両方における出射強度及びデューティー比を示し、破線は通常撮影モードのみにおける出射強度及びデューティー比を示している。   In FIG. 4, the solid line indicates the emission intensity and the duty ratio in both the normal shooting mode and the still image shooting mode, and the broken line indicates the emission intensity and the duty ratio only in the normal shooting mode.

ここで、デューティー比とは、ある周期的な現象において、「ある期間」 に占める「その期間で現象が継続される期間」の割合のことである。即ち、デューティー比とは、第1の出射部102〜第3の出射部104の発光強度を周期的に変化させたときの、周期に対してある状態で発光する時間の割合である。例えば、繰り返しの周期をT、1周期の中で非可視光Aが発光している時間幅をa、デューティー比をDとしたとき、その非可視光Aのデューティー比は、D=a/Tである。なお、デューティー比を異ならせるということは、非可視光の強度の時間に対する変化があるということである。   Here, the duty ratio is a ratio of “a period during which the phenomenon continues during a certain period” in a certain periodic phenomenon. That is, the duty ratio is a ratio of time during which light is emitted in a certain state with respect to the cycle when the light emission intensities of the first emission unit 102 to the third emission unit 104 are periodically changed. For example, when the repetition period is T and the time width in which the invisible light A is emitted in one period is a and the duty ratio is D, the duty ratio of the invisible light A is D = a / T It is. Note that changing the duty ratio means that the intensity of invisible light changes with time.

本実施の形態では、第1の出射部102〜第3の出射部104の各々から出射される光の強度が最も強い波長を波長λ11〜λ12としたとき、λ11は波長830nm〜1000nm、λ12は波長350nm〜420nm、及び、λ13は波長700nm〜830nmとすることで、色の推定を精度良く行うことができる。   In the present embodiment, when the wavelengths having the strongest intensity of light emitted from each of the first emission unit 102 to the third emission unit 104 are wavelengths λ11 to λ12, λ11 is a wavelength of 830 nm to 1000 nm, and λ12 is By setting the wavelengths 350 nm to 420 nm and λ13 to the wavelengths 700 nm to 830 nm, the color can be estimated with high accuracy.

したがって、カメラ装置100が照射する非可視光は、波長350nm〜420nm及び700nm〜1000nmの光を意味する。   Therefore, the invisible light irradiated by the camera device 100 means light having a wavelength of 350 nm to 420 nm and 700 nm to 1000 nm.

また、本実施の形態では、λ11>λ13の関係を保てば、λ11を750nm〜830nmに設定した場合も、色の推定を精度良く行うことができる。従って、本実施の形態では、λ11>λ13の関係を保ち、かつλ11を750nm〜830nmに設定しても良い。   In this embodiment, if the relationship of λ11> λ13 is maintained, color estimation can be performed with high accuracy even when λ11 is set to 750 nm to 830 nm. Therefore, in this embodiment, the relationship of λ11> λ13 may be maintained and λ11 may be set to 750 nm to 830 nm.

本実施の形態においては、λ11=940nm、λ12=385nm、及びλ13=810nmとしている。   In this embodiment, λ11 = 940 nm, λ12 = 385 nm, and λ13 = 810 nm.

また、LEDは、半値幅50nm程度の比較的波長幅の広い光を出射する。従って、例えば第1の出射部102から出射されるλ11(λ11=940nm)の光は、上記の波長分布を持った光である。λ12、λ13も同様である。また、本実施の形態では、必要に応じて不要な波長の光を減衰させるフィルタを用いても構わない。   The LED emits light having a relatively wide wavelength width of about 50 nm half width. Therefore, for example, the light of λ11 (λ11 = 940 nm) emitted from the first emission unit 102 is light having the above wavelength distribution. The same applies to λ12 and λ13. In the present embodiment, a filter that attenuates light having an unnecessary wavelength may be used as necessary.

制御部101は、時刻t0において、外部より入力された制御情報に基づいて、第1の出射部102に対してデューティー比D1の波長λ11の非可視光を出射させる。   At time t0, the control unit 101 causes the first emitting unit 102 to emit invisible light having a wavelength λ11 having a duty ratio D1, based on control information input from the outside.

制御部101は、時刻t1において、外部より入力された制御情報に基づいて、第1の出射部102に対して波長λ11の非可視光の出射を停止させるとともに、第2の出射部103に対してデューティー比D2(D1<D2)の波長λ12の非可視光を出射させる。   At time t1, the control unit 101 causes the first emission unit 102 to stop emitting the invisible light having the wavelength λ11 based on the control information input from the outside, and to the second emission unit 103. Thus, invisible light with a wavelength λ12 having a duty ratio D2 (D1 <D2) is emitted.

制御部101は、時刻t2において、外部より入力された制御情報に基づいて、第2の出射部103に対して波長λ12の非可視光の出射を停止させるとともに、第3の出射部104に対してデューティー比D3(D2>D3)の波長λ13の非可視光を出射させる。   At time t2, the control unit 101 causes the second emitting unit 103 to stop emitting the invisible light having the wavelength λ12 based on the control information input from the outside, and to the third emitting unit 104. Thus, invisible light having a wavelength λ13 having a duty ratio D3 (D2> D3) is emitted.

制御部101は、時刻t3において、外部より入力された制御情報に基づいて、第3の出射部104に対して波長λ13の非可視光の出射を停止させるとともに、第1の出射部102に対してデューティー比D1の波長λ11の非可視光を出射させる。   At time t3, the control unit 101 causes the third emitting unit 104 to stop emitting the invisible light having the wavelength λ13 based on the control information input from the outside, and the first emitting unit 102 Thus, invisible light having a wavelength λ11 with a duty ratio D1 is emitted.

これ以後、制御部101は、時刻t4及び時刻t7において、時刻t1における処理と同様の処理を行う。また、制御部101は、時刻t5及び時刻t8において、時刻t2における処理と同様の処理を行う。また、制御部101は、時刻t6及び時刻t9において、時刻t3における処理と同様の処理を行う。なお、第1の出射部102〜第3の出射部104から出射される光の出射強度は同一である。   Thereafter, the control unit 101 performs the same process as the process at time t1 at time t4 and time t7. In addition, the control unit 101 performs the same process as the process at time t2 at time t5 and time t8. Further, the control unit 101 performs the same process as the process at time t3 at time t6 and time t9. In addition, the emission intensity | strength of the light radiate | emitted from the 1st output part 102-the 3rd output part 104 is the same.

なお、時刻t1において、第1の出射部102に対して波長λ11の非可視光の出射を停止させるとともに、第2の出射部103に対して波長λ12の非可視光を出射させるが、波長λ11の非可視光の出射を完全に停止しなくても、色を推定する上で影響のない程度の出射強度であれば、波長λ11の非可視光の出射があっても構わない。また、時刻t2、t3などにおいても同様である。   At time t1, the first emitting unit 102 stops emitting the invisible light with the wavelength λ11, and the second emitting unit 103 emits the invisible light with the wavelength λ12. Even if the emission of the invisible light is not completely stopped, the emission of the invisible light having the wavelength λ11 may be performed as long as the emission intensity has no influence on the color estimation. The same applies to times t2, t3, and the like.

また、時刻t1において、第1の出射部102に対して波長λ11の非可視光の出射を停止させるとともに、第2の出射部103に対して波長λ12の非可視光を出射させるが、波長λ11の非可視光の出射を完全に停止しなくても、色を推定する上で影響のない程度のごく短い時間であれば、波長λ11と波長λ12とが同時に照射される時間があっても構わない。また、時刻t2、t3などにおいても同様である。   At time t1, the first emitting unit 102 stops emitting the invisible light having the wavelength λ11, and the second emitting unit 103 emits the invisible light having the wavelength λ12. Even if the emission of the invisible light is not completely stopped, the wavelength λ11 and the wavelength λ12 may be irradiated at the same time as long as they have a very short time that does not affect the color estimation. Absent. The same applies to times t2, t3, and the like.

時刻t0において出射された波長λ11の非可視光に対する、被写体10からの反射光、センサー部112で変換される電気信号、センサー部112から出力される撮像データ、及びデータ処理部113から出力される画像データは、1フレームとする。   Reflected light from the subject 10, the electrical signal converted by the sensor unit 112, the imaging data output from the sensor unit 112, and the data processing unit 113 for the invisible light of wavelength λ11 emitted at time t0 The image data is one frame.

また、時刻t1において出射された波長λ12の非可視光に対する、被写体10からの反射光、センサー部112で変換される電気信号、センサー部112から出力される撮像データ、及びデータ処理部113から出力される画像データは、2フレームとする。   In addition, the reflected light from the subject 10, the electrical signal converted by the sensor unit 112, the imaging data output from the sensor unit 112, and the output from the data processing unit 113 for the invisible light having the wavelength λ12 emitted at time t1 The image data to be processed is 2 frames.

また、時刻t2において出射された波長λ13の非可視光に対する、被写体10からの反射光、センサー部112で変換される電気信号、センサー部112から出力される撮像データ、及びデータ処理部113から出力される画像データは、3フレームとする。   In addition, the reflected light from the subject 10, the electrical signal converted by the sensor unit 112, the imaging data output from the sensor unit 112, and the output from the data processing unit 113 with respect to the invisible light having the wavelength λ13 emitted at time t2 The image data to be processed is 3 frames.

また、時刻t3において出射された波長λ11の非可視光に対する、被写体10からの反射光、センサー部112で変換される電気信号、センサー部112から出力される撮像データ、及びデータ処理部113から出力される画像データは、4フレームとする。   In addition, the reflected light from the subject 10, the electrical signal converted by the sensor unit 112, the imaging data output from the sensor unit 112, and the output from the data processing unit 113 with respect to the invisible light having the wavelength λ11 emitted at time t3 The image data to be processed is 4 frames.

これ以後、時刻t4及び時刻t7において、時刻t1における処理と同様の処理を行い、被写体10からの反射光、センサー部112で変換される電気信号、センサー部112から出力される撮像データ、及びデータ処理部113から出力される画像データは、それぞれ5フレーム及び8フレームとする。   Thereafter, at time t4 and time t7, processing similar to the processing at time t1 is performed, reflected light from the subject 10, electrical signals converted by the sensor unit 112, imaging data output from the sensor unit 112, and data The image data output from the processing unit 113 is 5 frames and 8 frames, respectively.

また、時刻t5及び時刻t8において、時刻t2における処理と同様の処理を行い、被写体10からの反射光、センサー部112で変換される電気信号、センサー部112から出力される撮像データ、及びデータ処理部113から出力される画像データは、それぞれ6フレーム及び9フレームとする。   In addition, at time t5 and time t8, processing similar to that at time t2 is performed, and reflected light from the subject 10, electrical signals converted by the sensor unit 112, imaging data output from the sensor unit 112, and data processing The image data output from the unit 113 is 6 frames and 9 frames, respectively.

また、時刻t6及び時刻t9において、時刻t3における処理と同様の処理を行い、被写体10からの反射光、センサー部112で変換される電気信号、センサー部112から出力される撮像データ、及びデータ処理部113から出力される画像データは、それぞれ7フレーム及び10フレームとする。   In addition, at time t6 and time t9, processing similar to that at time t3 is performed, and reflected light from the subject 10, electrical signals converted by the sensor unit 112, imaging data output from the sensor unit 112, and data processing The image data output from the unit 113 is 7 frames and 10 frames, respectively.

色推定部115は、データ処理部113により出力された、非可視光の時刻t0からの発光周期T内で作成される1フレームから3フレームまでの画像データのスペクトルに基づいて色の推定を行う。色推定部115は、3フレームの画像データで色を推定した結果に基づいて、被写体10を表示するための表示用データを生成し、外部に出力する。   The color estimation unit 115 estimates the color based on the spectrum of the image data from the first frame to the third frame created within the light emission period T from the time t0 of the invisible light output from the data processing unit 113. . The color estimation unit 115 generates display data for displaying the subject 10 based on the result of estimating the color from the image data of three frames, and outputs it to the outside.

また、色推定部115は、データ処理部113により出力された、非可視光の時刻t4からの発光周期T内で作成される4フレームから6フレームまでの画像データのスペクトルに基づいて色の推定を行う。色推定部115は、3フレームの画像データで色を推定した結果に基づいて、被写体10を表示するための表示用データを生成し、外部に出力する。   In addition, the color estimation unit 115 estimates the color based on the spectrum of the image data from the 4th frame to the 6th frame generated within the light emission period T from the time t4 of invisible light output from the data processing unit 113. I do. The color estimation unit 115 generates display data for displaying the subject 10 based on the result of estimating the color from the image data of three frames, and outputs it to the outside.

また、色推定部115は、データ処理部113により出力された、非可視光の時刻t7からの発光周期T内で作成される7フレームから9フレームまでの画像データのスペクトルに基づいて色の推定を行う。色推定部115は、3フレームの画像データで色を推定した結果に基づいて、被写体10を表示するための表示用データを生成し、外部に出力する。   In addition, the color estimation unit 115 estimates the color based on the spectrum of the image data from the 7th frame to the 9th frame generated within the light emission period T from the time t7 of the invisible light output by the data processing unit 113. I do. The color estimation unit 115 generates display data for displaying the subject 10 based on the result of estimating the color from the image data of three frames, and outputs it to the outside.

つまり、非可視光の発光周期T毎、言い換えれば3フレーム毎に色を推定した結果に基づいた表示用データが外部に出力される。   That is, display data based on the result of estimating the color every invisible light emission period T, in other words, every three frames, is output to the outside.

なお、本実施の形態では、非可視光の発光周期T毎ではなく、非可視光が照射されるフレーム毎に、色を推定した結果に基づいた表示用データを外部に出力させることも出来る。その場合について説明する。   In the present embodiment, display data based on the result of color estimation can be output to the outside for each frame irradiated with invisible light, not every light emission period T of invisible light. The case will be described.

時刻t0からt9で作成される、被写体10からの反射光、センサー部112で変換される電気信号、センサー部112から出力される撮像データ、及びデータ処理部113から出力される画像データは、上述と同様に1から10フレームとする。ただし、色推定部115の処理方法が異なる。   Reflected light from the subject 10, electrical signals converted by the sensor unit 112, imaging data output from the sensor unit 112, and image data output from the data processing unit 113 are created from time t0 to t9. Similarly to 1 to 10 frames. However, the processing method of the color estimation unit 115 is different.

色推定部115は、データ処理部113により出力された、非可視光の時刻t0からの発光周期T内で作成される1フレームから3フレームまでの画像データのスペクトルに基づいて色の推定を行う。色推定部115は、色を推定した結果に基づいて、被写体10を表示するための表示用データを生成し、外部に出力する。   The color estimation unit 115 estimates the color based on the spectrum of the image data from the first frame to the third frame created within the light emission period T from the time t0 of the invisible light output from the data processing unit 113. . The color estimation unit 115 generates display data for displaying the subject 10 based on the color estimation result, and outputs the display data to the outside.

第2に、色推定部115は、データ処理部113により出力された、非可視光の時刻t1からの発光周期T内で作成される2フレームから4フレームまでの画像データのスペクトルに基づいて色の推定を行う。色推定部115は、色を推定した結果に基づいて、被写体10を表示するための表示用データを生成し、外部に出力する。   Secondly, the color estimation unit 115 generates a color based on the spectrum of image data from 2 frames to 4 frames created within the light emission period T from the time t1 of invisible light output by the data processing unit 113. Estimate The color estimation unit 115 generates display data for displaying the subject 10 based on the color estimation result, and outputs the display data to the outside.

第3に、色推定部115は、データ処理部113により出力された、非可視光の時刻t2からの発光周期T内で作成される3フレームから5フレームまでの画像データのスペクトルに基づいて色の推定を行う。色推定部115は、色を推定した結果に基づいて、被写体10を表示するための表示用データを生成し、外部に出力する。   Thirdly, the color estimation unit 115 generates a color based on the spectrum of the image data from 3 frames to 5 frames generated within the light emission period T from the time t2 of invisible light output from the data processing unit 113. Estimate The color estimation unit 115 generates display data for displaying the subject 10 based on the color estimation result, and outputs the display data to the outside.

第4に、色推定部115は、データ処理部113により出力された、非可視光の時刻t3からの発光周期T内で作成される4フレームから6フレームまでの画像データのスペクトルに基づいて色の推定を行う。色推定部115は、色を推定した結果に基づいて、被写体10を表示するための表示用データを生成し、外部に出力する。   Fourth, the color estimation unit 115 performs color processing based on the spectrum of image data from 4 frames to 6 frames generated within the light emission period T from the time t3 of invisible light output from the data processing unit 113. Estimate The color estimation unit 115 generates display data for displaying the subject 10 based on the color estimation result, and outputs the display data to the outside.

これ以後、カメラ装置100は、時刻t4及び時刻t7において、時刻t1における処理と同様の処理を行う。また、カメラ装置100は、時刻t5及び時刻t8において、時刻t2における処理と同様の処理を行う。また、カメラ装置100は、時刻t6及び時刻t9において、時刻t3における処理と同様の処理を行う。   Thereafter, the camera device 100 performs the same process as the process at the time t1 at the time t4 and the time t7. In addition, the camera device 100 performs the same process as the process at the time t2 at the time t5 and the time t8. Further, the camera device 100 performs the same process as the process at the time t3 at the time t6 and the time t9.

これにより、非可視光の発光フレーム毎、言い換えれば1フレーム毎に色を推定した結果に基づいた表示用データが外部に出力される。   Thereby, display data based on the result of estimating the color for each invisible light emitting frame, in other words, for each frame is output to the outside.

<静止画撮影モードにおけるカメラ装置の動作>
本発明の実施の形態1における静止画撮影モードにおけるカメラ装置100の動作について、図4を用いて説明する。
<Operation of camera device in still image shooting mode>
The operation of the camera apparatus 100 in the still image shooting mode according to Embodiment 1 of the present invention will be described with reference to FIG.

制御部101は、被写体10が静止している検出結果を動き検出部114から得た場合には、通常動作モードで動作していた、第1の出射部102、第2の出射部103、第3の出射部104の少なくとも一つの動作を停止させる。ここでは、制御部101は、図4において破線で示すように、第2の出射部103及び第3の出射部104の動作を停止させている。第1の出射部102は通常通り、動作することで、少なくとも被写体10の画像を取得することが出来る。   When the detection result that the subject 10 is stationary is obtained from the motion detection unit 114, the control unit 101 operates in the normal operation mode, the first emission unit 102, the second emission unit 103, the first The operation | movement of at least 1 of the 3 emission part 104 is stopped. Here, the control unit 101 stops the operations of the second emission unit 103 and the third emission unit 104 as indicated by broken lines in FIG. The first emission unit 102 operates as usual, so that at least an image of the subject 10 can be acquired.

なお、ここでは、制御部101は、第2の出射部103及び第3の出射部104の動作を停止させたが、通常動作モードより低消費電力で被写体の動作を検知することが出来れば、第2の出射部103及び第3の出射部104のどちらか一方の動作を停止させるだけでも構わない。   Here, the control unit 101 stops the operations of the second emission unit 103 and the third emission unit 104. However, if the operation of the subject can be detected with lower power consumption than in the normal operation mode, The operation of either one of the second emission unit 103 and the third emission unit 104 may be stopped.

また、制御部101は、第1の出射部102〜第3の出射部104を完全に停止させる必要もなく、照射する出力を減らすだけでも、通常動作モードより低消費電力になることは言うまでもない。   In addition, the control unit 101 does not need to completely stop the first emission unit 102 to the third emission unit 104, and it goes without saying that the power consumption is lower than that in the normal operation mode only by reducing the irradiation output. .

<非可視光を出射させる出射部の選択方法>
本発明の実施の形態2における非可視光を出射させる出射部の選択方法について、図4及び図5を用いて説明する。
<Selection method of emitting part for emitting invisible light>
A method for selecting an emission part for emitting invisible light according to the second embodiment of the present invention will be described with reference to FIGS.

制御部101は、ステップST309及びステップST310の処理の前に、各波長λ11、λ12、λ13の光反射率に基づいて非可視光を出射させる出射部を選択する。   The control unit 101 selects an emitting unit that emits invisible light based on the light reflectance of each of the wavelengths λ11, λ12, and λ13 before the processing of step ST309 and step ST310.

具体的に、図5において、実線は、人間には青色に見える被写体(以下、「被写体B」と記載する)の各波長に対する光反射率を示し、一点鎖線は、人間には緑色に見える被写体(以下、「被写体G」と記載する)の各波長に対する光反射率を示し、破線は、人間には赤色に見える被写体(以下、「被写体R」と記載する)の各波長に対する光反射率を、それぞれ示す。図5では、被写体として青色、緑色、及び赤色の色紙を用いた。   Specifically, in FIG. 5, the solid line indicates the light reflectance for each wavelength of a subject that appears blue to humans (hereinafter referred to as “subject B”), and the alternate long and short dash line indicates a subject that appears green to humans. The light reflectance for each wavelength of the subject (hereinafter referred to as “subject G”) is shown, and the broken line indicates the light reflectance for each wavelength of a subject that appears red to humans (hereinafter referred to as “subject R”). , Respectively. In FIG. 5, blue, green, and red colored papers are used as subjects.

図5より、波長λ11は、被写体B、被写体G、及び被写体Rの全てにおいて光反射率が最も高い波長である。波長λ12は、被写体B、被写体G、及び被写体Rの全てにおいて光反射率が最も低い波長である。波長λ13は、波長λ11の反射特性と波長λ12の反射特性との中間の反射特性を有しており、更に被写体B、被写体G、及び被写体Rとで、顕著に異なる反射特性を示している。   From FIG. 5, the wavelength λ11 is the wavelength having the highest light reflectance in all of the subject B, the subject G, and the subject R. The wavelength λ12 is the wavelength having the lowest light reflectance in all of the subject B, the subject G, and the subject R. The wavelength λ13 has an intermediate reflection characteristic between the reflection characteristic of the wavelength λ11 and the reflection characteristic of the wavelength λ12, and also shows significantly different reflection characteristics for the subject B, the subject G, and the subject R.

上述の特性を考慮して、制御部101は、図4に示すように、第1の出射部102から出射される波長λ11の非可視光のみを出射させる。これにより、カメラ装置100は、図4に示すように、波長λ11の非可視光を時刻t0、t3、及びt6のタイミングで出射する。一方、カメラ装置100は、波長λ12及び波長λ13の非可視光を出射しない。   In consideration of the above-described characteristics, the control unit 101 emits only invisible light having the wavelength λ11 emitted from the first emission unit 102, as shown in FIG. Thereby, as shown in FIG. 4, the camera apparatus 100 emits invisible light having the wavelength λ11 at timings t0, t3, and t6. On the other hand, the camera device 100 does not emit invisible light having the wavelengths λ12 and λ13.

本実施の形態では、波長λ11の被写体B、被写体G、及び被写体Rの平均の光反射率を1とした場合、波長λ12の平均の光反射率は約0.25、及び波長λ13の平均の光反射率は約0.75である。これは、第1の出射部102〜第3の出射部104の各々から出射した非可視光の出射強度が同じである場合、波長λ12の映像信号に対する雑音の影響が、波長λ11に対して約4倍になることを示しており、つまり、色を推定する精度が低下することを意味している。そこで、制御部101は、第1の出射部102から波長λ11の非可視光のみを出射させる。これにより、第1の出射部102〜第3の出射部104の各々に搭載されたLEDを、高価な高出力品などに変更することなく雑音の影響を最小化することができる。   In this embodiment, when the average light reflectance of the subject B, the subject G, and the subject R having the wavelength λ11 is 1, the average light reflectance of the wavelength λ12 is about 0.25 and the average of the wavelength λ13. The light reflectance is about 0.75. This is because when the emission intensity of the invisible light emitted from each of the first emission unit 102 to the third emission unit 104 is the same, the influence of noise on the video signal having the wavelength λ12 is approximately about the wavelength λ11. This indicates that the color is estimated to be four times, that is, the accuracy of estimating the color is reduced. Therefore, the control unit 101 emits only invisible light having the wavelength λ11 from the first emitting unit 102. Thereby, the influence of noise can be minimized without changing the LED mounted on each of the first emission unit 102 to the third emission unit 104 to an expensive high-power product or the like.

本実施の形態において、被写体B、被写体G、及び被写体Rの光反射率を使って非可視光を出射させる出射部を選択したが、これに限らず、第1の出射部102〜第3の出射部104の各々から出射する波長スペクトル、撮影する被写体の色、材質、被写体の距離、または色の推定精度などを考慮して、第1の出射部102〜第3の出射部104の中から非可視光を出射させる出射部を選択してもよい。なお、非可視光を出射させる出射部の選択方法は、この限りではない。   In the present embodiment, the emitting unit that emits the invisible light is selected using the light reflectance of the subject B, the subject G, and the subject R. However, the present invention is not limited to this, and the first emitting unit 102 to the third emitting unit 102 Considering the wavelength spectrum emitted from each of the emission units 104, the color of the subject to be photographed, the material, the distance of the subject, or the color estimation accuracy, the first emission unit 102 to the third emission unit 104 You may select the output part which radiate | emits non-visible light. In addition, the selection method of the emission part which emits invisible light is not this limitation.

このように、本実施の形態によれば、被写体10が静止している場合に第2の出射部103及び第3の出射部104の駆動を停止させるので、低消費電力にすることができる。   As described above, according to the present embodiment, when the subject 10 is stationary, the driving of the second emission unit 103 and the third emission unit 104 is stopped, so that low power consumption can be achieved.

また、本実施の形態によれば、被写体10が静止している場合に第1の出射部102のみを駆動させるので、第1の出射部102〜第3の出射部104の全ての駆動を停止させる場合に比べて、実際の画像により近い画像を表示させることができる。   Further, according to the present embodiment, when the subject 10 is stationary, only the first emission unit 102 is driven, so that all driving of the first emission unit 102 to the third emission unit 104 is stopped. An image closer to the actual image can be displayed as compared with the case where the image is displayed.

また、本実施の形態によれば、十分な信号対雑音比(S/N)の画像を得ることができるとともに、低消費電力のカメラ装置を提供することができるようになる。更に、バッテリーで動作させた場合には、長時間の動作が可能となる。   Further, according to the present embodiment, an image with a sufficient signal-to-noise ratio (S / N) can be obtained, and a camera device with low power consumption can be provided. Further, when operated with a battery, it is possible to operate for a long time.

(実施の形態2)
本実施の形態に係るカメラ装置は、構成に対して特に制約は無く、例えば、実施の形態1に示すカメラ装置100と同一構成にすることができる。なお、本実施の形態では、図2に示すカメラ装置100の符号を用いて説明する。また、本実施の形態において、カメラ装置100の動作は図3と同一であるので、その説明を省略する。
(Embodiment 2)
The camera device according to the present embodiment is not particularly limited with respect to the configuration, and for example, can be configured the same as the camera device 100 shown in the first embodiment. In the present embodiment, description will be made using the reference numerals of the camera device 100 shown in FIG. In the present embodiment, the operation of the camera apparatus 100 is the same as that in FIG.

<非可視光を出射させる出射部の選択方法>
本発明の実施の形態2における非可視光を出射させる出射部の選択方法について説明する。
<Selection method of emitting part for emitting invisible light>
A method for selecting an emission part that emits invisible light according to Embodiment 2 of the present invention will be described.

波長λ11は、寿命が最も長い第1の出射部102から出射される非可視光の波長である。波長λ12は、寿命が最も短い第2の出射部103から出射される非可視光の波長である。波長λ13は、第1の出射部102の寿命と第2の出射部103の寿命との中間の寿命を有する第3の出射部104から出射される非可視光の波長である。   The wavelength λ11 is the wavelength of invisible light emitted from the first emission unit 102 having the longest lifetime. The wavelength λ12 is the wavelength of invisible light emitted from the second emission unit 103 having the shortest lifetime. The wavelength λ13 is the wavelength of the invisible light emitted from the third emitting unit 104 having a lifetime that is intermediate between the lifetime of the first emitting unit 102 and the lifetime of the second emitting unit 103.

制御部101は、寿命が最も長い光源である第1の出射部102から出射される波長λ11の非可視光のみを出射させる。   The control unit 101 emits only invisible light having a wavelength λ11 emitted from the first emission unit 102 that is the light source having the longest lifetime.

このように、本実施の形態によれば、上記実施の形態1の効果に加えて、静止画撮影モードにおいて、寿命が最も長い光源である第1の出射部102から波長λ11の非可視光を出射させることにより、カメラ装置100全体の寿命を長くすることができる。   As described above, according to the present embodiment, in addition to the effect of the first embodiment, in the still image shooting mode, invisible light having the wavelength λ11 is emitted from the first emission unit 102 that is the light source having the longest lifetime. By emitting the light, the lifetime of the entire camera device 100 can be extended.

(実施の形態3)
本実施の形態に係るカメラ装置は、構成に対して特に制約は無く、例えば、実施の形態1に示すカメラ装置100と同一構成にすることができる。なお、本実施の形態では、図2に示すカメラ装置100の符号を用いて説明する。また、本実施の形態において、カメラ装置100の動作は図3と同一であるので、その説明を省略する。
(Embodiment 3)
The camera device according to the present embodiment is not particularly limited with respect to the configuration, and for example, can be configured the same as the camera device 100 shown in the first embodiment. In the present embodiment, description will be made using the reference numerals of the camera device 100 shown in FIG. In the present embodiment, the operation of the camera apparatus 100 is the same as that in FIG.

<非可視光を出射させる出射部の選択方法>
本発明の実施の形態3における非可視光を出射させる出射部の選択方法について、図6を用いて説明する。なお、図6は、光源である第1の出射部102〜第3の出射部104の波長と発光効率との一例を示している。
<Selection method of emitting part for emitting invisible light>
A method for selecting an emission part for emitting invisible light according to Embodiment 3 of the present invention will be described with reference to FIG. FIG. 6 shows an example of the wavelengths and light emission efficiencies of the first emission part 102 to the third emission part 104 that are light sources.

図6より、波長λ11は、光源の発光効率(光源の電気―光変換効率のこと)が最も高い。波長λ11は、第1の出射部102から出射される非可視光の波長である。波長λ12は、発光効率が最も低い。波長λ12は、第2の出射部103から出射される非可視光の波長である。波長λ13は、第1の出射部102の発光効率と第2の出射部103の発光効率との中間の発光効率を有する。波長λ13は、第3の出射部104から出射される非可視光の波長である。   From FIG. 6, the wavelength λ11 has the highest luminous efficiency of the light source (electrical-light conversion efficiency of the light source). The wavelength λ11 is the wavelength of invisible light emitted from the first emission unit 102. The wavelength λ12 has the lowest luminous efficiency. The wavelength λ12 is the wavelength of invisible light emitted from the second emission unit 103. The wavelength λ13 has a light emission efficiency intermediate between the light emission efficiency of the first emission unit 102 and the light emission efficiency of the second emission unit 103. The wavelength λ13 is the wavelength of invisible light emitted from the third emitting unit 104.

制御部101は、図6より、発光効率の最も高い第1の出射部102のみから波長λ11の非可視光を出射させる。   As shown in FIG. 6, the control unit 101 emits invisible light having the wavelength λ11 only from the first emission unit 102 having the highest light emission efficiency.

具体的に、この発光効率は、波長λ11の光を照射するLEDは総投入電力の30%が光に、残りの70%が熱になることを示しており、波長λ12の光を照射するLEDは総投入電力の10%が光に、残りの90%が熱になることを示しており、波長λ13の光を照射するLEDは総投入電力の20%が光に、残りの80%が熱になることを示している。   Specifically, this light emission efficiency indicates that 30% of the total input power is light and the remaining 70% is heat for an LED that emits light of wavelength λ11. Indicates that 10% of the total input power is light and the remaining 90% is heat, and an LED that irradiates light of wavelength λ13 has 20% of the total input power to light and the remaining 80% heat. It shows that it becomes.

これにより、例えば、使用するLEDまたは電気回路部品に、高電流に対応した高価な部品を使用する必要がなくなる。また、放熱対策用の部品も減らすことができ、カメラ装置の小型化も容易となる。   Thereby, for example, it is not necessary to use expensive parts corresponding to high currents for the LED or electric circuit parts to be used. In addition, heat radiation countermeasure parts can be reduced, and the camera device can be easily downsized.

なお、本実施の形態では、使用するLEDの発光効率のみを考えて出射部を選択したが、LEDの周辺回路の効率、または使用する電源の効率などを考慮して出射部を選択してもよい。   In the present embodiment, the emitting unit is selected considering only the light emission efficiency of the LED to be used. However, even if the emitting unit is selected in consideration of the efficiency of the peripheral circuit of the LED or the efficiency of the power source to be used. Good.

このように、本実施の形態によれば、上記実施の形態1の効果に加えて、静止画撮影モードにおいて、発光効率の最も高い第1の出射部102のみから非可視光を出射させることにより、被写体10を効率よく照射することができる。   As described above, according to the present embodiment, in addition to the effect of the first embodiment, in the still image shooting mode, the non-visible light is emitted only from the first emission unit 102 having the highest light emission efficiency. The object 10 can be irradiated efficiently.

(実施の形態4)
本実施の形態に係るカメラ装置は、構成に対して特に制約は無く、例えば、実施の形態1に示すカメラ装置100と同一構成にすることができる。なお、本実施の形態では、図2に示すカメラ装置100の符号を用いて説明する。
(Embodiment 4)
The camera device according to the present embodiment is not particularly limited with respect to the configuration, and for example, can be configured the same as the camera device 100 shown in the first embodiment. In the present embodiment, description will be made using the reference numerals of the camera device 100 shown in FIG.

<カメラ装置の動作>
本発明の実施の形態4に係るカメラ装置100の動作について、図7を用いて説明する。なお、図7において、破線は通常撮影モードにおける出射強度及びデューティー比を示し、実線は静止画撮影モードにおける出射強度及びデューティー比を示している。
<Operation of camera device>
The operation of the camera device 100 according to Embodiment 4 of the present invention will be described with reference to FIG. In FIG. 7, the broken line indicates the emission intensity and the duty ratio in the normal shooting mode, and the solid line indicates the emission intensity and the duty ratio in the still image shooting mode.

本実施の形態では、図7に示すように、制御部101は、静止画撮影モードにおいて、通常撮影モードに比べて、第1の出射部102から出射される波長λ11の非可視光の出射強度を低くするとともにデューティー比を長くする。   In the present embodiment, as shown in FIG. 7, in the still image shooting mode, the control unit 101 emits invisible light of wavelength λ11 emitted from the first emitting unit 102 as compared with the normal shooting mode. While lowering the duty ratio.

なお、本実施の形態に係るカメラ装置100は、上記動作以外の動作は図3と同一であるので、その説明を省略する。   The camera device 100 according to the present embodiment is the same as that in FIG.

このように、本実施の形態によれば、上記実施の形態1の効果に加えて、静止画撮影モードにおいて出射強度を低くするとともにデューティー比を長くするので、実施の形態1に比べて、光源へ流すピーク電力を下げることができるため、低消費電力にしながら被写体10を十分に照射することができる。   As described above, according to the present embodiment, in addition to the effect of the first embodiment, the emission intensity is lowered and the duty ratio is increased in the still image shooting mode. Since the peak power flowing to the target can be lowered, the subject 10 can be sufficiently irradiated while reducing the power consumption.

(実施の形態5)
本実施の形態に係るカメラ装置は、構成に対して特に制約は無く、例えば、実施の形態1に示すカメラ装置100と同一構成にすることができる。なお、本実施の形態では、図2に示すカメラ装置100の符号を用いて説明する。
(Embodiment 5)
The camera device according to the present embodiment is not particularly limited with respect to the configuration, and for example, can be configured the same as the camera device 100 shown in the first embodiment. In the present embodiment, description will be made using the reference numerals of the camera device 100 shown in FIG.

<カメラ装置の動作>
本発明の実施の形態5に係るカメラ装置100の動作について、図8を用いて説明する。なお、図8において、破線は通常撮影モードにおける出射強度及びデューティー比を示し、実線は静止画撮影モードにおける出射強度及びデューティー比を示している。
<Operation of camera device>
The operation of the camera device 100 according to Embodiment 5 of the present invention will be described with reference to FIG. In FIG. 8, the broken line indicates the emission intensity and the duty ratio in the normal shooting mode, and the solid line indicates the emission intensity and the duty ratio in the still image shooting mode.

本実施の形態では、図8に示すように、制御部101は、静止画撮影モードにおいて、第1の出射部102から出射される波長λ11の非可視光を超短パルスにする。ここで、超短パルスとは、時間幅が非常に短いパルスを言う。例えば、超短パルスのパルス幅は3ピコ秒である。超短パルスは、例えば、超短パルス半導体レーザーにより生成することができる。   In the present embodiment, as shown in FIG. 8, in the still image shooting mode, the control unit 101 converts the invisible light having the wavelength λ11 emitted from the first emission unit 102 into an ultrashort pulse. Here, the ultrashort pulse means a pulse having a very short time width. For example, the pulse width of the ultrashort pulse is 3 picoseconds. The ultrashort pulse can be generated by, for example, an ultrashort pulse semiconductor laser.

なお、本実施の形態に係るカメラ装置100において、上記動作以外の動作は図3と同一であるので、その説明を省略する。   In camera device 100 according to the present embodiment, operations other than the above operations are the same as those in FIG.

このように、本実施の形態によれば、上記実施の形態1の効果に加えて、静止画撮影モードにおいて超短パルスの非可視光を出射するので、照射部150における発熱を抑制することができる。   As described above, according to the present embodiment, in addition to the effect of the first embodiment, since the ultra-short pulse invisible light is emitted in the still image shooting mode, the heat generation in the irradiation unit 150 can be suppressed. it can.

(実施の形態6)
本実施の形態に係るカメラ装置は、構成に対して特に制約は無く、例えば、実施の形態1に示すカメラ装置100と同一構成にすることができる。なお、本実施の形態では、図2に示すカメラ装置100の符号を用いて説明する。
(Embodiment 6)
The camera device according to the present embodiment is not particularly limited with respect to the configuration, and for example, can be configured the same as the camera device 100 shown in the first embodiment. In the present embodiment, description will be made using the reference numerals of the camera device 100 shown in FIG.

<カメラ装置の動作>
本発明の実施の形態6に係るカメラ装置100の動作について、図9を用いて説明する。
<Operation of camera device>
The operation of the camera device 100 according to Embodiment 6 of the present invention will be described with reference to FIG.

本実施の形態では、図9に示すように、制御部101は、被写体10の動きを検出する際において、第1の出射部102〜第3の出射部104に対して第2の動作を行わせる。即ち、制御部101は、被写体10の動きを検出する際において、通常撮影モードに比べて、第1の出射部102から出射される波長λ11の非可視光の出射強度及びデューティー比を小さくする。また、制御部101は、被写体10の動きを検出する際において、第2の出射部103及び第3の出射部104の駆動を停止させる。   In the present embodiment, as shown in FIG. 9, the control unit 101 performs the second operation on the first emission unit 102 to the third emission unit 104 when detecting the movement of the subject 10. Make it. That is, when detecting the movement of the subject 10, the control unit 101 reduces the emission intensity and the duty ratio of the invisible light having the wavelength λ11 emitted from the first emission unit 102 as compared with the normal imaging mode. Further, the control unit 101 stops driving the second emission unit 103 and the third emission unit 104 when detecting the movement of the subject 10.

なお、本実施の形態に係るカメラ装置100は、上記動作以外の動作は図2と同一であるので、その説明を省略する。また、本実施の形態に係るカメラ装置100は、図2に代えて上記実施の形態2〜実施の形態5の何れかの動作を行うようにしてもよい。また、本実施の形態において、出射強度とデューティー比とを小さくしたが、出射強度とデューティー比との何れか一方のみを小さくしてもよい。   Note that the camera apparatus 100 according to the present embodiment has the same operations as those in FIG. In addition, the camera device 100 according to the present embodiment may perform any one of the operations in the second to fifth embodiments instead of FIG. In the present embodiment, the emission intensity and the duty ratio are reduced, but only one of the emission intensity and the duty ratio may be reduced.

このように、本実施の形態では、被写体の動きを検出する際に、第1の出射部102から出射される波長λ11の非可視光の出射強度またはデューティー比を小さくするとともに、第2の出射部103及び第3の出射部104の駆動を停止させる。これにより、本実施の形態によれば、上記実施の形態1の効果に加えて、実施の形態1に比べて、さらに低消費電力にすることができる。   Thus, in the present embodiment, when detecting the movement of the subject, the emission intensity or duty ratio of the invisible light having the wavelength λ11 emitted from the first emission unit 102 is reduced and the second emission is performed. The driving of the unit 103 and the third emitting unit 104 is stopped. Thereby, according to the present embodiment, in addition to the effects of the first embodiment, it is possible to further reduce the power consumption as compared with the first embodiment.

(実施の形態7)
<カメラ装置の構成>
本発明の実施の形態7に係るカメラ装置900の構成について、図10を用いて説明する。
(Embodiment 7)
<Configuration of camera device>
The configuration of camera apparatus 900 according to Embodiment 7 of the present invention will be described with reference to FIG.

カメラ装置900は、制御部901、照射部150及び撮像部1000を有している。   The camera device 900 includes a control unit 901, an irradiation unit 150, and an imaging unit 1000.

制御部901は、制御情報が外部から入力され、入力された制御情報に基づいて、第1の出射部102、第2の出射部103、及び第3の出射部104からの非可視光の出射を制御する。具体的には、制御部901は、第1の出射部102、第2の出射部103及び第3の出射部104から出射される非可視光のデューティー比を波長毎に異ならせる。   The control unit 901 receives control information from the outside, and emits invisible light from the first emission unit 102, the second emission unit 103, and the third emission unit 104 based on the input control information. To control. Specifically, the control unit 901 varies the duty ratio of invisible light emitted from the first emission unit 102, the second emission unit 103, and the third emission unit 104 for each wavelength.

照射部150は、非可視光を被写体10に照射する。   The irradiation unit 150 irradiates the subject 10 with invisible light.

撮像部1000は、非可視光を照射された被写体10を撮像する。   The imaging unit 1000 images the subject 10 irradiated with invisible light.

<照射部の構成>
本発明の実施の形態7における照射部150の構成について、図10を用いて説明する。なお、図10の照射部150において、図2と同一構成である部分には同一の符号を付してその説明を省略する。
<Configuration of irradiation unit>
The structure of the irradiation part 150 in Embodiment 7 of this invention is demonstrated using FIG. In the irradiating unit 150 in FIG. 10, the same reference numerals are given to the same components as those in FIG. 2, and the description thereof is omitted.

第1の出射部102、第2の出射部103及び第3の出射部104は、制御部901の制御に従って、各々互いに異なる波長λ11、λ12、λ13の非可視光を出射する。なお、第1の出射部102、第2の出射部103及び第3の出射部104における上記以外の他の構成は上記実施の形態1と同一であるので、その説明を省略する。   The first emission unit 102, the second emission unit 103, and the third emission unit 104 emit invisible light having different wavelengths λ11, λ12, and λ13, respectively, under the control of the control unit 901. The other configurations of the first emission unit 102, the second emission unit 103, and the third emission unit 104 other than those described above are the same as those in the first embodiment, and thus description thereof is omitted.

<撮像部の構成>
本発明の実施の形態7における撮像部1000の構成について、図10を用いて説明する。
<Configuration of imaging unit>
The configuration of the imaging unit 1000 according to Embodiment 7 of the present invention will be described with reference to FIG.

図10に示す撮像部1000は、図2に示す実施の形態1に係る撮像部160と比較して、撮像光学部111の代わりに撮像光学部1005を有し、センサー部112の代わりに第1のセンサー部1002、第2のセンサー部1003及び第3のセンサー部1004を有している。なお、図10において、図2と同一構成である部分には同一の符号を付してその説明を省略する。   The imaging unit 1000 illustrated in FIG. 10 includes an imaging optical unit 1005 instead of the imaging optical unit 111 and the first imaging unit instead of the sensor unit 112, as compared with the imaging unit 160 according to Embodiment 1 illustrated in FIG. Sensor unit 1002, second sensor unit 1003, and third sensor unit 1004. 10, parts having the same configuration as in FIG. 2 are denoted by the same reference numerals and description thereof is omitted.

撮像部1000は、データ処理部113と、動き検出部114と、色推定部115と、記憶部116と、第1のセンサー部1002と、第2のセンサー部1003と、第3のセンサー部1004と、撮像光学部1005とから主に構成されている。   The imaging unit 1000 includes a data processing unit 113, a motion detection unit 114, a color estimation unit 115, a storage unit 116, a first sensor unit 1002, a second sensor unit 1003, and a third sensor unit 1004. And the imaging optical unit 1005.

撮像光学部1005は、非可視光を照射された被写体10で反射された反射光を集光する。撮像光学部1005は、集光した波長λ11の反射光を第1のセンサー部1002に導く。撮像光学部1005は、集光した波長λ12の反射光を第2のセンサー部1003に導く。撮像光学部1005は、集光した波長λ13の反射光を第3のセンサー部1004に導く。なお、撮像光学部1005の構成の詳細については、後述する。   The imaging optical unit 1005 condenses the reflected light reflected by the subject 10 irradiated with invisible light. The imaging optical unit 1005 guides the collected reflected light having the wavelength λ11 to the first sensor unit 1002. The imaging optical unit 1005 guides the collected reflected light having the wavelength λ12 to the second sensor unit 1003. The imaging optical unit 1005 guides the collected reflected light having the wavelength λ13 to the third sensor unit 1004. Details of the configuration of the imaging optical unit 1005 will be described later.

第1のセンサー部1002は、制御部901の制御に従って、撮像光学部1005で集光された被写体10からの波長λ11の反射光を受けて、被写体10を撮像し、受けた光を電気信号に変換する。第1のセンサー部1002で変換された電気信号は、撮像データとして第1のセンサー部1002から出力される。   Under the control of the control unit 901, the first sensor unit 1002 receives the reflected light of the wavelength λ11 from the subject 10 collected by the imaging optical unit 1005, images the subject 10, and converts the received light into an electrical signal. Convert. The electrical signal converted by the first sensor unit 1002 is output from the first sensor unit 1002 as imaging data.

第2のセンサー部1003は、制御部901の制御に従って、撮像光学部1005で集光された被写体10からの波長λ12の反射光を受けて、被写体10を撮像し、受けた光を電気信号に変換する。第2のセンサー部1003で変換された電気信号は、撮像データとして第2のセンサー部1003から出力される。   The second sensor unit 1003 receives the reflected light of the wavelength λ12 from the subject 10 collected by the imaging optical unit 1005 under the control of the control unit 901, images the subject 10, and converts the received light into an electrical signal. Convert. The electrical signal converted by the second sensor unit 1003 is output from the second sensor unit 1003 as imaging data.

第3のセンサー部1004は、制御部901の制御に従って、撮像光学部1005で集光された被写体10からの波長λ13の反射光を受けて、被写体10を撮像し、受けた光を電気信号に変換する。第3のセンサー部1004で変換された電気信号は、撮像データとして第3のセンサー部1004から出力される。   Under the control of the control unit 901, the third sensor unit 1004 receives reflected light of the wavelength λ13 from the subject 10 collected by the imaging optical unit 1005, images the subject 10, and converts the received light into an electrical signal. Convert. The electrical signal converted by the third sensor unit 1004 is output from the third sensor unit 1004 as imaging data.

データ処理部113は、第1のセンサー部1002から出力される撮像データを受ける。データ処理部113は、第1のセンサー部1002により出力された波長λ11の撮像データ、第2のセンサー部1003により出力された波長λ12の撮像データ、及び第3のセンサー部1004により出力された波長λ13の撮像データを合成するとともに所定の画像処理を施すことにより画像データを取得する。データ処理部113は、取得した画像データを動き検出部114及び色推定部115に出力するとともに、記憶部116に記憶させる。   The data processing unit 113 receives imaging data output from the first sensor unit 1002. The data processing unit 113 includes the imaging data of the wavelength λ11 output by the first sensor unit 1002, the imaging data of the wavelength λ12 output by the second sensor unit 1003, and the wavelength output by the third sensor unit 1004. Image data is acquired by combining the imaged data of λ13 and applying predetermined image processing. The data processing unit 113 outputs the acquired image data to the motion detection unit 114 and the color estimation unit 115 and stores the acquired image data in the storage unit 116.

データ処理部113は、制御部901からデータ処理制御を受ける。なお、データ処理部113は、第1のセンサー部1002、第2のセンサー部1003及び第3のセンサー部1004から出力される撮像データから、データ処理制御信号の情報も同時に受けることもできることは言うまでもない。   The data processing unit 113 receives data processing control from the control unit 901. It goes without saying that the data processing unit 113 can simultaneously receive information on the data processing control signal from the imaging data output from the first sensor unit 1002, the second sensor unit 1003, and the third sensor unit 1004. Yes.

動き検出部114は、データ処理部113から入力された画像データを解析して、被写体10の動きを検出する。動き検出部114は、被写体10の動きの検出結果を制御部901及び色推定部115に出力する。   The motion detection unit 114 analyzes the image data input from the data processing unit 113 and detects the motion of the subject 10. The motion detection unit 114 outputs the detection result of the motion of the subject 10 to the control unit 901 and the color estimation unit 115.

<撮像光学部の構成>
本発明の実施の形態7における撮像光学部1005の構成について、図11を用いて説明する。
<Configuration of imaging optical unit>
The configuration of the imaging optical unit 1005 in Embodiment 7 of the present invention will be described with reference to FIG.

撮像光学部1005は、プリズム1001及び集光レンズ1006を有している。   The imaging optical unit 1005 includes a prism 1001 and a condenser lens 1006.

プリズム1001は、被写体10からの反射光を波長毎に分離する。プリズム1001は、被写体10からの反射光を第1のセンサー部1002〜第3のセンサー部1004に導く。プリズム1001は、第1の分離部1001a及び第2の分離部1001bを有している。   The prism 1001 separates the reflected light from the subject 10 for each wavelength. The prism 1001 guides reflected light from the subject 10 to the first sensor unit 1002 to the third sensor unit 1004. The prism 1001 has a first separator 1001a and a second separator 1001b.

集光レンズ1006は、被写体10からの反射光を第1のセンサー部1002〜第3のセンサー部1004に集光することで、被写体10の像を第1のセンサー部1002〜第3のセンサー部1004に結像する。集光レンズ1006は、カメラ装置において一般的に用いられる撮像レンズである。   The condensing lens 1006 condenses the reflected light from the subject 10 on the first sensor unit 1002 to the third sensor unit 1004, thereby causing the image of the subject 10 to be in the first sensor unit 1002 to the third sensor unit. An image is formed at 1004. The condenser lens 1006 is an imaging lens that is generally used in camera devices.

撮像光学部1005は、被写体10からの波長λ11の反射光を第1の分離部1001aにより他の波長の反射光と分離して第1のセンサー部1002に導く。撮像光学部1001は、被写体10からの波長λ12の反射光を他の波長の反射光と分離して第2のセンサー部1003に導く。撮像光学部1005は、被写体10からの波長λ13の反射光を第2の分離部1001bにより他の波長の反射光と分離して第3のセンサー部1004に導く。   The imaging optical unit 1005 separates the reflected light of wavelength λ11 from the subject 10 from the reflected light of other wavelengths by the first separation unit 1001a and guides it to the first sensor unit 1002. The imaging optical unit 1001 separates the reflected light of wavelength λ12 from the subject 10 from the reflected light of other wavelengths and guides it to the second sensor unit 1003. The imaging optical unit 1005 separates the reflected light of wavelength λ13 from the subject 10 from the reflected light of other wavelengths by the second separation unit 1001b and guides it to the third sensor unit 1004.

<照射部の動作>
本発明の実施の形態7に係る照射部150の動作について、図12を用いて説明する。
<Operation of irradiation unit>
The operation of the irradiation unit 150 according to Embodiment 7 of the present invention will be described with reference to FIG.

制御部901は、時刻t0において、外部より入力された制御情報に基づいて、第2の出射部103に対して波長λ12の非可視光を出射させ、第3の出射部104に対してデューティー比D4の波長λ13の非可視光を出射させ、第1の出射部102に対してデューティー比D5(D4>D5)の波長λ11の非可視光を出射させる。   At time t0, the control unit 901 causes the second emitting unit 103 to emit invisible light having the wavelength λ12 based on the control information input from the outside, and the duty ratio to the third emitting unit 104. The invisible light having the wavelength λ13 of D4 is emitted, and the invisible light having the wavelength λ11 having the duty ratio D5 (D4> D5) is emitted to the first emitting unit 102.

制御部901は、時刻t1において、外部より入力された制御情報に基づいて、第1の出射部102に対して波長λ11の非可視光の出射を停止させる。   At time t1, the control unit 901 causes the first emitting unit 102 to stop emitting the invisible light having the wavelength λ11 based on the control information input from the outside.

制御部901は、時刻t2において、外部より入力された制御情報に基づいて、第3の出射部104に対して波長λ13の非可視光の出射を停止させる。   At time t2, the control unit 901 causes the third emitting unit 104 to stop emitting the invisible light with the wavelength λ13 based on the control information input from the outside.

制御部901は、時刻t3において、外部より入力された制御情報に基づいて、第3の出射部104に対してデューティー比D4の波長λ13の非可視光を出射させるとともに、第1の出射部102に対してデューティー比D5の波長λ11の非可視光を出射させる。   At time t3, the control unit 901 causes the third emitting unit 104 to emit invisible light having the wavelength λ13 having the duty ratio D4 and the first emitting unit 102 based on control information input from the outside. In contrast, invisible light having a wavelength λ11 having a duty ratio D5 is emitted.

制御部901は、時刻t4において、外部より入力された制御情報に基づいて、第1の出射部102に対して波長λ11の非可視光の出射を停止させる。   At time t4, the control unit 901 causes the first emitting unit 102 to stop emitting the invisible light with the wavelength λ11 based on the control information input from the outside.

制御部901は、時刻t5において、外部より入力された制御情報に基づいて、第3の出射部104に対して波長λ13の非可視光の出射を停止させる。   At time t5, the control unit 901 causes the third emitting unit 104 to stop emitting the invisible light having the wavelength λ13 based on the control information input from the outside.

これ以後、制御部901は、上記の処理を繰り返す。なお、第1の出射部102〜第3の出射部104から出射される光の出射強度は、同一である。   Thereafter, the control unit 901 repeats the above processing. The emission intensity of the light emitted from the first emission unit 102 to the third emission unit 104 is the same.

時刻t0において出射された波長λ12の非可視光に対する、被写体10からの反射光、第2のセンサー部1003で変換される電気信号、第2のセンサー部1003から出力される撮像データ、及びデータ処理部113から出力される画像データを、1−1フレームとする。   Reflected light from the subject 10, the electrical signal converted by the second sensor unit 1003, the imaging data output from the second sensor unit 1003, and data processing for the invisible light of wavelength λ12 emitted at time t0 The image data output from the unit 113 is assumed to be 1-1 frames.

時刻t0において出射された波長λ13の非可視光に対する、被写体10からの反射光、第3のセンサー部1004で変換される電気信号、第3のセンサー部1004から出力される撮像データ、及びデータ処理部113から出力される画像データを、1−2フレームとする。   Reflected light from the object 10, electrical signals converted by the third sensor unit 1004, imaging data output from the third sensor unit 1004, and data processing for invisible light of wavelength λ13 emitted at time t0 The image data output from the unit 113 is assumed to be 1-2 frames.

時刻t0において出射された波長λ11の非可視光に対する、被写体10からの反射光、第1のセンサー部1002で変換される電気信号、第1のセンサー部1002から出力される撮像データ、及びデータ処理部113から出力される画像データを、1−3フレームとする。   Reflected light from the object 10, electrical signals converted by the first sensor unit 1002, imaging data output from the first sensor unit 1002, and data processing with respect to the invisible light of wavelength λ11 emitted at time t0 The image data output from the unit 113 is 1-3 frames.

なお、非可視光の発光周期Tは、最も長い時間照射されている波長λ12の非可視光の時間の2分の1と同じである。   The invisible light emission period T is the same as one half of the time of invisible light having the wavelength λ12 irradiated for the longest time.

時刻t3において出射された波長λ12の非可視光に対する、被写体10からの反射光、第2のセンサー部1003で変換される電気信号、第2のセンサー部1003から出力される撮像データ、及びデータ処理部113から出力される画像データを、2−1フレームとする。   Reflected light from the subject 10, the electrical signal converted by the second sensor unit 1003, the imaging data output from the second sensor unit 1003, and data processing for the invisible light of wavelength λ12 emitted at time t3 The image data output from the unit 113 is 2-1 frame.

時刻t3において出射された波長λ13の非可視光に対する、被写体10からの反射光、第3のセンサー部1004で変換される電気信号、第3のセンサー部1004から出力される撮像データ、及びデータ処理部113から出力される画像データを、2−2フレームとする。   Reflected light from the object 10, electrical signals converted by the third sensor unit 1004, imaging data output from the third sensor unit 1004, and data processing for the invisible light of wavelength λ13 emitted at time t3 The image data output from the unit 113 is 2-2 frames.

時刻t3において出射された波長λ11の非可視光に対する、被写体10からの反射光、第1のセンサー部1002で変換される電気信号、第1のセンサー部1002から出力される撮像データ、及びデータ処理部113から出力される画像データを、2−3フレームとする。   Reflected light from the subject 10, the electrical signal converted by the first sensor unit 1002, the imaging data output from the first sensor unit 1002, and data processing for the invisible light of wavelength λ11 emitted at time t3 The image data output from the unit 113 is 2-3 frames.

色推定部115は、データ処理部113により出力された、非可視光の時刻t0からの発光周期T内で作成される1−1フレームから1−3フレームまでの画像データのスペクトルに基づいて色の推定を行う。色推定部115は、1−1フレームから1−3フレームの画像データで色を推定した結果に基づいて、被写体10を表示するための表示用データを生成し、モニタ200に出力する。   The color estimation unit 115 outputs the color based on the spectrum of the image data from the 1-1 frame to the 1-3 frame generated within the light emission period T from the time t0 of the invisible light output by the data processing unit 113. Estimate The color estimation unit 115 generates display data for displaying the subject 10 based on the result of estimating the color from the image data of the 1-1 frame to the 1-3 frame, and outputs the display data to the monitor 200.

また、色推定部115は、データ処理部113により出力された、非可視光の時刻t3からの発光周期T内で作成される2−1フレームから2−3フレームまでの画像データのスペクトルに基づいて色の推定を行う。色推定部115は、2−1フレームから2−3フレームの画像データで色を推定した結果に基づいて、被写体10を表示するための表示用データを生成し、外部に出力する。   Further, the color estimation unit 115 is based on the spectrum of the image data from the 2-1 frame to the 2-3 frame generated within the light emission period T from the time t3 of the invisible light output by the data processing unit 113. Color estimation. The color estimation unit 115 generates display data for displaying the subject 10 based on the result of estimating the color from the image data of the 2-1 frame to the 2-3 frame and outputs the display data to the outside.

つまり、非可視光の発光周期T毎、言い換えれば、最も長い時間照射されている波長λ12の非可視光のフレーム毎に色を推定した結果に基づいた表示用データがモニタ200に出力される。   That is, display data is output to the monitor 200 based on the result of estimating the color for each invisible light emission period T, in other words, for each frame of invisible light having the wavelength λ 12 that has been irradiated for the longest time.

そして、制御部901は、被写体10が静止している場合に、第1の出射部102のみを駆動させ、第2の出射部103及び第3の出射部104の駆動を停止させる。   Then, when the subject 10 is stationary, the control unit 901 drives only the first emission unit 102 and stops driving the second emission unit 103 and the third emission unit 104.

本実施の形態によれば、上記実施の形態1の効果に加えて、第1の出射部102〜第3の出射部104から出射される非可視光のデューティー比を波長毎に異ならせることにより、十分な信号対雑音比(S/N)の画像を得つつ、低消費電力のカメラ装置を提供することができる。更に、バッテリーで動作させた場合には、長時間の動作が可能となる。   According to the present embodiment, in addition to the effect of the first embodiment, the duty ratio of the invisible light emitted from the first emission unit 102 to the third emission unit 104 is made different for each wavelength. It is possible to provide a low power consumption camera device while obtaining an image having a sufficient signal-to-noise ratio (S / N). Further, when operated with a battery, it is possible to operate for a long time.

また、本実施の形態によれば、撮像部900において撮像光学部1005で非可視光を波長毎に分離して第1のセンサー部1002〜第3のセンサー部1004の各々に結像させるので、撮像部1000における信号処理を簡単にすることができる。   Further, according to the present embodiment, in the imaging unit 900, the imaging optical unit 1005 separates invisible light for each wavelength and forms an image on each of the first sensor unit 1002 to the third sensor unit 1004. Signal processing in the imaging unit 1000 can be simplified.

また、本実施の形態によれば、波長λ11の非可視光について、時間的に連続して出射するので、全ての波長の非可視光を間欠的に出射する場合に比べて、信号処理を簡単にすることができる。   In addition, according to the present embodiment, invisible light with wavelength λ11 is emitted continuously in time, so signal processing is simpler than when invisible light with all wavelengths is emitted intermittently. Can be.

また、本実施の形態によれば、波長λ12及び波長λ13の非可視光について、反射特性に応じてデューティー比を可変にする場合、または、光源の光電変換効率に応じてデューティー比を可変にする場合には、照明光学部105から出射される光を高輝度にすることができ、遠くの被写体10を照射して撮像することができる。   In addition, according to the present embodiment, for invisible light of wavelength λ12 and wavelength λ13, the duty ratio is made variable according to the reflection characteristics, or the duty ratio is made variable according to the photoelectric conversion efficiency of the light source. In this case, the light emitted from the illumination optical unit 105 can have high luminance, and the far subject 10 can be irradiated and imaged.

また、本実施の形態によれば、波長λ12及び波長λ13の非可視光について、光源の寿命に応じてデューティー比を可変にする場合には、カメラ装置900の寿命を長くすることができる。   Further, according to the present embodiment, when the duty ratio of the invisible light having the wavelengths λ12 and λ13 is made variable according to the lifetime of the light source, the lifetime of the camera device 900 can be extended.

また、本実施の形態によれば、波長λ12及び波長λ13の非可視光について、光源の発光効率に応じてデューティー比を可変にする場合には、十分な信号対雑音比(S/N)の画像を得つつ、さらに低消費電力のカメラ装置900を提供することができる。   In addition, according to the present embodiment, when the duty ratio of the invisible light having the wavelengths λ12 and λ13 is made variable according to the light emission efficiency of the light source, a sufficient signal-to-noise ratio (S / N) is obtained. It is possible to provide a camera device 900 with lower power consumption while obtaining an image.

また、本実施の形態によれば、波長λ12及び波長λ13の非可視光を間欠的に出射させるので、第2の出射部103及び第3の出射部104における発熱を抑制することができるので、放熱板等の放熱手段が簡素化でき、小型で安価なカメラ装置900を提供することができるようになる。   In addition, according to the present embodiment, since the invisible light of the wavelength λ12 and the wavelength λ13 is intermittently emitted, heat generation in the second emission unit 103 and the third emission unit 104 can be suppressed. The heat radiating means such as the heat radiating plate can be simplified, and a small and inexpensive camera device 900 can be provided.

(実施の形態8)
本実施の形態に係るカメラ装置は、波長フィルタ1302を追加し、センサー部112の代わりにセンサー部1300を有する以外は図2と同一構成であるので、センサー部1300及び波長フィルタ1302以外の説明を省略する。なお、本実施の形態では、センサー部1300及び波長フィルタ1302以外の構成は、図2に示すカメラ装置100の符号を用いて説明する。
(Embodiment 8)
The camera device according to the present embodiment has the same configuration as that of FIG. 2 except that a wavelength filter 1302 is added and a sensor unit 1300 is provided instead of the sensor unit 112. Therefore, descriptions other than the sensor unit 1300 and the wavelength filter 1302 will be given. Omitted. In the present embodiment, configurations other than the sensor unit 1300 and the wavelength filter 1302 will be described using reference numerals of the camera device 100 illustrated in FIG.

<センサー部の構成>
本発明の実施の形態8におけるセンサー部1300の構成について、図13を用いて説明する。
<Configuration of sensor unit>
A configuration of sensor unit 1300 according to the eighth embodiment of the present invention will be described with reference to FIG.

センサー部1300は、受光素子1301を有している。   The sensor unit 1300 includes a light receiving element 1301.

受光素子1301は、複数のピクセル1301e、1301f、1301g、1301hを有している。   The light receiving element 1301 includes a plurality of pixels 1301e, 1301f, 1301g, and 1301h.

図13において、ピクセル1301eをP1、ピクセル1301fをP2、ピクセル1301gをP3、ピクセル1301hをP4として、それぞれ示している。   In FIG. 13, the pixel 1301e is shown as P1, the pixel 1301f as P2, the pixel 1301g as P3, and the pixel 1301h as P4.

それぞれのピクセル1301e〜1301hは、入射した光を電気信号に変換する。ピクセル1301e〜1301hの数は、通常数百〜数千万個であるが、正確に書くことは困難なので、図13においては、模式的に示している。なお、ピクセルの数は、必要とする画像の解像度に応じて任意に選ぶことができる。   Each of the pixels 1301e to 1301h converts incident light into an electrical signal. The number of pixels 1301e to 1301h is normally several hundred to several tens of millions, but it is difficult to write accurately, and thus is schematically shown in FIG. The number of pixels can be arbitrarily selected according to the required image resolution.

本実施の形態のセンサー部1300においては、横に1920個、及び縦に1080個のピクセルを配列した受光素子1301を用いた。   In the sensor unit 1300 of this embodiment, a light receiving element 1301 in which 1920 pixels are arranged horizontally and 1080 pixels is arranged vertically is used.

<センサー部の特性>
本発明の実施の形態8におけるセンサー部1300の特性について、図14を用いて説明する。
<Characteristics of sensor part>
The characteristics of the sensor unit 1300 according to the eighth embodiment of the present invention will be described with reference to FIG.

図14は、センサー部1300が有するピクセル1301e〜1301hの、波長に対する量子効率の特性を示している。図14において、1301mはピクセル1301eが有する特性、1301nはピクセル1301fとピクセル1301gとが有する特性、及び、1301oはピクセル1301hが有する特性を、それぞれ示している。   FIG. 14 shows the quantum efficiency characteristics of the pixels 1301e to 1301h included in the sensor unit 1300 with respect to the wavelength. In FIG. 14, reference numeral 1301m denotes a characteristic of the pixel 1301e, reference numeral 1301n denotes a characteristic of the pixel 1301f and the pixel 1301g, and reference numeral 1301o denotes a characteristic of the pixel 1301h.

ピクセル1301e〜1301hのいずれも、赤外光の波長領域で感度を有している。   Any of the pixels 1301e to 1301h has sensitivity in the wavelength region of infrared light.

ピクセル1301eは、可視光の赤色に相当する波長領域の感度が、可視光の緑色の波長領域と青色の波長領域の感度よりも高くなるようにしている。   The pixel 1301e is configured such that the sensitivity in the wavelength region corresponding to the red color of visible light is higher than the sensitivity in the green wavelength region and the blue wavelength region of visible light.

また、ピクセル1301f及びピクセル1301gは、可視光の緑色に相当する波長領域の感度が、可視光の赤色の波長領域と青色の波長領域の感度よりも高くなるようにしている。   Further, the pixel 1301f and the pixel 1301g are configured such that the sensitivity in the wavelength region corresponding to the green color of visible light is higher than the sensitivity in the red wavelength region and the blue wavelength region of visible light.

また、ピクセル1301hは、可視光の青色に相当する波長領域の感度が、可視光の赤色の波長領域と緑色の波長領域の感度よりも高くなるようにしている。   The pixel 1301h is configured such that the sensitivity in the wavelength region corresponding to the blue color of visible light is higher than the sensitivity in the red wavelength region and the green wavelength region of visible light.

具体的には、各ピクセル1301e〜1301hの上部に上述の特性を有するカラーフィルタを設けている。この構成は、可視光をカラーで受光するイメージセンサーで一般的に用いられている構成と同様なので、詳しい説明は省略する。   Specifically, a color filter having the above-described characteristics is provided above each of the pixels 1301e to 1301h. Since this configuration is the same as that generally used in image sensors that receive visible light in color, detailed description thereof is omitted.

カメラ装置にセンサー部1300を用いる場合、例えば日中の太陽や夜間の街灯等、外部から可視光が被写体に照明されるとき、被写体を実際に即した色を撮影することが可能となる。   When the sensor unit 1300 is used in the camera device, for example, when visible light is illuminated on the subject from the outside, such as the sun during the day or a streetlight at night, it is possible to capture a color that matches the subject.

具体的には、カラーの1ピクセル(以下、等価的な1ピクセルとする)を構成しているとみなせる画像データは、1組のピクセル1301e〜1301h、すなわち4つのピクセルにより得ることができる。   Specifically, image data that can be regarded as constituting one pixel of color (hereinafter referred to as an equivalent pixel) can be obtained by a set of pixels 1301e to 1301h, that is, four pixels.

非可視光である光を用いて、被写体の色を推定する際には、ピクセル1301hから出力されるデータを用いる。ピクセル1301hは、波長λ11〜λ13のいずれの波長にも十分な感度を有しているので、実施の形態1に示すカメラ装置と同様に、良好に色を推定することができる。   When estimating the color of a subject using light that is invisible, data output from the pixel 1301h is used. Since the pixel 1301h has sufficient sensitivity to any one of the wavelengths λ11 to λ13, the color can be estimated well as in the camera device described in the first embodiment.

また、ピクセル1301e〜1301gは、紫外光の波長領域の感度はピクセル1301hに比べて低いが、赤外光の波長領域の感度は、ピクセル1301hと同様である。そのため、用いる非可視光が、赤外光の波長領域の光の場合には、ピクセル1301e〜1301gも用いても良い。赤外光の波長領域の光を検出可能なピクセルを極力多く用いることで、被写体に照射する赤外光の強度を弱めても十分な信号対雑音比(S/N)の撮像を得ることが可能となるので、消費電力の少ないカメラ装置を提供することができるようになる。また、低消費電力になる分、発熱を抑制することができるので、放熱板等の放熱手段が簡素化でき、小型で安価なカメラ装置を提供することができるようになる。   The pixels 1301e to 1301g have lower sensitivity in the wavelength region of ultraviolet light than the pixel 1301h, but the sensitivity in the wavelength region of infrared light is the same as that of the pixel 1301h. Therefore, when the invisible light to be used is light in the wavelength region of infrared light, the pixels 1301e to 1301g may also be used. By using as many pixels that can detect light in the wavelength region of infrared light as much as possible, it is possible to obtain an image with a sufficient signal-to-noise ratio (S / N) even if the intensity of infrared light applied to the subject is reduced. Therefore, a camera device with low power consumption can be provided. Further, since heat generation can be suppressed by the amount of low power consumption, heat dissipation means such as a heat sink can be simplified, and a small and inexpensive camera device can be provided.

なお、ここでは、ピクセル1301e〜1301gは、紫外光の波長領域の感度がピクセル1301hに比べて低く、赤外光の波長領域の感度は、ピクセル1301hと同様である場合について述べたが、ピクセル1301e〜1301gが紫外光の波長領域で良好な感度を有する場合、または、用いる非可視光が紫外光の波長領域の光の場合には、ピクセル1301e〜1301gを用いてもよい。   Note that here, the pixels 1301e to 1301g have a lower sensitivity in the wavelength region of ultraviolet light than the pixel 1301h, and the sensitivity in the wavelength region of infrared light is similar to that of the pixel 1301h. In a case where ˜1301 g has good sensitivity in the wavelength region of ultraviolet light, or invisible light to be used is light in the wavelength region of ultraviolet light, the pixels 1301 e to 1301 g may be used.

等価的な1ピクセルと見なす範囲において、複数のピクセルを用いるかどうかは、以下の判断を行えば良い。   Whether or not to use a plurality of pixels within a range regarded as equivalent one pixel may be determined as follows.

等価的な1ピクセルと見なす範囲において、用いるピクセル数をk、信号の出力の総和をSk、及び、用いるピクセルの中で最大の信号を出力する1個のピクセルの出力をS1としたとき、Skがkの平方根とS1との積よりも大きい場合には、複数のピクセルを用いればよい。一方、Skがkの平方根とS1との積以下の場合には、最大の信号を出力する1個のピクセルを用いることで、S/Nの良い画像を得ることができる。   When the number of pixels to be used is k, the sum of signal outputs is Sk, and the output of one pixel that outputs the maximum signal among the pixels to be used is S1, within the range regarded as one equivalent pixel, Sk Is larger than the product of the square root of k and S1, a plurality of pixels may be used. On the other hand, when Sk is less than or equal to the product of the square root of k and S1, an image with good S / N can be obtained by using one pixel that outputs the maximum signal.

例えば、等価的に1ピクセルと見なす領域で4つのピクセルを用いたとき、Skがkの平方根とS1との積よりも大きい場合には、等価的に1ピクセルと見なす領域の画像情報を生成するのに4つのピクセルを用いれば良い。   For example, when four pixels are used in an area regarded as equivalent to 1 pixel, if Sk is larger than the product of the square root of k and S1, image information of the area regarded as equivalent to 1 pixel is generated. For this purpose, four pixels may be used.

また、光源から出射される光の波長に依存して、Skがkの平方根とS1との積よりも大きいか否かという判断基準に関する結果が異なる場合には、光源から出射される光の波長に応じて、例えば、波長λ12の光を照射して画像を得るときは4つのピクセルを用い、波長λ11の光及び波長λ13の光を照射して画像を得るときは2つのピクセルを用いるというように、ピクセルの数を切り替えてもよい。   In addition, depending on the wavelength of light emitted from the light source, when the result regarding the criterion for determining whether Sk is larger than the product of the square root of k and S1, the wavelength of the light emitted from the light source is different. For example, four pixels are used when an image is obtained by irradiating light of wavelength λ12, and two pixels are used when an image is obtained by irradiating light of wavelength λ11 and light of wavelength λ13. In addition, the number of pixels may be switched.

このことで、各光源から出射される光を照射して得る画像は、それぞれが、最もS/Nの良い画像となり、高い精度で色の推定を行うことができるようになる。   As a result, the images obtained by irradiating the light emitted from each light source are images having the best S / N, and the color can be estimated with high accuracy.

<波長フィルタの構成>
本発明の実施の形態8における波長フィルタ1302の構成について、図15を用いて説明する。
<Configuration of wavelength filter>
The configuration of the wavelength filter 1302 in the eighth embodiment of the present invention will be described with reference to FIG.

図15は、透過させる光の波長を制限する波長フィルタ1302の構成を示している。   FIG. 15 shows the configuration of a wavelength filter 1302 that limits the wavelength of light to be transmitted.

波長フィルタ1302は、被写体10とセンサー部1300との間の光路に配置される。波長フィルタ1302は、領域1302aと領域1302bと領域1302cとを有している。   The wavelength filter 1302 is disposed in the optical path between the subject 10 and the sensor unit 1300. The wavelength filter 1302 has a region 1302a, a region 1302b, and a region 1302c.

<波長フィルタの特性>
本発明の実施の形態8における波長フィルタ1302の特性について、図16〜図18を用いて説明する。
<Characteristics of wavelength filter>
The characteristics of the wavelength filter 1302 according to the eighth embodiment of the present invention will be described with reference to FIGS.

図16は、波長フィルタ1302が有する領域1302aの波長に対する透過率の特性を示している。   FIG. 16 shows the transmittance characteristics of the wavelength filter 1302 with respect to the wavelength of the region 1302a.

領域1302aは、可視光の波長領域の光を透過させ、赤外光及び紫外光の波長領域の光を遮断する特性を有している。   The region 1302a has a characteristic of transmitting light in the visible wavelength region and blocking light in the infrared and ultraviolet wavelength regions.

図17は、領域1302bの波長に対する透過率の特性を示している。領域1302bは、可視光の波長領域の光を遮断し、赤外光及び紫外光の波長領域の光を透過させる特性を有している。   FIG. 17 shows the transmittance characteristics with respect to the wavelength of the region 1302b. The region 1302b has a characteristic of blocking light in the visible wavelength region and transmitting light in the infrared and ultraviolet wavelength regions.

図18は、領域1302cの波長に対する透過率の特性を示している。領域1302cは、全ての波長領域の光を透過させる特性を有している。   FIG. 18 shows the transmittance characteristics with respect to the wavelength of the region 1302c. The region 1302c has a characteristic of transmitting light in all wavelength regions.

<波長フィルタの使用方法>
本発明の実施の形態8における波長フィルタ1302の使用方法について、図19を用いて説明する。
<Usage of wavelength filter>
The usage method of the wavelength filter 1302 in Embodiment 8 of this invention is demonstrated using FIG.

図19は、本実施の形態に係るカメラ装置に波長フィルタ1302を用いた場合の構成図である。なお、図19において、波長フィルタ1302とセンサー部1300との間には、受光素子1303が配置されている。   FIG. 19 is a configuration diagram when the wavelength filter 1302 is used in the camera device according to the present embodiment. In FIG. 19, a light receiving element 1303 is disposed between the wavelength filter 1302 and the sensor unit 1300.

日中の太陽光等の可視光に加えて、赤外光もしくは紫外光も撮影対象に照射されているときには、図19(a)に示すように、波長フィルタ1302の領域1302aが、被写体10とセンサー部1300との間の光路に配置される。   In addition to visible light such as sunlight during the day, infrared light or ultraviolet light is irradiated on the object to be photographed, as shown in FIG. The optical path between the sensor unit 1300 and the sensor unit 1300 is arranged.

これにより、日中の太陽や夜間の街灯等の外部から可視光が被写体10に照射されるとき、赤外光の波長領域の光もしくは紫外光の波長領域の光のセンサー部1300への入射量を減衰させることができるので、実際の色に即した鮮明な画像を得ることが可能となる。   Thereby, when visible light is irradiated on the subject 10 from the outside such as the daytime sun or night street lamp, the incident amount of light in the wavelength region of infrared light or light in the wavelength region of ultraviolet light to the sensor unit 1300. Therefore, it is possible to obtain a clear image that matches the actual color.

暗い空間等で、被写体10に対して赤外光もしくは紫外光を照射することにより色の推定を行うときには、図19(c)に示すように、波長フィルタ1302の領域1302cが、被写体10とセンサー部1300との間の光路に配置される。   When color estimation is performed by irradiating the subject 10 with infrared light or ultraviolet light in a dark space or the like, as shown in FIG. 19C, a region 1302c of the wavelength filter 1302 includes the subject 10 and the sensor. The optical path between the unit 1300 and the unit 1300 is arranged.

領域1302cは全ての波長領域の光を透過させるので、被写体10で反射された光を効率良くセンサー部1300に導くことができる。   Since the region 1302c transmits light in all wavelength regions, the light reflected by the subject 10 can be efficiently guided to the sensor unit 1300.

また、センサー部1300に対して街灯の光または車のヘッドライトの光等の可視光が入射することが望ましく無い場合は、図19(b)に示すように、波長フィルタ1302の領域1302bが、被写体10とセンサー部1300との間の光路に配置される。これにより、望ましくない可視光が減衰されることにより、精度良く色の推定を行えるようになる。   When it is not desirable that visible light such as streetlight light or car headlight light is incident on the sensor unit 1300, the region 1302b of the wavelength filter 1302 is shown in FIG. It is arranged on the optical path between the subject 10 and the sensor unit 1300. As a result, undesirable visible light is attenuated, so that the color can be estimated with high accuracy.

なお、本実施の形態に示す波長フィルタ1302は、3つの領域1302a〜1302cを有しているが、領域1302bを形成しない2つの領域1302a、1302cを有する波長フィルタにする等、透過特性及び領域の数等は、必要に応じて変更しても構わない。   Note that although the wavelength filter 1302 described in this embodiment includes three regions 1302a to 1302c, the wavelength filter 1302 includes two regions 1302a and 1302c that do not form the region 1302b. The number and the like may be changed as necessary.

また、図19においては記載を省略しているが、波長フィルタ1302の領域1302a〜1302cを選択的に用いるために、波長フィルタ1302を動かす手段を設ける。波長フィルタ1302を動かす手段は、リニアモータ、圧電素子、または電磁アクチュエータ等の一般的に知られている方法を適用することができる。   Although omitted in FIG. 19, means for moving the wavelength filter 1302 is provided in order to selectively use the regions 1302 a to 1302 c of the wavelength filter 1302. As a means for moving the wavelength filter 1302, a generally known method such as a linear motor, a piezoelectric element, or an electromagnetic actuator can be applied.

また、波長フィルタ1302において、領域1302a〜1302cを一列に配置したが、特に配置に関して限定は無い。例えば、領域1302a〜1302cを円周上に配置して、回転モータで波長フィルタ1302を動かすなど、領域1302a〜1302cを任意の配置にすることができる。   Further, in the wavelength filter 1302, the regions 1302a to 1302c are arranged in a row, but there is no particular limitation on the arrangement. For example, the regions 1302a to 1302c can be arbitrarily arranged, for example, by arranging the regions 1302a to 1302c on the circumference and moving the wavelength filter 1302 with a rotary motor.

<カメラ装置の動作1>
本発明の実施の形態8に係るカメラ装置の動作1について説明する。
<Operation 1 of Camera Device>
Operation 1 of the camera device according to Embodiment 8 of the present invention will be described.

ピクセル1301e〜1301hは、夜間の赤外光も受光できるように、赤外光の波長領域でも感度を有している。従って、被写体10とセンサー部1300との間の光路に赤外光の波長領域を減衰させるフィルタを設けない場合には、赤外光の波長領域の光もピクセル1301e〜1301hに入射するため、撮影したカラー画像が実施と異なる色合いになる。   The pixels 1301e to 1301h have sensitivity in the wavelength region of infrared light so that infrared light at night can be received. Therefore, when a filter for attenuating the infrared wavelength region is not provided in the optical path between the subject 10 and the sensor unit 1300, light in the infrared wavelength region is also incident on the pixels 1301e to 1301h. The color image is different from the actual color.

例えば、センサー部1300は、被写体10が緑色を有しているときに、赤外光の波長領域の光も受光することで、あたかも被写体10は紫色であるかのような信号を出力する。また、センサー部1300は、全体的に色のコントラストが低い、白っぽい画像であるかのような信号を出力する。   For example, when the subject 10 has a green color, the sensor unit 1300 also receives light in the infrared wavelength region, and outputs a signal as if the subject 10 is purple. In addition, the sensor unit 1300 outputs a signal as if it is a whitish image with low overall color contrast.

本実施の形態に係るカメラ装置においては、日中の太陽光等、可視光が被写体に照射される場合でも、非可視光を照射する。また、本実施の形態に係るカメラ装置は、被写体10で反射された非可視光をセンサー部1300で受光し、色の推定を行う。そして、本実施の形態に係るカメラ装置は、可視光を被写体10に照射して得た信号における紫色及び白色等の実際の被写体10が有している色とは異なっている色に関する情報を、非可視光を照射することで得た色の推定情報に基づき、補正する。   In the camera device according to the present embodiment, invisible light is emitted even when visible light such as daytime sunlight is applied to the subject. In addition, the camera device according to the present embodiment receives the invisible light reflected by the subject 10 by the sensor unit 1300 and estimates the color. Then, the camera device according to the present embodiment provides information regarding colors that are different from the colors of the actual subject 10 such as purple and white in the signal obtained by irradiating the subject 10 with visible light, Correction is performed based on color estimation information obtained by irradiating invisible light.

このような補正により、赤外光の波長領域の光を減衰させるフィルタを設けなくても、鮮やかで、被写体10の実際の色に忠実なカラーの画像を取得可能なカメラ装置を提供することができる。   By such correction, it is possible to provide a camera device capable of acquiring a vivid color image faithful to the actual color of the subject 10 without providing a filter that attenuates light in the infrared wavelength region. it can.

その結果、携帯電話に内蔵させたカメラ装置、またはドアホンに内蔵させたカメラ装置等において、日中等に可視光が照らされたカラー画像と夜間等に赤外光が照らされた画像との両方を取得可能にすることができる。また、その際のカメラ装置は、赤外光の波長領域の光を減衰させるフィルタを設ける必要は無く、更にフィルタを切り替えることも不要なので、小型で安価なカメラ装置にすることができる。   As a result, in a camera device incorporated in a mobile phone or a camera device incorporated in a door phone, both a color image illuminated with visible light during the day and an image illuminated with infrared light at night etc. Can be made available. Further, the camera device at that time does not need to be provided with a filter for attenuating light in the wavelength region of infrared light, and it is not necessary to switch the filter, so that the camera device can be made small and inexpensive.

<カメラ装置の動作2>
本発明の実施の形態8に係るカメラ装置の動作2について説明する。
<Operation 2 of Camera Device>
Operation 2 of the camera device according to Embodiment 8 of the present invention will be described.

カメラ装置により取得したカラー画像における色は、赤外光の波長領域の光が受光素子1303に入射しない場合でも、実際の被写体10の色とは異なる場合がある。   The color in the color image acquired by the camera device may differ from the actual color of the subject 10 even when light in the infrared wavelength region does not enter the light receiving element 1303.

例えば、道路またはトンネルでは、視認性を高めるために、黄色の光を照射する照明装置が設置されている場合がある。この照明装置の照明下で撮影された白色の服を着た人物は、あたかも黄色の服を着ているかのように撮影される。   For example, a lighting device that emits yellow light may be installed on a road or a tunnel in order to improve visibility. A person wearing white clothes photographed under the illumination of the lighting device is photographed as if wearing yellow clothes.

このような場合、取得した画像の色を実際の被写体の色に補正したいという要望と、取得した画像の色はそのままにしておき、被写体の色は何色であるかが判る情報を出力して欲しいという要望とがある。   In such a case, the request to correct the color of the acquired image to the color of the actual subject and the information of the color of the subject are output while leaving the color of the acquired image as it is. There is a request to want.

本実施の形態に係るカメラ装置は、前者の場合には、先に述べたように、非可視光を照射することで得た色の推定情報に基づき、補正すればよい。   In the former case, the camera device according to the present embodiment may be corrected based on color estimation information obtained by irradiating non-visible light as described above.

また、本実施の形態に係るカメラ装置は、後者の場合には、画像信号とは別に色を示す情報を出力するか、または色を示す情報を画像信号に重畳して出力すれば良い。これにより、監視カメラで撮影した画像から、特定したい人物の服装の色または車の色を的確に得ることができ、犯罪捜査等に極めて有効な情報を得られるカメラ装置を提供することができる。   In the latter case, the camera device according to the present embodiment may output information indicating color separately from the image signal, or output the information indicating color superimposed on the image signal. Accordingly, it is possible to provide a camera device that can accurately obtain the clothes color or the car color of the person desired to be identified from the image photographed by the surveillance camera and can obtain extremely effective information for criminal investigations.

(実施の形態9)
本実施の形態に係るカメラ装置は、撮像光学部111の代わりに撮像光学部2000を有する以外は図2と同一構成であるので、撮像光学部2000以外の説明を省略する。また、本実施の形態では、撮像光学部2000以外の構成は、図2に示すカメラ装置100の符号を用いて説明する。
(Embodiment 9)
Since the camera device according to the present embodiment has the same configuration as that of FIG. 2 except that the imaging optical unit 2000 is provided instead of the imaging optical unit 111, the description other than the imaging optical unit 2000 is omitted. In the present embodiment, the configuration other than the imaging optical unit 2000 will be described using the reference numerals of the camera device 100 shown in FIG.

<撮像光学部の構成>
本発明の実施の形態9における撮像光学部2000の構成について、図20を用いて説明する。
<Configuration of imaging optical unit>
The configuration of the imaging optical unit 2000 according to the ninth embodiment of the present invention will be described with reference to FIG.

撮像光学部2000は、1つの受光素子2001と、波長フィルタ2002と、ビーム分離素子2003とを有している。   The imaging optical unit 2000 includes one light receiving element 2001, a wavelength filter 2002, and a beam separation element 2003.

受光素子2001で集光された非可視光は、ビーム分離素子2003及び波長フィルタ2002を透過する。   The invisible light collected by the light receiving element 2001 passes through the beam separation element 2003 and the wavelength filter 2002.

<ビーム分離素子の構成>
本発明の実施の形態9におけるビーム分離素子2003の構成について、図21を用いて説明する。
<Configuration of beam separation element>
The configuration of the beam separation element 2003 according to the ninth embodiment of the present invention will be described with reference to FIG.

ビーム分離素子2003は、4つの領域2003a、2003b、2003c、及び2003dを有している。領域2003a〜2003dは、入射するビームの進行方向を少し異なる方向に変えて出射させるくさび形状をしている。   The beam separation element 2003 has four regions 2003a, 2003b, 2003c, and 2003d. The regions 2003a to 2003d have a wedge shape in which the traveling direction of the incident beam is changed to a slightly different direction and emitted.

<波長フィルタの構成>
本発明の実施の形態9における波長フィルタ2002の構成について、図22を用いて説明する。
<Configuration of wavelength filter>
The configuration of the wavelength filter 2002 according to the ninth embodiment of the present invention will be described with reference to FIG.

波長フィルタ2002は、3つの領域2002a、2002b、2002cを有している。   The wavelength filter 2002 has three regions 2002a, 2002b, and 2002c.

領域2002aは、4つの部分領域2002e、2002f、2002g、及び2002hからなる。また、領域2002bは、4つの部分領域2002i、2002j、2002k、及び2002lからなる。   The region 2002a includes four partial regions 2002e, 2002f, 2002g, and 2002h. The region 2002b is composed of four partial regions 2002i, 2002j, 2002k, and 2002l.

領域2002cは、透過する光の波長を制限する機能を有しておらず、広い波長範囲の光を高い効率で透過させることができる。   The region 2002c does not have a function of limiting the wavelength of light to be transmitted, and can transmit light in a wide wavelength range with high efficiency.

非可視光を用いて撮影対象の有する色を推定するときは、ビーム分離素子2003を透過した波長λ11〜λ13を有する光が、波長フィルタ2002の領域2002aに入射するように、波長フィルタ2002の位置を設定する。   When estimating the color of a subject to be photographed using non-visible light, the position of the wavelength filter 2002 is such that light having wavelengths λ11 to λ13 transmitted through the beam separation element 2003 enters the region 2002a of the wavelength filter 2002. Set.

波長フィルタ2002の領域2002i〜2002lは、可視光の波長、すなわち色に応じて透過率が異なる特性を有している。領域2002i〜2002lは、カラー画像を取得するセンサー部に一般的に用いられているカラーフィルタと同様である。   The regions 2002i to 2002l of the wavelength filter 2002 have characteristics in which the transmittance varies depending on the wavelength of visible light, that is, the color. Regions 2002i to 2002l are similar to a color filter generally used in a sensor unit that acquires a color image.

具体的には、領域2002iは、赤色の波長領域の光を高い効率で透過させ、緑色の波長領域の光と青色の波長領域の光を大きく減衰させる。また、領域2002jと部分領域2002lは、緑色の波長領域の光を高い効率で透過させ、赤色の波長領域の光と青色の波長領域の光を大きく減衰させる。また、領域2002kは、青色の波長領域の光を高い効率で透過させ、赤色の波長領域の光と緑色の波長領域の光を大きく減衰させる。また、領域2002i〜2002lは、いずれも赤外光の波長領域の光を大きく減衰させる特性を有している。   Specifically, the region 2002i transmits light in the red wavelength region with high efficiency, and greatly attenuates light in the green wavelength region and light in the blue wavelength region. Further, the region 2002j and the partial region 2002l transmit the light in the green wavelength region with high efficiency, and greatly attenuate the light in the red wavelength region and the light in the blue wavelength region. The region 2002k transmits light in the blue wavelength region with high efficiency, and greatly attenuates light in the red wavelength region and light in the green wavelength region. Each of the regions 2002i to 2002l has a characteristic of greatly attenuating light in the infrared wavelength region.

ビーム分離素子2003の領域2003aを透過した光は、波長フィルタ2002の領域2002eに、ビーム分離素子2003の領域2002bを透過した光は、波長フィルタ2002の領域2002fに、ビーム分離素子2003の領域2003cを透過した光は、波長フィルタ2002の領域2002gに、ビーム分離素子2003の領域2003dを透過した光は、波長フィルタ2002の領域2002hに、それぞれ入射する。   The light transmitted through the region 2003a of the beam separation element 2003 passes through the region 2002e of the wavelength filter 2002, and the light transmitted through the region 2002b of the beam separation device 2003 enters the region 2002f of the wavelength filter 2002 through the region 2003c of the beam separation element 2003. The transmitted light is incident on the region 2002g of the wavelength filter 2002, and the light transmitted through the region 2003d of the beam separation element 2003 is incident on the region 2002h of the wavelength filter 2002.

<波長フィルタの機能>
本発明の実施の形態9における波長フィルタ2002の機能について、図22を用いて説明する。
<Function of wavelength filter>
The function of the wavelength filter 2002 according to the ninth embodiment of the present invention will be described with reference to FIG.

波長λ11〜λ13を有する光が、波長フィルタ2002の領域2002aに入射したとき、部分領域2002e、2002f、2002g、2002hは、それぞれ波長λ11〜λ13を有する光を、選択的に高い効率で透過させるか、もしくは大きく減衰させるという機能を有している。   When light having wavelengths λ11 to λ13 is incident on region 2002a of wavelength filter 2002, partial regions 2002e, 2002f, 2002g, and 2002h selectively transmit light having wavelengths λ11 to λ13 with high efficiency, respectively. Or has a function of greatly attenuating.

具体的には、部分領域2002eは、波長λ11を有する光を高い効率で透過させ、波長λ12を有する光及び波長λ13を有する光を大きく減衰させる。   Specifically, the partial region 2002e transmits light having the wavelength λ11 with high efficiency, and greatly attenuates light having the wavelength λ12 and light having the wavelength λ13.

また、部分領域2002f及び領域2002gは、波長λ12を有する光を高い効率で透過させ、波長λ11を有する光及び波長λ13を有する光を大きく減衰させる。   Further, the partial region 2002f and the region 2002g transmit light having the wavelength λ12 with high efficiency, and greatly attenuate light having the wavelength λ11 and light having the wavelength λ13.

また、部分領域2002hは、波長λ13を有する光を高い効率で透過させ、波長λ11を有する光及び波長λ12を有する光を大きく減衰させる。   The partial region 2002h transmits light having the wavelength λ13 with high efficiency, and greatly attenuates light having the wavelength λ11 and light having the wavelength λ12.

部分領域2002e〜2002hは、薄膜を複数層積層した構成、またはナノメートル単位の粒子を分散させた構成等の広く一般的に知られている方法で形成可能であるので、詳しい説明は省略する。   The partial regions 2002e to 2002h can be formed by a widely known method such as a configuration in which a plurality of thin films are stacked or a configuration in which particles in nanometer units are dispersed, and thus detailed description thereof is omitted.

波長フィルタ2002を透過した光は、センサー部112に入射する。   The light transmitted through the wavelength filter 2002 is incident on the sensor unit 112.

<カメラ装置の動作>
本発明の実施の形態9に係るカメラ装置の動作について、図23を用いて説明する。
<Operation of camera device>
The operation of the camera apparatus according to Embodiment 9 of the present invention will be described with reference to FIG.

図23は、波長フィルタ2002を透過した光が、センサー部112にどのように入射するのかを説明するための模式図である。   FIG. 23 is a schematic diagram for explaining how light transmitted through the wavelength filter 2002 enters the sensor unit 112.

センサー部112は、多数のピクセル2301eからなる受光領域を有する。   The sensor unit 112 has a light receiving region including a large number of pixels 2301e.

複数のピクセルからなるセンサー部112の中心から、直交する2本の仮想的な線(仮想線)2301f及び2301gを引くことで、受光領域は4つの領域2301m、2301n、2301o、2301pに分けられる。   By drawing two orthogonal virtual lines (virtual lines) 2301f and 2301g from the center of the sensor unit 112 composed of a plurality of pixels, the light receiving area is divided into four areas 2301m, 2301n, 2301o, and 2301p.

波長フィルタ2002の部分領域2002eを透過した光は、センサー部112の領域2301mに、波長フィルタ2002の部分領域2002fを透過した光は、センサー部112の領域2301nに、波長フィルタ2002の部分領域2002gを透過した光は、センサー部112の領域2301oに、波長フィルタ2002の部分領域2002hを透過した光は、センサー部112の領域2301pに、それぞれ入射する。   The light transmitted through the partial region 2002e of the wavelength filter 2002 passes through the region 2301m of the sensor unit 112, and the light transmitted through the partial region 2002f of the wavelength filter 2002 passes through the partial region 2002g of the wavelength filter 2002 through the region 2301n of the sensor unit 112. The transmitted light is incident on the region 2301o of the sensor unit 112, and the light transmitted through the partial region 2002h of the wavelength filter 2002 is incident on the region 2301p of the sensor unit 112.

本実施の形態に係るカメラ装置は、1つのセンサー部112を用いているが、ビーム分離素子2003及び波長フィルタ2002を用いることにより、実施の形態3に示すカメラ装置と同様に、動きの早い被写体でも、正しく色を推定できるカメラ装置を提供することができる。   Although the camera device according to the present embodiment uses one sensor unit 112, by using the beam separation element 2003 and the wavelength filter 2002, a subject that moves quickly as in the camera device shown in the third embodiment. However, it is possible to provide a camera device that can correctly estimate colors.

この場合、日中の太陽及び夜間の街灯等の外部から可視光の波長領域の光が被写体10に照射されていて、カラーの画像を得たいときには、被写体10からの可視光の波長領域の光が、撮像光学部2000及びビーム分離素子2003を透過した後、波長フィルタ2002の領域2002bに入射するように、波長フィルタ2002の位置を設定する。   In this case, when the subject 10 is irradiated with light in the visible wavelength range from outside such as the daytime sun and night street lamps, and a color image is to be obtained, light in the visible wavelength range from the subject 10 is used. However, after passing through the imaging optical unit 2000 and the beam separation element 2003, the position of the wavelength filter 2002 is set so as to enter the region 2002b of the wavelength filter 2002.

その結果、ビーム分離素子2003の領域2003aを透過した光は、波長フィルタ2002の部分領域2002iに、ビーム分離素子2003の領域2003bを透過した光は、波長フィルタ2002の部分領域2002jに、ビーム分離素子2003の領域2003cを透過した光は、波長フィルタ2002の部分領域2002kに、ビーム分離素子2003の領域2003dを透過した光は、波長フィルタ2002の部分領域2002に、それぞれ入射する。   As a result, the light transmitted through the region 2003a of the beam separation element 2003 is transmitted to the partial region 2002i of the wavelength filter 2002, and the light transmitted through the region 2003b of the beam separation element 2003 is transmitted to the partial region 2002j of the wavelength filter 2002. The light that has passed through the region 2003c of 2003 enters the partial region 2002k of the wavelength filter 2002, and the light that has passed through the region 2003d of the beam separation element 2003 enters the partial region 2002 of the wavelength filter 2002.

波長フィルタ2002の領域2002iを透過した光は、センサー部112の領域2301mに、波長フィルタ2002の領域2002jを透過した光は、センサー部112の領域2301nに、波長フィルタ2002の領域2002kを透過した光は、センサー部112の領域2301oに、波長フィルタ2002の領域2002を透過した光は、センサー部112の領域2301pに、それぞれ入射する。   The light transmitted through the region 2002i of the wavelength filter 2002 is transmitted to the region 2301m of the sensor unit 112, and the light transmitted through the region 2002j of the wavelength filter 2002 is transmitted to the region 2301n of the sensor unit 112 through the region 2002k of the wavelength filter 2002. The light transmitted through the region 20021 of the wavelength filter 2002 enters the region 2301o of the sensor unit 112 and enters the region 2301p of the sensor unit 112, respectively.

センサー部112の領域2301mからは、被写体10の赤色に関する画像情報が、センサー部112の領域2301nと領域2301pからは、被写体10の緑色に関する画像情報が、センサー部112の領域2301oからは、被写体10の青色に関する画像情報が、それぞれ得られる。   From the area 2301m of the sensor unit 112, image information related to the red color of the subject 10, the image information about the green color of the subject 10 from the areas 2301n and 2301p of the sensor unit 112, and from the area 2301o of the sensor unit 112 to the subject 10 The image information about the blue color of each is obtained.

センサー部112から出力される複数のピクセルに対応する信号をデータ処理部113で、適切に並び替えることにより、カラーの画像とすることができる。   By appropriately rearranging signals corresponding to a plurality of pixels output from the sensor unit 112 by the data processing unit 113, a color image can be obtained.

本実施の形態に係るカメラ装置は、波長フィルタ2002に領域2002a及び2002bを持たせ、撮像光学部111を透過した光を領域2002a及び2002bのどちらに入射させるかを変える。これにより、本実施の形態によれば、上記実施の形態1の効果に加えて、日中の太陽及び夜間の街灯等の外部から可視光の波長領域の光が被写体10に照射されているときに、カラーの画像を得ることと、非可視光を被写体10に照射して、被写体が有する色を推定することとを、1台のカメラ装置で行うことができる。   The camera device according to the present embodiment has regions 2002a and 2002b in the wavelength filter 2002, and changes which of the regions 2002a and 2002b the light transmitted through the imaging optical unit 111 enters. Thus, according to the present embodiment, in addition to the effects of the first embodiment, when the subject 10 is irradiated with light in the visible wavelength region from the outside such as the sun during the day and the streetlight at night In addition, it is possible to obtain a color image and irradiate the subject 10 with invisible light to estimate the color of the subject with a single camera device.

暗い空間等で、被写体の有する色は推定せず、高い感度で被写体の画像を得たいときには、撮像光学部2000とビーム分離素子2003を透過した光が、波長フィルタ2002の領域2002cに入射するように、波長フィルタ2002の位置を設定する。   When it is desired to obtain a subject image with high sensitivity without estimating the color of the subject in a dark space or the like, the light transmitted through the imaging optical unit 2000 and the beam separation element 2003 is incident on the region 2002c of the wavelength filter 2002. Next, the position of the wavelength filter 2002 is set.

これにより、領域2002cは、広い波長範囲の光を高い効率で透過させることができるので、本実施の形態に係るカメラ装置は、高い感度を有するカメラ装置となる。   Accordingly, the region 2002c can transmit light in a wide wavelength range with high efficiency, and thus the camera device according to the present embodiment is a camera device having high sensitivity.

また、本実施の形態に係るカメラ装置は、日中の太陽や夜間の街灯等、外部から可視光の波長領域の光が被写体10に照射されているときに、カラーの画像を得ることと、非可視光を被写体10に照射して、被写体10が有する色を推定することと、暗い空間等で、被写体10の有する色は推定せずに高い感度で被写体の画像を得ることとを、1台のカメラ装置で行うことができるようになる。   In addition, the camera device according to the present embodiment obtains a color image when the subject 10 is irradiated with light in the visible wavelength region from the outside, such as the sun during the day or a streetlight at night, Irradiating the subject 10 with invisible light to estimate the color of the subject 10, and obtaining a subject image with high sensitivity without estimating the color of the subject 10 in a dark space or the like. Can be performed with a single camera device.

また、本実施の形態に係るカメラ装置は、ビーム分離素子2003及び波長フィルタ2002を、撮像光学部2000の近傍に設けた場合には、ビーム分離素子2003及び波長フィルタ2002を透過する光の拡がる大きさは大きい。その結果、ビーム分離素子2003及び波長フィルタ2002の位置を設定する際の許容できる誤差量を大きくでき、カメラ装置を容易に構成できるようになる。   Further, in the camera device according to the present embodiment, when the beam separation element 2003 and the wavelength filter 2002 are provided in the vicinity of the imaging optical unit 2000, the size of the light transmitted through the beam separation element 2003 and the wavelength filter 2002 is increased. It is big. As a result, an allowable error amount when setting the positions of the beam separation element 2003 and the wavelength filter 2002 can be increased, and the camera device can be easily configured.

なお、ここでは、波長フィルタ2002が3つの領域2002a〜2002cを有している場合を示したが、必ずしも3つの領域が必要という訳では無く、任意に設計変更してもよい。   Although the case where the wavelength filter 2002 has three regions 2002a to 2002c is shown here, the three regions are not necessarily required, and the design may be arbitrarily changed.

例えば、複数の非可視光を同時に放射する照射部の代わりに、複数の非可視光を時分割で放射する照射部150を用いた場合には、領域2003aは不要で、領域2003b及び領域2003cがあればよい。更に可視光を受光する画像が不要であれば、波長フィルタ2002を設けなくてもよい。   For example, when the irradiation unit 150 that emits a plurality of invisible lights in a time division manner is used instead of the irradiation unit that emits a plurality of invisible lights at the same time, the region 2003a is unnecessary, and the regions 2003b and 2003c are I just need it. Furthermore, if an image that receives visible light is unnecessary, the wavelength filter 2002 may not be provided.

また、波長フィルタ2002の領域2002cを用いる場合には、撮像光学部111を透過した光をビーム分離素子2003を透過させない、すなわち、光路からはずしても構わない。   Further, when the region 2002c of the wavelength filter 2002 is used, the light transmitted through the imaging optical unit 111 may not be transmitted through the beam separation element 2003, that is, may be removed from the optical path.

その構成により、更に感度が高く、歪みの少ない高品位の画像を得ることができる。   With this configuration, it is possible to obtain a high-quality image with higher sensitivity and less distortion.

また、波長フィルタ2002を動かす手段には、別段の制約は無い。領域の配置も同様である。   Further, there is no particular limitation on the means for moving the wavelength filter 2002. The arrangement of the areas is the same.

また、図示していないが、ビーム分離素子2003、波長フィルタ2002、ビーム分離素子2003を保持する部品、または波長フィルタ2002を保持する部品に、部分的に、位置を認識し易くするためのマークもしくは構造を設けても良い。マークもしくは構造を設けることにより、ビーム分離素子2003と波長フィルタ2002との相対的な位置を正確に調整し易くなる。   In addition, although not shown, a mark or a mark for easily recognizing the position is partially attached to the beam separation element 2003, the wavelength filter 2002, the component holding the beam separation element 2003, or the component holding the wavelength filter 2002. A structure may be provided. By providing the mark or structure, the relative position between the beam separation element 2003 and the wavelength filter 2002 can be easily adjusted accurately.

また、ビーム分離素子2003、波長フィルタ2002、ビーム分離素子2003を保持する部品、または波長フィルタ2002を保持する部品に、当てつける等により接触させることで位置を定めることを可能にする構造部を設けてもよい。構造部を設けることにより、ビーム分離素子2003と波長フィルタ2002との相対的な位置を認識しなくても、接触させることで所望の位置に合わせることができるようになるので、ビーム分離素子2003と波長フィルタ2002との相対的な位置を容易に調整できるようになる。   In addition, a structure portion is provided that allows the position to be determined by contacting the beam separation element 2003, the wavelength filter 2002, the component that holds the beam separation element 2003, or the component that holds the wavelength filter 2002 by contact or the like. May be. By providing the structure portion, the beam separation element 2003 and the wavelength filter 2002 can be adjusted to a desired position by contacting them without recognizing the relative positions of the beam separation element 2003 and the wavelength filter 2002. The relative position with respect to the wavelength filter 2002 can be easily adjusted.

ビーム分離素子2003と波長フィルタ2002との相対的な位置を精度良く調整できることにより、センサー部112で受光される光のクロストークが低減され、色推定を精度良く行うことができ、また、色鮮やかなカラーの画像を得ることができるようになる。   Since the relative position between the beam separation element 2003 and the wavelength filter 2002 can be adjusted with high accuracy, crosstalk of light received by the sensor unit 112 can be reduced, and color estimation can be performed with high accuracy. A color image can be obtained.

また、本実施の形態に係るカメラ装置においては、波長フィルタ2002及びビーム分離素子2003を別々に形成しているが、波長フィルタ2002とビーム分離素子2003とを一体に形成してもよい。   In the camera device according to the present embodiment, the wavelength filter 2002 and the beam separation element 2003 are separately formed. However, the wavelength filter 2002 and the beam separation element 2003 may be integrally formed.

(実施の形態10)
本実施の形態に係るカメラ装置は、ビーム分離素子2003の代わりにビーム分離素子2401を有し、センサー部112の代わりにセンサー部2402を有する以外は上記実施の形態9に係るカメラ装置と同一構成であるので、ビーム分離素子2401及びセンサー部2402以外の説明を省略する。また、本実施の形態では、ビーム分離素子2401及びセンサー部2402以外の構成は、図2に示すカメラ装置100の符号を用いて説明する。
(Embodiment 10)
The camera device according to the present embodiment has the same configuration as the camera device according to the ninth embodiment except that the beam separation element 2401 is provided instead of the beam separation element 2003 and the sensor unit 2402 is provided instead of the sensor unit 112. Therefore, description other than the beam separation element 2401 and the sensor unit 2402 is omitted. In the present embodiment, the configuration other than the beam separation element 2401 and the sensor unit 2402 will be described using the reference numerals of the camera device 100 shown in FIG.

<ビーム分離素子及びセンサー部の構成>
本発明の実施の形態10におけるビーム分離素子2401及びセンサー部2402の構成について、図24及び図25を用いて説明する。
<Configuration of beam separation element and sensor section>
Configurations of the beam separation element 2401 and the sensor unit 2402 according to Embodiment 10 of the present invention will be described with reference to FIGS.

図25(a)は、センサー部2402上のピクセルを模式的に示している。1つのマイクロレンズ2401aを透過した光が、センサー部2402が有する4つのマイクロレンズ2401aを介した後、4つのピクセル2402eに入射する。4つのピクセルの組をピクセル群2402fとする。   FIG. 25A schematically shows the pixels on the sensor unit 2402. The light transmitted through one microlens 2401a passes through the four microlenses 2401a included in the sensor unit 2402, and then enters four pixels 2402e. A group of four pixels is defined as a pixel group 2402f.

図25(b)は、ピクセル群2402fの1つを拡大した様子を模式的に示している。ピクセル群2402fは、4つのピクセル2402eからなるが、本発明を理解しやすくするために、ピクセル2402i、2402j、2402k、2402lに分けて記載する。   FIG. 25B schematically shows an enlarged view of one of the pixel groups 2402f. The pixel group 2402f is composed of four pixels 2402e. In order to facilitate understanding of the present invention, the pixel group 2402f is divided into pixels 2402i, 2402j, 2402k, and 2401l.

照射部150から出射される非可視光を、被写体10に照射し、被写体10で反射された光は、センサー部2402に集光される。   The invisible light emitted from the irradiation unit 150 is irradiated onto the subject 10, and the light reflected by the subject 10 is collected on the sensor unit 2402.

図示しない撮像光学部とセンサー部2402との間の光路に波長フィルタ2002とビーム分離素子2401とが設けられており、撮像光学部で集光された非可視光は、波長フィルタ2002とビーム分離素子2401とを透過する。   A wavelength filter 2002 and a beam separation element 2401 are provided in an optical path between an imaging optical unit (not shown) and the sensor unit 2402, and the invisible light condensed by the imaging optical unit is reflected by the wavelength filter 2002 and the beam separation element. 2401 is transmitted.

ビーム分離素子2401は、センサー部2402の近傍に配置されている。ビーム分離素子2401は、マイクロレンズ2401aを2次元で複数並べた、一種のフライアイレンズを有している。隣接するマイクロレンズ2401aの間隔は、pt1である。ビーム分離素子2401が有するマイクロレンズ2401aは、波長フィルタ2002を透過した光を受けて、集光する。   The beam separation element 2401 is disposed in the vicinity of the sensor unit 2402. The beam separation element 2401 has a kind of fly-eye lens in which a plurality of microlenses 2401a are arranged two-dimensionally. The interval between adjacent microlenses 2401a is pt1. The microlens 2401a included in the beam separation element 2401 receives and collects the light transmitted through the wavelength filter 2002.

センサー部2402は、多数のピクセル2402eを有している。センサー部2402は、ピクセル2402eを2次元に配置することにより、2次元領域の撮像を可能にする。   The sensor unit 2402 has a large number of pixels 2402e. The sensor unit 2402 enables imaging of a two-dimensional region by arranging the pixels 2402e in two dimensions.

センサー部2402は、更に複数のマイクロレンズ2402aを有している。1つのマイクロレンズ2402aは、1つのピクセル2402eに対応するように配置されている。隣接するマイクロレンズ2402aの間隔は、pt2である。センサー部2402が有する4つのマイクロレンズ2402aには、ビーム分離素子2401が有する1つのマイクロレンズ2401aを透過した光が入射する。   The sensor unit 2402 further includes a plurality of microlenses 2402a. One micro lens 2402a is arranged so as to correspond to one pixel 2402e. The interval between adjacent microlenses 2402a is pt2. Light transmitted through one microlens 2401a included in the beam separation element 2401 is incident on the four microlenses 2402a included in the sensor unit 2402.

また、ビーム分離素子2401が有するマイクロレンズ2401aの間隔pt1は、センサー部2402が有するマイクロレンズ2402aの間隔pt2の2倍としている。   Further, the interval pt1 between the microlenses 2401a included in the beam separation element 2401 is set to twice the interval pt2 between the microlenses 2402a included in the sensor unit 2402.

<カメラ装置の動作>
本発明の実施の形態10に係るカメラ装置の動作について、図24及び図25を用いて説明する。
<Operation of camera device>
The operation of the camera apparatus according to Embodiment 10 of the present invention will be described with reference to FIGS.

ビーム分離素子2401が有するマイクロレンズ2401aで集光された光は、センサー部2402が有するマイクロレンズ2402aに入射し、マイクロレンズ2402aは、入射した光をピクセル2402eに集光する。   The light condensed by the microlens 2401a included in the beam separation element 2401 enters the microlens 2402a included in the sensor unit 2402, and the microlens 2402a condenses the incident light on the pixel 2402e.

ビーム分離素子2401が有する1つのマイクロレンズ2401aを透過した光が、センサー部2402が有する4つのマイクロレンズ2402aに入射するようにしているので、波長フィルタ2002の4つの象限に位置する部分領域2002e〜2002h、もしくは2002i〜2002lを透過した光は、センサー部2402のそれぞれ異なるピクセル2402eで受光されるようになる。   Since light transmitted through one microlens 2401a included in the beam separation element 2401 is incident on the four microlenses 2402a included in the sensor unit 2402, the partial regions 2002e˜ Light transmitted through 2002h or 2002i to 2002l is received by different pixels 2402e of the sensor unit 2402.

すなわち、波長フィルタ2002の部分領域2002e〜2002h、もしくは2002i〜2002lを透過する光を、センサー部2402のピクセル2402eで分離して受光することができる。   That is, light transmitted through the partial regions 2002e to 2002h or 2002i to 2002l of the wavelength filter 2002 can be separated and received by the pixel 2402e of the sensor unit 2402.

波長フィルタ2002の4つの象限に位置する部分領域2002eもしくは2002iもしくは、領域2002cの4分の1の領域を透過した光が、ピクセル2402iで受光される。   Light transmitted through a partial region 2002e or 2002i or a quarter of the region 2002c located in the four quadrants of the wavelength filter 2002 is received by the pixel 2402i.

また、波長フィルタ2002の4つの象限に位置する部分領域2002fもしくは2002jもしくは、領域2002cの4分の1の領域を透過した光が、ピクセル2402jで受光される。   Further, light transmitted through a partial region 2002f or 2002j located in the four quadrants of the wavelength filter 2002 or a quarter of the region 2002c is received by the pixel 2402j.

また、波長フィルタ2002の4つの象限に位置する部分領域2002gもしくは2002kもしくは、領域2002cの4分の1の領域を透過した光が、ピクセル2402jで受光される。   In addition, light transmitted through a partial region 2002g or 2002k or a quarter of the region 2002c located in the four quadrants of the wavelength filter 2002 is received by the pixel 2402j.

また、波長フィルタ2002の4つの象限に位置する部分領域2002hもしくは2002lもしくは、領域2002cの4分の1の領域を透過した光が、ピクセル2402lで受光される。   Further, light transmitted through a partial region 2002h or 2002l or a quarter of the region 2002c located in the four quadrants of the wavelength filter 2002 is received by the pixel 2402l.

センサー部2402に集光された光は、図示しない受光素子で受光された後、電気信号に変換される。センサー部2402で変換された電気信号は、画像データとしてデータ処理部113に入力される。データ処理部113は、画像データを受けて所望の信号処理を行い、結果を出力する。   The light condensed on the sensor unit 2402 is received by a light receiving element (not shown) and then converted into an electric signal. The electrical signal converted by the sensor unit 2402 is input to the data processing unit 113 as image data. The data processing unit 113 receives the image data, performs desired signal processing, and outputs the result.

本実施の形態に係るカメラ装置は、上記実施の形態1の効果に加えて、実施の形態9に示すカメラ装置と同様に、日中の太陽及び夜間の街灯等の外部から可視光が被写体10に照射されていて、カラーの画像を得ることと、非可視光を被写体に照射して、被写体が有する色を推定すること、更には高感度でモノクロの撮影を行うことを、1台のカメラ装置で行うことができる。   In the camera device according to the present embodiment, in addition to the effects of the first embodiment, similar to the camera device shown in the ninth embodiment, visible light from the outside such as the sun during the day and street lamps during the night is the subject 10. A single camera that obtains a color image, irradiates the subject with invisible light, estimates the color of the subject, and performs monochrome photography with high sensitivity. Can be done with the device.

(実施の形態11)
本実施の形態に係るカメラ装置は、ビーム分離素子2003の代わりにビーム分離素子2601を有し、センサー部112の代わりにセンサー部2602を有する以外は上記実施の形態9に係るカメラ装置と同一構成であるので、ビーム分離素子2601及びセンサー部2602以外の説明を省略する。また、本実施の形態では、ビーム分離素子2601及びセンサー部2602以外の構成は、図2に示すカメラ装置100の符号を用いて説明する。
(Embodiment 11)
The camera device according to the present embodiment has the same configuration as the camera device according to the ninth embodiment except that the beam separation element 2601 is provided instead of the beam separation element 2003 and the sensor unit 2602 is provided instead of the sensor unit 112. Therefore, description other than the beam separation element 2601 and the sensor unit 2602 is omitted. In the present embodiment, the components other than the beam separation element 2601 and the sensor unit 2602 will be described using the reference numerals of the camera device 100 shown in FIG.

<ビーム分離素子及びセンサー部の構成>
本発明の実施の形態11におけるビーム分離素子2601及びセンサー部2602の構成について、図26を用いて説明する。
<Configuration of beam separation element and sensor section>
Configurations of the beam separation element 2601 and the sensor unit 2602 according to Embodiment 11 of the present invention will be described with reference to FIG.

センサー部2602は、センサー部2402と同様に、複数のピクセル2602eを有している。しかしながら、センサー部2602には、センサー部2402とは異なり、マイクロレンズは形成されていない。   Similar to the sensor unit 2402, the sensor unit 2602 includes a plurality of pixels 2602e. However, unlike the sensor unit 2402, the sensor unit 2602 is not formed with a microlens.

ビーム分離素子2601は、ビーム分離素子2401と同様に、複数のマイクロレンズ2601aを有しているとともに、複数のマイクロレンズ2601bを有している。   Similar to the beam separation element 2401, the beam separation element 2601 has a plurality of microlenses 2601a and a plurality of microlenses 2601b.

マイクロレンズ2601aの機能は、マイクロレンズ2402aと同様である。また、マイクロレンズ2601bの機能は、マイクロレンズ2401aと同様である。   The function of the micro lens 2601a is the same as that of the micro lens 2402a. The function of the micro lens 2601b is the same as that of the micro lens 2401a.

本実施の形態に係るカメラ装置は、上記実施の形態1の効果に加えて、実施の形態10に係るカメラ装置と同様に、日中の太陽や夜間の街灯等の外部から可視光が被写体10に照射されていて、カラーの画像を得ることと、非可視光を被写体10に照射して、被写体10が有する色を推定することと、更には高感度でモノクロの撮影を行うこととを、1台のカメラ装置で行うことができるようになる。   In the camera device according to the present embodiment, in addition to the effects of the first embodiment, as in the camera device according to the tenth embodiment, visible light is emitted from the outside such as the sun during the day and street lamps at night. To obtain a color image, to irradiate the subject 10 with invisible light, to estimate the color of the subject 10, and to perform monochrome photography with high sensitivity, This can be done with one camera device.

また、本実施の形態に係るカメラ装置は、ビーム分離素子2601が有するマイクロレンズ2601a及びマイクロレンズ2601bを、樹脂やガラス等の成形により、同時に形成することができるので、生産性が向上し、より安価なカメラ装置を提供することができる。   In the camera device according to this embodiment, the microlens 2601a and the microlens 2601b included in the beam separation element 2601 can be formed at the same time by molding resin, glass, or the like. An inexpensive camera device can be provided.

なお、図示していないが、ビーム分離素子2601、センサー部2602、ビーム分離素子2601を保持する部品、またはセンサー部2602を保持する部品に、部分的に、位置を認識し易くするためのマークもしくは構造を設けても良い。マークもしくは構造を設けることにより、ビーム分離素子2601とセンサー部2602との相対的な位置を正確に調整し易くなる。   Although not shown, a mark or a part for easily recognizing the position of the beam separation element 2601, the sensor unit 2602, a component that holds the beam separation element 2601, or a component that holds the sensor unit 2602, A structure may be provided. By providing the mark or structure, the relative position between the beam separation element 2601 and the sensor unit 2602 can be easily adjusted accurately.

また、ビーム分離素子2601、センサー部2602、ビーム分離素子2601を保持する部品、またはセンサー部2602を保持する部品に、当てつける等、接触させることで位置を定めることを可能にする構造部を設けてもよい。構造部を設けることにより、ビーム分離素子2601とセンサー部2602との相対的な位置を認識しなくても、接触させることで所望の位置に合わせることができるようになるので、ビーム分離素子2601とセンサー部2602との相対的な位置を容易に調整できるようになる。   In addition, a structure portion is provided that allows the position to be determined by contacting the beam separating element 2601, the sensor portion 2602, the component that holds the beam separating element 2601, or the component that holds the sensor portion 2602, such as by contact. May be. By providing the structure portion, the beam separation element 2601 and the sensor portion 2602 can be adjusted to a desired position by being brought into contact without recognizing the relative position. The relative position with respect to the sensor unit 2602 can be easily adjusted.

ビーム分離素子2601とセンサー部2602との相対的な位置を精度良く調整できることにより、センサー部2602で受光される光のクロストークが低減され、色推定を精度良く行うことができ、また、鮮やかなカラーの画像を得ることができるようになる。   Since the relative position between the beam separation element 2601 and the sensor unit 2602 can be adjusted with high accuracy, crosstalk of light received by the sensor unit 2602 can be reduced, and color estimation can be performed with high accuracy. A color image can be obtained.

本発明に係るカメラ装置及び撮像方法は、非可視光を被写体に照射して被写体を撮像するのに好適である。   The camera device and the imaging method according to the present invention are suitable for imaging a subject by irradiating the subject with invisible light.

10 被写体
100 カメラ装置
101 制御部
102 第1の出射部
103 第2の出射部
104 第3の出射部
105 照明光学部
111 撮像光学部
112 センサー部
113 データ処理部
114 動き検出部
115 色推定部
116 記憶部
150 照射部
160 撮像部
200 モニタ
DESCRIPTION OF SYMBOLS 10 Subject 100 Camera apparatus 101 Control part 102 1st light emission part 103 2nd light emission part 104 3rd light emission part 105 Illumination optical part 111 Imaging optical part 112 Sensor part 113 Data processing part 114 Motion detection part 115 Color estimation part 116 Storage unit 150 Irradiation unit 160 Imaging unit 200 Monitor

Claims (10)

非可視光を被写体に照射して前記被写体を撮像するカメラ装置であって、
複数の異なる波長を有する非可視光を前記被写体に照射する第1の動作と、前記第1の動作よりも低消費電力である第2の動作とを行う照射部と、
前記照射部により照射された前記被写体を撮像する撮像部と、
前記撮像部により撮像した前記被写体の画像データに基づいて前記被写体が静止していることを検出した場合に、前記照射部に対して前記第2の動作を行わせる制御部と、
を有するカメラ装置。
A camera device that irradiates a subject with invisible light and images the subject,
An irradiation unit that performs a first operation of irradiating the subject with invisible light having a plurality of different wavelengths and a second operation that consumes less power than the first operation;
An imaging unit that images the subject irradiated by the irradiation unit;
A control unit that causes the irradiation unit to perform the second operation when it is detected that the subject is stationary based on image data of the subject imaged by the imaging unit;
A camera device.
前記制御部により前記被写体が静止していることを検出した場合には、前記撮像手段により撮像した過去の画像データを用いて前記被写体を表示させる表示処理部をさらに有する請求項1記載のカメラ装置。   The camera apparatus according to claim 1, further comprising: a display processing unit that displays the subject using past image data captured by the imaging unit when the control unit detects that the subject is stationary. . 前記制御部は、
前記第2の動作として、前記照射部に対して前記複数の異なる波長のうちの一部の波長の非可視光を前記被写体に照射させる、
請求項1記載のカメラ装置。
The controller is
As the second operation, the subject is irradiated with invisible light having a part of the plurality of different wavelengths with respect to the irradiation unit,
The camera device according to claim 1.
前記制御部は、
前記照射部に対して前記被写体における光反射率が高い波長から順に選択した前記一部の波長の非可視光を前記被写体に対して照射させる、
請求項3記載のカメラ装置。
The controller is
Irradiating the subject with invisible light of the partial wavelengths selected in order from a wavelength with a high light reflectance in the subject to the irradiation unit;
The camera device according to claim 3.
前記照射部は、
前記複数の異なる波長の非可視光を出射する複数の出射部を有し、
前記制御部は、
複数の前記出射部の中で寿命の長い前記出射部から順に選択した一部の前記出射部より前記一部の波長の非可視光を出射させる、
請求項3記載のカメラ装置。
The irradiation unit is
A plurality of emitting portions for emitting the plurality of different wavelengths of invisible light;
The controller is
Injecting invisible light of the part of the wavelength from the part of the emitting part selected in order from the emitting part having a long lifetime among the plurality of emitting parts,
The camera device according to claim 3.
前記照射部は、
前記複数の異なる波長の非可視光を出射する複数の出射部を有し、
前記制御部は、
複数の前記出射部の中で発光効率が高い前記出射部から順に選択した一部の前記出射部より前記一部の波長の非可視光を出射させる、
請求項3記載のカメラ装置。
The irradiation unit is
A plurality of emitting portions for emitting the plurality of different wavelengths of invisible light;
The controller is
Emitting invisible light of the part of the wavelength from the part of the emitting part selected in order from the emitting part having a high luminous efficiency among the plurality of emitting parts,
The camera device according to claim 3.
前記照射部は、
前記複数の異なる波長の非可視光を出射する複数の出射部を有し、
前記制御部は、
前記第2の動作として、前記出射部に対して出射する非可視光の出射強度を前記第1の動作における出射強度よりも小さくさせるとともに、出射強度の時間に対する変化を前記第1の動作における出射強度の時間に対する変化よりも長くさせる、
請求項1記載のカメラ装置。
The irradiation unit is
A plurality of emitting portions for emitting the plurality of different wavelengths of invisible light;
The controller is
As the second operation, the emission intensity of the invisible light emitted to the emission unit is made smaller than the emission intensity in the first operation, and the change of the emission intensity with respect to time is emitted in the first operation. Make the intensity longer than the change over time,
The camera device according to claim 1.
前記照射部は、
前記複数の異なる波長の非可視光を出射する複数の出射部を有し、
前記制御部は、
前記第2の動作として、前記出射部に対して超短パルスの非可視光を出射させる、
請求項1記載のカメラ装置。
The irradiation unit is
A plurality of emitting portions for emitting the plurality of different wavelengths of invisible light;
The controller is
As the second operation, an ultra-short pulse of invisible light is emitted to the emission unit.
The camera device according to claim 1.
前記制御部は、
前記被写体が静止していることを検出した場合に加えて、前記被写体が静止しているか否かを検出する場合に前記照射部に対して前記第2の動作を行わせる、
請求項1記載のカメラ装置。
The controller is
In addition to the case where it is detected that the subject is stationary, the irradiation unit is caused to perform the second operation when detecting whether or not the subject is stationary.
The camera device according to claim 1.
非可視光を被写体に照射して前記被写体を撮像するカメラ装置における撮像方法であって、
複数の異なる波長を有する非可視光を照射する第1の動作と、前記第1の動作よりも低消費電力である第2の動作とを行うステップと、
前記照射された前記被写体を撮像するステップと、
前記撮像した前記被写体の画像データに基づいて前記被写体が静止していることを検出した場合に、前記第2の動作を行わせるステップと、
を有する撮像方法。
An imaging method in a camera device that images a subject by irradiating the subject with invisible light,
Performing a first operation of irradiating invisible light having a plurality of different wavelengths and a second operation that consumes less power than the first operation;
Imaging the irradiated subject;
Performing the second operation when it is detected that the subject is stationary based on the image data of the captured subject;
An imaging method comprising:
JP2013008388A 2013-01-21 2013-01-21 Camera apparatus and imaging method Pending JP2014140117A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013008388A JP2014140117A (en) 2013-01-21 2013-01-21 Camera apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013008388A JP2014140117A (en) 2013-01-21 2013-01-21 Camera apparatus and imaging method

Publications (1)

Publication Number Publication Date
JP2014140117A true JP2014140117A (en) 2014-07-31

Family

ID=51416618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013008388A Pending JP2014140117A (en) 2013-01-21 2013-01-21 Camera apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP2014140117A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9799122B2 (en) 2015-03-09 2017-10-24 Canon Kabushiki Kaisha Motion information acquiring apparatus and motion information acquiring method
JPWO2018021079A1 (en) * 2016-07-25 2019-05-09 日本電気株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
WO2021054198A1 (en) * 2019-09-18 2021-03-25 ソニーセミコンダクタソリューションズ株式会社 Imaging device, imaging system, and imaging method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9799122B2 (en) 2015-03-09 2017-10-24 Canon Kabushiki Kaisha Motion information acquiring apparatus and motion information acquiring method
JPWO2018021079A1 (en) * 2016-07-25 2019-05-09 日本電気株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
WO2021054198A1 (en) * 2019-09-18 2021-03-25 ソニーセミコンダクタソリューションズ株式会社 Imaging device, imaging system, and imaging method
CN114175615A (en) * 2019-09-18 2022-03-11 索尼半导体解决方案公司 Image pickup device, image pickup system, and image pickup method

Similar Documents

Publication Publication Date Title
US10237534B2 (en) Imaging device and a method for producing a three-dimensional image of an object
JP6460631B2 (en) Imaging apparatus, endoscope apparatus, and microscope apparatus
US20100171875A1 (en) Imager capturing an image with a rolling shutter
EP2380038B1 (en) Cmos imager
KR101249256B1 (en) Imaging device and method for producing a flash of light with pulsing
JP4377013B2 (en) Solid-state imaging device and solid-state imaging device
US20130002882A1 (en) Image-capturing device
JP6469370B2 (en) Optical line sensor device
JP2019208233A (en) Visible light communication system
JP4669889B2 (en) Spectral color measuring device and spectral color measuring method
WO2016056476A1 (en) Imaging system
JP2014140117A (en) Camera apparatus and imaging method
JP6525603B2 (en) Imaging device
JP2006121617A (en) Spatial information detector
JP2010256623A (en) Microscope observation apparatus
US20120298885A1 (en) Fluorometric assay apparatus and fluorometric assay method
JP7013730B2 (en) Image generation control device, image generation control method, and image generation control program
JP2009212824A (en) Skin area detection imaging apparatus
JP2014204151A (en) Imaging computation device
US8681263B2 (en) Imager capturing an image with a rolling shutter using flicker detection
TWI449415B (en) Image capture system and method
TW201741756A (en) Image pickup apparatus and image management system capable of acquiring a captured image with higher contrast under low illuminance conditions such as nighttime
US20190137742A1 (en) Microscope and microscopy method
JP6277695B2 (en) Imaging device, adjustment device, and adjustment method
TWI519153B (en) Image capture system and method