JP6090217B2 - IMAGING SYSTEM AND IMAGING SYSTEM CONTROL METHOD - Google Patents

IMAGING SYSTEM AND IMAGING SYSTEM CONTROL METHOD Download PDF

Info

Publication number
JP6090217B2
JP6090217B2 JP2014063134A JP2014063134A JP6090217B2 JP 6090217 B2 JP6090217 B2 JP 6090217B2 JP 2014063134 A JP2014063134 A JP 2014063134A JP 2014063134 A JP2014063134 A JP 2014063134A JP 6090217 B2 JP6090217 B2 JP 6090217B2
Authority
JP
Japan
Prior art keywords
imaging
unit
pixel data
imaging device
infrared light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014063134A
Other languages
Japanese (ja)
Other versions
JP2015186178A (en
Inventor
関口 智
智 関口
笹生 剛良
剛良 笹生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2014063134A priority Critical patent/JP6090217B2/en
Priority to CN201580005174.XA priority patent/CN105917638B/en
Priority to PCT/JP2015/050724 priority patent/WO2015118911A1/en
Publication of JP2015186178A publication Critical patent/JP2015186178A/en
Priority to US15/212,814 priority patent/US10171759B2/en
Application granted granted Critical
Publication of JP6090217B2 publication Critical patent/JP6090217B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像システム及び撮像システムの制御方法に関する。   The present invention relates to an imaging system and an imaging system control method.

従来、例えば夜間等の可視光がほとんどない環境下において被写体を撮像するために、赤外線投光器によって被写体に赤外光を照射し、被写体から反射した赤外光を撮像する方法が用いられている。この方法は、可視光を照射するライトを用いることができない場合に有効な撮像方法である。   Conventionally, in order to image a subject in an environment where there is almost no visible light such as at night, a method of irradiating the subject with infrared light using an infrared projector and imaging infrared light reflected from the subject has been used. This method is an effective imaging method when a light that emits visible light cannot be used.

しかしながら、この撮像方法によって被写体を撮像した映像は、モノクロ映像となる。モノクロ映像では物体の識別が困難となることがある。可視光がない環境下でもカラー映像を撮像することができれば、物体の識別性を向上させることができる。例えば監視カメラでは、物体の識別性を向上させるために、可視光がない環境下でもカラー映像を撮像することが望まれる。   However, an image obtained by imaging a subject by this imaging method is a monochrome image. In monochrome images, it may be difficult to identify an object. If a color image can be captured even in an environment where there is no visible light, the object identification can be improved. For example, in a surveillance camera, it is desired to capture a color image even in an environment without visible light in order to improve the object identification.

特許文献1には、可視光がない環境下でもカラー映像を撮像することができる撮像装置が記載されている。特許文献1に記載されている撮像装置においても、赤外線投光器が用いられる。監視カメラに特許文献1に記載の技術を搭載すれば、被写体をカラー映像化して物体の識別性を向上させることが可能となる。   Patent Document 1 describes an imaging apparatus that can capture a color image even in an environment without visible light. In the imaging device described in Patent Document 1, an infrared projector is also used. If the technique described in Patent Document 1 is installed in the surveillance camera, it becomes possible to convert the subject into a color image and improve the object identification.

特開2011−50049号公報JP 2011-50049 A

特許文献1に記載されている撮像装置は、赤外線投光器によって3つの波長の赤外光を順次投光して被写体を撮像する。   The imaging device described in Patent Document 1 images a subject by sequentially projecting infrared light of three wavelengths by an infrared projector.

監視システム(撮像システム)では複数の監視カメラを用いて、監視対象の被写体を撮像することがある。特許文献1に記載されている撮像装置を複数の監視カメラそれぞれに用いて、監視システムを構成することが考えられる。   In a monitoring system (imaging system), a subject to be monitored may be imaged using a plurality of monitoring cameras. It is conceivable to configure a monitoring system using the imaging device described in Patent Document 1 for each of a plurality of monitoring cameras.

複数の撮像装置が個々に赤外光を投光すると異なる波長の赤外光が混ざってしまい、好ましい色再現が可能なカラー映像を撮像することができない。   When a plurality of imaging devices individually project infrared light, infrared light having different wavelengths are mixed, and a color image capable of preferable color reproduction cannot be captured.

本発明は、赤外光を投光して被写体を撮像する複数の撮像装置が存在する場合でも好ましい映像を撮像することができる撮像システム及び撮像システムの制御方法を提供することを目的とする。   An object of the present invention is to provide an imaging system and an imaging system control method capable of imaging a preferable image even when there are a plurality of imaging apparatuses that project infrared light and image a subject.

本発明は、上述した従来の技術の課題を解決するため、複数の撮像装置と、前記複数の撮像装置それぞれに同期信号を供給する同期信号供給装置とを備え、前記複数の撮像装置は、それぞれ、前記同期信号を受信する同期信号受信部と、複数の赤外光を投光可能な赤外線投光器を、前記同期信号受信部が受信した前記同期信号を基準としたタイミングで、赤外光を選択的に投光するよう制御する投光制御部と、前記赤外線投光器によって赤外光が投光されている状態で被写体を撮像する撮像部とを備えることを特徴とする撮像システムを提供する。   The present invention includes a plurality of imaging devices and a synchronization signal supply device that supplies a synchronization signal to each of the plurality of imaging devices, and the plurality of imaging devices are The infrared signal is selected at a timing based on the synchronization signal received by the synchronization signal reception unit, and a synchronization signal reception unit that receives the synchronization signal and an infrared projector that can project a plurality of infrared lights. There is provided an imaging system comprising: a projection control unit that controls to project light automatically; and an imaging unit that images a subject in a state where infrared light is projected by the infrared projector.

また、本発明は、上述した従来の技術の課題を解決するため、同期信号供給装置より、複数の撮像装置それぞれに同期信号を供給し、前記複数の撮像装置は、それぞれ、前記同期信号を受信し、複数の赤外光を投光可能な赤外線投光器を、前記同期信号を基準としたタイミングで、赤外光を選択的に投光するよう制御し、前記赤外線投光器によって赤外光が投光されている状態で撮像部によって被写体を撮像することを特徴とする撮像システムの制御方法を提供する。   In addition, in order to solve the above-described problems of the related art, the present invention supplies a synchronization signal to each of a plurality of imaging devices from a synchronization signal supply device, and each of the plurality of imaging devices receives the synchronization signal. Then, an infrared projector capable of projecting a plurality of infrared lights is controlled to selectively emit infrared light at a timing based on the synchronization signal, and the infrared light is projected by the infrared projector. An imaging system control method is provided, in which an object is imaged by an imaging unit in a state where the imaging system is in the state of being captured.

本発明の撮像システム及び撮像システムの制御方法によれば、赤外光を投光して被写体を撮像する複数の撮像装置が存在する場合でも好ましい映像を撮像することができる。   According to the imaging system and the control method of the imaging system of the present invention, it is possible to capture a preferable image even when there are a plurality of imaging devices that project infrared light and image a subject.

第1実施形態の撮像装置の全体的な構成を示すブロック図である。1 is a block diagram illustrating an overall configuration of an imaging apparatus according to a first embodiment. 各実施形態の撮像装置に用いられるカラーフィルタにおけるフィルタエレメントの配列の一例を示す図である。It is a figure which shows an example of the arrangement | sequence of the filter element in the color filter used for the imaging device of each embodiment. 各実施形態の撮像装置を構成する撮像部における3原色光の波長と相対感度との分光感度特性を示す特性図である。It is a characteristic view which shows the spectral sensitivity characteristic of the wavelength of three primary color lights and the relative sensitivity in the imaging part which comprises the imaging device of each embodiment. 所定の物質からの3原色光の反射率にシリコンの受光感度を乗じたときの、波長と相対検出率との関係を示す特性図である。It is a characteristic view showing the relationship between the wavelength and the relative detection rate when the reflectance of the three primary colors from a predetermined substance is multiplied by the light receiving sensitivity of silicon. 図1中の前信号処理部52の具体的な構成例を示すブロック図である。It is a block diagram which shows the specific structural example of the front signal process part 52 in FIG. 各実施形態の撮像装置が通常モードで動作しているときの露光と映像信号のフレームとの関係を概略的に示す図である。It is a figure which shows schematically the relationship between exposure and the flame | frame of a video signal when the imaging device of each embodiment is operate | moving in normal mode. 各実施形態の撮像装置が通常モードで動作しているときのデモザイク処理を説明するための図である。It is a figure for demonstrating a demosaic process when the imaging device of each embodiment is operate | moving in normal mode. 各実施形態の撮像装置が中間モード及び暗視モードで動作しているときの露光と映像信号のフレームとの関係を概略的に示す図である。It is a figure which shows roughly the relationship between exposure and the flame | frame of a video signal when the imaging device of each embodiment is operate | moving in intermediate | middle mode and night vision mode. 各実施形態の撮像装置が第1中間モードで動作しているときの前信号処理を説明するための図である。It is a figure for demonstrating the pre-signal process when the imaging device of each embodiment is operate | moving in 1st intermediate mode. 各実施形態の撮像装置が第1中間モードで動作しているときのデモザイク処理を説明するための図である。It is a figure for demonstrating a demosaic process when the imaging device of each embodiment is operate | moving in 1st intermediate | middle mode. 各実施形態の撮像装置が第2中間モードで動作しているときの前信号処理を説明するための図である。It is a figure for demonstrating the pre-signal process when the imaging device of each embodiment is operate | moving in 2nd intermediate mode. 各実施形態の撮像装置が第2中間モードで動作しているときのデモザイク処理を説明するための図である。It is a figure for demonstrating the demosaic process when the imaging device of each embodiment is operate | moving in 2nd intermediate mode. 各実施形態の撮像装置が暗視モードで動作しているときの周囲画素の加算処理を説明するための図である。It is a figure for demonstrating the addition process of the surrounding pixel when the imaging device of each embodiment is operate | moving in night vision mode. 周囲画素の加算処理が施されたフレームを示す図である。It is a figure which shows the flame | frame in which the addition process of the surrounding pixel was performed. 各実施形態の撮像装置が第1暗視モードで動作しているときの前信号処理を説明するための図である。It is a figure for demonstrating the pre-signal process when the imaging device of each embodiment is operate | moving in 1st night-vision mode. 各実施形態の撮像装置が第1暗視モードで動作しているときのデモザイク処理を説明するための図である。It is a figure for demonstrating the demosaic process when the imaging device of each embodiment is operate | moving in 1st night-vision mode. 各実施形態の撮像装置が第2暗視モードで動作しているときの前信号処理を説明するための図である。It is a figure for demonstrating the front signal process when the imaging device of each embodiment is operate | moving in 2nd night-vision mode. 各実施形態の撮像装置が第2暗視モードで動作しているときのデモザイク処理を説明するための図である。It is a figure for demonstrating the demosaic process when the imaging device of each embodiment is operate | moving in 2nd night-vision mode. 各実施形態の撮像装置におけるモード切換の例を説明するための図である。It is a figure for demonstrating the example of the mode switching in the imaging device of each embodiment. 各実施形態の撮像装置がそれぞれのモードに設定されているときの各部の状態を示す図である。It is a figure which shows the state of each part when the imaging device of each embodiment is set to each mode. 各実施形態の撮像装置の第1の変形例を示す部分ブロック図である。It is a partial block diagram which shows the 1st modification of the imaging device of each embodiment. 各実施形態の撮像装置の第2の変形例を示す部分ブロック図である。It is a partial block diagram which shows the 2nd modification of the imaging device of each embodiment. 各実施形態の撮像装置の第3の変形例を示す部分ブロック図である。It is a partial block diagram which shows the 3rd modification of the imaging device of each embodiment. 各実施形態の撮像装置で実行される映像信号処理方法を示すフローチャートである。It is a flowchart which shows the video signal processing method performed with the imaging device of each embodiment. 図24におけるステップS3に示す通常モードの具体的な処理を示すフローチャートである。It is a flowchart which shows the specific process of the normal mode shown to step S3 in FIG. 図24におけるステップS4の中間モードの具体的な処理を示すフローチャートである。It is a flowchart which shows the specific process of the intermediate | middle mode of step S4 in FIG. 図24におけるステップS5の暗視モードの具体的な処理を示すフローチャートである。It is a flowchart which shows the specific process of night vision mode of step S5 in FIG. 各実施形態の撮像装置内に記憶されている映像信号処理プログラムがコンピュータに実行させる処理を示すフローチャートである。It is a flowchart which shows the process which a video signal processing program memorize | stored in the imaging device of each embodiment performs a computer. 複数の撮像装置によって構成した撮像システムを示すブロック図である。It is a block diagram showing an imaging system constituted by a plurality of imaging devices. 複数の撮像装置による赤外光の投光タイミングがわずかにずれている場合の問題点を説明するための図である。It is a figure for demonstrating a problem when the light projection timing of the infrared light by a some imaging device has shifted | deviated slightly. 複数の撮像装置による赤外光の投光タイミングが大きくずれている場合の問題点を説明するための図である。It is a figure for demonstrating a problem when the light projection timing of the infrared rays by a several imaging device has shifted | deviated largely. 第1実施形態の2台の撮像装置の一方をマスタ、他方をスレーブとした状態を示す概略的なブロック図である。It is a schematic block diagram which shows the state which made one side of the two imaging devices of 1st Embodiment the master, and made the other the slave. 第1〜第3実施形態の撮像装置で用いる同期信号の例を説明するための図である。It is a figure for demonstrating the example of the synchronizing signal used with the imaging device of 1st-3rd embodiment. 第1〜第3実施形態の撮像装置がタイミング調整モードに設定されているときのマスタ及びスレーブの動作の第1の例を説明するための図である。It is a figure for demonstrating the 1st example of operation | movement of a master and a slave when the imaging device of 1st-3rd embodiment is set to timing adjustment mode. マスタ及びスレーブの動作の第1の例において、赤外光の投光タイミングのずれに対するR,G,Bの輝度レベルの変化の仕方を示す特性図である。FIG. 6 is a characteristic diagram illustrating how the luminance levels of R, G, and B change with respect to a shift in infrared light projection timing in the first example of the master and slave operations. 第1〜第3実施形態の撮像装置がタイミング調整モードに設定されているときのマスタ及びスレーブの動作の第2の例を説明するための図である。It is a figure for demonstrating the 2nd example of operation | movement of a master and a slave when the imaging device of 1st-3rd embodiment is set to timing adjustment mode. マスタ及びスレーブの動作の第2の例において、赤外光の投光タイミングのずれに対するR,G,Bの輝度レベルの変化の仕方を示す特性図である。In the 2nd example of operation of a master and a slave, it is a characteristic figure showing how a luminance level of R, G, and B changes with a shift of projection timing of infrared light. 第2実施形態の撮像装置の全体的な構成を示すブロック図である。It is a block diagram which shows the whole structure of the imaging device of 2nd Embodiment. 第2実施形態の2台の撮像装置の一方をマスタ、他方をスレーブとした状態を示す概略的なブロック図である。It is a schematic block diagram which shows the state which made one side of the two imaging devices of 2nd Embodiment the master and the other was a slave. 第3実施形態の撮像装置の概略的な構成を示すブロック図である。It is a block diagram which shows the schematic structure of the imaging device of 3rd Embodiment. 第4実施形態の撮像装置の全体的な構成を示すブロック図である。It is a block diagram which shows the whole structure of the imaging device of 4th Embodiment. 第4実施形態の2台の撮像装置の一方をマスタ、他方をスレーブとした状態を示す概略的なブロック図である。It is a schematic block diagram which shows the state which set one side of the two imaging devices of 4th Embodiment as the master and the other as the slave. 第4〜第6実施形態の撮像装置がタイミング調整モードに設定されているときのマスタ及びスレーブの動作を説明するための図である。It is a figure for demonstrating operation | movement of a master and a slave when the imaging device of 4th-6th embodiment is set to timing adjustment mode. 第4〜第6実施形態の撮像装置がタイミング調整モードに設定されているとき、赤外光の投光タイミングのずれに対するR,G,Bの輝度レベルの変化の仕方を示す特性図である。FIG. 11 is a characteristic diagram illustrating how the luminance levels of R, G, and B change with respect to a shift in infrared light projection timing when the imaging devices of the fourth to sixth embodiments are set to the timing adjustment mode. 第4〜第6実施形態の撮像装置がタイミング調整モード設定されているときに実行される赤外光の投光タイミングの調整方法を示すフローチャートである。It is a flowchart which shows the adjustment method of the light projection timing of the infrared light performed when the imaging device of 4th-6th embodiment is set to timing adjustment mode. 第5実施形態の撮像装置の概略的な構成を示すブロック図である。It is a block diagram which shows the schematic structure of the imaging device of 5th Embodiment. 第6実施形態の撮像装置の概略的な構成を示すブロック図である。It is a block diagram which shows the schematic structure of the imaging device of 6th Embodiment. 第8実施形態の撮像システムで用いる撮像装置の全体的な構成を示すブロック図である。It is a block diagram which shows the whole structure of the imaging device used with the imaging system of 8th Embodiment. 第8実施形態の撮像システムの概略的な構成を示すブロック図である。It is a block diagram which shows the schematic structure of the imaging system of 8th Embodiment. 第8実施形態の撮像システムにおける同期信号と映像信号との関係を示す図である。It is a figure which shows the relationship between the synchronizing signal and video signal in the imaging system of 8th Embodiment. 第8実施形態の撮像システムにおける同期信号と赤外光の投光と映像信号との関係を示す図である。It is a figure which shows the relationship between the synchronizing signal in the imaging system of 8th Embodiment, infrared light projection, and a video signal.

以下、各実施形態の撮像装置(撮像システム)及び撮像装置(撮像システム)の制御方法について、添付図面を参照して説明する。   Hereinafter, an imaging apparatus (imaging system) and an imaging apparatus (imaging system) control method according to each embodiment will be described with reference to the accompanying drawings.

<第1実施形態の撮像装置の構成>
まず、図1を用いて、第1実施形態の撮像装置101の全体的な構成について説明する。図1に示す第1実施形態の撮像装置101は、昼間等の可視光が十分に存在する環境下に適した通常モードと、夜間等の可視光がほとんどない環境下に適した暗視モードと、可視光がわずかに存在する環境下に適した中間モードとの3つのモードで撮像可能な撮像装置である。
<Configuration of Imaging Device of First Embodiment>
First, the overall configuration of the imaging apparatus 101 according to the first embodiment will be described with reference to FIG. The imaging apparatus 101 according to the first embodiment illustrated in FIG. 1 includes a normal mode suitable for an environment where there is sufficient visible light such as daytime, and a night vision mode suitable for an environment where there is almost no visible light such as nighttime. The imaging device can capture images in three modes, an intermediate mode suitable for an environment where slight visible light exists.

暗視モードと中間モードとはいずれも可視光が少ない環境下で、赤外線を投光しながら撮像する赤外光投光モードである。赤外光投光モードは暗視モードのみであってもよい。本実施形態では、好ましい構成として、中間モードを含む3つのモードで撮像可能な撮像装置を例とする。   Both the night vision mode and the intermediate mode are infrared light projection modes in which imaging is performed while projecting infrared light in an environment with little visible light. The infrared light projection mode may be only the night vision mode. In this embodiment, as a preferable configuration, an imaging device capable of imaging in three modes including the intermediate mode is taken as an example.

図1において、被写体から反射した一点鎖線にて示す光は、光学レンズ1によって集光される。ここで、光学レンズ1には、可視光が十分に存在する環境下では可視光、可視光がほとんどない環境下では後述する赤外線投光器9より発せられた赤外光を被写体が反射した赤外光が入射される。   In FIG. 1, the light indicated by the alternate long and short dash line reflected from the subject is collected by the optical lens 1. Here, the optical lens 1 has visible light in an environment in which visible light is sufficiently present, and infrared light in which an object reflects infrared light emitted from an infrared projector 9 described below in an environment with little visible light. Is incident.

可視光がわずかに存在する環境下では、光学レンズ1には、可視光と赤外線投光器9より発せられた赤外光を被写体が反射した赤外光とが混在した光が入射される。   Under an environment where there is a slight amount of visible light, the optical lens 1 is incident with light in which visible light and infrared light emitted from the infrared projector 9 are reflected by the subject.

図1では簡略化のため、光学レンズ1を1つのみとしているが、実際には、撮像装置101は複数の光学レンズを備える。   In FIG. 1, only one optical lens 1 is shown for simplification, but actually, the imaging apparatus 101 includes a plurality of optical lenses.

光学レンズ1と撮像部3との間には、光学フィルタ2が設けられている。光学フィルタ2は、赤外線カットフィルタ21とダミーガラス22との2つの部分を有する。光学フィルタ2は、駆動部8によって、光学レンズ1と撮像部3との間に赤外線カットフィルタ21を挿入した状態と、光学レンズ1と撮像部3との間にダミーガラス22を挿入した状態とのいずれかの状態に駆動される。   An optical filter 2 is provided between the optical lens 1 and the imaging unit 3. The optical filter 2 has two parts, an infrared cut filter 21 and a dummy glass 22. The optical filter 2 includes a state in which an infrared cut filter 21 is inserted between the optical lens 1 and the imaging unit 3 and a state in which a dummy glass 22 is inserted between the optical lens 1 and the imaging unit 3 by the driving unit 8. It is driven to either state.

撮像部3は、水平方向及び垂直方向に複数の受光素子(画素)が配列した撮像素子31と、それぞれの受光素子に対応して赤色(R),緑色(G),青色(B)のいずれかの色のフィルタエレメントが配置されたカラーフィルタ32とを有する。撮像素子31は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)でよい。   The imaging unit 3 includes an imaging element 31 in which a plurality of light receiving elements (pixels) are arranged in the horizontal direction and the vertical direction, and any one of red (R), green (G), and blue (B) corresponding to each light receiving element. And a color filter 32 in which filter elements of these colors are arranged. The image sensor 31 may be a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).

カラーフィルタ32には、一例として、図2に示すように、R,G,Bのフィルタエレメントがベイヤ配列と称される配列で並べられている。ベイヤ配列は、R,G,Bのフィルタエレメントの所定の配列の一例である。図2において、各行のRのフィルタエレメントに挟まれたGのフィルタエレメントをGr、Bのフィルタエレメントに挟まれたGのフィルタエレメントをGbとしている。   As an example, as shown in FIG. 2, the color filter 32 has R, G, and B filter elements arranged in an array called a Bayer array. The Bayer array is an example of a predetermined array of R, G, and B filter elements. In FIG. 2, the G filter element sandwiched between the R filter elements in each row is Gr, and the G filter element sandwiched between the B filter elements is Gb.

ベイヤ配列では、RのフィルタエレメントとGrのフィルタエレメントとが交互に配置された水平方向の行と、BのフィルタエレメントとGbのフィルタエレメントとが交互に配置された水平方向の行とが、垂直方向に交互に配列されている。   In the Bayer array, horizontal rows in which R filter elements and Gr filter elements are alternately arranged and horizontal rows in which B filter elements and Gb filter elements are alternately arranged are vertically arranged. They are arranged alternately in the direction.

図3は、撮像部3におけるR光,G光,B光の波長と相対感度との分光感度特性を示している。相対感度は、最大値が1に正規化されている。撮像装置101を通常モードで動作させるとき、可視光による良好なカラー映像を撮像するには、波長700nm以上の赤外光をカットする必要がある。   FIG. 3 shows spectral sensitivity characteristics of the wavelengths of R light, G light, and B light and relative sensitivity in the imaging unit 3. The relative sensitivity is normalized to 1 at the maximum value. When the imaging apparatus 101 is operated in the normal mode, it is necessary to cut infrared light having a wavelength of 700 nm or more in order to capture a good color image by visible light.

そこで、駆動部8は、制御部7による制御に基づいて、光学レンズ1と撮像部3との間に赤外線カットフィルタ21を挿入するように光学フィルタ2を駆動する。   Therefore, the drive unit 8 drives the optical filter 2 so that the infrared cut filter 21 is inserted between the optical lens 1 and the imaging unit 3 based on control by the control unit 7.

図3より分かるように、撮像部3は、波長700nm以上の赤外光の領域においても感度を有する。そこで、撮像装置101を中間モードまたは暗視モードで動作させるときには、駆動部8は、制御部7による制御に基づいて、光学レンズ1と撮像部3との間の赤外線カットフィルタ21を外してダミーガラス22を挿入するように光学フィルタ2を駆動する。   As can be seen from FIG. 3, the imaging unit 3 has sensitivity even in an infrared light region having a wavelength of 700 nm or more. Therefore, when the imaging apparatus 101 is operated in the intermediate mode or the night vision mode, the driving unit 8 removes the infrared cut filter 21 between the optical lens 1 and the imaging unit 3 based on the control by the control unit 7 and performs a dummy. The optical filter 2 is driven so that the glass 22 is inserted.

光学レンズ1と撮像部3との間にダミーガラス22を挿入した状態では、波長700nm以上の赤外光はカットされない。よって、撮像装置101は、図3に破線の楕円で囲んだ部分の感度を利用して、R,G,Bの各色情報を得ることが可能となる。ダミーガラス22を挿入するのは、光路長を、赤外線カットフィルタ21を挿入した場合の光路長と同じにするためである。   In a state where the dummy glass 22 is inserted between the optical lens 1 and the imaging unit 3, infrared light having a wavelength of 700 nm or more is not cut. Therefore, the imaging apparatus 101 can obtain R, G, and B color information by using the sensitivity of the portion surrounded by the dashed ellipse in FIG. The reason why the dummy glass 22 is inserted is to make the optical path length the same as the optical path length when the infrared cut filter 21 is inserted.

赤外線投光器9は、それぞれ、波長IR1,IR2,IR3の赤外光を投光する投光部91,92,93を有する。中間モードまたは暗視モードのとき、制御部7内の投光制御部71は、時分割で投光部91〜93より波長IR1〜IR3の赤外光を選択的に投光させるように制御する。   The infrared projector 9 includes projectors 91, 92, and 93 that project infrared light having wavelengths IR1, IR2, and IR3, respectively. In the intermediate mode or the night vision mode, the light projecting control unit 71 in the control unit 7 performs control so as to selectively project infrared light with wavelengths IR1 to IR3 from the light projecting units 91 to 93 in a time division manner. .

ところで、撮像素子31にはシリコンウェハが用いられている。図4は、R,G,Bそれぞれの色を呈する素材に白色光を照射した場合の各波長における反射率にシリコンの受光感度を乗じたときの、波長と相対検出率との関係を示している。図4においても、相対検出率は、最大値が1に正規化されている。   Incidentally, a silicon wafer is used for the image sensor 31. FIG. 4 shows the relationship between the wavelength and the relative detection rate when the reflectance at each wavelength is multiplied by the light receiving sensitivity of silicon when a material exhibiting each color of R, G, and B is irradiated with white light. Yes. Also in FIG. 4, the maximum value of the relative detection rate is normalized to 1.

図4に示すように、赤外光の領域において、例えば、波長780nmにおける反射光はR色を呈する素材の反射光との相関性が高く、波長870nmにおける反射光はB色を呈する素材の反射光との相関性が高く、波長940nmにおける反射光はG色を呈する素材の反射光との相関性が高い。   As shown in FIG. 4, in the infrared light region, for example, the reflected light at a wavelength of 780 nm is highly correlated with the reflected light of a material exhibiting an R color, and the reflected light at a wavelength of 870 nm is a reflection of a material exhibiting a B color. Correlation with light is high, and reflected light at a wavelength of 940 nm is highly correlated with reflected light of a material exhibiting G color.

そこで、本実施形態においては、投光部91,92,93が投光する赤外光の波長IR1,IR2,IR3を、780nm,940nm,870nmとする。これらの波長は、波長IR1〜IR3の一例であり、780nm,940nm,870nm以外でもよい。   Therefore, in this embodiment, the wavelengths IR1, IR2, and IR3 of the infrared light projected by the light projecting units 91, 92, and 93 are set to 780 nm, 940 nm, and 870 nm. These wavelengths are examples of the wavelengths IR1 to IR3, and may be other than 780 nm, 940 nm, and 870 nm.

投光部91が波長IR1の赤外光を被写体に照射し、被写体から反射した光を撮像した映像信号をR信号に割り当てる。投光部93が波長IR2の赤外光を被写体に照射し、被写体から反射した光を撮像した映像信号をG信号に割り当てる。投光部92が波長IR3の赤外光を被写体に照射し、被写体から反射した光を撮像した映像信号をB信号に割り当てる。   The light projecting unit 91 irradiates the subject with infrared light having the wavelength IR1, and assigns an image signal obtained by imaging the light reflected from the subject to the R signal. The light projecting unit 93 irradiates the subject with infrared light having a wavelength IR2, and assigns a video signal obtained by imaging the light reflected from the subject to the G signal. The light projecting unit 92 irradiates the subject with infrared light having a wavelength IR3, and assigns a video signal obtained by imaging the light reflected from the subject to the B signal.

このようにすれば、原理的に、中間モードまたは暗視モードにおいても、通常モードにおいて可視光が存在する環境下で被写体を撮像した場合と同様の色を再現することができる。   In this way, in principle, even in the intermediate mode or the night vision mode, it is possible to reproduce the same color as when the subject is imaged in an environment where visible light exists in the normal mode.

色味が被写体の実際の色味と異なるカラー映像となるものの、780nmの波長IR1をR光、870nmの波長IR3をG光、940nmの波長IR2をB光に割り当ててもよい。波長IR1,IR2,IR3をR光,G光,B光に任意に割り当てることも可能である。   Although the color image is different from the actual color of the subject, a wavelength IR1 of 780 nm may be assigned to the R light, a wavelength IR3 of 870 nm may be assigned to the G light, and a wavelength IR2 of 940 nm may be assigned to the B light. The wavelengths IR1, IR2, and IR3 can be arbitrarily assigned to the R light, G light, and B light.

本実施形態においては、被写体の色味を最もよく再現する、波長IR1,IR2,IR3をそれぞれR光,G光,B光に割り当てることとする。   In the present embodiment, the wavelengths IR1, IR2, and IR3 that best reproduce the color of the subject are assigned to R light, G light, and B light, respectively.

制御部7は、撮像部3における撮像と、映像処理部5内の各部とを制御する。撮像部3によって撮像された撮像信号はA/D変換器4によってA/D変換され、映像処理部5に入力される。撮像部3とA/D変換器4とが一体化されていてもよい。映像処理部5と制御部7とが一体化されていてもよい。   The control unit 7 controls imaging in the imaging unit 3 and each unit in the video processing unit 5. An imaging signal imaged by the imaging unit 3 is A / D converted by the A / D converter 4 and input to the video processing unit 5. The imaging unit 3 and the A / D converter 4 may be integrated. The video processing unit 5 and the control unit 7 may be integrated.

制御部7は、通常モードと中間モードと暗視モードとを切り換えるモード切換部72を備える。モード切換部72は、通常モードと中間モードと暗視モードとに対応させて、映像処理部5内の動作を後述のように適宜切り換える。モード切換部72は、赤外線投光器9によって波長IR1,IR2,IR3の赤外光を投光するタイミングを調整するタイミング調整モードに切り換えることができる。   The control unit 7 includes a mode switching unit 72 that switches between the normal mode, the intermediate mode, and the night vision mode. The mode switching unit 72 appropriately switches the operation in the video processing unit 5 as described later in correspondence with the normal mode, the intermediate mode, and the night vision mode. The mode switching unit 72 can be switched to a timing adjustment mode for adjusting the timing of projecting infrared light with wavelengths IR1, IR2, and IR3 by the infrared projector 9.

また、制御部7は、1台の撮像装置101と他の撮像装置101とを含んで撮像システムを構成する場合に、撮像装置101をマスタの撮像装置とするか、スレーブの撮像装置とするかを設定するマスタ/スレーブ設定部74を備える。   Further, when the imaging unit is configured to include one imaging device 101 and another imaging device 101, the control unit 7 sets the imaging device 101 as a master imaging device or a slave imaging device. A master / slave setting unit 74 is provided.

マスタ/スレーブ設定部74は、機械的なスイッチによってマスタとスレーブとを選択して、選択されたマスタまたはスレーブの設定状態を保持してもよい。マスタ/スレーブ設定部74は、メニューによってマスタとスレーブとを選択して、選択されたマスタまたはスレーブの設定状態を保持してもよい。   The master / slave setting unit 74 may select a master and a slave by a mechanical switch and hold a setting state of the selected master or slave. The master / slave setting unit 74 may select a master and a slave from a menu and hold the setting state of the selected master or slave.

さらに、制御部7は、撮像装置101の赤外線投光器9と他の撮像装置101が備える赤外線投光器9とが、波長IR1,IR2,IR3の赤外光を投光するタイミング(位相)を同期させるための構成を備える。具体的には、制御部7は、輝度レベル判定部75と、同期信号送信部76tと、同期信号受信部76rとを備える。   Further, the control unit 7 synchronizes the timing (phase) at which the infrared projector 9 of the imaging device 101 and the infrared projector 9 included in the other imaging device 101 project infrared light with wavelengths IR1, IR2, and IR3. The configuration is provided. Specifically, the control unit 7 includes a luminance level determination unit 75, a synchronization signal transmission unit 76t, and a synchronization signal reception unit 76r.

撮像装置101がマスタの撮像装置として設定されているとき、同期信号送信部76tは基準クロックを基準とした同期信号Ssyncを他の撮像装置101へと送出する。同期信号Ssyncは、例えば、この撮像装置101における赤外光が投光されるタイミングに基づく信号である。なお、このとき、同期信号受信部76rは不動作である。   When the imaging apparatus 101 is set as a master imaging apparatus, the synchronization signal transmission unit 76t transmits a synchronization signal Ssync based on the reference clock to another imaging apparatus 101. The synchronization signal Ssync is a signal based on the timing at which infrared light is projected in the imaging apparatus 101, for example. At this time, the synchronization signal receiving unit 76r does not operate.

撮像装置101がスレーブの撮像装置として設定されているとき、同期信号受信部76rは、マスタである他の撮像装置101が送出した同期信号Ssyncを受信する。このとき、同期信号送信部76tは不動作である。また、同期信号Ssyncは、マスタの撮像装置から直接受信しなくてもよく、その他の装置を介して受信してもよい。   When the imaging apparatus 101 is set as a slave imaging apparatus, the synchronization signal receiving unit 76r receives the synchronization signal Ssync transmitted from the other imaging apparatus 101 that is the master. At this time, the synchronization signal transmission unit 76t does not operate. Further, the synchronization signal Ssync may not be received directly from the master imaging device, and may be received via another device.

輝度レベル判定部75と、同期信号送信部76t及び同期信号受信部76rの具体的な動作については後述する。   Specific operations of the luminance level determination unit 75, the synchronization signal transmission unit 76t, and the synchronization signal reception unit 76r will be described later.

映像処理部5は、スイッチ51,53と、前信号処理部52と、デモザイク処理部54とを有する。スイッチ51,53は物理的なスイッチであってもよく、前信号処理部52の動作と不動作とを切り換えるための概念的なスイッチであってもよい。制御部7には、撮像している映像の明るさを検出するために、映像処理部5から映像信号が入力される。   The video processing unit 5 includes switches 51 and 53, a previous signal processing unit 52, and a demosaic processing unit 54. The switches 51 and 53 may be physical switches, or may be conceptual switches for switching between operation and non-operation of the previous signal processing unit 52. A video signal is input from the video processing unit 5 to the control unit 7 in order to detect the brightness of the video being captured.

図5に示すように、前信号処理部52は、周囲画素加算部521と、同一位置画素加算部522と、合成部523とを有する。   As illustrated in FIG. 5, the previous signal processing unit 52 includes a surrounding pixel addition unit 521, a same-position pixel addition unit 522, and a synthesis unit 523.

映像処理部5は、R,G,Bの3原色データを生成して、映像出力部6に供給する。映像出力部6は、3原色データを所定の形式で図示していない表示部等へと出力する。   The video processing unit 5 generates R, G, and B primary color data and supplies them to the video output unit 6. The video output unit 6 outputs the three primary color data in a predetermined format to a display unit not shown.

映像出力部6は、R,G,B信号をそのまま出力してもよいし、R,G,B信号を輝度信号と色信号(または色差信号)に変換して出力してもよい。映像出力部6は、コンポジット映像信号を出力してもよい。映像出力部6は、デジタル信号の映像信号を出力してもよいし、D/A変換器によってアナログ信号に変換した映像信号を出力してもよい。   The video output unit 6 may output the R, G, and B signals as they are, or may convert the R, G, and B signals into luminance signals and color signals (or color difference signals) and output them. The video output unit 6 may output a composite video signal. The video output unit 6 may output a digital video signal or may output a video signal converted into an analog signal by a D / A converter.

以下、通常モードと中間モードと暗視モードとのそれぞれの具体的な動作について説明する。   Hereinafter, specific operations in the normal mode, the intermediate mode, and the night vision mode will be described.

<通常モード>
通常モードでは、制御部7は、駆動部8によって、光学レンズ1と撮像部3との間に赤外線カットフィルタ21を挿入させる。投光制御部71は、赤外線投光器9による赤外光の投光をオフにする。
<Normal mode>
In the normal mode, the control unit 7 causes the driving unit 8 to insert the infrared cut filter 21 between the optical lens 1 and the imaging unit 3. The light projection control unit 71 turns off infrared light projection by the infrared projector 9.

撮像部3によって撮像された撮像信号は、A/D変換器4によってデジタル信号である映像データに変換されて、映像処理部5に入力される。通常モードでは、モード切換部72は、スイッチ51,53を端子Tbに接続するように制御する。   The image signal picked up by the image pickup unit 3 is converted into video data which is a digital signal by the A / D converter 4 and input to the video processing unit 5. In the normal mode, the mode switching unit 72 controls the switches 51 and 53 to be connected to the terminal Tb.

図6の(a)は、撮像部3の露光Ex1,Ex2,Ex3…を示している。実際には露光時間はシャッタスピード等の条件によって変化するが、ここでは露光Ex1,Ex2,Ex3は最大露光時間を示している。   FIG. 6A shows exposures Ex1, Ex2, Ex3,... Actually, the exposure time varies depending on conditions such as the shutter speed. Here, the exposures Ex1, Ex2, and Ex3 indicate the maximum exposure time.

図6の(b)は、それぞれの映像信号のフレームが得られるタイミングを示している。露光Ex1の前の図示していない露光に基づいて、所定時間後に映像信号のフレームF0が得られる。露光Ex1に基づいて、所定時間後に映像信号のフレームF1が得られる。露光Ex2に基づいて、所定時間後に映像信号のフレームF2が得られる。露光Ex3以降も同様である。映像信号のフレーム周波数を、例えば30フレーム/秒とする。   FIG. 6B shows the timing at which each video signal frame is obtained. Based on an exposure (not shown) before the exposure Ex1, a frame F0 of the video signal is obtained after a predetermined time. Based on the exposure Ex1, a frame F1 of the video signal is obtained after a predetermined time. Based on the exposure Ex2, a frame F2 of the video signal is obtained after a predetermined time. The same applies to exposure Ex3 and thereafter. The frame frequency of the video signal is set to 30 frames / second, for example.

映像信号のフレーム周波数は、NTSC方式であれば30フレーム/秒または60フレーム/秒、PAL方式であれば25フレーム/秒または50フレーム/秒のように適宜設定すればよい。また、映像信号のフレーム周波数は、映画で使われている24フレーム/秒であってもよい。   The frame frequency of the video signal may be set as appropriate, such as 30 frames / second or 60 frames / second for the NTSC system and 25 frames / second or 50 frames / second for the PAL system. The frame frequency of the video signal may be 24 frames / second used in movies.

A/D変換器4より出力された各フレームの映像データは、スイッチ51,53を介してデモザイク処理部54に入力される。デモザイク処理部54は、入力された各フレームの映像データにデモザイク処理を施す。映像処理部5は、デモザイク処理の他、ホワイトバランス補正やゲイン補正等の各種の映像処理を施して、R,G,Bの3原色データを出力する。   The video data of each frame output from the A / D converter 4 is input to the demosaic processing unit 54 via the switches 51 and 53. The demosaic processing unit 54 performs demosaic processing on the input video data of each frame. The video processing unit 5 performs various video processing such as white balance correction and gain correction in addition to demosaic processing, and outputs R, G, and B primary color data.

図7を用いて、デモザイク処理部54におけるデモザイク処理について説明する。図7において、(a)は映像データの任意のフレームFmを示している。フレームFmは、有効映像期間の画素によって構成されたフレームである。映像データの画素数は、例えばVGA規格では水平640画素、垂直480画素である。ここでは簡略化のため、フレームFmの画素数を大幅に少なくして、フレームFmを概念的に示している。   The demosaic processing in the demosaic processing unit 54 will be described with reference to FIG. 7A shows an arbitrary frame Fm of video data. The frame Fm is a frame composed of pixels in the effective video period. The number of pixels of the video data is, for example, horizontal 640 pixels and vertical 480 pixels in the VGA standard. Here, for simplification, the number of pixels of the frame Fm is significantly reduced, and the frame Fm is conceptually illustrated.

ベイヤ配列の撮像部3を用いて生成された映像データは、フレームFm内で、R,G,Bの画素データが混在したデータである。デモザイク処理部54は、Rの画素データが存在しない画素位置のRの画素データを周囲のRの画素データを用いて算出したRの補間画素データRiを生成する。デモザイク処理部54は、図7の(b)に示す1フレームの全画素がRの画素データよりなるRフレームFmRを生成する。   The video data generated using the Bayer array imaging unit 3 is data in which R, G, and B pixel data are mixed in the frame Fm. The demosaic processing unit 54 generates R interpolation pixel data Ri obtained by calculating R pixel data at a pixel position where no R pixel data is present using surrounding R pixel data. The demosaic processing unit 54 generates an R frame FmR in which all the pixels in one frame shown in FIG. 7B are made up of R pixel data.

デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周囲のGの画素データを用いて算出したGの補間画素データGiを生成する。デモザイク処理部54は、図7の(c)に示す1フレームの全画素がGの画素データよりなるGフレームFmGを生成する。   The demosaic processing unit 54 generates G interpolation pixel data Gi obtained by calculating G pixel data at a pixel position where no G pixel data exists using surrounding G pixel data. The demosaic processing unit 54 generates a G frame FmG in which all the pixels of one frame shown in FIG.

デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周囲のBの画素データを用いて算出したBの補間画素データBiを生成する。デモザイク処理部54は、図7の(d)に示す1フレームの全画素がBの画素データよりなるBフレームFmBを生成する。   The demosaic processing unit 54 generates B interpolated pixel data Bi obtained by calculating B pixel data at a pixel position where no B pixel data exists using surrounding B pixel data. The demosaic processing unit 54 generates a B frame FmB in which all the pixels of one frame shown in FIG.

デモザイク処理部54は、Rの画素データを補間する際には少なくともRの画素データを用いればよく、Gの画素データを補間する際には少なくともGの画素データを用いればよく、Bの画素データを補間する際には少なくともBの画素データを用いればよい。デモザイク処理部54は、補間精度を向上させるために、R,G,Bの画素データを補間する際に、生成しようとする補間画素データの色とは異なる他の色の画素データを用いてもよい。   The demosaic processing unit 54 may use at least R pixel data when interpolating R pixel data, may use at least G pixel data when interpolating G pixel data, and B pixel data. When interpolation is performed, at least B pixel data may be used. In order to improve interpolation accuracy, the demosaic processing unit 54 may use pixel data of another color different from the color of the interpolation pixel data to be generated when interpolating R, G, and B pixel data. Good.

撮像部3には、有効映像期間より外側の画素も存在しているため、フレームFmの上下左右端部に位置する画素においても、R,G,Bの画素データを補間することができる。   Since there are pixels outside the effective video period in the imaging unit 3, R, G, and B pixel data can be interpolated even in pixels located at the upper, lower, left, and right ends of the frame Fm.

デモザイク処理部54によって生成されたRフレームFmR,GフレームFmG,BフレームFmBがR,G,Bの3原色データとして出力される。図7では、理解を容易にするため、R,G,Bの画素データをフレーム単位で説明したが、実際には、R,G,Bの画素データは画素ごとに順次出力される。   The R frame FmR, G frame FmG, and B frame FmB generated by the demosaic processing unit 54 are output as R, G, and B primary color data. In FIG. 7, the R, G, and B pixel data has been described in units of frames in order to facilitate understanding, but actually, the R, G, and B pixel data are sequentially output for each pixel.

<中間モード:第1中間モード>
中間モード(第1中間モード及び後述する第2中間モード)では、制御部7は、駆動部8によって、光学レンズ1と撮像部3との間にダミーガラス22を挿入させる。投光制御部71は、赤外線投光器9による赤外光の投光をオンにする。モード切換部72は、スイッチ51,53を端子Taに接続するように制御する。
<Intermediate mode: first intermediate mode>
In the intermediate mode (first intermediate mode and second intermediate mode described later), the control unit 7 causes the driving unit 8 to insert the dummy glass 22 between the optical lens 1 and the imaging unit 3. The light projection controller 71 turns on the infrared light projection by the infrared light projector 9. The mode switching unit 72 controls the switches 51 and 53 to be connected to the terminal Ta.

図8の(a)は、赤外線投光器9による赤外光の投光の状態を示している。制御部7は、通常モードの1フレーム期間を1/3ずつに分け、例えば投光部91,92,93の順に赤外光を投光させるように制御する。   FIG. 8A shows a state of infrared light projection by the infrared projector 9. The control unit 7 divides one frame period of the normal mode into 1/3, and controls so as to project infrared light in the order of the light projecting units 91, 92, 93, for example.

図8の(a)に示す例では、1フレームの最初の1/3の期間では、波長IR1(780nm)の赤外光が被写体に照射される。1フレームの次の1/3の期間では、波長IR2(940nm)の赤外光が被写体に照射される。1フレームの最後の1/3の期間では、波長IR3(870nm)の赤外光が被写体に照射される。波長IR1〜IR3の赤外光を投光する順番は任意である。但し、波長IR1,IR2,IR3の順が最もよい。   In the example shown in FIG. 8A, infrared light having a wavelength IR1 (780 nm) is irradiated onto the subject in the first 3 period of one frame. In the next 1/3 period of one frame, the subject is irradiated with infrared light having a wavelength IR2 (940 nm). In the last 1/3 period of one frame, the subject is irradiated with infrared light having a wavelength IR3 (870 nm). The order of projecting infrared light with wavelengths IR1 to IR3 is arbitrary. However, the order of wavelengths IR1, IR2, IR3 is the best.

図8の(b)に示すように、波長IR1の赤外光を投光しているタイミングでは、撮像部3はR光との相関性が高い露光Ex1Rが行われる。波長IR2の赤外光を投光しているタイミングでは、撮像部3はG光との相関性が高い露光Ex1Gが行われる。波長IR3の赤外光を投光しているタイミングでは、撮像部3はB光との相関性が高い露光Ex1Bが行われる。   As shown in FIG. 8B, at the timing when infrared light having the wavelength IR1 is projected, the imaging unit 3 performs exposure Ex1R having a high correlation with the R light. At the timing when the infrared light having the wavelength IR2 is projected, the imaging unit 3 performs the exposure Ex1G having a high correlation with the G light. At the timing when the infrared light having the wavelength IR3 is projected, the imaging unit 3 performs exposure Ex1B having a high correlation with the B light.

但し、中間モードでは、可視光がわずかに存在する環境下での撮像であるため、可視光と赤外線投光器9より投光された赤外光とが混在した状態である。よって、中間モードにおいては、露光Ex1R,Ex1G,Ex1B,Ex2R,Ex2G,Ex2B…は、可視光による露光と赤外光による露光とを合わせた露光となる。   However, in the intermediate mode, since imaging is performed in an environment where there is a small amount of visible light, visible light and infrared light projected from the infrared projector 9 are mixed. Therefore, in the intermediate mode, the exposures Ex1R, Ex1G, Ex1B, Ex2R, Ex2G, Ex2B... Are exposures that combine exposure with visible light and exposure with infrared light.

図8の(c)に示すように、露光Ex1R,Ex1G,Ex1Bに基づいて、所定時間後に、露光Ex1Rに対応したフレームF1IR1、露光Ex1Gに対応したフレームF1IR3、露光Ex1Bに対応したフレームF1IR2が得られる。   As shown in FIG. 8C, based on the exposures Ex1R, Ex1G, and Ex1B, a frame F1IR1 corresponding to the exposure Ex1R, a frame F1IR3 corresponding to the exposure Ex1G, and a frame F1IR2 corresponding to the exposure Ex1B are obtained after a predetermined time. It is done.

また、露光Ex2R,Ex2G,Ex2Bに基づいて、所定時間後に、露光Ex2Rに対応したフレームF2IR1、露光Ex2Gに対応したフレームF2IR3、露光Ex2Bに対応したフレームF2IR2が得られる。露光Ex3R,Ex3G,Ex3B以降も同様である。   Further, based on the exposures Ex2R, Ex2G, and Ex2B, a frame F2IR1 corresponding to the exposure Ex2R, a frame F2IR3 corresponding to the exposure Ex2G, and a frame F2IR2 corresponding to the exposure Ex2B are obtained after a predetermined time. The same applies to exposures Ex3R, Ex3G, and Ex3B.

図8の(c)の撮像信号のフレーム周波数は、90フレーム/秒である。中間モードでは、通常モードにおける映像信号の1フレームを時分割して波長IR1〜IR3の赤外光を投光するため、通常モードと同じ形式の映像信号を出力するためには、図8の(c)の撮像信号のフレーム周波数は、通常モードにおけるフレーム周波数の3倍となる。   The frame frequency of the imaging signal in FIG. 8C is 90 frames / second. In the intermediate mode, since one frame of the video signal in the normal mode is time-divided and infrared light of wavelengths IR1 to IR3 is projected, in order to output a video signal in the same format as in the normal mode, ( The frame frequency of the imaging signal in c) is three times the frame frequency in the normal mode.

後述するように、図8の(c)の3フレームの撮像信号に基づいて、図8の(d)に示す30フレーム/秒のフレーム周波数を有する映像信号の1フレームが生成される。例えば、フレームF1IR1,F1IR2,F1IR3に基づいてフレームF1IRが生成され、フレームF2IR1,F2IR2,F2IR3に基づいてフレームF2IRが生成される。   As will be described later, one frame of a video signal having a frame frequency of 30 frames / second shown in FIG. 8D is generated based on the imaging signal of 3 frames shown in FIG. For example, a frame F1IR is generated based on the frames F1IR1, F1IR2, and F1IR3, and a frame F2IR is generated based on the frames F2IR1, F2IR2, and F2IR3.

図8の(c)の3フレームの撮像信号に基づいて、図8の(d)の各フレームの映像信号を生成する中間モードでの動作を具体的に説明する。   The operation in the intermediate mode for generating the video signal of each frame in FIG. 8D based on the three frames of the imaging signal in FIG. 8C will be specifically described.

A/D変換器4より出力された図8の(c)に示す撮像信号に対応する各フレームの映像データは、スイッチ51を介して前信号処理部52に入力される。   Video data of each frame corresponding to the imaging signal shown in FIG. 8C output from the A / D converter 4 is input to the previous signal processing unit 52 via the switch 51.

図9を用いて、前信号処理部52における前信号処理について説明する。図9の(a)は、波長IR1の赤外光を投光しているタイミングで生成された映像データの任意のフレームFmIR1を示している。フレームFmIR1内のR,B,Gr,Gbの画素データには、波長IR1の赤外光を投光した状態で生成されたことを示す添え字1を付している。   The previous signal processing in the previous signal processing unit 52 will be described with reference to FIG. FIG. 9A shows an arbitrary frame FmIR1 of the video data generated at the timing when the infrared light having the wavelength IR1 is projected. The R, B, Gr, and Gb pixel data in the frame FmIR1 is attached with a subscript 1 indicating that it is generated in a state where infrared light having the wavelength IR1 is projected.

図9の(b)は、波長IR2の赤外光を投光しているタイミングで生成された映像データの任意のフレームFmIR2を示している。フレームFmIR2内のR,B,Gr,Gbの画素データには、波長IR2の赤外光を投光した状態で生成されたことを示す添え字2を付している。   FIG. 9B shows an arbitrary frame FmIR2 of video data generated at the timing when infrared light having a wavelength IR2 is projected. The R, B, Gr, and Gb pixel data in the frame FmIR2 is attached with a subscript 2 indicating that it is generated in a state where infrared light having a wavelength IR2 is projected.

図9の(c)は、波長IR3の赤外光を投光しているタイミングで生成された映像データの任意のフレームFmIR3を示している。フレームFmIR3内のR,B,Gr,Gbの画素データには、波長IR3の赤外光を投光した状態で生成されたことを示す添え字3を付している。   FIG. 9C shows an arbitrary frame FmIR3 of the video data generated at the timing when the infrared light having the wavelength IR3 is projected. The R, B, Gr, and Gb pixel data in the frame FmIR3 has a subscript 3 indicating that it is generated in a state where infrared light having the wavelength IR3 is projected.

図9の(a)に示すフレームFmIR1は、R光との相関性が高い波長IR1の赤外光が投光された状態で生成された映像データであるので、Rの画素データは投光された赤外光と対応した画素データであり、B,Gの画素データは投光された赤外光と対応していない画素データである。B,Gr,Gbの画素データに付しているハッチングは、投光された赤外光と対応していない画素データであることを意味する。   The frame FmIR1 shown in FIG. 9A is video data generated in a state where infrared light having a wavelength IR1 having a high correlation with the R light is projected. Therefore, the R pixel data is projected. The pixel data corresponding to the infrared light and the pixel data B and G are pixel data not corresponding to the projected infrared light. The hatching attached to the B, Gr, and Gb pixel data means that the pixel data does not correspond to the projected infrared light.

図9の(b)に示すフレームFmIR2は、G光との相関性が高い波長IR2の赤外光が投光された状態で生成された映像データであるので、Gの画素データは投光された赤外光と対応した画素データであり、R,Bの画素データは投光された赤外光と対応していない画素データである。R,Bの画素データに付しているハッチングは、投光された赤外光と対応していない画素データであることを意味する。   The frame FmIR2 shown in FIG. 9B is video data generated in a state where infrared light having a wavelength IR2 having a high correlation with the G light is projected, so that the G pixel data is projected. The pixel data corresponding to the infrared light, and the R and B pixel data are pixel data not corresponding to the projected infrared light. The hatching attached to the R and B pixel data means that the pixel data does not correspond to the projected infrared light.

図9の(c)に示すフレームFmIR3は、B光との相関性が高い波長IR3の赤外光が投光された状態で生成された映像データであるので、Bの画素データは投光された赤外光と対応した画素データであり、R,Gの画素データは投光された赤外光と対応していない画素データである。R,Gr,Gbの画素データに付しているハッチングは、投光された赤外光と対応していない画素データであることを意味する。   The frame FmIR3 shown in FIG. 9C is video data generated in a state where infrared light having a wavelength IR3 having a high correlation with the B light is projected, so that the B pixel data is projected. The pixel data corresponding to the infrared light, and the R and G pixel data are pixel data not corresponding to the projected infrared light. The hatching attached to the R, Gr, and Gb pixel data means pixel data that does not correspond to the projected infrared light.

前信号処理部52内の同一位置画素加算部522は、互いに同じ画素位置のR,Gr,Gb,Bの画素データを以下の式(1)〜(3)に従って個別に加算して、加算画素データR123,Gr123,Gb123,B123を生成する。中間モードでは、前信号処理部52内の周囲画素加算部521は不動作である。   The same-position pixel addition unit 522 in the previous signal processing unit 52 individually adds R, Gr, Gb, and B pixel data at the same pixel position according to the following formulas (1) to (3), and adds pixels Data R123, Gr123, Gb123, and B123 are generated. In the intermediate mode, the surrounding pixel addition unit 521 in the previous signal processing unit 52 does not operate.

R123=ka×R1+kb×R2 +kc×R3 …(1)
G123=kd×G1+ke×G2+kf×G3 …(2)
B123=kg×B1+kh×B2+ki×B3 …(3)
R123 = ka × R1 + kb × R2 + kc × R3 (1)
G123 = kd × G1 + ke × G2 + kf × G3 (2)
B123 = kg × B1 + kh × B2 + ki × B3 (3)

式(1)〜(3)において、R1,G1,B1はフレームFmIR1におけるR,G,Bの画素データ、R2,G2,B2はフレームFmIR2におけるR,G,Bの画素データ、R3,G3,B3はフレームFmIR3におけるR,G,Bの画素データである。ka〜kiは所定の係数である。式(2)におけるG123はGr123またはGb123である。   In the equations (1) to (3), R1, G1, and B1 are R, G, and B pixel data in the frame FmIR1, R2, G2, and B2 are R, G, and B pixel data in the frame FmIR2, R3, G3, B3 is R, G, B pixel data in the frame FmIR3. ka to ki are predetermined coefficients. G123 in Formula (2) is Gr123 or Gb123.

このとき、同一位置画素加算部522は、ハッチングを付していないR,Gr,Gb,Bのそれぞれの画素データに、ハッチングを付した同じ画素位置のR,Gr,Gb,Bの画素データそれぞれを加算する。   At this time, the same-position pixel adding unit 522 adds R, Gr, Gb, and B pixel data at the same pixel position with hatching to the respective pixel data with R, Gr, Gb, and B that are not hatched. Is added.

即ち、同一位置画素加算部522は、式(1)に基づいて、フレームFmIR1におけるRの画素データに、フレームFmIR2,FmIR3における同じ画素位置のRの画素データを加算して、加算画素データR123を生成する。つまり、受光素子における赤色のカラーフィルタに対応する領域の画素データだけを用いて赤色用の加算画素データR123を生成する。   That is, the same-position pixel adding unit 522 adds the R pixel data at the same pixel position in the frames FmIR2 and FmIR3 to the R pixel data in the frame FmIR1 based on the equation (1), and adds the added pixel data R123. Generate. In other words, the addition pixel data R123 for red is generated using only the pixel data of the region corresponding to the red color filter in the light receiving element.

同一位置画素加算部522は、式(2)に基づいて、フレームFmIR2におけるGr,Gbの画素データに、フレームFmIR1,FmIR3における同じ画素位置のGr,Gbの画素データを加算して、加算画素データG123を生成する。つまり、受光素子における緑色のカラーフィルタに対応する領域の画素データだけを用いて緑色用の加算画素データG123を生成する。   The same-position pixel addition unit 522 adds the pixel data of Gr and Gb at the same pixel position in the frames FmIR1 and FmIR3 to the pixel data of Gr and Gb in the frame FmIR2 based on the equation (2), and adds pixel data Generate G123. That is, the green summed pixel data G123 is generated using only the pixel data of the region corresponding to the green color filter in the light receiving element.

同一位置画素加算部522は、式(3)に基づいて、フレームFmIR3におけるBの画素データに、フレームFmIR1,FmIR2における同じ画素位置のBの画素データを加算して、加算画素データB123を生成する。つまり、受光素子における青色のカラーフィルタに対応する領域の画素データだけを用いて青色用の加算画素データB123を生成する。   The same-position pixel addition unit 522 adds the B pixel data at the same pixel position in the frames FmIR1 and FmIR2 to the B pixel data in the frame FmIR3 based on the equation (3) to generate the added pixel data B123. . That is, the blue addition pixel data B123 is generated using only the pixel data of the region corresponding to the blue color filter in the light receiving element.

前信号処理部52内の合成部523は、それぞれの画素位置において生成された加算画素データR123,Gr123,Gb123,B123に基づいて、図9の(d)に示す合成映像信号のフレームFmIR123を生成する。   The combining unit 523 in the previous signal processing unit 52 generates a frame FmIR123 of the combined video signal shown in (d) of FIG. 9 based on the added pixel data R123, Gr123, Gb123, and B123 generated at each pixel position. To do.

具体的には、合成部523は、フレームFmIR1における加算画素データR123と、フレームFmIR2における加算画素データGr123,Gb123と、フレームFmIR3における加算画素データB123とを選択して合成する。これによって合成部523は、合成映像信号のフレームFmIR123を生成する。   Specifically, the synthesis unit 523 selects and synthesizes the addition pixel data R123 in the frame FmIR1, the addition pixel data Gr123 and Gb123 in the frame FmIR2, and the addition pixel data B123 in the frame FmIR3. Thereby, the synthesis unit 523 generates a frame FmIR123 of the synthesized video signal.

このように、合成部523は、カラーフィルタ32におけるフィルタエレメントの配列と同じ配列となるように、加算画素データR123,Gr123,Gb123,B123を配列させたフレームFmIR123を生成する。   In this way, the synthesis unit 523 generates a frame FmIR123 in which the addition pixel data R123, Gr123, Gb123, and B123 are arranged so that the arrangement is the same as the arrangement of the filter elements in the color filter 32.

第1中間モードにおいては、ハッチングを付していない画素データと、ハッチングを付した画素データとを用いて、フレームFmIR123の映像データを生成する。   In the first intermediate mode, video data of the frame FmIR123 is generated using pixel data that is not hatched and pixel data that is hatched.

同一位置画素加算部522によって互いに同じ画素位置の画素データを加算するのは、次の理由による。中間モードではわずかではあるものの可視光が存在する環境下での撮像であるため、ハッチングを付した画素データは可視光による露光に基づくそれぞれの色の成分を含む。よって、同じ画素位置の画素データを加算することによって、それぞれの色の感度を上げることができる。   The reason why the pixel data at the same pixel position is added by the same position pixel addition unit 522 is as follows. Since the imaging is performed in an environment where visible light is present in the intermediate mode, the hatched pixel data includes respective color components based on exposure with visible light. Therefore, the sensitivity of each color can be increased by adding pixel data at the same pixel position.

可視光と赤外光とが混在している状況で可視光が比較的多ければ、可視光による露光が支配的となる。この場合、フレームFmIR123の映像データは、可視光によって露光した映像信号に基づく成分が主となる。可視光と赤外光とが混在している状況で赤外光が比較的多ければ、赤外光による露光が支配的となる。この場合、フレームFmIR123の映像データは、赤外光によって露光した映像信号に基づく成分が主となる。   If the visible light and infrared light are mixed and there is a relatively large amount of visible light, exposure with visible light becomes dominant. In this case, the video data of the frame FmIR123 mainly includes components based on the video signal exposed with visible light. If visible light and infrared light are mixed and there is a relatively large amount of infrared light, exposure with infrared light becomes dominant. In this case, the video data of the frame FmIR123 mainly includes components based on the video signal exposed with infrared light.

可視光が比較的少ない場合には、式(1)において、係数ka,kb,kcの大小関係を、ka>kb,kcとし、式(2)において、係数kd,ke,kfの大小関係を、kf>kd,keとし、式(3)において、係数kg,kh,kiの大小関係を、kh>kg,kiとするのがよい。これは、波長IR1はR光との相関性が高く、波長IR2はG光との相関性が高く、波長IR3はB光との相関性が高いからである。   When visible light is relatively small, the relationship between the coefficients ka, kb, and kc in equation (1) is ka> kb, kc, and the relationship between the coefficients kd, ke, and kf in equation (2). , Kf> kd, ke, and in equation (3), the magnitude relationship between the coefficients kg, kh, ki is preferably kh> kg, ki. This is because the wavelength IR1 has a high correlation with the R light, the wavelength IR2 has a high correlation with the G light, and the wavelength IR3 has a high correlation with the B light.

このようにすれば、Rの画素データではフレームFmIR1におけるRの画素データ、Gの画素データではフレームFmIR2におけるGの画素データ、Bの画素データではフレームFmIR3におけるBの画素データを主とすることができる。   In this way, the R pixel data is mainly the R pixel data in the frame FmIR1, the G pixel data is the G pixel data in the frame FmIR2, and the B pixel data is mainly the B pixel data in the frame FmIR3. it can.

前信号処理部52より出力されたフレームFmIR123の映像データは、スイッチ53を介してデモザイク処理部54に入力される。デモザイク処理部54は、通常モードと同様に、入力されたフレームFmIR123の映像データにデモザイク処理を施す。映像処理部5は、デモザイク処理の他、ホワイトバランス補正やゲイン補正等の各種の映像処理を施して、R,G,Bの3原色データを出力する。   The video data of the frame FmIR123 output from the previous signal processing unit 52 is input to the demosaic processing unit 54 via the switch 53. The demosaic processing unit 54 performs demosaic processing on the video data of the input frame FmIR123, as in the normal mode. The video processing unit 5 performs various video processing such as white balance correction and gain correction in addition to demosaic processing, and outputs R, G, and B primary color data.

図10を用いて、デモザイク処理部54におけるデモザイク処理について説明する。図10の(a)は、フレームFmIR123を示している。デモザイク処理部54は、Rの画素データが存在しない画素位置のRの画素データを周囲のRの画素データを用いて演算して、Rの補間画素データR123iを生成する。デモザイク処理部54は、図10の(b)に示す1フレームの全画素がRの画素データよりなるRフレームFmIR123Rを生成する。   The demosaic process in the demosaic processing unit 54 will be described with reference to FIG. FIG. 10A shows a frame FmIR123. The demosaic processing unit 54 calculates the R pixel data at the pixel position where the R pixel data does not exist using the surrounding R pixel data, and generates the R interpolation pixel data R123i. The demosaic processing unit 54 generates an R frame FmIR123R in which all the pixels in one frame shown in FIG.

デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周囲のGの画素データを用いて演算して、Gの補間画素データG123iを生成する。デモザイク処理部54は、図10の(c)に示す1フレームの全画素がGの画素データよりなるGフレームFmIR123Gを生成する。   The demosaic processing unit 54 calculates the G pixel data at the pixel position where the G pixel data does not exist using the surrounding G pixel data, and generates the G interpolation pixel data G123i. The demosaic processing unit 54 generates a G frame FmIR123G in which all the pixels of one frame shown in FIG.

デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周囲のBの画素データを用いて演算して、Bの補間画素データB123iを生成する。デモザイク処理部54は、図10の(d)に示す1フレームの全画素がBの画素データよりなるBフレームFmIR123Bを生成する。   The demosaic processing unit 54 calculates the B pixel data at the pixel position where the B pixel data does not exist using the surrounding B pixel data, and generates the B interpolation pixel data B123i. The demosaic processing unit 54 generates a B frame FmIR123B in which all the pixels in one frame shown in FIG.

通常モードにおける図7に示すデモザイク処理部54の動作と、中間モードにおける図10に示すデモザイク処理部54の動作とを比較すれば分かるように、両者は実質的に同じである。デモザイク処理部54の動作は、通常モードであっても中間モードであっても変わらない。   As can be understood by comparing the operation of the demosaic processing unit 54 shown in FIG. 7 in the normal mode with the operation of the demosaic processing unit 54 shown in FIG. 10 in the intermediate mode, they are substantially the same. The operation of the demosaic processing unit 54 does not change regardless of whether it is the normal mode or the intermediate mode.

通常モードでは前信号処理部52を不動作とし、中間モードでは、周囲画素加算部521を除き、前信号処理部52を動作させればよい。通常モードと中間モードとで、映像処理部5におけるデモザイク処理部54、及び、ホワイトバランス補正やゲイン補正等の信号処理部を共用させることができる。   In the normal mode, the previous signal processing unit 52 is disabled, and in the intermediate mode, the previous signal processing unit 52 may be operated except for the surrounding pixel adding unit 521. In the normal mode and the intermediate mode, the demosaic processing unit 54 in the video processing unit 5 and the signal processing unit such as white balance correction and gain correction can be shared.

<中間モード:第2中間モード>
図11及び図12を用いて、第2中間モードにおける動作を説明する。第2中間モードにおける動作において、第1中間モードにおける動作と同一部分は説明を省略する。図11の(a)〜(c)のフレームFmIR1,FmIR2,FmIR3は、図9の(a)〜(c)のフレームFmIR1,FmIR2,FmIR3と同じである。
<Intermediate mode: second intermediate mode>
The operation in the second intermediate mode will be described with reference to FIGS. In the operation in the second intermediate mode, the description of the same part as the operation in the first intermediate mode is omitted. The frames FmIR1, FmIR2, and FmIR3 in (a) to (c) of FIG. 11 are the same as the frames FmIR1, FmIR2, and FmIR3 in (a) to (c) of FIG.

合成部523は、フレームFmIR1におけるRの画素データであるR1と、フレームFmIR2におけるGの画素データであるGr2,Gb2と、フレームFmIR3におけるBの画素データであるB3とを選択して合成する。これによって合成部523は、図11の(d)に示す合成映像信号のフレームFmIR123’を生成する。   The combining unit 523 selects and combines R1 which is R pixel data in the frame FmIR1, Gr2 and Gb2 which are G pixel data in the frame FmIR2, and B3 which is B pixel data in the frame FmIR3. As a result, the synthesis unit 523 generates a frame FmIR123 'of the synthesized video signal shown in FIG.

即ち、フレームFmIR123’は、フレームFmIR1,FmIR3,FmIR2におけるハッチングを付していないR,Gr,Gb,Bの画素データを1フレームに集結させた映像データである。   That is, the frame FmIR123 'is video data obtained by collecting R, Gr, Gb, and B pixel data not hatched in the frames FmIR1, FmIR3, and FmIR2 into one frame.

つまり、フレームFmIR123’においては、波長IR1の赤外光を投光した状態における赤色のカラーフィルタに対応する領域の画素データだけを用いた赤色用の画素データ、波長IR2の赤外光を投光した状態における緑色のカラーフィルタに対応する領域の画素データだけを用いた緑色用の画素データ、波長IR3の赤外光を投光した状態における青色のカラーフィルタに対応する領域の画素データだけを用いた青色用の画素データとなっている。   That is, in the frame FmIR123 ′, the pixel data for red using only the pixel data in the region corresponding to the red color filter in the state where the infrared light having the wavelength IR1 is projected, and the infrared light having the wavelength IR2 are projected. Only the pixel data for the green color using only the pixel data of the region corresponding to the green color filter in the selected state, and the pixel data of the region corresponding to the blue color filter in the state of projecting the infrared light having the wavelength IR3 are used. The pixel data is for blue.

このように、合成部523は、カラーフィルタ32におけるフィルタエレメントの配列と同じ配列となるように、画素データR1,Gr2,Gb2,B3を配列させたフレームFmIR123’を生成する。   As described above, the synthesis unit 523 generates a frame FmIR123 'in which the pixel data R1, Gr2, Gb2, and B3 are arranged so that the arrangement is the same as the arrangement of the filter elements in the color filter 32.

第2中間モードでは、同一位置画素加算部522は、式(1)における係数kaを1、係数kb,kcを0とし、式(2)における係数keを1、係数kd,kfを0とし、式(3)における係数kiを1、係数kg,khを0とする。   In the second intermediate mode, the same-position pixel adding unit 522 sets the coefficient ka in Equation (1) to 1, the coefficients kb and kc to 0, the coefficient ke in Equation (2) to 1, the coefficients kd and kf to 0, In equation (3), the coefficient ki is 1 and the coefficients kg and kh are 0.

これによって、フレームFmIR1におけるRの画素データと、フレームFmIR2におけるGr,Gbの画素データと、フレームFmIR3におけるBの画素データは、それぞれそのままの値となる。   As a result, the R pixel data in the frame FmIR1, the Gr and Gb pixel data in the frame FmIR2, and the B pixel data in the frame FmIR3 have the same values.

よって、合成部523は、第1中間モードにおける動作と同様に、フレームFmIR1におけるRの画素データと、フレームFmIR2におけるGr,Gbの画素データと、フレームFmIR3におけるBの画素データを選択すれば、フレームFmIR123’を生成することができる。   Therefore, similarly to the operation in the first intermediate mode, the combining unit 523 selects the R pixel data in the frame FmIR1, the Gr and Gb pixel data in the frame FmIR2, and the B pixel data in the frame FmIR3. FmIR123 'can be generated.

第2中間モードにおいては、前信号処理部52は、画素データの色と同じ色の画素データを生成するための赤外光が投光された状態で生成された画素データ(ハッチングを付していない画素データ)のみ用いて、フレームFmIR123’の映像データを生成する。   In the second intermediate mode, the front signal processing unit 52 generates pixel data (hatched) with infrared light projected to generate pixel data having the same color as the pixel data. Video data of the frame FmIR123 ′ is generated using only (non-pixel data).

第2中間モードによれば、第1中間モードよりも感度や色の再現性は低下するものの、演算処理を簡略化したり、フレームメモリを削減したりすることができる。   According to the second intermediate mode, the sensitivity and color reproducibility are lower than those in the first intermediate mode, but the arithmetic processing can be simplified and the frame memory can be reduced.

図12を用いて、デモザイク処理部54におけるデモザイク処理について説明する。図12の(a)は、フレームFmIR123’を示している。デモザイク処理部54は、Rの画素データが存在しない画素位置のRの画素データを周囲のRの画素データを用いて演算して、Rの補間画素データR1iを生成する。デモザイク処理部54は、図12の(b)に示す1フレームの全画素がRの画素データよりなるRフレームFmIR123’Rを生成する。   The demosaic process in the demosaic processing unit 54 will be described with reference to FIG. FIG. 12A shows the frame FmIR123 '. The demosaic processing unit 54 calculates the R pixel data at the pixel position where the R pixel data does not exist using the surrounding R pixel data, and generates the R interpolation pixel data R1i. The demosaic processing unit 54 generates an R frame FmIR123′R in which all the pixels in one frame shown in FIG. 12B are made up of R pixel data.

デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周囲のGの画素データを用いて演算して、Gの補間画素データG2iを生成する。デモザイク処理部54は、図12の(c)に示す1フレームの全画素がGの画素データよりなるGフレームFmIR123’Gを生成する。   The demosaic processing unit 54 calculates G pixel data at a pixel position where no G pixel data exists using the surrounding G pixel data, and generates G interpolation pixel data G2i. The demosaic processing unit 54 generates a G frame FmIR123′G in which all the pixels in one frame shown in FIG.

デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周囲のBの画素データを用いて演算して、Bの補間画素データB3iを生成する。デモザイク処理部54は、図12の(d)に示す1フレームの全画素がBの画素データよりなるBフレームFmIR123’Bを生成する。   The demosaic processing unit 54 calculates the B pixel data at the pixel position where the B pixel data does not exist using the surrounding B pixel data, and generates the B interpolation pixel data B3i. The demosaic processing unit 54 generates a B frame FmIR123′B in which all the pixels of one frame shown in FIG.

以上のように、中間モードにおいては、受光素子における赤色のカラーフィルタに対応する領域から得た画素データから赤色用の画素データを生成し、受光素子における緑色のカラーフィルタに対応する領域から得た画素データから緑色用の画素データを生成し、受光素子における青色のカラーフィルタに対応する領域から得た画素データから青色用の画素データを生成する。   As described above, in the intermediate mode, the pixel data for red is generated from the pixel data obtained from the region corresponding to the red color filter in the light receiving element, and obtained from the region corresponding to the green color filter in the light receiving element. Green pixel data is generated from the pixel data, and blue pixel data is generated from the pixel data obtained from the region corresponding to the blue color filter in the light receiving element.

<暗視モード:第1暗視モード>
暗視モード(第1暗視モード及び後述する第2暗視モード)では、中間モードと同様、制御部7は、駆動部8によって、光学レンズ1と撮像部3との間にダミーガラス22を挿入させる。投光制御部71は、赤外線投光器9による赤外光の投光をオンにする。モード切換部72は、スイッチ51,53を端子Taに接続するように制御する。
<Night Vision Mode: First Night Vision Mode>
In the night-vision mode (the first night-vision mode and the second night-vision mode described later), as in the intermediate mode, the control unit 7 causes the drive unit 8 to place the dummy glass 22 between the optical lens 1 and the imaging unit 3. Insert it. The light projection controller 71 turns on the infrared light projection by the infrared light projector 9. The mode switching unit 72 controls the switches 51 and 53 to be connected to the terminal Ta.

暗視モードにおける概略的な動作は、図8と同じである。但し、暗視モードでは、可視光がほとんど存在しない環境下での撮像であるため、図8の(b)における露光Ex1R,Ex1G,Ex1B,Ex2R,Ex2G,Ex2B…は、赤外光のみによる露光を想定している。   The schematic operation in the night vision mode is the same as that in FIG. However, in the night vision mode, since the imaging is performed in an environment where there is almost no visible light, the exposures Ex1R, Ex1G, Ex1B, Ex2R, Ex2G, Ex2B... In FIG. Is assumed.

可視光がほとんど存在せず赤外光のみが存在している環境下では、カラーフィルタ32におけるそれぞれのフィルタエレメントの特性には差がなくなるため、撮像部3を単色の撮像素子とみなすことができる。   In an environment where there is almost no visible light and only infrared light, there is no difference in the characteristics of the filter elements in the color filter 32, so the imaging unit 3 can be regarded as a monochromatic imaging device. .

そこで、前信号処理部52内の周囲画素加算部521は、暗視モードでは、赤外光の感度を向上させるために、それぞれの画素データに対して、周囲に位置する画素データを加算する。   Therefore, in the night vision mode, the surrounding pixel addition unit 521 in the previous signal processing unit 52 adds pixel data located in the periphery to each pixel data in order to improve the sensitivity of infrared light.

具体的には、図13の(a)に示すように、Rの画素が注目画素であるとき、周囲画素加算部521は、注目画素のRの画素データに対して周囲に位置するG及びBの8画素の画素データを加算する。   Specifically, as illustrated in FIG. 13A, when the R pixel is the target pixel, the surrounding pixel addition unit 521 includes the G and B positioned around the R pixel data of the target pixel. The pixel data of 8 pixels are added.

つまり、中間モードのときは、受光素子における赤色のカラーフィルタに対応する領域から得た画素データから赤色用の画素データを生成していたが、暗視モードでは、中間モードのときよりも広い領域から得た画素データから赤色用の画素データを生成することとなる。図13の例では、各色とも注目画素を含む9画素分の領域から得た画素データを用いている。   In other words, in the intermediate mode, red pixel data was generated from the pixel data obtained from the region corresponding to the red color filter in the light receiving element, but in the night vision mode, a wider area than in the intermediate mode. Pixel data for red is generated from the pixel data obtained from the above. In the example of FIG. 13, pixel data obtained from an area corresponding to nine pixels including the target pixel is used for each color.

図13の(b)に示すように、Gの画素が注目画素であるとき、周囲画素加算部521は、注目画素のGの画素データに対して周囲に位置するG及びBの8画素の画素データを加算する。図13の(b)におけるGの画素はGrまたはGbの画素である。   As illustrated in FIG. 13B, when the G pixel is the target pixel, the surrounding pixel adding unit 521 includes the eight G and B pixels positioned around the G pixel data of the target pixel. Add data. The G pixel in FIG. 13B is a Gr or Gb pixel.

つまり、中間モードのときは、受光素子における緑色のカラーフィルタに対応する領域から得た画素データから緑色用の画素データを生成していたが、暗視モードでは、中間モードのときよりも広い領域から得た画素データから緑色用の画素データを生成することとなる。   In other words, in the intermediate mode, the pixel data for green was generated from the pixel data obtained from the area corresponding to the green color filter in the light receiving element, but in the night vision mode, a wider area than in the intermediate mode. The pixel data for green is generated from the pixel data obtained from the above.

図13の(c)に示すように、Bの画素が注目画素であるとき、周囲画素加算部521は、注目画素のBの画素データに対して周囲に位置するR及びGの8画素の画素データを加算する。   As illustrated in FIG. 13C, when the B pixel is the target pixel, the surrounding pixel adding unit 521 includes the R and G pixels located in the periphery with respect to the B pixel data of the target pixel. Add data.

つまり、中間モードのときは、受光素子における青色のカラーフィルタに対応する領域から得た画素データから青色用の画素データを生成していたが、暗視モードでは、中間モードのときよりも広い領域から得た画素データから青色用の画素データを生成することとなる。   In other words, in the intermediate mode, blue pixel data was generated from the pixel data obtained from the region corresponding to the blue color filter in the light receiving element, but in the night vision mode, a wider area than in the intermediate mode. The pixel data for blue is generated from the pixel data obtained from the above.

周囲画素加算部521は、注目画素の画素データと周囲の8画素の画素データとの9画素を単純に加算してもよいし、周囲の8画素の画素データに対して所定の重み付けをした上で注目画素の画素データに加算してもよい。   The surrounding pixel adding unit 521 may simply add 9 pixels of the pixel data of the target pixel and the surrounding 8 pixel pixel data, or may apply a predetermined weight to the surrounding 8 pixel pixel data. May be added to the pixel data of the pixel of interest.

周囲の8画素の画素データに対する重み付けは、部分的に0であってもよい。即ち、周囲画素加算部521における注目画素の画素データに対する周囲画素の画素データの加算とは、8画素の画素データの全てを加算することに限定されない。   The weighting for the pixel data of the surrounding 8 pixels may be partially 0. That is, the addition of the pixel data of the surrounding pixels to the pixel data of the target pixel in the surrounding pixel addition unit 521 is not limited to adding all the pixel data of 8 pixels.

例えば、周囲画素加算部521は、注目画素の画素データに対して上下及び左右に位置する画素の画素データのみを加算し、斜め方向に位置する画素の画素データを加算しなくてもよい。   For example, the surrounding pixel addition unit 521 does not need to add pixel data of pixels positioned in the diagonal direction and add pixel data of pixels positioned in the vertical and horizontal directions to the pixel data of the target pixel.

ところで、ビニングと称される複数の画素をまとめて1つの画素として読み出し可能な撮像素子が存在する。撮像素子31として、ビニング機能を有する撮像素子を用いる場合には、周囲画素加算部521による加算処理ではなく、ビニング機能を有する撮像素子による加算処理を行ってもよい。撮像素子によるビニングは、周囲画素加算部521による加算処理と実質的に等価である。   By the way, there is an image pickup device that can read out a plurality of pixels called binning as a single pixel. When an image sensor having a binning function is used as the image sensor 31, an addition process by an image sensor having a binning function may be performed instead of the addition process by the surrounding pixel addition unit 521. Binning by the image sensor is substantially equivalent to addition processing by the surrounding pixel addition unit 521.

図14の(a)〜(c)のフレームFmIR1,FmIR3,FmIR2は、図9の(a)〜(c)のフレームFmIR1,FmIR3,FmIR2と同じである。図14の(d)〜(f)において、R1ad,Gr1ad,Gb1ad,B1ad,R2ad,Gr2ad,Gb2ad,B2ad,R3ad,Gr3ad,Gb3ad,B3adは、それぞれ、R,Gr,Gb,Bの画素データに対して周囲の8画素の画素データを加算した加算画素データである。   The frames FmIR1, FmIR3, and FmIR2 in (a) to (c) of FIG. 14 are the same as the frames FmIR1, FmIR3, and FmIR2 in (a) to (c) of FIG. In (d) to (f) of FIG. 14, R1ad, Gr1ad, Gb1ad, B1ad, R2ad, Gr2ad, Gb2ad, B2ad, R3ad, Gr3ad, Gb3ad, and B3ad are converted into R, Gr, Gb, and B pixel data, respectively. On the other hand, it is added pixel data obtained by adding pixel data of surrounding eight pixels.

周囲画素加算部521は、フレームFmIR1,FmIR3,FmIR2のそれぞれの画素データに対して図13に示す加算処理を施すことにより、図14の(d)〜(f)に示すフレームFmIR1ad,FmIR2ad,FmIR3adを生成する。   The surrounding pixel addition unit 521 performs addition processing shown in FIG. 13 on the pixel data of the frames FmIR1, FmIR3, and FmIR2, thereby performing frames FmIR1ad, FmIR2ad, and FmIR3ad shown in (d) to (f) of FIG. Is generated.

図15の(a)〜(c)のフレームFmIR1ad,FmIR2ad,FmIR3adは、図14の(d)〜(f)のフレームFmIR1ad,FmIR2ad,FmIR3adと同じである。   The frames FmIR1ad, FmIR2ad, and FmIR3ad in (a) to (c) of FIG. 15 are the same as the frames FmIR1ad, FmIR2ad, and FmIR3ad in (d) to (f) of FIG.

同一位置画素加算部522は、第1中間モードと同様に、式(1)に基づいて、フレームFmIR1adにおけるR1adの画素データに、フレームFmIR2ad,FmIR3adにおける同じ画素位置のR2ad,R3adの画素データを加算して、加算画素データR123adを生成する。   Similarly to the first intermediate mode, the same-position pixel addition unit 522 adds the pixel data of R2ad and R3ad at the same pixel position in the frames FmIR2ad and FmIR3ad to the pixel data of R1ad in the frame FmIR1ad based on Expression (1). Then, the addition pixel data R123ad is generated.

同一位置画素加算部522は、式(2)に基づいて、フレームFmIR2adにおけるGr2ad,Gb2adの画素データに、フレームFmIR1ad,FmIR3adにおける同じ画素位置のGr1ad,Gb1ad,Gr3ad,Gb3adの画素データを加算して、加算画素データGr123ad,Gb123adを生成する。   The same-position pixel addition unit 522 adds the pixel data of Gr1ad, Gb1ad, Gr3ad, and Gb3ad at the same pixel position in the frames FmIR1ad and FmIR3ad to the pixel data of Gr2ad and Gb2ad in the frame FmIR2ad based on Expression (2). The addition pixel data Gr123ad and Gb123ad are generated.

同一位置画素加算部522は、式(3)に基づいて、フレームFmIR3adにおけるB3adの画素データに、フレームFmIR1ad,FmIR2adにおける同じ画素位置のB1ad,B2adの画素データを加算して、加算画素データB123adを生成する。   Based on Expression (3), the same-position pixel addition unit 522 adds the pixel data of B1ad and B2ad at the same pixel position in the frames FmIR1ad and FmIR2ad to the pixel data of B3ad in the frame FmIR3ad to obtain the added pixel data B123ad. Generate.

合成部523は、第1中間モードと同様に、フレームFmIR1adにおける加算画素データR123adと、フレームFmIR2adにおける加算画素データGr123ad,Gb123adと、フレームFmIR3adにおける加算画素データB123adとを選択して合成する。これによって合成部523は、図15の(d)に示す合成映像信号のフレームFmIR123adを生成する。   Similar to the first intermediate mode, the combining unit 523 selects and combines the addition pixel data R123ad in the frame FmIR1ad, the addition pixel data Gr123ad and Gb123ad in the frame FmIR2ad, and the addition pixel data B123ad in the frame FmIR3ad. As a result, the synthesis unit 523 generates a frame FmIR123ad of the synthesized video signal shown in FIG.

合成部523は、カラーフィルタ32におけるフィルタエレメントの配列と同じ配列となるように、加算画素データR123ad,Gr123ad,Gb123ad,B123adを配列させたフレームFmIR123adを生成する。   The synthesizing unit 523 generates a frame FmIR123ad in which the addition pixel data R123ad, Gr123ad, Gb123ad, and B123ad are arranged so that the arrangement is the same as the arrangement of the filter elements in the color filter 32.

図16の(a)はフレームFmIR123adを示している。デモザイク処理部54は、Rの画素データが存在しない画素位置のRの画素データを周囲のRの画素データを用いて演算して、Rの補間画素データR123adiを生成する。デモザイク処理部54は、図16の(b)に示す1フレームの全画素がRの画素データよりなるRフレームFmIR123adRを生成する。   FIG. 16A shows a frame FmIR123ad. The demosaic processing unit 54 calculates the R pixel data at the pixel position where the R pixel data does not exist using the surrounding R pixel data, and generates the R interpolation pixel data R123adi. The demosaic processing unit 54 generates an R frame FmIR123adR in which all pixels in one frame shown in FIG. 16B are made up of R pixel data.

デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周囲のGの画素データを用いて演算して、Gの補間画素データG123adiを生成する。デモザイク処理部54は、図16の(c)に示す1フレームの全画素がGの画素データよりなるGフレームFmIR123adGを生成する。   The demosaic processing unit 54 calculates the G pixel data at the pixel position where the G pixel data does not exist using the surrounding G pixel data, and generates the G interpolation pixel data G123adi. The demosaic processing unit 54 generates a G frame FmIR123adG in which all the pixels in one frame shown in FIG.

デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周囲のBの画素データを用いて演算して、Bの補間画素データB123adiを生成する。デモザイク処理部54は、図16の(d)に示す1フレームの全画素がBの画素データよりなるBフレームFmIR123adBを生成する。   The demosaic processing unit 54 calculates the B pixel data at the pixel position where the B pixel data does not exist using the surrounding B pixel data, and generates the B interpolation pixel data B123adi. The demosaic processing unit 54 generates a B frame FmIR123adB in which all the pixels in one frame shown in FIG.

第1中間モードと第1暗視モードとは、前者が周囲画素加算部521を不動作としている一方で、後者が周囲画素加算部521を動作させている点で異なる。モード切換部72は、暗視モードのとき、周囲画素加算部521を動作させればよい。   The first intermediate mode and the first night-vision mode are different in that the former does not operate the surrounding pixel adding unit 521 while the latter operates the surrounding pixel adding unit 521. The mode switching unit 72 may operate the surrounding pixel addition unit 521 in the night vision mode.

暗視モードにおけるデモザイク処理部54の動作は、通常モード及び中間モードにおけるデモザイク処理部54の動作と実質的に同じである。通常モードと中間モードと暗視モードとで、映像処理部5におけるデモザイク処理部54、及び、ホワイトバランス補正やゲイン補正等の信号処理部を共用させることができる。   The operation of the demosaic processing unit 54 in the night vision mode is substantially the same as the operation of the demosaic processing unit 54 in the normal mode and the intermediate mode. In the normal mode, the intermediate mode, and the night vision mode, the demosaic processing unit 54 in the video processing unit 5 and a signal processing unit such as white balance correction and gain correction can be shared.

<暗視モード:第2暗視モード>
図17及び図18を用いて、第2暗視モードにおける動作を説明する。第2暗視モードにおける動作において、第1暗視モードにおける動作と同一部分は説明を省略する。図17の(a)〜(c)のフレームFmIR1ad,FmIR2ad,FmIR3adは、図15の(a)〜(c)のFmIR1ad,FmIR2ad,FmIR3adと同じである。
<Night Vision Mode: Second Night Vision Mode>
The operation in the second night-vision mode will be described with reference to FIGS. In the operation in the second night vision mode, the description of the same part as the operation in the first night vision mode is omitted. The frames FmIR1ad, FmIR2ad, and FmIR3ad in (a) to (c) of FIG. 17 are the same as the FmIR1ad, FmIR2ad, and FmIR3ad in (a) to (c) of FIG.

合成部523は、フレームFmIR1adにおけるRの画素データであるR1adと、フレームFmIR2におけるGの画素データであるGr2ad,Gb2adと、フレームFmIR3におけるBの画素データであるB3adとを選択して合成する。これによって合成部523は、図17の(d)に示す合成映像信号のフレームFmIR123’adを生成する。   The combining unit 523 selects and combines R1ad that is R pixel data in the frame FmIR1ad, Gr2ad and Gb2ad that are G pixel data in the frame FmIR2, and B3ad that is B pixel data in the frame FmIR3. Thereby, the synthesis unit 523 generates a frame FmIR123′ad of the synthesized video signal shown in FIG.

合成部523は、カラーフィルタ32におけるフィルタエレメントの配列と同じ配列となるように、加算画素データR1ad,Gr2ad,Gb2ad,B3adを配列させたフレームFmIR123’adを生成する。   The synthesizing unit 523 generates a frame FmIR123′ad in which the addition pixel data R1ad, Gr2ad, Gb2ad, and B3ad are arranged so that the arrangement is the same as the arrangement of the filter elements in the color filter 32.

なお、図13を用いて説明したように、フレームFmIR123’adにおける赤色用の加算画素データR1adは、中間モードのときに赤色用の画素データを生成するために用いた領域よりも広い領域から得た画素データから生成されたものとなっている。   As described with reference to FIG. 13, the red addition pixel data R1ad in the frame FmIR123′ad is obtained from a wider area than the area used for generating the red pixel data in the intermediate mode. It is generated from the pixel data.

また、フレームFmIR123’adにおける緑色用の加算画素データGr2adは、中間モードのときに緑色用の画素データを生成するために用いた領域よりも広い領域から得た画素データから生成されたものとなっている。   In addition, the additional pixel data Gr2ad for green in the frame FmIR123'ad is generated from pixel data obtained from an area larger than the area used for generating the pixel data for green in the intermediate mode. ing.

さらに、フレームFmIR123’adにおける青色用の加算画素データB3adは、中間モードのときに青色用の画素データを生成するために用いた領域よりも広い領域から得た画素データから生成されたものとなっている。   Furthermore, the additional pixel data B3ad for blue in the frame FmIR123'ad is generated from pixel data obtained from an area larger than the area used for generating the pixel data for blue in the intermediate mode. ing.

第2暗視モードでは、第2中間モードと同様に、同一位置画素加算部522は、式(1)における係数kaを1、係数kb,kcを0とし、式(2)における係数keを1、係数kd,kfを0とし、式(3)における係数kiを1、係数kg,khを0とする。   In the second night-vision mode, as in the second intermediate mode, the same-position pixel addition unit 522 sets the coefficient ka in equation (1) to 1, the coefficients kb and kc to 0, and the coefficient ke in equation (2) to 1. The coefficients kd and kf are set to 0, the coefficient ki in the equation (3) is set to 1, and the coefficients kg and kh are set to 0.

これによって、フレームFmIR1adにおけるR1adの画素データと、フレームFmIR2adにおけるGr2ad,Gb2adの画素データと、フレームFmIR3adにおけるB3adの画素データは、それぞれそのままの値となる。   Thereby, the pixel data of R1ad in the frame FmIR1ad, the pixel data of Gr2ad and Gb2ad in the frame FmIR2ad, and the pixel data of B3ad in the frame FmIR3ad have the same values.

よって、合成部523は、第1暗視モードにおける動作と同様に、フレームFmIR1adにおけるR1adの画素データと、フレームFmIR2adにおけるGr2ad,Gb2adの画素データと、フレームFmIR3adにおけるB3adの画素データを選択すれば、フレームFmIR123’adを生成することができる。   Therefore, as in the operation in the first night vision mode, the combining unit 523 selects the pixel data of R1ad in the frame FmIR1ad, the pixel data of Gr2ad and Gb2ad in the frame FmIR2ad, and the pixel data of B3ad in the frame FmIR3ad. A frame FmIR123'ad can be generated.

図18を用いて、デモザイク処理部54におけるデモザイク処理について説明する。図18の(a)は、フレームFmIR123’adを示している。デモザイク処理部54は、Rの画素データが存在しない画素位置のRの画素データを周囲のR1adの画素データを用いて演算して、Rの補間画素データR1adiを生成する。デモザイク処理部54は、図18の(b)に示す1フレームの全画素がRの画素データよりなるRフレームFmIR123’adRを生成する。   The demosaic process in the demosaic processing unit 54 will be described with reference to FIG. FIG. 18A shows a frame FmIR123′ad. The demosaic processing unit 54 calculates the R pixel data at the pixel position where the R pixel data does not exist using the surrounding R1ad pixel data, and generates the R interpolation pixel data R1adi. The demosaic processing unit 54 generates an R frame FmIR123′adR in which all the pixels of one frame shown in FIG. 18B are made up of R pixel data.

デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周囲のGr2ad,Gb2adの画素データを用いて演算して、Gの補間画素データG2adiを生成する。デモザイク処理部54は、補間して、図18の(c)に示す1フレームの全画素がGの画素データよりなるGフレームFmIR123’adGを生成する。   The demosaic processing unit 54 calculates the G pixel data at the pixel position where the G pixel data does not exist using the surrounding Gr2ad and Gb2ad pixel data, and generates the G interpolation pixel data G2adi. The demosaic processing unit 54 performs interpolation to generate a G frame FmIR123′adG in which all the pixels of one frame shown in FIG.

デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周囲のB3adの画素データを用いて算出したBの補間画素データB3adiを生成する。デモザイク処理部54は、図18の(d)に示す1フレームの全画素がBの画素データよりなるBフレームFmIR123’adBを生成する。   The demosaic processing unit 54 generates B interpolation pixel data B3adi obtained by calculating B pixel data at a pixel position where no B pixel data exists using surrounding B3ad pixel data. The demosaic processing unit 54 generates a B frame FmIR123′adB in which all the pixels in one frame shown in FIG.

第2中間モードと第2暗視モードとは、前者が周囲画素加算部521を不動作としている一方で、後者が周囲画素加算部521を動作させている点で異なる。   The second intermediate mode and the second night-vision mode differ in that the former does not operate the surrounding pixel adding unit 521 while the latter operates the surrounding pixel adding unit 521.

また、中間モードにおいては、受光素子における各色に対応する領域から得た画素データそれぞれから各色用の画素データを生成していたが、暗視モードにおいては、周囲画素を加算するため、中間モードにおける各色用の画素データを生成するための領域それぞれよりも広い領域から得た画素データから各色用の画素データを生成するとも言える。   Further, in the intermediate mode, pixel data for each color is generated from each pixel data obtained from the region corresponding to each color in the light receiving element, but in the night vision mode, the surrounding pixels are added. It can also be said that pixel data for each color is generated from pixel data obtained from a region wider than each region for generating pixel data for each color.

<モード切換の例>
図19を用いて、モード切換部72によるモード切換の例を説明する。図19の(a)は、一例として、昼間の時間帯から夜の時間帯へと時間が経過していくとき、周囲環境の明るさが変化していく様子を概略的に示している。
<Example of mode switching>
An example of mode switching by the mode switching unit 72 will be described with reference to FIG. FIG. 19A schematically shows, as an example, how the brightness of the surrounding environment changes as time passes from the daytime period to the nighttime period.

図19の(a)に示すように、昼間から夕刻へと時間が経過していくに従って明るさが低下していき、時刻t3以降、ほぼ真っ暗の状態となる。図19の(a)に示す明るさは実質的に可視光の量を示しており、時刻t3以降、可視光がほとんどない状態である。   As shown in FIG. 19 (a), the brightness decreases as time elapses from daytime to evening, and it becomes almost dark after time t3. The brightness shown in FIG. 19A substantially indicates the amount of visible light, and there is almost no visible light after time t3.

制御部7は、映像処理部5から入力される映像信号(映像データ)の輝度レベルに基づいて周囲環境の明るさを判断することができる。図19の(b)に示すように、モード切換部72は、明るさが所定の閾値Th1(第1の閾値)以上であるとき通常モードとし、明るさが閾値Th1未満で所定の閾値Th2(第2の閾値)以上であるとき中間モード、閾値Th2未満であるとき暗視モードとする。   The control unit 7 can determine the brightness of the surrounding environment based on the luminance level of the video signal (video data) input from the video processing unit 5. As shown in FIG. 19B, the mode switching unit 72 sets the normal mode when the brightness is equal to or higher than a predetermined threshold Th1 (first threshold), and sets the predetermined threshold Th2 (less than the threshold Th1). When it is equal to or greater than the second threshold), the intermediate mode is selected.

本実施形態の撮像装置101は、明るさが閾値Th1となる時刻t1までは通常モード、時刻t1から明るさが閾値Th2となる時刻t2まで中間モード、時刻t2以降は暗視モードに、モードを自動的に切り換える。図19の(b)において、中間モードは第1中間モードと第2中間モードとのいずれでもよく、暗視モードは第1暗視モードと第2暗視モードとのいずれでもよい。   The imaging apparatus 101 according to the present embodiment switches the mode to the normal mode from time t1 when the brightness reaches the threshold value Th1, to the intermediate mode from time t1 to time t2 when the brightness reaches the threshold value Th2, and to the night vision mode after time t2. Switch automatically. In FIG. 19B, the intermediate mode may be either the first intermediate mode or the second intermediate mode, and the night vision mode may be either the first night vision mode or the second night vision mode.

図19の(a)では可視光がほとんどなくなる時刻t3の直前の明るさを閾値Th2としているが、時刻t3の明るさを閾値Th2としてもよい。   In FIG. 19A, the brightness immediately before time t3 when almost no visible light is present is set as the threshold value Th2, but the brightness at time t3 may be set as the threshold value Th2.

図19の(c)に示すように、モード切換部72は、中間モードの期間で、可視光が比較的多い時刻t1側の期間を第1中間モード、可視光が比較的少ない時刻t2側の期間を第2中間モードとしてもよい。図19の(c)において、暗視モードは第1暗視モードと第2暗視モードとのいずれでもよい。   As shown in FIG. 19 (c), the mode switching unit 72 has a period of time t1 in which the visible light is relatively large in the intermediate mode period, the first intermediate mode, and a period of time t2 in which the visible light is relatively small. The period may be set to the second intermediate mode. In FIG. 19C, the night-vision mode may be either the first night-vision mode or the second night-vision mode.

本実施形態の撮像装置101は、投光制御部71が赤外線投光器9のオン・オフを制御し、モード切換部72が映像処理部5内の各部の動作・不動作を切り換えることにより、それぞれのモードを実現することができる。   In the imaging apparatus 101 of the present embodiment, the light projection control unit 71 controls on / off of the infrared projector 9, and the mode switching unit 72 switches the operation / non-operation of each unit in the video processing unit 5. A mode can be realized.

図20に示すように、通常モードは、赤外線投光器9がオフ、周囲画素加算部521と同一位置画素加算部522と合成部523がいずれも不動作、デモザイク処理部54が動作の状態である。   As shown in FIG. 20, in the normal mode, the infrared projector 9 is off, the surrounding pixel adding unit 521, the same position pixel adding unit 522 and the synthesizing unit 523 are not operating, and the demosaic processing unit 54 is operating.

第1中間モードは、赤外線投光器9がオン、周囲画素加算部521が不動作、同一位置画素加算部522と合成部523とデモザイク処理部54とが動作の状態である。第2中間モードは、赤外線投光器9がオン、周囲画素加算部521と同一位置画素加算部522とが不動作、合成部523とデモザイク処理部54とが動作の状態である。   In the first intermediate mode, the infrared projector 9 is on, the surrounding pixel adding unit 521 is not operating, and the same-position pixel adding unit 522, the combining unit 523, and the demosaic processing unit 54 are operating. In the second intermediate mode, the infrared projector 9 is on, the surrounding pixel adding unit 521 and the same-position pixel adding unit 522 are not operating, and the synthesizing unit 523 and the demosaic processing unit 54 are operating.

同一位置画素加算部522における動作と不動作とは、前述のように、式(1)〜(3)の係数ka〜kiの値を適宜に設定することによって容易に切り換えることができる。   The operation and non-operation in the same position pixel addition unit 522 can be easily switched by appropriately setting the values of the coefficients ka to ki in the expressions (1) to (3) as described above.

第1暗視モードは、赤外線投光器9がオン、周囲画素加算部521と同一位置画素加算部522と合成部523とデモザイク処理部54との全てが動作の状態である。第2暗視モードは、赤外線投光器9がオン、同一位置画素加算部522が不動作、周囲画素加算部521と合成部523とデモザイク処理部54とが動作の状態である。   In the first night-vision mode, the infrared projector 9 is on, and the surrounding pixel addition unit 521, the same-position pixel addition unit 522, the synthesis unit 523, and the demosaic processing unit 54 are all in an operating state. In the second night-vision mode, the infrared projector 9 is on, the same-position pixel adding unit 522 is not operating, and the surrounding pixel adding unit 521, the combining unit 523, and the demosaic processing unit 54 are operating.

ところで、周囲画素加算部521は、注目画素の画素データに対して周囲の画素データを加算するための計算式において、周囲の画素データに乗じる係数を、0を超える係数(例えば1)とすれば、周囲画素の加算処理を動作の状態とすることができる。   By the way, the surrounding pixel adding unit 521 sets the coefficient multiplied by the surrounding pixel data to a coefficient exceeding 0 (for example, 1) in the calculation formula for adding the surrounding pixel data to the pixel data of the target pixel. The surrounding pixel addition processing can be put into an operation state.

また、周囲画素加算部521は、その計算式において、周囲の画素データに乗じる係数を0とすれば、周囲画素の加算処理を不動作の状態とすることができる。   Further, the surrounding pixel adding unit 521 can set the surrounding pixel addition processing to the non-operating state by setting the coefficient by which the surrounding pixel data is multiplied to 0 in the calculation formula.

周囲画素加算部521における動作と不動作も、係数の値を適宜に設定することによって容易に切り換えることができる。   The operation and non-operation of the surrounding pixel addition unit 521 can be easily switched by appropriately setting the coefficient value.

<第1の実施形態の撮像装置の第1の変形例>
制御部7が周囲環境の明るさを検出する方法は、映像信号の輝度レベルに基づく方法に限定されない。
<First Modification of Imaging Device of First Embodiment>
The method by which the control unit 7 detects the brightness of the surrounding environment is not limited to the method based on the luminance level of the video signal.

図21に示すように、明るさセンサ11によって周囲環境の明るさを検出してもよい。図21において、映像信号の輝度レベルと明るさセンサ11によって検出した明るさとの双方に基づいて、周囲環境の明るさを判断してもよい。   As shown in FIG. 21, the brightness sensor 11 may detect the brightness of the surrounding environment. In FIG. 21, the brightness of the surrounding environment may be determined based on both the luminance level of the video signal and the brightness detected by the brightness sensor 11.

<第1の実施形態の撮像装置の第2の変形例>
制御部7は、周囲環境の明るさを直接的に検出せず、1年間における時期(日にち)及び時刻(時間帯)に基づいて周囲環境の明るさを概略的に想定して、モード切換部72が各モードに切り換えるようにしてもよい。
<Second Modification of Imaging Device of First Embodiment>
The control unit 7 does not directly detect the brightness of the surrounding environment, but roughly assumes the brightness of the surrounding environment based on the time (date) and time (time zone) in one year, and the mode switching unit 72 may be switched to each mode.

図22に示すように、モード設定テーブル12には、日にちと時間帯との組み合わせに対応して、通常モードと中間モードと暗視モードとのいずれかが設定されている。制御部7内の時計73は、日にちと時刻を管理している。制御部7は、時計73が示す日にちと時刻とを参照して、モード設定テーブル12より設定されているモードを読み出す。   As shown in FIG. 22, in the mode setting table 12, any one of the normal mode, the intermediate mode, and the night vision mode is set corresponding to the combination of the date and the time zone. A clock 73 in the control unit 7 manages the date and time. The control unit 7 refers to the date and time indicated by the clock 73 and reads the mode set from the mode setting table 12.

投光制御部71とモード切換部72は、モード設定テーブル12より読み出されたモードとなるように、撮像装置を制御する。   The light projection control unit 71 and the mode switching unit 72 control the imaging device so that the mode read from the mode setting table 12 is set.

<第1の実施形態の撮像装置の第3の変形例>
図23に示すように、操作部13によってユーザがモードを手動で選択して、投光制御部71とモード切換部72が選択されたモードとなるように撮像装置を制御してもよい。操作部13は、撮像装置の筐体に設けられている操作ボタンであってもよく、リモートコントローラであってもよい。
<Third Modification of Imaging Device of First Embodiment>
As illustrated in FIG. 23, the imaging device may be controlled so that the user manually selects a mode using the operation unit 13 and the projection control unit 71 and the mode switching unit 72 are in the selected mode. The operation unit 13 may be an operation button provided on the housing of the imaging apparatus or a remote controller.

<映像信号処理方法>
図24を用いて、図1に示す撮像装置101で実行される映像信号処理方法を改めて説明する。
<Video signal processing method>
A video signal processing method executed by the imaging apparatus 101 shown in FIG. 1 will be described again with reference to FIG.

図24において、撮像装置が動作を開始すると、制御部7は、ステップS1にて、周囲環境の明るさが閾値Th1以上であるか否かを判定する。閾値Th1以上であれば(YES)、制御部7は、ステップS3にて、通常モードでの処理を実行させる。閾値Th1以上でなければ(NO)、制御部7は、ステップS2にて、周囲環境の明るさが閾値Th2以上であるか否かを判定する。   In FIG. 24, when the imaging apparatus starts operation, the control unit 7 determines whether or not the brightness of the surrounding environment is equal to or greater than the threshold value Th1 in step S1. If it is equal to or greater than the threshold Th1 (YES), the control unit 7 causes the process in the normal mode to be executed in step S3. If it is not equal to or greater than the threshold value Th1 (NO), the control unit 7 determines whether or not the brightness of the surrounding environment is equal to or greater than the threshold value Th2 in step S2.

閾値Th2以上であれば(YES)、制御部7は、ステップS4にて、中間モードでの処理を実行させる。閾値Th2以上でなければ(NO)、制御部7は、ステップS5にて、暗視モードでの処理を実行させる。   If it is equal to or greater than the threshold value Th2 (YES), the control unit 7 causes the process in the intermediate mode to be executed in step S4. If it is not greater than or equal to the threshold Th2 (NO), the control unit 7 causes the process in the night-vision mode to be executed in step S5.

制御部7は、ステップS3〜S5の後、処理をステップS1に戻し、ステップS1以降を繰り返す。   Control part 7 returns processing to Step S1 after Steps S3-S5, and repeats after Step S1.

図25は、ステップS3の通常モードの具体的な処理を示す。図25において、制御部7(投光制御部71)は、ステップS31にて、赤外線投光器9をオフにする。制御部7は、ステップS32にて、赤外線カットフィルタ21を挿入する。制御部7(モード切換部72)は、ステップS33にて、スイッチ51,53を端子Tbに接続させる。ステップS31〜S33の順番は任意であり、同時であってもよい。   FIG. 25 shows specific processing in the normal mode in step S3. In FIG. 25, the control part 7 (light projection control part 71) turns off the infrared light projector 9 in step S31. In step S32, the control unit 7 inserts the infrared cut filter 21. In step S33, the control unit 7 (mode switching unit 72) connects the switches 51 and 53 to the terminal Tb. The order of steps S31 to S33 is arbitrary and may be simultaneous.

制御部7は、ステップS34にて、撮像部3によって被写体を撮像させる。制御部7は、ステップS35にて、撮像部3が被写体を撮像することよって生成した映像信号を構成するフレームをデモザイク処理部54によってデモザイク処理させるよう、映像処理部5を制御する。   In step S34, the control unit 7 causes the imaging unit 3 to image the subject. In step S <b> 35, the control unit 7 controls the video processing unit 5 so that the demosaic processing unit 54 performs demosaic processing on the frames constituting the video signal generated by the imaging unit 3 imaging the subject.

図26は、ステップS4の中間モードの具体的な処理を示す。図26において、制御部7(投光制御部71)は、ステップS41にて、投光部91〜93より波長IR1〜IR3の赤外光を時分割で投光させるよう、赤外線投光器9をオンにする。   FIG. 26 shows specific processing in the intermediate mode in step S4. 26, in step S41, the control unit 7 (light projection control unit 71) turns on the infrared projector 9 so that infrared light with wavelengths IR1 to IR3 is projected in a time-sharing manner from the light projecting units 91 to 93. To.

制御部7は、ステップS42にて、ダミーガラス22を挿入する。制御部7(モード切換部72)は、ステップS43にて、スイッチ51,53を端子Taに接続させる。ステップS41〜S43の順番は任意であり、同時であってもよい。   The control part 7 inserts the dummy glass 22 in step S42. In step S43, the control unit 7 (mode switching unit 72) connects the switches 51 and 53 to the terminal Ta. The order of steps S41 to S43 is arbitrary and may be simultaneous.

制御部7は、ステップS44にて、撮像部3によって被写体を撮像させる。撮像部3は、Rに対応付けられた波長IR1の赤外光と、Gに対応付けられた波長IR2の赤外光と、Bに対応付けられた波長IR3の赤外光とがそれぞれ投光されている状態で被写体を撮像する。   In step S44, the control unit 7 causes the imaging unit 3 to image the subject. The imaging unit 3 projects infrared light with a wavelength IR1 associated with R, infrared light with a wavelength IR2 associated with G, and infrared light with a wavelength IR3 associated with B, respectively. Take a picture of the subject in the

制御部7(モード切換部72)は、ステップS45にて、周囲画素加算部521を不動作とし、合成部523を動作させて合成映像信号を生成させるよう、前信号処理部52を制御する。 In step S45, the control unit 7 (mode switching unit 72) controls the pre-signal processing unit 52 so that the surrounding pixel addition unit 521 is deactivated and the synthesis unit 523 is operated to generate a synthesized video signal.

波長IR1,IR2,IR3の赤外光がそれぞれ投光されている状態で撮像部3が被写体を撮像することよって生成された映像信号を構成するフレームを第1のフレーム,第2のフレーム,第3のフレームとする。   The frames constituting the video signal generated when the imaging unit 3 images the subject in the state where infrared light of wavelengths IR1, IR2, and IR3 are respectively projected are the first frame, the second frame, 3 frames are assumed.

合成部523は、第1のフレーム内のRの画素データと、第2のフレーム内のGの画素データと、第3のフレーム内のBの画素データとに基づく3原色の画素データを、カラーフィルタ32におけるフィルタエレメントの配列と同じ配列となるように配列させる。合成部523は、このようにして第1〜第3のフレームを1フレームに合成した合成映像信号を生成する。   The synthesizing unit 523 converts the three primary color pixel data based on the R pixel data in the first frame, the G pixel data in the second frame, and the B pixel data in the third frame into color The filters 32 are arranged so as to have the same arrangement as the filter elements. The synthesizer 523 thus generates a synthesized video signal by synthesizing the first to third frames into one frame.

制御部7は、ステップS46にて、合成映像信号のフレームをデモザイク処理部54によってデモザイク処理させるよう、映像処理部5を制御する。   In step S46, the control unit 7 controls the video processing unit 5 so that the demosaic processing unit 54 performs demosaic processing on the frame of the composite video signal.

デモザイク処理部54は、合成映像信号のフレームに基づいて、Rのフレームと、Gのフレームと、Bのフレームとを生成するデモザイク処理を施して、デモザイク処理された3原色のフレームを順次生成する。   The demosaic processing unit 54 performs demosaic processing for generating an R frame, a G frame, and a B frame based on the frame of the synthesized video signal, and sequentially generates the demosaiced three primary color frames. .

デモザイク処理部54は、Rの画素データが存在しない画素位置にRの画素データを補間することによって、Rのフレームを生成することができる。デモザイク処理部54は、Gの画素データが存在しない画素位置にGの画素データを補間することによって、Gのフレームを生成することができる。デモザイク処理部54は、Bの画素データが存在しない画素位置にBの画素データを補間することによって、Bのフレームとを生成することができる。   The demosaic processing unit 54 can generate an R frame by interpolating the R pixel data at a pixel position where the R pixel data does not exist. The demosaic processing unit 54 can generate the G frame by interpolating the G pixel data at the pixel position where the G pixel data does not exist. The demosaic processing unit 54 can generate the B frame by interpolating the B pixel data at the pixel position where the B pixel data does not exist.

第1中間モードとする場合には、ステップS45にて、同一位置画素加算部522を動作させ、第2中間モードとする場合には、ステップS45にて、同一位置画素加算部522を不動作とすればよい。   In the case of the first intermediate mode, the same position pixel addition unit 522 is operated in step S45, and in the case of the second intermediate mode, the same position pixel addition unit 522 is not operated in step S45. do it.

図27は、ステップS5の暗視モードの具体的な処理を示す。図27において、制御部7(投光制御部71)は、ステップS51にて、投光部91〜93より波長IR1〜IR3の赤外光を時分割で投光させるよう、赤外線投光器9をオンにする。   FIG. 27 shows specific processing in the night-vision mode in step S5. In FIG. 27, in step S51, the control unit 7 (light projection control unit 71) turns on the infrared projector 9 so that infrared light with wavelengths IR1 to IR3 is projected in a time-sharing manner from the light projecting units 91 to 93. To.

制御部7は、ステップS52にて、ダミーガラス22を挿入する。制御部7(モード切換部72)は、ステップS53にて、スイッチ51,53を端子Taに接続させる。ステップS51〜S53の順番は任意であり、同時であってもよい。   The control part 7 inserts the dummy glass 22 in step S52. In step S53, the control unit 7 (mode switching unit 72) connects the switches 51 and 53 to the terminal Ta. The order of steps S51 to S53 is arbitrary and may be simultaneous.

制御部7は、ステップS54にて、撮像部3によって被写体を撮像させる。制御部7(モード切換部72)は、ステップS55にて、周囲画素加算部521と合成部523とを動作させて合成映像信号を生成させるよう、前信号処理部52を制御する。   In step S54, the control unit 7 causes the imaging unit 3 to image the subject. In step S55, the control unit 7 (mode switching unit 72) controls the previous signal processing unit 52 to operate the surrounding pixel addition unit 521 and the synthesis unit 523 to generate a synthesized video signal.

制御部7は、ステップS56にて、合成映像信号のフレームをデモザイク処理部54によってデモザイク処理させるよう、映像処理部5を制御する。   In step S56, the control unit 7 controls the video processing unit 5 so that the demosaic processing unit 54 performs demosaic processing on the frame of the composite video signal.

第1暗視モードとする場合には、ステップS55にて、同一位置画素加算部522を動作させ、第2暗視モードとする場合には、ステップS55にて、同一位置画素加算部522を不動作とすればよい。   In the case of the first night vision mode, the same position pixel addition unit 522 is operated in step S55, and in the case of the second night vision mode, the same position pixel addition unit 522 is disabled in step S55. It may be an operation.

<映像信号処理プログラム>
図1において、制御部7、または、映像処理部5と制御部7との一体化部分をコンピュータ(マイクロコンピュータ)で構成し、映像信号処理プログラム(コンピュータプログラム)をコンピュータで実行させることによって、上述した本実施形態の撮像装置101と同様の動作を実現させることも可能である。
<Video signal processing program>
In FIG. 1, the control unit 7 or an integrated part of the video processing unit 5 and the control unit 7 is configured by a computer (microcomputer), and the video signal processing program (computer program) is executed by the computer. It is also possible to realize the same operation as that of the imaging apparatus 101 of this embodiment.

図28を用いて、図24のステップS4である中間モードにおける制御を映像信号処理プログラムで構成した場合にコンピュータに実行させる手順の例を説明する。図28は、映像信号処理プログラムがコンピュータに実行させる処理を示す。   With reference to FIG. 28, an example of a procedure executed by the computer when the control in the intermediate mode, which is step S4 in FIG. 24, is configured by the video signal processing program will be described. FIG. 28 shows processing that the video signal processing program causes the computer to execute.

図28において、映像信号処理プログラムは、ステップS401にて、コンピュータに、R,G,Bに対応付けられた波長IR1,IR2,IR3の赤外光をそれぞれ投光するように赤外線投光器9を制御する処理を実行させる。   In FIG. 28, in step S401, the video signal processing program controls the infrared projector 9 so as to project infrared light of wavelengths IR1, IR2, and IR3 associated with R, G, and B to the computer. To execute the process.

ステップS401に示す処理を映像信号処理プログラムの外部にて実行させてもよい。図28では、ダミーガラス22を挿入させる処理を省略している。ダミーガラス22を挿入させる処理も映像信号処理プログラムの外部にて実行させてもよい。   The process shown in step S401 may be executed outside the video signal processing program. In FIG. 28, the process of inserting the dummy glass 22 is omitted. The process for inserting the dummy glass 22 may also be executed outside the video signal processing program.

映像信号処理プログラムは、ステップS402にて、コンピュータに、波長IR1の赤外光が投光されている状態で、撮像部3が被写体を撮像することによって生成された映像信号の第1のフレームを構成する画素データを取得する処理を実行させる。   In step S402, the video signal processing program captures the first frame of the video signal generated by the imaging unit 3 imaging the subject in a state where infrared light having the wavelength IR1 is projected on the computer. A process of acquiring pixel data to be configured is executed.

映像信号処理プログラムは、ステップS403にて、コンピュータに、波長IR2の赤外光が投光されている状態で、撮像部3が被写体を撮像することによって生成された映像信号の第2のフレームを構成する画素データを取得する処理を実行させる。   In step S403, the video signal processing program captures the second frame of the video signal generated when the imaging unit 3 images the subject in a state where infrared light having the wavelength IR2 is projected on the computer. A process of acquiring pixel data to be configured is executed.

映像信号処理プログラムは、ステップS404にて、コンピュータに、波長IR3の赤外光が投光されている状態で、撮像部3が被写体を撮像することによって生成された映像信号の第3のフレームを構成する画素データを取得する処理を実行させる。ステップS402〜S404の順番は任意である。   In step S404, the video signal processing program captures a third frame of the video signal generated when the imaging unit 3 images the subject in a state where infrared light having the wavelength IR3 is projected on the computer. A process of acquiring pixel data to be configured is executed. The order of steps S402 to S404 is arbitrary.

映像信号処理プログラムは、ステップS405にて、コンピュータに、R,G,Bの画素データを、カラーフィルタ32におけるフィルタエレメントの配列と同じ配列となるように配列させて、1フレームに合成した合成映像信号を生成する処理を実行させる。   In step S405, the video signal processing program causes the computer to arrange the R, G, and B pixel data so as to be in the same arrangement as the arrangement of the filter elements in the color filter 32, and synthesize the synthesized video into one frame. A process for generating a signal is executed.

中間モードでは、映像信号処理プログラムは、ステップS405にて、コンピュータに、周囲画素の加算処理のステップを実行させない。   In the intermediate mode, the video signal processing program does not cause the computer to execute the step of adding surrounding pixels in step S405.

映像信号処理プログラムは、ステップS406にて、コンピュータに、合成映像信号のフレームにデモザイク処理を施して、R,G,Bのフレームを生成する処理を実行させる。   In step S406, the video signal processing program causes the computer to perform a process of generating a R, G, B frame by performing a demosaic process on the frame of the composite video signal.

図示は省略するが、図24のステップS5である暗視モードにおける制御を映像信号処理プログラムで構成する場合には、図28のステップS405にて、コンピュータに、周囲画素の加算処理の処理を実行させればよい。   Although illustration is omitted, when the control in the night vision mode, which is step S5 in FIG. 24, is configured by the video signal processing program, the processing of adding peripheral pixels is executed in the computer in step S405 in FIG. You can do it.

映像信号処理プログラムは、コンピュータで読み取り可能な記録媒体に記録されたコンピュータプログラムであってよい。映像信号処理プログラムが記録媒体に記録された状態で提供されてもよいし、映像信号処理プログラムをコンピュータにダウンロードさせるよう、インターネット等のネットワークを介して提供されてもよい。コンピュータで読み取り可能な記録媒体は、CD−ROM,DVD−ROM等の非一時的な任意の記録媒体でよい。   The video signal processing program may be a computer program recorded on a computer-readable recording medium. The video signal processing program may be provided in a state where it is recorded on a recording medium, or may be provided via a network such as the Internet so that the computer can download the video signal processing program. The computer-readable recording medium may be any non-temporary arbitrary recording medium such as a CD-ROM or a DVD-ROM.

図1のように構成される撮像装置において、例えば、必要に応じて各部を複数設けたりして、中間モードと暗視モードとを同時に実行するようにしてもよい。その場合、映像出力部6が、中間モードによって生成された映像信号と、暗視モードによって生成された映像信号との両方を出力するようにしてもよい。   In the imaging apparatus configured as illustrated in FIG. 1, for example, a plurality of units may be provided as necessary, and the intermediate mode and the night vision mode may be executed simultaneously. In that case, the video output unit 6 may output both the video signal generated in the intermediate mode and the video signal generated in the night vision mode.

また、モード切換部72は、映像出力部6が中間モードによって生成された映像信号を出力する状態と、映像出力部6が暗視モードによって生成された映像信号を出力する状態とを切り換えるようにしてもよい。その際、前述のように、周囲環境の明るさや時刻等に応じて切り換えてもよい。また、映像処理部5(映像処理装置)を他の各部と別体にしてもよい。   The mode switching unit 72 switches between a state in which the video output unit 6 outputs the video signal generated in the intermediate mode and a state in which the video output unit 6 outputs the video signal generated in the night vision mode. May be. At this time, as described above, switching may be performed according to the brightness of the surrounding environment, the time, or the like. The video processing unit 5 (video processing device) may be separated from other units.

さらに、中間モードを使用せずに、通常モードから暗視モードに切り換えたり、暗視モードから通常モードに切り換えたりする場合があってもよい。   Further, there may be a case where the normal mode is switched to the night vision mode or the night vision mode is switched to the normal mode without using the intermediate mode.

中間モードを使用しない場合には、上述した中間モードの使用が適した環境下では、通常モードと暗視モードとのいずれかを選択して使用すればよい。この場合、中間モードを使用する場合と比較して良好なカラー映像信号とはならないが、撮像は可能である。   When the intermediate mode is not used, the normal mode and the night vision mode may be selected and used in an environment where the use of the intermediate mode is suitable. In this case, the color image signal is not satisfactory as compared with the case where the intermediate mode is used, but imaging is possible.

しかしながら、通常モードと暗視モードのみを搭載した撮像装置であっても、例えば監視カメラで被写体を終日撮影する場合のような周囲の明るさが変化する状況で、1つの撮像装置で被写体を撮影することができる、という効果を奏する。   However, even with an imaging device equipped with only the normal mode and the night vision mode, the subject is photographed with one imaging device in a situation where the ambient brightness changes, for example, when the subject is photographed all day with a surveillance camera. There is an effect that can be done.

さらにまた、暗視モードを使用せずに、通常モードから中間モードに切り換え、中間モードから通常モードに切り換える場合があってもよい。暗視モードを常時使用しない場合は、暗視モードを搭載しないようにしてもよい。   Furthermore, the normal mode may be switched to the intermediate mode and the intermediate mode may be switched to the normal mode without using the night vision mode. When the night vision mode is not always used, the night vision mode may not be installed.

電灯がある場所等では暗視モードを使用しなくてもよい場合がある。通常モードと中間モードのみを搭載した撮像装置は、暗視モードを使用しなくてもよい場合に利用できる。   The night vision mode may not be used in places with electric lights. An imaging apparatus equipped with only the normal mode and the intermediate mode can be used when the night vision mode does not have to be used.

暗視モードを使用しない場合には、上述した暗視モードの使用が適した環境下では、中間モードを使用すればよい。この場合、暗視モードを使用する場合と比較して良好なカラー映像信号とはならないが、撮像は可能である。   When the night vision mode is not used, the intermediate mode may be used in an environment where the above-described night vision mode is suitable. In this case, the color image signal is not good as compared with the case of using the night vision mode, but imaging is possible.

通常モードと中間モードのみを搭載した撮像装置であっても、同様に、周囲の明るさが変化する状況で、1つの撮像装置で被写体を撮影することができる、という効果を奏する。   Even in the case of an imaging device equipped only with the normal mode and the intermediate mode, similarly, there is an effect that a subject can be photographed with one imaging device in a situation where ambient brightness changes.

<赤外光投光タイミングの同期方法:第1の例>
次に、図29に示すように、例えば2台の撮像装置101によって被写体SB1を撮像する撮像システムを構成して、タイミング調整モードに設定されている場合を考える。タイミング調整モードでは、後述するように、赤外線投光器9によって赤外光を投光して、赤外光の投光タイミングを同期させる。よって、可視光が弱い夜間等にタイミング調整モードに設定するのがよい。
<Infrared light projection timing synchronization method: first example>
Next, as shown in FIG. 29, for example, a case where an imaging system that images the subject SB1 with two imaging devices 101 is configured and the timing adjustment mode is set is considered. In the timing adjustment mode, as described later, infrared light is projected by the infrared projector 9 to synchronize the light projection timing of the infrared light. Therefore, it is preferable to set the timing adjustment mode at night when visible light is weak.

図29に示す2台の撮像装置101のうちの一方を自己の撮像装置101、もう一方を他の撮像装置101とする。2台の撮像装置101は有線または無線にて接続されている。   One of the two imaging devices 101 shown in FIG. 29 is assumed to be its own imaging device 101, and the other is assumed to be another imaging device 101. The two imaging devices 101 are connected by wire or wireless.

図30において、(a)は自己の撮像装置101の赤外線投光器9による赤外光の投光を、(c)は他の撮像装置101の赤外線投光器9による赤外光の投光を示している。2台の撮像装置101の赤外線投光器9による赤外光の投光における位相が同期しておらず、1つの波長の赤外光を投光する期間よりも短い期間だけずれているとする。図30において、(b)は自己の撮像装置101による撮像によって生成されるフレームの露光期間(以下、単にフレームとも称する)を示している。   In FIG. 30, (a) shows infrared light projection by the infrared projector 9 of its own imaging device 101, and (c) shows infrared light projection by the infrared projector 9 of another imaging device 101. . Assume that the phases of infrared light projection by the infrared projectors 9 of the two imaging devices 101 are not synchronized and are shifted by a period shorter than the period of projecting infrared light of one wavelength. In FIG. 30, (b) shows an exposure period (hereinafter, also simply referred to as a frame) of a frame generated by imaging by its own imaging apparatus 101.

図30の(b)に示すように、2台の撮像装置101の赤外線投光器9による赤外光の投光のタイミングがずれているため、ハッチングを付した期間では、2つの波長の赤外光が混ざった状態となる。よって、ハッチングを付した期間では、色の再現性が損なわれる。   As shown in FIG. 30B, since the timing of infrared light projection by the infrared projectors 9 of the two imaging devices 101 is shifted, the infrared light having two wavelengths in the hatched period. Will be mixed. Therefore, color reproducibility is impaired during the hatched period.

図31において、(a)は自己の撮像装置101の赤外線投光器9による赤外光の投光を、(c)は他の撮像装置101の赤外線投光器9による赤外光の投光を示している。2台の撮像装置101の赤外線投光器9による赤外光の投光は同期しておらず、1つの波長の赤外光を投光する期間だけずれているとする。図31において、(b)は自己の撮像装置101による撮像によって生成されるフレームを示している。   In FIG. 31, (a) shows infrared light projection by the infrared projector 9 of its own imaging device 101, and (c) shows infrared light projection by the infrared projector 9 of another imaging device 101. . It is assumed that the infrared light projections by the infrared projectors 9 of the two imaging devices 101 are not synchronized and are shifted by a period during which infrared light of one wavelength is projected. In FIG. 31, (b) shows a frame generated by imaging by its own imaging device 101.

図31の(b)に示すように、2台の撮像装置101の赤外線投光器9による赤外光の投光のタイミングが完全にずれているため、全期間で、2つの波長の赤外光が混ざった状態となってしまう。よって、全期間で色の再現性が損なわれる。   As shown in FIG. 31 (b), since the timing of the infrared light projection by the infrared projectors 9 of the two imaging devices 101 is completely shifted, infrared light of two wavelengths is emitted over the entire period. It will be in a mixed state. Therefore, color reproducibility is impaired over the entire period.

このように、2台の撮像装置101の赤外線投光器9が個々に赤外光を投光すると異なる波長の赤外光が混ざってしまい、正しい色再現が可能なカラー映像を撮像することができない。   As described above, when the infrared projectors 9 of the two imaging devices 101 individually project infrared light, infrared light having different wavelengths are mixed, and a color image capable of correct color reproduction cannot be captured.

2台の撮像装置101の赤外線投光器9が波長IR1,IR2,IR3の赤外光を投光するタイミングを同期させる同期方法について説明する。図29では、撮像装置101を2台としているが、3台以上であってもよい。   A synchronization method for synchronizing the timings at which the infrared projectors 9 of the two imaging devices 101 project infrared light with wavelengths IR1, IR2, and IR3 will be described. In FIG. 29, two imaging devices 101 are used, but three or more imaging devices may be used.

図32に示すように、マスタ/スレーブ設定部74によって自己の撮像装置101をマスタの撮像装置101M、他の撮像装置101をスレーブの撮像装置101Sに設定したとする。図32は、図1で説明した撮像装置101の構成を概略的に示している。   As shown in FIG. 32, it is assumed that the master / slave setting unit 74 sets its own imaging device 101 as the master imaging device 101M and the other imaging device 101 as the slave imaging device 101S. FIG. 32 schematically shows the configuration of the imaging apparatus 101 described in FIG.

撮像装置101Mの同期信号送信部76tは、撮像装置101Sに同期信号Ssyncを送出する。撮像装置101Sの同期信号受信部76rは、同期信号Ssyncを受信する。撮像装置101Sの制御部7は、受信した同期信号Ssyncに基づいて波長IR1,IR2,IR3の赤外光を投光するタイミングを制御する。   The synchronization signal transmission unit 76t of the imaging device 101M transmits a synchronization signal Ssync to the imaging device 101S. The synchronization signal receiving unit 76r of the imaging device 101S receives the synchronization signal Ssync. The control unit 7 of the imaging device 101S controls the timing of projecting infrared light with wavelengths IR1, IR2, and IR3 based on the received synchronization signal Ssync.

撮像装置101Sは、図示していないPLL回路等を用いて、受信した同期信号Ssyncを基準とした基準クロックを生成する。撮像装置101Sは、この基準クロックに基づいて各部を動作させる。   The imaging device 101S generates a reference clock with reference to the received synchronization signal Ssync using a PLL circuit (not shown) or the like. The imaging device 101S operates each unit based on this reference clock.

同期信号Ssyncは、一例として、図33の(a)に示すように、図33の(b)に示す波長IR1,IR2,IR3の赤外光を投光する1フレーム期間の先頭を示すパルスでよい。即ち、同期信号Ssyncは、フレーム周期のパルスでよい。ここでのフレームとは、映像出力部6より出力される映像信号のフレームである。   As an example, the synchronization signal Ssync is a pulse indicating the head of one frame period for projecting infrared light of wavelengths IR1, IR2, and IR3 shown in FIG. 33B, as shown in FIG. Good. That is, the synchronization signal Ssync may be a pulse having a frame period. Here, the frame is a frame of the video signal output from the video output unit 6.

波長IR1,IR2,IR3の赤外光それぞれを投光する期間の先頭を示すパルスを同期信号Ssyncとしてもよい。波長IR1,IR2,IR3のうちのいずれかの赤外光を投光する期間の先頭を示すパルスを同期信号Ssyncとしてもよい。同期信号Ssyncは、波長IR1,IR2,IR3の赤外光を投光する所定の期間(1フレーム期間)に同期していればよい。   The synchronization signal Ssync may be a pulse indicating the beginning of a period during which infrared light of wavelengths IR1, IR2, and IR3 is projected. A pulse indicating the head of a period during which infrared light of any one of the wavelengths IR1, IR2, and IR3 is projected may be used as the synchronization signal Ssync. The synchronization signal Ssync only needs to be synchronized with a predetermined period (one frame period) in which infrared light with wavelengths IR1, IR2, and IR3 is projected.

同期信号Ssyncは、所定の期間を3分割した分割期間の内の1つまたは2つに同期するようにしてもよい。また、複数種類の同期信号Ssyncを用いて、所定の期間を3分割した分割期間それぞれで異なる同期信号Ssyncを用いるようにしてもよい。   The synchronization signal Ssync may be synchronized with one or two of the divided periods obtained by dividing the predetermined period into three. Further, a plurality of types of synchronization signals Ssync may be used, and different synchronization signals Ssync may be used in each of the divided periods obtained by dividing the predetermined period into three.

撮像装置101Mから撮像装置101Sへと同期信号Ssyncを供給すれば、原理的には、それぞれの赤外線投光器9による赤外光の投光を同期させて、波長IR1,IR2,IR3の赤外光を投光するタイミングを一致させることができる。   If the synchronization signal Ssync is supplied from the imaging device 101M to the imaging device 101S, in principle, the infrared light projections by the respective infrared projectors 9 are synchronized, and infrared light with wavelengths IR1, IR2, and IR3 is generated. The timing to project can be matched.

ところが、撮像装置101Mと撮像装置101Sとが有線にて接続されている場合であっても、配線長に起因する遅延、2つの撮像装置101の内部的な遅延時間の差によって、波長IR1,IR2,IR3の赤外光を投光するタイミングにずれが生じる場合がある。   However, even when the imaging device 101M and the imaging device 101S are connected by wire, the wavelengths IR1 and IR2 are caused by the delay caused by the wiring length and the difference between the internal delay times of the two imaging devices 101. , IR3 infrared light projection timing may vary.

そこで、さらに精度を高める必要がある場合、次のようにして、撮像装置101Mの赤外線投光器9による赤外光のタイミングに、撮像装置101Sの赤外線投光器9による赤外光のタイミングを一致させて、両者の赤外線投光器9による赤外光の投光を同期させる。   Therefore, when it is necessary to further improve the accuracy, the timing of the infrared light by the infrared projector 9 of the imaging device 101S is matched with the timing of the infrared light by the infrared projector 9 of the imaging device 101M as follows. The infrared light projections by the two infrared projectors 9 are synchronized.

撮像装置101Mがタイミング調整モードに設定されているとき、図34の(a)に示すように、投光制御部71は、波長IR1,IR2,IR3の赤外光のうちの1つの赤外光のみを3つの分割期間における1つの分割期間内で投光させ、残りの2つの分割期間を無投光とするよう赤外線投光器9を制御する。1つの赤外光は、波長IR1,IR2,IR3の赤外光のうちのいずれでもよい。本実施形態では、波長IR1の赤外光のみを投光する。   When the imaging apparatus 101M is set to the timing adjustment mode, as shown in FIG. 34 (a), the light projection control unit 71 is one infrared light among the infrared lights having wavelengths IR1, IR2, and IR3. Infrared projector 9 is controlled so that only light is projected within one divided period in the three divided periods, and the remaining two divided periods are set to no light projection. One infrared light may be any of infrared light having wavelengths IR1, IR2, and IR3. In the present embodiment, only infrared light having a wavelength IR1 is projected.

撮像装置101Sがタイミング調整モードに設定されているとき、投光制御部71は、全ての期間で赤外光を無投光とするよう赤外線投光器9を制御する。撮像装置101Sは、図34の(a)に示すように撮像装置101Mの赤外線投光器9によって1つの赤外光のみを投光している状態で、被写体SB1を撮像して映像信号のフレームを生成する。   When the imaging apparatus 101S is set to the timing adjustment mode, the light projection control unit 71 controls the infrared projector 9 so that infrared light is not projected in all periods. The imaging device 101S captures the subject SB1 and generates a frame of the video signal in a state where only one infrared light is projected by the infrared projector 9 of the imaging device 101M as shown in FIG. To do.

撮像装置101M,101Sをタイミング調整モードとしたとき、撮像装置101Mを撮像装置101Sに向けて、撮像装置101Mの赤外線投光器9から投光される赤外光が撮像装置101Sに効果的に照射されるようにしてもよい。   When the imaging devices 101M and 101S are set to the timing adjustment mode, the imaging device 101S is effectively irradiated with infrared light projected from the infrared projector 9 of the imaging device 101M toward the imaging device 101S. You may do it.

図34の(b)は、図34の(a)の赤外光の投光のタイミングと、撮像装置101Sによる撮像によって生成されるフレームとの位相が一致している状態を示している。フレームFIR1は、波長IR1の赤外光が投光されている期間で生成されるRのフレームである。フレームFIR2,FIR3は、本来であればそれぞれ波長IR2,IR3の赤外光が投光される無投光の期間で生成されるG,Bのフレームである。   FIG. 34B shows a state where the phase of the infrared light projection timing shown in FIG. 34A matches the phase of the frame generated by the imaging by the imaging apparatus 101S. The frame FIR1 is an R frame generated during a period in which infrared light having the wavelength IR1 is projected. The frames FIR2 and FIR3 are G and B frames that are generated in the non-projection period when infrared light with wavelengths IR2 and IR3 is projected.

図34の(b)に示すように、RのフレームFIR1は明るく、G,BのフレームFIR2,FIR3は暗い。よって、図34の(b)の状態では、撮像装置101Sの輝度レベル判定部75によって判定される輝度レベルは、フレームFIR1におけるRの輝度レベルのみ高くなり、G,BのフレームFIR2,FIR3の輝度レベルは非常に低くなる。   As shown in FIG. 34B, the R frame FIR1 is bright, and the G and B frames FIR2 and FIR3 are dark. Therefore, in the state of FIG. 34B, the luminance level determined by the luminance level determination unit 75 of the imaging apparatus 101S is increased only in the R luminance level in the frame FIR1, and the luminance in the G and B frames FIR2 and FIR3. The level is very low.

図34の(c)は位相が少し遅れている場合、図34の(d)は位相が少し進んでいる場合を示している。   FIG. 34 (c) shows a case where the phase is slightly delayed, and FIG. 34 (d) shows a case where the phase is slightly advanced.

図34の(c)のように位相が遅れると、BのフレームFIR3を生成するために撮像している期間内に波長IR1の赤外光の投光が開始するため、BのフレームFIR3は図34の(b)の場合よりも少し明るいやや暗い状態となる。よって、輝度レベル判定部75によって判定されるBのフレームFIR3におけるBの輝度レベルは、図34の(b)の場合と比較して若干高くなる。   When the phase is delayed as shown in FIG. 34 (c), infrared light projection with the wavelength IR1 is started within the imaging period for generating the B frame FIR3. It becomes a slightly darker and slightly darker state than the case of 34 (b). Therefore, the B brightness level in the B frame FIR3 determined by the brightness level determination unit 75 is slightly higher than in the case of FIG. 34B.

逆に、図34の(d)のように位相が進むと、波長IR1の赤外光の投光が終了するよりも前にGのフレームFIR2を生成するための撮像が開始するため、GのフレームFIR2は図34の(b)の場合よりも少し明るいやや暗い状態となる。よって、輝度レベル判定部75によって判定されるGのフレームFIR2におけるGの輝度レベルは、図34の(b)の場合と比較して若干高くなる。   Conversely, when the phase advances as shown in FIG. 34D, imaging for generating the G frame FIR2 is started before the projection of the infrared light with the wavelength IR1 is completed. The frame FIR2 is in a slightly brighter and slightly darker state than in the case of FIG. Therefore, the G luminance level in the G frame FIR2 determined by the luminance level determination unit 75 is slightly higher than that in the case of FIG. 34B.

なお、図34の(c),(d)において、RのフレームFIR1に「やや明」と記載しているように、RのフレームFIR1におけるRの輝度レベルは、図34の(b)の場合と比較すれば若干低い。   In FIGS. 34 (c) and 34 (d), the “R” brightness level in the R frame FIR1 is the same as that in FIG. 34 (b), as “slightly bright” is described in the R frame FIR1. Is slightly lower than

よって、R,G,Bの輝度レベルは、撮像装置101Mの赤外線投光器9が波長IR1の赤外光を投光するタイミングと、撮像装置101SにおいてR,G,BのフレームFIR1,FIR2,FIR3を生成するタイミングとに応じて、図35に示すように変化する。   Therefore, the luminance levels of R, G, and B are determined based on the timing at which the infrared projector 9 of the imaging device 101M projects infrared light having the wavelength IR1, and the R, G, and B frames FIR1, FIR2, and FIR3 in the imaging device 101S. It changes as shown in FIG. 35 according to the generation timing.

図35に示すように、撮像装置101Mの赤外線投光器9から投光される赤外光のタイミングと、撮像装置101Sによる撮像によって生成されるフレームとの位相が一致している適正な状態では、Rの輝度レベルが高く、G,Bの輝度レベルは同等の低い値となる。同等とは、所定の誤差を含んでほぼ同じとみなすことができる状態である。   As shown in FIG. 35, in an appropriate state in which the phase of the infrared light projected from the infrared projector 9 of the imaging device 101M matches the phase of the frame generated by imaging by the imaging device 101S, R The luminance levels of G and B are equivalently low values. Equivalent is a state that can be regarded as substantially the same including a predetermined error.

撮像装置101Mの赤外線投光器9から投光される赤外光のタイミングに対して、撮像装置101Sによる撮像によって生成されるフレームの位相が遅れると、Bの輝度レベルがGの輝度レベルよりも高くなる。Rの輝度レベルは適正な状態よりも低下する。   When the phase of the frame generated by the imaging by the imaging device 101S is delayed with respect to the timing of the infrared light projected from the infrared projector 9 of the imaging device 101M, the luminance level of B becomes higher than the luminance level of G. . The luminance level of R is lower than the proper state.

撮像装置101Mの赤外線投光器9から投光される赤外光のタイミングに対して、撮像装置101Sによる撮像によって生成されるフレームの位相が進むと、Gの輝度レベルがBの輝度レベルよりも高くなる。Rの輝度レベルは適正な状態よりも低下する。   When the phase of the frame generated by the imaging by the imaging device 101S advances with respect to the timing of the infrared light projected from the infrared projector 9 of the imaging device 101M, the luminance level of G becomes higher than the luminance level of B. . The luminance level of R is lower than the proper state.

そこで、撮像装置101Sの輝度レベル判定部75は、Gの輝度レベルとBの輝度レベルとの大小関係を判定する。制御部7は、大小関係に応じて、撮像装置101Sを動作させている同期信号Ssyncに基づいて赤外線投光器9及び前信号処理部52を動作させるタイミングを進ませたり、遅らせたりする。   Therefore, the luminance level determination unit 75 of the imaging apparatus 101S determines the magnitude relationship between the G luminance level and the B luminance level. The control unit 7 advances or delays the timing of operating the infrared projector 9 and the previous signal processing unit 52 based on the synchronization signal Ssync that operates the imaging device 101S, depending on the magnitude relationship.

具体的には、投光制御部71は、Bの輝度レベルがGの輝度レベルよりも高ければ、波長IR1,IR2,IR3の赤外光を投光するタイミングを進ませるように赤外線投光器9を制御する。これに併せて、制御部7は、R,G,BのフレームFIR1,FIR2,FIR3を生成するタイミングを進ませるように前信号処理部52を制御する。   Specifically, if the luminance level of B is higher than the luminance level of G, the light projection control unit 71 sets the infrared light projector 9 to advance the timing of projecting infrared light of wavelengths IR1, IR2, and IR3. Control. At the same time, the control unit 7 controls the previous signal processing unit 52 to advance the timing of generating the R, G, and B frames FIR1, FIR2, and FIR3.

投光制御部71は、Gの輝度レベルがBの輝度レベルよりも高ければ、波長IR1,IR2,IR3の赤外光を投光するタイミングを遅らせるように赤外線投光器9を制御する。これに併せて、制御部7は、R,G,BのフレームFIR1,FIR2,FIR3を生成するタイミングを遅らせるように前信号処理部52を制御する。   If the luminance level of G is higher than the luminance level of B, the light projection control unit 71 controls the infrared light projector 9 so as to delay the timing of projecting infrared light of wavelengths IR1, IR2, and IR3. At the same time, the control unit 7 controls the previous signal processing unit 52 so as to delay the timing of generating the R, G, and B frames FIR1, FIR2, and FIR3.

制御部7(投光制御部71)は、G,Bの輝度レベルが同等の値となるまで赤外線投光器9及び前信号処理部52を制御する。制御部7は、G,Bの輝度レベルが同等の値となったタイミングの調整量を保持する。   The control unit 7 (light projection control unit 71) controls the infrared projector 9 and the front signal processing unit 52 until the luminance levels of G and B become equal values. The control unit 7 holds the adjustment amount at the timing when the luminance levels of G and B become equal values.

撮像装置101Sは、タイミング調整モードを解除した後、タイミング調整モードで求めて保持した調整量だけ撮像装置101Sを動作させるタイミングをずらすよう各部を制御する。   After canceling the timing adjustment mode, the imaging apparatus 101S controls each unit to shift the timing for operating the imaging apparatus 101S by the adjustment amount obtained and held in the timing adjustment mode.

以上によって、図29のように構成した撮像システムは、撮像装置101Mと撮像装置101Sとのそれぞれの赤外線投光器9による赤外光の投光タイミングを同期させた状態で、被写体SB1を撮像することができる。なお、明るさがあまり変わらない環境下であれば、Rの輝度レベルが最大となるように調整してもよい。   As described above, the imaging system configured as shown in FIG. 29 can image the subject SB1 in a state where the infrared light projection timings of the infrared projectors 9 of the imaging device 101M and the imaging device 101S are synchronized. it can. In an environment where the brightness does not change much, the brightness level of R may be adjusted to the maximum.

<赤外光投光タイミングの同期方法:第2の例>
赤外光投光タイミングの同期方法の第1の例では、撮像装置101Mの赤外線投光器9による赤外光の投光タイミングに、撮像装置101Sの赤外線投光器9による赤外光の投光タイミングを一致させたが、逆にしてもよい。
<Infrared light projection timing synchronization method: second example>
In the first example of the infrared light projection timing synchronization method, the infrared light projection timing of the infrared projector 9 of the imaging device 101S matches the infrared light projection timing of the infrared projector 9 of the imaging device 101M. However, it may be reversed.

赤外光投光タイミングの同期方法の第2の例では、撮像装置101Sの赤外線投光器9による赤外光の投光タイミングに、撮像装置101Mの赤外線投光器9による赤外光の投光タイミングを一致させる。第2の例の説明において、第1の例と共通部分の説明を省略する。   In the second example of the infrared light projection timing synchronization method, the infrared light projection timing of the infrared projector 9 of the imaging device 101M matches the infrared light projection timing of the infrared projector 9 of the imaging device 101S. Let In the description of the second example, description of common parts with the first example is omitted.

撮像装置101Sがタイミング調整モードに設定されているとき、図36の(a)に示すように、投光制御部71は、波長IR1,IR2,IR3の赤外光のうちの波長IR1の赤外光のみを3つの分割期間における1つの分割期間内で投光させ、残りの2つの分割期間を無投光とするよう赤外線投光器9を制御する。   When the imaging apparatus 101S is set to the timing adjustment mode, as shown in FIG. 36 (a), the light projection control unit 71 has infrared light with a wavelength IR1 out of infrared light with wavelengths IR1, IR2, and IR3. The infrared projector 9 is controlled so that only light is projected within one divided period in the three divided periods, and the remaining two divided periods are set to no light projection.

撮像装置101Mがタイミング調整モードに設定されているとき、投光制御部71は、全ての期間で赤外光を無投光とするよう赤外線投光器9を制御する。撮像装置101Mは、図36の(a)に示すように撮像装置101Sの赤外線投光器9によって波長IR1の赤外光のみを投光している状態で、被写体SB1を撮像して映像信号のフレームを生成する。   When the imaging apparatus 101M is set to the timing adjustment mode, the light projection control unit 71 controls the infrared projector 9 so that infrared light is not projected in all periods. As shown in FIG. 36A, the imaging device 101M images the subject SB1 and projects a frame of a video signal in a state where only the infrared light having the wavelength IR1 is projected by the infrared projector 9 of the imaging device 101S. Generate.

図36の(b)は、図36の(a)の赤外光の投光のタイミングと、撮像装置101Mによる撮像によって生成されるフレームとが一致している状態を示している。図36の(c)は位相が遅れている場合、図36の(d)は位相が進んでいる場合を示している。   FIG. 36B shows a state in which the infrared light projection timing in FIG. 36A matches the frame generated by the imaging by the imaging device 101M. FIG. 36C shows a case where the phase is delayed, and FIG. 36D shows a case where the phase is advanced.

第2の例においては、R,G,Bの輝度レベルは、撮像装置101Sの赤外線投光器9が波長IR1の赤外光を投光するタイミングと、撮像装置101MにおいてR,G,BのフレームFIR1,FIR2,FIR3を生成するタイミングとに応じて、図37に示すように変化する。   In the second example, the luminance levels of R, G, and B are determined by the timing at which the infrared projector 9 of the imaging apparatus 101S projects infrared light having the wavelength IR1, and the R, G, and B frames FIR1 in the imaging apparatus 101M. , FIR2, and FIR3 are changed as shown in FIG.

図37に示すように、撮像装置101Sの赤外線投光器9から投光される赤外光のタイミングに対して、撮像装置101Mによる撮像によって生成されるフレームの位相が遅れると、Gの輝度レベルがBの輝度レベルよりも高くなる。Rの輝度レベルは適正な状態よりも低下する。   As shown in FIG. 37, when the phase of the frame generated by the imaging by the imaging device 101M is delayed with respect to the timing of the infrared light projected from the infrared projector 9 of the imaging device 101S, the luminance level of G becomes B Higher than the luminance level. The luminance level of R is lower than the proper state.

撮像装置101Sの赤外線投光器9から投光される赤外光のタイミングに対して、撮像装置101Mによる撮像によって生成されるフレームの位相が進むと、Bの輝度レベルがGの輝度レベルよりも高くなる。Rの輝度レベルは適正な状態よりも低下する。   When the phase of the frame generated by the imaging by the imaging device 101M advances with respect to the timing of the infrared light projected from the infrared projector 9 of the imaging device 101S, the luminance level of B becomes higher than the luminance level of G. . The luminance level of R is lower than the proper state.

撮像装置101Mの制御部7は、輝度レベル判定部75によって判定されるG,Bの輝度レベルが同等の値となるまで赤外線投光器9及び前信号処理部52を制御する。制御部7は、G,Bの輝度レベルが同等の値となったタイミングの調整量を保持する。   The control unit 7 of the imaging device 101M controls the infrared projector 9 and the pre-signal processing unit 52 until the G and B luminance levels determined by the luminance level determination unit 75 become equal values. The control unit 7 holds the adjustment amount at the timing when the luminance levels of G and B become equal values.

撮像装置101Mは、タイミング調整モードを解除した後、タイミング調整モードで求めて保持した調整量だけ撮像装置101Mを動作させるタイミングをずらすよう各部を制御する。   After canceling the timing adjustment mode, the imaging apparatus 101M controls each unit to shift the timing at which the imaging apparatus 101M is operated by the adjustment amount obtained and held in the timing adjustment mode.

このように、撮像装置101Sの赤外線投光器9による赤外光の投光タイミングに撮像装置101Mの赤外線投光器9による赤外光の投光タイミングを一致させる第2の例おいても、撮像装置101Mと撮像装置101Sとのそれぞれの赤外線投光器9による赤外光の投光タイミングを同期させることができる。なお、第2の例は、撮像装置101が2台のみの場合に利用できる。   As described above, the second example in which the infrared light projection timing of the infrared projector 9 of the imaging device 101M is matched with the infrared light projection timing of the infrared projector 9 of the imaging device 101S is similar to that of the imaging device 101M. It is possible to synchronize the timing of projecting infrared light by the respective infrared projectors 9 with the imaging device 101S. Note that the second example can be used when there are only two imaging devices 101.

以上説明した第1の例及び第2の例では、タイミング調整モードにおいて、撮像装置101M(または101S)が波長IR1の赤外光のみを投光し、撮像装置101S(または101M)が赤外光を無投光とした状態で被写体SB1を撮像して映像信号を生成する。なお、明るさがあまり変わらない環境下であれば、Rの輝度レベルが最大となるように調整してもよい。   In the first and second examples described above, in the timing adjustment mode, the imaging device 101M (or 101S) projects only infrared light having the wavelength IR1, and the imaging device 101S (or 101M) emits infrared light. In this state, the subject SB1 is imaged to generate a video signal. In an environment where the brightness does not change much, the brightness level of R may be adjusted to the maximum.

その代わりに次のようにすることもできる。赤外光の投光タイミングの基準側である撮像装置101M(または101S)は、波長IR1,IR2,IR3の赤外光を通常のように投光する。赤外光の投光タイミングを調整する側の撮像装置101S(または101M)は、赤外光を無投光とし、赤外線カットフィルタ21を挿入した状態で映像信号を生成する。   Alternatively, you can do the following: The imaging device 101M (or 101S), which is the reference side of the infrared light projection timing, projects infrared light with wavelengths IR1, IR2, and IR3 as usual. The imaging device 101S (or 101M) on the side that adjusts the timing of projecting infrared light generates no image light and generates a video signal with the infrared cut filter 21 inserted.

可視光が弱い夜間等にタイミング調整モードに設定した場合には、ダミーガラス22が挿入された状態である。ダミーガラス22の代わりに赤外線カットフィルタ21を挿入して映像信号を生成すれば、基準側である撮像装置101M(または101S)は、全ての赤外光を投光してもよい。   When the timing adjustment mode is set at night or the like when the visible light is weak, the dummy glass 22 is inserted. If an infrared cut filter 21 is inserted instead of the dummy glass 22 to generate a video signal, the imaging device 101M (or 101S) on the reference side may project all infrared light.

例えば、投光部91を780nmの赤外光を発光する発光ダイオード(LED)とする。LEDからの光の波長帯域は一部で可視光の帯域にかかっている。よって、赤外線カットフィルタ21を挿入した状態で撮像すれば、実質的に波長IR1の赤外光のみが投光されているのと同等の状態とすることができる。よって、波長IR1の赤外光のみを投光したのと同様に投光タイミングの調整が可能となる。なお、波長IR1は、赤外線カットフィルタ21によってカットされない程度に波長が短いものとする。   For example, the light projecting unit 91 is a light emitting diode (LED) that emits infrared light of 780 nm. The wavelength band of light from the LED partially depends on the visible light band. Therefore, if imaging is performed with the infrared cut filter 21 inserted, a state equivalent to that in which only infrared light having the wavelength IR1 is projected can be obtained. Therefore, the projection timing can be adjusted in the same manner as when only infrared light having the wavelength IR1 is projected. The wavelength IR1 is assumed to be short enough not to be cut by the infrared cut filter 21.

<第2実施形態の撮像装置の構成及び動作>
図38に示す第2実施形態の撮像装置102において、図1に示す第1実施形態の撮像装置101と同一部分には同一符号を付し、その説明を省略する。図29に示すように、複数台の撮像装置102によって撮像システムを構成することができる。
<Configuration and Operation of Imaging Device of Second Embodiment>
In the imaging device 102 of the second embodiment shown in FIG. 38, the same parts as those of the imaging device 101 of the first embodiment shown in FIG. As shown in FIG. 29, an imaging system can be configured by a plurality of imaging devices 102.

撮像装置102は、赤外線投光器9の代わりに赤外線投光器9Bを備える。赤外線投光器9Bは、波長IR1,IR2,IR3の赤外光を投光するタイミングを示す同期信号Ssyncを生成して、制御部7に供給する。赤外線投光器9Bは、同期信号Ssyncを送信する同期信号送信部9Btと同期信号Ssyncを受信する同期信号受信部9Brを有する。   The imaging device 102 includes an infrared projector 9 </ b> B instead of the infrared projector 9. The infrared projector 9 </ b> B generates a synchronization signal Ssync indicating the timing of projecting infrared light with wavelengths IR <b> 1, IR <b> 2, IR <b> 3 and supplies the synchronization signal Ssync to the control unit 7. The infrared projector 9B includes a synchronization signal transmission unit 9Bt that transmits the synchronization signal Ssync and a synchronization signal reception unit 9Br that receives the synchronization signal Ssync.

撮像装置102における制御部7は、撮像装置101の制御部7における同期信号送信部76t及び同期信号受信部76rを省いた構成を有する。   The control unit 7 in the imaging device 102 has a configuration in which the synchronization signal transmitting unit 76t and the synchronization signal receiving unit 76r in the control unit 7 of the imaging device 101 are omitted.

図39に示すように、マスタ/スレーブ設定部74によって自己の撮像装置102をマスタの撮像装置102M、他の撮像装置102をスレーブの撮像装置102Sに設定したとする。図39は、図38で説明した撮像装置102の構成を概略的に示している。   As shown in FIG. 39, it is assumed that the master / slave setting unit 74 sets its own imaging device 102 as a master imaging device 102M and another imaging device 102 as a slave imaging device 102S. FIG. 39 schematically illustrates the configuration of the imaging apparatus 102 described with reference to FIG.

撮像装置102Mの同期信号送信部9Btは、撮像装置102Sに同期信号Ssyncを送出する。撮像装置102Sの同期信号受信部9Brは、同期信号Ssyncを受信する。同期信号Ssyncは、図33の(a)で説明したように、波長IR1,IR2,IR3の赤外光を投光する1フレーム期間の先頭を示すフレーム周期のパルスでよい。   The synchronization signal transmission unit 9Bt of the imaging device 102M transmits the synchronization signal Ssync to the imaging device 102S. The synchronization signal receiver 9Br of the imaging device 102S receives the synchronization signal Ssync. As described with reference to FIG. 33A, the synchronization signal Ssync may be a pulse having a frame period indicating the head of one frame period during which infrared light with wavelengths IR1, IR2, and IR3 is projected.

撮像装置102Sは、自己の赤外線投光器9Bによって同期信号Ssyncを生成しない。撮像装置102Sの赤外線投光器9Bは、受信した同期信号Ssyncを制御部7に供給する。撮像装置102Sの赤外線投光器9Bは、受信した同期信号Ssyncに基づいたタイミングで波長IR1,IR2,IR3の赤外光を投光する。   The imaging device 102S does not generate the synchronization signal Ssync by its own infrared projector 9B. The infrared projector 9B of the imaging device 102S supplies the received synchronization signal Ssync to the control unit 7. The infrared projector 9B of the imaging device 102S projects infrared light with wavelengths IR1, IR2, and IR3 at a timing based on the received synchronization signal Ssync.

撮像装置102Mと撮像装置102Sとで波長IR1,IR2,IR3の赤外光を投光するタイミングにずれが生じる場合には、図34〜図37と同様にして、投光タイミングを調整すればよい。   When there is a difference in the timing of projecting infrared light with wavelengths IR1, IR2, and IR3 between the imaging device 102M and the imaging device 102S, the projection timing may be adjusted in the same manner as in FIGS. .

即ち、撮像装置102Mの赤外線投光器9Bによる赤外光の投光タイミングと、撮像装置102Sの赤外線投光器9Bによる赤外光の投光タイミングとを一致させて、両者の赤外線投光器9Bによる赤外光の投光を同期させる。   That is, the infrared light projection timing by the infrared projector 9B of the imaging device 102M and the infrared light projection timing by the infrared projector 9B of the imaging device 102S are matched, and the infrared light by both infrared projectors 9B is matched. Synchronize the light emission.

図21〜図23に示す第1〜第3の変形例は、第2実施形態の撮像装置102においても適用することができる。後述する第3〜第6実施形態の撮像装置103〜106でも同様である。   The first to third modifications shown in FIGS. 21 to 23 can also be applied to the imaging device 102 of the second embodiment. The same applies to imaging devices 103 to 106 according to third to sixth embodiments described later.

<第3実施形態の撮像装置の構成及び動作>
図40に示す第3実施形態の撮像装置103において、図1に示す第1実施形態の撮像装置101と同一部分には同一符号を付し、その説明を省略する。図40は、撮像装置3の構成を概略的に示している。
<Configuration and Operation of Imaging Device of Third Embodiment>
In the imaging device 103 of the third embodiment shown in FIG. 40, the same parts as those of the imaging device 101 of the first embodiment shown in FIG. FIG. 40 schematically illustrates the configuration of the imaging device 3.

図29に示すように、複数台の撮像装置103によって撮像システムを構成することができる。図40において、自己の撮像装置103をマスタの撮像装置103M、他の撮像装置103をスレーブの撮像装置103Sに設定している。   As shown in FIG. 29, an imaging system can be configured by a plurality of imaging devices 103. In FIG. 40, the own imaging device 103 is set as the master imaging device 103M, and the other imaging device 103 is set as the slave imaging device 103S.

マスタの撮像装置103Mの赤外線投光器9Cは、同期信号送信部9Ctを有する。赤外線投光器9Cは、制御部7による制御に基づいて、波長IR1,IR2,IR3の赤外光を投光する。同期信号送信部9Ctは、赤外光を投光するタイミングを示す同期信号Ssyncをスレーブの撮像装置103Sに送出する。   The infrared projector 9C of the master imaging device 103M has a synchronization signal transmitter 9Ct. The infrared projector 9C projects infrared light having wavelengths IR1, IR2, and IR3 based on the control by the control unit 7. The synchronization signal transmission unit 9Ct transmits a synchronization signal Ssync indicating the timing of projecting infrared light to the slave imaging device 103S.

撮像装置103Sの赤外線投光器9Cは、同期信号受信部9Crを有する。撮像装置103Sの受信した同期信号Ssyncを制御部7に供給する。撮像装置103Sの赤外線投光器9Cは、受信した同期信号Ssyncに基づいたタイミングで波長IR1,IR2,IR3の赤外光を投光する。撮像装置103Sは、図39の撮像装置102Sと同じ構成でよい。   The infrared projector 9C of the imaging device 103S includes a synchronization signal receiver 9Cr. The synchronization signal Ssync received by the imaging device 103S is supplied to the control unit 7. The infrared projector 9C of the imaging device 103S projects infrared light with wavelengths IR1, IR2, and IR3 at a timing based on the received synchronization signal Ssync. The imaging device 103S may have the same configuration as the imaging device 102S in FIG.

第3実施形態においても、撮像装置103Mと撮像装置103Sとで波長IR1,IR2,IR3の赤外光を投光するタイミングにずれが生じる場合には、タイミングを一致させて、両者の赤外線投光器9Cによる赤外光の投光を同期させる。   Also in the third embodiment, when there is a difference in the timing of projecting infrared light with wavelengths IR1, IR2, and IR3 between the imaging device 103M and the imaging device 103S, the timings are matched and the infrared projectors 9C of both are used. Synchronize the infrared light projection.

<第4実施形態の撮像装置の構成及び動作>
図41に示す第4実施形態の撮像装置104において、図1に示す第1実施形態の撮像装置101と同一部分には同一符号を付し、その説明を省略する。図29に示すように、複数台の撮像装置104によって撮像システムを構成することができる。
<Configuration and Operation of Imaging Device of Fourth Embodiment>
In the imaging device 104 of the fourth embodiment shown in FIG. 41, the same parts as those of the imaging device 101 of the first embodiment shown in FIG. As shown in FIG. 29, an imaging system can be configured by a plurality of imaging devices 104.

撮像装置104における制御部7は、撮像装置101の制御部7における同期信号送信部76t及び同期信号受信部76rの代わりに、基準クロック送信部77t及び基準クロック受信部77rを有する。   The control unit 7 in the imaging device 104 includes a reference clock transmission unit 77t and a reference clock reception unit 77r instead of the synchronization signal transmission unit 76t and the synchronization signal reception unit 76r in the control unit 7 of the imaging device 101.

撮像装置104がマスタの撮像装置として設定されているとき、基準クロック送信部77tは基準クロックSclkを他の撮像装置104へと送出する。このとき、基準クロック受信部77rは不動作である。   When the imaging device 104 is set as a master imaging device, the reference clock transmission unit 77t transmits the reference clock Sclk to the other imaging device 104. At this time, the reference clock receiver 77r does not operate.

撮像装置104がスレーブの撮像装置として設定されているとき、基準クロック受信部77rは、マスタである他の撮像装置104が送出した基準クロックSclkを受信する。このとき、基準クロック送信部77tは不動作である。   When the image capturing apparatus 104 is set as a slave image capturing apparatus, the reference clock receiving unit 77r receives the reference clock Sclk transmitted from another master image capturing apparatus 104. At this time, the reference clock transmission unit 77t does not operate.

図42に示すように、マスタ/スレーブ設定部74によって自己の撮像装置104をマスタの撮像装置104M、他の撮像装置104をスレーブの撮像装置104Sに設定したとする。図42は、図41で説明した撮像装置104の構成を概略的に示している。   As shown in FIG. 42, it is assumed that the master / slave setting unit 74 sets its own imaging device 104 as a master imaging device 104M and another imaging device 104 as a slave imaging device 104S. FIG. 42 schematically illustrates the configuration of the imaging device 104 described in FIG.

撮像装置104Mの基準クロック送信部77tは、撮像装置104Sに基準クロックSclkを送出する。撮像装置104Sの基準クロック受信部77rは、基準クロックSclkを受信する。撮像装置104Mと撮像装置104Sとは、共通の基準クロックSclkに同期して動作する。   The reference clock transmission unit 77t of the imaging device 104M transmits the reference clock Sclk to the imaging device 104S. The reference clock receiver 77r of the imaging device 104S receives the reference clock Sclk. The imaging device 104M and the imaging device 104S operate in synchronization with a common reference clock Sclk.

基準クロックSclkは、例えば、映像信号の色副搬送波周波数(3.58MHz)の4倍の14.32MHzのクロック、GenLock(Generator Lock)と称される放送スタジオ等で使用される基準信号、MPEG2で使用される27MHzのクロックを用いることができる。勿論、基準クロックSclkは、これらのクロックに限定されない。   The reference clock Sclk is used in MPEG2, for example, a 14.32 MHz clock that is four times the color subcarrier frequency (3.58 MHz) of the video signal, a reference signal used in a broadcast studio called GenLock (Generator Lock), etc. A 27 MHz clock can be used. Of course, the reference clock Sclk is not limited to these clocks.

撮像装置104Mと撮像装置104Sとを共通の基準クロックSclkで動作させることにより、撮像装置104Mと撮像装置104Sとの周波数的な同期をとることができる。しかしながら、撮像装置104M,104Sそれぞれの赤外線投光器9が波長IR1,IR2,IR3の赤外光を投光するタイミングを同期させることはできない。   By operating the imaging device 104M and the imaging device 104S with a common reference clock Sclk, the imaging device 104M and the imaging device 104S can be synchronized in frequency. However, the timings at which the infrared projectors 9 of the imaging devices 104M and 104S project infrared light with wavelengths IR1, IR2, and IR3 cannot be synchronized.

そこで、第4実施形態の撮像装置104においては、撮像装置104M,104Sがタイミング調整モードに設定されているとき、撮像装置104M,104Sの赤外線投光器9による赤外光の投光タイミングを一致させた状態で同期させるように調整する。   Therefore, in the imaging device 104 of the fourth embodiment, when the imaging devices 104M and 104S are set to the timing adjustment mode, the infrared light projection timings by the infrared projectors 9 of the imaging devices 104M and 104S are matched. Adjust to synchronize with the state.

図43は、図43と同様に、撮像装置104Mの赤外線投光器9による投光のタイミングと、撮像装置104Sによる撮像によって生成されるフレームとの位相の関係を示している。図43の(b)は、図43の(a)の赤外光の投光のタイミングとフレームとが一致している状態、図43の(c)は位相が少し遅れている場合を示している。   43 shows the phase relationship between the timing of light projection by the infrared projector 9 of the imaging apparatus 104M and the frame generated by imaging by the imaging apparatus 104S, as in FIG. 43B shows a state in which the timing of infrared light projection in FIG. 43A coincides with the frame, and FIG. 43C shows a case where the phase is slightly delayed. Yes.

第4実施形態の撮像装置104においては、図43の(d)に示すように位相が大幅に進んだり、大幅に遅れたりする場合がある。   In the imaging device 104 according to the fourth embodiment, the phase may be significantly advanced or significantly delayed as shown in FIG.

第4実施形態の撮像装置104においては、R,G,Bの輝度レベルは、撮像装置104Mの赤外線投光器9が波長IR1の赤外光を投光するタイミングと、撮像装置104SがフレームFIR1,FIR2,FIR3を生成するタイミングとに応じて、図44に示すように変化する。   In the imaging device 104 of the fourth embodiment, the luminance levels of R, G, and B are the timing at which the infrared projector 9 of the imaging device 104M projects infrared light having the wavelength IR1, and the imaging device 104S has the frames FIR1, FIR2. , And FIR3 are generated as shown in FIG.

図35に示す特性は、図44の適正の状態の近傍のみを示したものに相当する。第1〜第3実施形態では、配線長に起因する遅延や遅延時間の差に起因するわずかな投光タイミングのずれを解消すればよい。第4実施形態では、そもそも周波数的な同期しかとれていないので、図44に示すように、かなり大きな量のタイミング調整が必要となる場合がある。   The characteristic shown in FIG. 35 corresponds to that shown only in the vicinity of the proper state of FIG. In the first to third embodiments, it is only necessary to eliminate a slight shift in light projection timing due to a delay due to the wiring length or a difference in delay time. In the fourth embodiment, since only frequency synchronization is obtained in the first place, as shown in FIG. 44, a considerably large amount of timing adjustment may be required.

図45に示すフローチャートを用いて、制御部7によるタイミング調整の処理を説明する。図45において、制御部7(輝度レベル判定部75)は、ステップS101にて、Gの輝度レベルとBの輝度レベルとが同等であるか否かを判定する。   The timing adjustment process by the control unit 7 will be described with reference to the flowchart shown in FIG. In FIG. 45, the control unit 7 (luminance level determination unit 75) determines whether or not the G luminance level and the B luminance level are equal in step S101.

同等であるということは、図44の位相が一致している適正な状態であるPh0の位置、位相が遅れているPh(-3)の位置、位相が進んでいるPh(+3)の位置のいずれかということである。   44 is equivalent to the position of Ph0 in the proper state where the phases in FIG. 44 are in agreement, the position of Ph (-3) where the phase is delayed, and the position of Ph (+3) where the phase is advanced. That is either.

同等であれば(YES)、制御部7は、ステップS102にて、Rの輝度レベルは最低であるか否かを判定する。最低でなければ(NO)、Ph0の位置で適正な状態ということであるので、処理を終了させる。   If they are equal (YES), the control unit 7 determines whether or not the luminance level of R is the lowest in step S102. If it is not the lowest (NO), it is an appropriate state at the position of Ph0, so the processing is terminated.

ステップS102にて最低であれば(YES)、Ph(-3)またはPh(+3)の位置で1/2周期がずれている(遅れているか進んでいる)ことであるので、制御部7(投光制御部71)は、ステップS103にて、タイミングを1/2周期進めるか遅らせる。   If it is the lowest (YES) in step S102, it means that the ½ cycle is shifted (delayed or advanced) at the position of Ph (-3) or Ph (+3). In step S103, the (light projection control unit 71) advances or delays the timing by one-half cycle.

一方、ステップS101にて同等でなければ(NO)、制御部7は、処理をステップS104に移行させる。制御部7は、ステップS103の処理を終了後も、処理をステップS104に移行させる。   On the other hand, if they are not equal in step S101 (NO), the control unit 7 shifts the processing to step S104. The control unit 7 shifts the process to step S104 even after the process of step S103 is completed.

制御部7は、ステップS104にて、Gの輝度レベルはBの輝度レベルより大きいか否かを判定する。Gの輝度レベルがBの輝度レベルより大きければ(YES)、制御部7は、タイミングを少し遅らせて、処理をステップS101に戻す。Gの輝度レベルがBの輝度レベルより大きくなければ(NO)、制御部7は、タイミングを少し進めて、処理をステップS101に戻す。   In step S104, the controller 7 determines whether or not the G luminance level is greater than the B luminance level. If the luminance level of G is larger than the luminance level of B (YES), the control unit 7 delays the timing slightly and returns the process to step S101. If the luminance level of G is not greater than the luminance level of B (NO), the control unit 7 advances the timing a little and returns the process to step S101.

以上のステップS101〜S106を繰り返すことにより、撮像装置104M,104Sの赤外線投光器9による赤外光の投光タイミングを一致させた状態で同期させることができる。   By repeating the above steps S101 to S106, it is possible to synchronize the infrared light projecting timings of the infrared projectors 9 of the imaging devices 104M and 104S in a matched state.

撮像装置104Sは、タイミング調整モードを解除した後、タイミング調整モードで求めて保持した調整量だけ撮像装置104Sを動作させるタイミングをずらすよう各部を制御する。   After canceling the timing adjustment mode, the imaging device 104S controls each unit to shift the timing for operating the imaging device 104S by the adjustment amount obtained and held in the timing adjustment mode.

なお、撮像装置とは別体の装置から、基準クロックを出力し、各撮像装置でその基準クロックを受信するようにしてもよい。例えば、複数の撮像装置の画像を切り換えて表示するためのスイッチャ等が基準クロックを生成して出力するようにしてもよい。また、基準クロックを出力する撮像装置と、タイミング調整モードでマスタとして動作する撮像装置とが別のものであってもよい。   Note that a reference clock may be output from a device separate from the imaging device, and each imaging device may receive the reference clock. For example, a switcher or the like for switching and displaying images of a plurality of imaging devices may generate and output a reference clock. Further, the imaging device that outputs the reference clock and the imaging device that operates as a master in the timing adjustment mode may be different.

<第5実施形態の撮像装置の構成及び動作>
図46に示す第5実施形態の撮像装置105において、図1に示す第1実施形態の撮像装置101と同一部分には同一符号を付し、その説明を省略する。図29に示すように、複数台の撮像装置105によって撮像システムを構成することができる。
<Configuration and Operation of Imaging Device of Fifth Embodiment>
In the imaging device 105 of the fifth embodiment shown in FIG. 46, the same parts as those of the imaging device 101 of the first embodiment shown in FIG. As shown in FIG. 29, an imaging system can be configured by a plurality of imaging devices 105.

撮像装置105は、商用交流電源からの電力に基づいて、撮像装置105の各部に必要な電力を供給する電源回路15を備える。撮像装置105は、交流電圧の周波数に同期した基準クロックを生成して、撮像装置105を動作させる。よって、マスタの撮像装置105Mとスレーブの撮像装置105Sとの周波数的な同期をとることができる。   The imaging device 105 includes a power supply circuit 15 that supplies necessary power to each unit of the imaging device 105 based on power from a commercial AC power source. The imaging device 105 generates a reference clock synchronized with the frequency of the AC voltage and operates the imaging device 105. Therefore, it is possible to achieve frequency synchronization between the master imaging device 105M and the slave imaging device 105S.

撮像装置105Sは、第4実施形態と同じ方法で、赤外線投光器9による赤外光の投光タイミングを調整する。これによって、撮像装置105M,105Sは、それぞれの赤外線投光器9による赤外光の投光タイミングを一致させた状態で同期させることができる。   The imaging device 105S adjusts the infrared light projection timing by the infrared projector 9 in the same manner as in the fourth embodiment. As a result, the imaging devices 105M and 105S can be synchronized in a state in which the timing of projecting infrared light by the respective infrared projectors 9 is matched.

<第6実施形態の撮像装置の構成及び動作>
図47に示す第6実施形態の撮像装置106において、図1に示す第1実施形態の撮像装置101と同一部分には同一符号を付し、その説明を省略する。図29に示すように、複数台の撮像装置106によって撮像システムを構成することができる。
<Configuration and Operation of Imaging Device of Sixth Embodiment>
In the imaging device 106 of the sixth embodiment shown in FIG. 47, the same parts as those of the imaging device 101 of the first embodiment shown in FIG. As shown in FIG. 29, an imaging system can be configured by a plurality of imaging devices 106.

撮像装置106は、全地球航法衛星システム(Global Navigation Satellite System: GNSS)用の衛星200からの電波を受信するアンテナ16aと、アンテナ16aが出力するGNSS信号を受信するGNSS受信部16とを備える。GNSS信号は一般的にRF信号である。GNSSは、一例としてGPS(Global Positioning System)である。   The imaging device 106 includes an antenna 16a that receives radio waves from a satellite 200 for Global Navigation Satellite System (GNSS), and a GNSS receiver 16 that receives a GNSS signal output from the antenna 16a. The GNSS signal is generally an RF signal. GNSS is GPS (Global Positioning System) as an example.

GNSS受信部16は、衛星200からの電波に含まれる時刻情報に基づいてクロック信号を生成する。衛星200から送信される時刻情報は、衛星200に内蔵されている原子時計と高精度に同期している。GNSS受信部16は、原子時計と高精度に同期するクロック信号を制御部7に供給する。制御部7は、このクロック信号を基準クロックとする。制御部7は、基準クロックに基づいて撮像装置106を動作させる。   The GNSS receiver 16 generates a clock signal based on time information included in the radio wave from the satellite 200. The time information transmitted from the satellite 200 is synchronized with the atomic clock built in the satellite 200 with high accuracy. The GNSS receiver 16 supplies a clock signal synchronized with the atomic clock with high accuracy to the controller 7. The control unit 7 uses this clock signal as a reference clock. The control unit 7 operates the imaging device 106 based on the reference clock.

よって、マスタの撮像装置106Mとスレーブの撮像装置106Sとの周波数的な同期をとることができる。   Therefore, frequency synchronization between the master imaging device 106M and the slave imaging device 106S can be achieved.

撮像装置106Sは、第4実施形態と同じ方法で、赤外線投光器9による赤外光の投光タイミングを調整する。これによって、撮像装置106M,106Sは、それぞれの赤外線投光器9による赤外光の投光タイミングを一致させた状態で同期させることができる。   The imaging device 106S adjusts the infrared light projection timing by the infrared projector 9 in the same manner as in the fourth embodiment. As a result, the imaging devices 106M and 106S can be synchronized in a state in which the timing of projecting infrared light by the respective infrared projectors 9 is matched.

<第7実施形態の撮像装置の構成及び動作>
第4〜第6実施形態の撮像装置104〜106では、共通の基準クロックによって周波数的な同期をとることを前提としている。第7実施形態においては、複数の撮像装置で共通の基準クロックを用いない。第7実施形態の撮像装置は、複数の撮像装置それぞれが個別に、高精度な基準クロックを発生する基準クロック発生源を備える。
<Configuration and Operation of Imaging Device of Seventh Embodiment>
In the imaging devices 104 to 106 according to the fourth to sixth embodiments, it is assumed that frequency synchronization is achieved by a common reference clock. In the seventh embodiment, a common reference clock is not used in a plurality of imaging devices. The imaging apparatus according to the seventh embodiment includes a reference clock generation source that individually generates a highly accurate reference clock.

高精度な基準クロックを発生する基準クロック発生源としては、一例として、水晶発振器である。   As an example, a reference clock generation source that generates a highly accurate reference clock is a crystal oscillator.

第7実施形態複数の撮像装置は、定期的に、第4実施形態と同じ方法で、投光タイミングを一致させるよう投光タイミングを調整する。複数の撮像装置の投光タイミングのずれの許容度に応じて、投光タイミングを調整する時間間隔を設定すればよい。   Seventh Embodiment A plurality of imaging apparatuses periodically adjust the light projection timing so as to match the light projection timing with the same method as in the fourth embodiment. What is necessary is just to set the time interval which adjusts a light projection timing according to the tolerance | permissibility of the shift | offset | difference of the light projection timing of a some imaging device.

高い色再現性が求められる場合には位相のずれの許容度が小さくなるので、時間間隔を極力短く設定するのがよい。さほどの高い色再現性が求められない場合には位相のずれの許容度が大きくなるので、時間間隔を比較的長く設定してもよい。   When high color reproducibility is required, the tolerance of phase shift is reduced, so it is preferable to set the time interval as short as possible. When such a high color reproducibility is not required, the tolerance of phase shift increases, so the time interval may be set relatively long.

<第8実施形態の撮像装置の構成及び動作>
図48に示す第8実施形態の撮像装置108において、図1に示す第1実施形態の撮像装置101と同一部分には同一符号を付し、その説明を省略する。
<Configuration and Operation of Imaging Device of Eighth Embodiment>
In the imaging device 108 of the eighth embodiment shown in FIG. 48, the same parts as those of the imaging device 101 of the first embodiment shown in FIG.

第8実施形態の撮像装置108は、第1実施形態の撮像装置101における同期信号送信部76tを省略した構成を有する。同期信号受信部76rは、外部の同期信号供給装置より供給される同期信号Ssyncを受信する。   The imaging device 108 of the eighth embodiment has a configuration in which the synchronization signal transmission unit 76t in the imaging device 101 of the first embodiment is omitted. The synchronization signal receiving unit 76r receives a synchronization signal Ssync supplied from an external synchronization signal supply device.

図49は、複数の撮像装置108と、複数の撮像装置108それぞれに同期信号Ssyncを供給する同期信号供給装置とを備える撮像システムの構成例を示している。図49においては、一例としてカメラ切換器180が同期信号供給装置となっている。カメラ切換器180には、表示部280が接続されている。   FIG. 49 illustrates a configuration example of an imaging system including a plurality of imaging devices 108 and a synchronization signal supply device that supplies a synchronization signal Ssync to each of the plurality of imaging devices 108. In FIG. 49, as an example, the camera switch 180 is a synchronization signal supply device. A display unit 280 is connected to the camera switcher 180.

通常、複数の撮像装置(例えば監視カメラ)によって撮像システムを構成する場合には、複数の撮像装置から出力される映像信号の1または複数を選択して表示部280に表示するために、いわゆるスイッチャと称されるカメラ切換器180を備える。   Normally, when an imaging system is configured by a plurality of imaging devices (for example, surveillance cameras), in order to select one or more video signals output from the plurality of imaging devices and display them on the display unit 280, a so-called switcher is used. The camera switcher 180 called.

そこで、カメラ切換器180を複数の撮像装置108それぞれに同期信号Ssyncを供給する同期信号供給装置とするのは好都合である。   Therefore, it is convenient to use the camera switch 180 as a synchronization signal supply device that supplies the synchronization signal Ssync to each of the plurality of imaging devices 108.

図49に示すように、カメラ切換器180は、映像切換部181と、同期信号Ssyncを発生する同期信号発生部182を備える。それぞれの撮像装置108より出力された映像信号Svideoは、映像切換部181に入力される。   As shown in FIG. 49, the camera switching unit 180 includes a video switching unit 181 and a synchronization signal generation unit 182 that generates a synchronization signal Ssync. The video signal Svideo output from each imaging device 108 is input to the video switching unit 181.

なお、一例として、各撮像装置108は、同期信号Ssyncに同期したフレーム周期及び位相で映像信号Svideoを出力するようにしている。このようにすれば、例えば、本実施形態のように赤外光を順次発光させて撮影を行う撮像装置108と、赤外光を用いない通常の撮影を行う撮像装置とが混在するような場合でも、スムーズに映像を切り換えたり、複数の映像を同時に表示したりすることができる。   As an example, each imaging device 108 outputs the video signal Svideo with a frame period and phase synchronized with the synchronization signal Ssync. In this case, for example, as in the present embodiment, when the imaging device 108 that performs imaging by sequentially emitting infrared light and the imaging device that performs normal imaging without using infrared light are mixed. However, you can switch between images smoothly and display multiple images simultaneously.

映像切換部181は、複数の映像信号Svideoの1または複数を選択し、映像出力端子183へと出力する。映像出力端子183には、表示部280が接続されており、映像切換部181が選択した映像信号Svideoが表示される。   The video switching unit 181 selects one or a plurality of video signals Svideo and outputs them to the video output terminal 183. A display unit 280 is connected to the video output terminal 183, and the video signal Svideo selected by the video switching unit 181 is displayed.

映像切換部181は、例えば表示部280の画面を4分割してそれぞれの領域に映像信号Svideoを表示するよう、4つの映像信号Svideoのそれぞれのフレームを縮小して1フレームに合成してもよい。表示部280の画面の分割数は任意である。   For example, the video switching unit 181 may divide each frame of the four video signals Svideo into one frame so that the screen of the display unit 280 is divided into four and the video signal Svideo is displayed in each region. . The number of screen divisions of the display unit 280 is arbitrary.

カメラ切換器180は、それぞれの撮像装置108より出力された映像信号Svideoを個別に出力する個別映像出力端子184を有する。個別映像出力端子184は省略可能である。   The camera switcher 180 has an individual video output terminal 184 for individually outputting the video signal Svideo output from each imaging device 108. The individual video output terminal 184 can be omitted.

同期信号発生部182が発生する同期信号Ssyncは、図50の(a)に示すように、フレーム周期である。図33の(a)に示す同期信号Ssyncは正パルスとしたが、図50の(a)に示す同期信号Ssyncは負パルスとしている。勿論、同期信号発生部182が発生する同期信号Ssyncも、正パルスとしてもよい。   The synchronization signal Ssync generated by the synchronization signal generator 182 has a frame period as shown in FIG. Although the synchronization signal Ssync shown in FIG. 33A is a positive pulse, the synchronization signal Ssync shown in FIG. 50A is a negative pulse. Of course, the synchronization signal Ssync generated by the synchronization signal generator 182 may also be a positive pulse.

図50の(b)に示すように、撮像装置108より出力される映像信号Svideoは、一例として、1フレームが奇数フィールドと偶数フィールドの2フィールドより構成されるインターレース方式であるとする。   As shown in FIG. 50B, the video signal Svideo output from the imaging device 108 is assumed to be an interlace method in which one frame is composed of two fields of an odd field and an even field.

図51を用いて、各撮像装置108における赤外光の投光タイミングと、映像信号Svideoの生成タイミングとの関係の一例を説明する。撮像装置108の投光制御部71は、同期信号Ssyncを基準としたタイミングで、赤外光を選択的に投光するよう制御する。   An example of the relationship between the infrared light projection timing and the generation timing of the video signal Svideo in each imaging apparatus 108 will be described with reference to FIG. The light projection control unit 71 of the imaging device 108 performs control so that infrared light is selectively projected at a timing based on the synchronization signal Ssync.

図51の(b),(c)に示すように、赤外線投光器9が波長IR1〜IR3の赤外光を順に投光し、撮像部3が被写体を撮像してから、撮像装置108が映像信号Svideoを出力するまでには、1.5フレーム程度の時間を要する。図51の(b)に示す波長IR1〜IR3の組IRset1に基づいて得られる映像信号Svideoのフレームは、図51の(c)に示すフレームF11となる。   As shown in FIGS. 51B and 51C, the infrared projector 9 sequentially projects infrared light with wavelengths IR1 to IR3, the imaging unit 3 images the subject, and then the imaging device 108 receives the video signal. It takes about 1.5 frames to output Svideo. The frame of the video signal Svideo obtained based on the set IRset1 of the wavelengths IR1 to IR3 shown in (b) of FIG. 51 is a frame F11 shown in (c) of FIG.

そこで、図51の(a),(b)に示すように、各撮像装置108の各投光制御部71は、同期信号Ssyncを受信したら、0.5フレーム程度の時間t11経過後に、波長IR1の赤外光を投光させるのがよい。   Therefore, as shown in FIGS. 51A and 51B, when the light projection control unit 71 of each imaging apparatus 108 receives the synchronization signal Ssync, after the time t11 of about 0.5 frame has elapsed, the wavelength IR1 It is better to project the infrared light.

なお、時間t11を0.5フレームより長くすると、波長IR1〜IR3の組IRset1に基づいて映像信号SvideoのフレームF11を得ることができず、次のタイミングのフレームF12としなければならない。そのためには、遅延用のバッファメモリの容量が大きくなる。   If the time t11 is longer than 0.5 frame, the frame F11 of the video signal Svideo cannot be obtained based on the set IRset1 of the wavelengths IR1 to IR3, and must be the frame F12 of the next timing. For this purpose, the capacity of the buffer memory for delay increases.

時間t11を0.5フレームより短くした場合には、波長IR1〜IR3の組IRset1に基づいて映像信号SvideoのフレームF11を得ることができる。しかしながら、この場合には、時間t11を短くすることによる遅延量が増えるため、バッファメモリの容量が大きくなる。   When the time t11 is shorter than 0.5 frame, the frame F11 of the video signal Svideo can be obtained based on the set IRset1 of the wavelengths IR1 to IR3. However, in this case, since the amount of delay due to shortening the time t11 increases, the capacity of the buffer memory increases.

従って、波長IR1〜IR3のそれぞれの組に基づいて映像信号Svideoのフレームを生成するのに必要な時間に合わせて、時間t11を設定するのがよい。   Therefore, it is preferable to set the time t11 in accordance with the time required to generate the frame of the video signal Svideo based on each set of wavelengths IR1 to IR3.

図51では、同期信号Ssyncと波長IR1の赤外光の投光タイミングとの時間t11を設定しているが、同期信号Ssyncと波長IR2またはIR3の赤外光の投光タイミングとの時間を設定してもよい。   In FIG. 51, the time t11 between the synchronization signal Ssync and the infrared light projection timing of the wavelength IR1 is set, but the time between the synchronization signal Ssync and the infrared light projection timing of the wavelength IR2 or IR3 is set. May be.

波長IR1〜IR3の組IRset1に基づいて生成する映像信号Svideoのフレームを、所定の理由により意図的に、フレームF11ではなくフレームF12としてもよい。   The frame of the video signal Svideo generated based on the set IRset1 of the wavelengths IR1 to IR3 may be intentionally the frame F12 instead of the frame F11 for a predetermined reason.

ところで、図49における複数の撮像装置108として、波長IR1〜IR3の組IRset1に基づいてフレームF11を生成する撮像装置108と、フレームF12を生成する撮像装置108とが混在していても構わない。   By the way, as the plurality of imaging devices 108 in FIG. 49, the imaging device 108 that generates the frame F11 based on the set IRset1 of the wavelengths IR1 to IR3 and the imaging device 108 that generates the frame F12 may be mixed.

図49に示す撮像システムにおいては、複数の撮像装置108それぞれに共通の同期信号Ssyncが供給されている。従って、第1〜第3実施形態の撮像装置101〜103と同様に、複数の撮像装置108は、原理的には、それぞれの赤外線投光器9による赤外光の投光を同期させて、波長IR1,IR2,IR3の赤外光を投光するタイミングを一致させることができる。   In the imaging system shown in FIG. 49, a common synchronization signal Ssync is supplied to each of the plurality of imaging devices 108. Therefore, in a manner similar to the imaging devices 101 to 103 of the first to third embodiments, the plurality of imaging devices 108 in principle synchronize the infrared light projections by the respective infrared projectors 9 to obtain the wavelength IR1. , IR2 and IR3 can be made to coincide with the timing of projecting infrared light.

波長IR1,IR2,IR3の赤外光を投光するタイミングにずれが生じる場合には、図35を参照して説明したように、制御部7が赤外線投光器9及び前信号処理部52を動作させるタイミングを進ませたり、遅らせたりすればよい。なお、多少のタイミングのずれであれば映像品質への影響は少ないため、調整しなくてもよい。   When there is a deviation in the timing of projecting infrared light of wavelengths IR1, IR2, and IR3, the control unit 7 operates the infrared projector 9 and the pre-signal processing unit 52 as described with reference to FIG. You can advance or delay the timing. It should be noted that since there is little influence on the video quality if there is a slight timing shift, there is no need for adjustment.

<第1〜第3実施形態の撮像装置のまとめ>
第1〜第3実施形態において、マスタの撮像装置101M〜103Mは、次のように構成される。
<Summary of Imaging Apparatus of First to Third Embodiments>
In the first to third embodiments, the master imaging devices 101M to 103M are configured as follows.

投光制御部71は、波長IR1〜IR3の赤外光を、所定の期間を3分割した3つの分割期間で選択的に投光させるそれぞれの分割期間の長さと順番とを制御するよう、赤外線投光器9を制御する。   The light projection control unit 71 controls the length and order of each divided period in which infrared light having wavelengths IR1 to IR3 is selectively projected in three divided periods obtained by dividing a predetermined period into three. The projector 9 is controlled.

撮像部3は、波長IR1〜IR3の赤外光の赤外光が選択的に投光されている状態で被写体を撮像する。同期信号送信部76t,9Bt,9Ctは、装置の外部、具体的には、マスタの撮像装置101M〜103M以外の他の撮像装置(スレーブの撮像装置101S〜103S)に同期信号を送信する。同期信号は、スレーブ側の撮像装置が備える投光制御部71が赤外線投光器9によって赤外光を投光させるタイミングを、マスタ側の投光制御部71が赤外線投光器9によって赤外光を投光させるタイミングと同期させるために用いられる。   The imaging unit 3 images the subject in a state where infrared light with wavelengths IR1 to IR3 is selectively projected. The synchronization signal transmission units 76t, 9Bt, and 9Ct transmit a synchronization signal to the outside of the apparatus, specifically, to other imaging apparatuses (slave imaging apparatuses 101S to 103S) other than the master imaging apparatuses 101M to 103M. The synchronization signal indicates the timing at which the light projection control unit 71 included in the slave-side imaging device projects infrared light by the infrared projector 9, and the master light projection control unit 71 projects infrared light by the infrared projector 9. It is used to synchronize with the timing.

マスタの撮像装置101M〜103Mが、スレーブ側の投光制御部71がスレーブ側の赤外線投光器9によって赤外光を投光させるタイミングを調整するためのタイミング調整モードに設定されているとき、投光制御部71は赤外線投光器9を次のように制御する。投光制御部71は、波長IR1〜IR3の赤外光のうちの1つの赤外光のみを3つの分割期間における1つの分割期間内で投光させ、残りの2つの分割期間を無投光とする。   When the master imaging devices 101M to 103M are set to the timing adjustment mode for adjusting the timing at which the slave-side light projection control unit 71 projects infrared light by the slave-side infrared projector 9, The control unit 71 controls the infrared projector 9 as follows. The light projection control unit 71 projects only one infrared light of the infrared light with wavelengths IR1 to IR3 within one divided period in the three divided periods, and does not project the remaining two divided periods. And

マスタの撮像装置101M,102M,103Mにおける投光制御部71、赤外線投光器9を第1の投光制御部、第1の赤外線投光器とすると、スレーブの撮像装置101S〜103Sにおける投光制御部71、赤外線投光器9は、第2の投光制御部、第2の赤外線投光器である。   When the light projecting control unit 71 and the infrared projector 9 in the master imaging devices 101M, 102M, and 103M are the first light projecting control unit and the first infrared projector, the light projecting control unit 71 in the slave image capturing devices 101S to 103S, The infrared projector 9 is a second light projection control unit and a second infrared projector.

第1〜第3実施形態において、スレーブの撮像装置101S〜103Sは、次のように構成される。   In the first to third embodiments, the slave imaging devices 101S to 103S are configured as follows.

投光制御部71は、波長IR1〜IR3の赤外光を、所定の期間を3分割した3つの分割期間で選択的に投光させるそれぞれの分割期間の長さと順番とを制御するよう、赤外線投光器9を制御する。   The light projection control unit 71 controls the length and order of each divided period in which infrared light having wavelengths IR1 to IR3 is selectively projected in three divided periods obtained by dividing a predetermined period into three. The projector 9 is controlled.

撮像部3は、波長IR1〜IR3の赤外光の赤外光が選択的に投光されている状態で被写体を撮像する。映像処理部5は、撮像部3によって撮像された撮像信号に基づいてR,G,Bそれぞれの映像信号を生成する。   The imaging unit 3 images the subject in a state where infrared light with wavelengths IR1 to IR3 is selectively projected. The video processing unit 5 generates R, G, and B video signals based on the imaging signal captured by the imaging unit 3.

同期信号受信部76r,9Br,9Crは、スレーブの撮像装置101S〜103S以外の他の撮像装置(マスタの撮像装置101M〜103M)が送信した同期信号を受信する。同期信号は、スレーブ側の投光制御部71が赤外線投光器9によって赤外光を投光させるタイミングを、マスタ側の投光制御部71が赤外線投光器9によって赤外光を投光させるタイミングと同期させるために用いられる。   The synchronization signal receivers 76r, 9Br, and 9Cr receive synchronization signals transmitted by other imaging devices (master imaging devices 101M to 103M) other than the slave imaging devices 101S to 103S. The synchronization signal is synchronized with the timing at which the slave-side projection control unit 71 projects infrared light by the infrared projector 9 and the timing at which the master-side projection control unit 71 projects infrared light by the infrared projector 9. Used to make

スレーブの撮像装置101S〜103Sは、映像処理部5が生成したR,G,Bの映像信号の輝度レベルを判定する輝度レベル判定部75を備えるのがよい。スレーブの撮像装置101S〜103Sが、投光制御部71が赤外線投光器9によって赤外光を投光させるタイミングを調整するためのタイミング調整モードに設定されているとき、次のように動作するのがよい。   The slave imaging devices 101S to 103S may include a luminance level determination unit 75 that determines the luminance level of the R, G, and B video signals generated by the video processing unit 5. The slave imaging devices 101S to 103S operate as follows when the projection control unit 71 is set to the timing adjustment mode for adjusting the timing at which the infrared projector 9 projects infrared light. Good.

投光制御部71は、赤外光を無投光とするよう赤外線投光器9を制御する。撮像部3は、マスタ側の赤外線投光器9が波長IR1〜IR3の赤外光のうちの1つの赤外光のみを3つの分割期間における1つの分割期間内で投光し、残りの2つの分割期間を無投光とした状態で被写体を撮像する。   The light projection control unit 71 controls the infrared projector 9 so that infrared light is not projected. In the imaging unit 3, the infrared projector 9 on the master side projects only one infrared light of the infrared light with wavelengths IR1 to IR3 within one divided period in the three divided periods, and the remaining two divided parts. The subject is imaged in a state where the period is not projected.

または、撮像部3は、マスタ側の赤外線投光器9が全ての波長の赤外光を投光して、赤外線カットフィルタ21を介することによって実質的に1つの波長の赤外光のみが投光されている状態として被写体を撮像する。赤外線カットフィルタ21とは、スレーブの撮像装置101S〜103Sに備えられている赤外線カットフィルタ21である。   Alternatively, in the imaging unit 3, the infrared projector 9 on the master side projects infrared light of all wavelengths, and substantially only one wavelength of infrared light is projected through the infrared cut filter 21. The subject is imaged as if The infrared cut filter 21 is the infrared cut filter 21 provided in the slave imaging devices 101S to 103S.

投光制御部は、輝度レベル判定部75が判定したR,G,Bの映像信号の輝度レベルに基づいて、赤外光を投光させるタイミングを調整する。   The light projection control unit adjusts the timing of projecting the infrared light based on the luminance levels of the R, G, and B video signals determined by the luminance level determination unit 75.

スレーブの撮像装置101S〜103Sにおける投光制御部71、赤外線投光器9を第1の投光制御部、第1の赤外線投光器とすると、マスタの撮像装置101M〜103Mにおける投光制御部71、赤外線投光器9は、第2の投光制御部、第2の赤外線投光器である。   Assuming that the light projection control unit 71 and the infrared projector 9 in the slave imaging devices 101S to 103S are the first light projection control unit and the first infrared projector, the light projection control unit 71 and the infrared projector in the master imaging devices 101M to 103M. Reference numeral 9 denotes a second light projection control unit and a second infrared projector.

<第1〜第7実施形態のスレーブの撮像装置のまとめ>
第1〜第6実施形態のスレーブの撮像装置101S〜106S及び第7実施形態のスレーブの撮像装置は、投光制御部71(第1の投光制御部)と、撮像部3と、映像処理部5と、輝度レベル判定部75とを備える。スレーブの撮像装置は、タイミング調整モードに設定されているとき、次のように動作する。投光制御部71は、波長IR1〜IR3の赤外光を無投光とするよう赤外線投光器9(第1の赤外線投光器)を制御する。
<Summary of Slave Imaging Device of First to Seventh Embodiments>
The slave imaging devices 101S to 106S of the first to sixth embodiments and the slave imaging device of the seventh embodiment include a light projection control unit 71 (first light projection control unit), an imaging unit 3, and video processing. Unit 5 and a luminance level determination unit 75. The slave imaging device operates as follows when it is set to the timing adjustment mode. The light projection control unit 71 controls the infrared light projector 9 (first infrared light projector) so that infrared light with wavelengths IR1 to IR3 is not projected.

撮像部3は、他の撮像装置が備える投光制御部71によって制御される赤外線投光器9が波長IR1〜IR3の赤外光のうちの1つの赤外光のみを3つの分割期間における1つの分割期間内で投光し、残りの2つの分割期間を無投光とした状態で被写体を撮像する。   In the imaging unit 3, the infrared projector 9 controlled by the projection control unit 71 provided in another imaging apparatus only divides one infrared light of the infrared light of wavelengths IR1 to IR3 into three divided periods. The subject is imaged in a state where light is projected within the period and the remaining two divided periods are not projected.

他の撮像装置とは、マスタの撮像装置101M〜106M及び第7実施形態のマスタの撮像装置である。マスタの撮像装置における投光制御部71は第2の投光制御部であり、マスタの撮像装置における赤外線投光器9は第2の赤外線投光器である。   The other imaging devices are the master imaging devices 101M to 106M and the master imaging device of the seventh embodiment. The light projection control unit 71 in the master imaging device is a second light projection control unit, and the infrared projector 9 in the master imaging device is a second infrared projector.

または、撮像部3は、第2の赤外線投光器が波長IR1〜IR3の赤外光を投光して、赤外線カットフィルタを介した状態で被写体を撮像する。   Alternatively, in the imaging unit 3, the second infrared projector projects infrared light with wavelengths IR1 to IR3 and images the subject through the infrared cut filter.

投光制御部71は、輝度レベル判定部75が判定したR,G,Bの映像信号の輝度レベルに基づいて、波長IR1〜IR3の赤外光を投光させるタイミングを調整する。   The light projection control unit 71 adjusts the timing of projecting infrared light with wavelengths IR1 to IR3 based on the luminance levels of the R, G, and B video signals determined by the luminance level determination unit 75.

第1の投光制御部は、輝度レベル判定部75が次のように判定した状態となるように、赤外光を投光させるタイミングを調整するのがよい。第2の赤外線投光器が投光したRに対応付けられた色以外の2つの色の映像信号の輝度レベルが同等の第1のレベルである。かつ、第2の赤外線投光器が投光したRに対応付けられた色の映像信号の輝度レベルが第1のレベルより大きい第2のレベルである。   The first light projection control unit may adjust the timing of projecting the infrared light so that the brightness level determination unit 75 determines as follows. The luminance levels of the video signals of two colors other than the color associated with R projected by the second infrared projector are the same first level. In addition, the luminance level of the video signal of the color corresponding to R projected by the second infrared projector is a second level higher than the first level.

<第1〜第7実施形態の撮像装置の制御方法のまとめ>
複数の撮像装置を備える撮像システムに用いる撮像装置の制御方法は次のとおりである。複数の撮像装置それぞれが、個々の赤外線投光器9によって、波長IR1〜IR3の赤外光を、所定の期間を3分割した3つの分割期間で選択的に投光させるタイミングを互いに同期させる。複数の撮像装置それぞれによって、波長IR1〜IR3の赤外光が選択的に投光されている状態で被写体を撮像させる。
<Summary of Control Method of Imaging Device of First to Seventh Embodiments>
An imaging device control method used in an imaging system including a plurality of imaging devices is as follows. Each of the plurality of imaging devices synchronizes with each other the timings of selectively projecting infrared light of wavelengths IR1 to IR3 in three divided periods obtained by dividing the predetermined period into three by the individual infrared projectors 9. The subject is imaged by each of the plurality of imaging devices in a state where infrared light with wavelengths IR1 to IR3 is selectively projected.

<第4〜第6実施形態の撮像装置の制御方法のまとめ>
複数の撮像装置を備える撮像システムに用いる撮像装置の制御方法は次のとおりである。複数の撮像装置を共通の基準クロックで動作させる。複数の撮像装置のうちの1つの撮像装置をマスタの撮像装置とし、マスタの撮像装置以外をスレーブの撮像装置とする。
<Summary of Control Method of Imaging Device of Fourth to Sixth Embodiments>
An imaging device control method used in an imaging system including a plurality of imaging devices is as follows. A plurality of imaging devices are operated with a common reference clock. One imaging device among the plurality of imaging devices is a master imaging device, and a device other than the master imaging device is a slave imaging device.

マスタの撮像装置が備える第1の投光制御部が第1の赤外線投光器を制御して、波長IR1〜IR3の赤外光とのうちの1つの赤外光のみを、所定の期間を3分割した3つの分割期間における1つの分割期間内で投光させ、残りの2つの分割期間を無投光とする。または、波長IR1〜IR3の赤外光を3つの分割期間でそれぞれ投光させる。   A first light projection control unit included in the master imaging device controls the first infrared light projector, and only one infrared light of wavelengths IR1 to IR3 is divided into three for a predetermined period. The light is projected within one divided period in the three divided periods, and the remaining two divided periods are set to no light projection. Alternatively, infrared light having wavelengths IR1 to IR3 is projected in three divided periods.

スレーブの撮像装置が備える第2の投光制御部が波長IR1〜IR3の赤外光を無投光とするよう第2の赤外線投光器を制御する。   A second light projection control unit included in the slave imaging device controls the second infrared light projector so that infrared light with wavelengths IR1 to IR3 is not projected.

スレーブの撮像装置が備える撮像部3が、1つの赤外光のみが投光されている状態か、波長IR1〜IR3の赤外光を、赤外線カットフィルタを介した状態で被写体を撮像する。スレーブの撮像装置が備える輝度レベル判定部75が、撮像部3によって撮像された撮像信号に基づいて生成されたR,G,Bそれぞれの映像信号の輝度レベルを判定する。   The image capturing unit 3 included in the slave image capturing apparatus captures an image of a subject in a state where only one infrared light is being projected or infrared light having wavelengths IR1 to IR3 is passed through an infrared cut filter. A luminance level determination unit 75 included in the slave imaging device determines the luminance level of each of the R, G, and B video signals generated based on the imaging signal captured by the imaging unit 3.

第2の投光制御部が、輝度レベル判定部75が判定したR,G,Bの映像信号の輝度レベルに基づいて、第2の赤外線投光器によって波長IR1〜IR3の赤外光を投光させるタイミングを調整する。   Based on the luminance level of the R, G, and B video signals determined by the luminance level determination unit 75, the second light projection control unit projects infrared light with wavelengths IR1 to IR3 by the second infrared projector. Adjust timing.

<第8実施形態の撮像システムのまとめ>
撮像システムは、複数の撮像装置108と、複数の撮像装置それぞれに同期信号Ssyncを供給する同期信号供給装置とを備える。
<Summary of Imaging System of Eighth Embodiment>
The imaging system includes a plurality of imaging devices 108 and a synchronization signal supply device that supplies a synchronization signal Ssync to each of the plurality of imaging devices.

複数の撮像装置108それぞれより出力される映像信号Svideoを切り換えるカメラ切換器180内に同期信号発生部182を設けることにより、カメラ切換器180を同期信号供給装置とするのが都合がよい。   It is convenient to use the camera switch 180 as a synchronization signal supply device by providing a synchronization signal generator 182 in the camera switch 180 that switches the video signal Svideo output from each of the plurality of imaging devices 108.

複数の撮像装置108は、それぞれ、同期信号Ssyncを受信する同期信号受信部76rと、投光制御部71と、撮像部3とを備える。投光制御部71は、複数の赤外光を投光可能な赤外線投光器9を、同期信号受信部76rが受信した同期信号Ssyncを基準としたタイミングで、赤外光を選択的に投光するよう制御する。撮像部3は、赤外線投光器9によって赤外光が投光されている状態で被写体を撮像する。   Each of the plurality of imaging devices 108 includes a synchronization signal receiving unit 76r that receives the synchronization signal Ssync, a light projection control unit 71, and the imaging unit 3. The light projecting control unit 71 selectively projects the infrared light at the timing based on the synchronization signal Ssync received by the synchronization signal receiving unit 76r from the infrared projector 9 capable of projecting a plurality of infrared lights. Control as follows. The imaging unit 3 images the subject in a state where infrared light is projected by the infrared projector 9.

本発明は以上説明した本実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。例えば、図1,図38,図40,図41,図46,図47,図48に示す撮像装置において、赤外線投光器9を撮像装置の筐体と着脱自在にしてもよい。赤外線投光器9を、撮像装置外部の構成としてもよい。撮像装置は、赤外線投光器9を装着したときに、赤外線投光器9を制御する構成を有すればよい。   The present invention is not limited to the embodiment described above, and various modifications can be made without departing from the scope of the present invention. For example, in the imaging device shown in FIGS. 1, 38, 40, 41, 46, 47, and 48, the infrared projector 9 may be detachable from the housing of the imaging device. The infrared projector 9 may be configured outside the imaging apparatus. The imaging device may have a configuration for controlling the infrared projector 9 when the infrared projector 9 is attached.

また、複数の撮像装置における赤外光を投光させるタイミングを同期させるには、赤外光を発光させるタイミングと消灯させるタイミングとを完全に一致させなくてもよい。マスタの撮像装置における所定の赤外光に対応する露光区間において、スレーブの撮像装置が、その所定の赤外光以外の赤外光を投光しないようにすればよい。   In addition, in order to synchronize the timing of projecting infrared light in a plurality of imaging devices, the timing of emitting infrared light and the timing of turning off the light do not have to be completely matched. It is only necessary that the slave imaging device does not project infrared light other than the predetermined infrared light in the exposure section corresponding to the predetermined infrared light in the master imaging device.

撮影に影響が少ない程度の時間であれば、マスタの撮像装置における所定の赤外光に対応する露光区間において、スレーブの撮像装置が、その所定の赤外光以外の赤外光を投光することを許容してもよい。   If the time has a little influence on shooting, the slave imaging device projects infrared light other than the predetermined infrared light in the exposure section corresponding to the predetermined infrared light in the master imaging device. You may allow that.

例えば、マスタの撮像装置における所定の赤外光に対応する露光区間の少なくとも半分以上の区間において、スレーブの撮像装置が、その所定の赤外光以外の赤外光を投光しないようにすればよい。   For example, if the slave imaging device does not project infrared light other than the predetermined infrared light in at least half of the exposure interval corresponding to the predetermined infrared light in the master imaging device. Good.

さらに、本発明は以上説明した本実施形態に限定されるものではなく、赤外光を用いた他の撮像技術にも適用可能である。制御部7や映像処理部5は、1または複数のハードウェアのプロセッサを用いて実現することができる。   Furthermore, the present invention is not limited to the present embodiment described above, and can be applied to other imaging techniques using infrared light. The control unit 7 and the video processing unit 5 can be realized by using one or a plurality of hardware processors.

以上の説明において、マスタとスレーブの定義は各実施形態において異なっていてもよい。   In the above description, the definition of master and slave may be different in each embodiment.

3 撮像部
9 赤外線投光器
71 投光制御部
76r 同期信号受信部
108 撮像装置
180 カメラ切換器(同期信号供給装置)
DESCRIPTION OF SYMBOLS 3 Image pick-up part 9 Infrared projector 71 Light projection control part 76r Sync signal receiving part 108 Image pick-up device 180 Camera switcher (synchronization signal supply apparatus)

Claims (4)

複数の撮像装置と、前記複数の撮像装置それぞれに同期信号を供給する同期信号供給装置とを備え、
前記複数の撮像装置は、それぞれ、
前記同期信号を受信する同期信号受信部と、
複数の赤外光を投光可能な赤外線投光器を、前記同期信号受信部が受信した前記同期信号を基準としたタイミングで、赤外光を選択的に投光するよう制御する投光制御部と、
前記赤外線投光器によって赤外光が投光されている状態で被写体を撮像する撮像部と、
を備えることを特徴とする撮像システム。
A plurality of imaging devices, and a synchronization signal supply device that supplies a synchronization signal to each of the plurality of imaging devices,
Each of the plurality of imaging devices is
A synchronization signal receiving unit for receiving the synchronization signal;
A light projecting control unit configured to control an infrared light projector capable of projecting a plurality of infrared lights to selectively project infrared light at a timing based on the synchronization signal received by the synchronization signal receiving unit; ,
An imaging unit for imaging a subject in a state where infrared light is projected by the infrared projector;
An imaging system comprising:
前記同期信号供給装置は、前記撮像装置より出力される映像信号のフレーム周期の同期信号を前記複数の撮像装置それぞれに供給することを特徴とする請求項1記載の撮像システム。   The imaging system according to claim 1, wherein the synchronization signal supply device supplies a synchronization signal having a frame period of a video signal output from the imaging device to each of the plurality of imaging devices. 前記同期信号供給装置は、前記複数の撮像装置それぞれより出力される映像信号を切り換えるカメラ切換器であることを特徴とする請求項1または2に記載の撮像システム。   The imaging system according to claim 1, wherein the synchronization signal supply device is a camera switching unit that switches video signals output from the plurality of imaging devices. 同期信号供給装置より、複数の撮像装置それぞれに同期信号を供給し、
前記複数の撮像装置は、それぞれ、
前記同期信号を受信し、
複数の赤外光を投光可能な赤外線投光器を、前記同期信号を基準としたタイミングで、赤外光を選択的に投光するよう制御し、
前記赤外線投光器によって赤外光が投光されている状態で撮像部によって被写体を撮像する
ことを特徴とする撮像システムの制御方法。
From the synchronization signal supply device, supply a synchronization signal to each of the plurality of imaging devices,
Each of the plurality of imaging devices is
Receiving the synchronization signal;
An infrared projector capable of projecting a plurality of infrared lights is controlled to selectively project infrared light at a timing based on the synchronization signal,
An imaging system control method, comprising: imaging an object with an imaging unit in a state where infrared light is projected by the infrared projector.
JP2014063134A 2014-02-06 2014-03-26 IMAGING SYSTEM AND IMAGING SYSTEM CONTROL METHOD Active JP6090217B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014063134A JP6090217B2 (en) 2014-03-26 2014-03-26 IMAGING SYSTEM AND IMAGING SYSTEM CONTROL METHOD
CN201580005174.XA CN105917638B (en) 2014-02-06 2015-01-14 The control method and camera system of camera device and camera device and the control method of camera system
PCT/JP2015/050724 WO2015118911A1 (en) 2014-02-06 2015-01-14 Image-capture device, method for controlling same, image-capture system, and method for controlling same
US15/212,814 US10171759B2 (en) 2014-02-06 2016-07-18 Imaging device, method for controlling imaging device, imaging system, and method for controlling imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014063134A JP6090217B2 (en) 2014-03-26 2014-03-26 IMAGING SYSTEM AND IMAGING SYSTEM CONTROL METHOD

Publications (2)

Publication Number Publication Date
JP2015186178A JP2015186178A (en) 2015-10-22
JP6090217B2 true JP6090217B2 (en) 2017-03-08

Family

ID=54352245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014063134A Active JP6090217B2 (en) 2014-02-06 2014-03-26 IMAGING SYSTEM AND IMAGING SYSTEM CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP6090217B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08130748A (en) * 1994-10-31 1996-05-21 Sony Tektronix Corp Color still picture photographing device
JP6011778B2 (en) * 2012-05-22 2016-10-19 株式会社富士通ゼネラル Night vision imaging apparatus, infrared irradiation apparatus, and night vision imaging system

Also Published As

Publication number Publication date
JP2015186178A (en) 2015-10-22

Similar Documents

Publication Publication Date Title
WO2015118911A1 (en) Image-capture device, method for controlling same, image-capture system, and method for controlling same
US10313608B2 (en) Imaging device, method for controlling imaging device, and control program
JP6183238B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US10230883B2 (en) Imaging device, method for controlling imaging device, and control program
US10178327B2 (en) Imaging device, method for controlling imaging device, and control program
JP6318789B2 (en) Video processing apparatus, video processing method, and video processing program
JP6136948B2 (en) Imaging apparatus, video signal processing method, and video signal processing program
JP6090217B2 (en) IMAGING SYSTEM AND IMAGING SYSTEM CONTROL METHOD
JP6090191B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5692446B1 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM
JP5655969B1 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM
JP6221911B2 (en) Imaging apparatus, video signal processing method, and video signal processing program
WO2015115142A1 (en) Imaging device, imaging device control method, and imaging device control program
JP6331966B2 (en) IMAGING DEVICE AND IMAGING DEVICE ADJUSTING METHOD
JP6260512B2 (en) Imaging apparatus, imaging method, and imaging program
JP6344279B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND CONTROL PROGRAM
JP6160546B2 (en) Video processing apparatus, imaging apparatus, video processing method, and video processing program
JP6330704B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND CONTROL PROGRAM
JP6299556B2 (en) Imaging apparatus, imaging method, and imaging program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170123

R150 Certificate of patent or registration of utility model

Ref document number: 6090217

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150