JP6221911B2 - Imaging apparatus, video signal processing method, and video signal processing program - Google Patents

Imaging apparatus, video signal processing method, and video signal processing program Download PDF

Info

Publication number
JP6221911B2
JP6221911B2 JP2014078745A JP2014078745A JP6221911B2 JP 6221911 B2 JP6221911 B2 JP 6221911B2 JP 2014078745 A JP2014078745 A JP 2014078745A JP 2014078745 A JP2014078745 A JP 2014078745A JP 6221911 B2 JP6221911 B2 JP 6221911B2
Authority
JP
Japan
Prior art keywords
pixel data
frame
pixel
unit
video signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014078745A
Other languages
Japanese (ja)
Other versions
JP2015159526A (en
Inventor
笹生 剛良
剛良 笹生
関口 智
智 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2014078745A priority Critical patent/JP6221911B2/en
Priority to US14/580,606 priority patent/US9967527B2/en
Publication of JP2015159526A publication Critical patent/JP2015159526A/en
Application granted granted Critical
Publication of JP6221911B2 publication Critical patent/JP6221911B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置、映像信号処理方法及び映像信号処理プログラムに関する。   The present invention relates to an imaging apparatus, a video signal processing method, and a video signal processing program.

従来、例えば夜間等の可視光がほとんどない環境下において被写体を撮像するために、赤外線投光器によって被写体に赤外光を照射し、被写体から反射した赤外光を撮像する方法が用いられている。この方法は、可視光を照射するライトを用いることができない場合に有効な撮像方法である。   Conventionally, in order to image a subject in an environment where there is almost no visible light such as at night, a method of irradiating the subject with infrared light using an infrared projector and imaging infrared light reflected from the subject has been used. This method is an effective imaging method when a light that emits visible light cannot be used.

しかしながら、この撮像方法によって被写体を撮像した映像は、モノクロ映像となる。モノクロ映像では物体の識別が困難となることがある。可視光がない環境下でもカラー映像を撮像することができれば、物体の識別性を向上させることができる。例えば監視カメラでは、物体の識別性を向上させるために、可視光がない環境下でもカラー映像を撮像することが望まれる。   However, an image obtained by imaging a subject by this imaging method is a monochrome image. In monochrome images, it may be difficult to identify an object. If a color image can be captured even in an environment where there is no visible light, the object identification can be improved. For example, in a surveillance camera, it is desired to capture a color image even in an environment without visible light in order to improve the object identification.

特許文献1には、可視光がない環境下でもカラー映像を撮像することができる撮像装置が記載されている。特許文献1に記載されている撮像装置においても、赤外線投光器が用いられる。監視カメラに特許文献1に記載の技術を搭載すれば、被写体をカラー映像化して物体の識別性を向上させることが可能となる。   Patent Document 1 describes an imaging apparatus that can capture a color image even in an environment without visible light. In the imaging device described in Patent Document 1, an infrared projector is also used. If the technique described in Patent Document 1 is installed in the surveillance camera, it becomes possible to convert the subject into a color image and improve the object identification.

特開2011−50049号公報JP 2011-50049 A

例えば、屋外において日の出前や日の入り後の薄明の時間帯、屋内において照明を非常に暗くしている状態では、可視光がわずかに存在している。可視光がわずかに存在しているとはいえ、カラー映像を撮像できるほど可視光は存在していないため、被写体を撮像するために、上記のように、被写体に暗視撮像用の赤外光を照射することが必要となる。   For example, a slight amount of visible light is present outdoors in the twilight hours before sunrise or after sunset, or in a state where the illumination is very dark indoors. Even though there is a small amount of visible light, there is not enough visible light to capture color images. It is necessary to irradiate.

可視光が存在している状態で暗視撮像用の赤外光を投光すると、可視光と赤外光とが混在した状態となる。特許文献1に記載の撮像装置は、可視光がない環境下での撮像を前提としているため、可視光と赤外光とが混在した状態では良好なカラー映像を撮像することできないという問題点がある。   When infrared light for night vision imaging is projected in the presence of visible light, the visible light and the infrared light are mixed. Since the imaging apparatus described in Patent Document 1 is premised on imaging in an environment where there is no visible light, there is a problem in that a good color image cannot be captured in a state where visible light and infrared light are mixed. is there.

本発明はこのような問題点に鑑み、可視光と暗視撮像用の赤外光とが混在した状態であっても良好なカラー映像を撮像することができる撮像装置、可視光と暗視撮像用の赤外光とが混在した状態であっても、撮像した映像に基づいて良好なカラー映像信号を生成することができる映像信号処理方法及び映像信号処理プログラムを提供することを目的とする。   SUMMARY OF THE INVENTION In view of such problems, the present invention provides an imaging device that can capture a good color image even when visible light and infrared light for night vision are mixed, and visible light and night vision imaging. It is an object of the present invention to provide a video signal processing method and a video signal processing program capable of generating a good color video signal based on a captured image even in a state in which infrared light for use is mixed.

本発明は、上述した従来の技術の課題を解決するため、赤色と緑色と青色との3原色のフィルタエレメントが面内に所定の配列で配置されたカラーフィルタを備え、赤色に対応付けられた第1の波長を有する第1の赤外光が投光されている状態で被写体を撮像して映像信号の第1のフレームを生成し、緑色に対応付けられた第2の波長を有する第2の赤外光が投光されている状態で被写体を撮像して映像信号の第2のフレームを生成し、青色に対応付けられた第3の波長を有する第3の赤外光が投光されている状態で被写体を撮像して映像信号の第3のフレームを生成する撮像部と、前記第1〜第3のフレーム内の互いに同じ画素位置の赤色の画素データと互いに同じ画素位置の緑色の画素データと互いに同じ画素位置の青色の画素データとを個別に加算して、赤色の第1の加算画素データと緑色の第2の加算画素データと青色の第3の加算画素データを生成する同一位置画素加算部と、前記同一位置画素加算部によって生成された前記第1の加算画素データと前記第2の加算画素データと前記第3の加算画素データとの3原色の画素データを、前記カラーフィルタにおける前記フィルタエレメントの配列と同じ配列となるように配列させることによって1フレームに合成した合成映像信号を生成する合成部と、前記合成部によって生成された合成映像信号のフレームに基づいて、赤色の画素データが存在しない画素位置に赤色の画素データを補間した赤色のフレームと、緑色の画素データが存在しない画素位置に緑色の画素データを補間した緑色のフレームと、青色の画素データが存在しない画素位置に青色の画素データを補間した青色のフレームとを生成するデモザイク処理を施して、3原色のフレームを生成するデモザイク処理部とを備えることを特徴とする撮像装置を提供する。   The present invention includes a color filter in which filter elements of three primary colors of red, green, and blue are arranged in a predetermined arrangement in a plane, and are associated with red, in order to solve the above-described problems of the related art. The first infrared light having the first wavelength is projected, the subject is imaged to generate the first frame of the video signal, and the second having the second wavelength associated with green The subject is imaged in a state where the infrared light is projected to generate a second frame of the video signal, and the third infrared light having the third wavelength associated with the blue color is projected. An imaging unit that captures an image of a subject and generates a third frame of a video signal, and red pixel data at the same pixel position in the first to third frames and a green pixel at the same pixel position. Blue pixel data at the same pixel position as the pixel data Generated by the same-position pixel addition unit and the same-position pixel addition unit that individually add and generate red first addition pixel data, green second addition pixel data, and blue third addition pixel data The three primary color pixel data of the first added pixel data, the second added pixel data, and the third added pixel data are arranged in the same arrangement as the filter elements in the color filter. Based on the frame of the synthesized video signal generated by the synthesizing unit that generates the synthesized video signal synthesized into one frame by arranging the red pixel data at the pixel position where the red pixel data does not exist Interpolated red frame, green frame interpolated with green pixel data at pixel positions where no green pixel data exists, and blue pixel data It is subjected to demosaic processing to generate a blue frame interpolation blue pixel data to a nonexistent pixel position to provide an imaging apparatus characterized by comprising a demosaic processor for generating the three primary colors of the frame.

また、本発明は、上述した従来の技術の課題を解決するため、赤色と緑色と青色との3原色のフィルタエレメントが面内に所定の配列で配置されたカラーフィルタを備える撮像部によって、赤色に対応付けられた第1の波長を有する第1の赤外光が投光されている状態で被写体を撮像して映像信号の第1のフレームを生成し、前記撮像部によって、緑色に対応付けられた第2の波長を有する第2の赤外光が投光されている状態で前記被写体を撮像して映像信号の第2のフレームを生成し、前記撮像部によって、青色に対応付けられた第3の波長を有する第3の赤外光が投光されている状態で前記被写体を撮像して映像信号の第3のフレームを生成し、前記第1〜第3のフレーム内の互いに同じ画素位置の赤色の画素データと互いに同じ画素位置の緑色の画素データと互いに同じ画素位置の青色の画素データとを個別に加算して、赤色の第1の加算画素データと緑色の第2の加算画素データと青色の第3の加算画素データを生成し、前記第1の加算画素データと前記第2の加算画素データと前記第3の加算画素データとの3原色の画素データを、前記カラーフィルタにおける前記フィルタエレメントの配列と同じ配列となるように配列させることによって1フレームに合成した合成映像信号を生成し、前記合成映像信号のフレームに基づいて、赤色の画素データが存在しない画素位置に赤色の画素データを補間した赤色のフレームと、緑色の画素データが存在しない画素位置に緑色の画素データを補間した緑色のフレームと、青色の画素データが存在しない画素位置に青色の画素データを補間した青色のフレームとを生成するデモザイク処理を施して、3原色のフレームを生成することを特徴とする映像信号処理方法を提供する。 Further, in order to solve the above-described problems of the conventional technology, the present invention provides an image pickup unit including a color filter in which filter elements of three primary colors of red, green, and blue are arranged in a predetermined arrangement in a plane. The first infrared light having the first wavelength associated with the first infrared light is projected, and the subject is imaged to generate a first frame of the video signal. In the state where the second infrared light having the second wavelength is projected, the subject is imaged to generate a second frame of the video signal, which is correlated with blue by the imaging unit A third frame of the video signal is generated by imaging the subject in a state where the third infrared light having the third wavelength is projected, and the same pixel in the first to third frames. The same pixel position as the red pixel data of the position Green pixel data and blue pixel data at the same pixel position are individually added to obtain red first addition pixel data, green second addition pixel data, and blue third addition pixel data. The pixel data of the three primary colors of the first addition pixel data, the second addition pixel data, and the third addition pixel data are generated so as to have the same arrangement as the arrangement of the filter elements in the color filter. It generates a composite video signal by combining in one frame by aligning the front based on the frame of Kigo adult video signal, and red interpolated red pixel data to the pixel position where the red pixel data is not present frame A green frame obtained by interpolating green pixel data at a pixel position where no green pixel data exists, and a blue pixel data at a pixel position where no blue pixel data exists. It is subjected to demosaic processing to generate the frame blue interpolated, and provides a video signal processing method characterized by generating three primary colors of the frame.

さらに、本発明は、上述した従来の技術の課題を解決するため、コンピュータに、赤色に対応付けられた第1の波長を有する第1の赤外光が投光されている状態で、赤色と緑色と青色との3原色のフィルタエレメントが面内に所定の配列で配置されたカラーフィルタを備える撮像部が被写体を撮像することよって生成された映像信号の第1のフレームを構成する画素データを取得するステップと、緑色に対応付けられた第2の波長を有する第2の赤外光が投光されている状態で、前記撮像部が前記被写体を撮像することよって生成された映像信号の第2のフレームを構成する画素データを取得するステップと、青色に対応付けられた第3の波長を有する第3の赤外光が投光されている状態で前記撮像部が前記被写体を撮像することよって生成された映像信号の第3のフレームを構成する画素データを取得するステップと、前記第1〜第3のフレーム内の互いに同じ画素位置の赤色の画素データと互いに同じ画素位置の緑色の画素データと互いに同じ画素位置の青色の画素データとを個別に加算して、赤色の第1の加算画素データと緑色の第2の加算画素データと青色の第3の加算画素データを生成するステップと、前記第1の加算画素データと前記第2の加算画素データと前記第3の加算画素データとの3原色の画素データを、前記カラーフィルタにおける前記フィルタエレメントの配列と同じ配列となるように配列させることによって1フレームに合成した合成映像信号を生成するステップと、前記合成映像信号のフレームに基づいて、赤色の画素データが存在しない画素位置に赤色の画素データを補間した赤色のフレームと、緑色の画素データが存在しない画素位置に緑色の画素データを補間した緑色のフレームと、青色の画素データが存在しない画素位置に青色の画素データを補間した青色のフレームとを生成するデモザイク処理を施して、3原色のフレームを生成するステップとを実行させることを特徴とする映像信号処理プログラムを提供する。   Furthermore, in order to solve the above-described problems of the related art, the present invention provides a computer in which a first infrared light having a first wavelength associated with red is projected, Pixel data constituting a first frame of a video signal generated by an imaging unit including a color filter in which filter elements of three primary colors of green and blue are arranged in a plane in a predetermined arrangement image a subject. An image signal generated by the imaging unit imaging the subject in a state in which the second infrared light having the second wavelength associated with green is projected Acquiring the pixel data constituting the second frame, and imaging the subject in a state where the third infrared light having the third wavelength associated with the blue color is projected. Generate Obtaining pixel data constituting the third frame of the received video signal, red pixel data at the same pixel position and green pixel data at the same pixel position in the first to third frames, Adding blue pixel data at the same pixel position to each other to generate red first addition pixel data, green second addition pixel data, and blue third addition pixel data; The pixel data of the three primary colors of the first addition pixel data, the second addition pixel data, and the third addition pixel data are arranged so as to be the same as the arrangement of the filter elements in the color filter. Generating a composite video signal synthesized into one frame by the step, and based on the frame of the composite video signal, at a pixel position where no red pixel data exists. Interpolate color pixel data with red frame, green pixel data with green pixel data interpolated at pixel positions where no green pixel data exists, and blue pixel data interpolate at pixel positions without blue pixel data And a step of generating a frame of three primary colors by performing a demosaic process for generating the blue frame.

本発明の撮像装置によれば、可視光と暗視撮像用の赤外光とが混在した状態であっても良好なカラー映像を撮像することができる。本発明の映像信号処理方法及び映像信号処理プログラムによれば、可視光と暗視撮像用の赤外光とが混在した状態であっても、撮像した映像に基づいて良好なカラー映像信号を生成することができる。   According to the imaging apparatus of the present invention, it is possible to capture a good color image even when visible light and infrared light for night vision imaging are mixed. According to the video signal processing method and the video signal processing program of the present invention, even when visible light and infrared light for night vision are mixed, a good color video signal is generated based on the captured video. can do.

一実施形態の撮像装置の全体的な構成を示すブロック図である。1 is a block diagram illustrating an overall configuration of an imaging apparatus according to an embodiment. 一実施形態の撮像装置に用いられるカラーフィルタにおけるフィルタエレメントの配列の一例を示す図である。It is a figure which shows an example of the arrangement | sequence of the filter element in the color filter used for the imaging device of one Embodiment. 一実施形態の撮像装置を構成する撮像部における3原色光の波長と相対感度との分光感度特性を示す特性図である。It is a characteristic view which shows the spectral sensitivity characteristic of the wavelength of three primary color lights and relative sensitivity in the imaging part which comprises the imaging device of one Embodiment. 所定の物質からの3原色光の反射率にシリコンの受光感度を乗じたときの、波長と相対検出率との関係を示す特性図である。It is a characteristic view showing the relationship between the wavelength and the relative detection rate when the reflectance of the three primary colors from a predetermined substance is multiplied by the light receiving sensitivity of silicon. 図1中の前信号処理部52の具体的な構成例を示すブロック図である。It is a block diagram which shows the specific structural example of the front signal process part 52 in FIG. 一実施形態の撮像装置が通常モードで動作しているときの露光と映像信号のフレームとの関係を示す図である。It is a figure which shows the relationship between exposure and the flame | frame of a video signal when the imaging device of one Embodiment is operate | moving in normal mode. 一実施形態の撮像装置が通常モードで動作しているときのデモザイク処理を説明するための図である。It is a figure for demonstrating a demosaic process when the imaging device of one Embodiment is operate | moving in normal mode. 一実施形態の撮像装置が中間モード及び暗視モードで動作しているときの露光と映像信号のフレームとの関係を示す図である。It is a figure which shows the relationship between exposure and the flame | frame of a video signal when the imaging device of one Embodiment is operate | moving in intermediate | middle mode and night vision mode. 一実施形態の撮像装置が第1中間モードで動作しているときの前信号処理を説明するための図である。It is a figure for demonstrating the pre-signal process when the imaging device of one Embodiment is operate | moving in 1st intermediate | middle mode. 一実施形態の撮像装置が第1中間モードで動作しているときのデモザイク処理を説明するための図である。It is a figure for demonstrating a demosaic process when the imaging device of one Embodiment is operate | moving in 1st intermediate | middle mode. 一実施形態の撮像装置が第2中間モードで動作しているときの前信号処理を説明するための図である。It is a figure for demonstrating the pre-signal process when the imaging device of one Embodiment is operate | moving in 2nd intermediate mode. 一実施形態の撮像装置が第2中間モードで動作しているときのデモザイク処理を説明するための図である。It is a figure for demonstrating a demosaic process when the imaging device of one Embodiment is operate | moving in 2nd intermediate mode. 一実施形態の撮像装置が暗視モードで動作しているときの周囲画素の加算処理を説明するための図である。It is a figure for demonstrating the addition process of the surrounding pixel when the imaging device of one Embodiment is operate | moving in night vision mode. 周囲画素の加算処理における重み付けの第1の例を示す図である。It is a figure which shows the 1st example of the weighting in the addition process of a surrounding pixel. 周囲画素の加算処理における重み付けの第2の例を示す図である。It is a figure which shows the 2nd example of the weighting in the addition process of a surrounding pixel. 周囲画素の加算処理における重み付けの第3の例を示す図である。It is a figure which shows the 3rd example of the weighting in the addition process of a surrounding pixel. 周囲画素の加算処理が施されたフレームを示す図である。It is a figure which shows the flame | frame in which the addition process of the surrounding pixel was performed. 一実施形態の撮像装置が第1暗視モードで動作しているときの前信号処理を説明するための図である。It is a figure for demonstrating the pre-signal process when the imaging device of one Embodiment is operate | moving in 1st night-vision mode. 一実施形態の撮像装置が第1暗視モードで動作しているときのデモザイク処理を説明するための図である。It is a figure for demonstrating a demosaic process when the imaging device of one Embodiment is operate | moving in 1st night-vision mode. 一実施形態の撮像装置が第2暗視モードで動作しているときの前信号処理を説明するための図である。It is a figure for demonstrating the front signal process when the imaging device of one Embodiment is operate | moving in 2nd night-vision mode. 一実施形態の撮像装置が第2暗視モードで動作しているときのデモザイク処理を説明するための図である。It is a figure for demonstrating a demosaic process when the imaging device of one Embodiment is operate | moving in 2nd night-vision mode. 一実施形態の撮像装置におけるモード切換の例を説明するための図である。It is a figure for demonstrating the example of the mode switching in the imaging device of one Embodiment. 一実施形態の撮像装置がそれぞれのモードに設定されているときの各部の状態を示す図である。It is a figure which shows the state of each part when the imaging device of one Embodiment is set to each mode. 一実施形態の撮像装置の第1の変形例を示す部分ブロック図である。It is a partial block diagram which shows the 1st modification of the imaging device of one Embodiment. 一実施形態の撮像装置の第2の変形例を示す部分ブロック図である。It is a partial block diagram which shows the 2nd modification of the imaging device of one Embodiment. 一実施形態の撮像装置の第3の変形例を示す部分ブロック図である。It is a partial block diagram which shows the 3rd modification of the imaging device of one Embodiment. モード切換に関する映像信号処理方法を示すフローチャートである。It is a flowchart which shows the video signal processing method regarding mode switching. 図27におけるステップS3に示す通常モードの具体的な処理を示すフローチャートである。It is a flowchart which shows the specific process of the normal mode shown to step S3 in FIG. 図27におけるステップS4の中間モードの具体的な処理を示すフローチャートである。It is a flowchart which shows the specific process of the intermediate | middle mode of step S4 in FIG. 図27におけるステップS5の暗視モードの具体的な処理を示すフローチャートである。It is a flowchart which shows the specific process of the night vision mode of step S5 in FIG. モード切換に関する映像信号処理プログラムがコンピュータに実行させる処理を示すフローチャートである。It is a flowchart which shows the process which the video signal processing program regarding mode switching performs a computer. 図3に示す分光感度特性の特徴を考察するための特性図である。FIG. 4 is a characteristic diagram for considering characteristics of spectral sensitivity characteristics shown in FIG. 3. 可視光が主の状態で赤外光が投光されたときの露光量を説明するための図である。It is a figure for demonstrating the exposure amount when infrared light is projected in the state where visible light is the main. 赤外光が主の状態で赤外光が投光されたときの露光量を説明するための図である。It is a figure for demonstrating the exposure amount when infrared light is projected in the state where infrared light is main. 可視光の量と赤外光の量との関係の判定方法の第1の例を実現する判定部の概念的な説明図である。It is a conceptual explanatory drawing of the determination part which implement | achieves the 1st example of the determination method of the relationship between the quantity of visible light, and the quantity of infrared light. 判定方法の第1の例を示すフローチャートである。It is a flowchart which shows the 1st example of the determination method. 色ゲイン制御部が判定結果に基づいて色ゲイン設定部を制御する処理を示すフローチャートである。It is a flowchart which shows the process in which a color gain control part controls a color gain setting part based on the determination result. 赤外光が主の状態で、一部の波長の赤外光の発光パワーを異ならせた赤外光が投光されたときの露光量を説明するための図である。It is a figure for demonstrating the exposure amount when the infrared light which varied the light emission power of the infrared light of a one part wavelength in the state where infrared light is main, and is projected. 可視光の量と赤外光の量との関係の判定方法の第2の例を実現する判定部の概念的な説明図である。It is a conceptual explanatory drawing of the determination part which implement | achieves the 2nd example of the determination method of the relationship between the quantity of visible light, and the quantity of infrared light. 可視光が主の状態で赤外光が投光されたときに判定部において生成される差分値を説明するための図である。It is a figure for demonstrating the difference value produced | generated in a determination part when infrared light is projected in the state where visible light is main. 赤外光が主の状態で赤外光が投光されたときに判定部において生成される差分値を説明するための図である。It is a figure for demonstrating the difference value produced | generated in a determination part, when infrared light is projected in the state where infrared light is main. 判定方法の第2の例を示すフローチャートである。It is a flowchart which shows the 2nd example of the determination method. 光量の関係の判定に応じた映像信号処理方法を示すフローチャートである。It is a flowchart which shows the video signal processing method according to determination of the relationship of light quantity. 光量の関係の判定を含む撮像装置の動作を制御する映像信号処理プログラムがコンピュータに実行させる処理を示すフローチャートである。It is a flowchart which shows the process which a video signal processing program which controls operation | movement of an imaging device including determination of the relationship of light quantity makes a computer perform. 一実施形態の撮像装置がそれぞれのモードで用いる色ゲインの組を説明するための図である。It is a figure for demonstrating the group of the color gain which the imaging device of one Embodiment uses in each mode.

以下、一実施形態の撮像装置、映像信号処理方法及び映像信号処理プログラムについて、添付図面を参照して説明する。   Hereinafter, an imaging device, a video signal processing method, and a video signal processing program according to an embodiment will be described with reference to the accompanying drawings.

<撮像装置の構成>
まず、図1を用いて、一実施形態の撮像装置の全体的な構成について説明する。図1に示す一実施形態の撮像装置は、昼間等の可視光が十分に存在する環境下に適した通常モードと、夜間等の可視光がほとんどない環境下に適した暗視モードと、可視光がわずかに存在する環境下に適した中間モードとの3つのモードで撮像可能な撮像装置である。
<Configuration of imaging device>
First, the overall configuration of an imaging apparatus according to an embodiment will be described with reference to FIG. An imaging apparatus according to an embodiment shown in FIG. 1 includes a normal mode suitable for an environment where there is sufficient visible light such as daytime, a night vision mode suitable for an environment where there is almost no visible light such as nighttime, and a visible mode. This is an imaging device capable of imaging in three modes, an intermediate mode suitable for an environment where light is slightly present.

中間モードは、可視光が少ない環境下で、赤外線を投光しながら撮像する第1の赤外光投光モードである。暗視モードは、可視光がさらに少ない(ほとんどない)環境下で、赤外線を投光しながら撮像する第2の赤外光投光モードである。   The intermediate mode is a first infrared light projection mode in which imaging is performed while projecting infrared light in an environment with little visible light. The night vision mode is a second infrared light projection mode in which imaging is performed while projecting infrared light in an environment where there is even less (almost) no visible light.

図1において、被写体から反射した一点鎖線にて示す光は、光学レンズ1によって集光される。ここで、光学レンズ1には、可視光が十分に存在する環境下では可視光、可視光がほとんどない環境下では後述する赤外線投光器9より発せられた赤外光を被写体が反射した赤外光が入射される。   In FIG. 1, the light indicated by the alternate long and short dash line reflected from the subject is collected by the optical lens 1. Here, the optical lens 1 has visible light in an environment in which visible light is sufficiently present, and infrared light in which an object reflects infrared light emitted from an infrared projector 9 described below in an environment in which there is almost no visible light. Is incident.

可視光がわずかに存在する環境下では、光学レンズ1には、可視光と赤外線投光器9より発せられた赤外光を被写体が反射した赤外光とが混在した光が入射される。   Under an environment where there is a slight amount of visible light, the optical lens 1 is incident with light in which visible light and infrared light emitted from the infrared projector 9 are reflected by the subject.

図1では簡略化のため、光学レンズ1を1つのみとしているが、実際には、撮像装置は複数の光学レンズを備える。   Although only one optical lens 1 is shown in FIG. 1 for the sake of simplicity, the imaging apparatus actually includes a plurality of optical lenses.

光学レンズ1と撮像部3との間には、光学フィルタ2が設けられている。光学フィルタ2は、赤外線カットフィルタ21とダミーガラス22との2つの部分を有する。光学フィルタ2は、駆動部8によって、光学レンズ1と撮像部3との間に赤外線カットフィルタ21を挿入した状態と、光学レンズ1と撮像部3との間にダミーガラス22を挿入した状態とのいずれかの状態に駆動される。   An optical filter 2 is provided between the optical lens 1 and the imaging unit 3. The optical filter 2 has two parts, an infrared cut filter 21 and a dummy glass 22. The optical filter 2 includes a state in which an infrared cut filter 21 is inserted between the optical lens 1 and the imaging unit 3 and a state in which a dummy glass 22 is inserted between the optical lens 1 and the imaging unit 3 by the driving unit 8. It is driven to either state.

撮像部3は、水平方向及び垂直方向に複数の受光素子(画素)が配列した撮像素子31と、それぞれの受光素子に対応して赤色(R),緑色(G),青色(B)のいずれかの色のフィルタエレメントが配置されたカラーフィルタ32とを有する。撮像素子31は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)でよい。   The imaging unit 3 includes an imaging element 31 in which a plurality of light receiving elements (pixels) are arranged in the horizontal direction and the vertical direction, and any one of red (R), green (G), and blue (B) corresponding to each light receiving element. And a color filter 32 in which filter elements of these colors are arranged. The image sensor 31 may be a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).

カラーフィルタ32には、一例として、図2に示すように、R,G,Bの各色のフィルタエレメントがベイヤ配列と称される配列で並べられている。ベイヤ配列は、R,G,Bのフィルタエレメントの所定の配列の一例である。図2において、各行のRのフィルタエレメントに挟まれたGのフィルタエレメントをGr、Bのフィルタエレメントに挟まれたGのフィルタエレメントをGbとしている。   As an example, as shown in FIG. 2, the color filter 32 has R, G, and B color filter elements arranged in an array called a Bayer array. The Bayer array is an example of a predetermined array of R, G, and B filter elements. In FIG. 2, the G filter element sandwiched between the R filter elements in each row is Gr, and the G filter element sandwiched between the B filter elements is Gb.

ベイヤ配列では、RのフィルタエレメントとGrのフィルタエレメントとが交互に配置された水平方向の行と、BのフィルタエレメントとGbのフィルタエレメントとが交互に配置された水平方向の行とが、垂直方向に交互に配列されている。   In the Bayer array, horizontal rows in which R filter elements and Gr filter elements are alternately arranged and horizontal rows in which B filter elements and Gb filter elements are alternately arranged are vertically arranged. They are arranged alternately in the direction.

図3は、撮像部3におけるR光,G光,B光の波長と相対感度との分光感度特性を示している。相対感度は、最大値が1に正規化されている。撮像装置を通常モードで動作させるとき、可視光による良好なカラー映像を撮像するには、波長700nm以上の赤外光をカットする必要がある。   FIG. 3 shows spectral sensitivity characteristics of the wavelengths of R light, G light, and B light and relative sensitivity in the imaging unit 3. The relative sensitivity is normalized to 1 at the maximum value. When the imaging apparatus is operated in the normal mode, it is necessary to cut infrared light having a wavelength of 700 nm or more in order to capture a good color image by visible light.

そこで、駆動部8は、制御部7による制御に基づいて、光学レンズ1と撮像部3との間に赤外線カットフィルタ21を挿入するように光学フィルタ2を駆動する。   Therefore, the drive unit 8 drives the optical filter 2 so that the infrared cut filter 21 is inserted between the optical lens 1 and the imaging unit 3 based on control by the control unit 7.

図3より分かるように、撮像部3は、波長700nm以上の赤外光の領域においても感度を有する。そこで、撮像装置を中間モードまたは暗視モードで動作させるときには、駆動部8は、制御部7による制御に基づいて、光学レンズ1と撮像部3との間の赤外線カットフィルタ21を外してダミーガラス22を挿入するように光学フィルタ2を駆動する。   As can be seen from FIG. 3, the imaging unit 3 has sensitivity even in an infrared light region having a wavelength of 700 nm or more. Therefore, when the imaging device is operated in the intermediate mode or the night vision mode, the driving unit 8 removes the infrared cut filter 21 between the optical lens 1 and the imaging unit 3 based on the control by the control unit 7 and the dummy glass. The optical filter 2 is driven so that 22 is inserted.

光学レンズ1と撮像部3との間にダミーガラス22を挿入した状態では、波長700nm以上の赤外光はカットされない。よって、撮像装置は、図3に破線の楕円で囲んだ部分の感度を利用して、R,G,Bの各色情報を得ることが可能となる。ダミーガラス22を挿入するのは、光路長を、赤外線カットフィルタ21を挿入した場合の光路長と同じにするためである。   In a state where the dummy glass 22 is inserted between the optical lens 1 and the imaging unit 3, infrared light having a wavelength of 700 nm or more is not cut. Therefore, the imaging apparatus can obtain R, G, and B color information by using the sensitivity of the portion surrounded by the dashed ellipse in FIG. The reason why the dummy glass 22 is inserted is to make the optical path length the same as the optical path length when the infrared cut filter 21 is inserted.

赤外線投光器9は、それぞれ、波長IR1,IR2,IR3の赤外光を投光する投光部91,92,93を有する。中間モードまたは暗視モードのとき、制御部7内の投光制御部71は、時分割で投光部91〜93より波長IR1〜IR3の赤外光を選択的に投光させるように制御する。   The infrared projector 9 includes projectors 91, 92, and 93 that project infrared light having wavelengths IR1, IR2, and IR3, respectively. In the intermediate mode or the night vision mode, the light projecting control unit 71 in the control unit 7 performs control so as to selectively project infrared light with wavelengths IR1 to IR3 from the light projecting units 91 to 93 in a time division manner. .

ところで、撮像素子31にはシリコンウェハが用いられている。図4は、R,G,Bそれぞれの色を呈する素材に白色光を照射した場合の各波長における反射率にシリコンの受光感度を乗じたときの、波長と相対検出率との関係を示している。図4においても、相対検出率は、最大値が1に正規化されている。   Incidentally, a silicon wafer is used for the image sensor 31. FIG. 4 shows the relationship between the wavelength and the relative detection rate when the reflectance at each wavelength is multiplied by the light receiving sensitivity of silicon when a material exhibiting each color of R, G, and B is irradiated with white light. Yes. Also in FIG. 4, the maximum value of the relative detection rate is normalized to 1.

図4に示すように、赤外光の領域において、例えば、波長780nmにおける反射光はR色を呈する素材の反射光との相関性が高く、波長870nmにおける反射光はB色を呈する素材の反射光との相関性が高く、波長940nmにおける反射光はG色を呈する素材の反射光との相関性が高い。   As shown in FIG. 4, in the infrared light region, for example, the reflected light at a wavelength of 780 nm is highly correlated with the reflected light of a material exhibiting an R color, and the reflected light at a wavelength of 870 nm is a reflection of a material exhibiting a B color. Correlation with light is high, and reflected light at a wavelength of 940 nm is highly correlated with reflected light of a material exhibiting G color.

そこで、本実施形態においては、投光部91,92,93が投光する赤外光の波長IR1,IR2,IR3を、780nm,940nm,870nmとする。これらの波長は、波長IR1〜IR3の一例であり、780nm,940nm,870nm以外でもよい。   Therefore, in this embodiment, the wavelengths IR1, IR2, and IR3 of the infrared light projected by the light projecting units 91, 92, and 93 are set to 780 nm, 940 nm, and 870 nm. These wavelengths are examples of the wavelengths IR1 to IR3, and may be other than 780 nm, 940 nm, and 870 nm.

投光部91が波長IR1の赤外光を被写体に照射し、被写体から反射した光を撮像した映像信号をR信号に割り当てる。投光部93が波長IR2の赤外光を被写体に照射し、被写体から反射した光を撮像した映像信号をG信号に割り当てる。投光部92が波長IR3の赤外光を被写体に照射し、被写体から反射した光を撮像した映像信号をB信号に割り当てる。   The light projecting unit 91 irradiates the subject with infrared light having the wavelength IR1, and assigns an image signal obtained by imaging the light reflected from the subject to the R signal. The light projecting unit 93 irradiates the subject with infrared light having a wavelength IR2, and assigns a video signal obtained by imaging the light reflected from the subject to the G signal. The light projecting unit 92 irradiates the subject with infrared light having a wavelength IR3, and assigns a video signal obtained by imaging light reflected from the subject to the B signal.

このようにすれば、原理的に、中間モードまたは暗視モードにおいても、通常モードにおいて可視光が存在する環境下で被写体を撮像した場合と同様の色を再現することができる。   In this way, in principle, even in the intermediate mode or the night vision mode, it is possible to reproduce the same color as when the subject is imaged in an environment where visible light exists in the normal mode.

色味が被写体の実際の色味と異なるカラー映像となるものの、780nmの波長IR1をR光、870nmの波長IR3をG光、940nmの波長IR2をB光に割り当ててもよい。波長IR1,IR2,IR3をR光,G光,B光に任意に割り当てることも可能である。   Although the color image is different from the actual color of the subject, a wavelength IR1 of 780 nm may be assigned to the R light, a wavelength IR3 of 870 nm may be assigned to the G light, and a wavelength IR2 of 940 nm may be assigned to the B light. The wavelengths IR1, IR2, and IR3 can be arbitrarily assigned to the R light, G light, and B light.

本実施形態においては、被写体の色味を最もよく再現する、波長IR1,IR2,IR3をそれぞれR光,G光,B光に割り当てることとする。   In the present embodiment, the wavelengths IR1, IR2, and IR3 that best reproduce the color of the subject are assigned to R light, G light, and B light, respectively.

制御部7は、撮像部3における撮像と、映像処理部5内の各部と、映像出力部6とを制御する。撮像部3によって撮像された撮像信号はA/D変換器4によってA/D変換され、映像処理部5に入力される。映像処理部5の内部構成及び動作は後述する。   The control unit 7 controls imaging in the imaging unit 3, each unit in the video processing unit 5, and the video output unit 6. An imaging signal imaged by the imaging unit 3 is A / D converted by the A / D converter 4 and input to the video processing unit 5. The internal configuration and operation of the video processing unit 5 will be described later.

映像出力部6は、後述するR,G,Bの3原色データのそれぞれに所定の色ゲインを乗じる色ゲイン設定部62を有する。色ゲイン設定部62の詳細な動作は後述する。色ゲイン設定部62を映像処理部5内に設けてもよい。   The video output unit 6 includes a color gain setting unit 62 that multiplies each of three primary color data of R, G, and B described later by a predetermined color gain. The detailed operation of the color gain setting unit 62 will be described later. The color gain setting unit 62 may be provided in the video processing unit 5.

撮像部3とA/D変換器4とが一体化されていてもよい。映像処理部5と制御部7とが一体化されていてもよい。   The imaging unit 3 and the A / D converter 4 may be integrated. The video processing unit 5 and the control unit 7 may be integrated.

制御部7は、通常モードと中間モードと暗視モードとを切り換えるモード切換部72を備える。モード切換部72は、通常モードと中間モードと暗視モードとに対応させて、映像処理部5内の動作を後述のように適宜切り換える。   The control unit 7 includes a mode switching unit 72 that switches between the normal mode, the intermediate mode, and the night vision mode. The mode switching unit 72 appropriately switches the operation in the video processing unit 5 as described later in correspondence with the normal mode, the intermediate mode, and the night vision mode.

制御部7は、周囲環境の可視光の量と赤外光の量との関係を判定する判定部78と、色ゲイン設定部62によって3原色データに乗じる色ゲインを異ならせるように制御する色ゲイン制御部79とを備える。ここでいう赤外光とは、赤外線投光器9によって投光され、それが被写体によって反射されたものが大部分である。   The control unit 7 uses a determination unit 78 that determines the relationship between the amount of visible light and the amount of infrared light in the surrounding environment, and a color that is controlled by the color gain setting unit 62 so that the color gains multiplied by the three primary color data are different. And a gain control unit 79. The term “infrared light” used here is mostly the light projected by the infrared projector 9 and reflected by the subject.

判定部78は、例えば、可視光の量が赤外光の量と比較して多く、可視光が主で赤外光が従ある状態と、赤外光の量が可視光の量と比較して多く、赤外光が主で可視光が従ある状態とのいずれであるかを判定すればよい。判定部78は、可視光の量と赤外光の量との関係を具体的な光量の比を算出することによって、周囲環境の可視光の量と赤外光の量との関係を判定してもよい。   For example, the determination unit 78 compares the amount of visible light with the amount of infrared light, the state where the visible light is mainly and the infrared light is subordinate, and the amount of infrared light is compared with the amount of visible light. What is necessary is just to determine which is the state in which infrared light is main and visible light is subordinate. The determination unit 78 determines the relationship between the amount of visible light and the amount of infrared light in the surrounding environment by calculating a specific light amount ratio between the amount of visible light and the amount of infrared light. May be.

ここでいう光量の比とは、可視光の量と赤外光の量との比そのものでなくてもよく、周囲環境の可視光の量と赤外光の量との関係(比率等)に応じて変化する数値であればよい。   The ratio of the amount of light here does not have to be the ratio of the amount of visible light and the amount of infrared light itself, but the relationship (ratio, etc.) between the amount of visible light and the amount of infrared light in the surrounding environment. Any numerical value may be used as long as it changes.

このような数値を算出することで周囲環境の可視光の量と赤外光の量との関係を判定する場合は、必ずしもどちらが主でどちらが従であるかということまで判定しなくてもよい。以下、便宜的に、周囲環境の可視光の量と赤外光の量との関係のことを単に「主従関係」と称する場合がある。   When the relationship between the amount of visible light and the amount of infrared light in the surrounding environment is determined by calculating such numerical values, it is not always necessary to determine which is the main and which is the subordinate. Hereinafter, for convenience, the relationship between the amount of visible light and the amount of infrared light in the surrounding environment may be simply referred to as “master-slave relationship”.

色ゲイン制御部79は、判定部78によって判定された、周囲環境の可視光の量と赤外光の量との関係に従って、色ゲイン設定部62によって3原色データに乗じる色ゲインを異ならせるように制御する。   The color gain control unit 79 varies the color gains multiplied by the three primary color data by the color gain setting unit 62 in accordance with the relationship between the amount of visible light and the amount of infrared light determined by the determination unit 78. To control.

映像処理部5は、スイッチ51,53と、前信号処理部52と、デモザイク処理部54とを有する。スイッチ51,53は物理的なスイッチであってもよく、前信号処理部52の動作と不動作とを切り換えるための概念的なスイッチであってもよい。制御部7には、撮像している映像の明るさを検出するために、映像処理部5から映像信号が入力される。   The video processing unit 5 includes switches 51 and 53, a previous signal processing unit 52, and a demosaic processing unit 54. The switches 51 and 53 may be physical switches, or may be conceptual switches for switching between operation and non-operation of the previous signal processing unit 52. A video signal is input from the video processing unit 5 to the control unit 7 in order to detect the brightness of the video being captured.

前信号処理部52に入力される映像データは判定部78にも入力される。判定部78は、前信号処理部52に入力される映像データに基づいて光量の主従関係を判定する。   The video data input to the previous signal processing unit 52 is also input to the determination unit 78. The determination unit 78 determines the master-slave relationship of the light amount based on the video data input to the previous signal processing unit 52.

判定部78の機能を前信号処理部52に設けてもよい。この場合、判定部78の機能を有する前信号処理部52は、光量の主従関係の判定結果を色ゲイン制御部79に伝える。   The function of the determination unit 78 may be provided in the previous signal processing unit 52. In this case, the previous signal processing unit 52 having the function of the determination unit 78 notifies the color gain control unit 79 of the determination result of the master-slave relationship of the light amount.

図5に示すように、前信号処理部52は、周囲画素加算部521と、同一位置画素加算部522と、合成部523とを有する。   As illustrated in FIG. 5, the previous signal processing unit 52 includes a surrounding pixel addition unit 521, a same-position pixel addition unit 522, and a synthesis unit 523.

映像処理部5は、R,G,Bの3原色データを生成して、映像出力部6に供給する。映像出力部6は、3原色データを所定の形式で図示していない表示部等へと出力する。   The video processing unit 5 generates R, G, and B primary color data and supplies them to the video output unit 6. The video output unit 6 outputs the three primary color data in a predetermined format to a display unit not shown.

映像出力部6は、R,G,B信号をそのまま出力してもよいし、R,G,B信号を輝度信号と色信号(または色差信号)に変換して出力してもよい。映像出力部6は、コンポジット映像信号を出力してもよい。映像出力部6は、デジタル信号の映像信号を出力してもよいし、D/A変換器によってアナログ信号に変換した映像信号を出力してもよい。   The video output unit 6 may output the R, G, and B signals as they are, or may convert the R, G, and B signals into luminance signals and color signals (or color difference signals) and output them. The video output unit 6 may output a composite video signal. The video output unit 6 may output a digital video signal or may output a video signal converted into an analog signal by a D / A converter.

色ゲイン設定部62は、映像処理部5より所定の形式の映像信号を出力する際、ホワイトバランスを調整するために、R,G,Bの3原色データのそれぞれに所定の色ゲインを乗じる。ここではホワイトバランスを調整するために3原色データに色ゲインを乗じるとしたが、所定の色温度の映像を再現するために色ゲインを乗じてもよい。   The color gain setting unit 62 multiplies each of the R, G, and B primary color data by a predetermined color gain in order to adjust the white balance when outputting a video signal of a predetermined format from the video processing unit 5. Here, the three primary color data are multiplied by the color gain in order to adjust the white balance, but the color gain may be multiplied in order to reproduce an image having a predetermined color temperature.

色ゲイン設定部62は、R,G,Bの3原色データに乗じる色ゲインの組を少なくとも2組保持している。1つの組の色ゲインともう1つの組の色ゲインとは、R,G,Bのデータに対する色ゲインが全て異なっている。   The color gain setting unit 62 holds at least two sets of color gains to be multiplied by the three primary color data of R, G, and B. One set of color gains and another set of color gains are all different in color gain for R, G, and B data.

色ゲイン設定部62は、モード切換部72によって撮像装置が中間モードに設定されているとき、色ゲイン制御部79による制御によって、3原色データに乗じる色ゲインの組を選択する。色ゲイン設定部62は、選択した組の色ゲインを3原色データに乗じる。   The color gain setting unit 62 selects a set of color gains to be multiplied by the three primary color data under the control of the color gain control unit 79 when the imaging device is set to the intermediate mode by the mode switching unit 72. The color gain setting unit 62 multiplies the three primary color data by the selected set of color gains.

色ゲイン設定部62は、モード切換部72によって撮像装置が通常モードと暗視モードに設定されているとき、通常モードと暗視モードとで異なるそれぞれ固定の組の色ゲインを3原色データに乗じる。   The color gain setting unit 62 multiplies the three primary color data by a fixed set of color gains that are different between the normal mode and the night vision mode when the imaging device is set to the normal mode and the night vision mode by the mode switching unit 72. .

以下、通常モードと中間モードと暗視モードとのそれぞれの具体的な動作について説明する。   Hereinafter, specific operations in the normal mode, the intermediate mode, and the night vision mode will be described.

<通常モード>
通常モードでは、制御部7は、駆動部8によって、光学レンズ1と撮像部3との間に赤外線カットフィルタ21を挿入させる。投光制御部71は、赤外線投光器9による赤外光の投光をオフにする。
<Normal mode>
In the normal mode, the control unit 7 causes the driving unit 8 to insert the infrared cut filter 21 between the optical lens 1 and the imaging unit 3. The light projection control unit 71 turns off infrared light projection by the infrared projector 9.

撮像部3によって撮像された撮像信号は、A/D変換器4によってデジタル信号である映像データに変換されて、映像処理部5に入力される。通常モードでは、モード切換部72は、スイッチ51,53を端子Tbに接続するように制御する。   The image signal picked up by the image pickup unit 3 is converted into video data which is a digital signal by the A / D converter 4 and input to the video processing unit 5. In the normal mode, the mode switching unit 72 controls the switches 51 and 53 to be connected to the terminal Tb.

図6の(a)は、撮像部3の露光Ex1,Ex2,Ex3…を示している。実際には露光時間はシャッタスピード等の条件によって変化するが、ここでは露光Ex1,Ex2,Ex3は最大露光時間を示している。   FIG. 6A shows exposures Ex1, Ex2, Ex3,... Actually, the exposure time varies depending on conditions such as the shutter speed. Here, the exposures Ex1, Ex2, and Ex3 indicate the maximum exposure time.

図6の(b)は、それぞれの映像信号のフレームが得られるタイミングを示している。露光Ex1の前の図示していない露光に基づいて、所定時間後に映像信号のフレームF0が得られる。露光Ex1に基づいて、所定時間後に映像信号のフレームF1が得られる。露光Ex2に基づいて、所定時間後に映像信号のフレームF2が得られる。露光Ex3以降も同様である。映像信号のフレーム周波数を、例えば30フレーム/秒とする。   FIG. 6B shows the timing at which each video signal frame is obtained. Based on an exposure (not shown) before the exposure Ex1, a frame F0 of the video signal is obtained after a predetermined time. Based on the exposure Ex1, a frame F1 of the video signal is obtained after a predetermined time. Based on the exposure Ex2, a frame F2 of the video signal is obtained after a predetermined time. The same applies to exposure Ex3 and thereafter. The frame frequency of the video signal is set to 30 frames / second, for example.

映像信号のフレーム周波数は、NTSC方式であれば30フレーム/秒または60フレーム/秒、PAL方式であれば25フレーム/秒または50フレーム/秒のように適宜設定すればよい。また、映像信号のフレーム周波数は、映画で使われている24フレーム/秒であってもよい。   The frame frequency of the video signal may be set as appropriate, such as 30 frames / second or 60 frames / second for the NTSC system and 25 frames / second or 50 frames / second for the PAL system. The frame frequency of the video signal may be 24 frames / second used in movies.

A/D変換器4より出力された各フレームの映像データは、スイッチ51,53を介してデモザイク処理部54に入力される。デモザイク処理部54は、入力された各フレームの映像データにデモザイク処理を施す。映像処理部5は、デモザイク処理の他の各種の映像処理を施して、R,G,Bの3原色データを出力する。   The video data of each frame output from the A / D converter 4 is input to the demosaic processing unit 54 via the switches 51 and 53. The demosaic processing unit 54 performs demosaic processing on the input video data of each frame. The video processing unit 5 performs various other video processes other than the demosaic process and outputs R, G, and B primary color data.

図7を用いて、デモザイク処理部54におけるデモザイク処理について説明する。図7において、(a)は映像データの任意のフレームFmを示している。フレームFmは、有効映像期間の画素によって構成されたフレームである。映像データの画素数は、例えばVGA規格では水平640画素、垂直480画素である。ここでは簡略化のため、フレームFmの画素数を大幅に少なくして、フレームFmを概念的に示している。   The demosaic processing in the demosaic processing unit 54 will be described with reference to FIG. 7A shows an arbitrary frame Fm of video data. The frame Fm is a frame composed of pixels in the effective video period. The number of pixels of the video data is, for example, horizontal 640 pixels and vertical 480 pixels in the VGA standard. Here, for simplification, the number of pixels of the frame Fm is significantly reduced, and the frame Fm is conceptually illustrated.

ベイヤ配列の撮像部3を用いて生成された映像データは、フレームFm内で、R,G,Bの画素データが混在したデータである。デモザイク処理部54は、Rの画素データが存在しない画素位置のRの画素データを周囲のRの画素データを用いて算出したRの補間画素データRiを生成する。デモザイク処理部54は、図7の(b)に示す1フレームの全画素がRの画素データよりなるRフレームFmRを生成する。   The video data generated using the Bayer array imaging unit 3 is data in which R, G, and B pixel data are mixed in the frame Fm. The demosaic processing unit 54 generates R interpolation pixel data Ri obtained by calculating R pixel data at a pixel position where no R pixel data is present using surrounding R pixel data. The demosaic processing unit 54 generates an R frame FmR in which all the pixels in one frame shown in FIG. 7B are made up of R pixel data.

デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周囲のGの画素データを用いて算出したGの補間画素データGiを生成する。デモザイク処理部54は、図7の(c)に示す1フレームの全画素がGの画素データよりなるGフレームFmGを生成する。   The demosaic processing unit 54 generates G interpolation pixel data Gi obtained by calculating G pixel data at a pixel position where no G pixel data exists using surrounding G pixel data. The demosaic processing unit 54 generates a G frame FmG in which all the pixels of one frame shown in FIG.

デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周囲のBの画素データを用いて算出したBの補間画素データBiを生成する。デモザイク処理部54は、図7の(d)に示す1フレームの全画素がBの画素データよりなるBフレームFmBを生成する。   The demosaic processing unit 54 generates B interpolated pixel data Bi obtained by calculating B pixel data at a pixel position where no B pixel data exists using surrounding B pixel data. The demosaic processing unit 54 generates a B frame FmB in which all the pixels of one frame shown in FIG.

デモザイク処理部54は、Rの画素データを補間する際には少なくともRの画素データを用いればよく、Gの画素データを補間する際には少なくともGの画素データを用いればよく、Bの画素データを補間する際には少なくともBの画素データを用いればよい。デモザイク処理部54は、補間精度を向上させるために、R,G,Bの画素データを補間する際に、生成しようとする補間画素データの色とは異なる他の色の画素データを用いてもよい。   The demosaic processing unit 54 may use at least R pixel data when interpolating R pixel data, may use at least G pixel data when interpolating G pixel data, and B pixel data. When interpolation is performed, at least B pixel data may be used. In order to improve interpolation accuracy, the demosaic processing unit 54 may use pixel data of another color different from the color of the interpolation pixel data to be generated when interpolating R, G, and B pixel data. Good.

撮像部3には、有効映像期間より外側の画素も存在しているため、フレームFmの上下左右端部に位置する画素においても、R,G,Bの画素データを補間することができる。   Since there are pixels outside the effective video period in the imaging unit 3, R, G, and B pixel data can be interpolated even in pixels located at the upper, lower, left, and right ends of the frame Fm.

デモザイク処理部54によって生成されたRフレームFmR,GフレームFmG,BフレームFmBがR,G,Bの3原色データとして出力される。図7では、理解を容易にするため、R,G,Bの画素データをフレーム単位で説明したが、実際には、R,G,Bの画素データは画素ごとに順次出力される。   The R frame FmR, G frame FmG, and B frame FmB generated by the demosaic processing unit 54 are output as R, G, and B primary color data. In FIG. 7, the R, G, and B pixel data has been described in units of frames in order to facilitate understanding, but actually, the R, G, and B pixel data are sequentially output for each pixel.

<中間モード:第1中間モード>
中間モード(第1中間モード及び後述する第2中間モード)では、制御部7は、駆動部8によって、光学レンズ1と撮像部3との間にダミーガラス22を挿入させる。投光制御部71は、赤外線投光器9による赤外光の投光をオンにする。モード切換部72は、スイッチ51,53を端子Taに接続するように制御する。
<Intermediate mode: first intermediate mode>
In the intermediate mode (first intermediate mode and second intermediate mode described later), the control unit 7 causes the driving unit 8 to insert the dummy glass 22 between the optical lens 1 and the imaging unit 3. The light projection controller 71 turns on the infrared light projection by the infrared light projector 9. The mode switching unit 72 controls the switches 51 and 53 to be connected to the terminal Ta.

図8の(a)は、赤外線投光器9による赤外光の投光の状態を示している。制御部7は、通常モードの1フレーム期間を1/3ずつに分け、例えば投光部91,92,93の順に赤外光を投光させるように制御する。   FIG. 8A shows a state of infrared light projection by the infrared projector 9. The control unit 7 divides one frame period of the normal mode into 1/3, and controls so as to project infrared light in the order of the light projecting units 91, 92, 93, for example.

図8の(a)に示す例では、1フレームの最初の1/3の期間では、波長IR1(780nm)の赤外光が被写体に照射される。1フレームの次の1/3の期間では、波長IR2(940nm)の赤外光が被写体に照射される。1フレームの最後の1/3の期間では、波長IR3(870nm)の赤外光が被写体に照射される。波長IR1〜IR3の赤外光を投光する順番は任意である。但し、次の理由により、波長IR2が中央である、例えば波長IR1,IR2,IR3の順が最もよい。   In the example shown in FIG. 8A, infrared light having a wavelength IR1 (780 nm) is irradiated onto the subject in the first 3 period of one frame. In the next 1/3 period of one frame, the subject is irradiated with infrared light having a wavelength IR2 (940 nm). In the last 1/3 period of one frame, the subject is irradiated with infrared light having a wavelength IR3 (870 nm). The order of projecting infrared light with wavelengths IR1 to IR3 is arbitrary. However, for the following reason, the wavelength IR2 is the center, for example, the order of the wavelengths IR1, IR2, and IR3 is the best.

中間モード及び暗視モードでは、後に詳述するように、波長IR1,IR2,IR3それぞれの赤外光を投光した状態で撮像部3が生成した3回の撮像信号に基づいて、1フレームの映像信号が生成される。よって、動きのある被写体を撮像したときには、色ずれや輪郭ぼけが発生する場合がある。   In the intermediate mode and the night-vision mode, as will be described in detail later, one frame is based on three imaging signals generated by the imaging unit 3 in the state where infrared light of wavelengths IR1, IR2, and IR3 is projected. A video signal is generated. Therefore, when a moving subject is imaged, color misregistration or outline blur may occur.

一般的に、R,G,B信号においては、G信号が輝度信号に対する影響度が最も大きい。そこで、G信号に割り当てた映像信号(撮像信号)を生成するための波長IR2の赤外光を中央として、その前後に波長IR1,IR3の赤外光を投光する順番とするのがよい。   Generally, in the R, G, and B signals, the G signal has the greatest influence on the luminance signal. Therefore, it is preferable that the infrared light with the wavelength IR2 for generating the video signal (imaging signal) assigned to the G signal is set at the center, and the infrared light with the wavelengths IR1 and IR3 is projected before and after the infrared light.

図8の(b)に示すように、波長IR1の赤外光を投光しているタイミングでは、撮像部3はR光との相関性が高い露光Ex1Rが行われる。波長IR2の赤外光を投光しているタイミングでは、撮像部3はG光との相関性が高い露光Ex1Gが行われる。波長IR3の赤外光を投光しているタイミングでは、撮像部3はB光との相関性が高い露光Ex1Bが行われる。   As shown in FIG. 8B, at the timing when infrared light having the wavelength IR1 is projected, the imaging unit 3 performs exposure Ex1R having a high correlation with the R light. At the timing when the infrared light having the wavelength IR2 is projected, the imaging unit 3 performs the exposure Ex1G having a high correlation with the G light. At the timing when the infrared light having the wavelength IR3 is projected, the imaging unit 3 performs exposure Ex1B having a high correlation with the B light.

但し、中間モードでは、可視光がわずかに存在する環境下での撮像であるため、可視光と赤外線投光器9より投光された赤外光とが混在した状態である。よって、中間モードにおいては、露光Ex1R,Ex1G,Ex1B,Ex2R,Ex2G,Ex2B…は、可視光による露光と赤外光による露光とを合わせた露光となる。   However, in the intermediate mode, since imaging is performed in an environment where there is a small amount of visible light, visible light and infrared light projected from the infrared projector 9 are mixed. Therefore, in the intermediate mode, the exposures Ex1R, Ex1G, Ex1B, Ex2R, Ex2G, Ex2B... Are exposures that combine exposure with visible light and exposure with infrared light.

図8の(c)に示すように、露光Ex1R,Ex1G,Ex1Bに基づいて、所定時間後に、露光Ex1Rに対応したフレームF1IR1、露光Ex1Gに対応したフレームF1IR2、露光Ex1Bに対応したフレームF1IR3が得られる。 As shown in FIG. 8 (c), exposure Ex1R, Ex1G, based on EX1B, after a predetermined time, the exposure Ex1R frame corresponding to F1IR1, frame F1IR 2 corresponding to the exposure Ex1G, frame F1IR 3 corresponding to the exposure EX1B Is obtained.

また、露光Ex2R,Ex2G,Ex2Bに基づいて、所定時間後に、露光Ex2Rに対応したフレームF2IR1、露光Ex2Gに対応したフレームF2IR3、露光Ex2Bに対応したフレームF2IR2が得られる。露光Ex3R,Ex3G,Ex3B以降も同様である。   Further, based on the exposures Ex2R, Ex2G, and Ex2B, a frame F2IR1 corresponding to the exposure Ex2R, a frame F2IR3 corresponding to the exposure Ex2G, and a frame F2IR2 corresponding to the exposure Ex2B are obtained after a predetermined time. The same applies to exposures Ex3R, Ex3G, and Ex3B.

図8の(c)の撮像信号のフレーム周波数は、90フレーム/秒である。中間モードでは、通常モードにおける映像信号の1フレームを時分割して波長IR1〜IR3の赤外光を投光するため、通常モードと同じ形式の映像信号を出力するためには、図8の(c)の撮像信号のフレーム周波数は、通常モードにおけるフレーム周波数の3倍となる。   The frame frequency of the imaging signal in FIG. 8C is 90 frames / second. In the intermediate mode, since one frame of the video signal in the normal mode is time-divided and infrared light of wavelengths IR1 to IR3 is projected, in order to output a video signal in the same format as in the normal mode, ( The frame frequency of the imaging signal in c) is three times the frame frequency in the normal mode.

後述するように、図8の(c)の3フレームの撮像信号に基づいて、図8の(d)に示す30フレーム/秒のフレーム周波数を有する映像信号の1フレームが生成される。例えば、フレームF1IR1,F1IR2,F1IR3に基づいてフレームF1IRが生成され、フレームF2IR1,F2IR2,F2IR3に基づいてフレームF2IRが生成される。   As will be described later, one frame of a video signal having a frame frequency of 30 frames / second shown in FIG. 8D is generated based on the imaging signal of 3 frames shown in FIG. For example, a frame F1IR is generated based on the frames F1IR1, F1IR2, and F1IR3, and a frame F2IR is generated based on the frames F2IR1, F2IR2, and F2IR3.

図8の(c)の3フレームの撮像信号に基づいて、図8の(d)の各フレームの映像信号を生成する中間モードでの動作を具体的に説明する。   The operation in the intermediate mode for generating the video signal of each frame in FIG. 8D based on the three frames of the imaging signal in FIG. 8C will be specifically described.

A/D変換器4より出力された図8の(c)に示す撮像信号に対応する各フレームの映像データは、スイッチ51を介して前信号処理部52に入力される。   Video data of each frame corresponding to the imaging signal shown in FIG. 8C output from the A / D converter 4 is input to the previous signal processing unit 52 via the switch 51.

図9を用いて、前信号処理部52における前信号処理について説明する。図9の(a)は、波長IR1の赤外光を投光しているタイミングで生成された映像データの任意のフレームFmIR1を示している。フレームFmIR1内のR,B,Gr,Gbの画素データには、波長IR1の赤外光を投光した状態で生成されたことを示す添え字1を付している。   The previous signal processing in the previous signal processing unit 52 will be described with reference to FIG. FIG. 9A shows an arbitrary frame FmIR1 of the video data generated at the timing when the infrared light having the wavelength IR1 is projected. The R, B, Gr, and Gb pixel data in the frame FmIR1 is attached with a subscript 1 indicating that it is generated in a state where infrared light having the wavelength IR1 is projected.

図9の(b)は、波長IR2の赤外光を投光しているタイミングで生成された映像データの任意のフレームFmIR2を示している。フレームFmIR2内のR,B,Gr,Gbの画素データには、波長IR2の赤外光を投光した状態で生成されたことを示す添え字2を付している。   FIG. 9B shows an arbitrary frame FmIR2 of video data generated at the timing when infrared light having a wavelength IR2 is projected. The R, B, Gr, and Gb pixel data in the frame FmIR2 is attached with a subscript 2 indicating that it is generated in a state where infrared light having a wavelength IR2 is projected.

図9の(c)は、波長IR3の赤外光を投光しているタイミングで生成された映像データの任意のフレームFmIR3を示している。フレームFmIR3内のR,B,Gr,Gbの画素データには、波長IR3の赤外光を投光した状態で生成されたことを示す添え字3を付している。   FIG. 9C shows an arbitrary frame FmIR3 of the video data generated at the timing when the infrared light having the wavelength IR3 is projected. The R, B, Gr, and Gb pixel data in the frame FmIR3 has a subscript 3 indicating that it is generated in a state where infrared light having the wavelength IR3 is projected.

図9の(a)に示すフレームFmIR1は、R光との相関性が高い波長IR1の赤外光が投光された状態で生成された映像データであるので、Rの画素データは投光された赤外光と対応した画素データであり、B,Gの画素データは投光された赤外光と対応していない画素データである。B,Gr,Gbの画素データに付しているハッチングは、投光された赤外光と対応していない画素データであることを意味する。   The frame FmIR1 shown in FIG. 9A is video data generated in a state where infrared light having a wavelength IR1 having a high correlation with the R light is projected. Therefore, the R pixel data is projected. The pixel data corresponding to the infrared light and the pixel data B and G are pixel data not corresponding to the projected infrared light. The hatching attached to the B, Gr, and Gb pixel data means that the pixel data does not correspond to the projected infrared light.

図9の(b)に示すフレームFmIR2は、G光との相関性が高い波長IR2の赤外光が投光された状態で生成された映像データであるので、Gの画素データは投光された赤外光と対応した画素データであり、R,Bの画素データは投光された赤外光と対応していない画素データである。R,Bの画素データに付しているハッチングは、投光された赤外光と対応していない画素データであることを意味する。   The frame FmIR2 shown in FIG. 9B is video data generated in a state where infrared light having a wavelength IR2 having a high correlation with the G light is projected, so that the G pixel data is projected. The pixel data corresponding to the infrared light, and the R and B pixel data are pixel data not corresponding to the projected infrared light. The hatching attached to the R and B pixel data means that the pixel data does not correspond to the projected infrared light.

図9の(c)に示すフレームFmIR3は、B光との相関性が高い波長IR3の赤外光が投光された状態で生成された映像データであるので、Bの画素データは投光された赤外光と対応した画素データであり、R,Gの画素データは投光された赤外光と対応していない画素データである。R,Gr,Gbの画素データに付しているハッチングは、投光された赤外光と対応していない画素データであることを意味する。   The frame FmIR3 shown in FIG. 9C is video data generated in a state where infrared light having a wavelength IR3 having a high correlation with the B light is projected, so that the B pixel data is projected. The pixel data corresponding to the infrared light, and the R and G pixel data are pixel data not corresponding to the projected infrared light. The hatching attached to the R, Gr, and Gb pixel data means pixel data that does not correspond to the projected infrared light.

前信号処理部52内の同一位置画素加算部522は、互いに同じ画素位置のR,Gr,Gb,Bの画素データを以下の式(1)〜(3)に従って個別に加算して、加算画素データR123,Gr123,Gb123,B123を生成する。中間モードでは、前信号処理部52内の周囲画素加算部521は不動作である。   The same-position pixel addition unit 522 in the previous signal processing unit 52 individually adds R, Gr, Gb, and B pixel data at the same pixel position according to the following formulas (1) to (3), and adds pixels Data R123, Gr123, Gb123, and B123 are generated. In the intermediate mode, the surrounding pixel addition unit 521 in the previous signal processing unit 52 does not operate.

R123=ka×R1+kb×R2 +kc×R3 …(1)
G123=kd×G1+ke×G2+kf×G3 …(2)
B123=kg×B1+kh×B2+ki×B3 …(3)
R123 = ka × R1 + kb × R2 + kc × R3 (1)
G123 = kd × G1 + ke × G2 + kf × G3 (2)
B123 = kg × B1 + kh × B2 + ki × B3 (3)

式(1)〜(3)において、R1,G1,B1はフレームFmIR1におけるR,G,Bの画素データ、R2,G2,B2はフレームFmIR2におけるR,G,Bの画素データ、R3,G3,B3はフレームFmIR3におけるR,G,Bの画素データである。ka〜kiは所定の係数である。式(2)におけるG123はGr123またはGb123である。   In the equations (1) to (3), R1, G1, and B1 are R, G, and B pixel data in the frame FmIR1, R2, G2, and B2 are R, G, and B pixel data in the frame FmIR2, R3, G3, B3 is R, G, B pixel data in the frame FmIR3. ka to ki are predetermined coefficients. G123 in Formula (2) is Gr123 or Gb123.

このとき、同一位置画素加算部522は、ハッチングを付していないR,Gr,Gb,Bのそれぞれの画素データに、ハッチングを付した同じ画素位置のR,Gr,Gb,Bの画素データそれぞれを加算する。   At this time, the same-position pixel adding unit 522 adds R, Gr, Gb, and B pixel data at the same pixel position with hatching to the respective pixel data with R, Gr, Gb, and B that are not hatched. Is added.

即ち、同一位置画素加算部522は、式(1)に基づいて、フレームFmIR1におけるRの画素データに、フレームFmIR2,FmIR3における同じ画素位置のRの画素データを加算して、加算画素データR123を生成する。つまり、受光素子における赤色のカラーフィルタに対応する領域の画素データだけを用いて赤色用の加算画素データR123を生成する。   That is, the same-position pixel adding unit 522 adds the R pixel data at the same pixel position in the frames FmIR2 and FmIR3 to the R pixel data in the frame FmIR1 based on the equation (1), and adds the added pixel data R123. Generate. In other words, the addition pixel data R123 for red is generated using only the pixel data of the region corresponding to the red color filter in the light receiving element.

同一位置画素加算部522は、式(2)に基づいて、フレームFmIR2におけるGr,Gbの画素データに、フレームFmIR1,FmIR3における同じ画素位置のGr,Gbの画素データを加算して、加算画素データG123を生成する。つまり、受光素子における緑色のカラーフィルタに対応する領域の画素データだけを用いて緑色用の加算画素データG123を生成する。   The same-position pixel addition unit 522 adds the pixel data of Gr and Gb at the same pixel position in the frames FmIR1 and FmIR3 to the pixel data of Gr and Gb in the frame FmIR2 based on the equation (2), and adds pixel data Generate G123. That is, the green summed pixel data G123 is generated using only the pixel data of the region corresponding to the green color filter in the light receiving element.

同一位置画素加算部522は、式(3)に基づいて、フレームFmIR3におけるBの画素データに、フレームFmIR1,FmIR2における同じ画素位置のBの画素データを加算して、加算画素データB123を生成する。つまり、受光素子における青色のカラーフィルタに対応する領域の画素データだけを用いて青色用の加算画素データB123を生成する。   The same-position pixel addition unit 522 adds the B pixel data at the same pixel position in the frames FmIR1 and FmIR2 to the B pixel data in the frame FmIR3 based on the equation (3) to generate the added pixel data B123. . That is, the blue addition pixel data B123 is generated using only the pixel data of the region corresponding to the blue color filter in the light receiving element.

前信号処理部52内の合成部523は、それぞれの画素位置において生成された加算画素データR123,Gr123,Gb123,B123に基づいて、図9の(d)に示す合成映像信号のフレームFmIR123を生成する。   The combining unit 523 in the previous signal processing unit 52 generates a frame FmIR123 of the combined video signal shown in (d) of FIG. 9 based on the added pixel data R123, Gr123, Gb123, and B123 generated at each pixel position. To do.

具体的には、合成部523は、フレームFmIR1における加算画素データR123と、フレームFmIR2における加算画素データGr123,Gb123と、フレームFmIR3における加算画素データB123とを選択して合成する。これによって合成部523は、合成映像信号のフレームFmIR123を生成する。   Specifically, the synthesis unit 523 selects and synthesizes the addition pixel data R123 in the frame FmIR1, the addition pixel data Gr123 and Gb123 in the frame FmIR2, and the addition pixel data B123 in the frame FmIR3. Thereby, the synthesis unit 523 generates a frame FmIR123 of the synthesized video signal.

このように、合成部523は、カラーフィルタ32におけるフィルタエレメントの配列と同じ配列となるように、加算画素データR123,Gr123,Gb123,B123を配列させたフレームFmIR123を生成する。   In this way, the synthesis unit 523 generates a frame FmIR123 in which the addition pixel data R123, Gr123, Gb123, and B123 are arranged so that the arrangement is the same as the arrangement of the filter elements in the color filter 32.

第1中間モードにおいては、ハッチングを付していない画素データと、ハッチングを付した画素データとを用いて、フレームFmIR123の映像データを生成する。   In the first intermediate mode, video data of the frame FmIR123 is generated using pixel data that is not hatched and pixel data that is hatched.

同一位置画素加算部522によって互いに同じ画素位置の画素データを加算するのは、次の理由による。中間モードではわずかではあるものの可視光が存在する環境下での撮像であるため、ハッチングを付した画素データは可視光による露光に基づくそれぞれの色の成分を含む。よって、同じ画素位置の画素データを加算することによって、それぞれの色の感度を上げることができる。   The reason why the pixel data at the same pixel position is added by the same position pixel addition unit 522 is as follows. Since the imaging is performed in an environment where visible light is present in the intermediate mode, the hatched pixel data includes respective color components based on exposure with visible light. Therefore, the sensitivity of each color can be increased by adding pixel data at the same pixel position.

可視光と赤外光とが混在している状況で可視光が比較的多ければ、可視光による露光が支配的となる。この場合、フレームFmIR123の映像データは、可視光によって露光した映像信号に基づく成分が主となる。可視光と赤外光とが混在している状況で赤外光が比較的多ければ、赤外光による露光が支配的となる。この場合、フレームFmIR123の映像データは、赤外光によって露光した映像信号に基づく成分が主となる。   If the visible light and infrared light are mixed and there is a relatively large amount of visible light, exposure with visible light becomes dominant. In this case, the video data of the frame FmIR123 mainly includes components based on the video signal exposed with visible light. If visible light and infrared light are mixed and there is a relatively large amount of infrared light, exposure with infrared light becomes dominant. In this case, the video data of the frame FmIR123 mainly includes components based on the video signal exposed with infrared light.

可視光が比較的少ない場合には、式(1)において、係数ka,kb,kcの大小関係を、ka>kb,kcとし、式(2)において、係数kd,ke,kfの大小関係を、kf>kd,keとし、式(3)において、係数kg,kh,kiの大小関係を、kh>kg,kiとするのがよい。これは、波長IR1はR光との相関性が高く、波長IR2はG光との相関性が高く、波長IR3はB光との相関性が高いからである。   When visible light is relatively small, the relationship between the coefficients ka, kb, and kc in equation (1) is ka> kb, kc, and the relationship between the coefficients kd, ke, and kf in equation (2). , Kf> kd, ke, and in equation (3), the magnitude relationship between the coefficients kg, kh, ki is preferably kh> kg, ki. This is because the wavelength IR1 has a high correlation with the R light, the wavelength IR2 has a high correlation with the G light, and the wavelength IR3 has a high correlation with the B light.

このようにすれば、Rの画素データではフレームFmIR1におけるRの画素データ、Gの画素データではフレームFmIR2におけるGの画素データ、Bの画素データではフレームFmIR3におけるBの画素データを主とすることができる。   In this way, the R pixel data is mainly the R pixel data in the frame FmIR1, the G pixel data is the G pixel data in the frame FmIR2, and the B pixel data is mainly the B pixel data in the frame FmIR3. it can.

前信号処理部52より出力されたフレームFmIR123の映像データは、スイッチ53を介してデモザイク処理部54に入力される。デモザイク処理部54は、通常モードと同様に、入力されたフレームFmIR123の映像データにデモザイク処理を施す。映像処理部5は、デモザイク処理の他の各種の映像処理を施して、R,G,Bの3原色データを出力する。   The video data of the frame FmIR123 output from the previous signal processing unit 52 is input to the demosaic processing unit 54 via the switch 53. The demosaic processing unit 54 performs demosaic processing on the video data of the input frame FmIR123, as in the normal mode. The video processing unit 5 performs various other video processes other than the demosaic process and outputs R, G, and B primary color data.

図10を用いて、デモザイク処理部54におけるデモザイク処理について説明する。図10の(a)は、フレームFmIR123を示している。デモザイク処理部54は、Rの画素データが存在しない画素位置のRの画素データを周囲のRの画素データを用いて演算して、Rの補間画素データR123iを生成する。デモザイク処理部54は、図10の(b)に示す1フレームの全画素がRの画素データよりなるRフレームFmIR123Rを生成する。   The demosaic process in the demosaic processing unit 54 will be described with reference to FIG. FIG. 10A shows a frame FmIR123. The demosaic processing unit 54 calculates the R pixel data at the pixel position where the R pixel data does not exist using the surrounding R pixel data, and generates the R interpolation pixel data R123i. The demosaic processing unit 54 generates an R frame FmIR123R in which all the pixels in one frame shown in FIG.

デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周囲のGの画素データを用いて演算して、Gの補間画素データG123iを生成する。デモザイク処理部54は、図10の(c)に示す1フレームの全画素がGの画素データよりなるGフレームFmIR123Gを生成する。   The demosaic processing unit 54 calculates the G pixel data at the pixel position where the G pixel data does not exist using the surrounding G pixel data, and generates the G interpolation pixel data G123i. The demosaic processing unit 54 generates a G frame FmIR123G in which all the pixels of one frame shown in FIG.

デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周囲のBの画素データを用いて演算して、Bの補間画素データB123iを生成する。デモザイク処理部54は、図10の(d)に示す1フレームの全画素がBの画素データよりなるBフレームFmIR123Bを生成する。   The demosaic processing unit 54 calculates the B pixel data at the pixel position where the B pixel data does not exist using the surrounding B pixel data, and generates the B interpolation pixel data B123i. The demosaic processing unit 54 generates a B frame FmIR123B in which all the pixels in one frame shown in FIG.

通常モードにおける図7に示すデモザイク処理部54の動作と、中間モードにおける図10に示すデモザイク処理部54の動作とを比較すれば分かるように、両者は実質的に同じである。デモザイク処理部54の動作は、通常モードであっても中間モードであっても変わらない。   As can be understood by comparing the operation of the demosaic processing unit 54 shown in FIG. 7 in the normal mode with the operation of the demosaic processing unit 54 shown in FIG. 10 in the intermediate mode, they are substantially the same. The operation of the demosaic processing unit 54 does not change regardless of whether it is the normal mode or the intermediate mode.

通常モードでは前信号処理部52を不動作とし、中間モードでは、周囲画素加算部521を除き、前信号処理部52を動作させればよい。通常モードと中間モードとで、映像処理部5におけるデモザイク処理部54等の信号処理部を共用させることができる。   In the normal mode, the previous signal processing unit 52 is disabled, and in the intermediate mode, the previous signal processing unit 52 may be operated except for the surrounding pixel adding unit 521. In the normal mode and the intermediate mode, the signal processing unit such as the demosaic processing unit 54 in the video processing unit 5 can be shared.

<中間モード:第2中間モード>
図11及び図12を用いて、第2中間モードにおける動作を説明する。第2中間モードにおける動作において、第1中間モードにおける動作と同一部分は説明を省略する。図11の(a)〜(c)のフレームFmIR1,FmIR2,FmIR3は、図9の(a)〜(c)のフレームFmIR1,FmIR2,FmIR3と同じである。
<Intermediate mode: second intermediate mode>
The operation in the second intermediate mode will be described with reference to FIGS. In the operation in the second intermediate mode, the description of the same part as the operation in the first intermediate mode is omitted. The frames FmIR1, FmIR2, and FmIR3 in (a) to (c) of FIG. 11 are the same as the frames FmIR1, FmIR2, and FmIR3 in (a) to (c) of FIG.

合成部523は、フレームFmIR1におけるRの画素データであるR1と、フレームFmIR2におけるGの画素データであるGr2,Gb2と、フレームFmIR3におけるBの画素データであるB3とを選択して合成する。これによって合成部523は、図11の(d)に示す合成映像信号のフレームFmIR123’を生成する。   The combining unit 523 selects and combines R1 which is R pixel data in the frame FmIR1, Gr2 and Gb2 which are G pixel data in the frame FmIR2, and B3 which is B pixel data in the frame FmIR3. As a result, the synthesis unit 523 generates a frame FmIR123 'of the synthesized video signal shown in FIG.

即ち、フレームFmIR123’は、フレームFmIR1,FmIR2,FmIR3におけるハッチングを付していないR,Gr,Gb,Bの画素データを1フレームに集結させた映像データである。 That is, the frame FmIR123 'is a frame FmIR1, FmIR 2, not hatched in FmIR 3 R, Gr, Gb, video data is gathered pixel data of B in one frame.

つまり、フレームFmIR123’においては、波長IR1の赤外光を投光した状態における赤色のカラーフィルタに対応する領域の画素データだけを用いた赤色用の画素データ、波長IR2の赤外光を投光した状態における緑色のカラーフィルタに対応する領域の画素データだけを用いた緑色用の画素データ、波長IR3の赤外光を投光した状態における青色のカラーフィルタに対応する領域の画素データだけを用いた青色用の画素データとなっている。   That is, in the frame FmIR123 ′, the pixel data for red using only the pixel data in the region corresponding to the red color filter in the state where the infrared light having the wavelength IR1 is projected, and the infrared light having the wavelength IR2 are projected. Only the pixel data for the green color using only the pixel data of the region corresponding to the green color filter in the selected state, and the pixel data of the region corresponding to the blue color filter in the state of projecting the infrared light having the wavelength IR3 are used. The pixel data is for blue.

このように、合成部523は、カラーフィルタ32におけるフィルタエレメントの配列と同じ配列となるように、画素データR1,Gr2,Gb2,B3を配列させたフレームFmIR123’を生成する。   As described above, the synthesis unit 523 generates a frame FmIR123 'in which the pixel data R1, Gr2, Gb2, and B3 are arranged so that the arrangement is the same as the arrangement of the filter elements in the color filter 32.

第2中間モードでは、同一位置画素加算部522は、式(1)における係数kaを1、係数kb,kcを0とし、式(2)における係数keを1、係数kd,kfを0とし、式(3)における係数kiを1、係数kg,khを0とする。   In the second intermediate mode, the same-position pixel adding unit 522 sets the coefficient ka in Equation (1) to 1, the coefficients kb and kc to 0, the coefficient ke in Equation (2) to 1, the coefficients kd and kf to 0, In equation (3), the coefficient ki is 1 and the coefficients kg and kh are 0.

これによって、フレームFmIR1におけるRの画素データと、フレームFmIR2におけるGr,Gbの画素データと、フレームFmIR3におけるBの画素データは、それぞれそのままの値となる。   As a result, the R pixel data in the frame FmIR1, the Gr and Gb pixel data in the frame FmIR2, and the B pixel data in the frame FmIR3 have the same values.

よって、合成部523は、第1中間モードにおける動作と同様に、フレームFmIR1におけるRの画素データと、フレームFmIR2におけるGr,Gbの画素データと、フレームFmIR3におけるBの画素データを選択すれば、フレームFmIR123’を生成することができる。   Therefore, similarly to the operation in the first intermediate mode, the combining unit 523 selects the R pixel data in the frame FmIR1, the Gr and Gb pixel data in the frame FmIR2, and the B pixel data in the frame FmIR3. FmIR123 'can be generated.

第2中間モードにおいては、前信号処理部52は、画素データの色と同じ色の画素データを生成するための赤外光が投光された状態で生成された画素データ(ハッチングを付していない画素データ)のみ用いて、フレームFmIR123’の映像データを生成する。   In the second intermediate mode, the front signal processing unit 52 generates pixel data (hatched) with infrared light projected to generate pixel data having the same color as the pixel data. Video data of the frame FmIR123 ′ is generated using only (non-pixel data).

第2中間モードによれば、第1中間モードよりも感度や色の再現性は低下するものの、演算処理を簡略化したり、フレームメモリを削減したりすることができる。   According to the second intermediate mode, the sensitivity and color reproducibility are lower than those in the first intermediate mode, but the arithmetic processing can be simplified and the frame memory can be reduced.

図12を用いて、デモザイク処理部54におけるデモザイク処理について説明する。図12の(a)は、フレームFmIR123’を示している。デモザイク処理部54は、Rの画素データが存在しない画素位置のRの画素データを周囲のRの画素データを用いて演算して、Rの補間画素データR1iを生成する。デモザイク処理部54は、図12の(b)に示す1フレームの全画素がRの画素データよりなるRフレームFmIR123’Rを生成する。   The demosaic process in the demosaic processing unit 54 will be described with reference to FIG. FIG. 12A shows the frame FmIR123 '. The demosaic processing unit 54 calculates the R pixel data at the pixel position where the R pixel data does not exist using the surrounding R pixel data, and generates the R interpolation pixel data R1i. The demosaic processing unit 54 generates an R frame FmIR123′R in which all the pixels in one frame shown in FIG. 12B are made up of R pixel data.

デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周囲のGの画素データを用いて演算して、Gの補間画素データG2iを生成する。デモザイク処理部54は、図12の(c)に示す1フレームの全画素がGの画素データよりなるGフレームFmIR123’Gを生成する。   The demosaic processing unit 54 calculates G pixel data at a pixel position where no G pixel data exists using the surrounding G pixel data, and generates G interpolation pixel data G2i. The demosaic processing unit 54 generates a G frame FmIR123′G in which all the pixels in one frame shown in FIG.

デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周囲のBの画素データを用いて演算して、Bの補間画素データB3iを生成する。デモザイク処理部54は、図12の(d)に示す1フレームの全画素がBの画素データよりなるBフレームFmIR123’Bを生成する。   The demosaic processing unit 54 calculates the B pixel data at the pixel position where the B pixel data does not exist using the surrounding B pixel data, and generates the B interpolation pixel data B3i. The demosaic processing unit 54 generates a B frame FmIR123′B in which all the pixels of one frame shown in FIG.

以上のように、中間モードにおいては、受光素子における赤色のカラーフィルタに対応する領域から得た画素データから赤色用の画素データを生成し、受光素子における緑色のカラーフィルタに対応する領域から得た画素データから緑色用の画素データを生成し、受光素子における青色のカラーフィルタに対応する領域から得た画素データから青色用の画素データを生成する。   As described above, in the intermediate mode, the pixel data for red is generated from the pixel data obtained from the region corresponding to the red color filter in the light receiving element, and obtained from the region corresponding to the green color filter in the light receiving element. Green pixel data is generated from the pixel data, and blue pixel data is generated from the pixel data obtained from the region corresponding to the blue color filter in the light receiving element.

<暗視モード:第1暗視モード>
暗視モード(第1暗視モード及び後述する第2暗視モード)では、中間モードと同様、制御部7は、駆動部8によって、光学レンズ1と撮像部3との間にダミーガラス22を挿入させる。投光制御部71は、赤外線投光器9による赤外光の投光をオンにする。モード切換部72は、スイッチ51,53を端子Taに接続するように制御する。
<Night Vision Mode: First Night Vision Mode>
In the night-vision mode (the first night-vision mode and the second night-vision mode described later), as in the intermediate mode, the control unit 7 causes the drive unit 8 to place the dummy glass 22 between the optical lens 1 and the imaging unit 3. Insert it. The light projection controller 71 turns on the infrared light projection by the infrared light projector 9. The mode switching unit 72 controls the switches 51 and 53 to be connected to the terminal Ta.

暗視モードにおける概略的な動作は、図8と同じである。但し、暗視モードでは、可視光がほとんど存在しない環境下での撮像であるため、図8の(b)における露光Ex1R,Ex1G,Ex1B,Ex2R,Ex2G,Ex2B…は、赤外光のみによる露光を想定している。   The schematic operation in the night vision mode is the same as that in FIG. However, in the night vision mode, since the imaging is performed in an environment where there is almost no visible light, the exposures Ex1R, Ex1G, Ex1B, Ex2R, Ex2G, Ex2B... In FIG. Is assumed.

可視光がほとんど存在せず赤外光のみが存在している環境下では、カラーフィルタ32におけるそれぞれのフィルタエレメントの特性には差がなくなるため、撮像部3を単色の撮像素子とみなすことができる。   In an environment where there is almost no visible light and only infrared light, there is no difference in the characteristics of the filter elements in the color filter 32, so the imaging unit 3 can be regarded as a monochromatic imaging device. .

そこで、前信号処理部52内の周囲画素加算部521は、暗視モードでは、赤外光の感度を向上させるために、それぞれの画素データに対して、周囲に位置する画素データを加算する。   Therefore, in the night vision mode, the surrounding pixel addition unit 521 in the previous signal processing unit 52 adds pixel data located in the periphery to each pixel data in order to improve the sensitivity of infrared light.

具体的には、図13の(a)に示すように、Rの画素が注目画素であるとき、周囲画素加算部521は、注目画素のRの画素データに対して周囲に位置するG(Gr,Gb)及びBの8画素の画素データを加算する。   Specifically, as illustrated in FIG. 13A, when the R pixel is the target pixel, the surrounding pixel adding unit 521 includes the G (Gr) positioned around the R pixel data of the target pixel. , Gb) and B pixel data of 8 pixels are added.

つまり、中間モードのときは、受光素子における赤色のカラーフィルタに対応する領域から得た画素データから赤色用の画素データを生成していたが、暗視モードでは、中間モードのときよりも広い領域から得た画素データから赤色用の画素データを生成することとなる。図13の(a)〜(c)に示す例では、各色とも注目画素を含む9画素分の領域から得た画素データを用いている。   In other words, in the intermediate mode, red pixel data was generated from the pixel data obtained from the region corresponding to the red color filter in the light receiving element, but in the night vision mode, a wider area than in the intermediate mode. Pixel data for red is generated from the pixel data obtained from the above. In the example shown in FIGS. 13A to 13C, pixel data obtained from an area corresponding to nine pixels including the target pixel is used for each color.

図13の(b)に示すように、Grの画素が注目画素であるとき、周囲画素加算部521は、注目画素のGrの画素データに対して周囲に位置するR,Gb,Bの8画素の画素データを加算する。図13の(c)に示すように、Gbの画素が注目画素であるとき、周囲画素加算部521は、注目画素のGbの画素データに対して周囲に位置するR,Gr,Bの8画素の画素データを加算する。   As shown in FIG. 13B, when the Gr pixel is the target pixel, the surrounding pixel adding unit 521 has eight R, Gb, and B pixels positioned around the pixel data of the target pixel Gr. Are added. As illustrated in FIG. 13C, when the Gb pixel is the target pixel, the surrounding pixel adding unit 521 has eight R, Gr, and B pixels positioned around the Gb pixel data of the target pixel. Are added.

つまり、中間モードのときは、受光素子における緑色のカラーフィルタに対応する領域から得た画素データから緑色用の画素データを生成していたが、暗視モードでは、中間モードのときよりも広い領域から得た画素データから緑色用の画素データを生成することとなる。   In other words, in the intermediate mode, the pixel data for green was generated from the pixel data obtained from the area corresponding to the green color filter in the light receiving element, but in the night vision mode, a wider area than in the intermediate mode. The pixel data for green is generated from the pixel data obtained from the above.

図13の(d)に示すように、Bの画素が注目画素であるとき、周囲画素加算部521は、注目画素のBの画素データに対して周囲に位置するR及びGの8画素の画素データを加算する。   As illustrated in FIG. 13D, when the B pixel is the target pixel, the surrounding pixel adding unit 521 has eight R and G pixels located around the B pixel data of the target pixel. Add data.

つまり、中間モードのときは、受光素子における青色のカラーフィルタに対応する領域から得た画素データから青色用の画素データを生成していたが、暗視モードでは、中間モードのときよりも広い領域から得た画素データから青色用の画素データを生成することとなる。   In other words, in the intermediate mode, blue pixel data was generated from the pixel data obtained from the region corresponding to the blue color filter in the light receiving element, but in the night vision mode, a wider area than in the intermediate mode. The pixel data for blue is generated from the pixel data obtained from the above.

周囲画素加算部521は、注目画素の画素データと周囲の8画素の画素データとの9画素を単純に加算してもよいし、周囲の8画素の画素データに対して所定の重み付けをした上で注目画素の画素データに加算してもよい。   The surrounding pixel adding unit 521 may simply add 9 pixels of the pixel data of the target pixel and the surrounding 8 pixel pixel data, or may apply a predetermined weight to the surrounding 8 pixel pixel data. May be added to the pixel data of the pixel of interest.

ここで、周囲の8画素の画素データに対する重み付けの例を説明する。図3または後述する図32より分かるように、G光に割り当てた波長IR2と、B光に割り当てた波長IR3では、R,G,Bの感度はほぼ同じである。   Here, an example of weighting the pixel data of the surrounding eight pixels will be described. As can be seen from FIG. 3 or FIG. 32 described later, the sensitivities of R, G, and B are almost the same at the wavelength IR2 assigned to the G light and the wavelength IR3 assigned to the B light.

従って、図13の(b)〜(d)に示すように、GまたはBの画素が注目画素であるとき、周囲画素加算部521が、GまたはBの画素データに周囲に位置する8画素の画素データを重み付けなしで加算すると、感度はほぼ9倍になる。   Therefore, as shown in FIGS. 13B to 13D, when the G or B pixel is the target pixel, the surrounding pixel adding unit 521 includes the eight pixels located around the G or B pixel data. When pixel data is added without weighting, the sensitivity is almost nine times.

ところが、図3または後述する図32より分かるように、Rに割り当てた波長IR1では、R,G,Bの感度は大きく異なる。   However, as can be seen from FIG. 3 or FIG. 32 described later, the sensitivities of R, G, and B are greatly different at the wavelength IR1 assigned to R.

従って、図13の(a)に示すように、Rの画素が注目画素であるとき、周囲画素加算部521が、Rの画素データに周囲に位置する8画素の画素データを重み付けなしで加算すると、感度はほぼ9倍とはならず、9倍より小さい倍数となる。   Therefore, as shown in FIG. 13A, when the R pixel is the target pixel, the surrounding pixel adding unit 521 adds the pixel data of 8 pixels located in the periphery to the R pixel data without weighting. The sensitivity is not nearly 9 times, but a multiple smaller than 9 times.

周囲画素加算部521が、注目画素の画素データに対して、周囲に位置する8画素の画素データを重み付けなしで加算したとすると、R信号とG,B信号とでは感度が異なるため、色バランスがずれることになる。   If the surrounding pixel adding unit 521 adds the pixel data of the surrounding 8 pixels to the pixel data of the target pixel without weighting, the R signal and the G and B signals have different sensitivities. Will shift.

よって、周囲画素加算部521は、周囲の8画素の画素データに対して所定の重み付けをした上で注目画素の画素データに加算するのがよい。周囲画素加算部521は、Rの画素が注目画素であるときと、G,Bの画素が注目画素であるときとで、重み付けを異ならせるのがよい。Gの画素が注目画素であるときと、Bの画素が注目画素であるときとで、重み付けを異ならせる場合があってもよい。   Therefore, it is preferable that the surrounding pixel addition unit 521 performs predetermined weighting on the pixel data of the surrounding eight pixels and adds the pixel data to the pixel data of the target pixel. The surrounding pixel adding unit 521 may make the weighting different when the R pixel is the target pixel and when the G and B pixels are the target pixel. There may be cases where the weighting is different between when the G pixel is the target pixel and when the B pixel is the target pixel.

図14は、重み付けの第1の例を示している。図14に示すR,Gb,Gr,Bの各画素の下に付している数字は、重み付け係数である。   FIG. 14 shows a first example of weighting. The numbers attached below the R, Gb, Gr, and B pixels shown in FIG. 14 are weighting coefficients.

撮像部3におけるR,G,Bの分光感度の比が、波長IR1では、R:G:B=1:0.8:0.5、波長IR2及びIR3では、R:G:B=1:1:1であるとする。基本の重み付け係数を、一例として、注目画素:上下左右の画素:斜め方向の画素=100:70:50とする。 R that put the imaging unit 3, G, is the ratio of the spectral sensitivity of B, the wavelength IR1, R: G: B = 1: 0.8: 0.5, in the wavelength IR2 and IR3, R: G: B = Let it be 1: 1: 1. As an example, the basic weighting coefficient is set as pixel of interest: top / bottom / left / right pixels: diagonal pixels = 100: 70: 50.

この場合、図14に示すように、Gr,Gb,Bの画素が注目画素であるときには、周囲の8画素の画素データに対して、基本の重み付け係数を乗じればよい。   In this case, as shown in FIG. 14, when the Gr, Gb, and B pixels are the target pixel, the pixel data of the surrounding eight pixels may be multiplied by a basic weighting coefficient.

Rの画素が注目画素であるときには、波長IR1の赤外光が投光されるので、上記のR,G,Bの分光感度の比を考慮した重み付け係数とするのがよい。波長IR1では、Rの分光感度/Gの分光感度が1/0.8より1.25であり、Rの分光感度/Bの分光感度が1/0.5より2.0である。   When the R pixel is the pixel of interest, infrared light having a wavelength IR1 is projected, and therefore, the weighting coefficient is preferably set in consideration of the above-described ratio of R, G, and B spectral sensitivities. At the wavelength IR1, the spectral sensitivity of R / the spectral sensitivity of G is from 1 / 0.8 to 1.25, and the spectral sensitivity of R / B is from 1 / 0.5 to 2.0.

よって、図14に示すように、Rの画素が注目画素であるときには、上下左右のGの画素データに対して、70×1.25より87を重み付け係数とし、斜め方向のBの画素データに対して、50×2.0より100を重み付け係数とするのがよい。   Therefore, as shown in FIG. 14, when the R pixel is the target pixel, 87 is used as the weighting factor from 70 × 1.25 for the upper, lower, left, and right G pixel data, and the B pixel data in the diagonal direction is used. On the other hand, it is better to set 100 as a weighting coefficient from 50 × 2.0.

撮像部3におけるR,G,Bの分光感度の比は、使用する撮像素子31の種類や製造会社によって異なる。それぞれの撮像素子31に対応させて、重み付け係数を設定するのがよい。   The ratio of the spectral sensitivity of R, G, B in the imaging unit 3 varies depending on the type of imaging element 31 used and the manufacturer. It is preferable to set a weighting coefficient corresponding to each image sensor 31.

図15は、重み付けの第2の例を示している。撮像部3におけるR,G,Bの分光感度の比が、波長IR1では、R:G:B=1:0.8:0.5、波長IR2では、R:G:B=1:1:1、波長IR3では、R:G:B=1:0.95:1であるとする。基本の重み付け係数は、第1の例と同じとする。   FIG. 15 shows a second example of weighting. The ratio of the spectral sensitivities of R, G, and B in the imaging unit 3 is R: G: B = 1: 0.8: 0.5 at the wavelength IR1, and R: G: B = 1: 1: at the wavelength IR2. 1. It is assumed that R: G: B = 1: 0.95: 1 at the wavelength IR3. The basic weighting coefficient is the same as in the first example.

この場合、図15に示すように、Gr,Gbの画素が注目画素であるときには、周囲の8画素の画素データに対して、基本の重み付け係数を乗じればよい。   In this case, as shown in FIG. 15, when the Gr and Gb pixels are the target pixel, the pixel data of the surrounding eight pixels may be multiplied by a basic weighting coefficient.

Rの画素が注目画素であるときには、第1の例と同様に、R,G,Bの分光感度の比を考慮した重み付け係数とするのがよい。図15に示すように、Rの画素が注目画素であるときの重み付け係数は、第1の例と同じである。   When the R pixel is the pixel of interest, it is preferable to use a weighting factor that takes into account the ratio of R, G, and B spectral sensitivities, as in the first example. As shown in FIG. 15, the weighting coefficient when the R pixel is the target pixel is the same as that in the first example.

Bの画素が注目画素であるときには、波長IR3の赤外光が投光されるので、上記のR,G,Bの分光感度の比を考慮した重み付け係数とするのがよい。波長IR3では、Bの分光感度/Gの分光感度が1/0.95より1.05である。   When the B pixel is the pixel of interest, infrared light having a wavelength IR3 is projected, so it is preferable to set the weighting coefficient in consideration of the above-described ratio of R, G, and B spectral sensitivities. At the wavelength IR3, the B spectral sensitivity / G spectral sensitivity is 1.05 to 1.05.

よって、図15に示すように、Bの画素が注目画素であるときには、上下左右のGの画素データに対して、70×1.05より73を重み付け係数とするのがよい。Rの画素データに対する重み付け係数は、基本の重み付け係数の50でよい。   Therefore, as shown in FIG. 15, when the B pixel is the target pixel, 73 is preferably used as the weighting coefficient from 70 × 1.05 to the upper, lower, left, and right G pixel data. The weighting coefficient for the R pixel data may be 50, which is the basic weighting coefficient.

周囲の8画素の画素データに対する重み付けは、部分的に0であってもよい。即ち、周囲画素加算部521における注目画素の画素データに対する周囲画素の画素データの加算とは、8画素の画素データの全てを加算することに限定されない。   The weighting for the pixel data of the surrounding 8 pixels may be partially 0. That is, the addition of the pixel data of the surrounding pixels to the pixel data of the target pixel in the surrounding pixel addition unit 521 is not limited to adding all the pixel data of 8 pixels.

例えば、周囲画素加算部521は、注目画素の画素データに対して上下及び左右に位置する画素の画素データのみを加算し、斜め方向に位置する画素の画素データを加算しなくてもよい。   For example, the surrounding pixel addition unit 521 does not need to add pixel data of pixels positioned in the diagonal direction and add pixel data of pixels positioned in the vertical and horizontal directions to the pixel data of the target pixel.

図16は、重み付けの第3の例であり、斜め方向の画素に対する重み付け係数を0とした例を示している。基本の重み付け係数を、一例として、注目画素:上下左右の画素:斜め方向の画素=100:50:0とする。   FIG. 16 is a third example of weighting, and shows an example in which the weighting coefficient for pixels in an oblique direction is set to zero. As an example, the basic weighting coefficient is set as pixel of interest: vertical and horizontal pixels: diagonal pixels = 100: 50: 0.

撮像部3におけるR,G,Bの分光感度の比を第1の例と同じとする。この場合、図16に示すように、Rの画素が注目画素であるときには、上下左右のGの画素データに対して、50×1.25より62を重み付け係数とするのがよい。   The ratio of the spectral sensitivities of R, G, and B in the imaging unit 3 is the same as that in the first example. In this case, as shown in FIG. 16, when the R pixel is the target pixel, 62 is preferably used as the weighting coefficient from 50 × 1.25 for the upper, lower, left, and right G pixel data.

図14〜図16に示す重み付け係数の数値は、周囲画素に対する重み付けの理解を容易にするための単なる例である。実際の重み付け係数は、映像出力部6より出力される映像信号のダイナミックレンジ等を考慮して適宜設定すればよい。   The numerical values of the weighting coefficients shown in FIGS. 14 to 16 are merely examples for facilitating understanding of the weighting for surrounding pixels. The actual weighting factor may be set as appropriate in consideration of the dynamic range of the video signal output from the video output unit 6.

ところで、ビニングと称される複数の画素をまとめて1つの画素として読み出し可能な撮像素子が存在する。撮像素子31として、ビニング機能を有する撮像素子を用いる場合には、周囲画素加算部521による加算処理ではなく、ビニング機能を有する撮像素子による加算処理を行ってもよい。撮像素子によるビニングは、周囲画素加算部521による加算処理と実質的に等価である。   By the way, there is an image pickup device that can read out a plurality of pixels called binning as a single pixel. When an image sensor having a binning function is used as the image sensor 31, an addition process by an image sensor having a binning function may be performed instead of the addition process by the surrounding pixel addition unit 521. Binning by the image sensor is substantially equivalent to addition processing by the surrounding pixel addition unit 521.

図17の(a)〜(c)のフレームFmIR1,FmIR2,FmIR3は、図9の(a)〜(c)のフレームFmIR1,FmIR2,FmIR3と同じである。図17の(d)〜(f)において、R1ad,Gr1ad,Gb1ad,B1ad,R2ad,Gr2ad,Gb2ad,B2ad,R3ad,Gr3ad,Gb3ad,B3adは、それぞれ、R,Gr,Gb,Bの画素データに対して周囲の8画素の画素データを加算した加算画素データである。 Frame FmIR1, FmIR 2, FmIR 3 of (a) ~ (c) Fig. 17 is the same as the frame FmIR1, FmIR 2, FmIR 3 of (a) ~ (c) of FIG. 9. In (d) to (f) of FIG. 17, R1ad, Gr1ad, Gb1ad, B1ad, R2ad, Gr2ad, Gb2ad, B2ad, R3ad, Gr3ad, Gb3ad, and B3ad are converted into R, Gr, Gb, and B pixel data, respectively. On the other hand, it is added pixel data obtained by adding pixel data of surrounding eight pixels.

周囲画素加算部521は、フレームFmIR1,FmIR2,FmIR3のそれぞれの画素データに対して図13に示す加算処理を施すことにより、図17の(d)〜(f)に示すフレームFmIR1ad,FmIR2ad,FmIR3adを生成する。 Peripheral pixel adding unit 521, a frame FmIR1, FmIR 2, by performing the addition process shown in FIG. 13 for each of the pixel data of FmIR 3, frame FmIR1ad shown in (d) ~ (f) of FIG. 17, FmIR2ad , FmIR3ad is generated.

図18の(a)〜(c)のフレームFmIR1ad,FmIR2ad,FmIR3adは、図17の(d)〜(f)のフレームFmIR1ad,FmIR2ad,FmIR3adと同じである。   The frames FmIR1ad, FmIR2ad, and FmIR3ad in (a) to (c) of FIG. 18 are the same as the frames FmIR1ad, FmIR2ad, and FmIR3ad in (d) to (f) of FIG.

同一位置画素加算部522は、第1中間モードと同様に、式(1)に基づいて、フレームFmIR1adにおけるR1adの画素データに、フレームFmIR2ad,FmIR3adにおける同じ画素位置のR2ad,R3adの画素データを加算して、加算画素データR123adを生成する。   Similarly to the first intermediate mode, the same-position pixel addition unit 522 adds the pixel data of R2ad and R3ad at the same pixel position in the frames FmIR2ad and FmIR3ad to the pixel data of R1ad in the frame FmIR1ad based on Expression (1). Then, the addition pixel data R123ad is generated.

同一位置画素加算部522は、式(2)に基づいて、フレームFmIR2adにおけるGr2ad,Gb2adの画素データに、フレームFmIR1ad,FmIR3adにおける同じ画素位置のGr1ad,Gb1ad,Gr3ad,Gb3adの画素データを加算して、加算画素データGr123ad,Gb123adを生成する。   The same-position pixel addition unit 522 adds the pixel data of Gr1ad, Gb1ad, Gr3ad, and Gb3ad at the same pixel position in the frames FmIR1ad and FmIR3ad to the pixel data of Gr2ad and Gb2ad in the frame FmIR2ad based on Expression (2). The addition pixel data Gr123ad and Gb123ad are generated.

同一位置画素加算部522は、式(3)に基づいて、フレームFmIR3adにおけるB3adの画素データに、フレームFmIR1ad,FmIR2adにおける同じ画素位置のB1ad,B2adの画素データを加算して、加算画素データB123adを生成する。   The same-position pixel addition unit 522 adds the pixel data of B1ad and B2ad at the same pixel position in the frames FmIR1ad and FmIR2ad to the pixel data of B3ad in the frame FmIR3ad based on the equation (3), and adds the added pixel data B123ad. Generate.

合成部523は、第1中間モードと同様に、フレームFmIR1adにおける加算画素データR123adと、フレームFmIR2adにおける加算画素データGr123ad,Gb123adと、フレームFmIR3adにおける加算画素データB123adとを選択して合成する。これによって合成部523は、図18の(d)に示す合成映像信号のフレームFmIR123adを生成する。   Similar to the first intermediate mode, the combining unit 523 selects and combines the addition pixel data R123ad in the frame FmIR1ad, the addition pixel data Gr123ad and Gb123ad in the frame FmIR2ad, and the addition pixel data B123ad in the frame FmIR3ad. As a result, the synthesis unit 523 generates a frame FmIR123ad of the synthesized video signal shown in FIG.

合成部523は、カラーフィルタ32におけるフィルタエレメントの配列と同じ配列となるように、加算画素データR123ad,Gr123ad,Gb123ad,B123adを配列させたフレームFmIR123adを生成する。   The synthesizing unit 523 generates a frame FmIR123ad in which the addition pixel data R123ad, Gr123ad, Gb123ad, and B123ad are arranged so that the arrangement is the same as the arrangement of the filter elements in the color filter 32.

図19の(a)はフレームFmIR123adを示している。デモザイク処理部54は、Rの画素データが存在しない画素位置のRの画素データを周囲のRの画素データを用いて演算して、Rの補間画素データR123adiを生成する。デモザイク処理部54は、図19の(b)に示す1フレームの全画素がRの画素データよりなるRフレームFmIR123adRを生成する。   FIG. 19A shows a frame FmIR123ad. The demosaic processing unit 54 calculates the R pixel data at the pixel position where the R pixel data does not exist using the surrounding R pixel data, and generates the R interpolation pixel data R123adi. The demosaic processing unit 54 generates an R frame FmIR123adR in which all pixels of one frame shown in FIG. 19B are made up of R pixel data.

デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周囲のGの画素データを用いて演算して、Gの補間画素データG123adiを生成する。デモザイク処理部54は、図19の(c)に示す1フレームの全画素がGの画素データよりなるGフレームFmIR123adGを生成する。   The demosaic processing unit 54 calculates the G pixel data at the pixel position where the G pixel data does not exist using the surrounding G pixel data, and generates the G interpolation pixel data G123adi. The demosaic processing unit 54 generates a G frame FmIR123adG in which all the pixels of one frame shown in FIG.

デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周囲のBの画素データを用いて演算して、Bの補間画素データB123adiを生成する。デモザイク処理部54は、図19の(d)に示す1フレームの全画素がBの画素データよりなるBフレームFmIR123adBを生成する。   The demosaic processing unit 54 calculates the B pixel data at the pixel position where the B pixel data does not exist using the surrounding B pixel data, and generates the B interpolation pixel data B123adi. The demosaic processing unit 54 generates a B frame FmIR123adB in which all the pixels of one frame shown in FIG.

第1中間モードと第1暗視モードとは、前者が周囲画素加算部521を不動作としている一方で、後者が周囲画素加算部521を動作させている点で異なる。モード切換部72は、暗視モードのとき、周囲画素加算部521を動作させればよい。   The first intermediate mode and the first night-vision mode are different in that the former does not operate the surrounding pixel adding unit 521 while the latter operates the surrounding pixel adding unit 521. The mode switching unit 72 may operate the surrounding pixel addition unit 521 in the night vision mode.

暗視モードにおけるデモザイク処理部54の動作は、通常モード及び中間モードにおけるデモザイク処理部54の動作と実質的に同じである。通常モードと中間モードと暗視モードとで、映像処理部5におけるデモザイク処理部54等の信号処理部を共用させることができる。   The operation of the demosaic processing unit 54 in the night vision mode is substantially the same as the operation of the demosaic processing unit 54 in the normal mode and the intermediate mode. The signal processing unit such as the demosaic processing unit 54 in the video processing unit 5 can be shared in the normal mode, the intermediate mode, and the night vision mode.

<暗視モード:第2暗視モード>
図20及び図21を用いて、第2暗視モードにおける動作を説明する。第2暗視モードにおける動作において、第1暗視モードにおける動作と同一部分は説明を省略する。図20の(a)〜(c)のフレームFmIR1ad,FmIR2ad,FmIR3adは、図18の(a)〜(c)のFmIR1ad,FmIR2ad,FmIR3adと同じである。
<Night Vision Mode: Second Night Vision Mode>
The operation in the second night-vision mode will be described with reference to FIGS. In the operation in the second night vision mode, the description of the same part as the operation in the first night vision mode is omitted. The frames FmIR1ad, FmIR2ad, and FmIR3ad in (a) to (c) of FIG. 20 are the same as the FmIR1ad, FmIR2ad, and FmIR3ad in (a) to (c) of FIG.

合成部523は、フレームFmIR1adにおけるRの画素データであるR1adと、フレームFmIR2におけるGの画素データであるGr2ad,Gb2adと、フレームFmIR3におけるBの画素データであるB3adとを選択して合成する。これによって合成部523は、図20の(d)に示す合成映像信号のフレームFmIR123’adを生成する。   The combining unit 523 selects and combines R1ad that is R pixel data in the frame FmIR1ad, Gr2ad and Gb2ad that are G pixel data in the frame FmIR2, and B3ad that is B pixel data in the frame FmIR3. As a result, the synthesis unit 523 generates a frame FmIR123′ad of the synthesized video signal shown in FIG.

合成部523は、カラーフィルタ32におけるフィルタエレメントの配列と同じ配列となるように、画素データR1ad,Gr2ad,Gb2ad,B3adを配列させたフレームFmIR123’adを生成する。   The synthesizing unit 523 generates a frame FmIR123′ad in which the pixel data R1ad, Gr2ad, Gb2ad, and B3ad are arranged so that the arrangement is the same as the arrangement of the filter elements in the color filter 32.

なお、図13を用いて説明したように、フレームFmIR123’adにおける赤色用の画素データR1adは、中間モードのときに赤色用の画素データを生成するために用いた領域よりも広い領域から得た画素データから生成されたものとなっている。   As described with reference to FIG. 13, the pixel data R1ad for red in the frame FmIR123'ad is obtained from a wider area than the area used for generating the pixel data for red in the intermediate mode. It is generated from pixel data.

また、フレームFmIR123’adにおける緑色用の加算画素データGr2adは、中間モードのときに緑色用の画素データを生成するために用いた領域よりも広い領域から得た画素データから生成されたものとなっている。   In addition, the additional pixel data Gr2ad for green in the frame FmIR123'ad is generated from pixel data obtained from an area larger than the area used for generating the pixel data for green in the intermediate mode. ing.

さらに、フレームFmIR123’adにおける青色用の加算画素データB3adは、中間モードのときに青色用の画素データを生成するために用いた領域よりも広い領域から得た画素データから生成されたものとなっている。   Furthermore, the additional pixel data B3ad for blue in the frame FmIR123'ad is generated from pixel data obtained from an area larger than the area used for generating the pixel data for blue in the intermediate mode. ing.

第2暗視モードでは、第2中間モードと同様に、同一位置画素加算部522は、式(1)における係数kaを1、係数kb,kcを0とし、式(2)における係数keを1、係数kd,kfを0とし、式(3)における係数kiを1、係数kg,khを0とする。   In the second night-vision mode, as in the second intermediate mode, the same-position pixel addition unit 522 sets the coefficient ka in equation (1) to 1, the coefficients kb and kc to 0, and the coefficient ke in equation (2) to 1. The coefficients kd and kf are set to 0, the coefficient ki in the equation (3) is set to 1, and the coefficients kg and kh are set to 0.

これによって、フレームFmIR1adにおけるR1adの画素データと、フレームFmIR2adにおけるGr2ad,Gb2adの画素データと、フレームFmIR3adにおけるB3adの画素データは、それぞれそのままの値となる。   Thereby, the pixel data of R1ad in the frame FmIR1ad, the pixel data of Gr2ad and Gb2ad in the frame FmIR2ad, and the pixel data of B3ad in the frame FmIR3ad have the same values.

よって、合成部523は、第1暗視モードにおける動作と同様に、フレームFmIR1adにおけるR1adの画素データと、フレームFmIR2adにおけるGr2ad,Gb2adの画素データと、フレームFmIR3adにおけるB3adの画素データを選択すれば、フレームFmIR123’adを生成することができる。   Therefore, as in the operation in the first night vision mode, the combining unit 523 selects the pixel data of R1ad in the frame FmIR1ad, the pixel data of Gr2ad and Gb2ad in the frame FmIR2ad, and the pixel data of B3ad in the frame FmIR3ad. A frame FmIR123'ad can be generated.

図21を用いて、デモザイク処理部54におけるデモザイク処理について説明する。図21の(a)は、フレームFmIR123’adを示している。デモザイク処理部54は、Rの画素データが存在しない画素位置のRの画素データを周囲のR1adの画素データを用いて演算して、Rの補間画素データR1adiを生成する。デモザイク処理部54は、図21の(b)に示す1フレームの全画素がRの画素データよりなるRフレームFmIR123’adRを生成する。   The demosaic process in the demosaic processing unit 54 will be described with reference to FIG. FIG. 21A shows a frame FmIR123′ad. The demosaic processing unit 54 calculates the R pixel data at the pixel position where the R pixel data does not exist using the surrounding R1ad pixel data, and generates the R interpolation pixel data R1adi. The demosaic processing unit 54 generates an R frame FmIR123′adR in which all the pixels in one frame shown in FIG. 21B are made up of R pixel data.

デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周囲のGr2ad,Gb2adの画素データを用いて演算して、Gの補間画素データG2adiを生成する。デモザイク処理部54は、補間して、図21の(c)に示す1フレームの全画素がGの画素データよりなるGフレームFmIR123’adGを生成する。   The demosaic processing unit 54 calculates the G pixel data at the pixel position where the G pixel data does not exist using the surrounding Gr2ad and Gb2ad pixel data, and generates the G interpolation pixel data G2adi. The demosaic processing unit 54 performs interpolation to generate a G frame FmIR123′adG in which all the pixels of one frame shown in FIG.

デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周囲のB3adの画素データを用いて算出したBの補間画素データB3adiを生成する。デモザイク処理部54は、図21の(d)に示す1フレームの全画素がBの画素データよりなるBフレームFmIR123’adBを生成する。   The demosaic processing unit 54 generates B interpolation pixel data B3adi obtained by calculating B pixel data at a pixel position where no B pixel data exists using surrounding B3ad pixel data. The demosaic processing unit 54 generates a B frame FmIR123′adB in which all pixels in one frame shown in FIG.

第2中間モードと第2暗視モードとは、前者が周囲画素加算部521を不動作としている一方で、後者が周囲画素加算部521を動作させている点で異なる。   The second intermediate mode and the second night-vision mode differ in that the former does not operate the surrounding pixel adding unit 521 while the latter operates the surrounding pixel adding unit 521.

また、中間モードにおいては、受光素子における各色に対応する領域から得た画素データそれぞれから各色用の画素データを生成していたが、暗視モードにおいては、周囲画素を加算するため、中間モードにおける各色用の画素データを生成するための領域それぞれよりも広い領域から得た画素データから各色用の画素データを生成するとも言える。   Further, in the intermediate mode, pixel data for each color is generated from each pixel data obtained from the region corresponding to each color in the light receiving element, but in the night vision mode, the surrounding pixels are added. It can also be said that pixel data for each color is generated from pixel data obtained from a region wider than each region for generating pixel data for each color.

<モード切換の例>
図22を用いて、モード切換部72によるモード切換の例を説明する。図22の(a)は、一例として、昼間の時間帯から夜の時間帯へと時間が経過していくとき、周囲環境の明るさが変化していく様子を概略的に示している。
<Example of mode switching>
An example of mode switching by the mode switching unit 72 will be described with reference to FIG. FIG. 22A schematically shows, as an example, how the brightness of the surrounding environment changes as time passes from the daytime period to the nighttime period.

図22の(a)に示すように、昼間から夕刻へと時間が経過していくに従って明るさが低下していき、時刻t3以降、ほぼ真っ暗の状態となる。図22の(a)に示す明るさは実質的に可視光の量を示しており、時刻t3以降、可視光がほとんどない状態である。   As shown in FIG. 22 (a), the brightness decreases as time elapses from daytime to evening, and it becomes almost dark after time t3. The brightness shown in FIG. 22A substantially indicates the amount of visible light, and there is almost no visible light after time t3.

制御部7は、映像処理部5から入力される映像信号(映像データ)の輝度レベルに基づいて周囲環境の明るさを判断することができる。図22の(b)に示すように、モード切換部72は、明るさが所定の閾値Th1(第1の閾値)以上であるとき通常モードとし、明るさが閾値Th1未満で所定の閾値Th2(第2の閾値)以上であるとき中間モード、閾値Th2未満であるとき暗視モードとする。   The control unit 7 can determine the brightness of the surrounding environment based on the luminance level of the video signal (video data) input from the video processing unit 5. As shown in FIG. 22B, the mode switching unit 72 sets the normal mode when the brightness is equal to or higher than a predetermined threshold Th1 (first threshold), and sets the predetermined threshold Th2 (less than the threshold Th1). When it is equal to or greater than the second threshold), the intermediate mode is selected, and when it is less than the threshold Th2, the night vision mode is selected.

本実施形態の撮像装置は、明るさが閾値Th1となる時刻t1までは通常モード、時刻t1から明るさが閾値Th2となる時刻t2まで中間モード、時刻t2以降は暗視モードに、モードを自動的に切り換える。図22の(b)において、中間モードは第1中間モードと第2中間モードとのいずれでもよく、暗視モードは第1暗視モードと第2暗視モードとのいずれでもよい。   The imaging apparatus according to the present embodiment automatically selects the normal mode from time t1 until time t1 when the brightness reaches the threshold value Th1, the intermediate mode from time t1 to time t2 when the brightness reaches the threshold value Th2, and the night vision mode after time t2. Switch automatically. In FIG. 22B, the intermediate mode may be either the first intermediate mode or the second intermediate mode, and the night vision mode may be either the first night vision mode or the second night vision mode.

図22の(a)では可視光がほとんどなくなる時刻t3の直前の明るさを閾値Th2としているが、時刻t3の明るさを閾値Th2としてもよい。   In FIG. 22A, the brightness immediately before time t3 when almost no visible light is present is set as the threshold value Th2, but the brightness at time t3 may be set as the threshold value Th2.

図22の(c)に示すように、モード切換部72は、中間モードの期間で、可視光が比較的多い時刻t1側の期間を第1中間モード、可視光が比較的少ない時刻t2側の期間を第2中間モードとしてもよい。図22の(c)において、暗視モードは第1暗視モードと第2暗視モードとのいずれでもよい。   As shown in FIG. 22 (c), the mode switching unit 72 has a period of time t1 in which the visible light is relatively high in the intermediate mode period, the time period on the time t2 side in the first intermediate mode. The period may be set to the second intermediate mode. In FIG. 22C, the night vision mode may be either the first night vision mode or the second night vision mode.

本実施形態の撮像装置は、投光制御部71が赤外線投光器9のオン・オフを制御し、モード切換部72が映像処理部5内の各部の動作・不動作を切り換えることにより、それぞれのモードを実現することができる。   In the imaging apparatus according to the present embodiment, the light projection control unit 71 controls on / off of the infrared projector 9, and the mode switching unit 72 switches the operation / non-operation of each unit in the video processing unit 5. Can be realized.

図23に示すように、通常モードは、赤外線投光器9がオフ、周囲画素加算部521と同一位置画素加算部522と合成部523がいずれも不動作、デモザイク処理部54が動作の状態である。   As shown in FIG. 23, in the normal mode, the infrared projector 9 is off, the surrounding pixel adding unit 521, the same position pixel adding unit 522, and the synthesizing unit 523 are not operating, and the demosaic processing unit 54 is operating.

第1中間モードは、赤外線投光器9がオン、周囲画素加算部521が不動作、同一位置画素加算部522と合成部523とデモザイク処理部54とが動作の状態である。第2中間モードは、赤外線投光器9がオン、周囲画素加算部521と同一位置画素加算部522とが不動作、合成部523とデモザイク処理部54とが動作の状態である。   In the first intermediate mode, the infrared projector 9 is on, the surrounding pixel adding unit 521 is not operating, and the same-position pixel adding unit 522, the combining unit 523, and the demosaic processing unit 54 are operating. In the second intermediate mode, the infrared projector 9 is on, the surrounding pixel adding unit 521 and the same-position pixel adding unit 522 are not operating, and the synthesizing unit 523 and the demosaic processing unit 54 are operating.

同一位置画素加算部522における動作と不動作とは、前述のように、式(1)〜(3)の係数ka〜kiの値を適宜に設定することによって容易に切り換えることができる。   The operation and non-operation in the same position pixel addition unit 522 can be easily switched by appropriately setting the values of the coefficients ka to ki in the expressions (1) to (3) as described above.

第1暗視モードは、赤外線投光器9がオン、周囲画素加算部521と同一位置画素加算部522と合成部523とデモザイク処理部54との全てが動作の状態である。第2暗視モードは、赤外線投光器9がオン、同一位置画素加算部522が不動作、周囲画素加算部521と合成部523とデモザイク処理部54とが動作の状態である。   In the first night-vision mode, the infrared projector 9 is on, and the surrounding pixel addition unit 521, the same-position pixel addition unit 522, the synthesis unit 523, and the demosaic processing unit 54 are all in an operating state. In the second night-vision mode, the infrared projector 9 is on, the same-position pixel adding unit 522 is not operating, and the surrounding pixel adding unit 521, the combining unit 523, and the demosaic processing unit 54 are operating.

ところで、周囲画素加算部521は、注目画素の画素データに対して周囲の画素データを加算するための計算式において、周囲の画素データに乗じる係数を、0を超える係数(例えば1)とすれば、周囲画素の加算処理を動作の状態とすることができる。   By the way, the surrounding pixel adding unit 521 sets the coefficient multiplied by the surrounding pixel data to a coefficient exceeding 0 (for example, 1) in the calculation formula for adding the surrounding pixel data to the pixel data of the target pixel. The surrounding pixel addition processing can be put into an operation state.

また、周囲画素加算部521は、その計算式において、周囲の画素データに乗じる係数を0とすれば、周囲画素の加算処理を不動作の状態とすることができる。   Further, the surrounding pixel adding unit 521 can set the surrounding pixel addition processing to the non-operating state by setting the coefficient by which the surrounding pixel data is multiplied to 0 in the calculation formula.

周囲画素加算部521における動作と不動作も、係数の値を適宜に設定することによって容易に切り換えることができる。   The operation and non-operation of the surrounding pixel addition unit 521 can be easily switched by appropriately setting the coefficient value.

<撮像装置の第1の変形例>
制御部7が周囲環境の明るさを検出する方法は、映像信号の輝度レベルに基づく方法に限定されない。
<First Modification of Imaging Device>
The method by which the control unit 7 detects the brightness of the surrounding environment is not limited to the method based on the luminance level of the video signal.

図24に示すように、明るさセンサ11によって周囲環境の明るさを検出してもよい。図24において、映像信号の輝度レベルと明るさセンサ11によって検出した明るさとの双方に基づいて、周囲環境の明るさを判断してもよい。   As shown in FIG. 24, the brightness of the surrounding environment may be detected by the brightness sensor 11. In FIG. 24, the brightness of the surrounding environment may be determined based on both the luminance level of the video signal and the brightness detected by the brightness sensor 11.

<撮像装置の第2の変形例>
制御部7は、周囲環境の明るさを直接的に検出せず、1年間における時期(日にち)及び時刻(時間帯)に基づいて周囲環境の明るさを概略的に想定して、モード切換部72が各モードに切り換えるようにしてもよい。
<Second Modification of Imaging Device>
The control unit 7 does not directly detect the brightness of the surrounding environment, but roughly assumes the brightness of the surrounding environment based on the time (date) and time (time zone) in one year, and the mode switching unit 72 may be switched to each mode.

図25に示すように、モード設定テーブル12には、日にちと時間帯との組み合わせに対応して、通常モードと中間モードと暗視モードとのいずれかが設定されている。制御部7内の時計73は、日にちと時刻を管理している。制御部7は、時計73が示す日にちと時刻とを参照して、モード設定テーブル12より設定されているモードを読み出す。   As shown in FIG. 25, in the mode setting table 12, any one of the normal mode, the intermediate mode, and the night vision mode is set corresponding to the combination of the date and the time zone. A clock 73 in the control unit 7 manages the date and time. The control unit 7 refers to the date and time indicated by the clock 73 and reads the mode set from the mode setting table 12.

投光制御部71とモード切換部72は、モード設定テーブル12より読み出されたモードとなるように、撮像装置を制御する。   The light projection control unit 71 and the mode switching unit 72 control the imaging device so that the mode read from the mode setting table 12 is set.

<撮像装置の第3の変形例>
図26に示すように、操作部13によってユーザがモードを手動で選択して、投光制御部71とモード切換部72が選択されたモードとなるように撮像装置を制御してもよい。操作部13は、撮像装置の筐体に設けられている操作ボタンであってもよく、リモートコントローラであってもよい。
<Third Modification of Imaging Device>
As shown in FIG. 26, the imaging device may be controlled so that the user manually selects the mode using the operation unit 13 and the light projection control unit 71 and the mode switching unit 72 are in the selected mode. The operation unit 13 may be an operation button provided on the housing of the imaging apparatus or a remote controller.

<モード切換に関する映像信号処理方法>
図27を用いて、図1に示す撮像装置で実行されるモード切換に関する映像信号処理方法を改めて説明する。
<Video signal processing method for mode switching>
A video signal processing method related to mode switching executed by the imaging apparatus shown in FIG. 1 will be described again with reference to FIG.

図27において、撮像装置が動作を開始すると、制御部7は、ステップS1にて、周囲環境の明るさが閾値Th1以上であるか否かを判定する。閾値Th1以上であれば(YES)、制御部7は、ステップS3にて、通常モードでの処理を実行させる。閾値Th1以上でなければ(NO)、制御部7は、ステップS2にて、周囲環境の明るさが閾値Th2以上であるか否かを判定する。   In FIG. 27, when the imaging apparatus starts operation, the control unit 7 determines in step S1 whether or not the brightness of the surrounding environment is equal to or greater than a threshold value Th1. If it is equal to or greater than the threshold Th1 (YES), the control unit 7 causes the process in the normal mode to be executed in step S3. If it is not equal to or greater than the threshold value Th1 (NO), the control unit 7 determines whether or not the brightness of the surrounding environment is equal to or greater than the threshold value Th2 in step S2.

閾値Th2以上であれば(YES)、制御部7は、ステップS4にて、中間モードでの処理を実行させる。閾値Th2以上でなければ(NO)、制御部7は、ステップS5にて、暗視モードでの処理を実行させる。   If it is equal to or greater than the threshold value Th2 (YES), the control unit 7 causes the process in the intermediate mode to be executed in step S4. If it is not greater than or equal to the threshold Th2 (NO), the control unit 7 causes the process in the night-vision mode to be executed in step S5.

制御部7は、ステップS3〜S5の後、処理をステップS1に戻し、ステップS1以降を繰り返す。   Control part 7 returns processing to Step S1 after Steps S3-S5, and repeats after Step S1.

図28は、ステップS3の通常モードの具体的な処理を示す。図28において、制御部7(投光制御部71)は、ステップS31にて、赤外線投光器9をオフにする。制御部7は、ステップS32にて、赤外線カットフィルタ21を挿入する。制御部7(モード切換部72)は、ステップS33にて、スイッチ51,53を端子Tbに接続させる。ステップS31〜S33の順番は任意であり、同時であってもよい。   FIG. 28 shows specific processing in the normal mode in step S3. In FIG. 28, the control unit 7 (light projection control unit 71) turns off the infrared light projector 9 in step S31. In step S32, the control unit 7 inserts the infrared cut filter 21. In step S33, the control unit 7 (mode switching unit 72) connects the switches 51 and 53 to the terminal Tb. The order of steps S31 to S33 is arbitrary and may be simultaneous.

制御部7は、ステップS34にて、撮像部3によって被写体を撮像させる。制御部7は、ステップS35にて、撮像部3が被写体を撮像することよって生成した映像信号を構成するフレームをデモザイク処理部54によってデモザイク処理させるよう、映像処理部5を制御する。   In step S34, the control unit 7 causes the imaging unit 3 to image the subject. In step S <b> 35, the control unit 7 controls the video processing unit 5 so that the demosaic processing unit 54 performs demosaic processing on the frames constituting the video signal generated by the imaging unit 3 imaging the subject.

図29は、ステップS4の中間モードの具体的な処理を示す。図29において、制御部7(投光制御部71)は、ステップS41にて、投光部91〜93より波長IR1〜IR3の赤外光を時分割で投光させるよう、赤外線投光器9をオンにする。   FIG. 29 shows specific processing in the intermediate mode in step S4. 29, in step S41, the control unit 7 (light projection control unit 71) turns on the infrared projector 9 so that infrared light with wavelengths IR1 to IR3 is projected in a time-sharing manner from the light projecting units 91 to 93. To.

制御部7は、ステップS42にて、ダミーガラス22を挿入する。制御部7(モード切換部72)は、ステップS43にて、スイッチ51,53を端子Taに接続させる。ステップS41〜S43の順番は任意であり、同時であってもよい。   The control part 7 inserts the dummy glass 22 in step S42. In step S43, the control unit 7 (mode switching unit 72) connects the switches 51 and 53 to the terminal Ta. The order of steps S41 to S43 is arbitrary and may be simultaneous.

制御部7は、ステップS44にて、撮像部3によって被写体を撮像させる。撮像部3は、Rに対応付けられた波長IR1の赤外光と、Gに対応付けられた波長IR2の赤外光と、Bに対応付けられた波長IR3の赤外光とがそれぞれ投光されている状態で被写体を撮像する。   In step S44, the control unit 7 causes the imaging unit 3 to image the subject. The imaging unit 3 projects infrared light with a wavelength IR1 associated with R, infrared light with a wavelength IR2 associated with G, and infrared light with a wavelength IR3 associated with B, respectively. Take a picture of the subject in the

制御部7(モード切換部72)は、ステップS45にて、周囲画素加算部521を不動作とし、合成部523を動作させて合成映像信号を生成させるよう、前信号処理部52を制御する。 In step S45, the control unit 7 (mode switching unit 72) controls the pre-signal processing unit 52 so that the surrounding pixel addition unit 521 is deactivated and the synthesis unit 523 is operated to generate a synthesized video signal.

波長IR1,IR2,IR3の赤外光がそれぞれ投光されている状態で撮像部3が被写体を撮像することよって生成された映像信号を構成するフレームを第1のフレーム,第2のフレーム,第3のフレームとする。   The frames constituting the video signal generated when the imaging unit 3 images the subject in the state where infrared light of wavelengths IR1, IR2, and IR3 are respectively projected are the first frame, the second frame, 3 frames are assumed.

合成部523は、第1のフレーム内のRの画素データと、第2のフレーム内のGの画素データと、第3のフレーム内のBの画素データとに基づく3原色の画素データを、カラーフィルタ32におけるフィルタエレメントの配列と同じ配列となるように配列させる。合成部523は、このようにして第1〜第3のフレームを1フレームに合成した合成映像信号を生成する。   The synthesizing unit 523 converts the three primary color pixel data based on the R pixel data in the first frame, the G pixel data in the second frame, and the B pixel data in the third frame into color The filters 32 are arranged so as to have the same arrangement as the filter elements. The synthesizer 523 thus generates a synthesized video signal by synthesizing the first to third frames into one frame.

制御部7は、ステップS46にて、合成映像信号のフレームをデモザイク処理部54によってデモザイク処理させるよう、映像処理部5を制御する。   In step S46, the control unit 7 controls the video processing unit 5 so that the demosaic processing unit 54 performs demosaic processing on the frame of the composite video signal.

デモザイク処理部54は、合成映像信号のフレームに基づいて、Rのフレームと、Gのフレームと、Bのフレームとを生成するデモザイク処理を施して、デモザイク処理された3原色のフレームを順次生成する。   The demosaic processing unit 54 performs demosaic processing for generating an R frame, a G frame, and a B frame based on the frame of the composite video signal, and sequentially generates the demosaiced three primary color frames. .

デモザイク処理部54は、Rの画素データが存在しない画素位置にRの画素データを補間することによって、Rのフレームを生成することができる。デモザイク処理部54は、Gの画素データが存在しない画素位置にGの画素データを補間することによって、Gのフレームを生成することができる。デモザイク処理部54は、Bの画素データが存在しない画素位置にBの画素データを補間することによって、Bのフレームとを生成することができる。   The demosaic processing unit 54 can generate an R frame by interpolating the R pixel data at a pixel position where the R pixel data does not exist. The demosaic processing unit 54 can generate the G frame by interpolating the G pixel data at the pixel position where the G pixel data does not exist. The demosaic processing unit 54 can generate the B frame by interpolating the B pixel data at the pixel position where the B pixel data does not exist.

第1中間モードとする場合には、ステップS45にて、同一位置画素加算部522を動作させ、第2中間モードとする場合には、ステップS45にて、同一位置画素加算部522を不動作とすればよい。   In the case of the first intermediate mode, the same position pixel addition unit 522 is operated in step S45, and in the case of the second intermediate mode, the same position pixel addition unit 522 is not operated in step S45. do it.

図30は、ステップS5の暗視モードの具体的な処理を示す。図30において、制御部7(投光制御部71)は、ステップS51にて、投光部91〜93より波長IR1〜IR3の赤外光を時分割で投光させるよう、赤外線投光器9をオンにする。   FIG. 30 shows specific processing in the night-vision mode in step S5. In FIG. 30, the control unit 7 (light projection control unit 71) turns on the infrared projector 9 so that infrared light of wavelengths IR1 to IR3 is projected in a time division manner from the light projection units 91 to 93 in step S51. To.

制御部7は、ステップS52にて、ダミーガラス22を挿入する。制御部7(モード切換部72)は、ステップS53にて、スイッチ51,53を端子Taに接続させる。ステップS51〜S53の順番は任意であり、同時であってもよい。   The control part 7 inserts the dummy glass 22 in step S52. In step S53, the control unit 7 (mode switching unit 72) connects the switches 51 and 53 to the terminal Ta. The order of steps S51 to S53 is arbitrary and may be simultaneous.

制御部7は、ステップS54にて、撮像部3によって被写体を撮像させる。制御部7(モード切換部72)は、ステップS55にて、周囲画素加算部521と合成部523とを動作させて合成映像信号を生成させるよう、前信号処理部52を制御する。   In step S54, the control unit 7 causes the imaging unit 3 to image the subject. In step S55, the control unit 7 (mode switching unit 72) controls the previous signal processing unit 52 to operate the surrounding pixel addition unit 521 and the synthesis unit 523 to generate a synthesized video signal.

制御部7は、ステップS56にて、合成映像信号のフレームをデモザイク処理部54によってデモザイク処理させるよう、映像処理部5を制御する。   In step S56, the control unit 7 controls the video processing unit 5 so that the demosaic processing unit 54 performs demosaic processing on the frame of the composite video signal.

第1暗視モードとする場合には、ステップS55にて、同一位置画素加算部522を動作させ、第2暗視モードとする場合には、ステップS55にて、同一位置画素加算部522を不動作とすればよい。   In the case of the first night vision mode, the same position pixel addition unit 522 is operated in step S55, and in the case of the second night vision mode, the same position pixel addition unit 522 is disabled in step S55. It may be an operation.

<モード切換に関する映像信号処理プログラム>
図1において、制御部7、または、映像処理部5と制御部7との一体化部分をコンピュータ(マイクロコンピュータ)で構成し、映像信号処理プログラム(コンピュータプログラム)をコンピュータで実行させることによって、上述した撮像装置と同様の動作を実現させることも可能である。映像出力部6も含めてコンピュータで構成してもよい。
<Video signal processing program for mode switching>
In FIG. 1, the control unit 7 or an integrated part of the video processing unit 5 and the control unit 7 is configured by a computer (microcomputer), and the video signal processing program (computer program) is executed by the computer. It is also possible to realize the same operation as that of the image pickup apparatus. The image output unit 6 may be configured by a computer.

図31を用いて、図27のステップS4である中間モードにおける制御を映像信号処理プログラムで構成した場合にコンピュータに実行させる手順の例を説明する。図31は、モード切換に関する映像信号処理プログラムがコンピュータに実行させる処理を示す。   An example of a procedure executed by the computer when the control in the intermediate mode, which is step S4 in FIG. 27, is configured by a video signal processing program will be described with reference to FIG. FIG. 31 shows processing executed by the computer by the video signal processing program relating to mode switching.

図31において、映像信号処理プログラムは、ステップS401にて、コンピュータに、R,G,Bに対応付けられた波長IR1,IR2,IR3の赤外光をそれぞれ投光するように赤外線投光器9を制御する処理を実行させる。   In FIG. 31, the video signal processing program controls the infrared projector 9 to project infrared light of wavelengths IR1, IR2, and IR3 associated with R, G, and B to the computer in step S401. To execute the process.

ステップS401に示すステップを映像信号処理プログラムの外部にて実行させてもよい。図31では、ダミーガラス22を挿入させるステップを省略している。ダミーガラス22を挿入させるステップも映像信号処理プログラムの外部にて実行させてもよい。   The step shown in step S401 may be executed outside the video signal processing program. In FIG. 31, the step of inserting the dummy glass 22 is omitted. The step of inserting the dummy glass 22 may also be executed outside the video signal processing program.

映像信号処理プログラムは、ステップS402にて、コンピュータに、波長IR1の赤外光が投光されている状態で、撮像部3が被写体を撮像することによって生成された映像信号の第1のフレームを構成する画素データを取得する処理を実行させる。   In step S402, the video signal processing program captures the first frame of the video signal generated by the imaging unit 3 imaging the subject in a state where infrared light having the wavelength IR1 is projected on the computer. A process of acquiring pixel data to be configured is executed.

映像信号処理プログラムは、ステップS403にて、コンピュータに、波長IR2の赤外光が投光されている状態で、撮像部3が被写体を撮像することによって生成された映像信号の第2のフレームを構成する画素データを取得する処理を実行させる。   In step S403, the video signal processing program captures the second frame of the video signal generated when the imaging unit 3 images the subject in a state where infrared light having the wavelength IR2 is projected on the computer. A process of acquiring pixel data to be configured is executed.

映像信号処理プログラムは、ステップS404にて、コンピュータに、波長IR3の赤外光が投光されている状態で、撮像部3が被写体を撮像することによって生成された映像信号の第3のフレームを構成する画素データを取得する処理を実行させる。ステップS402〜S404の順番は任意である。   In step S404, the video signal processing program captures a third frame of the video signal generated when the imaging unit 3 images the subject in a state where infrared light having the wavelength IR3 is projected on the computer. A process of acquiring pixel data to be configured is executed. The order of steps S402 to S404 is arbitrary.

映像信号処理プログラムは、ステップS405にて、コンピュータに、R,G,Bの画素データを、カラーフィルタ32におけるフィルタエレメントの配列と同じ配列となるように配列させて、1フレームに合成した合成映像信号を生成する処理を実行させる。   In step S405, the video signal processing program causes the computer to arrange the R, G, and B pixel data so as to be in the same arrangement as the arrangement of the filter elements in the color filter 32, and synthesize the synthesized video into one frame. A process for generating a signal is executed.

中間モードでは、映像信号処理プログラムは、ステップS405にて、コンピュータに、周囲画素の加算処理の処理を実行させない。   In the intermediate mode, the video signal processing program does not cause the computer to execute the process of adding the surrounding pixels in step S405.

映像信号処理プログラムは、ステップS406にて、コンピュータに、合成映像信号のフレームにデモザイク処理を施して、R,G,Bのフレームを生成する処理を実行させる。   In step S406, the video signal processing program causes the computer to perform a process of generating a R, G, B frame by performing a demosaic process on the frame of the composite video signal.

図示は省略するが、図27のステップS5である暗視モードにおける制御を映像信号処理プログラムで構成する場合には、図31のステップS405にて、コンピュータに、周囲画素の加算処理の処理を実行させればよい。   Although illustration is omitted, when the control in the night vision mode, which is step S5 in FIG. 27, is configured by a video signal processing program, the computer executes the process of adding surrounding pixels in step S405 in FIG. You can do it.

映像信号処理プログラムは、コンピュータで読み取り可能な記録媒体に記録されたコンピュータプログラムであってよい。映像信号処理プログラムが記録媒体に記録された状態で提供されてもよいし、映像信号処理プログラムをコンピュータにダウンロードさせるよう、インターネット等のネットワークを介して提供されてもよい。コンピュータで読み取り可能な記録媒体は、CD−ROM,DVD−ROM等の非一時的な任意の記録媒体でよい。   The video signal processing program may be a computer program recorded on a computer-readable recording medium. The video signal processing program may be provided in a state where it is recorded on a recording medium, or may be provided via a network such as the Internet so that the computer can download the video signal processing program. The computer-readable recording medium may be any non-temporary arbitrary recording medium such as a CD-ROM or a DVD-ROM.

図1のように構成される撮像装置において、例えば、必要に応じて各部を複数設けたりして、中間モードと暗視モードとを同時に実行するようにしてもよい。その場合、映像出力部6が、中間モードによって生成された映像信号と、暗視モードによって生成された映像信号との両方を出力するようにしてもよい。   In the imaging apparatus configured as illustrated in FIG. 1, for example, a plurality of units may be provided as necessary, and the intermediate mode and the night vision mode may be executed simultaneously. In that case, the video output unit 6 may output both the video signal generated in the intermediate mode and the video signal generated in the night vision mode.

また、モード切換部72は、映像出力部6が中間モードによって生成された映像信号を出力する状態と、映像出力部6が暗視モードによって生成された映像信号を出力する状態とを切り換えるようにしてもよい。その際、前述のように、周囲環境の明るさや時刻等に応じて切り換えてもよい。また、映像処理部5(映像処理装置)を他の各部と別体にしてもよい。   The mode switching unit 72 switches between a state in which the video output unit 6 outputs the video signal generated in the intermediate mode and a state in which the video output unit 6 outputs the video signal generated in the night vision mode. May be. At this time, as described above, switching may be performed according to the brightness of the surrounding environment, the time, or the like. The video processing unit 5 (video processing device) may be separated from other units.

さらに、中間モードを使用せずに、通常モードから暗視モードに切り換えたり、暗視モードから通常モードに切り換えたりする場合があってもよい。   Further, there may be a case where the normal mode is switched to the night vision mode or the night vision mode is switched to the normal mode without using the intermediate mode.

中間モードを使用しない場合には、上述した中間モードの使用が適した環境下では、通常モードと暗視モードとのいずれかを選択して使用すればよい。この場合、中間モードを使用する場合と比較して良好なカラー映像信号とはならないが、撮像は可能である。   When the intermediate mode is not used, the normal mode and the night vision mode may be selected and used in an environment where the use of the intermediate mode is suitable. In this case, the color image signal is not satisfactory as compared with the case where the intermediate mode is used, but imaging is possible.

しかしながら、通常モードと暗視モードのみを搭載した撮像装置であっても、例えば監視カメラで被写体を終日撮影する場合のような周囲の明るさが変化する状況で、1つの撮像装置で被写体を撮影することができる、という効果を奏する。   However, even with an imaging device equipped with only the normal mode and the night vision mode, the subject is photographed with one imaging device in a situation where the ambient brightness changes, for example, when the subject is photographed all day with a surveillance camera. There is an effect that can be done.

さらにまた、暗視モードを使用せずに、通常モードから中間モードに切り換え、中間モードから通常モードに切り換える場合があってもよい。暗視モードを常時使用しない場合は、暗視モードを搭載しないようにしてもよい。   Furthermore, the normal mode may be switched to the intermediate mode and the intermediate mode may be switched to the normal mode without using the night vision mode. When the night vision mode is not always used, the night vision mode may not be installed.

電灯がある場所等では暗視モードを使用しなくてもよい場合がある。通常モードと中間モードのみを搭載した撮像装置は、暗視モードを使用しなくてもよい場合に利用できる。   The night vision mode may not be used in places with electric lights. An imaging apparatus equipped with only the normal mode and the intermediate mode can be used when the night vision mode does not have to be used.

暗視モードを使用しない場合には、上述した暗視モードの使用が適した環境下では、中間モードを使用すればよい。この場合、暗視モードを使用する場合と比較して良好なカラー映像信号とはならないが、撮像は可能である。   When the night vision mode is not used, the intermediate mode may be used in an environment where the above-described night vision mode is suitable. In this case, the color image signal is not good as compared with the case of using the night vision mode, but imaging is possible.

通常モードと中間モードのみを搭載した撮像装置であっても、同様に、周囲の明るさが変化する状況で、1つの撮像装置で被写体を撮影することができる、という効果を奏する。   Even in the case of an imaging device equipped only with the normal mode and the intermediate mode, similarly, there is an effect that a subject can be photographed with one imaging device in a situation where ambient brightness changes.

<可視光の量と赤外光の量との関係の判定方法>
前述のように、周囲環境によって可視光の量と赤外光の量との関係は異なる。可視光の量と赤外光の量との関係がある特定の状態で映像信号のホワイトバランスを調整したとすると、可視光の量と赤外光の量との関係がその特定の状態とは異なった状態では、ホワイトバランスが崩れてしまう。即ち、光量の関係が異なれば、それぞれの状態で被写体の色を高画質に再現することができないということになる。
<Method for determining the relationship between the amount of visible light and the amount of infrared light>
As described above, the relationship between the amount of visible light and the amount of infrared light differs depending on the surrounding environment. If the white balance of the video signal is adjusted in a specific state where there is a relationship between the amount of visible light and the amount of infrared light, the relationship between the amount of visible light and the amount of infrared light is the specific state. In a different state, the white balance is lost. That is, if the relationship between the amounts of light is different, the color of the subject cannot be reproduced with high image quality in each state.

そこで、判定部78は後述する判定方法の第1の例または第2の例によって、光量の主従関係を判定する。まず、図32を用いて、図3で説明した撮像部3における分光感度特性の特徴について考察する。   Therefore, the determination unit 78 determines the master-slave relationship of the light amount according to a first example or a second example of a determination method described later. First, the characteristics of the spectral sensitivity characteristics in the imaging unit 3 described in FIG. 3 will be considered with reference to FIG.

前述のように、波長IR1,IR2,IR3を、780nm,940nm,870nmとする。図32に示すように、Rに対応付けられた波長IR1におけるRの感度をStr、Gに対応付けられた波長IR2におけるGの感度をStg、Bに対応付けられた波長IR3におけるBの感度をStbとする。   As described above, the wavelengths IR1, IR2, and IR3 are set to 780 nm, 940 nm, and 870 nm. As shown in FIG. 32, the sensitivity of R at the wavelength IR1 associated with R is Str, the sensitivity of G at the wavelength IR2 associated with G is Stg, and the sensitivity of B at the wavelength IR3 associated with B is Let it be Stb.

図32より分かるように、感度Str,Stg,Stbの値は大きく異なる。よって、波長IR1〜IR3の赤外光の発光パワーが同一であれば、撮像部3の露光量は波長IR1,IR2,IR3のいずれの赤外光を投光したかによって異なることになる。   As can be seen from FIG. 32, the values of sensitivities Str, Stg, and Stb are greatly different. Therefore, if the emission power of the infrared light with the wavelengths IR1 to IR3 is the same, the exposure amount of the imaging unit 3 differs depending on which infrared light with the wavelengths IR1, IR2, and IR3 is projected.

<判定方法の第1の例>
図33〜図36,図38を用いて、判定方法の第1の例を説明する。波長IR1〜IR3の赤外光の発光パワーは同一であるとする。判定部78は、判定方法の第1の例として、波長IR1,IR2,IR3の赤外光が所定の期間ごとに選択的に投光されている状態における撮像部3の露光量のうち、少なくとも2つの期間の露光量を比較することによって、光量の主従関係を判定する。
<First example of determination method>
A first example of the determination method will be described with reference to FIGS. 33 to 36 and FIG. It is assumed that the emission power of infrared light with wavelengths IR1 to IR3 is the same. As a first example of the determination method, the determination unit 78 includes at least an exposure amount of the imaging unit 3 in a state where infrared light with wavelengths IR1, IR2, and IR3 is selectively projected every predetermined period. The master-slave relationship of the light quantity is determined by comparing the exposure amounts of the two periods.

図33は、可視光の量が赤外光の量と比較して十分に多く、可視光が主の状態を示している。図33の(a),(b)は、図8の(a),(b)を部分的に示している。赤外線投光器9は、図32の(a)のように、波長IR1〜IR3の赤外光を選択的に投光し、撮像部3は、図32の(b)に示すように露光する。   FIG. 33 shows that the amount of visible light is sufficiently larger than the amount of infrared light, and the visible light is the main state. FIGS. 33A and 33B partially show FIGS. 8A and 8B. The infrared projector 9 selectively projects infrared light having wavelengths IR1 to IR3 as shown in FIG. 32A, and the imaging unit 3 exposes as shown in FIG. 32B.

波長IR1の赤外光が投光されている期間での露光量をAepR、波長IR2の赤外光が投光されている期間での露光量をAepG、波長IR3の赤外光が投光されている期間での露光量をAepBとする。   The exposure amount during the period when infrared light with wavelength IR1 is projected is AepR, the exposure amount during the period when infrared light with wavelength IR2 is projected is AepG, and infrared light with wavelength IR3 is projected. Let AepB be the amount of exposure during this period.

可視光が主の状態であれば、撮像部3の露光量は、赤外線投光器9により投光された赤外光にほとんど影響を受けない。よって、撮像部3の露光量AepR,AepG,AepBは、図33の(c)に示すように、波長IR1〜IR3のうちのどの赤外光が投光されてもほぼ同じ値となる。可視光が主の状態のとき、撮像部3の露光量AepR,AepG,AepBは、常時ほぼ一定の値となる。   If visible light is the main state, the exposure amount of the imaging unit 3 is hardly affected by the infrared light projected by the infrared projector 9. Therefore, the exposure amounts AepR, AepG, and AepB of the imaging unit 3 have substantially the same value regardless of which infrared light of the wavelengths IR1 to IR3 is projected, as shown in FIG. When the visible light is the main state, the exposure amounts AepR, AepG, and AepB of the imaging unit 3 are always substantially constant values.

図34は、赤外光の量が可視光の量と比較して十分に多く、赤外光が主の状態を示している。図34の(a),(b)は、図33の(a),(b)と同じである。赤外光が主の状態であれば、撮像部3の露光量は、赤外線投光器9により投光された赤外光の影響を受ける。   FIG. 34 shows that the amount of infrared light is sufficiently larger than the amount of visible light, and infrared light is the main state. 34A and 34B are the same as FIGS. 33A and 33B. If the infrared light is the main state, the exposure amount of the imaging unit 3 is affected by the infrared light projected by the infrared projector 9.

よって、撮像部3の露光量は、図34の(c)に示すように、波長IR1〜IR3のうちのどの赤外光が投光されているかによって値が異なることになる。露光量AepR,AepG,AepBは、図32で説明した感度Str,Stg,Stbの違いを反映して、AepR>AepB>AepGの関係となる。   Therefore, as shown in FIG. 34C, the exposure amount of the imaging unit 3 varies depending on which infrared light of the wavelengths IR1 to IR3 is projected. The exposure amounts AepR, AepG, and AepB have a relationship of AepR> AepB> AepG, reflecting the difference between the sensitivities Str, Stg, and Stb described in FIG.

図33の(c)と図34の(c)とを比較すれば分かるように、判定部78は、撮像部3の露光量が1フレームを3分割した期間でほぼ一定であれば可視光が主、撮像部3の露光量が3分割した期間でばらつけば赤外光が主と判定する。   As can be seen by comparing (c) in FIG. 33 and (c) in FIG. 34, the determination unit 78 determines that the visible light is emitted if the exposure amount of the imaging unit 3 is substantially constant in a period obtained by dividing one frame into three. If the exposure amount of the main and imaging unit 3 varies in three divided periods, it is determined that infrared light is main.

具体的には、露光量AepR,AepG,AepBのうちの少なくとも2つを比較して、所定の閾値以下の差しかなければ可視光が主、所定の閾値を超える差があれば赤外光が主であると判定することができる。露光量AepR,AepG,AepBの3つを互いに比較することによって判定精度を高めることも可能である。   Specifically, at least two of the exposure amounts AepR, AepG, and AepB are compared, and if the difference is not more than a predetermined threshold, the visible light is mainly, and if there is a difference exceeding the predetermined threshold, infrared light is It can be determined to be the main. It is also possible to increase the determination accuracy by comparing the exposure amounts AepR, AepG, and AepB with each other.

露光量AepR,AepG,AepBのうちの2つを比較する場合には、最も差が大きい露光量AepRと露光量AepGとを比較するのがよい。   When comparing two of the exposure amounts AepR, AepG, and AepB, it is preferable to compare the exposure amount AepR and the exposure amount AepG having the largest difference.

図35を用いて、判定方法の第1の例を実現する判定部78のさらに具体的な構成及び動作を説明する。図35は、露光量AepRと露光量AepGとを比較して光量の主従関係を判定する概念的な説明図である。   A more specific configuration and operation of the determination unit 78 that realizes the first example of the determination method will be described with reference to FIG. FIG. 35 is a conceptual explanatory diagram for determining the master-slave relationship of the light amount by comparing the exposure amount AepR and the exposure amount AepG.

図35の(a)は、図9の(a)と同じ、波長IR1の赤外光を投光しているタイミングで生成された映像データの任意のフレームFmIR1である。図35の(b)は、図9の(b)と同じ、波長IR2の赤外光を投光しているタイミングで生成された映像データの任意のフレームFmIR2である。ここでは、Gr,Gbの画素データをGとし、図9で付した添え字を省略している。   FIG. 35A shows an arbitrary frame FmIR1 of video data generated at the timing when infrared light having a wavelength IR1 is projected, which is the same as FIG. 9A. (B) in FIG. 35 is an arbitrary frame FmIR2 of the video data generated at the timing when the infrared light having the wavelength IR2 is projected, which is the same as (b) in FIG. Here, the pixel data of Gr and Gb is G, and the subscripts attached in FIG. 9 are omitted.

図35の(c)は、第1の例における判定部78の概念的なブロック図である。図35の(c)に示すように、判定部78は、平均値化部781と差分演算部782と比較部783とを有する。   FIG. 35C is a conceptual block diagram of the determination unit 78 in the first example. As shown in (c) of FIG. 35, the determination unit 78 includes an average value conversion unit 781, a difference calculation unit 782, and a comparison unit 783.

2つの平均値化部781は、フレームFmIR1の画素データが入力されるタイミングでの平均値化部781と、フレームFmIR2の画素データが入力されるタイミングでの平均値化部781とを別々に図示したものである。   The two averaging units 781 separately illustrate an averaging unit 781 at the timing when the pixel data of the frame FmIR1 is input and an averaging unit 781 at the timing when the pixel data of the frame FmIR2 is input. It is a thing.

平均値化部781は、フレームFmIR1の所定の領域内における画素データを平均値化して平均値Fave(IR1)を生成する。平均値化部781は、フレームFmIR2の所定の領域内における画素データを平均値化して平均値Fave(IR2)を生成する。平均値Fave(IR1),Fave(IR2)は、差分演算部782に入力される。   The averaging unit 781 averages pixel data in a predetermined area of the frame FmIR1 to generate an average value Fave (IR1). The averaging unit 781 averages pixel data in a predetermined area of the frame FmIR2 to generate an average value Fave (IR2). The average values Fave (IR1) and Fave (IR2) are input to the difference calculation unit 782.

所定の領域とは1フレームの全体でもよいし、1フレームの端部を除いた中央部等の部分でもよい。所定の領域とは、複数フレームであってもよい。以下、所定の領域を1フレームとする。   The predetermined area may be the whole of one frame, or may be a portion such as a central portion excluding an end of one frame. The predetermined area may be a plurality of frames. Hereinafter, the predetermined area is one frame.

差分演算部782は、平均値Fave(IR1)と平均値Fave(IR2)との差分を演算して差分値Vdfを生成する。図示していないが、差分値Vdfは絶対値回路によって絶対化されて、比較部783に入力される。   The difference calculation unit 782 calculates a difference between the average value Fave (IR1) and the average value Fave (IR2) to generate a difference value Vdf. Although not shown, the difference value Vdf is absoluteized by the absolute value circuit and input to the comparison unit 783.

比較部783は、差分値Vdfと閾値Th10とを比較して、差分値Vdfが閾値Th10以下であれば可視光が主であることを示し、差分値Vdfが閾値Th10を超えれば赤外光が主であることを示す判定データDdet1を生成する。   The comparison unit 783 compares the difference value Vdf with the threshold value Th10, and indicates that the visible light is mainly if the difference value Vdf is equal to or less than the threshold value Th10. If the difference value Vdf exceeds the threshold value Th10, infrared light is emitted. Determination data Ddet1 indicating the main is generated.

判定データDdet1は、例えば、可視光が主であるときに0、赤外光が主であるときに1の2値データでよい。判定データDdet1は、色ゲイン制御部79へと入力される。なお、判定データDdet1を差分値Vdfに応じて変化する値として、その値に応じて色ゲインを適応的に変化させてもよい。   The determination data Ddet1 may be, for example, binary data of 0 when visible light is dominant and 1 when infrared light is dominant. The determination data Ddet1 is input to the color gain control unit 79. The determination data Ddet1 may be a value that changes according to the difference value Vdf, and the color gain may be adaptively changed according to the value.

図36のフローチャートを用いて、判定部78の動作をさらに説明する。図36において、判定部78は、ステップS101にて、フレームFmIR1の生成タイミングであるか否かを判定する。フレームFmIR1の生成タイミングであれば(YES)、判定部78は、ステップS102にて、フレームFmIR1の画素データを平均値化して平均値Fave(IR1)を生成する。   The operation of the determination unit 78 will be further described with reference to the flowchart of FIG. In FIG. 36, the determination unit 78 determines whether or not it is the generation timing of the frame FmIR1 in step S101. If it is the generation timing of the frame FmIR1 (YES), the determination unit 78 averages the pixel data of the frame FmIR1 to generate an average value Fave (IR1) in step S102.

フレームFmIR1の生成タイミングでなければ(NO)、判定部78は、ステップS103にて、フレームFmIR2の生成タイミングであるか否かを判定する。フレームFmIR2の生成タイミングであれば(YES)、判定部78は、ステップS104にて、フレームFmIR2の画素データを平均値化して平均値Fave(IR2)を生成する。フレームFmIR2の生成タイミングでなければ(NO)、判定部78は、処理をステップS101に戻す。   If it is not the generation timing of the frame FmIR1 (NO), the determination unit 78 determines whether it is the generation timing of the frame FmIR2 in step S103. If it is the generation timing of the frame FmIR2 (YES), the determination unit 78 averages the pixel data of the frame FmIR2 to generate an average value Fave (IR2) in step S104. If it is not the generation timing of the frame FmIR2 (NO), the determination unit 78 returns the process to step S101.

判定部78は、ステップS105にて、平均値Fave(IR1)と平均値Fave(IR2)との差分を演算して差分値Vdfを生成する。判定部78は、ステップS106にて、差分値Vdfが閾値Th10以下であるか否かを判定する。   In step S105, the determination unit 78 calculates a difference between the average value Fave (IR1) and the average value Fave (IR2) to generate a difference value Vdf. In step S106, the determination unit 78 determines whether or not the difference value Vdf is equal to or less than the threshold value Th10.

差分値Vdfが閾値Th10以下であれば(YES)、判定部78は、ステップS107にて、可視光が主であると判定して、処理をステップS101に戻す。差分値Vdfが閾値Th10以下でなければ(NO)、判定部78は、ステップS108にて赤外光が主である判定して、処理をステップS101に戻す。以下、同様の処理を繰り返す。   If the difference value Vdf is equal to or less than the threshold value Th10 (YES), the determination unit 78 determines that visible light is mainly in step S107, and returns the process to step S101. If the difference value Vdf is not equal to or less than the threshold value Th10 (NO), the determination unit 78 determines that infrared light is mainly used in step S108, and returns the process to step S101. Thereafter, the same processing is repeated.

このように、判定方法の第1の例では、制御部7に入力される映像信号(映像データ)の信号レベル、詳細には、1フレームの画素信号(画素データ)の平均値を比較することによって、実質的に露光量AepRと露光量AepGとを比較している。   As described above, in the first example of the determination method, the signal level of the video signal (video data) input to the control unit 7, specifically, the average value of the pixel signal (pixel data) of one frame is compared. Thus, the exposure amount AepR and the exposure amount AepG are substantially compared.

図37に示すように、色ゲイン制御部79は、ステップS201にて、入力された判定データDdet1に基づいて可視光が主であるか否かを判定する。可視光が主であれば(YES)、色ゲイン制御部79は、第1の組の色ゲインを選択するよう色ゲイン設定部62を制御して、処理をステップS201に戻す。   As shown in FIG. 37, in step S201, the color gain control unit 79 determines whether or not the visible light is mainly based on the input determination data Ddet1. If the visible light is mainly (YES), the color gain control unit 79 controls the color gain setting unit 62 to select the first set of color gains, and returns the process to step S201.

可視光が主でなければ(NO)、色ゲイン制御部79は、第2の組の色ゲインを選択するよう色ゲイン設定部62を制御して、処理をステップS201に戻す。以下、同様の処理を繰り返す。   If the visible light is not the main (NO), the color gain control unit 79 controls the color gain setting unit 62 to select the second set of color gains, and returns the process to step S201. Thereafter, the same processing is repeated.

図34及び図35は、波長IR1〜IR3の赤外光の発光パワーが同一である場合を示している。波長IR1〜IR3の赤外光の発光パワーを意図的に異ならせた上で、露光量AepR,AepG,AepBに基づいて光量の主従関係を判定することも可能である。   FIG. 34 and FIG. 35 show a case where the emission power of infrared light with wavelengths IR1 to IR3 is the same. It is also possible to determine the master-slave relationship between the amounts of light based on the exposure amounts AepR, AepG, and AepB after intentionally changing the emission power of infrared light with wavelengths IR1 to IR3.

図38は、図34と同様、赤外光が主の状態を示している。図38の(a),(c)は、図34の(a),(b)と同じである。図38の(b)に示すように、例えば波長IR3の赤外光の発光パワーを波長IR1,IR2の赤外光の発光パワーよりも大きくしたとする。   FIG. 38 shows the main state of infrared light, as in FIG. (A) and (c) of FIG. 38 are the same as (a) and (b) of FIG. As shown in (b) of FIG. 38, for example, it is assumed that the emission power of infrared light with a wavelength IR3 is made larger than the emission power of infrared light with a wavelength IR1 and IR2.

この場合の露光量AepR,AepG,AepBは、図38の(d)に示すようになる。判定部78は、露光量AepRと露光量AepBとを比較して光量の主従関係を判定してもよいし、露光量AepGと露光量AepBとを比較して光量の主従関係を判定してもよい。判定部78は、露光量AepR,AepG,AepBの大小関係の特有のパターンの有無を認識して、特有のパターンがなければ可視光が主、特有のパターンがあれば赤外光が主と判定してもよい。   The exposure amounts AepR, AepG, and AepB in this case are as shown in FIG. The determination unit 78 may determine the master-slave relationship of the light amount by comparing the exposure amount AepR and the exposure amount AepB, or may determine the master-slave relationship of the light amount by comparing the exposure amount AepG and the exposure amount AepB. Good. The determination unit 78 recognizes the presence or absence of a specific pattern related to the magnitudes of the exposure amounts AepR, AepG, and AepB, and determines that visible light is dominant if there is no specific pattern, and infrared light is main if there is a specific pattern. May be.

<判定方法の第2の例>
図39〜図42を用いて、判定方法の第2の例を説明する。波長IR1〜IR3の赤外光の発光パワーは同一であるとする。判定部78は、判定方法の第2の例として、波長IR1の赤外光が投光されている状態で生成された撮像信号に基づく画素信号と、他の赤外光が投光されている状態で生成された撮像信号に基づく画素信号とを用いることによって、光量の主従関係を判定する。
<Second example of determination method>
A second example of the determination method will be described with reference to FIGS. It is assumed that the emission power of infrared light with wavelengths IR1 to IR3 is the same. As a second example of the determination method, the determination unit 78 projects a pixel signal based on an imaging signal generated in a state where infrared light having a wavelength IR1 is projected, and other infrared light. The master-slave relationship of the light amount is determined by using the pixel signal based on the imaging signal generated in the state.

判定部78は、画素信号として、Rの画素信号と、GまたはBの画素信号とを用いる。他の赤外光は、波長IR2の赤外光と波長IR3の赤外光とのいずれでもよい。   The determination unit 78 uses an R pixel signal and a G or B pixel signal as pixel signals. The other infrared light may be either infrared light having a wavelength IR2 or infrared light having a wavelength IR3.

図32に示すように、波長IR1では、Rの感度StrとG,Bの感度とは大きな感度差がある。Rの感度StrとBの感度Stb1との感度差が特に大きい。波長IR2では、R,Bの感度Str2,Stb2は、Gの感度Stgとほぼ同じで両者の感度差はほとんどない。波長IR3でも、Bの感度StbとR,Gの感度との違いはわずかである。   As shown in FIG. 32, at the wavelength IR1, there is a large sensitivity difference between the R sensitivity Str and the G and B sensitivities. The sensitivity difference between the R sensitivity Str and the B sensitivity Stb1 is particularly large. At the wavelength IR2, the R and B sensitivities Str2 and Stb2 are almost the same as the G sensitivity Stg, and there is almost no difference in sensitivity between the two. Even at the wavelength IR3, the difference between the sensitivity Stb of B and the sensitivity of R and G is slight.

判定方法の第2の例は、波長IR1〜IR3で、R,G,Bの感度差が異なることを利用して、光量の主従関係を判定する。   The second example of the determination method determines the master-slave relationship of the light amount by utilizing the difference in sensitivity of R, G, and B at wavelengths IR1 to IR3.

波長IR1では、Rの感度StrとBの感度Stb1との感度差が最も大きいため、Rの画素信号と比較する画素信号としては、Gの画素信号を用いるよりもBの画素信号を用いる方が好ましい。そこで、判定部78は、波長IR1の赤外光が投光されている状態におけるRの画素信号とBの画素信号とを用いることとする。   At the wavelength IR1, the difference in sensitivity between the R sensitivity Str and the B sensitivity Stb1 is the largest. Therefore, as the pixel signal to be compared with the R pixel signal, the B pixel signal is used rather than the G pixel signal. preferable. Therefore, the determination unit 78 uses the R pixel signal and the B pixel signal in a state where infrared light having the wavelength IR1 is projected.

波長IR2の赤外光が投光されている状態におけるR,Bの画素信号と、波長IR3の赤外光が投光されている状態におけるR,Bの画素信号とはいずれでもよいが、判定部78は、前者を用いることとする。   The R and B pixel signals in a state where infrared light with a wavelength IR2 is projected and the R and B pixel signals in a state where infrared light with a wavelength IR3 is projected may be any, but determination The former 78 uses the former.

図39を用いて、判定方法の第2の例を実現する判定部78の具体的な構成及び動作を説明する。図39も、図35と同様、光量の主従関係を判定する概念的な説明図である。   A specific configuration and operation of the determination unit 78 that realizes the second example of the determination method will be described with reference to FIG. FIG. 39 is also a conceptual explanatory diagram for determining the master-slave relationship of the light amount, as in FIG.

図39の(a)は、図35の(a)と同じ、波長IR1の赤外光を投光しているタイミングで生成された映像データの任意のフレームFmIR1である。図39の(b)は、図35の(b)と同じ、波長IR2の赤外光を投光しているタイミングで生成された映像データの任意のフレームFmIR2である。   39A is an arbitrary frame FmIR1 of video data generated at the timing when infrared light having the wavelength IR1 is projected, which is the same as FIG. 35A. FIG. 39B is an arbitrary frame FmIR2 of the video data generated at the timing when infrared light having the wavelength IR2 is projected, which is the same as FIG. 35B.

図39の(c)は、フレームFmIR1内のRの画素のみを抽出した状態を概念的に示している。図39の(d)は、フレームFmIR1内のBの画素のみを抽出した状態を概念的に示している。   FIG. 39C conceptually shows a state in which only R pixels in the frame FmIR1 are extracted. FIG. 39D conceptually shows a state in which only the B pixel in the frame FmIR1 is extracted.

図39の(e)は、フレームFmIR2内のRの画素のみを抽出した状態を概念的に示している。図39の(f)は、フレームFmIR2内のBの画素のみを抽出した状態を概念的に示している。   FIG. 39 (e) conceptually shows a state in which only R pixels in the frame FmIR2 are extracted. FIG. 39 (f) conceptually shows a state where only the B pixel in the frame FmIR2 is extracted.

図39の(g)は、第2の例における判定部78の概念的なブロック図である。図39の(g)に示すように、判定部78は、平均値化部784,785と差分演算部786,787と比較部788とを有する。   FIG. 39G is a conceptual block diagram of the determination unit 78 in the second example. As illustrated in (g) of FIG. 39, the determination unit 78 includes average value conversion units 784 and 785, difference calculation units 786 and 787, and a comparison unit 788.

それぞれ2つの平均値化部784,785は、フレームFmIR1のR,Bの画素データが入力されるタイミングでの平均値化部784,785と、フレームFmIR2のR,Bの画素データが入力されるタイミングでの平均値化部784,785とを別々に図示したものである。   Each of the two averaging units 784 and 785 receives the R and B pixel data of the frame FmIR2 and the averaging units 784 and 785 at the timing when the R and B pixel data of the frame FmIR1 is input. The averaging units 784 and 785 at the timing are separately illustrated.

平均値化部784は、フレームFmIR1の1フレーム内のRの画素データを平均値化して平均値Rave(IR1)を生成する。平均値化部785は、フレームFmIR1の1フレーム内のBの画素データを平均値化して平均値Bave(IR1)を生成する。   The averaging unit 784 averages R pixel data in one frame of the frame FmIR1 to generate an average value Rave (IR1). The averaging unit 785 averages the B pixel data in one frame of the frame FmIR1 to generate an average value Bave (IR1).

平均値化部784は、フレームFmIR2の1フレーム内のRの画素データを平均値化して平均値Rave(IR2)を生成する。平均値化部785は、フレームFmIR2の1フレーム内のBの画素データを平均値化して平均値Bave(IR2)を生成する。   The averaging unit 784 averages R pixel data in one frame of the frame FmIR2 to generate an average value Rave (IR2). The averaging unit 785 averages the B pixel data in one frame of the frame FmIR2 to generate an average value Bave (IR2).

Rの画素データの平均値Rave(IR1),Rave(IR2)を生成するタイミングと、Bの画素データの平均値Bave(IR1),Bave(IR2)を生成するタイミングとをずらすことにより、平均値化部を1つのみとしてもよい。この場合、先に生成した平均値を一時的に保持しておく。   The average value is obtained by shifting the timing for generating the average values Rave (IR1) and Rave (IR2) of the R pixel data and the timing for generating the average values Bave (IR1) and Bave (IR2) of the B pixel data. It is good also as only one conversion part. In this case, the previously generated average value is temporarily stored.

平均値Rave(IR1),Bave(IR1)と平均値Rave(IR2),Bave(IR2)とは、差分演算部786に入力される。2つの差分演算部786は、平均値Rave(IR1),Bave(IR1)が入力されるタイミングでの差分演算部786と、平均値Rave(IR2),Bave(IR2)が入力されるタイミングでの差分演算部786とを別々に図示したものである。   The average values Rave (IR1) and Bave (IR1) and the average values Rave (IR2) and Bave (IR2) are input to the difference calculation unit 786. The two difference calculation units 786 are the difference calculation unit 786 at the timing when the average values Rave (IR1) and Bave (IR1) are input, and the timing at which the average values Rave (IR2) and Bave (IR2) are input. The difference calculation unit 786 is illustrated separately.

差分演算部786は、平均値Rave(IR1)と平均値Bave(IR1)との差分を演算して差分値Vdf1を生成する。差分演算部786は、平均値Rave(IR2)と平均値Bave(IR2)との差分を演算して差分値Vdf2を生成する。図示していないが、差分値Vdf1,Vdf2は絶対値回路によって絶対化されて、差分演算部787に入力される。   The difference calculation unit 786 calculates a difference between the average value Rave (IR1) and the average value Bave (IR1) to generate a difference value Vdf1. The difference calculation unit 786 calculates a difference between the average value Rave (IR2) and the average value Bave (IR2) to generate a difference value Vdf2. Although not shown, the difference values Vdf1 and Vdf2 are absoluteized by the absolute value circuit and input to the difference calculation unit 787.

差分演算部787は、差分値Vdf1と差分値Vdf2との差分を演算して差分値Vdf12を生成する。図示していないが、差分値Vdf12は絶対値回路によって絶対化されて、比較部788に入力される。   The difference calculation unit 787 calculates a difference between the difference value Vdf1 and the difference value Vdf2, and generates a difference value Vdf12. Although not shown, the difference value Vdf12 is absoluteized by the absolute value circuit and input to the comparison unit 788.

比較部788は、差分値Vdf12と閾値Th20とを比較して、差分値Vdf12が閾値Th20以下であれば可視光が主であることを示し、差分値Vdf12が閾値Th20を超えれば赤外光が主であることを示す判定データDdet2を生成する。判定データDdet2も2値データでよい。判定データDdet2は、色ゲイン制御部79へと入力される。   The comparison unit 788 compares the difference value Vdf12 with the threshold value Th20, and indicates that the visible light is mainly if the difference value Vdf12 is equal to or less than the threshold value Th20, and if the difference value Vdf12 exceeds the threshold value Th20, infrared light is emitted. Determination data Ddet2 indicating that it is main is generated. The determination data Ddet2 may also be binary data. The determination data Ddet2 is input to the color gain control unit 79.

図40は、可視光が主の状態を示している。図40の(a),(b)は、図33の(a),(b)と同じである。図40の(c)は、図40の(b)に示す露光に基づいて生成されるフレームを示している。図8で説明したように、図40の(b)の露光と図40の(c)に示すフレームとのタイミングはずれるが、ここでは、タイミングの違いを無視して時間方向(左右方向)の位置を一致させた状態を図示している。   FIG. 40 shows a state in which visible light is mainly used. 40A and 40B are the same as FIGS. 33A and 33B. FIG. 40C shows a frame generated based on the exposure shown in FIG. As described with reference to FIG. 8, the timing of the exposure shown in FIG. 40B and the frame shown in FIG. 40C are off, but here, the timing difference is ignored and the position in the time direction (left-right direction) is ignored. The state where these are matched is illustrated.

可視光が主の状態では図33で説明したように撮像部3の露光量AepR,AepG,AepBはほぼ一定の値であり、波長IR1〜IR3におけるR,G,Bの感度差の影響をほとんど受けない。   In the state where the visible light is the main, as described with reference to FIG. 33, the exposure amounts AepR, AepG, and AepB of the imaging unit 3 are almost constant values, and the influence of the sensitivity differences of R, G, and B at the wavelengths IR1 to IR3 is almost the same. I do not receive it.

よって、図40の(d)に示すように、フレームFmIR1のタイミングで生成される差分値Vdf1とフレームFmIR2のタイミングで生成される差分値Vdf2とはほぼ同じ値となる。従って、差分値Vdf12は小さな値となる。   Therefore, as shown in (d) of FIG. 40, the difference value Vdf1 generated at the timing of the frame FmIR1 and the difference value Vdf2 generated at the timing of the frame FmIR2 are substantially the same value. Therefore, the difference value Vdf12 is a small value.

図40の(d)では、差分値Vdf1,Vdf2を、便宜上、フレームFmIR1,FmIR2のそれぞれのフレーム期間に渡るように記載している。実際には、差分値Vdf1,Vdf2は、判定部78にフレームFmIR1,FmIR2の画素データが入力された後の所定のタイミングで生成される。   In FIG. 40D, the difference values Vdf1 and Vdf2 are described so as to extend over the frame periods of the frames FmIR1 and FmIR2 for convenience. Actually, the difference values Vdf1 and Vdf2 are generated at a predetermined timing after the pixel data of the frames FmIR1 and FmIR2 are input to the determination unit 78.

図41は、赤外光が主の状態を示している。図41の(a)〜(c)は、図40の(a)〜(c)と同じである。赤外光が主の状態では、波長IR1〜IR3におけるR,G,Bの感度差の影響を受ける。   FIG. 41 shows a state in which infrared light is mainly used. 41A to 41C are the same as FIGS. 40A to 40C. When infrared light is the main state, it is affected by the difference in sensitivity between R, G, and B at wavelengths IR1 to IR3.

よって、図41の(d)に示すように、フレームFmIR1のタイミングで生成される差分値Vdf1とフレームFmIR2のタイミングで生成される差分値Vdf2とは値が大きく異なる。従って、差分値Vdf12は大きな値となる。   Therefore, as shown in FIG. 41 (d), the difference value Vdf1 generated at the timing of the frame FmIR1 and the difference value Vdf2 generated at the timing of the frame FmIR2 are greatly different. Therefore, the difference value Vdf12 is a large value.

図42のフローチャートを用いて、判定部78の動作をさらに説明する。図42において、判定部78は、ステップS301にて、フレームFmIR1の生成タイミングであるか否かを判定する。   The operation of the determination unit 78 will be further described with reference to the flowchart of FIG. 42, in step S301, the determination unit 78 determines whether it is the generation timing of the frame FmIR1.

フレームFmIR1の生成タイミングであれば(YES)、判定部78は、ステップS302にて、フレームFmIR1のRの画素データを平均値化して平均値Rave(IR1)を生成する。判定部78は、ステップS303にて、フレームFmIR1のBの画素データを平均値化して平均値Bave(IR1)を生成する。   If it is the generation timing of the frame FmIR1 (YES), the determination unit 78 averages the R pixel data of the frame FmIR1 to generate an average value Rave (IR1) in step S302. In step S303, the determination unit 78 averages the B pixel data of the frame FmIR1 to generate an average value Bave (IR1).

判定部78は、ステップS304にて、平均値Rave(IR1)と平均値Bave(IR1)との差分を演算して差分値Vdf1を生成する。   In step S304, the determination unit 78 calculates a difference between the average value Rave (IR1) and the average value Bave (IR1) to generate a difference value Vdf1.

一方、ステップS301にてフレームFmIR1の生成タイミングでなければ(NO)、判定部78は、ステップS305にて、フレームFmIR2の生成タイミングであるか否かを判定する。   On the other hand, if it is not the generation timing of the frame FmIR1 in step S301 (NO), the determination unit 78 determines whether it is the generation timing of the frame FmIR2 in step S305.

フレームFmIR2の生成タイミングであれば(YES)、判定部78は、ステップS306にて、フレームFmIR2のRの画素データを平均値化して平均値Rave(IR2)を生成する。判定部78は、ステップS307にて、フレームFmIR2のBの画素データを平均値化して平均値Bave(IR2)を生成する。   If it is the generation timing of the frame FmIR2 (YES), the determination unit 78 averages the R pixel data of the frame FmIR2 to generate an average value Rave (IR2) in step S306. In step S307, the determination unit 78 averages the B pixel data of the frame FmIR2 to generate an average value Bave (IR2).

判定部78は、ステップS308にて、平均値Rave(IR2)と平均値Bave(IR2)との差分を演算して差分値Vdf2を生成する。   In step S308, the determination unit 78 calculates a difference between the average value Rave (IR2) and the average value Bave (IR2) to generate a difference value Vdf2.

ステップS305にてフレームFmIR2の生成タイミングでなければ(NO)、判定部78は、処理をステップS301に戻す。   If it is not the generation timing of the frame FmIR2 in step S305 (NO), the determination unit 78 returns the process to step S301.

判定部78は、ステップS309にて、差分値Vdf1と差分値Vdf2との差分を演算して差分値Vdf12を生成する。判定部78は、ステップS310にて、差分値Vdf12が閾値Th20以下であるか否かを判定する。   In step S309, the determination unit 78 calculates a difference between the difference value Vdf1 and the difference value Vdf2, and generates a difference value Vdf12. In step S310, the determination unit 78 determines whether or not the difference value Vdf12 is equal to or less than the threshold value Th20.

差分値Vdf12が閾値Th20以下であれば(YES)、判定部78は、ステップS311にて、可視光が主であると判定して、処理をステップS301に戻す。差分値Vdf12が閾値Th20以下でなければ(NO)、判定部78は、ステップS312にて赤外光が主である判定して、処理をステップS101に戻す。以下、同様の処理を繰り返す。   If the difference value Vdf12 is equal to or less than the threshold value Th20 (YES), the determination unit 78 determines in step S311 that visible light is mainly, and returns the process to step S301. If the difference value Vdf12 is not equal to or less than the threshold value Th20 (NO), the determination unit 78 determines that infrared light is the main in step S312, and returns the process to step S101. Thereafter, the same processing is repeated.

色ゲイン制御部79は、図37のステップS201にて、入力された判定データDdet2に基づいて可視光が主であるか否かを判定する。   In step S201 in FIG. 37, the color gain control unit 79 determines whether or not visible light is mainly based on the input determination data Ddet2.

可視光が主であれば(YES)、色ゲイン制御部79は、第1の組の色ゲインを選択するよう色ゲイン設定部62を制御して、処理をステップS201に戻す。   If the visible light is mainly (YES), the color gain control unit 79 controls the color gain setting unit 62 to select the first set of color gains, and returns the process to step S201.

可視光が主でなければ(NO)、色ゲイン制御部79は、第2の組の色ゲインを選択するよう色ゲイン設定部62を制御して、処理をステップS201に戻す。以下、同様の処理を繰り返す。   If the visible light is not the main (NO), the color gain control unit 79 controls the color gain setting unit 62 to select the second set of color gains, and returns the process to step S201. Thereafter, the same processing is repeated.

<光量の主従関係の判定に応じた映像信号処理方法>
図43を用いて、図1に示す撮像装置で実行される光量の主従関係の判定に応じた映像信号処理方法を改めて説明する。
<Video signal processing method according to determination of master-slave relationship of light quantity>
A video signal processing method according to the determination of the master-slave relationship of the amount of light executed by the imaging apparatus shown in FIG. 1 will be described again with reference to FIG.

図43において、撮像部3は、ステップS501にて、赤外線投光器9によって波長IR1,IR2,IR3の赤外光が選択的に投光されている状態で被写体を撮像して、R,G,Bのそれぞれに対応した撮像信号を生成する。   In FIG. 43, in step S501, the imaging unit 3 images a subject in a state where infrared light of wavelengths IR1, IR2, and IR3 is selectively projected by the infrared projector 9, and R, G, B An imaging signal corresponding to each of the above is generated.

映像処理部5は、ステップS502にて、撮像信号に基づいて、R,G,Bの3原色データを生成する。判定部78は、ステップS503にて、周囲環境の可視光の量と赤外線投光器9によって投光される赤外光の量との主従関係を判定する。   In step S502, the video processing unit 5 generates R, G, and B primary color data based on the imaging signal. In step S503, the determination unit 78 determines the master-slave relationship between the amount of visible light in the surrounding environment and the amount of infrared light projected by the infrared projector 9.

色ゲイン制御部79は、ステップS504にて、可視光が主であれば(YES)、第1の組の色ゲインを選択するよう色ゲイン設定部62を制御する。よって、映像出力部6は、ステップS505にて、3原色データに第1の組の色ゲインを乗じた映像信号を出力する。   In step S504, the color gain control unit 79 controls the color gain setting unit 62 to select the first set of color gains if visible light is the main (YES). Therefore, the video output unit 6 outputs a video signal obtained by multiplying the three primary color data by the first set of color gains in step S505.

色ゲイン制御部79は、ステップS504にて、可視光が主でなければ(NO)、第2の組の色ゲインを選択するよう色ゲイン設定部62を制御する。よって、映像出力部6は、ステップS506にて、3原色データに第2の組の色ゲインを乗じた映像信号を出力する。   In step S504, the color gain control unit 79 controls the color gain setting unit 62 to select the second set of color gains if the visible light is not the main (NO). Therefore, the video output unit 6 outputs a video signal obtained by multiplying the three primary color data by the second set of color gains in step S506.

ステップS504〜S506の処理によって、撮像装置は、判定された主従関係に従って、3原色データに乗じる色ゲインの複数の組のうちのいずれかの組を選択し、選択された組の色ゲインを前記3原色データに乗じた映像信号を出力する。   Through the processing in steps S504 to S506, the imaging apparatus selects one of a plurality of sets of color gains to be multiplied by the three primary color data according to the determined master-slave relationship, and sets the color gain of the selected set to the above-described color gain. A video signal multiplied by the three primary color data is output.

撮像装置が中間モードに設定されているとき、ステップS501〜S506の処理が繰り返される。   When the imaging device is set to the intermediate mode, the processes in steps S501 to S506 are repeated.

<光量の主従関係の判定を含む撮像装置の動作を制御する映像信号処理プログラム>
図44を用いて、光量の主従関係の判定を含む撮像装置の動作をコンピュータプログラムによって制御する場合の映像信号処理プログラムを説明する。
<Video signal processing program for controlling the operation of the imaging apparatus including the determination of the master-slave relationship of light quantity>
With reference to FIG. 44, a video signal processing program in the case of controlling the operation of the imaging device including determination of the master-slave relationship of the light amount by a computer program will be described.

図44において、映像信号処理プログラムは、ステップS601にて、コンピュータに、赤外線投光器9によって波長IR1,IR2,IR3の赤外光が選択的に投光されている状態で被写体を撮像することによって生成されたR,G,Bのそれぞれに対応した撮像信号に基づく映像データを取得する処理を実行させる。   In FIG. 44, the video signal processing program is generated in step S601 by imaging a subject in a state where infrared light of wavelengths IR1, IR2, IR3 is selectively projected by the infrared projector 9 on the computer. A process of acquiring video data based on the imaging signals corresponding to each of the R, G, and B performed is executed.

映像信号処理プログラムは、ステップS602にて、コンピュータに、映像データに基づいて、周囲環境の可視光の量と赤外線投光器9によって投光される赤外光の量との関係を判定する処理を実行させる。図示していないが、判定結果はコンピュータに一時的に保持される。   In step S602, the video signal processing program executes a process of determining, on the computer, the relationship between the amount of visible light in the surrounding environment and the amount of infrared light projected by the infrared projector 9 based on the video data. Let Although not shown, the determination result is temporarily held in the computer.

映像信号処理プログラムは、ステップS603にて、コンピュータに、保持された判定結果を確認する処理を実行させる。   In step S603, the video signal processing program causes the computer to execute processing for confirming the stored determination result.

可視光が主であれば(YES)、映像信号処理プログラムは、ステップS604にて、コンピュータに、色ゲイン設定部62が映像データに基づいて生成される3原色データに乗じる色ゲインの組を第1の組とするよう、色ゲイン設定部62を制御する処理を実行させる。   If visible light is the main (YES), in step S604, the video signal processing program causes the computer to determine a set of color gains to be multiplied by the three primary color data generated by the color gain setting unit 62 based on the video data. A process of controlling the color gain setting unit 62 is executed so that one set is obtained.

可視光が主でなければ(NO)、映像信号処理プログラムは、ステップS605にて、コンピュータに、色ゲイン設定部62が映像データに基づいて生成される3原色データに乗じる色ゲインの組を第2の組とするよう、色ゲイン設定部62を制御する処理を実行させる。   If the visible light is not the main (NO), in step S605, the video signal processing program causes the computer to determine a set of color gains to be multiplied by the three primary color data generated by the color gain setting unit 62 based on the video data. A process for controlling the color gain setting unit 62 is executed so as to obtain a set of two.

ステップS603〜S605によって、映像信号処理プログラムは、コンピュータに、色ゲイン設定部62が3原色データに乗じる色ゲインの組を、判定された主従関係に従って、色ゲインの複数の組のうちからいずれかを選択するよう、色ゲイン設定部62を制御する処理を実行させている。   Through steps S603 to S605, the video signal processing program causes the computer to select one of a plurality of sets of color gains according to the determined master-slave relationship, as a set of color gains to which the color gain setting unit 62 multiplies the three primary color data. The process of controlling the color gain setting unit 62 is executed so as to select.

撮像装置が中間モードに制御されているとき、映像信号処理プログラムは、コンピュータに、ステップS601〜S605の処理が繰り返し実行させる。   When the imaging apparatus is controlled to the intermediate mode, the video signal processing program causes the computer to repeatedly execute the processes in steps S601 to S605.

光量の主従関係の判定を含む撮像装置の動作を制御する映像信号処理プログラムも同様に、コンピュータで読み取り可能な非一時的な記録媒体に記録されたコンピュータプログラムであってよい。この映像信号処理プログラムも記録媒体に記録された状態で提供されてもよいし、ネットワークを介して提供されてもよい。   Similarly, the video signal processing program for controlling the operation of the imaging device including the determination of the master-slave relationship of the light quantity may be a computer program recorded on a computer-readable non-transitory recording medium. This video signal processing program may also be provided in a state of being recorded on a recording medium, or may be provided via a network.

<色ゲインの組の切換例>
図45を用いて、色ゲイン設定部62が用いる色ゲインの組がどのように切り換えられるかについて説明する。図45の(a),(b)は、図22の(a),(b)と同じである。
<Example of color gain group switching>
With reference to FIG. 45, how the color gain set used by the color gain setting unit 62 is switched will be described. 45 (a) and 45 (b) are the same as FIGS. 22 (a) and 22 (b).

通常モードでは可視光が主であるので、色ゲイン設定部62が用いる色ゲインの組は第1の組で固定である。暗視モードでは赤外光が主であるので、色ゲイン設定部62が用いる色ゲインの組は第2の組で固定である。色ゲイン設定部62は、モード切換部72によるモード切換の状態に応じて、第1の組と第2の組とを選択すればよい。   Since the visible light is mainly used in the normal mode, the color gain set used by the color gain setting unit 62 is fixed as the first set. Since the infrared light is mainly used in the night vision mode, the color gain set used by the color gain setting unit 62 is fixed in the second set. The color gain setting unit 62 may select the first group and the second group according to the mode switching state by the mode switching unit 72.

中間モードでは、上述した判定方法の第1または第2の例による判定結果に従って、可視光が比較的多い状態では第1の組が選択され、赤外光が比較的多い状態では第2の組が選択される。   In the intermediate mode, according to the determination result according to the first or second example of the determination method described above, the first group is selected when the visible light is relatively large, and the second group is selected when the infrared light is relatively large. Is selected.

よって、色ゲイン設定部62は、通常モードから中間モードへ、中間モードから暗視モードへと移行したとき、中間モードの途中まで第1の組を用い、中間モードの途中以降、第2の組を用いることになる。   Therefore, when the color gain setting unit 62 shifts from the normal mode to the intermediate mode and from the intermediate mode to the night-vision mode, the first set is used until the middle mode, and after the middle mode, the second group is used. Will be used.

図45の(c)では、便宜的に、中間モードの期間を2分割して、通常モード側を第1の組、暗視モードを第2の組としている。実際に、第1の組が選択する状態から第2の組を選択する状態へと切り換わるタイミングは、閾値Th10,Th20の値の設定の仕方やその他の各種の条件に応じて決まる。   In FIG. 45C, for the sake of convenience, the period of the intermediate mode is divided into two, and the normal mode side is the first set and the night vision mode is the second set. Actually, the timing of switching from the state selected by the first group to the state of selecting the second group depends on how to set the threshold values Th10 and Th20 and various other conditions.

色ゲイン設定部62に色ゲインの組を少なくとも3組保持させておき、暗視モードで用いる色ゲインの組を、中間モードで用いる第2の組とは異なる第3の組としてもよい。   The color gain setting unit 62 may hold at least three color gain groups, and the color gain group used in the night vision mode may be a third group different from the second group used in the intermediate mode.

以上説明した光量の主従関係の判定結果を用いて、中間モードと暗視モードとを切り換えるように構成することも可能である。可視光が主である図33,図40の状態では中間モードとし、赤外光が主である図34,図40の状態では暗視モードとしてもよい。   It is also possible to configure to switch between the intermediate mode and the night-vision mode using the determination result of the master-slave relationship of the light amount described above. In the state of FIGS. 33 and 40 where the visible light is main, the intermediate mode may be used, and in the state of FIGS. 34 and 40 where the infrared light is main, the night-vision mode may be used.

ところで、可視光が主で、赤外光が従である状態とは、必ずしも可視光が赤外光よりも多い状態とは限らない。赤外光が主で、可視光が従である状態とは、必ずしも赤外光が可視光も多い状態とは限らない。可視光と赤外光との関係は、可視光と赤外光との特定の比率を基準して決定する必要はない。例えば、生成される映像信号がより高画質となるように可視光と赤外光との関係を決定すればよい。   By the way, the state where the visible light is the main and the infrared light is the slave is not necessarily the state where the visible light is more than the infrared light. The state where the infrared light is the main and the visible light is the subordinate is not necessarily the state where the infrared light is a lot of visible light. The relationship between visible light and infrared light need not be determined based on a specific ratio of visible light and infrared light. For example, the relationship between visible light and infrared light may be determined so that the generated video signal has higher image quality.

本発明は以上説明した本実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。例えば、図1に示す撮像装置において、赤外線投光器9を撮像装置の筐体と着脱自在にしてもよい。赤外線投光器9を、撮像装置外部の構成としてもよい。撮像装置は、赤外線投光器9を装着したときに、赤外線投光器9を制御する構成を有すればよい。   The present invention is not limited to the embodiment described above, and various modifications can be made without departing from the scope of the present invention. For example, in the imaging apparatus shown in FIG. 1, the infrared projector 9 may be detachable from the casing of the imaging apparatus. The infrared projector 9 may be configured outside the imaging apparatus. The imaging device may have a configuration for controlling the infrared projector 9 when the infrared projector 9 is attached.

可視光と赤外光との関係をそれぞれの光量を測定してもよい。判定部78による主従関係の判定とは、光量を測定した測定結果に基づく場合を含む。上述した映像信号に基づく主従関係の判定では、被写体付近の可視光と赤外光との関係を反映しやすい。よって、映像信号に基づく主従関係の判定の方が光量の測定結果に基づく主従関係の判定よりもよい。   You may measure each light quantity for the relationship between visible light and infrared light. The determination of the master-slave relationship by the determination unit 78 includes a case based on a measurement result obtained by measuring the light amount. In the determination of the master-slave relationship based on the video signal described above, it is easy to reflect the relationship between visible light and infrared light near the subject. Therefore, the determination of the master-slave relationship based on the video signal is better than the determination of the master-slave relationship based on the light quantity measurement result.

また、制御部7は、周囲環境の可視光の量と赤外光の量との関係に応じて種々のパラメータを変化させてもよい。本実施形態は、色ゲインに限らず、撮像部3によって撮像した撮像信号を画像処理するための種々のパラメータを変化させる技術に適応可能である。   The control unit 7 may change various parameters according to the relationship between the amount of visible light and the amount of infrared light in the surrounding environment. The present embodiment is not limited to the color gain, and can be applied to a technique for changing various parameters for image processing of an imaging signal imaged by the imaging unit 3.

制御部7は、周囲環境の可視光の量と赤外光の量との関係に応じて、種々の撮影モード間の切換を行ってもよい。本実施形態は、中間モードや暗視モードに限らず公知の種々の撮影モード間の切換制御に適応可能である。本実施形態は、赤外光を用いた他の撮像技術にも適用可能である。   The control unit 7 may switch between various shooting modes according to the relationship between the amount of visible light and the amount of infrared light in the surrounding environment. The present embodiment is applicable not only to the intermediate mode and the night vision mode but also to switching control between various known shooting modes. This embodiment can also be applied to other imaging techniques using infrared light.

さらに、制御部7や映像処理部5は、1または複数のハードウェアのプロセッサ(CPU)を用いて実現することができる。ハードウェアとソフトウェアとの使い分けは任意である。ハードウェアのみで撮像装置を構成してもよいし、一部の構成をソフトウェアで実現してもよい。   Furthermore, the control unit 7 and the video processing unit 5 can be realized by using one or a plurality of hardware processors (CPUs). Use of hardware and software is optional. The imaging device may be configured only by hardware, or a part of the configuration may be realized by software.

3 撮像部
5 映像処理部
7 制御部
9 赤外線投光器
32 カラーフィルタ
54 デモザイク処理部
62 色ゲイン設定部
71 投光制御部
72 モード切換部
78 判定部
79 色ゲイン制御部
521 周囲画素加算部
522 同一位置画素加算部
523 合成部
781,784,785 平均値化部
782,786,787 差分演算部
783,788 比較部
DESCRIPTION OF SYMBOLS 3 Image pick-up part 5 Image processing part 7 Control part 9 Infrared projector 32 Color filter 54 Demosaic processing part 62 Color gain setting part 71 Light projection control part 72 Mode switching part 78 Judgment part 79 Color gain control part 521 Surrounding pixel addition part 522 Same position Pixel addition unit 523 synthesis unit 781, 784, 785 averaging unit 782, 786, 787 difference calculation unit 783, 788 comparison unit

Claims (7)

赤色と緑色と青色との3原色のフィルタエレメントが面内に所定の配列で配置されたカラーフィルタを備え、赤色に対応付けられた第1の波長を有する第1の赤外光が投光されている状態で被写体を撮像して映像信号の第1のフレームを生成し、緑色に対応付けられた第2の波長を有する第2の赤外光が投光されている状態で被写体を撮像して映像信号の第2のフレームを生成し、青色に対応付けられた第3の波長を有する第3の赤外光が投光されている状態で被写体を撮像して映像信号の第3のフレームを生成する撮像部と、
前記第1〜第3のフレーム内の互いに同じ画素位置の赤色の画素データと互いに同じ画素位置の緑色の画素データと互いに同じ画素位置の青色の画素データとを個別に加算して、赤色の第1の加算画素データと緑色の第2の加算画素データと青色の第3の加算画素データを生成する同一位置画素加算部と、
前記同一位置画素加算部によって生成された前記第1の加算画素データと前記第2の加算画素データと前記第3の加算画素データとの3原色の画素データを、前記カラーフィルタにおける前記フィルタエレメントの配列と同じ配列となるように配列させることによって1フレームに合成した合成映像信号を生成する合成部と、
前記合成部によって生成された合成映像信号のフレームに基づいて、赤色の画素データが存在しない画素位置に赤色の画素データを補間した赤色のフレームと、緑色の画素データが存在しない画素位置に緑色の画素データを補間した緑色のフレームと、青色の画素データが存在しない画素位置に青色の画素データを補間した青色のフレームとを生成するデモザイク処理を施して、3原色のフレームを生成するデモザイク処理部と、
を備えることを特徴とする撮像装置。
A filter element of three primary colors of red, green, and blue is provided with a color filter arranged in a predetermined arrangement in the surface, and first infrared light having a first wavelength associated with red is projected. The subject is imaged to generate a first frame of the video signal, and the subject is imaged with the second infrared light having the second wavelength associated with green. The second frame of the video signal is generated, the subject is imaged in the state where the third infrared light having the third wavelength corresponding to the blue color is projected, and the third frame of the video signal is captured. An imaging unit for generating
The red pixel data at the same pixel position in the first to third frames, the green pixel data at the same pixel position, and the blue pixel data at the same pixel position are individually added to obtain a red first data A same-position pixel addition unit that generates one addition pixel data, green second addition pixel data, and blue third addition pixel data;
The pixel data of the three primary colors of the first addition pixel data, the second addition pixel data, and the third addition pixel data generated by the same position pixel addition unit are used as the filter element in the color filter. A synthesizing unit that generates a synthesized video signal synthesized into one frame by arranging so as to be the same arrangement as the arrangement;
Based on the frame of the synthesized video signal generated by the synthesis unit, a red frame obtained by interpolating red pixel data at a pixel position where no red pixel data exists, and a green frame at a pixel position where no green pixel data exists. A demosaic processing unit that generates a frame of three primary colors by performing a demosaic process that generates a green frame obtained by interpolating pixel data and a blue frame obtained by interpolating blue pixel data at a pixel position where blue pixel data does not exist When,
An imaging apparatus comprising:
前記第1〜第3のフレーム内のそれぞれの画素位置の画素データに対し、周囲に位置する画素データを加算することにより、赤色の画素データに対して周囲に位置する画素データを加算した第4の加算画素データと、緑色の画素データに対して周囲に位置する画素データを加算した第5の加算画素データと、青色の画素データに対して周囲に位置する画素データを加算した第6の加算画素データとを生成する周囲画素加算部をさらに備え、
前記同一位置画素加算部は、前記第1〜第3のフレーム内の互いに同じ画素位置の前記第4〜第6の加算画素データを個別に加算することにより、前記第1〜第3の加算画素データを生成する
ことを特徴とする請求項1記載の撮像装置。
The fourth is obtained by adding the pixel data located in the vicinity to the red pixel data by adding the pixel data located in the periphery to the pixel data in each pixel position in the first to third frames. Pixel data, a fifth addition pixel data obtained by adding pixel data located around the green pixel data, and a sixth addition obtained by adding pixel data located around the blue pixel data A surrounding pixel adding unit for generating pixel data;
The same-position pixel addition unit adds the fourth to sixth addition pixel data at the same pixel position in the first to third frames individually, thereby adding the first to third addition pixels. The imaging apparatus according to claim 1, wherein data is generated.
被写体を撮像する際の周囲環境の明るさに応じて、前記周囲画素加算部を不動作とするモードと、前記周囲画素加算部を動作させるモードとを切り換えるモード切換部をさらに備えることを特徴とする請求項2記載の撮像装置。   The image processing apparatus further includes a mode switching unit that switches between a mode in which the surrounding pixel addition unit is inoperative and a mode in which the surrounding pixel addition unit is operated according to the brightness of the surrounding environment when the subject is imaged. The imaging device according to claim 2. 被写体を撮像する際の周囲環境の明るさが第1の閾値以上であるとき、前記撮像部が前記第1〜第3の赤外光が投光されていない状態で被写体を撮像し、前記周囲環境の明るさが前記第1の閾値未満であるとき、前記撮像部が前記第1〜第3の赤外光が投光されている状態で被写体を撮像するよう、赤外光の投光のオン・オフを制御する投光制御部と、
前記周囲環境の明るさが前記第1の閾値以上であるとき、前記合成部を不動作として、前記デモザイク処理部が、前記第1〜第3の赤外光が投光されていない状態で前記撮像部が被写体を撮像することよって生成された映像信号のフレームに基づいて、赤色のフレームと緑色のフレームと青色のフレームとを生成するデモザイク処理を施すモードと、前記周囲環境の明るさが前記第1の閾値未満であるとき、前記合成部を動作させて、前記デモザイク処理部が、前記合成部によって生成された合成映像信号のフレームに基づいて、赤色のフレームと緑色のフレームと青色のフレームとを生成するデモザイク処理を施すモードとを切り換えるモード切換部と、
をさらに備えることを特徴とする請求項2記載の撮像装置。
When the brightness of the surrounding environment when imaging the subject is greater than or equal to the first threshold, the imaging unit images the subject in a state where the first to third infrared lights are not projected, and the surroundings When the brightness of the environment is less than the first threshold value, infrared imaging is performed so that the imaging unit images the subject in a state where the first to third infrared lights are projected. A light projection control unit for controlling on / off;
When the brightness of the surrounding environment is equal to or greater than the first threshold, the synthesis unit is disabled, and the demosaic processing unit is in a state where the first to third infrared lights are not projected. A mode for performing demosaic processing for generating a red frame, a green frame, and a blue frame based on a frame of a video signal generated by the imaging unit imaging a subject, and the brightness of the surrounding environment When it is less than the first threshold, the synthesizing unit is operated, and the demosaic processing unit performs a red frame, a green frame, and a blue frame based on the frame of the synthesized video signal generated by the synthesizing unit. A mode switching unit that switches between modes for performing demosaic processing for generating
The imaging apparatus according to claim 2, further comprising:
前記モード切換部は、さらに、前記周囲環境の明るさが前記第1の閾値未満で第2の閾値以上であるとき、前記周囲画素加算部を不動作とするモードに切り換え、前記周囲環境の明るさが前記第2の閾値未満であるとき、前記周囲画素加算部を動作させるモードに切り換えることを特徴とする請求項4記載の撮像装置。   The mode switching unit further switches to a mode in which the surrounding pixel addition unit is inoperative when the brightness of the surrounding environment is less than the first threshold and is equal to or more than the second threshold, and the brightness of the surrounding environment is set. The imaging apparatus according to claim 4, wherein when the value is less than the second threshold value, the mode is switched to a mode in which the surrounding pixel addition unit is operated. 赤色と緑色と青色との3原色のフィルタエレメントが面内に所定の配列で配置されたカラーフィルタを備える撮像部によって、赤色に対応付けられた第1の波長を有する第1の赤外光が投光されている状態で被写体を撮像して映像信号の第1のフレームを生成し、
前記撮像部によって、緑色に対応付けられた第2の波長を有する第2の赤外光が投光されている状態で前記被写体を撮像して映像信号の第2のフレームを生成し、
前記撮像部によって、青色に対応付けられた第3の波長を有する第3の赤外光が投光されている状態で前記被写体を撮像して映像信号の第3のフレームを生成し、
前記第1〜第3のフレーム内の互いに同じ画素位置の赤色の画素データと互いに同じ画素位置の緑色の画素データと互いに同じ画素位置の青色の画素データとを個別に加算して、赤色の第1の加算画素データと緑色の第2の加算画素データと青色の第3の加算画素データを生成し、
前記第1の加算画素データと前記第2の加算画素データと前記第3の加算画素データとの3原色の画素データを、前記カラーフィルタにおける前記フィルタエレメントの配列と同じ配列となるように配列させることによって1フレームに合成した合成映像信号を生成し、
記合成映像信号のフレームに基づいて、赤色の画素データが存在しない画素位置に赤色の画素データを補間した赤色のフレームと、緑色の画素データが存在しない画素位置に緑色の画素データを補間した緑色のフレームと、青色の画素データが存在しない画素位置に青色の画素データを補間した青色のフレームとを生成するデモザイク処理を施して、3原色のフレームを生成する
ことを特徴とする映像信号処理方法。
The first infrared light having the first wavelength associated with red is obtained by an imaging unit including a color filter in which filter elements of three primary colors of red, green, and blue are arranged in a predetermined arrangement in a plane. Image a subject in a projected state to generate a first frame of a video signal;
Imaging the subject in a state in which the second infrared light having the second wavelength associated with green is projected by the imaging unit to generate a second frame of the video signal;
Imaging the subject in a state where the third infrared light having the third wavelength corresponding to blue is projected by the imaging unit to generate a third frame of the video signal;
The red pixel data at the same pixel position in the first to third frames, the green pixel data at the same pixel position, and the blue pixel data at the same pixel position are individually added to obtain a red first data 1 addition pixel data, green second addition pixel data, and blue third addition pixel data are generated,
The pixel data of the three primary colors of the first addition pixel data, the second addition pixel data, and the third addition pixel data are arranged to be the same as the arrangement of the filter elements in the color filter. To generate a composite video signal combined into one frame,
Based on the frame before Kigo adult video signal, and red frame interpolating red pixel data to the pixel position where the red pixel data is not present, the green pixel data in the pixel position where the green pixel data does not exist interpolation A three-primary-color frame is generated by performing demosaic processing for generating a green frame and a blue frame obtained by interpolating blue pixel data at pixel positions where no blue pixel data exists Processing method.
コンピュータに、
赤色に対応付けられた第1の波長を有する第1の赤外光が投光されている状態で、赤色と緑色と青色との3原色のフィルタエレメントが面内に所定の配列で配置されたカラーフィルタを備える撮像部が被写体を撮像することよって生成された映像信号の第1のフレームを構成する画素データを取得するステップと、
緑色に対応付けられた第2の波長を有する第2の赤外光が投光されている状態で、前記撮像部が前記被写体を撮像することよって生成された映像信号の第2のフレームを構成する画素データを取得するステップと、
青色に対応付けられた第3の波長を有する第3の赤外光が投光されている状態で前記撮像部が前記被写体を撮像することよって生成された映像信号の第3のフレームを構成する画素データを取得するステップと、
前記第1〜第3のフレーム内の互いに同じ画素位置の赤色の画素データと互いに同じ画素位置の緑色の画素データと互いに同じ画素位置の青色の画素データとを個別に加算して、赤色の第1の加算画素データと緑色の第2の加算画素データと青色の第3の加算画素データを生成するステップと、
前記第1の加算画素データと前記第2の加算画素データと前記第3の加算画素データとの3原色の画素データを、前記カラーフィルタにおける前記フィルタエレメントの配列と同じ配列となるように配列させることによって1フレームに合成した合成映像信号を生成するステップと、
前記合成映像信号のフレームに基づいて、赤色の画素データが存在しない画素位置に赤色の画素データを補間した赤色のフレームと、緑色の画素データが存在しない画素位置に緑色の画素データを補間した緑色のフレームと、青色の画素データが存在しない画素位置に青色の画素データを補間した青色のフレームとを生成するデモザイク処理を施して、3原色のフレームを生成するステップと、
を実行させることを特徴とする映像信号処理プログラム。
On the computer,
The filter elements of the three primary colors of red, green, and blue are arranged in a predetermined arrangement in the plane in a state where the first infrared light having the first wavelength associated with red is projected Acquiring pixel data constituting a first frame of a video signal generated by an imaging unit including a color filter imaging a subject;
A second frame of a video signal generated when the imaging unit images the subject in a state where the second infrared light having the second wavelength associated with green is projected. Obtaining pixel data to perform,
A third frame of a video signal generated by the imaging unit imaging the subject in a state where the third infrared light having the third wavelength associated with blue is projected is configured. Obtaining pixel data;
The red pixel data at the same pixel position in the first to third frames, the green pixel data at the same pixel position, and the blue pixel data at the same pixel position are individually added to obtain a red first data Generating one addition pixel data, green second addition pixel data, and blue third addition pixel data;
The pixel data of the three primary colors of the first addition pixel data, the second addition pixel data, and the third addition pixel data are arranged to be the same as the arrangement of the filter elements in the color filter. A step of generating a composite video signal combined into one frame,
Based on the frame of the composite video signal, a red frame obtained by interpolating red pixel data at a pixel position where no red pixel data exists, and a green color obtained by interpolating green pixel data at a pixel position where no green pixel data exists. Generating a frame of three primary colors by performing a demosaic process for generating a frame of (2) and a blue frame obtained by interpolating blue pixel data at a pixel position where blue pixel data does not exist;
A video signal processing program characterized in that
JP2014078745A 2013-11-25 2014-04-07 Imaging apparatus, video signal processing method, and video signal processing program Active JP6221911B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014078745A JP6221911B2 (en) 2013-11-25 2014-04-07 Imaging apparatus, video signal processing method, and video signal processing program
US14/580,606 US9967527B2 (en) 2013-11-25 2014-12-23 Imaging device, image processing device, image processing method, and image processing program

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP2013242542 2013-11-25
JP2013242544 2013-11-25
JP2013242544 2013-11-25
JP2013242542 2013-11-25
JP2014011199 2014-01-24
JP2014011199 2014-01-24
JP2014078745A JP6221911B2 (en) 2013-11-25 2014-04-07 Imaging apparatus, video signal processing method, and video signal processing program

Publications (2)

Publication Number Publication Date
JP2015159526A JP2015159526A (en) 2015-09-03
JP6221911B2 true JP6221911B2 (en) 2017-11-01

Family

ID=54183207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014078745A Active JP6221911B2 (en) 2013-11-25 2014-04-07 Imaging apparatus, video signal processing method, and video signal processing program

Country Status (1)

Country Link
JP (1) JP6221911B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114095672A (en) * 2020-07-31 2022-02-25 北京小米移动软件有限公司 Imaging system, method and electronic device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH047991A (en) * 1990-04-25 1992-01-13 Sony Corp Dark field color image pickup device
JP4440351B2 (en) * 1996-09-27 2010-03-24 東芝ライテック株式会社 Color video camera, TV door phone and monitoring device
JP5874116B2 (en) * 2009-07-30 2016-03-02 国立研究開発法人産業技術総合研究所 Image photographing apparatus and image photographing method
JP5780786B2 (en) * 2011-03-15 2015-09-16 三菱電機株式会社 Imaging device

Also Published As

Publication number Publication date
JP2015159526A (en) 2015-09-03

Similar Documents

Publication Publication Date Title
US9967527B2 (en) Imaging device, image processing device, image processing method, and image processing program
JP6264233B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM
US10230883B2 (en) Imaging device, method for controlling imaging device, and control program
JP6318789B2 (en) Video processing apparatus, video processing method, and video processing program
US20160295135A1 (en) Imaging Device, Method for Controlling Imaging Device, and Control Program
JP6136948B2 (en) Imaging apparatus, video signal processing method, and video signal processing program
JP6183238B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6221911B2 (en) Imaging apparatus, video signal processing method, and video signal processing program
JP6160546B2 (en) Video processing apparatus, imaging apparatus, video processing method, and video processing program
JP6331966B2 (en) IMAGING DEVICE AND IMAGING DEVICE ADJUSTING METHOD
JP5692446B1 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM
JP6330704B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND CONTROL PROGRAM
JP6344279B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND CONTROL PROGRAM
JP5655969B1 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM
JP6299556B2 (en) Imaging apparatus, imaging method, and imaging program
JP6260512B2 (en) Imaging apparatus, imaging method, and imaging program
JP6090191B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
WO2015115142A1 (en) Imaging device, imaging device control method, and imaging device control program
JP6090217B2 (en) IMAGING SYSTEM AND IMAGING SYSTEM CONTROL METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170918

R150 Certificate of patent or registration of utility model

Ref document number: 6221911

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150