JP2015126537A - Imaging device, method of controlling the same, and control program - Google Patents

Imaging device, method of controlling the same, and control program Download PDF

Info

Publication number
JP2015126537A
JP2015126537A JP2014135764A JP2014135764A JP2015126537A JP 2015126537 A JP2015126537 A JP 2015126537A JP 2014135764 A JP2014135764 A JP 2014135764A JP 2014135764 A JP2014135764 A JP 2014135764A JP 2015126537 A JP2015126537 A JP 2015126537A
Authority
JP
Japan
Prior art keywords
mode
imaging
frame
pixel data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014135764A
Other languages
Japanese (ja)
Other versions
JP5692446B1 (en
Inventor
関口 智
Satoshi Sekiguchi
智 関口
笹生 剛良
Takeyoshi Sasao
剛良 笹生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2014135764A priority Critical patent/JP5692446B1/en
Application granted granted Critical
Publication of JP5692446B1 publication Critical patent/JP5692446B1/en
Publication of JP2015126537A publication Critical patent/JP2015126537A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device capable of switching a video between a first mode and a second mode without generating disturbance in the video.SOLUTION: A video processing part 5 generates a first video signal, and a video output part 6 generates a second video signal. An imaging part 3, in a first mode, performs light exposure correspondingly to one frame time period of the second video signal, and in a second mode, performs light exposure on imaging conditions different from each other for each section obtained by dividing the one frame time period of the second video signal into a plurality of sections. The video processing part 5, in the first mode, generates a frame of the first video signal on the basis of an imaging signal read out in response to the light exposure corresponding to the one frame time period, and in the second mode, generates the frame of the first video signal on the basis of an imaging signal read out in response to the light exposure of each section. The video output part 6 uses the second video signal as a common signal system in the first mode and the second mode to continuously output the frame of the second video signal.

Description

本発明は、撮像装置、撮像装置の制御方法及び制御プログラムに関する。   The present invention relates to an imaging apparatus, an imaging apparatus control method, and a control program.

従来、例えば夜間等の可視光がほとんどない環境下において被写体を撮像するために、
赤外線投光器によって被写体に赤外光を照射し、被写体から反射した赤外光を撮像する方
法が用いられている。この方法は、可視光を照射するライトを用いることができない場合
に有効な撮像方法である。
Conventionally, in order to image a subject in an environment where there is almost no visible light such as at night, for example,
A method of irradiating a subject with infrared light using an infrared projector and imaging infrared light reflected from the subject is used. This method is an effective imaging method when a light that emits visible light cannot be used.

しかしながら、この撮像方法によって被写体を撮像した映像は、モノクロ映像となる。
モノクロ映像では物体の識別が困難となることがある。可視光がない環境下でもカラー映
像を撮像することができれば、物体の識別性を向上させることができる。例えば監視カメ
ラでは、物体の識別性を向上させるために、可視光がない環境下でもカラー映像を撮像す
ることが望まれる。
However, an image obtained by imaging a subject by this imaging method is a monochrome image.
In monochrome images, it may be difficult to identify an object. If a color image can be captured even in an environment where there is no visible light, the object identification can be improved. For example, in a surveillance camera, it is desired to capture a color image even in an environment without visible light in order to improve the object identification.

特許文献1には、可視光がない環境下でもカラー映像を撮像することができる撮像装置
が記載されている。特許文献1に記載されている撮像装置においても、赤外線投光器が用
いられる。監視カメラに特許文献1に記載の技術を搭載すれば、被写体をカラー映像化し
て物体の識別性を向上させることが可能となる。
Patent Document 1 describes an imaging apparatus that can capture a color image even in an environment without visible light. In the imaging device described in Patent Document 1, an infrared projector is also used. If the technique described in Patent Document 1 is installed in the surveillance camera, it becomes possible to convert the subject into a color image and improve the object identification.

特開2011−50049号公報JP 2011-50049 A

1台の撮像装置で、可視光が存在する環境下での通常の撮像と、可視光が少ない環境下
での赤外線投光器を用いた暗視撮像との双方を可能とすることが望まれる。撮像装置が赤
外線投光器を使用せず通常の撮像を実行するモードを通常モード、撮像装置が赤外線投光
器によって赤外光を投光している状態で撮像を実行するモードを赤外光投光モードと称す
ることとする。
It is desired that a single imaging apparatus can perform both normal imaging in an environment where visible light exists and night vision imaging using an infrared projector in an environment where visible light is low. The mode in which the imaging device performs normal imaging without using an infrared projector is the normal mode, and the mode in which the imaging device performs imaging in the state where infrared light is projected by the infrared projector is the infrared light projection mode I will call it.

撮像装置が通常モードと赤外光投光モードとの2つの撮像モードを搭載する場合、通常
モード(第1のモード)から赤外光投光モード(第2のモード)へ、赤外光投光モード(
第2のモード)から通常モード(第1のモード)へと、映像の乱れが発生せず映像が切り
換えられるのがよい。
When the imaging apparatus is equipped with two imaging modes of a normal mode and an infrared light projection mode, infrared light projection is performed from the normal mode (first mode) to the infrared light projection mode (second mode). Light mode (
It is preferable that the video is switched from the second mode) to the normal mode (first mode) without any video disturbance.

本発明は、可視光が存在する環境下で赤外光を投光しない状態で被写体を撮像する第1
のモードと、可視光が少ない環境下で、赤外光を投光しながら被写体を撮像する第2のモ
ードとを、映像の乱れが発生せず映像を切り換えることができる撮像装置、撮像装置の制
御方法及び制御プログラムを提供することを目的とする。
The first aspect of the present invention images a subject without projecting infrared light in an environment where visible light exists.
An imaging apparatus capable of switching between images without causing disturbance of the image, and a second mode in which an object is imaged while projecting infrared light in an environment with little visible light. It is an object to provide a control method and a control program.

赤外光を投光していない状態で撮像する第1のモード、又は、赤色に対応付けられた第1の波長を有する第1の赤外光が投光されている状態で撮像する第1の区間と、緑色に対応付けられた第2の波長を有する第2の赤外光が投光されている状態で撮像する第2の区間と、青色に対応付けられた第3の波長を有する第3の赤外光が投光されている状態で撮像する第3の区間とのそれぞれで撮像する第2のモードで、被写体を撮像する撮像部と、前記撮像部より出力された撮像信号に基づく所定の信号方式の映像信号を生成して出力する映像出力部とを備え、前記第2のモードから前記第1のモードへと切り換えた最初の区間における露光時間は、前記第2のモードにおける1つの区間における最大露光時間以下の時間であることを特徴とする撮像装置を提供する。
赤外光を投光していない状態で撮像する第1のモード、又は、赤色に対応付けられた第1の波長を有する第1の赤外光が投光されている状態で撮像する第1の区間と、緑色に対応付けられた第2の波長を有する第2の赤外光が投光されている状態で撮像する第2の区間と、青色に対応付けられた第3の波長を有する第3の赤外光が投光されている状態で撮像する第3の区間とのそれぞれで撮像する第2のモードで、被写体を撮像する撮像ステップと、前記撮像部より出力された撮像信号に基づく所定の信号方式の映像信号を生成して出力する映像出力ステップとを有し、前記第2のモードから前記第1のモードへと切り換えた最初の区間における露光時間は、前記第2のモードにおける1つの区間における最大露光時間以下の時間であることを特徴とする撮像装置の制御方法を提供する。
赤外光を投光していない状態で撮像する第1のモード、又は、赤色に対応付けられた第1の波長を有する第1の赤外光が投光されている状態で撮像する第1の区間と、緑色に対応付けられた第2の波長を有する第2の赤外光が投光されている状態で撮像する第2の区間と、青色に対応付けられた第3の波長を有する第3の赤外光が投光されている状態で撮像する第3の区間とのそれぞれで撮像する第2のモードで、被写体を撮像する撮像ステップと、前記撮像部より出力された撮像信号に基づく所定の信号方式の映像信号を生成して出力する映像出力ステップとをコンピュータに実行させ、前記第2のモードから前記第1のモードへと切り換えた最初の区間における露光時間は、前記第2のモードにおける1つの区間における最大露光時間以下の時間であることを特徴とする撮像装置の制御プログラムを提供する。
The first mode for imaging in a state where infrared light is not projected, or the first mode for imaging in a state where first infrared light having a first wavelength associated with red is projected A second section that captures an image in a state where the second infrared light having the second wavelength associated with green is projected, and a third wavelength associated with blue In the second mode in which each image is captured in the third section in which the third infrared light is projected, the imaging unit that images the subject, and the imaging signal output from the imaging unit An image output unit that generates and outputs a video signal of a predetermined signal system based on the exposure time in the first section when the second mode is switched to the first mode. It is characterized in that it is a time shorter than the maximum exposure time in one section To provide an image device.
The first mode for imaging in a state where infrared light is not projected, or the first mode for imaging in a state where first infrared light having a first wavelength associated with red is projected A second section that captures an image in a state where the second infrared light having the second wavelength associated with green is projected, and a third wavelength associated with blue In the second mode in which each image is captured in the third section in which the third infrared light is projected, the imaging step for imaging the subject and the imaging signal output from the imaging unit A video output step of generating and outputting a video signal of a predetermined signal system based on the exposure time in the first section when switching from the second mode to the first mode is the second mode. Must be less than the maximum exposure time in one section A control method of an imaging apparatus according to claim.
The first mode for imaging in a state where infrared light is not projected, or the first mode for imaging in a state where first infrared light having a first wavelength associated with red is projected A second section that captures an image in a state where the second infrared light having the second wavelength associated with green is projected, and a third wavelength associated with blue In the second mode in which each image is captured in the third section in which the third infrared light is projected, the imaging step for imaging the subject and the imaging signal output from the imaging unit An image output step of generating and outputting a video signal of a predetermined signal system based on the computer, and the exposure time in the first section when switching from the second mode to the first mode is the second time Less than the maximum exposure time in one section Providing a control program of an image pickup apparatus, characterized in that the a time.

本発明の撮像装置、撮像装置の制御方法及び制御プログラムによれば、可視光が存在す
る環境下で赤外光を投光しない状態で被写体を撮像する第1のモードと、可視光が少ない
環境下で、赤外光を投光しながら被写体を撮像する第2のモードとを、映像の乱れが発生
せず映像を切り換えることができる。
According to the imaging apparatus, the imaging apparatus control method, and the control program of the present invention, the first mode in which an object is imaged without projecting infrared light in an environment in which visible light exists, and an environment in which visible light is low Under the second mode, the image can be switched to the second mode in which the subject is imaged while projecting the infrared light without causing any disturbance of the image.

一実施形態の撮像装置の全体的な構成を示すブロック図である。1 is a block diagram illustrating an overall configuration of an imaging apparatus according to an embodiment. 一実施形態の撮像装置に用いられるカラーフィルタにおける色フィルタの配列の一例を示す図である。It is a figure which shows an example of the arrangement | sequence of the color filter in the color filter used for the imaging device of one Embodiment. 一実施形態の撮像装置を構成する撮像部における3原色光の波長と相対感度との分光感度特性を示す特性図である。It is a characteristic view which shows the spectral sensitivity characteristic of the wavelength of three primary color lights and relative sensitivity in the imaging part which comprises the imaging device of one Embodiment. 所定の物質からの3原色光の反射率にシリコンの受光感度を乗じたときの、波長と相対検出率との関係を示す特性図である。It is a characteristic view showing the relationship between the wavelength and the relative detection rate when the reflectance of the three primary colors from a predetermined substance is multiplied by the light receiving sensitivity of silicon. 図1中の撮像素子31の具体的な構成例を示すブロック図である。It is a block diagram which shows the specific structural example of the image pick-up element 31 in FIG. 図5に示す撮像素子31の露光及び撮像信号の読み出しの動作を説明するための図である。It is a figure for demonstrating the operation | movement of exposure of the image pick-up element 31 shown in FIG. 5, and the read-out of an image pick-up signal. 図1中の前信号処理部52の具体的な構成例を示すブロック図である。It is a block diagram which shows the specific structural example of the front signal process part 52 in FIG. 一実施形態の撮像装置が通常モードで動作しているときのデモザイク処理を説明するための図である。It is a figure for demonstrating a demosaic process when the imaging device of one Embodiment is operate | moving in normal mode. 一実施形態の撮像装置が中間モード及び暗視モードで動作しているときの露光と映像信号のフレームとの関係を概略的に示す図である。It is a figure which shows schematically the relationship between exposure and the flame | frame of a video signal when the imaging device of one Embodiment is operate | moving in intermediate | middle mode and night vision mode. 一実施形態の撮像装置が中間第1モードで動作しているときの前信号処理を説明するための図である。It is a figure for demonstrating the pre-signal process when the imaging device of one Embodiment is operate | moving in intermediate | middle 1st mode. 一実施形態の撮像装置が中間第1モードで動作しているときのデモザイク処理を説明するための図である。It is a figure for demonstrating a demosaic process when the imaging device of one Embodiment is operate | moving in intermediate | middle 1st mode. 一実施形態の撮像装置が中間第2モードで動作しているときの前信号処理を説明するための図である。It is a figure for demonstrating the pre-signal process when the imaging device of one Embodiment is operate | moving in intermediate | middle 2nd mode. 一実施形態の撮像装置が中間第2モードで動作しているときのデモザイク処理を説明するための図である。It is a figure for demonstrating a demosaic process when the imaging device of one Embodiment is operate | moving in intermediate | middle 2nd mode. 一実施形態の撮像装置が暗視モードで動作しているときの周囲画素の加算処理を説明するための図である。It is a figure for demonstrating the addition process of the surrounding pixel when the imaging device of one Embodiment is operate | moving in night vision mode. 周囲画素の加算処理が施されたフレームを示す図である。It is a figure which shows the flame | frame in which the addition process of the surrounding pixel was performed. 一実施形態の撮像装置が暗視第1モードで動作しているときの前信号処理を説明するための図である。It is a figure for demonstrating the front signal process when the imaging device of one Embodiment is operate | moving in night vision 1st mode. 一実施形態の撮像装置が暗視第1モードで動作しているときのデモザイク処理を説明するための図である。It is a figure for demonstrating a demosaic process when the imaging device of one Embodiment is operate | moving in night vision 1st mode. 一実施形態の撮像装置が暗視第2モードで動作しているときの前信号処理を説明するための図である。It is a figure for demonstrating the pre-signal process when the imaging device of one Embodiment is operate | moving in night vision 2nd mode. 一実施形態の撮像装置が暗視第2モードで動作しているときのデモザイク処理を説明するための図である。It is a figure for demonstrating a demosaic process when the imaging device of one Embodiment is operate | moving in night vision 2nd mode. 一実施形態の撮像装置におけるモード切換の例を説明するための図である。It is a figure for demonstrating the example of the mode switching in the imaging device of one Embodiment. 一実施形態の撮像装置がそれぞれのモードに設定されているときの各部の状態を示す図である。It is a figure which shows the state of each part when the imaging device of one Embodiment is set to each mode. 一実施形態の撮像装置の第1の変形例を示す部分ブロック図である。It is a partial block diagram which shows the 1st modification of the imaging device of one Embodiment. 一実施形態の撮像装置の第2の変形例を示す部分ブロック図である。It is a partial block diagram which shows the 2nd modification of the imaging device of one Embodiment. 一実施形態の撮像装置の第3の変形例を示す部分ブロック図である。It is a partial block diagram which shows the 3rd modification of the imaging device of one Embodiment. 一実施形態の撮像装置で実行される映像信号処理方法を示すフローチャートである。It is a flowchart which shows the video signal processing method performed with the imaging device of one Embodiment. 図25におけるステップS3に示す通常モードの具体的な処理を示すフローチャートである。It is a flowchart which shows the specific process of the normal mode shown to step S3 in FIG. 図25におけるステップS4の中間モードの具体的な処理を示すフローチャートである。It is a flowchart which shows the specific process of the intermediate | middle mode of step S4 in FIG. 図25におけるステップS5の暗視モードの具体的な処理を示すフローチャートである。It is a flowchart which shows the specific process of the night vision mode of step S5 in FIG. 一実施形態の撮像装置内に記憶されている映像信号処理プログラムがコンピュータに実行させる処理を示すフローチャートである。It is a flowchart which shows the process which a video signal processing program memorize | stored in the imaging device of one Embodiment performs a computer. 通常モードと赤外光投光モードとのモード切換方法の第1の例のシーケンスを示す図である。It is a figure which shows the sequence of the 1st example of the mode switching method between normal mode and infrared light projection mode. 通常モードと赤外光投光モードとのモード切換方法の第1の例のシーケンスを示す図である。It is a figure which shows the sequence of the 1st example of the mode switching method between normal mode and infrared light projection mode. 通常モードと赤外光投光モードとのモード切換方法の第2の例のシーケンスを示す図である。It is a figure which shows the sequence of the 2nd example of the mode switching method between normal mode and infrared light projection mode. 通常モードと赤外光投光モードとのモード切換方法の第2の例のシーケンスを示す図である。It is a figure which shows the sequence of the 2nd example of the mode switching method between normal mode and infrared light projection mode. 通常モードと赤外光投光モードとのモード切換方法の第3の例のシーケンスを示す図である。It is a figure which shows the sequence of the 3rd example of the mode switching method with normal mode and infrared light projection mode. 通常モードと赤外光投光モードとのモード切換方法の第3の例のシーケンスを示す図である。It is a figure which shows the sequence of the 3rd example of the mode switching method with normal mode and infrared light projection mode.

以下、一実施形態の撮像装置、撮像装置の制御方法及び制御プログラムについて、添付
図面を参照して説明する。
Hereinafter, an imaging device, an imaging device control method, and a control program according to an embodiment will be described with reference to the accompanying drawings.

<撮像装置の構成>
まず、図1を用いて、一実施形態の撮像装置の全体的な構成について説明する。図1に
示す一実施形態の撮像装置は、昼間等の可視光が十分に存在する環境下に適した通常モー
ドと、夜間等の可視光がほとんどない環境下に適した暗視モードと、可視光がわずかに存
在する環境下に適した中間モードとの3つのモードで撮像可能な撮像装置である。
<Configuration of imaging device>
First, the overall configuration of an imaging apparatus according to an embodiment will be described with reference to FIG. An imaging apparatus according to an embodiment shown in FIG. 1 includes a normal mode suitable for an environment where there is sufficient visible light such as daytime, a night vision mode suitable for an environment where there is almost no visible light such as nighttime, and a visible mode. This is an imaging device capable of imaging in three modes, an intermediate mode suitable for an environment where light is slightly present.

暗視モードと中間モードとはいずれも可視光が少ない環境下で、赤外線を投光しながら
撮像する赤外光投光モードである。赤外光投光モードは暗視モードのみであってもよい。
本実施形態では、好ましい構成として、中間モードを含む3つのモードで撮像可能な撮像
装置を例とする。
Both the night vision mode and the intermediate mode are infrared light projection modes in which imaging is performed while projecting infrared light in an environment with little visible light. The infrared light projection mode may be only the night vision mode.
In this embodiment, as a preferable configuration, an imaging device capable of imaging in three modes including the intermediate mode is taken as an example.

図1において、被写体から反射した一点鎖線にて示す光は、光学レンズ1によって集光
される。ここで、光学レンズ1には、可視光が十分に存在する環境下では可視光、可視光
がほとんどない環境下では後述する赤外線投光器9より発せられた赤外光を被写体が反射
した赤外光が入射される。
In FIG. 1, the light indicated by the alternate long and short dash line reflected from the subject is collected by the optical lens 1. Here, the optical lens 1 has visible light in an environment in which visible light is sufficiently present, and infrared light in which an object reflects infrared light emitted from an infrared projector 9 described below in an environment with little visible light. Is incident.

可視光がわずかに存在する環境下では、光学レンズ1には、可視光と赤外線投光器9よ
り発せられた赤外光を被写体が反射した赤外光とが混在した光が入射される。
Under an environment where there is a slight amount of visible light, the optical lens 1 is incident with light in which visible light and infrared light emitted from the infrared projector 9 are reflected by the subject.

図1では簡略化のため、光学レンズ1を1つのみとしているが、実際には、撮像装置は
複数の光学レンズを備える。
Although only one optical lens 1 is shown in FIG. 1 for the sake of simplicity, the imaging apparatus actually includes a plurality of optical lenses.

光学レンズ1と撮像部3との間には、光学フィルタ2が設けられている。光学フィルタ
2は、赤外線カットフィルタ21とダミーガラス22との2つの部分を有する。光学フィ
ルタ2は、駆動部8によって、光学レンズ1と撮像部3との間に赤外線カットフィルタ2
1を挿入した状態と、光学レンズ1と撮像部3との間にダミーガラス22を挿入した状態
とのいずれかの状態に駆動される。
An optical filter 2 is provided between the optical lens 1 and the imaging unit 3. The optical filter 2 has two parts, an infrared cut filter 21 and a dummy glass 22. The optical filter 2 is connected between the optical lens 1 and the imaging unit 3 by the drive unit 8.
1 and the state where the dummy glass 22 is inserted between the optical lens 1 and the imaging unit 3.

撮像部3は、水平方向及び垂直方向に複数の受光素子(画素)が配列した撮像素子31
と、それぞれの受光素子に対応して赤色(R),緑色(G),青色(B)のいずれかの色
フィルタが配置されたカラーフィルタ32とを有する。撮像素子31は、CCD(Charge
Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)でよい
The imaging unit 3 includes an imaging element 31 in which a plurality of light receiving elements (pixels) are arranged in the horizontal direction and the vertical direction.
And a color filter 32 in which any one of red (R), green (G), and blue (B) color filters is arranged corresponding to each light receiving element. The image sensor 31 is a CCD (Charge
Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) may be used.

カラーフィルタ32には、一例として、図2に示すように、R,G,Bの色フィルタが
ベイヤ配列と称される配列で並べられている。ベイヤ配列は、R,G,Bの色フィルタの
所定の配列の一例である。図2において、各行のRの色フィルタに挟まれたGの色フィル
タをGr、Bの色フィルタに挟まれたGの色フィルタをGbとしている。
As an example, as shown in FIG. 2, the color filter 32 has R, G, and B color filters arranged in an array called a Bayer array. The Bayer array is an example of a predetermined array of R, G, and B color filters. In FIG. 2, the G color filter sandwiched between the R color filters in each row is Gr, and the G color filter sandwiched between the B color filters is Gb.

ベイヤ配列では、Rの色フィルタとGrの色フィルタとが交互に配置された水平方向の
行と、Bの色フィルタとGbの色フィルタとが交互に配置された水平方向の行とが、垂直
方向に交互に配列されている。
In the Bayer array, a horizontal row in which R color filters and Gr color filters are alternately arranged and a horizontal row in which B color filters and Gb color filters are alternately arranged are vertical. They are arranged alternately in the direction.

図3は、撮像部3におけるR光,G光,B光の波長と相対感度との分光感度特性を示し
ている。相対感度は、最大値が1に正規化されている。撮像装置を通常モードで動作させ
るとき、可視光による良好なカラー映像を撮像するには、波長700nm以上の赤外光を
カットする必要がある。
FIG. 3 shows spectral sensitivity characteristics of the wavelengths of R light, G light, and B light and relative sensitivity in the imaging unit 3. The relative sensitivity is normalized to 1 at the maximum value. When the imaging apparatus is operated in the normal mode, it is necessary to cut infrared light having a wavelength of 700 nm or more in order to capture a good color image by visible light.

そこで、駆動部8は、制御部7による制御に基づいて、光学レンズ1と撮像部3との間
に赤外線カットフィルタ21を挿入するように光学フィルタ2を駆動する。
Therefore, the drive unit 8 drives the optical filter 2 so that the infrared cut filter 21 is inserted between the optical lens 1 and the imaging unit 3 based on control by the control unit 7.

図3より分かるように、撮像部3は、波長700nm以上の赤外光の領域においても感
度を有する。そこで、撮像装置を中間モードまたは暗視モードで動作させるときには、駆
動部8は、制御部7による制御に基づいて、光学レンズ1と撮像部3との間の赤外線カッ
トフィルタ21を外してダミーガラス22を挿入するように光学フィルタ2を駆動する。
As can be seen from FIG. 3, the imaging unit 3 has sensitivity even in an infrared light region having a wavelength of 700 nm or more. Therefore, when the imaging device is operated in the intermediate mode or the night vision mode, the driving unit 8 removes the infrared cut filter 21 between the optical lens 1 and the imaging unit 3 based on the control by the control unit 7 and the dummy glass. The optical filter 2 is driven so that 22 is inserted.

光学レンズ1と撮像部3との間にダミーガラス22を挿入した状態では、波長700n
m以上の赤外光はカットされない。よって、撮像装置は、図3に破線の楕円で囲んだ部分
の感度を利用して、R,G,Bの各色情報を得ることが可能となる。ダミーガラス22を
挿入するのは、光路長を、赤外線カットフィルタ21を挿入した場合の光路長と同じにす
るためである。
In a state where the dummy glass 22 is inserted between the optical lens 1 and the imaging unit 3, the wavelength is 700n.
Infrared light of m or more is not cut. Therefore, the imaging apparatus can obtain R, G, and B color information by using the sensitivity of the portion surrounded by the dashed ellipse in FIG. The reason why the dummy glass 22 is inserted is to make the optical path length the same as the optical path length when the infrared cut filter 21 is inserted.

赤外線投光器9は、それぞれ、波長IR1,IR2,IR3の赤外光を投光する投光部
91,92,93を有する。中間モードまたは暗視モードのとき、制御部7内の投光制御
部71は、時分割で投光部91〜93より波長IR1〜IR3の赤外光を選択的に投光さ
せるように制御する。
The infrared projector 9 includes projectors 91, 92, and 93 that project infrared light having wavelengths IR1, IR2, and IR3, respectively. In the intermediate mode or the night vision mode, the light projecting control unit 71 in the control unit 7 performs control so as to selectively project infrared light with wavelengths IR1 to IR3 from the light projecting units 91 to 93 in a time division manner. .

ところで、撮像素子31にはシリコンウェハが用いられている。図4は、R,G,Bそ
れぞれの色を呈する素材に白色光を照射した場合の各波長における反射率にシリコンの受
光感度を乗じたときの、波長と相対検出率との関係を示している。図4においても、相対
検出率は、最大値が1に正規化されている。
Incidentally, a silicon wafer is used for the image sensor 31. FIG. 4 shows the relationship between the wavelength and the relative detection rate when the reflectance at each wavelength is multiplied by the light receiving sensitivity of silicon when a material exhibiting each color of R, G, and B is irradiated with white light. Yes. Also in FIG. 4, the maximum value of the relative detection rate is normalized to 1.

図4に示すように、赤外光の領域において、例えば、波長780nmにおける反射光は
R色を呈する素材の反射光との相関性が高く、波長870nmにおける反射光はB色を呈
する素材の反射光との相関性が高く、波長940nmにおける反射光はG色を呈する素材
の反射光との相関性が高い。
As shown in FIG. 4, in the infrared light region, for example, the reflected light at a wavelength of 780 nm is highly correlated with the reflected light of a material exhibiting an R color, and the reflected light at a wavelength of 870 nm is a reflection of a material exhibiting a B color. Correlation with light is high, and reflected light at a wavelength of 940 nm is highly correlated with reflected light of a material exhibiting G color.

そこで、本実施形態においては、投光部91,92,93が投光する赤外光の波長IR
1,IR2,IR3を、780nm,940nm,870nmとする。これらの波長は、
波長IR1〜IR3の一例であり、780nm,940nm,870nm以外でもよい。
Therefore, in the present embodiment, the wavelength IR of the infrared light that is projected by the light projecting units 91, 92, and 93.
1, IR2 and IR3 are set to 780 nm, 940 nm, and 870 nm. These wavelengths are
It is an example of the wavelengths IR1 to IR3, and may be other than 780 nm, 940 nm, and 870 nm.

投光部91が波長IR1の赤外光を被写体に照射し、被写体から反射した光を撮像した
映像信号をR信号に割り当てる。投光部93が波長IR2の赤外光を被写体に照射し、被
写体から反射した光を撮像した映像信号をG信号に割り当てる。投光部92が波長IR3
の赤外光を被写体に照射し、被写体から反射した光を撮像した映像信号をB信号に割り当
てる。
The light projecting unit 91 irradiates the subject with infrared light having the wavelength IR1, and assigns an image signal obtained by imaging the light reflected from the subject to the R signal. The light projecting unit 93 irradiates the subject with infrared light having a wavelength IR2, and assigns a video signal obtained by imaging the light reflected from the subject to the G signal. The light projecting unit 92 has a wavelength IR3.
The infrared signal is irradiated onto the subject, and a video signal obtained by imaging the light reflected from the subject is assigned to the B signal.

このようにすれば、原理的に、中間モードまたは暗視モードにおいても、通常モードに
おいて可視光が存在する環境下で被写体を撮像した場合と同様の色を再現することができ
る。
In this way, in principle, even in the intermediate mode or the night vision mode, it is possible to reproduce the same color as when the subject is imaged in an environment where visible light exists in the normal mode.

色味が被写体の実際の色味と異なるカラー映像となるものの、780nmの波長IR1
をR光、870nmの波長IR3をG光、940nmの波長IR2をB光に割り当てても
よい。波長IR1,IR2,IR3をR光,G光,B光に任意に割り当てることも可能で
ある。
Although the color image is different from the actual color of the subject, the wavelength IR1 at 780 nm
May be assigned to the R light, the wavelength IR3 of 870 nm to the G light, and the wavelength IR2 of 940 nm to the B light. The wavelengths IR1, IR2, and IR3 can be arbitrarily assigned to the R light, G light, and B light.

本実施形態においては、被写体の色味を最もよく再現する、波長IR1,IR2,IR
3をそれぞれR光,G光,B光に割り当てることとする。
In the present embodiment, the wavelengths IR1, IR2, IR that best reproduce the color of the subject.
3 is assigned to R light, G light, and B light, respectively.

制御部7は、撮像部3における撮像と、映像処理部5内の各部と、映像出力部6とを制
御する。
The control unit 7 controls imaging in the imaging unit 3, each unit in the video processing unit 5, and the video output unit 6.

撮像素子31がCCDである場合を例として、撮像素子31の概略的な構成と、制御部
7が撮像部3をどのように制御するかについて説明する。
Taking a case where the image sensor 31 is a CCD as an example, a schematic configuration of the image sensor 31 and how the controller 7 controls the image sensor 3 will be described.

図5に示すように、撮像素子31は水平方向及び垂直方向に配列した複数の受光素子P
xを備える。撮像素子31は、垂直方向に並んだ受光素子Pxのそれぞれの列に対応した
垂直転送レジスタ3vrと、それぞれの垂直転送レジスタ3vrに接続された水平転送レ
ジスタ3hrとを備える。
As shown in FIG. 5, the image sensor 31 includes a plurality of light receiving elements P arranged in the horizontal direction and the vertical direction.
x. The imaging device 31 includes a vertical transfer register 3vr corresponding to each column of the light receiving elements Px arranged in the vertical direction, and a horizontal transfer register 3hr connected to each vertical transfer register 3vr.

水平方向及び垂直方向に配列した複数の受光素子Pxそれぞれに、図2で説明したカラ
ーフィルタ32のR,G,Bの色フィルタが対応付けられている。実際には、図5に示す
ように、互いに隣り合う受光素子Pxは水平方向及び垂直方向に離間した状態で配置され
ているが、図2では便宜上、カラーフィルタ32を互いに隣り合う色フィルタが密着して
いる状態で示している。
The R, G, and B color filters of the color filter 32 described in FIG. 2 are associated with each of the plurality of light receiving elements Px arranged in the horizontal direction and the vertical direction. Actually, as shown in FIG. 5, the light receiving elements Px adjacent to each other are arranged in a state separated from each other in the horizontal direction and the vertical direction, but in FIG. It is shown in the state.

図6において、(a)は撮像素子31の受光素子Pxの露光を示している。受光素子P
xの最大露光時間をtExmaxとする。最大露光時間tExmaxは、1フレーム期間に相当する。
受光素子Pxの露光時間は、最大露光時間tExmaxを最大として、シャッタスピードに応じ
て増減する。
6A shows the exposure of the light receiving element Px of the image sensor 31. FIG. Light receiving element P
Let the maximum exposure time of x be tExmax. The maximum exposure time tExmax corresponds to one frame period.
The exposure time of the light receiving element Px increases or decreases according to the shutter speed, with the maximum exposure time tExmax being the maximum.

撮像素子31には、例えば1水平期間の間隔で露光により蓄積した電荷を排出するため
の抜き取りパルスPs1が供給される。制御部7が所定のタイミングで抜き取りパルスP
s1の供給を停止させると、抜き取りパルスPs1の供給が停止された以降がハッチング
で示す時間の露光Ex1,Ex2…となる。
For example, a sampling pulse Ps1 for discharging charges accumulated by exposure at intervals of one horizontal period is supplied to the imaging element 31. The control unit 7 extracts the sampling pulse P at a predetermined timing.
When the supply of s1 is stopped, the exposure Ex1, Ex2... of the time indicated by hatching after the supply of the extraction pulse Ps1 is stopped.

撮像素子31には、最大露光時間tExmaxに達するタイミングで、読み出しパルスPs2
が供給される。撮像素子31に読み出しパルスPs2が供給されると、図5におけるそれ
ぞれの列の受光素子Pxに蓄積された電荷は、垂直転送レジスタ3vrへと一括して転送
される。
The image sensor 31 has a readout pulse Ps2 at the timing when the maximum exposure time tExmax is reached.
Is supplied. When the readout pulse Ps2 is supplied to the image sensor 31, the charges accumulated in the light receiving elements Px in the respective columns in FIG. 5 are collectively transferred to the vertical transfer register 3vr.

垂直転送レジスタ3vrは、受光素子Pxより転送された電荷を垂直転送クロックによ
って水平転送レジスタ3hrへと順次転送する。水平転送レジスタ3hrは、それぞれの
垂直転送レジスタ3vrより転送された電荷を水平転送クロックによって順次転送する。
水平転送レジスタ3hrが転送する電荷は、出力アンプ3apによって増幅されて電圧信
号に変換されて出力される。
The vertical transfer register 3vr sequentially transfers the charges transferred from the light receiving element Px to the horizontal transfer register 3hr by a vertical transfer clock. The horizontal transfer register 3hr sequentially transfers the charges transferred from the respective vertical transfer registers 3vr by a horizontal transfer clock.
The charges transferred by the horizontal transfer register 3hr are amplified by the output amplifier 3ap, converted into a voltage signal, and output.

図6において、(b)に示すように、撮像素子31は、読み出しパルスPs2が供給さ
れた以降の1フレーム期間に渡って、露光Ex1,Ex2…によって得られた電荷を電圧
信号として読み出すことにより、撮像信号のフレームF1,F2…を出力する。フレーム
F1,F2…の撮像信号は、A/D変換器4に供給される。
In FIG. 6, as shown in FIG. 6B, the image sensor 31 reads out the electric charge obtained by the exposure Ex1, Ex2,... As a voltage signal over one frame period after the read pulse Ps2 is supplied. The frames F1, F2,... Of the imaging signal are output. The imaging signals of the frames F1, F2,... Are supplied to the A / D converter 4.

A/D変換器4に入力された撮像信号はA/D変換され、映像処理部5に入力される。
撮像部3とA/D変換器4とが一体化されていてもよい。
The imaging signal input to the A / D converter 4 is A / D converted and input to the video processing unit 5.
The imaging unit 3 and the A / D converter 4 may be integrated.

制御部7は、映像処理部5内に設けられたフレームバッファ50への映像データの書き
込みとフレームバッファ50からの映像データの読み出しを制御する書込・読出制御部7
0と、通常モードと中間モードと暗視モードとを切り換えるモード切換部72を備える。
書込・読出制御部70によって映像データがフレームバッファ50どのように書き込まれ
、読み出されるかについては後述する。
The control unit 7 is a writing / reading control unit 7 that controls writing of video data to a frame buffer 50 provided in the video processing unit 5 and reading of video data from the frame buffer 50.
A mode switching unit 72 that switches between 0, normal mode, intermediate mode, and night-vision mode is provided.
How the video data is written and read by the write / read control unit 70 will be described later.

モード切換部72は、通常モードと中間モードと暗視モードとに対応させて、映像処理
部5内の動作を後述のように適宜切り換える。映像処理部5と制御部7とが一体化されて
いてもよい。
The mode switching unit 72 appropriately switches the operation in the video processing unit 5 as described later in correspondence with the normal mode, the intermediate mode, and the night vision mode. The video processing unit 5 and the control unit 7 may be integrated.

映像処理部5は、フレームバッファ50と、スイッチ51,53と、前信号処理部52
と、デモザイク処理部54とを有する。フレームバッファ50は、それぞれ1フレーム分
の容量のメモリ50a〜50fを有する。破線で示すように、フレームバッファ50が、
合計6フレーム分の容量のメモリ50a〜50fに加えて、それぞれ1フレーム分の容量
のメモリ50g〜50iを有する場合もある。
The video processing unit 5 includes a frame buffer 50, switches 51 and 53, and a previous signal processing unit 52.
And a demosaic processing unit 54. The frame buffer 50 includes memories 50a to 50f each having a capacity of one frame. As indicated by the broken line, the frame buffer 50 is
In addition to the memories 50a to 50f having a total capacity of 6 frames, there may be memories 50g to 50i each having a capacity of 1 frame.

スイッチ51,53は物理的なスイッチであってもよく、前信号処理部52の動作と不
動作とを切り換えるための概念的なスイッチであってもよい。制御部7には、撮像してい
る映像の明るさを検出するために、映像処理部5から映像信号が入力される。
The switches 51 and 53 may be physical switches, or may be conceptual switches for switching between operation and non-operation of the previous signal processing unit 52. A video signal is input from the video processing unit 5 to the control unit 7 in order to detect the brightness of the video being captured.

図7に示すように、前信号処理部52は、周囲画素加算部521と、同一位置画素加算
部522と、合成部523とを有する。
As illustrated in FIG. 7, the previous signal processing unit 52 includes a surrounding pixel addition unit 521, a same-position pixel addition unit 522, and a synthesis unit 523.

映像処理部5は、R,G,Bの3原色データを生成して、映像出力部6に供給する。映
像出力部6は、3原色データを所定の形式で図示していない表示部等へと出力する。
The video processing unit 5 generates R, G, and B primary color data and supplies them to the video output unit 6. The video output unit 6 outputs the three primary color data in a predetermined format to a display unit not shown.

映像出力部6は、R,G,B信号をそのまま出力してもよいし、R,G,B信号を輝度
信号と色信号(または色差信号)に変換して出力してもよい。映像出力部6は、コンポジ
ット映像信号を出力してもよい。映像出力部6は、デジタル信号の映像信号を出力しても
よいし、D/A変換器によってアナログ信号に変換した映像信号を出力してもよい。
The video output unit 6 may output the R, G, and B signals as they are, or may convert the R, G, and B signals into luminance signals and color signals (or color difference signals) and output them. The video output unit 6 may output a composite video signal. The video output unit 6 may output a digital video signal or may output a video signal converted into an analog signal by a D / A converter.

本実施形態においては、映像出力部6はNTSCエンコーダ61を有し、制御部7によ
る制御に基づいて、NTSC方式のインターレース方式の映像信号を出力するものとする
。映像出力部6は、NTSCエンコーダ61の代わりに、PAL方式の映像信号を生成す
るためのPALエンコーダを有する構成とすることも可能である。また、HDTV(High
-definition television)方式でもよく、映像出力部6は種々の方式に適用可能である。
In this embodiment, the video output unit 6 includes an NTSC encoder 61 and outputs an NTSC interlace video signal based on control by the control unit 7. The video output unit 6 may include a PAL encoder for generating a PAL video signal instead of the NTSC encoder 61. HDTV (High
-definition television) system, and the video output unit 6 can be applied to various systems.

以下、通常モードと中間モードと暗視モードとのそれぞれの具体的な動作について説明
する。
Hereinafter, specific operations in the normal mode, the intermediate mode, and the night vision mode will be described.

<通常モード>
通常モードでは、制御部7は、駆動部8によって、光学レンズ1と撮像部3との間に赤
外線カットフィルタ21を挿入させる。投光制御部71は、赤外線投光器9による赤外光
の投光をオフにする。
<Normal mode>
In the normal mode, the control unit 7 causes the driving unit 8 to insert the infrared cut filter 21 between the optical lens 1 and the imaging unit 3. The light projection control unit 71 turns off infrared light projection by the infrared projector 9.

撮像部3によって撮像された撮像信号は、A/D変換器4によってデジタル信号である
映像データに変換されて、映像処理部5に入力される。通常モードでは、モード切換部7
2は、スイッチ51,53を端子Tbに接続するように制御する。
The image signal picked up by the image pickup unit 3 is converted into video data which is a digital signal by the A / D converter 4 and input to the video processing unit 5. In the normal mode, the mode switching unit 7
2 controls the switches 51 and 53 to be connected to the terminal Tb.

図6で説明したように、露光Ex1に基づいて、映像信号のフレームF1が得られる。
露光Ex2に基づいて、映像信号のフレームF2が得られる。以降の露光でも同様である
。映像信号のフレーム周波数を、例えば30フレーム/秒とする。
As described in FIG. 6, the frame F1 of the video signal is obtained based on the exposure Ex1.
A frame F2 of the video signal is obtained based on the exposure Ex2. The same applies to the subsequent exposure. The frame frequency of the video signal is set to 30 frames / second, for example.

映像信号のフレーム周波数は、NTSC方式であれば30フレーム/秒または60フレ
ーム/秒、PAL方式であれば25フレーム/秒または50フレーム/秒のように適宜設
定すればよい。また、映像信号のフレーム周波数は、映画で使われている24フレーム/
秒であってもよい。
The frame frequency of the video signal may be set as appropriate, such as 30 frames / second or 60 frames / second for the NTSC system and 25 frames / second or 50 frames / second for the PAL system. The frame frequency of the video signal is 24 frames /
It may be seconds.

A/D変換器4より出力された各フレームの映像データは、フレームバッファ50に一
時的に保持される。フレームバッファ50より読み出された映像データは、スイッチ51
,53を介してデモザイク処理部54に入力される。デモザイク処理部54は、入力され
た各フレームの映像データにデモザイク処理を施す。映像処理部5は、デモザイク処理の
他、ホワイトバランス補正やゲイン補正等の各種の映像処理を施して、R,G,Bの3原
色データを出力する。
The video data of each frame output from the A / D converter 4 is temporarily held in the frame buffer 50. The video data read from the frame buffer 50 is transferred to the switch 51.
, 53 to the demosaic processing unit 54. The demosaic processing unit 54 performs demosaic processing on the input video data of each frame. The video processing unit 5 performs various video processing such as white balance correction and gain correction in addition to demosaic processing, and outputs R, G, and B primary color data.

図8を用いて、デモザイク処理部54におけるデモザイク処理について説明する。図8
において、(a)は映像データの任意のフレームFmを示している。フレームFmは、有
効映像期間の画素によって構成されたフレームである。映像データの画素数は、例えばV
GA規格では水平640画素、垂直480画素である。ここでは簡略化のため、フレーム
Fmの画素数を大幅に少なくして、フレームFmを概念的に示している。
The demosaic process in the demosaic processing unit 54 will be described with reference to FIG. FIG.
(A) shows an arbitrary frame Fm of video data. The frame Fm is a frame composed of pixels in the effective video period. The number of pixels of the video data is, for example, V
In the GA standard, there are 640 pixels horizontally and 480 pixels vertically. Here, for simplification, the number of pixels of the frame Fm is significantly reduced, and the frame Fm is conceptually illustrated.

ベイヤ配列の撮像部3を用いて生成された映像データは、フレームFm内で、R,G,
Bの画素データが混在したデータである。デモザイク処理部54は、Rの画素データが存
在しない画素位置のRの画素データを周囲のRの画素データを用いて算出したRの補間画
素データRiを生成する。デモザイク処理部54は、図8の(b)に示す1フレームの全
画素がRの画素データよりなるRフレームFmRを生成する。
The video data generated using the Bayer-array imaging unit 3 is R, G,
This data is a mixture of B pixel data. The demosaic processing unit 54 generates R interpolation pixel data Ri obtained by calculating R pixel data at a pixel position where no R pixel data is present using surrounding R pixel data. The demosaic processing unit 54 generates an R frame FmR in which all the pixels in one frame shown in FIG. 8B are made up of R pixel data.

デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周
囲のGの画素データを用いて算出したGの補間画素データGiを生成する。デモザイク処
理部54は、図8の(c)に示す1フレームの全画素がGの画素データよりなるGフレー
ムFmGを生成する。
The demosaic processing unit 54 generates G interpolation pixel data Gi obtained by calculating G pixel data at a pixel position where no G pixel data exists using surrounding G pixel data. The demosaic processing unit 54 generates a G frame FmG in which all pixels of one frame shown in FIG.

デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周
囲のBの画素データを用いて算出したBの補間画素データBiを生成する。デモザイク処
理部54は、図8の(d)に示す1フレームの全画素がBの画素データよりなるBフレー
ムFmBを生成する。
The demosaic processing unit 54 generates B interpolated pixel data Bi obtained by calculating B pixel data at a pixel position where no B pixel data exists using surrounding B pixel data. The demosaic processing unit 54 generates a B frame FmB in which all the pixels in one frame shown in FIG.

デモザイク処理部54は、Rの画素データを補間する際には少なくともRの画素データ
を用いればよく、Gの画素データを補間する際には少なくともGの画素データを用いれば
よく、Bの画素データを補間する際には少なくともBの画素データを用いればよい。デモ
ザイク処理部54は、補間精度を向上させるために、R,G,Bの画素データを補間する
際に、生成しようとする補間画素データの色とは異なる他の色の画素データを用いてもよ
い。
The demosaic processing unit 54 may use at least R pixel data when interpolating R pixel data, may use at least G pixel data when interpolating G pixel data, and B pixel data. When interpolation is performed, at least B pixel data may be used. In order to improve interpolation accuracy, the demosaic processing unit 54 may use pixel data of another color different from the color of the interpolation pixel data to be generated when interpolating R, G, and B pixel data. Good.

撮像部3には、有効映像期間より外側の画素も存在しているため、フレームFmの上下
左右端部に位置する画素においても、R,G,Bの画素データを補間することができる。
Since there are pixels outside the effective video period in the imaging unit 3, R, G, and B pixel data can be interpolated even in pixels located at the upper, lower, left, and right ends of the frame Fm.

デモザイク処理部54によって生成されたRフレームFmR,GフレームFmG,Bフ
レームFmBがR,G,Bの3原色データとして出力される。図8では、理解を容易にす
るため、R,G,Bの画素データをフレーム単位で説明したが、実際には、R,G,Bの
画素データは画素ごとに順次出力される。
The R frame FmR, G frame FmG, and B frame FmB generated by the demosaic processing unit 54 are output as R, G, and B primary color data. In FIG. 8, the R, G, B pixel data is described in units of frames in order to facilitate understanding, but actually, the R, G, B pixel data is sequentially output for each pixel.

<中間モード:中間第1モード>
中間モード(中間第1モード及び後述する中間第2モード)では、制御部7は、駆動部
8によって、光学レンズ1と撮像部3との間にダミーガラス22を挿入させる。投光制御
部71は、赤外線投光器9による赤外光の投光をオンにする。モード切換部72は、スイ
ッチ51,53を端子Taに接続するように制御する。
<Intermediate mode: Intermediate first mode>
In the intermediate mode (intermediate first mode and intermediate second mode described later), the control unit 7 causes the drive unit 8 to insert the dummy glass 22 between the optical lens 1 and the imaging unit 3. The light projection controller 71 turns on the infrared light projection by the infrared light projector 9. The mode switching unit 72 controls the switches 51 and 53 to be connected to the terminal Ta.

図9の(a)は、赤外線投光器9による赤外光の投光の状態を示している。制御部7は
、通常モードの1フレーム期間を1/3ずつに分け、例えば投光部91,92,93の順
に赤外光を投光させるように制御する。
FIG. 9A shows a state of infrared light projection by the infrared projector 9. The control unit 7 divides one frame period of the normal mode into 1/3, and controls so as to project infrared light in the order of the light projecting units 91, 92, 93, for example.

図9の(a)に示す例では、1フレームの最初の1/3の期間では、波長IR1(78
0nm)の赤外光が被写体に照射される。1フレームの次の1/3の期間では、波長IR
2(940nm)の赤外光が被写体に照射される。1フレームの最後の1/3の期間では
、波長IR3(870nm)の赤外光が被写体に照射される。波長IR1〜IR3の赤外
光を投光する順番は任意である。
In the example shown in FIG. 9A, in the first 1/3 period of one frame, the wavelength IR1 (78
0 nm) infrared light is irradiated on the subject. In the next 1/3 period of one frame, the wavelength IR
2 (940 nm) infrared light is irradiated on the subject. In the last 1/3 period of one frame, the subject is irradiated with infrared light having a wavelength IR3 (870 nm). The order of projecting infrared light with wavelengths IR1 to IR3 is arbitrary.

図9の(b)に示すように、波長IR1の赤外光を投光しているタイミングでは、撮像
部3はR光との相関性が高い露光Ex1Rが行われる。波長IR2の赤外光を投光しているタ
イミングでは、撮像部3はG光との相関性が高い露光Ex1Gが行われる。波長IR3の赤外
光を投光しているタイミングでは、撮像部3はB光との相関性が高い露光Ex1Bが行われる
As shown in FIG. 9B, at the timing when infrared light having a wavelength IR1 is projected, the imaging unit 3 performs exposure Ex1R having a high correlation with the R light. At the timing when the infrared light having the wavelength IR2 is projected, the imaging unit 3 performs the exposure Ex1G having a high correlation with the G light. At the timing when the infrared light having the wavelength IR3 is projected, the imaging unit 3 performs exposure Ex1B having a high correlation with the B light.

但し、中間モードでは、可視光がわずかに存在する環境下での撮像であるため、可視光
と赤外線投光器9より投光された赤外光とが混在した状態である。よって、中間モードに
おいては、露光Ex1R,Ex1G,Ex1B,Ex2R,Ex2G,Ex2B…は、可視光による露光と赤外光に
よる露光とを合わせた露光となる。
However, in the intermediate mode, since imaging is performed in an environment where there is a small amount of visible light, visible light and infrared light projected from the infrared projector 9 are mixed. Therefore, in the intermediate mode, the exposures Ex1R, Ex1G, Ex1B, Ex2R, Ex2G, Ex2B... Are exposures that combine exposure with visible light and exposure with infrared light.

図9の(c)に示すように、露光Ex1R,Ex1G,Ex1Bに基づいて、所定時間後に、露光Ex
1Rに対応したフレームF1IR1、露光Ex1Gに対応したフレームF1IR3、露光Ex1Bに対応したフ
レームF1IR2が得られる。
As shown in FIG. 9 (c), the exposure Ex1R, Ex1G, and Ex1B are used to determine the exposure Ex
A frame F1IR1 corresponding to 1R, a frame F1IR3 corresponding to exposure Ex1G, and a frame F1IR2 corresponding to exposure Ex1B are obtained.

また、露光Ex2R,Ex2G,Ex2Bに基づいて、所定時間後に、露光Ex2Rに対応したフレーム
F2IR1、露光Ex2Gに対応したフレームF2IR3、露光Ex2Bに対応したフレームF2IR2が得られ
る。露光Ex3R,Ex3G,Ex3B以降も同様である。
Also, based on the exposure Ex2R, Ex2G, Ex2B, a frame corresponding to the exposure Ex2R after a predetermined time
A frame F2IR3 corresponding to F2IR1, exposure Ex2G, and a frame F2IR2 corresponding to exposure Ex2B are obtained. The same applies to exposures Ex3R, Ex3G, and Ex3B.

図9の(c)の撮像信号のフレーム周波数は、90フレーム/秒である。中間モードで
は、通常モードにおける映像信号の1フレームを時分割して波長IR1〜IR3の赤外光
を投光するため、通常モードと同じ形式の映像信号を出力するためには、図9の(c)の
撮像信号のフレーム周波数は、通常モードにおけるフレーム周波数の3倍となる。
The frame frequency of the imaging signal in (c) of FIG. 9 is 90 frames / second. In the intermediate mode, one frame of the video signal in the normal mode is time-divided and infrared light of wavelengths IR1 to IR3 is projected. In order to output a video signal in the same format as in the normal mode, ( The frame frequency of the imaging signal in c) is three times the frame frequency in the normal mode.

後述するように、図9の(c)の3フレームの撮像信号に基づいて、図9の(d)に示
す30フレーム/秒のフレーム周波数を有する映像信号の1フレームが生成される。ここ
では概略的にインターレース方式の映像信号ではなく、プログレッシブ方式の映像信号と
して説明する。例えば、フレームF1IR1,F1IR2,F1IR3に基づいてフレームF1IRが生成さ
れ、フレームF2IR1,F2IR2,F2IR3に基づいてフレームF2IRが生成される。
As will be described later, one frame of a video signal having a frame frequency of 30 frames / second shown in (d) of FIG. 9 is generated based on the imaging signals of three frames shown in (c) of FIG. Here, the description will be made as a progressive video signal rather than an interlace video signal. For example, a frame F1IR is generated based on the frames F1IR1, F1IR2, and F1IR3, and a frame F2IR is generated based on the frames F2IR1, F2IR2, and F2IR3.

図9の(c)の3フレームの撮像信号に基づいて、図9の(d)の各フレームの映像信
号を生成する中間モードでの動作を具体的に説明する。
The operation in the intermediate mode for generating the video signal of each frame of FIG. 9D based on the image pickup signals of 3 frames of FIG. 9C will be specifically described.

A/D変換器4より出力された図9の(c)に示す撮像信号に対応する各フレームの映
像データは、フレームバッファ50に一時的に保持される。フレームバッファ50より読
み出された映像データは、スイッチ51を介して前信号処理部52に入力される。
The video data of each frame corresponding to the imaging signal shown in FIG. 9C output from the A / D converter 4 is temporarily held in the frame buffer 50. The video data read from the frame buffer 50 is input to the previous signal processing unit 52 via the switch 51.

図10を用いて、前信号処理部52における前信号処理について説明する。図10の(
a)は、波長IR1の赤外光を投光しているタイミングで生成された映像データの任意の
フレームFmIR1を示している。フレームFmIR1内のR,B,Gr,Gbの画素データには、
波長IR1の赤外光を投光した状態で生成されたことを示す添え字1を付している。
The previous signal processing in the previous signal processing unit 52 will be described with reference to FIG. (
a) shows an arbitrary frame FmIR1 of the video data generated at the timing when the infrared light having the wavelength IR1 is projected. The pixel data of R, B, Gr, and Gb in the frame FmIR1 are
A subscript 1 is attached to indicate that the infrared light having the wavelength IR1 is generated in a projected state.

図10の(b)は、波長IR2の赤外光を投光しているタイミングで生成された映像デ
ータの任意のフレームFmIR2を示している。フレームFmIR2内のR,B,Gr,Gbの画素
データには、波長IR2の赤外光を投光した状態で生成されたことを示す添え字2を付し
ている。
FIG. 10B shows an arbitrary frame FmIR2 of video data generated at the timing when infrared light having a wavelength IR2 is projected. The R, B, Gr, and Gb pixel data in the frame FmIR2 is attached with a subscript 2 indicating that it is generated in a state where infrared light having a wavelength IR2 is projected.

図10の(c)は、波長IR3の赤外光を投光しているタイミングで生成された映像デ
ータの任意のフレームFmIR3を示している。フレームFmIR3内のR,B,Gr,Gbの画素
データには、波長IR3の赤外光を投光した状態で生成されたことを示す添え字3を付し
ている。
FIG. 10C shows an arbitrary frame FmIR3 of the video data generated at the timing when the infrared light having the wavelength IR3 is projected. The R, B, Gr, and Gb pixel data in the frame FmIR3 has a subscript 3 indicating that it is generated in a state where infrared light having the wavelength IR3 is projected.

図10の(a)に示すフレームFmIR1は、R光との相関性が高い波長IR1の赤外光が
投光された状態で生成された映像データであるので、Rの画素データは投光された赤外光
と対応した画素データであり、B,Gの画素データは投光された赤外光と対応していない
画素データである。B,Gr,Gbの画素データに付しているハッチングは、投光された
赤外光と対応していない画素データであることを意味する。
Since the frame FmIR1 shown in FIG. 10A is video data generated in a state where infrared light having a wavelength IR1 having a high correlation with the R light is projected, the R pixel data is projected. The pixel data corresponding to the infrared light and the pixel data B and G are pixel data not corresponding to the projected infrared light. The hatching attached to the B, Gr, and Gb pixel data means that the pixel data does not correspond to the projected infrared light.

図10の(b)に示すフレームFmIR2は、G光との相関性が高い波長IR2の赤外光が
投光された状態で生成された映像データであるので、Gの画素データは投光された赤外光
と対応した画素データであり、R,Bの画素データは投光された赤外光と対応していない
画素データである。R,Bの画素データに付しているハッチングは、投光された赤外光と
対応していない画素データであることを意味する。
The frame FmIR2 shown in FIG. 10B is video data generated in a state where infrared light having a wavelength IR2 having a high correlation with the G light is projected, so that the G pixel data is projected. The pixel data corresponding to the infrared light, and the R and B pixel data are pixel data not corresponding to the projected infrared light. The hatching attached to the R and B pixel data means that the pixel data does not correspond to the projected infrared light.

図10の(c)に示すフレームFmIR3は、B光との相関性が高い波長IR3の赤外光が
投光された状態で生成された映像データであるので、Bの画素データは投光された赤外光
と対応した画素データであり、R,Gの画素データは投光された赤外光と対応していない
画素データである。R,Gr,Gbの画素データに付しているハッチングは、投光された
赤外光と対応していない画素データであることを意味する。
The frame FmIR3 shown in FIG. 10C is video data generated in a state where infrared light having a wavelength IR3 having a high correlation with the B light is projected, so that the B pixel data is projected. The pixel data corresponding to the infrared light, and the R and G pixel data are pixel data not corresponding to the projected infrared light. The hatching attached to the R, Gr, and Gb pixel data means pixel data that does not correspond to the projected infrared light.

前信号処理部52内の同一位置画素加算部522は、互いに同じ画素位置のR,Gr,
Gb,Bの画素データを以下の式(1)〜(3)に従って個別に加算して、画素データR1
23,Gr123,Gb123,B123を生成する。中間モードでは、前信号処理部52内の周囲画素加
算部521は不動作である。
The same-position pixel addition unit 522 in the previous signal processing unit 52 has R, Gr,
Gb and B pixel data are individually added according to the following equations (1) to (3) to obtain pixel data R1.
23, Gr123, Gb123, B123 are generated. In the intermediate mode, the surrounding pixel addition unit 521 in the previous signal processing unit 52 does not operate.

R123=ka×R1+kb×R2 +kc×R3 …(1)
G123=kd×G1+ke×G2+kf×G3 …(2)
B123=kg×B1+kh×B2+ki×B3 …(3)
R123 = ka × R1 + kb × R2 + kc × R3 (1)
G123 = kd × G1 + ke × G2 + kf × G3 (2)
B123 = kg × B1 + kh × B2 + ki × B3 (3)

式(1)〜(3)において、R1,G1,B1はフレームFmIR1におけるR,G,Bの画素デ
ータ、R2,G2,B2はフレームFmIR2におけるR,G,Bの画素データ、R3,G3,B3はフレ
ームFmIR3におけるR,G,Bの画素データである。ka〜kiは所定の係数である。式(2
)におけるG123はGr123またはGb123である。
In the equations (1) to (3), R1, G1, and B1 are R, G, and B pixel data in the frame FmIR1, R2, G2, and B2 are R, G, and B pixel data in the frame FmIR2, R3, G3, B3 is R, G, B pixel data in the frame FmIR3. ka to ki are predetermined coefficients. Formula (2
G123 in) is Gr123 or Gb123.

このとき、同一位置画素加算部522は、ハッチングを付していないR,Gr,Gb,
Bのそれぞれの画素データに、ハッチングを付した同じ画素位置のR,Gr,Gb,Bの
画素データそれぞれを加算する。
At this time, the same-position pixel addition unit 522 does not include hatched R, Gr, Gb,
The pixel data of R, Gr, Gb, and B at the same pixel position with hatching are added to the pixel data of B, respectively.

即ち、同一位置画素加算部522は、式(1)に基づいて、フレームFmIR1におけるR
の画素データに、フレームFmIR2,FmIR3における同じ画素位置のRの画素データを加算し
て、画素データR123を生成する。つまり、受光素子における赤色のカラーフィルタに対応
する領域の画素データだけを用いて赤色用の画素データR123を生成する。
That is, the same-position pixel adding unit 522 calculates R in the frame FmIR1 based on the equation (1).
The pixel data R123 is generated by adding the R pixel data at the same pixel position in the frames FmIR2 and FmIR3 to the pixel data. That is, red pixel data R123 is generated using only pixel data in a region corresponding to the red color filter in the light receiving element.

同一位置画素加算部522は、式(2)に基づいて、フレームFmIR2におけるGr,G
bの画素データに、フレームFmIR1,FmIR3における同じ画素位置のGr,Gbの画素デー
タを加算して、画素データG123を生成する。つまり、受光素子における緑色のカラーフィ
ルタに対応する領域の画素データだけを用いて緑色用の画素データG123を生成する。
The same-position pixel adding unit 522 calculates Gr, G in the frame FmIR2 based on Expression (2).
The pixel data G123 is generated by adding the pixel data Gr and Gb at the same pixel position in the frames FmIR1 and FmIR3 to the pixel data b. That is, green pixel data G123 is generated using only pixel data in a region corresponding to the green color filter in the light receiving element.

同一位置画素加算部522は、式(3)に基づいて、フレームFmIR3におけるBの画素
データに、フレームFmIR1,FmIR2における同じ画素位置のBの画素データを加算して、画
素データB123を生成する。つまり、受光素子における青色のカラーフィルタに対応する領
域の画素データだけを用いて青色用の画素データB123を生成する。
The same-position pixel addition unit 522 generates pixel data B123 by adding the B pixel data at the same pixel position in the frames FmIR1 and FmIR2 to the B pixel data in the frame FmIR3 based on the equation (3). That is, blue pixel data B123 is generated using only pixel data in a region corresponding to the blue color filter in the light receiving element.

前信号処理部52内の合成部523は、それぞれの画素位置において生成された画素デ
ータR123,Gr123,Gb123,B123に基づいて、図10の(d)に示す合成映像信号のフレー
ムFmIR123を生成する。
Based on the pixel data R123, Gr123, Gb123, and B123 generated at each pixel position, the combining unit 523 in the previous signal processing unit 52 generates a frame FmIR123 of the combined video signal shown in (d) of FIG. .

具体的には、合成部523は、フレームFmIR1における画素データR123と、フレームFmI
R2における画素データGr123,Gb123と、フレームFmIR3における画素データB123とを選択
して合成する。これによって合成部523は、合成映像信号のフレームFmIR123を生成す
る。
Specifically, the synthesis unit 523 generates the pixel data R123 in the frame FmIR1 and the frame FmI.
The pixel data Gr123 and Gb123 in R2 and the pixel data B123 in the frame FmIR3 are selected and combined. Thereby, the synthesis unit 523 generates a frame FmIR123 of the synthesized video signal.

このように、合成部523は、カラーフィルタ32における色フィルタの配列と同じ配
列となるように、画素データR123,Gr123,Gb123,B123を配列させたフレームFmIR123を
生成する。
As described above, the synthesis unit 523 generates the frame FmIR123 in which the pixel data R123, Gr123, Gb123, and B123 are arranged so as to have the same arrangement as the arrangement of the color filters in the color filter 32.

中間第1モードにおいては、ハッチングを付していない画素データと、ハッチングを付
した画素データとを用いて、フレームFmIR123の映像データを生成する。
In the intermediate first mode, video data of the frame FmIR123 is generated using pixel data that is not hatched and pixel data that is hatched.

同一位置画素加算部522によって互いに同じ画素位置の画素データを加算するのは、
次の理由による。中間モードではわずかではあるものの可視光が存在する環境下での撮像
であるため、ハッチングを付した画素データは可視光による露光に基づくそれぞれの色の
成分を含む。よって、同じ画素位置の画素データを加算することによって、それぞれの色
の感度を上げることができる。
The same-position pixel adding unit 522 adds pixel data at the same pixel position to each other.
For the following reason. Since the imaging is performed in an environment where visible light is present in the intermediate mode, the hatched pixel data includes respective color components based on exposure with visible light. Therefore, the sensitivity of each color can be increased by adding pixel data at the same pixel position.

可視光と赤外光とが混在している状況で可視光が比較的多ければ、可視光による露光が
支配的となる。この場合、フレームFmIR123の映像データは、可視光によって露光した映
像信号に基づく成分が主となる。可視光と赤外光とが混在している状況で赤外光が比較的
多ければ、赤外光による露光が支配的となる。この場合、フレームFmIR123の映像データ
は、赤外光によって露光した映像信号に基づく成分が主となる。
If the visible light and infrared light are mixed and there is a relatively large amount of visible light, exposure with visible light becomes dominant. In this case, the video data of the frame FmIR123 mainly includes components based on the video signal exposed with visible light. If visible light and infrared light are mixed and there is a relatively large amount of infrared light, exposure with infrared light becomes dominant. In this case, the video data of the frame FmIR123 mainly includes components based on the video signal exposed with infrared light.

可視光が比較的少ない場合には、式(1)において、係数ka,kb,kcの大小関係を、ka
>kb,kcとし、式(2)において、係数kd,ke,kfの大小関係を、kf>kd,keとし、式(3
)において、係数kg,kh,kiの大小関係を、kh>kg,kiとするのがよい。これは、波長I
R1はR光との相関性が高く、波長IR2はG光との相関性が高く、波長IR3はB光と
の相関性が高いからである。
When the visible light is relatively small, the relationship between the coefficients ka, kb, and kc in equation (1) is expressed as ka
> kb, kc, and in equation (2), the relationship between the coefficients kd, ke, kf is kf> kd, ke, and equation (3
), The magnitude relationship between the coefficients kg, kh and ki should be kh> kg and ki. This is the wavelength I
This is because R1 has a high correlation with R light, wavelength IR2 has a high correlation with G light, and wavelength IR3 has a high correlation with B light.

このようにすれば、Rの画素データではフレームFmIR1におけるRの画素データ、Gの
画素データではフレームFmIR2におけるGの画素データ、Bの画素データではフレームFmI
R3におけるBの画素データを主とすることができる。
In this way, the R pixel data is R pixel data in the frame FmIR1, the G pixel data is G pixel data in the frame FmIR2, and the B pixel data is frame FmI.
The pixel data of B in R3 can be mainly used.

前信号処理部52より出力されたフレームFmIR123の映像データは、スイッチ53を介
してデモザイク処理部54に入力される。デモザイク処理部54は、通常モードと同様に
、入力されたフレームFmIR123の映像データにデモザイク処理を施す。映像処理部5は、
デモザイク処理の他、ホワイトバランス補正やゲイン補正等の各種の映像処理を施して、
R,G,Bの3原色データを出力する。
The video data of the frame FmIR123 output from the previous signal processing unit 52 is input to the demosaic processing unit 54 via the switch 53. The demosaic processing unit 54 performs demosaic processing on the video data of the input frame FmIR123, as in the normal mode. The video processor 5
In addition to demosaic processing, various video processing such as white balance correction and gain correction are performed,
Outputs the three primary color data of R, G and B.

図11を用いて、デモザイク処理部54におけるデモザイク処理について説明する。図
11の(a)は、フレームFmIR123を示している。デモザイク処理部54は、Rの画素デ
ータが存在しない画素位置のRの画素データを周囲のRの画素データを用いて演算して、
Rの補間画素データR123iを生成する。デモザイク処理部54は、図11の(b)に示す
1フレームの全画素がRの画素データよりなるRフレームFmIR123Rを生成する。
The demosaic process in the demosaic processing unit 54 will be described with reference to FIG. FIG. 11A shows the frame FmIR123. The demosaic processing unit 54 calculates the R pixel data at the pixel position where the R pixel data does not exist using the surrounding R pixel data,
R interpolation pixel data R123i is generated. The demosaic processing unit 54 generates an R frame FmIR123R in which all the pixels of one frame shown in FIG.

デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周
囲のGの画素データを用いて演算して、Gの補間画素データG123iを生成する。デモザイ
ク処理部54は、図11の(c)に示す1フレームの全画素がGの画素データよりなるG
フレームFmIR123Gを生成する。
The demosaic processing unit 54 calculates the G pixel data at the pixel position where the G pixel data does not exist using the surrounding G pixel data, and generates the G interpolation pixel data G123i. The demosaic processing unit 54 uses G pixel data in which all pixels in one frame shown in FIG.
A frame FmIR123G is generated.

デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周
囲のBの画素データを用いて演算して、Bの補間画素データB123iを生成する。デモザイ
ク処理部54は、図11の(d)に示す1フレームの全画素がBの画素データよりなるB
フレームFmIR123Bを生成する。
The demosaic processing unit 54 calculates the B pixel data at the pixel position where the B pixel data does not exist using the surrounding B pixel data, and generates the B interpolation pixel data B123i. In the demosaic processing unit 54, all pixels in one frame shown in (d) of FIG.
A frame FmIR123B is generated.

通常モードにおける図8に示すデモザイク処理部54の動作と、中間モードにおける図
11に示すデモザイク処理部54の動作とを比較すれば分かるように、両者は実質的に同
じである。デモザイク処理部54の動作は、通常モードであっても中間モードであっても
変わらない。
As can be understood by comparing the operation of the demosaic processing unit 54 shown in FIG. 8 in the normal mode with the operation of the demosaic processing unit 54 shown in FIG. 11 in the intermediate mode, they are substantially the same. The operation of the demosaic processing unit 54 does not change regardless of whether it is the normal mode or the intermediate mode.

通常モードでは前信号処理部52を不動作とし、中間モードでは、周囲画素加算部52
1を除き、前信号処理部52を動作させればよい。通常モードと中間モードとで、映像処
理部5におけるデモザイク処理部54、及び、ホワイトバランス補正やゲイン補正等の信
号処理部を共用させることができる。
In the normal mode, the front signal processing unit 52 is disabled, and in the intermediate mode, the surrounding pixel adding unit 52 is operated.
Except for 1, the previous signal processing unit 52 may be operated. In the normal mode and the intermediate mode, the demosaic processing unit 54 in the video processing unit 5 and the signal processing unit such as white balance correction and gain correction can be shared.

<中間モード:中間第2モード>
図12及び図13を用いて、中間第2モードにおける動作を説明する。中間第2モード
における動作において、中間第1モードにおける動作と同一部分は説明を省略する。図1
2の(a)〜(c)のフレームFmIR1,FmIR2,FmIR3は、図10の(a)〜(c)のフレ
ームFmIR1,FmIR2,FmIR3と同じである。
<Intermediate mode: Intermediate second mode>
The operation in the intermediate second mode will be described with reference to FIGS. In the operation in the intermediate second mode, the description of the same part as the operation in the intermediate first mode is omitted. FIG.
Frames FmIR1, FmIR2, and FmIR3 of (a) to (c) of 2 are the same as the frames FmIR1, FmIR2, and FmIR3 of (a) to (c) of FIG.

合成部523は、フレームFmIR1におけるRの画素データであるR1と、フレームFmIR2に
おけるGの画素データであるGr2,Gb2と、フレームFmIR3におけるBの画素データであるB
3とを選択して合成する。これによって合成部523は、図12の(d)に示す合成映像
信号のフレームFmIR123’を生成する。
The synthesizer 523 has R1 which is R pixel data in the frame FmIR1, Gr2 and Gb2 which are G pixel data in the frame FmIR2, and B which is B pixel data in the frame FmIR3.
Select 3 and synthesize. As a result, the synthesis unit 523 generates a frame FmIR123 ′ of the synthesized video signal shown in FIG.

即ち、フレームFmIR123’は、フレームFmIR1,FmIR3,FmIR2におけるハッチングを付し
ていないR,Gr,Gb,Bの画素データを1フレームに集結させた映像データである。
That is, the frame FmIR123 ′ is video data obtained by collecting R, Gr, Gb, and B pixel data not hatched in the frames FmIR1, FmIR3, and FmIR2 into one frame.

つまり、フレームFmIR123’においては、波長IR1の赤外光を投光した状態における
赤色のカラーフィルタに対応する領域の画素データだけを用いた赤色用の画素データ、波
長IR2の赤外光を投光した状態における緑色のカラーフィルタに対応する領域の画素デ
ータだけを用いた緑色用の画素データ、波長IR3の赤外光を投光した状態における青色
のカラーフィルタに対応する領域の画素データだけを用いた青色用の画素データとなって
いる。
That is, in the frame FmIR123 ′, the pixel data for red using only the pixel data in the region corresponding to the red color filter in the state where the infrared light having the wavelength IR1 is projected, and the infrared light having the wavelength IR2 are projected. Only the pixel data for the green color using only the pixel data of the region corresponding to the green color filter in the selected state, and the pixel data of the region corresponding to the blue color filter in the state of projecting the infrared light having the wavelength IR3 are used. The pixel data is for blue.

このように、合成部523は、カラーフィルタ32における色フィルタの配列と同じ配
列となるように、画素データR1,Gr2,Gb2,B3を配列させたフレームFmIR123’を生成す
る。
In this way, the synthesis unit 523 generates a frame FmIR123 ′ in which the pixel data R1, Gr2, Gb2, and B3 are arranged so as to be the same arrangement as the arrangement of the color filters in the color filter 32.

中間第2モードでは、同一位置画素加算部522は、式(1)における係数kaを1、係
数kb,kcを0とし、式(2)における係数keを1、係数kd,kfを0とし、式(3)におけ
る係数kiを1、係数kg,khを0とする。
In the intermediate second mode, the same-position pixel adding unit 522 sets the coefficient ka in Equation (1) to 1, the coefficients kb and kc to 0, the coefficient ke in Equation (2) to 1, the coefficients kd and kf to 0, In equation (3), the coefficient ki is 1 and the coefficients kg and kh are 0.

これによって、フレームFmIR1におけるRの画素データと、フレームFmIR2におけるGr
,Gbの画素データと、フレームFmIR3におけるBの画素データは、それぞれそのままの
値となる。
As a result, R pixel data in the frame FmIR1 and Gr in the frame FmIR2 are obtained.
, Gb pixel data and the B pixel data in the frame FmIR3 have the same values.

よって、合成部523は、中間第1モードにおける動作と同様に、フレームFmIR1にお
けるRの画素データと、フレームFmIR2におけるGr,Gbの画素データと、フレームFmI
R3におけるBの画素データを選択すれば、フレームFmIR123’を生成することができる。
Therefore, the synthesizing unit 523 performs the R pixel data in the frame FmIR1, the Gr and Gb pixel data in the frame FmIR2, and the frame FmI, as in the operation in the intermediate first mode.
If the B pixel data in R3 is selected, the frame FmIR123 ′ can be generated.

中間第2モードにおいては、前信号処理部52は、画素データの色と同じ色の画素デー
タを生成するための赤外光が投光された状態で生成された画素データ(ハッチングを付し
ていない画素データ)のみ用いて、フレームFmIR123’の映像データを生成する。
In the intermediate second mode, the pre-signal processing unit 52 generates pixel data (hatched) in a state in which infrared light for generating pixel data having the same color as the pixel data is projected. Video data of the frame FmIR123 ′ is generated using only (non-pixel data).

中間第2モードによれば、中間第1モードよりも感度や色の再現性は低下するものの、
演算処理を簡略化したり、フレームメモリを削減したりすることができる。
According to the intermediate second mode, although sensitivity and color reproducibility are lower than in the intermediate first mode,
The arithmetic processing can be simplified and the frame memory can be reduced.

図13を用いて、デモザイク処理部54におけるデモザイク処理について説明する。図
13の(a)は、フレームFmIR123’を示している。デモザイク処理部54は、Rの画素
データが存在しない画素位置のRの画素データを周囲のRの画素データを用いて演算して
、Rの補間画素データR1iを生成する。デモザイク処理部54は、図13の(b)に示
す1フレームの全画素がRの画素データよりなるRフレームFmIR123’Rを生成する。
The demosaic process in the demosaic processing unit 54 will be described with reference to FIG. FIG. 13A shows a frame FmIR123 ′. The demosaic processing unit 54 calculates the R pixel data at the pixel position where the R pixel data does not exist using the surrounding R pixel data, and generates the R interpolation pixel data R1i. The demosaic processing unit 54 generates an R frame FmIR123′R in which all the pixels of one frame shown in FIG. 13B are made up of R pixel data.

デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周
囲のGの画素データを用いて演算して、Gの補間画素データG2iを生成する。デモザイ
ク処理部54は、図13の(c)に示す1フレームの全画素がGの画素データよりなるG
フレームFmIR123’Gを生成する。
The demosaic processing unit 54 calculates G pixel data at a pixel position where no G pixel data exists using the surrounding G pixel data, and generates G interpolation pixel data G2i. The demosaic processing unit 54 uses G pixel data in which all the pixels of one frame shown in FIG.
A frame FmIR123'G is generated.

デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周
囲のBの画素データを用いて演算して、Bの補間画素データB3iを生成する。デモザイ
ク処理部54は、図13の(d)に示す1フレームの全画素がBの画素データよりなるB
フレームFmIR123’Bを生成する。
The demosaic processing unit 54 calculates the B pixel data at the pixel position where the B pixel data does not exist using the surrounding B pixel data, and generates the B interpolation pixel data B3i. The demosaic processing unit 54 uses the B pixel data in which all the pixels in one frame shown in FIG.
A frame FmIR123'B is generated.

以上のように、中間モードにおいては、受光素子における赤色のカラーフィルタに対応
する領域から得た画素データから赤色用の画素データを生成し、受光素子における緑色の
カラーフィルタに対応する領域から得た画素データから緑色用の画素データを生成し、受
光素子における青色のカラーフィルタに対応する領域から得た画素データから青色用の画
素データを生成する。
As described above, in the intermediate mode, the pixel data for red is generated from the pixel data obtained from the region corresponding to the red color filter in the light receiving element, and obtained from the region corresponding to the green color filter in the light receiving element. Green pixel data is generated from the pixel data, and blue pixel data is generated from the pixel data obtained from the region corresponding to the blue color filter in the light receiving element.

<暗視モード:暗視第1モード>
暗視モード(暗視第1モード及び後述する暗視第2モード)では、中間モードと同様、
制御部7は、駆動部8によって、光学レンズ1と撮像部3との間にダミーガラス22を挿
入させる。投光制御部71は、赤外線投光器9による赤外光の投光をオンにする。モード
切換部72は、スイッチ51,53を端子Taに接続するように制御する。
<Night vision mode: first night vision mode>
In the night vision mode (first night vision mode and second night vision mode described later), as in the intermediate mode,
The control unit 7 causes the drive unit 8 to insert the dummy glass 22 between the optical lens 1 and the imaging unit 3. The light projection controller 71 turns on the infrared light projection by the infrared light projector 9. The mode switching unit 72 controls the switches 51 and 53 to be connected to the terminal Ta.

暗視モードにおける概略的な動作は、図9と同じである。但し、暗視モードでは、可視
光がほとんど存在しない環境下での撮像であるため、図9の(b)における露光Ex1R,Ex
1G,Ex1B,Ex2R,Ex2G,Ex2B…は、赤外光のみによる露光を想定している。
The schematic operation in the night vision mode is the same as that in FIG. However, in the night vision mode, since the imaging is performed in an environment where there is almost no visible light, the exposures Ex1R and Ex1B in FIG.
1G, Ex1B, Ex2R, Ex2G, Ex2B... Assume exposure using only infrared light.

可視光がほとんど存在せず赤外光のみが存在している環境下では、カラーフィルタ32
におけるそれぞれの色フィルタの特性には差がなくなるため、撮像部3を単色の撮像素子
とみなすことができる。
In an environment where there is almost no visible light and only infrared light is present, the color filter 32
Since there is no difference in the characteristics of the respective color filters, the imaging unit 3 can be regarded as a monochrome imaging device.

そこで、前信号処理部52内の周囲画素加算部521は、暗視モードでは、赤外光の感
度を向上させるために、それぞれの画素データに対して、周囲に位置する画素データを加
算する。
Therefore, in the night vision mode, the surrounding pixel addition unit 521 in the previous signal processing unit 52 adds pixel data located in the periphery to each pixel data in order to improve the sensitivity of infrared light.

具体的には、図14の(a)に示すように、Rの画素が注目画素であるとき、周囲画素
加算部521は、注目画素のRの画素データに対して周囲に位置するG及びBの8画素の
画素データを加算する。
Specifically, as illustrated in FIG. 14A, when the R pixel is the target pixel, the surrounding pixel adding unit 521 includes the G and B positioned around the R pixel data of the target pixel. The pixel data of 8 pixels are added.

つまり、中間モードのときは、受光素子における赤色のカラーフィルタに対応する領域
から得た画素データから赤色用の画素データを生成していたが、暗視モードでは、中間モ
ードのときよりも広い領域から得た画素データから赤色用の画素データを生成することと
なる。図14の例では、各色とも注目画素を含む9画素分の領域から得た画素データを用
いている。
In other words, in the intermediate mode, red pixel data was generated from the pixel data obtained from the region corresponding to the red color filter in the light receiving element, but in the night vision mode, a wider area than in the intermediate mode. Pixel data for red is generated from the pixel data obtained from the above. In the example of FIG. 14, pixel data obtained from an area corresponding to nine pixels including the target pixel is used for each color.

図14の(b)に示すように、Gの画素が注目画素であるとき、周囲画素加算部521
は、注目画素のGの画素データに対して周囲に位置するG及びBの8画素の画素データを
加算する。図14の(b)におけるGの画素はGrまたはGbの画素である。
As shown in FIG. 14B, when the G pixel is the target pixel, the surrounding pixel adder 521
Adds the pixel data of G and B pixels located in the periphery to the G pixel data of the target pixel. The G pixel in FIG. 14B is a Gr or Gb pixel.

つまり、中間モードのときは、受光素子における緑色のカラーフィルタに対応する領域
から得た画素データから緑色用の画素データを生成していたが、暗視モードでは、中間モ
ードのときよりも広い領域から得た画素データから緑色用の画素データを生成することと
なる。
In other words, in the intermediate mode, the pixel data for green was generated from the pixel data obtained from the area corresponding to the green color filter in the light receiving element, but in the night vision mode, a wider area than in the intermediate mode. The pixel data for green is generated from the pixel data obtained from the above.

図14の(c)に示すように、Bの画素が注目画素であるとき、周囲画素加算部521
は、注目画素のBの画素データに対して周囲に位置するR及びGの8画素の画素データを
加算する。
As shown in FIG. 14C, when the pixel B is the target pixel, the surrounding pixel adding unit 521
Adds the pixel data of 8 pixels of R and G located around the B pixel data of the target pixel.

つまり、中間モードのときは、受光素子における青色のカラーフィルタに対応する領域
から得た画素データから青色用の画素データを生成していたが、暗視モードでは、中間モ
ードのときよりも広い領域から得た画素データから青色用の画素データを生成することと
なる。
In other words, in the intermediate mode, blue pixel data was generated from the pixel data obtained from the region corresponding to the blue color filter in the light receiving element, but in the night vision mode, a wider area than in the intermediate mode. The pixel data for blue is generated from the pixel data obtained from the above.

周囲画素加算部521は、注目画素の画素データと周囲の8画素の画素データとの9画
素を単純に加算してもよいし、周囲の8画素の画素データに対して所定の重み付けをした
上で注目画素の画素データに加算してもよい。
The surrounding pixel adding unit 521 may simply add 9 pixels of the pixel data of the target pixel and the surrounding 8 pixel pixel data, or may apply a predetermined weight to the surrounding 8 pixel pixel data. May be added to the pixel data of the pixel of interest.

ところで、ビニングと称される複数の画素をまとめて1つの画素として読み出し可能な
撮像素子が存在する。撮像素子31として、ビニング機能を有する撮像素子を用いる場合
には、周囲画素加算部521による加算処理ではなく、ビニング機能を有する撮像素子に
よる加算処理を行ってもよい。撮像素子によるビニングは、周囲画素加算部521による
加算処理と実質的に等価である。
By the way, there is an image pickup device that can read out a plurality of pixels called binning as a single pixel. When an image sensor having a binning function is used as the image sensor 31, an addition process by an image sensor having a binning function may be performed instead of the addition process by the surrounding pixel addition unit 521. Binning by the image sensor is substantially equivalent to addition processing by the surrounding pixel addition unit 521.

図15の(a)〜(c)のフレームFmIR1,FmIR3,FmIR2は、図10の(a)〜(c)
のフレームFmIR1,FmIR3,FmIR2と同じである。図15の(d)〜(f)において、R1ad
,Gr1ad,Gb1ad,B1ad,R2ad,Gr2ad,Gb2ad,B2ad,R3ad,Gr3ad,Gb3ad,B3adは、それ
ぞれ、R,Gr,Gb,Bの画素データに対して周囲の8画素の画素データを加算した加
算画素データである。
Frames FmIR1, FmIR3, and FmIR2 of (a) to (c) of FIG. 15 are represented by (a) to (c) of FIG.
This is the same as the frames FmIR1, FmIR3, and FmIR2. In (d) to (f) of FIG. 15, R1ad
, Gr1ad, Gb1ad, B1ad, R2ad, Gr2ad, Gb2ad, B2ad, R3ad, Gr3ad, Gb3ad, and B3ad are obtained by adding the surrounding pixel data of R, Gr, Gb, and B to the pixel data of R, Gr, Gb, and B, respectively. Pixel data.

周囲画素加算部521は、フレームFmIR1,FmIR3,FmIR2のそれぞれの画素データに対
して図14に示す加算処理を施すことにより、図15の(d)〜(f)に示すフレームFm
IR1ad,FmIR2ad,FmIR3adを生成する。
The surrounding pixel addition unit 521 performs the addition process shown in FIG. 14 on the respective pixel data of the frames FmIR1, FmIR3, and FmIR2, so that the frames Fm shown in (d) to (f) of FIG.
Generate IR1ad, FmIR2ad, and FmIR3ad.

図16の(a)〜(c)のフレームFmIR1ad,FmIR2ad,FmIR3adは、図15の(d)〜
(f)のフレームFmIR1ad,FmIR2ad,FmIR3adと同じである。
The frames FmIR1ad, FmIR2ad, and FmIR3ad in FIGS. 16A to 16C are shown in FIGS.
This is the same as the frames FmIR1ad, FmIR2ad, and FmIR3ad in (f).

同一位置画素加算部522は、中間第1モードと同様に、式(1)に基づいて、フレー
ムFmIR1adにおけるR1adの画素データに、フレームFmIR2ad,FmIR3adにおける同じ画素位
置のR2ad,R3adの画素データを加算して、画素データR123adを生成する。
The same-position pixel addition unit 522 adds the pixel data of R2ad and R3ad at the same pixel position in the frames FmIR2ad and FmIR3ad to the pixel data of R1ad in the frame FmIR1ad based on Expression (1), as in the first intermediate mode. Thus, pixel data R123ad is generated.

同一位置画素加算部522は、式(2)に基づいて、フレームFmIR2adにおけるGr2ad,
Gb2adの画素データに、フレームFmIR1ad,FmIR3adにおける同じ画素位置のGr1ad,Gb1ad
,Gr3ad,Gb3adの画素データを加算して、画素データGr123ad,Gb123adを生成する。
The same-position pixel addition unit 522 calculates Gr2ad in the frame FmIR2ad based on the equation (2),
Gb2ad pixel data includes Gr1ad and Gb1ad at the same pixel position in frames FmIR1ad and FmIR3ad
, Gr3ad and Gb3ad are added to generate pixel data Gr123ad and Gb123ad.

同一位置画素加算部522は、式(3)に基づいて、フレームFmIR3adにおけるB3adの
画素データに、フレームFmIR1ad,FmIR2adにおける同じ画素位置のB1ad,B2adの画素デー
タを加算して、画素データB123adを生成する。
Based on Expression (3), the same-position pixel addition unit 522 adds the pixel data of B1ad and B2ad at the same pixel position in the frames FmIR1ad and FmIR2ad to the pixel data of B3ad in the frame FmIR3ad to generate pixel data B123ad To do.

合成部523は、中間第1モードと同様に、フレームFmIR1adにおける画素データR123a
dと、フレームFmIR2adにおける画素データGr123ad,Gb123adと、フレームFmIR3adにおけ
る画素データB123adとを選択して合成する。これによって合成部523は、図16の(d
)に示す合成映像信号のフレームFmIR123adを生成する。
The synthesizer 523 performs pixel data R123a in the frame FmIR1ad as in the first intermediate mode.
The pixel data Gr123ad and Gb123ad in the frame FmIR2ad and the pixel data B123ad in the frame FmIR3ad are selected and combined. As a result, the combining unit 523 displays the (d
The frame FmIR123ad of the synthesized video signal shown in FIG.

合成部523は、カラーフィルタ32における色フィルタの配列と同じ配列となるよう
に、画素データR123ad,Gr123ad,Gb123ad,B123adを配列させたフレームFmIR123adを生
成する。
The combining unit 523 generates a frame FmIR123ad in which the pixel data R123ad, Gr123ad, Gb123ad, and B123ad are arranged so as to be the same arrangement as the arrangement of the color filters in the color filter 32.

図17の(a)はフレームFmIR123adを示している。デモザイク処理部54は、Rの画
素データが存在しない画素位置のRの画素データを周囲のRの画素データを用いて演算し
て、Rの補間画素データR123adiを生成する。デモザイク処理部54は、図17の(b)
に示す1フレームの全画素がRの画素データよりなるRフレームFmIR123adRを生成する。
FIG. 17A shows a frame FmIR123ad. The demosaic processing unit 54 calculates the R pixel data at the pixel position where the R pixel data does not exist using the surrounding R pixel data, and generates the R interpolation pixel data R123adi. The demosaic processing unit 54 is shown in FIG.
The R frame FmIR123adR in which all the pixels in one frame are made up of R pixel data is generated.

デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周
囲のGの画素データを用いて演算して、Gの補間画素データG123adiを生成する。デモザ
イク処理部54は、図17の(c)に示す1フレームの全画素がGの画素データよりなる
GフレームFmIR123adGを生成する。
The demosaic processing unit 54 calculates the G pixel data at the pixel position where the G pixel data does not exist using the surrounding G pixel data, and generates the G interpolation pixel data G123adi. The demosaic processing unit 54 generates a G frame FmIR123adG in which all the pixels in one frame shown in FIG.

デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周
囲のBの画素データを用いて演算して、Bの補間画素データB123adiを生成する。デモザ
イク処理部54は、図17の(d)に示す1フレームの全画素がBの画素データよりなる
BフレームFmIR123adBを生成する。
The demosaic processing unit 54 calculates the B pixel data at the pixel position where the B pixel data does not exist using the surrounding B pixel data, and generates the B interpolation pixel data B123adi. The demosaic processing unit 54 generates a B frame FmIR123adB in which all the pixels of one frame shown in FIG.

中間第1モードと暗視第1モードとは、前者が周囲画素加算部521を不動作としてい
る一方で、後者が周囲画素加算部521を動作させている点で異なる。モード切換部72
は、暗視モードのとき、周囲画素加算部521を動作させればよい。
The first intermediate mode is different from the first night-vision mode in that the former does not operate the surrounding pixel adding unit 521 while the latter operates the surrounding pixel adding unit 521. Mode switching unit 72
In the night vision mode, the surrounding pixel adding unit 521 may be operated.

暗視モードにおけるデモザイク処理部54の動作は、通常モード及び中間モードにおけ
るデモザイク処理部54の動作と実質的に同じである。通常モードと中間モードと暗視モ
ードとで、映像処理部5におけるデモザイク処理部54、及び、ホワイトバランス補正や
ゲイン補正等の信号処理部を共用させることができる。
The operation of the demosaic processing unit 54 in the night vision mode is substantially the same as the operation of the demosaic processing unit 54 in the normal mode and the intermediate mode. In the normal mode, the intermediate mode, and the night vision mode, the demosaic processing unit 54 in the video processing unit 5 and a signal processing unit such as white balance correction and gain correction can be shared.

<暗視モード:暗視第2モード>
図18及び図19を用いて、暗視第2モードにおける動作を説明する。暗視第2モード
における動作において、暗視第1モードにおける動作と同一部分は説明を省略する。図1
8の(a)〜(c)のフレームFmIR1ad,FmIR2ad,FmIR3adは、図16の(a)〜(c)
のFmIR1ad,FmIR2ad,FmIR3adと同じである。
<Night Vision Mode: Night Vision Second Mode>
The operation in the night vision second mode will be described with reference to FIGS. In the operation in the night vision second mode, the description of the same part as the operation in the night vision first mode is omitted. FIG.
The frames FmIR1ad, FmIR2ad, and FmIR3ad in (a) to (c) of FIG. 8 are shown in (a) to (c) of FIG.
This is the same as FmIR1ad, FmIR2ad, and FmIR3ad.

合成部523は、フレームFmIR1adにおけるRの画素データであるR1adと、フレームFmI
R2におけるGの画素データであるGr2ad,Gb2adと、フレームFmIR3におけるBの画素デー
タであるB3adとを選択して合成する。これによって合成部523は、図18の(d)に示
す合成映像信号のフレームFmIR123’adを生成する。
The synthesizer 523 generates R1ad, which is R pixel data in the frame FmIR1ad, and the frame FmI.
Gr2ad and Gb2ad which are G pixel data in R2 and B3ad which is B pixel data in the frame FmIR3 are selected and combined. Thereby, the synthesis unit 523 generates a frame FmIR123′ad of the synthesized video signal shown in FIG.

合成部523は、カラーフィルタ32における色フィルタの配列と同じ配列となるよう
に、画素データR1ad,Gr2ad,Gb2ad,B3adを配列させたフレームFmIR123’adを生成する
The synthesizing unit 523 generates a frame FmIR123′ad in which the pixel data R1ad, Gr2ad, Gb2ad, and B3ad are arranged so that the arrangement is the same as the arrangement of the color filters in the color filter 32.

なお、図14を用いて説明したように、フレームFmIR123’adにおける赤色用の画素デ
ータR1adは、中間モードのときに赤色用の画素データを生成するために用いた領域よりも
広い領域から得た画素データから生成されたものとなっている。
As described with reference to FIG. 14, the pixel data R1ad for red in the frame FmIR123'ad is obtained from a wider area than the area used for generating the pixel data for red in the intermediate mode. It is generated from pixel data.

また、フレームFmIR123’adにおける緑色用の画素データGr2adは、中間モードのときに
緑色用の画素データを生成するために用いた領域よりも広い領域から得た画素データから
生成されたものとなっている。
Further, the pixel data Gr2ad for green in the frame FmIR123'ad is generated from pixel data obtained from an area wider than the area used for generating the pixel data for green in the intermediate mode. Yes.

さらに、フレームFmIR123’adにおける青色用の画素データB3adは、中間モードのとき
に青色用の画素データを生成するために用いた領域よりも広い領域から得た画素データか
ら生成されたものとなっている。
Further, the blue pixel data B3ad in the frame FmIR123'ad is generated from pixel data obtained from an area larger than the area used to generate the blue pixel data in the intermediate mode. Yes.

暗視第2モードでは、中間第2モードと同様に、同一位置画素加算部522は、式(1
)における係数kaを1、係数kb,kcを0とし、式(2)における係数keを1、係数kd,kf
を0とし、式(3)における係数kiを1、係数kg,khを0とする。
In the second night vision mode, the same-position pixel addition unit 522 performs the equation (1) as in the second intermediate mode.
) Is set to 1, the coefficients kb and kc are set to 0, the coefficient ke in equation (2) is set to 1, and the coefficients kd and kf
Is 0, the coefficient ki in equation (3) is 1, and the coefficients kg and kh are 0.

これによって、フレームFmIR1adにおけるR1adの画素データと、フレームFmIR2adにおけ
るGr2ad,Gb2adの画素データと、フレームFmIR3adにおけるB3adの画素データは、それぞ
れそのままの値となる。
Thereby, the pixel data of R1ad in the frame FmIR1ad, the pixel data of Gr2ad and Gb2ad in the frame FmIR2ad, and the pixel data of B3ad in the frame FmIR3ad have the same values.

よって、合成部523は、暗視第1モードにおける動作と同様に、フレームFmIR1adに
おけるR1adの画素データと、フレームFmIR2adにおけるGr2ad,Gb2adの画素データと、フ
レームFmIR3adにおけるB3adの画素データを選択すれば、フレームFmIR123’adを生成する
ことができる。
Therefore, the synthesizing unit 523 selects the pixel data of R1ad in the frame FmIR1ad, the pixel data of Gr2ad and Gb2ad in the frame FmIR2ad, and the pixel data of B3ad in the frame FmIR3ad, as in the operation in the first night vision mode. A frame FmIR123'ad can be generated.

図19を用いて、デモザイク処理部54におけるデモザイク処理について説明する。図
19の(a)は、フレームFmIR123’adを示している。デモザイク処理部54は、Rの画
素データが存在しない画素位置のRの画素データを周囲のR1adの画素データを用いて演算
して、Rの補間画素データR1adiを生成する。デモザイク処理部54は、図19の(b)
に示す1フレームの全画素がRの画素データよりなるRフレームFmIR123’adRを生成する
The demosaic process in the demosaic processing unit 54 will be described with reference to FIG. FIG. 19A shows a frame FmIR123′ad. The demosaic processing unit 54 calculates the R pixel data at the pixel position where the R pixel data does not exist using the surrounding R1ad pixel data, and generates the R interpolation pixel data R1adi. The demosaic processing unit 54 is shown in FIG.
The R frame FmIR123′adR in which all the pixels of one frame shown in FIG.

デモザイク処理部54は、Gの画素データが存在しない画素位置のGの画素データを周
囲のGr2ad,Gb2adの画素データを用いて演算して、Gの補間画素データG2adiを生成する
。デモザイク処理部54は、補間して、図19の(c)に示す1フレームの全画素がGの
画素データよりなるGフレームFmIR123’adGを生成する。
The demosaic processing unit 54 calculates the G pixel data at the pixel position where the G pixel data does not exist using the surrounding Gr2ad and Gb2ad pixel data, and generates the G interpolation pixel data G2adi. The demosaic processing unit 54 performs interpolation to generate a G frame FmIR123′adG in which all pixels of one frame shown in FIG. 19C are made up of G pixel data.

デモザイク処理部54は、Bの画素データが存在しない画素位置のBの画素データを周
囲のB3adの画素データを用いて算出したBの補間画素データB3adiを生成する。デモザイ
ク処理部54は、図19の(d)に示す1フレームの全画素がBの画素データよりなるB
フレームFmIR123’adBを生成する。
The demosaic processing unit 54 generates B interpolation pixel data B3adi obtained by calculating B pixel data at a pixel position where no B pixel data exists using surrounding B3ad pixel data. In the demosaic processing unit 54, all pixels in one frame shown in FIG.
A frame FmIR123'adB is generated.

中間第2モードと暗視第2モードとは、前者が周囲画素加算部521を不動作としてい
る一方で、後者が周囲画素加算部521を動作させている点で異なる。
The intermediate second mode and the night vision second mode are different in that the former does not operate the surrounding pixel adding unit 521 while the latter operates the surrounding pixel adding unit 521.

また、中間モードにおいては、受光素子における各色に対応する領域から得た画素デー
タそれぞれから各色用の画素データを生成していたが、暗視モードにおいては、周囲画素
を加算するため、中間モードにおける各色用の画素データを生成するための領域それぞれ
よりも広い領域から得た画素データから各色用の画素データを生成するとも言える。
Further, in the intermediate mode, pixel data for each color is generated from each pixel data obtained from the region corresponding to each color in the light receiving element, but in the night vision mode, the surrounding pixels are added. It can also be said that pixel data for each color is generated from pixel data obtained from a region wider than each region for generating pixel data for each color.

<モード切換の例>
図20を用いて、モード切換部72によるモード切換の例を説明する。図20の(a)
は、一例として、昼間の時間帯から夜の時間帯へと時間が経過していくとき、周囲環境の
明るさが変化していく様子を概略的に示している。
<Example of mode switching>
An example of mode switching by the mode switching unit 72 will be described with reference to FIG. (A) of FIG.
As an example, schematically shows how the brightness of the surrounding environment changes as time elapses from the daytime period to the nighttime period.

図20の(a)に示すように、昼間から夕刻へと時間が経過していくに従って明るさが
低下していき、時刻t3以降、ほぼ真っ暗の状態となる。図20の(a)に示す明るさは
実質的に可視光の量を示しており、時刻t3以降、可視光がほとんどない状態である。
As shown in FIG. 20 (a), the brightness decreases as time elapses from daytime to evening, and it becomes almost dark after time t3. The brightness shown in FIG. 20A substantially shows the amount of visible light, and there is almost no visible light after time t3.

制御部7は、映像処理部5から入力される映像信号(映像データ)の輝度レベルに基づ
いて周囲環境の明るさを判断することができる。図20の(b)に示すように、モード切
換部72は、明るさが所定の閾値Th1(第1の閾値)以上であるとき通常モードとし、明
るさが閾値Th1未満で所定の閾値Th2(第2の閾値)以上であるとき中間モード、閾値Th2
未満であるとき暗視モードとする。
The control unit 7 can determine the brightness of the surrounding environment based on the luminance level of the video signal (video data) input from the video processing unit 5. As shown in FIG. 20B, the mode switching unit 72 sets the normal mode when the brightness is equal to or higher than a predetermined threshold value Th1 (first threshold value), and sets the predetermined threshold value Th2 (less than the threshold value Th1). When the second threshold) or higher, intermediate mode, threshold Th2
When it is less than that, the night vision mode is set.

本実施形態の撮像装置は、明るさが閾値Th1となる時刻t1までは通常モード、時刻t
1から明るさが閾値Th2となる時刻t2まで中間モード、時刻t2以降は暗視モードに、
モードを自動的に切り換える。図20の(b)において、中間モードは中間第1モードと
中間第2モードとのいずれでもよく、暗視モードは暗視第1モードと暗視第2モードとの
いずれでもよい。
The imaging apparatus according to the present embodiment is in the normal mode until time t1 when the brightness becomes the threshold value Th1, and at time t1.
From 1 to the time t2 when the brightness becomes the threshold value Th2, the intermediate mode, and after the time t2, the night vision mode,
The mode is switched automatically. In FIG. 20B, the intermediate mode may be either the intermediate first mode or the intermediate second mode, and the night vision mode may be either the night vision first mode or the night vision second mode.

図20の(a)では可視光がほとんどなくなる時刻t3の直前の明るさを閾値Th2とし
ているが、時刻t3の明るさを閾値Th2としてもよい。
In FIG. 20A, the brightness immediately before the time t3 when almost no visible light is present is set as the threshold Th2, but the brightness at the time t3 may be set as the threshold Th2.

図20の(c)に示すように、モード切換部72は、中間モードの期間で、可視光が比
較的多い時刻t1側の期間を中間第1モード、可視光が比較的少ない時刻t2側の期間を
中間第2モードとしてもよい。図20の(c)において、暗視モードは暗視第1モードと
暗視第2モードとのいずれでもよい。
As shown in FIG. 20 (c), the mode switching unit 72 has a period of time t1 in which the visible light is relatively high in the intermediate mode period, and is on the time t2 side in the intermediate first mode. The period may be set to the intermediate second mode. In FIG. 20C, the night vision mode may be either the night vision first mode or the night vision second mode.

本実施形態の撮像装置は、投光制御部71が赤外線投光器9のオン・オフを制御し、モ
ード切換部72が映像処理部5内の各部の動作・不動作を切り換えることにより、それぞ
れのモードを実現することができる。
In the imaging apparatus according to the present embodiment, the light projection control unit 71 controls on / off of the infrared projector 9, and the mode switching unit 72 switches the operation / non-operation of each unit in the video processing unit 5. Can be realized.

図21に示すように、通常モードは、赤外線投光器9がオフ、周囲画素加算部521と
同一位置画素加算部522と合成部523がいずれも不動作、デモザイク処理部54が動
作の状態である。
As shown in FIG. 21, in the normal mode, the infrared projector 9 is off, the surrounding pixel adding unit 521, the same position pixel adding unit 522 and the synthesizing unit 523 are not operating, and the demosaic processing unit 54 is operating.

中間第1モードは、赤外線投光器9がオン、周囲画素加算部521が不動作、同一位置
画素加算部522と合成部523とデモザイク処理部54とが動作の状態である。中間第
2モードは、赤外線投光器9がオン、周囲画素加算部521と同一位置画素加算部522
とが不動作、合成部523とデモザイク処理部54とが動作の状態である。
In the intermediate first mode, the infrared projector 9 is on, the surrounding pixel adding unit 521 is not operating, and the same-position pixel adding unit 522, the combining unit 523, and the demosaic processing unit 54 are operating. In the intermediate second mode, the infrared projector 9 is on, and the same pixel addition unit 522 as the surrounding pixel addition unit 521 is used.
Are inoperative, and the combining unit 523 and the demosaic processing unit 54 are in operation.

同一位置画素加算部522における動作と不動作とは、前述のように、式(1)〜(3
)の係数ka〜kiの値を適宜に設定することによって容易に切り換えることができる。
As described above, the operation and non-operation in the same-position pixel adding unit 522 are expressed by the equations (1) to (3).
) Can be easily switched by appropriately setting the values of the coefficients ka to ki.

暗視第1モードは、赤外線投光器9がオン、周囲画素加算部521と同一位置画素加算
部522と合成部523とデモザイク処理部54との全てが動作の状態である。暗視第2
モードは、赤外線投光器9がオン、同一位置画素加算部522が不動作、周囲画素加算部
521と合成部523とデモザイク処理部54とが動作の状態である。
In the first night-vision mode, the infrared projector 9 is on, and the surrounding pixel addition unit 521, the same-position pixel addition unit 522, the synthesis unit 523, and the demosaic processing unit 54 are all in an operating state. Night vision 2
In the mode, the infrared projector 9 is on, the same-position pixel adding unit 522 is not operating, and the surrounding pixel adding unit 521, the combining unit 523, and the demosaic processing unit 54 are operating.

ところで、周囲画素加算部521は、注目画素の画素データに対して周囲の画素データ
を加算するための計算式において、周囲の画素データに乗じる係数を、0を超える係数(
例えば1)とすれば、周囲画素の加算処理を動作の状態とすることができる。
By the way, the surrounding pixel addition unit 521 uses a coefficient exceeding the zero (0) as a coefficient to multiply the surrounding pixel data in the calculation formula for adding the surrounding pixel data to the pixel data of the target pixel.
For example, in the case of 1), the surrounding pixel addition processing can be set to the operation state.

また、周囲画素加算部521は、その計算式において、周囲の画素データに乗じる係数
を0とすれば、周囲画素の加算処理を不動作の状態とすることができる。
Further, the surrounding pixel adding unit 521 can set the surrounding pixel addition processing to the non-operating state by setting the coefficient by which the surrounding pixel data is multiplied to 0 in the calculation formula.

周囲画素加算部521における動作と不動作も、係数の値を適宜に設定することによっ
て容易に切り換えることができる。
The operation and non-operation of the surrounding pixel addition unit 521 can be easily switched by appropriately setting the coefficient value.

<撮像装置の第1の変形例>
制御部7が周囲環境の明るさを検出する方法は、映像信号の輝度レベルに基づく方法に
限定されない。
<First Modification of Imaging Device>
The method by which the control unit 7 detects the brightness of the surrounding environment is not limited to the method based on the luminance level of the video signal.

図22に示すように、明るさセンサ11によって周囲環境の明るさを検出してもよい。
図20において、映像信号の輝度レベルと明るさセンサ11によって検出した明るさとの
双方に基づいて、周囲環境の明るさを判断してもよい。
As shown in FIG. 22, the brightness sensor 11 may detect the brightness of the surrounding environment.
In FIG. 20, the brightness of the surrounding environment may be determined based on both the luminance level of the video signal and the brightness detected by the brightness sensor 11.

<撮像装置の第2の変形例>
制御部7は、周囲環境の明るさを直接的に検出せず、1年間における時期(日にち)及
び時刻(時間帯)に基づいて周囲環境の明るさを概略的に想定して、モード切換部72が
各モードに切り換えるようにしてもよい。
<Second Modification of Imaging Device>
The control unit 7 does not directly detect the brightness of the surrounding environment, but roughly assumes the brightness of the surrounding environment based on the time (date) and time (time zone) in one year, and the mode switching unit 72 may be switched to each mode.

図23に示すように、モード設定テーブル12には、日にちと時間帯との組み合わせに
対応して、通常モードと中間モードと暗視モードとのいずれかが設定されている。制御部
7内の時計73は、日にちと時刻を管理している。制御部7は、時計73が示す日にちと
時刻とを参照して、モード設定テーブル12より設定されているモードを読み出す。
As shown in FIG. 23, in the mode setting table 12, any one of the normal mode, the intermediate mode, and the night vision mode is set corresponding to the combination of the date and the time zone. A clock 73 in the control unit 7 manages the date and time. The control unit 7 refers to the date and time indicated by the clock 73 and reads the mode set from the mode setting table 12.

投光制御部71とモード切換部72は、モード設定テーブル12より読み出されたモー
ドとなるように、撮像装置を制御する。
The light projection control unit 71 and the mode switching unit 72 control the imaging device so that the mode read from the mode setting table 12 is set.

<撮像装置の第3の変形例>
図24に示すように、操作部13によってユーザがモードを手動で選択して、投光制御
部71とモード切換部72が選択されたモードとなるように撮像装置を制御してもよい。
操作部13は、撮像装置の筐体に設けられている操作ボタンであってもよく、リモートコ
ントローラであってもよい。
<Third Modification of Imaging Device>
As illustrated in FIG. 24, the imaging device may be controlled such that the user manually selects a mode using the operation unit 13 and the light projection control unit 71 and the mode switching unit 72 are in the selected mode.
The operation unit 13 may be an operation button provided on the housing of the imaging apparatus or a remote controller.

<映像信号処理方法>
図25を用いて、図1に示す撮像装置で実行される映像信号処理方法を改めて説明する
<Video signal processing method>
A video signal processing method executed by the imaging apparatus shown in FIG. 1 will be described again with reference to FIG.

図25において、撮像装置が動作を開始すると、制御部7は、ステップS1にて、周囲
環境の明るさが閾値Th1以上であるか否かを判定する。閾値Th1以上であれば(YES)、制
御部7は、ステップS3にて、通常モードでの処理を実行させる。閾値Th1以上でなけれ
ば(NO)、制御部7は、ステップS2にて、周囲環境の明るさが閾値Th2以上であるか否
かを判定する。
In FIG. 25, when the imaging apparatus starts operation, the control unit 7 determines in step S1 whether or not the brightness of the surrounding environment is equal to or greater than a threshold value Th1. If it is equal to or greater than the threshold Th1 (YES), the control unit 7 causes the process in the normal mode to be executed in step S3. If it is not equal to or greater than the threshold value Th1 (NO), the control unit 7 determines whether or not the brightness of the surrounding environment is equal to or greater than the threshold value Th2 in step S2.

閾値Th2以上であれば(YES)、制御部7は、ステップS4にて、中間モードでの処理を
実行させる。閾値Th2以上でなければ(NO)、制御部7は、ステップS5にて、暗視モー
ドでの処理を実行させる。
If it is equal to or greater than the threshold value Th2 (YES), the control unit 7 causes the process in the intermediate mode to be executed in step S4. If it is not greater than or equal to the threshold Th2 (NO), the control unit 7 causes the process in the night-vision mode to be executed in step S5.

制御部7は、ステップS3〜S5の後、処理をステップS1に戻し、ステップS1以降
を繰り返す。
Control part 7 returns processing to Step S1 after Steps S3-S5, and repeats after Step S1.

図26は、ステップS3の通常モードの具体的な処理を示す。図26において、制御部
7(投光制御部71)は、ステップS31にて、赤外線投光器9をオフにする。制御部7
は、ステップS32にて、赤外線カットフィルタ21を挿入する。制御部7(モード切換
部72)は、ステップS33にて、スイッチ51,53を端子Tbに接続させる。ステッ
プS31〜S33の順番は任意であり、同時であってもよい。
FIG. 26 shows specific processing in the normal mode in step S3. In FIG. 26, the control part 7 (light projection control part 71) turns off the infrared light projector 9 in step S31. Control unit 7
In Step S32, the infrared cut filter 21 is inserted. In step S33, the control unit 7 (mode switching unit 72) connects the switches 51 and 53 to the terminal Tb. The order of steps S31 to S33 is arbitrary and may be simultaneous.

制御部7は、ステップS34にて、撮像部3によって被写体を撮像させる。制御部7は
、ステップS35にて、撮像部3が被写体を撮像することよって生成した映像信号を構成
するフレームをデモザイク処理部54によってデモザイク処理させるよう、映像処理部5
を制御する。
In step S34, the control unit 7 causes the imaging unit 3 to image the subject. In step S <b> 35, the control unit 7 causes the demosaic processing unit 54 to perform demosaic processing on the frames constituting the video signal generated by the imaging unit 3 imaging the subject.
To control.

図27は、ステップS4の中間モードの具体的な処理を示す。図27において、制御部
7(投光制御部71)は、ステップS41にて、投光部91〜93より波長IR1〜IR
3の赤外光を時分割で投光させるよう、赤外線投光器9をオンにする。
FIG. 27 shows specific processing in the intermediate mode in step S4. In FIG. 27, the control unit 7 (light projection control unit 71) receives wavelengths IR1 to IR from the light projection units 91 to 93 in step S41.
The infrared projector 9 is turned on so that the infrared light of 3 is projected in a time-sharing manner.

制御部7は、ステップS42にて、ダミーガラス22を挿入する。制御部7(モード切
換部72)は、ステップS43にて、スイッチ51,53を端子Taに接続させる。ステ
ップS41〜S43の順番は任意であり、同時であってもよい。
The control part 7 inserts the dummy glass 22 in step S42. In step S43, the control unit 7 (mode switching unit 72) connects the switches 51 and 53 to the terminal Ta. The order of steps S41 to S43 is arbitrary and may be simultaneous.

制御部7は、ステップS44にて、撮像部3によって被写体を撮像させる。撮像部3は
、Rに対応付けられた波長IR1の赤外光と、Gに対応付けられた波長IR2の赤外光と
、Bに対応付けられた波長IR3の赤外光とがそれぞれ投光されている状態で被写体を撮
像する。
In step S44, the control unit 7 causes the imaging unit 3 to image the subject. The imaging unit 3 projects infrared light with a wavelength IR1 associated with R, infrared light with a wavelength IR2 associated with G, and infrared light with a wavelength IR3 associated with B, respectively. Take a picture of the subject in the

制御部7(モード切換部72)は、ステップS45にて、周囲画素加算部521を不動作
とし、合成部523を動作させて合成映像信号を生成させるよう、前信号処理部52を制
御する。
In step S45, the control unit 7 (mode switching unit 72) controls the pre-signal processing unit 52 so that the surrounding pixel addition unit 521 is deactivated and the synthesis unit 523 is operated to generate a synthesized video signal.

波長IR1,IR2,IR3の赤外光がそれぞれ投光されている状態で撮像部3が被写
体を撮像することよって生成された映像信号を構成するフレームを第1のフレーム,第2
のフレーム,第3のフレームとする。
Frames constituting a video signal generated when the imaging unit 3 images the subject in a state where infrared light of wavelengths IR1, IR2, and IR3 are respectively projected are a first frame and a second frame.
And the third frame.

合成部523は、第1のフレーム内のRの画素データと、第2のフレーム内のGの画素
データと、第3のフレーム内のBの画素データとに基づく3原色の画素データを、カラー
フィルタ32における色フィルタの配列と同じ配列となるように配列させる。合成部52
3は、このようにして第1〜第3のフレームを1フレームに合成した合成映像信号を生成
する。
The synthesizing unit 523 converts the three primary color pixel data based on the R pixel data in the first frame, the G pixel data in the second frame, and the B pixel data in the third frame into color The filters 32 are arranged in the same arrangement as the color filters. Synthesizer 52
3 generates a composite video signal by combining the first to third frames into one frame in this way.

制御部7は、ステップS46にて、合成映像信号のフレームをデモザイク処理部54に
よってデモザイク処理させるよう、映像処理部5を制御する。
In step S46, the control unit 7 controls the video processing unit 5 so that the demosaic processing unit 54 performs demosaic processing on the frame of the composite video signal.

デモザイク処理部54は、合成映像信号のフレームに基づいて、Rのフレームと、Gの
フレームと、Bのフレームとを生成するデモザイク処理を施して、デモザイク処理された
3原色のフレームを順次生成する。
The demosaic processing unit 54 performs demosaic processing for generating an R frame, a G frame, and a B frame based on the frame of the composite video signal, and sequentially generates the demosaiced three primary color frames. .

デモザイク処理部54は、Rの画素データが存在しない画素位置にRの画素データを補
間することによって、Rのフレームを生成することができる。デモザイク処理部54は、
Gの画素データが存在しない画素位置にGの画素データを補間することによって、Gのフ
レームを生成することができる。デモザイク処理部54は、Bの画素データが存在しない
画素位置にBの画素データを補間することによって、Bのフレームとを生成することがで
きる。
The demosaic processing unit 54 can generate an R frame by interpolating the R pixel data at a pixel position where the R pixel data does not exist. The demosaic processing unit 54
A G frame can be generated by interpolating G pixel data at pixel positions where no G pixel data exists. The demosaic processing unit 54 can generate the B frame by interpolating the B pixel data at the pixel position where the B pixel data does not exist.

中間第1モードとする場合には、ステップS45にて、同一位置画素加算部522を動
作させ、中間第2モードとする場合には、ステップS45にて、同一位置画素加算部52
2を不動作とすればよい。
When the intermediate first mode is set, the same-position pixel adding unit 522 is operated in step S45, and when the intermediate second mode is set, the same-position pixel adding unit 52 is set in step S45.
2 may be set as non-operation.

図28は、ステップS5の暗視モードの具体的な処理を示す。図28において、制御部
7(投光制御部71)は、ステップS51にて、投光部91〜93より波長IR1〜IR
3の赤外光を時分割で投光させるよう、赤外線投光器9をオンにする。
FIG. 28 shows specific processing in the night-vision mode in step S5. In FIG. 28, the control unit 7 (light projection control unit 71) receives wavelengths IR1 to IR from the light projection units 91 to 93 in step S51.
The infrared projector 9 is turned on so that the infrared light of 3 is projected in a time-sharing manner.

制御部7は、ステップS52にて、ダミーガラス22を挿入する。制御部7(モード切
換部72)は、ステップS53にて、スイッチ51,53を端子Taに接続させる。ステ
ップS51〜S53の順番は任意であり、同時であってもよい。
The control part 7 inserts the dummy glass 22 in step S52. In step S53, the control unit 7 (mode switching unit 72) connects the switches 51 and 53 to the terminal Ta. The order of steps S51 to S53 is arbitrary and may be simultaneous.

制御部7は、ステップS54にて、撮像部3によって被写体を撮像させる。制御部7(
モード切換部72)は、ステップS55にて、周囲画素加算部521と合成部523とを
動作させて合成映像信号を生成させるよう、前信号処理部52を制御する。
In step S54, the control unit 7 causes the imaging unit 3 to image the subject. Control unit 7 (
In step S55, the mode switching unit 72) controls the previous signal processing unit 52 to operate the surrounding pixel adding unit 521 and the combining unit 523 to generate a combined video signal.

制御部7は、ステップS56にて、合成映像信号のフレームをデモザイク処理部54に
よってデモザイク処理させるよう、映像処理部5を制御する。
In step S56, the control unit 7 controls the video processing unit 5 so that the demosaic processing unit 54 performs demosaic processing on the frame of the composite video signal.

暗視第1モードとする場合には、ステップS55にて、同一位置画素加算部522を動
作させ、暗視第2モードとする場合には、ステップS55にて、同一位置画素加算部52
2を不動作とすればよい。
When the night vision first mode is set, the same position pixel addition unit 522 is operated in step S55, and when the night vision second mode is set, the same position pixel addition unit 52 is set in step S55.
2 may be set as non-operation.

<映像信号処理プログラム>
図1において、制御部7、または、映像処理部5と制御部7との一体化部分をコンピュ
ータ(マイクロコンピュータ)で構成し、映像信号処理プログラム(コンピュータプログ
ラム)をコンピュータで実行させることによって、上述した本実施形態の撮像装置と同様
の動作を実現させることも可能である。映像出力部6も含めてコンピュータで構成しても
よい。
<Video signal processing program>
In FIG. 1, the control unit 7 or an integrated part of the video processing unit 5 and the control unit 7 is configured by a computer (microcomputer), and the video signal processing program (computer program) is executed by the computer. It is also possible to realize the same operation as that of the imaging apparatus of this embodiment. The image output unit 6 may be configured by a computer.

図29を用いて、図23のステップS4である中間モードにおける制御を映像信号処理
プログラムで構成した場合にコンピュータに実行させる手順の例を説明する。図29は、
映像信号処理プログラムがコンピュータに実行させる処理を示す。
An example of a procedure executed by the computer when the control in the intermediate mode which is step S4 in FIG. 23 is configured by the video signal processing program will be described with reference to FIG. FIG.
The process which a video signal processing program performs a computer is shown.

図29において、映像信号処理プログラムは、ステップS401にて、コンピュータに、R
,G,Bに対応付けられた波長IR1,IR2,IR3の赤外光をそれぞれ投光するよう
に赤外線投光器9を制御するステップを実行させる。
In FIG. 29, the video signal processing program loads R to the computer in step S401.
, G, and B, the step of controlling the infrared projector 9 so as to project infrared light of wavelengths IR1, IR2, and IR3 respectively.

ステップS401に示すステップを映像信号処理プログラムの外部にて実行させてもよい。
図29では、ダミーガラス22を挿入させるステップを省略している。ダミーガラス22
を挿入させるステップも映像信号処理プログラムの外部にて実行させてもよい。
The step shown in step S401 may be executed outside the video signal processing program.
In FIG. 29, the step of inserting the dummy glass 22 is omitted. Dummy glass 22
The step of inserting may also be executed outside the video signal processing program.

映像信号処理プログラムは、ステップS402にて、コンピュータに、波長IR1の赤外光
が投光されている状態で、撮像部3が被写体を撮像することによって生成された映像信号
の第1のフレームを構成する画素データを取得するステップを実行させる。
In step S402, the video signal processing program captures the first frame of the video signal generated by the imaging unit 3 imaging the subject in a state where infrared light having the wavelength IR1 is projected on the computer. A step of acquiring pixel data to be configured is executed.

映像信号処理プログラムは、ステップS403にて、コンピュータに、波長IR2の赤外光
が投光されている状態で、撮像部3が被写体を撮像することによって生成された映像信号
の第2のフレームを構成する画素データを取得するステップを実行させる。
In step S403, the video signal processing program captures the second frame of the video signal generated when the imaging unit 3 images the subject in a state where infrared light having the wavelength IR2 is projected on the computer. A step of acquiring pixel data to be configured is executed.

映像信号処理プログラムは、ステップS404にて、コンピュータに、波長IR3の赤外光
が投光されている状態で、撮像部3が被写体を撮像することによって生成された映像信号
の第3のフレームを構成する画素データを取得するステップを実行させる。ステップS402
〜S404の順番は任意である。
In step S404, the video signal processing program captures a third frame of the video signal generated when the imaging unit 3 images the subject in a state where infrared light having the wavelength IR3 is projected on the computer. A step of acquiring pixel data to be configured is executed. Step S402
The order of ~ S404 is arbitrary.

映像信号処理プログラムは、ステップS405にて、コンピュータに、R,G,Bの画素デ
ータを、カラーフィルタ32における色フィルタの配列と同じ配列となるように配列させ
て、1フレームに合成した合成映像信号を生成するステップを実行させる。
In step S405, the video signal processing program causes the computer to arrange the R, G, and B pixel data so as to be in the same arrangement as the arrangement of the color filters in the color filter 32, and combine the synthesized video into one frame. A step of generating a signal is executed.

中間モードでは、映像信号処理プログラムは、ステップS405にて、コンピュータに、周
囲画素の加算処理のステップを実行させない。
In the intermediate mode, the video signal processing program does not cause the computer to execute the step of adding surrounding pixels in step S405.

映像信号処理プログラムは、ステップS406にて、コンピュータに、合成映像信号のフレ
ームにデモザイク処理を施して、R,G,Bのフレームを生成するステップを実行させる
In step S406, the video signal processing program causes the computer to execute a step of performing demosaic processing on the frame of the composite video signal to generate R, G, and B frames.

図示は省略するが、図25のステップS5である暗視モードにおける制御を映像信号処
理プログラムで構成する場合には、図29のステップS405にて、コンピュータに、周囲画
素の加算処理のステップを実行させればよい。
Although illustration is omitted, when the control in the night vision mode, which is step S5 in FIG. 25, is configured by the video signal processing program, the step of adding surrounding pixels is executed in the computer in step S405 in FIG. You can do it.

映像信号処理プログラムは、コンピュータで読み取り可能な記録媒体に記録されたコン
ピュータプログラムであってよい。映像信号処理プログラムが記録媒体に記録された状態
で提供されてもよいし、映像信号処理プログラムをコンピュータにダウンロードさせるよ
う、インターネット等のネットワークを介して提供されてもよい。コンピュータで読み取
り可能な記録媒体は、CD−ROM,DVD−ROM等の非一時的な任意の記録媒体でよ
い。
The video signal processing program may be a computer program recorded on a computer-readable recording medium. The video signal processing program may be provided in a state where it is recorded on a recording medium, or may be provided via a network such as the Internet so that the computer can download the video signal processing program. The computer-readable recording medium may be any non-temporary arbitrary recording medium such as a CD-ROM or a DVD-ROM.

図1のように構成される本実施形態の撮像装置において、例えば、必要に応じて各部を
複数設けたりして、中間モードと暗視モードとを同時に実行するようにしてもよい。その
場合、映像出力部6が、中間モードによって生成された映像信号と、暗視モードによって
生成された映像信号との両方を出力するようにしてもよい。
In the imaging apparatus of the present embodiment configured as shown in FIG. 1, for example, a plurality of units may be provided as necessary, and the intermediate mode and the night vision mode may be executed simultaneously. In that case, the video output unit 6 may output both the video signal generated in the intermediate mode and the video signal generated in the night vision mode.

また、モード切換部72は、映像出力部6が中間モードによって生成された映像信号を
出力する状態と、映像出力部6が暗視モードによって生成された映像信号を出力する状態
とを切り換えるようにしてもよい。その際、前述のように、周囲環境の明るさや時刻等に
応じて切り換えてもよい。また、映像処理部5(映像処理装置)を他の各部と別体にして
もよい。
The mode switching unit 72 switches between a state in which the video output unit 6 outputs the video signal generated in the intermediate mode and a state in which the video output unit 6 outputs the video signal generated in the night vision mode. May be. At this time, as described above, switching may be performed according to the brightness of the surrounding environment, the time, or the like. The video processing unit 5 (video processing device) may be separated from other units.

さらに、また、中間モードを使用せずに、通常モードから暗視モードに切り換えたり、
暗視モードから通常モードに切り換えたりするようにしてもよい。
Furthermore, without using the intermediate mode, switching from normal mode to night vision mode,
You may make it switch from night vision mode to normal mode.

通常モードや暗視モードは、可視光と暗視撮像用の赤外光とが混在した状態においては
、中間モードよりも良好なカラー映像信号とはならない。しかしながら、通常モードや暗
視モードであっても、可視光と暗視撮像用の赤外光とが混在した状態での撮像は可能であ
り、周囲の明るさが変わる場合(例えば監視カメラで終日撮影する場合など)であっても
同じ撮像装置で撮像を可能にする、という効果を奏することができる。
In the normal mode and the night vision mode, in the state where the visible light and the infrared light for night vision imaging are mixed, the color video signal is not better than the intermediate mode. However, even in the normal mode or the night vision mode, it is possible to take an image in a state where visible light and infrared light for night vision are mixed, and the ambient brightness changes (for example, all day with a surveillance camera). Even in the case of shooting), it is possible to achieve an effect of enabling imaging with the same imaging device.

さらにまた、暗視モードを使用せずに、通常モードから中間モードに切り換えたり、中
間モードから通常モードに切り換えたりするようにしてもよい。その場合は、暗視モード
を搭載しないようにしてもよい。
Furthermore, the normal mode may be switched to the intermediate mode, or the intermediate mode may be switched to the normal mode without using the night vision mode. In that case, the night vision mode may not be installed.

通常モードや中間モードは、可視光がほとんどない環境下においては、暗視モードより
も良好なカラー映像信号とはならないが、中間モードでも可視光がほとんどない環境下で
の撮像は可能であり、周囲の明るさが変わる場合(例えば監視カメラで終日撮影する場合
など)であっても同じ撮像装置で撮像を可能にする、という効果を奏することができる。
また、電灯がある場所などでは暗視モードを使用しなくてもよい場合がある。
The normal mode and intermediate mode do not provide better color video signals than the night vision mode in an environment with little visible light, but imaging in an environment with little visible light is possible even in the intermediate mode. Even when the ambient brightness changes (for example, when shooting all day with a surveillance camera), it is possible to achieve an effect of enabling imaging with the same imaging device.
In some places where there is an electric light, the night vision mode may not be used.

次に、通常モードと赤外光投光モードとを、映像の乱れが発生せず各モードの映像を切
り換える具体的なモード切換方法について説明する。
Next, a specific mode switching method for switching the image in each mode between the normal mode and the infrared light projection mode without causing image disturbance will be described.

<モード切換方法の第1の例>
図30A及び図30Bは、モード切換方法の第1の例を示す。図30A及び図30Bは
、映像出力部6がNTSCエンコーダ61によってインターレース方式の映像信号を出力
する場合の撮像装置の各部の動作を示している。
<First Example of Mode Switching Method>
30A and 30B show a first example of the mode switching method. 30A and 30B show the operation of each part of the imaging apparatus when the video output unit 6 outputs an interlace video signal by the NTSC encoder 61.

また、図30A及び図30Bは、制御部7が撮像装置を、時刻t1にて赤外光投光モー
ドから通常モードへと切り換え、時刻t2にて通常モードから赤外光投光モードへと切り
換える場合のシーケンスを示している。赤外光投光モードは、中間モードと暗視モードと
のいずれでもよい。
30A and 30B, the control unit 7 switches the imaging apparatus from the infrared light projection mode to the normal mode at time t1, and from the normal mode to the infrared light projection mode at time t2. The sequence of cases is shown. The infrared light projection mode may be either an intermediate mode or a night vision mode.

図30A及び図30Bは、シーケンスを2つに分断して示している。なお、図30Aと
図30Bとは、一部が重複している。
30A and 30B show the sequence divided into two. Note that FIG. 30A and FIG. 30B partially overlap.

図30A及び図30Bにおいて、(a)は赤外線投光器9による赤外光の投光の状態、
(b)は撮像部3の露光を示している。図30A及び図30Bの(b)に示す撮像部3の
露光は、図6の(a)で説明した最大露光時間tExmaxを示しており、実際の露光時間はシ
ャッタスピードに応じて異なる。但し、赤外光投光モードでは、最大露光時間tExmaxが実
際の露光時間となる可能性が高い。
30A and 30B, (a) is a state of infrared light projection by the infrared projector 9,
(B) shows exposure of the imaging unit 3. The exposure of the imaging unit 3 shown in FIGS. 30A and 30B (b) shows the maximum exposure time tExmax described in FIG. 6A, and the actual exposure time varies depending on the shutter speed. However, in the infrared light projection mode, the maximum exposure time tExmax is likely to be the actual exposure time.

図30A及び図30Bにおいて、(c)は、(b)のそれぞれの露光に基づき、撮像部
3から読み出される撮像信号によって生成されるフレームを示している。図30Aに示す
ように、露光Ex1R,Ex1G,Ex1Bに基づいて、露光Ex1Rに対応したフレームF1R、露光Ex1G
に対応したフレームF1G、露光Ex1Bに対応したフレームF1Bが得られる。フレームF1R,F1G
,F1Bは、図9の(c)のフレームF1IR1,F1IR2,F1IR3に相当する。
30A and 30B, (c) shows a frame generated by an imaging signal read from the imaging unit 3 based on each exposure of (b). As shown in FIG. 30A, based on the exposures Ex1R, Ex1G, and Ex1B, the frame F1R corresponding to the exposure Ex1R and the exposure Ex1G
A frame F1G corresponding to the above and a frame F1B corresponding to the exposure Ex1B are obtained. Frame F1R, F1G
, F1B correspond to the frames F1IR1, F1IR2, and F1IR3 in FIG.

また、露光Ex2R,Ex2G,Ex2Bに基づいて、露光Ex2Rに対応したフレームF2R、露光Ex2G
に対応したフレームF2G、露光Ex2Bに対応したフレームF2Bが得られる。フレームF2R,F2G
,F2Bは、図9の(c)のフレームF2IR1,F2IR2,F2IR3に相当する。露光Ex1R〜Ex2Bの最
大露光時間tExmaxは1/90秒である。
Also, based on exposure Ex2R, Ex2G, Ex2B, frame F2R corresponding to exposure Ex2R, exposure Ex2G
A frame F2G corresponding to, and a frame F2B corresponding to exposure Ex2B are obtained. Frame F2R, F2G
, F2B correspond to the frames F2IR1, F2IR2, and F2IR3 in FIG. The maximum exposure time tExmax of exposures Ex1R to Ex2B is 1/90 seconds.

時刻t1以前の赤外光投光モードの期間では、撮像部3より出力される撮像信号は、9
0フレーム/秒のプログレッシブ方式である。90フレーム/秒のプログレッシブ方式を
90Pと称することとする。撮像装置は、後述のようにして、90Pの撮像信号に基づい
て、60フィールド/秒のインターレース方式の映像信号を生成する。60フィールド/
秒のインターレース方式を60iと称することとする。
In the period of the infrared light projection mode before time t1, the imaging signal output from the imaging unit 3 is 9
It is a progressive method of 0 frame / second. The progressive method of 90 frames / second is referred to as 90P. The imaging device generates a 60 field / second interlace video signal based on the 90P imaging signal, as will be described later. 60 fields /
The second interlace method will be referred to as 60i.

投光制御部71は、時刻t1にて赤外線投光器9による赤外光の投光をオフにする。制
御部7は、時刻t1以降、撮像装置を通常モードにて動作させる。
The light projection control unit 71 turns off the infrared light projection by the infrared projector 9 at time t1. The control unit 7 operates the imaging device in the normal mode after time t1.

通常モードの期間で30フレーム/秒とすると、インターレース方式では60フィール
ド/秒である。そこで、通常モードでは、映像出力部6が最終的に60iの映像信号を生
成して出力するよう、制御部7は、撮像部3が60Pの撮像信号を出力するように撮像部
3を制御する。
If the normal mode period is 30 frames / second, the interlace method is 60 fields / second. Therefore, in the normal mode, the control unit 7 controls the imaging unit 3 so that the imaging unit 3 outputs a 60P imaging signal so that the video output unit 6 finally generates and outputs a 60i video signal. .

具体的には、撮像部3は、最大露光時間tExmaxを1/60秒として、奇数フィールド用
の露光と、偶数フィールド用の露光とを交互に繰り返す。図30A及び図30Bの(b)
において、添え字oは奇数フィールド用の露光、添え字eは偶数フィールド用の露光である
ことを示す。
Specifically, the imaging unit 3 sets the maximum exposure time tExmax to 1/60 seconds, and alternately repeats exposure for odd fields and exposure for even fields. 30B of FIG. 30A and FIG. 30B
, The subscript o indicates exposure for odd fields, and the subscript e indicates exposure for even fields.

時刻t1以降の最初の露光のタイミングでは、図30Aの(c)に示すように、最大露
光時間tExmaxが1/90秒であるフレームF2Bが生成される。そこで、時刻t1以降の最
初の露光では、最大露光時間tExmaxを1/60秒とするのではなく、最大露光時間tExmax
を1/90秒とした奇数フィールド用の露光Ex3oとする。
At the timing of the first exposure after time t1, a frame F2B having a maximum exposure time tExmax of 1/90 second is generated as shown in (c) of FIG. 30A. Therefore, in the first exposure after time t1, the maximum exposure time tExmax is not set to 1/60 seconds, but the maximum exposure time tExmax.
Is the exposure Ex3o for odd fields with 1/90 seconds.

図30Aに示すように、第1の例においては、撮像部3は、露光Ex3oが終了する時刻t
11まで、90Pの撮像信号を出力するよう動作する。撮像部3は、時刻t11以降、6
0Pの撮像信号を出力するよう動作する。
As illustrated in FIG. 30A, in the first example, the imaging unit 3 performs time t when the exposure Ex3o ends.
Up to 11, it operates to output 90P image signals. The imaging unit 3 starts from the time t11, 6
It operates to output an image signal of 0P.

時刻t11以降の最初の露光である偶数フィールド用の露光Ex3eは、奇数フィールド用
の露光Ex3oと対となる露光であることから、最大露光時間tExmaxを1/60秒とするので
はなく、露光Ex3oにおける最大露光時間tExmaxと同じ1/90秒とするのがよい。
Since the exposure Ex3e for the even field, which is the first exposure after the time t11, is a pair exposure with the exposure Ex3o for the odd field, the maximum exposure time tExmax is not set to 1/60 seconds, but the exposure Ex3o The maximum exposure time tExmax is preferably 1/90 second.

そこで、制御部7は、1/60秒の最大露光時間tExmaxの先頭から1/180秒の期間
だけ、図6で説明したように抜き取りパルスPs1によって蓄積した電荷を排出させるよ
うに撮像部3を制御する。これによって、露光Ex3oと露光Ex3eとの間には1/180秒の
時間的な間隙が形成され、露光Ex3eの実質的な最大露光時間は1/90秒となる。
Therefore, the control unit 7 causes the imaging unit 3 to discharge the charge accumulated by the extraction pulse Ps1 as described with reference to FIG. 6 only for a period of 1/180 seconds from the beginning of the maximum exposure time tExmax of 1/60 seconds. Control. As a result, a temporal gap of 1/180 seconds is formed between the exposure Ex3o and the exposure Ex3e, and the substantial maximum exposure time of the exposure Ex3e is 1/90 seconds.

最大露光時間を1/90秒とした露光Ex3o,Ex3eによって蓄積した電荷を1/60秒の
期間で読み出すことによって、露光Ex3oに対応したフレームF3oと、露光Ex3eに対応した
フレームF3eが得られる。
By reading out the charges accumulated by the exposures Ex3o and Ex3e with a maximum exposure time of 1/90 seconds in a period of 1/60 seconds, a frame F3o corresponding to the exposure Ex3o and a frame F3e corresponding to the exposure Ex3e are obtained.

露光Ex3e以降、最大露光時間tExmaxが1/60秒である露光Ex4o,Ex4e,Ex5o,Ex5eに
よって蓄積した電荷を1/60秒の期間で読み出すことによって、フレームF4o,F4e,F5
o,F5eが得られる。
After the exposure Ex3e, the frames F4o, F4e, F5 are read out by reading out the charges accumulated by the exposures Ex4o, Ex4e, Ex5o, Ex5e whose maximum exposure time tExmax is 1/60 seconds in a period of 1/60 seconds.
o, F5e is obtained.

図30Bに示すように、投光制御部71は、時刻t2にて赤外線投光器9による赤外光
の投光を再びオンにする。制御部7は、時刻t2以降、撮像装置を赤外光投光モードにて
動作させる。
As shown in FIG. 30B, the light projection control unit 71 turns on the infrared light projection by the infrared light projector 9 again at time t2. The control unit 7 causes the imaging device to operate in the infrared light projection mode after time t2.

露光Ex5eに基づいたフレームF5eは、時刻t2を跨ぐ1/60秒の期間に発生する。時
刻t2以降の赤外光投光モードでは、最大露光時間tExmaxを1/90秒とする必要がある
。そこで、制御部7は、露光Ex5eに続く露光Ex6Rでは、1/60秒の最大露光時間tExmax
の先頭から1/180秒の期間だけ、抜き取りパルスPs1によって蓄積した電荷を排出
させるよう撮像部3を制御する。
The frame F5e based on the exposure Ex5e occurs in a 1/60 second period straddling the time t2. In the infrared light projection mode after time t2, the maximum exposure time tExmax needs to be 1/90 seconds. Therefore, in the exposure Ex6R following the exposure Ex5e, the control unit 7 sets the maximum exposure time tExmax of 1/60 seconds.
The imaging unit 3 is controlled to discharge the electric charge accumulated by the extraction pulse Ps1 only for a period of 1/180 seconds from the beginning of.

これによって、露光Ex5eと露光Ex6Rとの間には1/180秒の時間的な間隙が形成され
、露光Ex6Rの実質的な最大露光時間を1/90秒となる。
As a result, a time gap of 1/180 seconds is formed between the exposure Ex5e and the exposure Ex6R, and the substantial maximum exposure time of the exposure Ex6R becomes 1/90 seconds.

露光Ex6R,Ex6G,Ex6Bに基づいて、露光Ex6Rに対応したフレームF6R、露光Ex6Gに対応
したフレームF6G、露光Ex6Bに対応したフレームF6Bが得られる。フレームF6R,F6G,F6B
によって1フレームが形成されることから、露光Ex6R,Ex6G,Ex6Bの露光時間は同じでな
ければならない。露光Ex6Rの最大露光時間を1/90秒とすることによって、露光Ex6R,
Ex6G,Ex6Bの露光時間を同じにすることができる。
Based on the exposures Ex6R, Ex6G, and Ex6B, a frame F6R corresponding to the exposure Ex6R, a frame F6G corresponding to the exposure Ex6G, and a frame F6B corresponding to the exposure Ex6B are obtained. Frame F6R, F6G, F6B
Since one frame is formed by the above, the exposure times of the exposures Ex6R, Ex6G, and Ex6B must be the same. By setting the maximum exposure time of exposure Ex6R to 1/90 second, exposure Ex6R,
Ex6G and Ex6B can have the same exposure time.

露光Ex7R,Ex7G,Ex7Bに基づいて、露光Ex7Rに対応したフレームF7R、露光Ex7Gに対応
したフレームF7G、露光Ex7Bに対応したフレームF7Bが得られる。露光Ex8R以降も同様であ
る。
Based on the exposures Ex7R, Ex7G, and Ex7B, a frame F7R corresponding to the exposure Ex7R, a frame F7G corresponding to the exposure Ex7G, and a frame F7B corresponding to the exposure Ex7B are obtained. The same applies to exposure after Ex8R.

図30Bに示すように、第1の例においては、撮像部3は、露光Ex6Rが終了する時刻t
21まで60Pの撮像信号を出力するよう動作しており、時刻t21以降、90Pの撮像
信号を出力するよう動作する。
As illustrated in FIG. 30B, in the first example, the imaging unit 3 determines that the time t at which the exposure Ex6R ends.
It operates to output 60P image signals up to 21 and operates to output 90P image signals after time t21.

以上のように、図30A及び図30Bに示す第1の例においては、赤外光投光モードか
ら通常モードへと切り換わる時刻t1以降の最初の露光で、最大露光時間tExmaxを1/6
0秒とするのではなく、1/90秒とした露光Ex3oとしている。
As described above, in the first example shown in FIGS. 30A and 30B, the maximum exposure time tExmax is 1/6 in the first exposure after time t1 when the infrared light projection mode is switched to the normal mode.
The exposure Ex3o is set to 1/90 seconds instead of 0 seconds.

また、通常モードから赤外光投光モードへと切り換わる時刻t2を跨ぐ1/60秒の最
大露光時間tExmaxの先頭から1/180秒の期間の電荷を排出させて、時刻t2以降の最
初の露光の最大露光時間tExmaxを1/90秒としている。
In addition, the charge for a period of 1/180 seconds from the beginning of the maximum exposure time tExmax of 1/60 seconds straddling the time t2 when switching from the normal mode to the infrared light projection mode is discharged, and the first after the time t2 The maximum exposure time tExmax of exposure is 1/90 seconds.

これによって、撮像部3から読み出される撮像信号によって生成される撮像信号のフレ
ームは、図30A及び図30Bの(c)に示すように、赤外光投光モードから通常モード
へと切り換わるとき、通常モードから赤外光投光モードへと切り換わるときの双方で連続
的となる。
Thereby, when the frame of the imaging signal generated by the imaging signal read from the imaging unit 3 is switched from the infrared light projection mode to the normal mode, as shown in (c) of FIG. 30A and FIG. 30B, Both are continuous when switching from the normal mode to the infrared light projection mode.

図30A及び図30Bにおいて、(d)はA/D変換器4より出力された映像データの
フレームのフレームバッファ50への書き込み、(e)はフレームバッファ50からのフ
レームの読み出しを示している。図30A及び図30Bの(d),(e)それぞれの区画
内には書き込まれる、または、読み出されるメモリ50a〜50fの符号を記している。
30A and 30B, (d) shows the writing of the frame of the video data output from the A / D converter 4 to the frame buffer 50, and (e) shows the reading of the frame from the frame buffer 50. Symbols of the memories 50a to 50f to be written or read are shown in the respective sections (d) and (e) of FIGS. 30A and 30B.

A/D変換器4より出力された映像データのフレームも、図30A及び図30Bの(c
)に示す撮像信号のフレームF1R,F1G,F1B,…と称することとする。フレームF1R,F1G
,F1Bはそれぞれメモリ50a,50b,50cに書き込まれる。
The frame of the video data output from the A / D converter 4 is also shown in (c of FIG. 30A and FIG. 30B.
) Of the image pickup signal shown in FIG. 4) and F1R, F1G, F1B,. Frame F1R, F1G
, F1B are written in the memories 50a, 50b, 50c, respectively.

フレームF1Bのメモリ50cへの書き込みが完了すると、メモリ50a〜50cから、
フレームF1R,F1G,F1Bが同時に1/60秒の期間で読み出される。続く1/60秒の期
間でも、メモリ50a〜50cから、フレームF1R,F1G,F1Bが同時に読み出される。即
ち、フレームF1R,F1G,F1Bは、2つの1/60秒の期間で連続的に読み出される。
When the writing of the frame F1B to the memory 50c is completed, from the memories 50a to 50c,
Frames F1R, F1G, and F1B are simultaneously read out in a 1/60 second period. Even in the subsequent 1/60 second period, the frames F1R, F1G, and F1B are simultaneously read from the memories 50a to 50c. That is, the frames F1R, F1G, and F1B are continuously read out in two 1/60 second periods.

フレームF1R,F1G,F1Bを読み出す期間に対応させて、フレームF2R,F2G,F2Bはそれぞ
れメモリ50d,50e,50fに書き込まれる。フレームF2R,F2G,F2Bも、フレームF
2Bのメモリ50fへの書き込みが完了すると、2つの1/60秒の期間で連続的に読み出
される。
The frames F2R, F2G, and F2B are written in the memories 50d, 50e, and 50f in correspondence with the period for reading the frames F1R, F1G, and F1B, respectively. Frames F2R, F2G, F2B are also frame F
When the writing to the 2B memory 50f is completed, it is continuously read out in two 1/60 second periods.

赤外光投光モードにおける1組のフレームを2度読み出すのは、読み出した一方の1組
のフレームで奇数フィールドを生成し、もう一方の1組のフレームで偶数フィールドを生
成するためである。
The reason for reading out one set of frames in the infrared light projection mode twice is to generate odd fields in one set of read frames and generate even fields in the other set of frames.

フレームF3o,F3eはメモリ50a,50bに書き込まれる。フレームF3eのメモリ50
bへの書き込みが完了すると、フレームF3o,F3eがメモリ50a,50bから読み出され
る。フレームF4o,F4eはメモリ50d,50eに書き込まれる。フレームF4eのメモリ5
0eへの書き込みが完了すると、フレームF4o,F4eがメモリ50d,50eから読み出さ
れる。
る。
The frames F3o and F3e are written in the memories 50a and 50b. Frame F3e memory 50
When the writing to b is completed, the frames F3o and F3e are read from the memories 50a and 50b. The frames F4o and F4e are written in the memories 50d and 50e. Frame F4e memory 5
When the writing to 0e is completed, the frames F4o and F4e are read from the memories 50d and 50e.
The

フレームF5o,F5eはメモリ50a,50bに書き込まれる。フレームF5eのメモリ50
bへの書き込みが完了すると、フレームF5o,F5eがメモリ50a,50bから読み出され
る。
The frames F5o and F5e are written in the memories 50a and 50b. Memory F of frame F5e
When the writing to b is completed, the frames F5o and F5e are read from the memories 50a and 50b.

フレームF6R,F6G,F6Bはそれぞれメモリ50d,50e,50fに書き込まれる。フ
レームF6R,F6G,F6Bは、フレームF6Bのメモリ50fへの書き込みが完了すると、2つの
1/60秒の期間で連続的に読み出される。
The frames F6R, F6G, and F6B are written in the memories 50d, 50e, and 50f, respectively. The frames F6R, F6G, and F6B are continuously read out in two 1/60 second periods when the writing of the frame F6B into the memory 50f is completed.

フレームF7R,F7G,F7Bはそれぞれメモリ50a,50b,50cに書き込まれる。図
30Bでは図示されていないが、フレームF7R,F7G,F7Bは、フレームF7Bのメモリ50f
への書き込みが完了すると、2つの1/60秒の期間で連続的に読み出される。以降、同
様の動作を繰り返す。
The frames F7R, F7G, and F7B are written in the memories 50a, 50b, and 50c, respectively. Although not shown in FIG. 30B, the frames F7R, F7G, and F7B are stored in the memory 50f of the frame F7B.
When writing to is completed, it is continuously read out in two 1/60 second periods. Thereafter, the same operation is repeated.

図30A及び図30Bにおいて、(f)は、上述した前信号処理部52における前信号
処理を示している。前信号処理をP52と表す。メモリ50a〜50cから読み出したフレ
ームF1R,F1G,F1Bの全体をフレームF1RGBと表す。例えば、P52(F1RGB)はフレームF1RGB
に上述した前信号処理P52を施すことを示す。
30A and 30B, (f) shows the previous signal processing in the previous signal processing unit 52 described above. The previous signal processing is represented as P52. The entire frames F1R, F1G, and F1B read from the memories 50a to 50c are represented as a frame F1RGB. For example, P52 (F1RGB) is frame F1RGB
Shows that the previous signal processing P52 is applied.

図30A及び図30Bの(f)に示すように、それぞれ2つの1/60秒の期間連続し
て、フレームF0RGB,F1RGB,F2RGB,F6RGB…に前信号処理P52が施される。
As shown in (f) of FIG. 30A and FIG. 30B, the pre-signal processing P52 is performed on the frames F0RGB, F1RGB, F2RGB, F6RGB,.

図30A及び図30Bにおいて、(g)は、上述したデモザイク処理部54における前
信号処理を示している。デモザイク処理をP54と表す。例えば、P54(F1RGB)はフレームF1R
GBに上述したデモザイク処理P54を施すことを示す。
30A and 30B, (g) shows the previous signal processing in the demosaic processing unit 54 described above. The demosaic process is represented as P54. For example, P54 (F1RGB) is frame F1R
It shows that the above-mentioned demosaic processing P54 is applied to GB.

図30A及び図30Bの(g)に示すように、前信号処理P52が施されたフレームF0RGB
,F1RGB,F2RGB,F6RGB…にデモザイク処理P54が施される。前信号処理P52が施されてい
ないフレームF3o,F3e,F4o,F4e,F5o,F5eにデモザイク処理P54が施される。
As shown in FIG. 30A and FIG. 30B (g), the frame F0RGB subjected to the previous signal processing P52.
, F1RGB, F2RGB, F6RGB... Are subjected to demosaic processing P54. The demosaic processing P54 is applied to the frames F3o, F3e, F4o, F4e, F5o, and F5e that have not been subjected to the previous signal processing P52.

図30A及び図30Bにおいて、(h)は、(g)に示す各フレームをNTSCエンコ
ーダ61によってプログレッシブ−インターレース変換(PI変換)したインターレース
方式の映像信号を示している。図30A及び図30Bの(h)において、添え字oは奇数
フィールドの映像信号、添え字eは偶数フィールドの映像信号であることを示す。
30A and 30B, (h) shows an interlace video signal obtained by performing progressive-interlace conversion (PI conversion) on each frame shown in (g) by the NTSC encoder 61. In FIG. 30A and FIG. 30B (h), the subscript o indicates an odd-field video signal, and the subscript e indicates an even-field video signal.

図30Aの(h)に示すように、赤外光投光モードでは、デモザイク処理P54が施され
たフレームF0RGB,F1RGB,F2RGBそれぞれの映像データに基づいて、インターレース方式
の映像信号F0io,F0ie,F1io,F1ie,F2io,F2ieが順に生成されて出力される。添え字i
は、PI変換によって水平ラインが間引かれて、インターレース方式の映像信号となって
いることを示す。
As shown in (h) of FIG. 30A, in the infrared light projection mode, interlaced video signals F0io, F0ie, F1io are based on the video data of the frames F0RGB, F1RGB, F2RGB subjected to demosaic processing P54. , F1ie, F2io, F2ie are generated and output in order. Subscript i
Indicates that the horizontal lines are thinned out by the PI conversion to form an interlaced video signal.

図30A及び図30Bの(h)に示すように、通常モードに切り換わると、デモザイク
処理P54が施されたフレームF3o,F3e,F4o,F4e,F5o,F5eそれぞれの映像データに基づ
いて、インターレース方式の映像信号F3io,F3ie,F4io,F4ie,F5io,F5ieが順に生成さ
れて出力される。
As shown in (h) of FIG. 30A and FIG. 30B, when the mode is switched to the normal mode, the interlace method is used based on the video data of each of the frames F3o, F3e, F4o, F4e, F5o, and F5e subjected to the demosaic process P54. Video signals F3io, F3ie, F4io, F4ie, F5io, and F5ie are sequentially generated and output.

図30Bの(h)に示すように、赤外光投光モードに切り換わると、デモザイク処理P5
4が施されたフレームF6RGB…それぞれの映像データに基づいて、インターレース方式の映
像信号F6io,F6ie…が順に生成されて出力される。
As shown in (h) of FIG. 30B, when switching to the infrared light projection mode, demosaic processing P5
Based on the respective video data of the frame F6RGB to which 4 is applied, interlaced video signals F6io, F6ie,... Are sequentially generated and output.

図30A及び図30Bの(h)に示すように、第1の例によれば、60iの映像信号が
、赤外光投光モードから通常モードへと切り換えられても、通常モードから赤外光投光モ
ードへと切り換えられても、各フレーム(各フィールド)が連続的に出力される。
As shown in (h) of FIG. 30A and FIG. 30B, according to the first example, even if the 60i video signal is switched from the infrared light projection mode to the normal mode, the normal mode changes to the infrared light. Each frame (each field) is continuously output even when switched to the projection mode.

よって、第1の例によれば、映像の乱れが発生することなく、各モードの映像を切り換
えることができる。
Therefore, according to the first example, it is possible to switch the video in each mode without the video being disturbed.

図30A及び図30Bに示す第1の例においては、通常モードの期間において、(b)
に示す撮像部3の露光によって生成されるフレームの境界と、(g)に示す出力映像信号
のフレーム(フィールド)の境界とが一致している。即ち、撮像部3の露光によって生成
されるフレームと出力映像信号のフレームとは同期している。よって、出力映像信号にノ
イズが発生しにくい。
In the first example shown in FIGS. 30A and 30B, during the normal mode period, (b)
The boundary of the frame generated by the exposure of the image pickup unit 3 shown in FIG. 6 coincides with the boundary of the frame (field) of the output video signal shown in (g). That is, the frame generated by the exposure of the imaging unit 3 and the frame of the output video signal are synchronized. Therefore, noise is unlikely to occur in the output video signal.

<モード切換方法の第2の例>
図31A及び図31Bは、モード切換方法の第2の例を示す。図31A及び図31Bも
、映像出力部6がNTSCエンコーダ61によってインターレース方式の映像信号を出力
する場合の撮像装置の各部の動作を示している。
<Second Example of Mode Switching Method>
31A and 31B show a second example of the mode switching method. 31A and 31B also show the operation of each part of the imaging apparatus when the video output unit 6 outputs an interlace video signal by the NTSC encoder 61.

図31A及び図31Bに示す第2の例では、図30A及び図30Bに示す第1の例と異
なる部分を中心に説明する。図31A及び図31Bも、シーケンスを2つに分断して示し
ており、図31Aと図31Bとは一部が重複している。
In the second example shown in FIGS. 31A and 31B, the description will focus on parts different from the first example shown in FIGS. 30A and 30B. 31A and 31B also show the sequence divided into two, and FIG. 31A and FIG. 31B partially overlap.

図31A及び図31Bの(b)に示すように、第2の例においては、時刻t1〜t2の
通常モードの期間では、撮像部3は、最大露光時間tExmaxを全て1/60秒として露光す
る。図31A及び図31Bの(c)に示すように、制御部7は、通常モードの期間の露光
Ex3o,Ex3e,Ex4o,Ex4e,Ex5o,Ex5eに基づき、撮像部3より撮像信号を1/90秒で読
み出すように制御して、フレームF3o,F3e,F4o,F4e,F5o,F5eを生成する。
As shown in (b) of FIG. 31A and FIG. 31B, in the second example, in the normal mode period from time t1 to t2, the imaging unit 3 performs exposure with the maximum exposure time tExmax set to 1/60 seconds. . As shown in (c) of FIG. 31A and FIG. 31B, the control unit 7 performs exposure in the normal mode period.
Based on Ex3o, Ex3e, Ex4o, Ex4e, Ex5o, and Ex5e, control is performed so that the imaging signal is read out from the imaging unit 3 in 1/90 seconds to generate frames F3o, F3e, F4o, F4e, F5o, and F5e.

露光Ex3oに対応したフレームF3oの読み出しは露光Ex3oが終了する時刻より開始される
ので、フレームF3oは、フレームF2Bが終了した時刻から1/180秒経過した時刻より開
始する。よって、フレームF2BとフレームF3oとの間には、1/180秒の時間的な間隙が
形成される。以降同様に、フレームF3o,F3e,F4o,F4e,F5o,F5eの隣接するフレームの
間には、1/180秒の時間的な間隙が形成される。
Since reading of the frame F3o corresponding to the exposure Ex3o is started from the time when the exposure Ex3o ends, the frame F3o starts from the time when 1/180 second has elapsed from the time when the frame F2B ends. Therefore, a time gap of 1/180 seconds is formed between the frame F2B and the frame F3o. Thereafter, similarly, a temporal gap of 1/180 seconds is formed between adjacent frames of the frames F3o, F3e, F4o, F4e, F5o, and F5e.

図31A及び図31Bの(d)〜(h)は、図30A及び図30Bの(d)〜(h)と
同様である。但し、図31A及び図31Bの(d),(e)においては、フレームバッフ
ァ50に1/90秒の期間で書き込まれたフレームF3o〜F5eは、それぞれ1/60秒の期
間で読み出される。
FIGS. 31A and 31B (d) to (h) are the same as FIGS. 30A and 30B (d) to (h). However, in FIGS. 31A and 31B (d) and (e), the frames F3o to F5e written in the frame buffer 50 in a period of 1/90 seconds are read out in a period of 1/60 seconds, respectively.

図31A及び図31Bの(g)に示すように、第2の例によれば、60iの映像信号が
、赤外光投光モードから通常モードへと切り換えられても、通常モードから赤外光投光モ
ードへと切り換えられても、各フレーム(各フィールド)が連続的に出力される。
As shown in FIG. 31A and FIG. 31B (g), according to the second example, even if the 60i video signal is switched from the infrared light projection mode to the normal mode, Each frame (each field) is continuously output even when switched to the projection mode.

よって、第2の例によれば、映像の乱れが発生することなく、各モードの映像を切り換
えることができる。
Therefore, according to the second example, it is possible to switch the video in each mode without causing video disturbance.

図31A及び図31Bに示す第2の例においては、通常モードの期間において、(b)
に示す撮像部3の露光よって生成されるフレームと(g)に示す出力映像信号のフレーム
とは同期しない。しかしながら、図31A及び図31Bに示す第2の例においては、通常
モードの期間において、撮像部3の露光の奇数フィールド用のフレームと偶数フィールド
用のフレームとの一対の期間が全て1/30秒に統一される。
In the second example shown in FIGS. 31A and 31B, during the normal mode period, (b)
The frame generated by the exposure of the image pickup unit 3 shown in FIG. 6 and the frame of the output video signal shown in (g) are not synchronized. However, in the second example shown in FIGS. 31A and 31B, in the normal mode period, the pair of periods of the odd-numbered field frame and even-numbered field frame of the imaging unit 3 are all 1/30 seconds. To be unified.

<モード切換方法の第3の例>
図32A及び図32Bは、モード切換方法の第3の例を示す。図32A及び図32Bも
、映像出力部6がNTSCエンコーダ61によってインターレース方式の映像信号を出力
する場合の撮像装置の各部の動作を示している。
<Third example of mode switching method>
32A and 32B show a third example of the mode switching method. 32A and 32B also show the operation of each part of the imaging apparatus when the video output unit 6 outputs an interlaced video signal by the NTSC encoder 61. FIG.

図32A及び図32Bに示す第3の例では、図30A及び図30Bに示す第1の例と異
なる部分を中心に説明する。図32A及び図32Bも、シーケンスを2つに分断して示し
ており、図32Aと図32Bとは一部が重複している。
In the third example shown in FIGS. 32A and 32B, the description will focus on parts different from the first example shown in FIGS. 30A and 30B. 32A and 32B also show the sequence divided into two, and FIG. 32A and FIG. 32B partially overlap.

第3の例を実現するために、図1に示すように、フレームバッファ50を、合計9フレ
ーム分の容量のメモリ50a〜50iを有する構成とする。なお、第3の例を実現するた
めに、少なくとも7フレーム分の容量のメモリを有する構成であればよいが、メモリの書
き込みや読み出しの制御を容易にするため、図1では9フレーム分の容量のメモリ50a
〜50iを有する構成としている。
In order to realize the third example, as shown in FIG. 1, the frame buffer 50 is configured to include memories 50 a to 50 i having a capacity of a total of nine frames. In order to realize the third example, a configuration having a memory with a capacity of at least 7 frames may be used. Memory 50a
It is set as the structure which has ~ 50i.

図32A及び図32Bの(b)に示すように、第3の例においては、時刻t1〜t2の
通常モードの期間では、撮像部3は、最大露光時間tExmaxを全て1/60秒として露光す
る。
As shown in (b) of FIG. 32A and FIG. 32B, in the third example, in the normal mode period from time t1 to t2, the imaging unit 3 performs exposure with the maximum exposure time tExmax set to 1/60 seconds. .

図32A及び図32Bの(c)に示すように、制御部7は、通常モードの期間の露光Ex
3o,Ex3e,Ex4o,Ex4e,Ex5oに基づき、撮像部3より蓄積した電荷を1/60秒で読み出
すように制御して、フレームF3o,F3e,F4o,F4e,F5oを生成する。
As shown in (c) of FIG. 32A and FIG. 32B, the control unit 7 performs exposure Ex during the normal mode period.
Based on 3o, Ex3e, Ex4o, Ex4e, and Ex5o, control is performed so that the charges accumulated from the imaging unit 3 are read out in 1/60 second, and frames F3o, F3e, F4o, F4e, and F5o are generated.

図32Aの(c)に示すように、制御部7は、赤外光投光モードにおける最後の露光Ex
2Bのみ、撮像部3より蓄積した電荷を1/60秒で読み出すように制御して、フレームF2
Bを生成する。
As shown in (c) of FIG. 32A, the control unit 7 performs the final exposure Ex in the infrared light projection mode.
Only for 2B, the charge accumulated from the imaging unit 3 is controlled to be read out in 1/60 second, and the frame F2
Generate B.

図32Bの(c)に示すように、制御部7は、通常モードの期間の最後の露光Ex5eのみ
、撮像部3より蓄積した電荷を1/90秒で読み出すように制御して、フレームF5eを生
成する。これによって、時刻t2以降の最初の露光Ex6Rの最大露光時間と、フレームF5e
の期間とが同じとなる。
As shown in (c) of FIG. 32B, the control unit 7 performs control so that only the last exposure Ex5e in the period of the normal mode reads out the electric charge accumulated from the imaging unit 3 in 1/90 seconds, and the frame F5e is read. Generate. As a result, the maximum exposure time of the first exposure Ex6R after time t2 and the frame F5e
The period is the same.

図32Aの(d)に示すように、フレームF1R,F1G,F1Bはそれぞれメモリ50a,5
0b,50cに書き込まれる。図32Aの(e)に示すように、フレームF1Bのメモリ5
0cへの書き込みが完了すると、フレームF1R,F1G,F1Bは、メモリ50a〜50cから
、2つの1/60秒の期間で連続的に読み出される。
As shown in (d) of FIG. 32A, frames F1R, F1G, and F1B are stored in memories 50a and 5a, respectively.
It is written in 0b, 50c. As shown in (e) of FIG. 32A, the memory 5 of the frame F1B
When the writing to 0c is completed, the frames F1R, F1G, and F1B are continuously read from the memories 50a to 50c in two 1/60 second periods.

フレームF2R,F2G,F2Bはそれぞれメモリ50d,50e,50fに書き込まれる。フ
レームF2Bのメモリ50fへの書き込みが完了すると、フレームF2R,F2G,F2Bも、2つの
1/60秒の期間で連続的に読み出される。
The frames F2R, F2G, and F2B are written in the memories 50d, 50e, and 50f, respectively. When the writing of the frame F2B to the memory 50f is completed, the frames F2R, F2G, and F2B are also continuously read out in two 1/60 second periods.

図32Aの(d),(e)を比較すれば分かるように、第3の例においては、例えば、
フレームF2R,F2G,F2Bをメモリ50d〜50fに書き込むタイミングと、メモリ50a
〜50cからフレームF1R,F1G,F1Bを読み出すタイミングとが一致していない。これは
、フレームF2Bを1/60秒の期間で生成しているからである。
As can be seen by comparing (d) and (e) in FIG. 32A, in the third example, for example,
Timing for writing the frames F2R, F2G, and F2B to the memories 50d to 50f and the memory 50a
The timings for reading the frames F1R, F1G, and F1B from .about.50c do not match. This is because the frame F2B is generated in a period of 1/60 seconds.

よって、図1に示す合計6フレーム分の容量のメモリ50a〜50fを有する構成のフ
レームバッファ50では、第3の例を実現することができないことになる。そこで、第3
の例を実現するために、図34に示す合計9フレーム分の容量のメモリ50a〜50iを
有する構成のフレームバッファ50としている。
Therefore, the third example cannot be realized with the frame buffer 50 having the configuration of the memories 50a to 50f having a capacity of 6 frames in total as shown in FIG. Therefore, the third
In order to realize this example, the frame buffer 50 is configured to have the memories 50a to 50i having a capacity of a total of nine frames shown in FIG.

図32A及び図32Bの(d),(e)に示すように、フレームF3o,F3eはメモリ50
g,50hに書き込まれる。フレームF3eのメモリ50hへの書き込みが完了すると、フ
レームF3o,F3eがメモリ50g,50hから読み出される。フレームF4o,F4eはメモリ5
0a,50bに書き込まれる。フレームF4eのメモリ50bへの書き込みが完了すると、
フレームF4o,F4eがメモリ50a,50bから読み出される。
As shown in FIGS. 32A and 32B (d) and (e), the frames F3o and F3e are stored in the memory 50.
g, 50h. When the writing of the frame F3e to the memory 50h is completed, the frames F3o and F3e are read from the memories 50g and 50h. Frames F4o and F4e are memory 5
It is written in 0a and 50b. When the writing of the frame F4e to the memory 50b is completed,
Frames F4o and F4e are read from the memories 50a and 50b.

フレームF5o,F5eはメモリ50d,50eに書き込まれる。フレームF5eのメモリ50
eへの書き込みが完了すると、フレームF5o,F5eがメモリ50d,50eから読み出され
る。
The frames F5o and F5e are written in the memories 50d and 50e. Memory F of frame F5e
When the writing to e is completed, the frames F5o and F5e are read from the memories 50d and 50e.

フレームF6R,F6G,F6Bはそれぞれメモリ50g,50h,50iに書き込まれる。フ
レームF6R,F6G,F6Bは、フレームF6Bのメモリ50iへの書き込みが完了すると、2つの
1/60秒の期間で連続的に読み出される。
The frames F6R, F6G, and F6B are written in the memories 50g, 50h, and 50i, respectively. The frames F6R, F6G, and F6B are continuously read out in two 1/60 second periods when the writing of the frame F6B to the memory 50i is completed.

フレームF7R,F7G,F7Bはそれぞれメモリ50a,50b,50cに書き込まれる。図
32Bでは図示されていないが、フレームF7R,F7G,F7Bは、フレームF7Bのメモリ50c
への書き込みが完了すると、2つの1/60秒の期間で連続的に読み出される。以降、同
様の動作を繰り返す。
The frames F7R, F7G, and F7B are written in the memories 50a, 50b, and 50c, respectively. Although not shown in FIG. 32B, the frames F7R, F7G, and F7B are stored in the memory 50c of the frame F7B.
When writing to is completed, it is continuously read out in two 1/60 second periods. Thereafter, the same operation is repeated.

図32A及び図32Bの(f)〜(h)は、図30A及び図30Bの(g)〜(h)と
同様である。
(F) to (h) in FIGS. 32A and 32B are the same as (g) to (h) in FIGS. 30A and 30B.

図32A及び図32Bの(h)に示すように、第3の例によれば、60iの映像信号が
、赤外光投光モードから通常モードへと切り換えられても、通常モードから赤外光投光モ
ードへと切り換えられても、各フレーム(各フィールド)が連続的に出力される。
As shown in FIG. 32A and FIG. 32B (h), according to the third example, even if the 60i video signal is switched from the infrared light projection mode to the normal mode, Each frame (each field) is continuously output even when switched to the projection mode.

よって、第3の例によれば、映像の乱れが発生することなく、各モードの映像を切り換
えることができる。
Therefore, according to the third example, it is possible to switch the video of each mode without causing the disturbance of the video.

図322A及び図32Bに示す第3の例においては、通常モードの期間において、(b
)に示す撮像部3の露光の同期と(g)に示す出力映像信号の同期とが一致している。撮
像部3の露光の同期と出力映像信号の同期とが一致していると、出力映像信号にノイズが
発生しにくい。
In the third example shown in FIG. 322A and FIG. 32B, (b
The synchronization of the exposure of the imaging unit 3 shown in () matches the synchronization of the output video signal shown in (g). If the exposure synchronization of the imaging unit 3 and the synchronization of the output video signal match, it is difficult for noise to occur in the output video signal.

上記のように、第3の例を実現するには、フレームバッファ50のメモリ容量を第1の
例を実現する場合より多くすることが必要である。フレームバッファ50のメモリ容量を
より少なくするという点では第1の例の方がよい。
As described above, in order to realize the third example, it is necessary to increase the memory capacity of the frame buffer 50 compared to the case of realizing the first example. The first example is better in that the memory capacity of the frame buffer 50 is further reduced.

しかしながら、メモリの書き込み及び読み出しの制御を工夫すれば、7フレーム分の容
量のメモリを有する構成のフレームバッファ50で第3の例を実現することが可能である
。よって、第3の例でも、フレームバッファ50のメモリ容量はさほど問題にはならない
However, if the memory write and read controls are devised, the third example can be realized with the frame buffer 50 having a memory capacity of 7 frames. Therefore, even in the third example, the memory capacity of the frame buffer 50 does not matter so much.

<撮像装置におけるモード切換方法のまとめ>
以上説明したモード切換方法の第1〜第3の例をまとめると、本実施形態の撮像装置は
、次のように動作する。
<Summary of Mode Switching Methods in Imaging Device>
To summarize the first to third examples of the mode switching method described above, the imaging apparatus of the present embodiment operates as follows.

撮像部3は被写体を撮像する。映像処理部5は、撮像部3より出力された撮像信号に基
づいて第1の映像信号を生成する。第1の映像信号とは、A/D変換器4より出力された
映像データに対して、前信号処理P52及びデモザイク処理P54の双方、または、デモザイク
処理P54のみを施した映像信号である。
The imaging unit 3 images a subject. The video processing unit 5 generates a first video signal based on the imaging signal output from the imaging unit 3. The first video signal is a video signal obtained by performing both the previous signal processing P52 and the demosaic processing P54 or only the demosaic processing P54 on the video data output from the A / D converter 4.

映像出力部6(NTSCエンコーダ61)は、第1の映像信号に基づいて所定の信号方
式の第2の映像信号を生成して出力する。所定の信号方式とは例えばインターレース方式
であり、プログレッシブ方式であってもよい。第2の映像信号とは、第1の映像信号に基
づいて、最終的な信号方式に変換した映像信号である。
The video output unit 6 (NTSC encoder 61) generates and outputs a second video signal of a predetermined signal system based on the first video signal. The predetermined signal system is, for example, an interlace system, and may be a progressive system. The second video signal is a video signal converted into a final signal system based on the first video signal.

ここで、通常モードを第1のモード、赤外光投光モードを第2のモードと称する。撮像
部3は、第1のモードでは、第2の映像信号のそれぞれの1フレーム期間に対応させて露
光して被写体を撮像する。撮像部3は、第2のモードでは、第2の映像信号のそれぞれの
1フレーム期間を複数の区間に分割した各区間で互いに異なる撮像条件で露光して被写体
を撮像する。
Here, the normal mode is referred to as a first mode, and the infrared light projection mode is referred to as a second mode. In the first mode, the image capturing unit 3 captures an image of a subject by performing exposure in accordance with each frame period of the second video signal. In the second mode, the imaging unit 3 captures an image of the subject by performing exposure under different imaging conditions in each section obtained by dividing each frame period of the second video signal into a plurality of sections.

映像処理部5は、第1のモードでは、1フレーム期間に対応させた露光に対応して読み
出された撮像信号に基づいて、第1の映像信号のそれぞれのフレームを生成し、第2のモ
ードでは、各区間の露光に対応して読み出された撮像信号に基づいて、第1の映像信号の
それぞれのフレームを生成する。
In the first mode, the video processing unit 5 generates each frame of the first video signal based on the imaging signal read corresponding to the exposure corresponding to one frame period, In the mode, each frame of the first video signal is generated based on the imaging signal read corresponding to the exposure of each section.

映像出力部6は、第2の映像信号を、第1のモードと第2のモードとで共通の信号方式
(例えば60i)とし、第2の映像信号のフレームを連続的に出力する。よって、映像の
乱れが発生することなく、第1のモードと第2のモードの映像を互いに切り換えることが
できる。第2の映像信号を、第1のモードと第2のモードとで同じ水平及び垂直周波数に
するとより好ましい。
The video output unit 6 sets the second video signal to a common signal system (for example, 60i) in the first mode and the second mode, and continuously outputs frames of the second video signal. Therefore, the images in the first mode and the second mode can be switched to each other without causing the image disturbance. More preferably, the second video signal has the same horizontal and vertical frequencies in the first mode and the second mode.

可視光が少ない環境下で、赤外光を投光しながら被写体を撮像する第2のモードでは、
撮像部3は次のように被写体を撮像する。
In the second mode in which the subject is imaged while projecting infrared light in an environment where there is little visible light,
The imaging unit 3 images the subject as follows.

撮像部3は、第2の映像信号のそれぞれの1フレーム期間を3つの区間に分割して被写
体を撮像する。撮像部3は、互いに異なる撮像条件として、3つの区間の各区間で、第1
の赤外光が投光されている状態と、第2の赤外光が投光されている状態と、第3の赤外光
が投光されている状態とのそれぞれで被写体を撮像する。第1の赤外光は、赤色に対応付
けられた第1の波長を有する。第2の赤外光は、緑色に対応付けられた第2の波長を有す
る。第3の赤外光は、青色に対応付けられた第3の波長を有する。
The imaging unit 3 images the subject by dividing each frame period of the second video signal into three sections. The imaging unit 3 has first imaging in each of the three sections as different imaging conditions.
The subject is imaged in each of a state where the infrared light is projected, a state where the second infrared light is projected, and a state where the third infrared light is projected. The first infrared light has a first wavelength associated with red. The second infrared light has a second wavelength associated with green. The third infrared light has a third wavelength associated with blue.

映像出力部6が第2の映像信号としてインターレース方式の映像信号を出力する場合に
は、撮像部3と映像処理部5と映像出力部6は次のように動作すればよい。
When the video output unit 6 outputs an interlace video signal as the second video signal, the imaging unit 3, the video processing unit 5, and the video output unit 6 may operate as follows.

撮像部3は、第1のモードでは、第2の映像信号のそれぞれの1フレーム期間を奇数フ
ィールド期間と偶数フィールド期間との2つのフィールド期間に分けて被写体を撮像する
。制御部7は、2つのフィールド期間の最大露光時間を互いに同じ時間に設定する。映像
処理部5は、第1の映像信号として、奇数フィールド期間の映像信号と偶数フィールド期
間の映像信号とを生成する。
In the first mode, the imaging unit 3 images the subject by dividing each frame period of the second video signal into two field periods of an odd field period and an even field period. The control unit 7 sets the maximum exposure time of the two field periods to the same time. The video processing unit 5 generates a video signal in the odd field period and a video signal in the even field period as the first video signal.

映像出力部6は、第1のモードでは、映像処理部5で生成された奇数フィールド期間の
映像信号に基づいて奇数フィールドの映像信号を生成し、偶数フィールド期間の映像信号
に基づいて偶数フィールドの映像信号を生成する。映像出力部6は、第2のモードでは、
映像処理部5で生成された第1の映像信号のそれぞれのフレームに基づいて、奇数フィー
ルドの映像信号と偶数フィールドの映像信号とを生成する。
In the first mode, the video output unit 6 generates an odd-field video signal based on the odd-field video signal generated by the video processing unit 5, and generates an even-field video signal based on the even-field video signal. Generate a video signal. In the second mode, the video output unit 6
Based on each frame of the first video signal generated by the video processing unit 5, an odd-field video signal and an even-field video signal are generated.

映像出力部6が、映像の乱れが発生しないよう、第2の映像信号のフレームを連続的に
出力するために、撮像部3は具体的に次のように動作する。
In order for the video output unit 6 to continuously output the frames of the second video signal so that the video is not disturbed, the imaging unit 3 specifically operates as follows.

図30A,図30Bで説明した第1の例では、次のとおりである。撮像部3は、第1の
モードから第2のモードへと切り換えた最初の区間の露光では、第1のモードにおけるフ
ィールド期間の最大露光時間の先頭から電荷を排出させて、最大露光時間を、第2のモー
ドにおける1つの区間の最大露光時間と同じ時間とする。
In the first example described with reference to FIG. 30A and FIG. 30B, the operation is as follows. In the exposure of the first section in which the imaging unit 3 is switched from the first mode to the second mode, the charge is discharged from the beginning of the maximum exposure time of the field period in the first mode, and the maximum exposure time is The time is the same as the maximum exposure time of one section in the second mode.

撮像部3は、第2のモードから第1のモードへと切り換えた最初のフィールド期間の露
光では、最大露光時間を、第2のモードにおける1つの区間の最大露光時間と同じ時間す
る。撮像部3は、第1のモードでは、それぞれのフィールド期間の露光により蓄積した電
荷を1フィールド期間で撮像信号として読み出す。
The imaging unit 3 sets the maximum exposure time to be the same as the maximum exposure time of one section in the second mode in the exposure in the first field period switched from the second mode to the first mode. In the first mode, the imaging unit 3 reads the electric charge accumulated by exposure in each field period as an imaging signal in one field period.

図31A,図31Bで説明した第2の例では、次のとおりである。撮像部3は、第1の
モードでは、1フィールド期間を最大露光時間とし、最大露光時間の露光を終了したら露
光により蓄積した電荷を、第2のモードにおける1つの区間の最大露光時間と同じ時間で
撮像信号として読み出す。
In the second example described with reference to FIG. 31A and FIG. 31B, the operation is as follows. In the first mode, the imaging unit 3 sets one field period as the maximum exposure time, and after the exposure of the maximum exposure time is completed, the charge accumulated by the exposure is the same as the maximum exposure time of one section in the second mode. To read out as an imaging signal.

撮像部3は、撮像信号の読み出しの前に、1フィールド期間と、第2のモードにおける
1つの区間の最大露光時間との差に相当する時間的な間隙を設ける。
The imaging unit 3 provides a temporal gap corresponding to the difference between one field period and the maximum exposure time of one section in the second mode before reading the imaging signal.

図32A,図32Bで説明した第3の例では、次のとおりである。撮像部3は、第1の
モードでは、1フィールド期間を最大露光時間として露光する。
In the third example described with reference to FIG. 32A and FIG. 32B, the operation is as follows. In the first mode, the imaging unit 3 exposes with one field period as the maximum exposure time.

撮像部3は、第2のモードにおける最後の1つの区間の露光により蓄積した電荷を1フ
ィールド期間で撮像信号として読み出す。
The imaging unit 3 reads out the electric charge accumulated by the exposure of the last one section in the second mode as an imaging signal in one field period.

撮像部3は、第1のモードにおける最後のフィールド期間の露光により蓄積した電荷を
、1つの区間の最大露光時間と同じ時間で撮像信号として読み出す。
The imaging unit 3 reads out the electric charge accumulated by the exposure in the last field period in the first mode as an imaging signal at the same time as the maximum exposure time of one section.

<撮像装置の制御方法>
制御部7は、撮像装置を次のように制御する。
<Control Method of Imaging Device>
The control unit 7 controls the imaging device as follows.

制御部7は、撮像部3によって被写体を撮像させる。制御部7は、撮像部3が被写体を
撮像した撮像信号に基づいて、映像処理部5によって第1の映像信号を生成させる。制御
部7は、映像出力部6によって、第1の映像信号に基づいて所定の信号方式の第2の映像
信号を生成させる。
The control unit 7 causes the imaging unit 3 to image the subject. The control unit 7 causes the video processing unit 5 to generate the first video signal based on the imaging signal obtained by imaging the subject by the imaging unit 3. The control unit 7 causes the video output unit 6 to generate a second video signal of a predetermined signal system based on the first video signal.

制御部7が撮像装置を第1のモードに設定させたとき、撮像装置を次のように制御する
。制御部7は、撮像部3によって、第2の映像信号のそれぞれの1フレーム期間に対応さ
せて露光して被写体を撮像させる。制御部7は、映像処理部5によって、1フレーム期間
に対応させた露光に対応して読み出された撮像信号に基づいて、第1の映像信号のそれぞ
れのフレームを生成させる。
When the control unit 7 sets the imaging device to the first mode, the imaging device is controlled as follows. The control unit 7 causes the imaging unit 3 to perform exposure in accordance with each frame period of the second video signal so as to image the subject. The control unit 7 generates each frame of the first video signal based on the imaging signal read out by the video processing unit 5 corresponding to the exposure corresponding to one frame period.

制御部7が撮像装置を第2のモードに設定させたとき、撮像装置を次のように制御する
。制御部7は、撮像部3によって、第2の映像信号のそれぞれの1フレーム期間を複数の
区間に分割した各区間で互いに異なる撮像条件で露光して被写体を撮像させる。制御部7
は、映像処理部5によって、各区間の露光に対応して読み出された撮像信号に基づいて、
第1の映像信号のそれぞれのフレームを生成させる。
When the control unit 7 sets the imaging device to the second mode, the imaging device is controlled as follows. The control unit 7 causes the imaging unit 3 to expose the subject under different imaging conditions in each section obtained by dividing each frame period of the second video signal into a plurality of sections and cause the subject to be imaged. Control unit 7
Is based on the imaging signal read by the video processing unit 5 corresponding to the exposure of each section,
Each frame of the first video signal is generated.

制御部7は、映像出力部6によって、第2の映像信号を、第1のモードと第2のモード
とで共通の信号方式とし、第2の映像信号のフレームを連続的に出力させる。第2の映像
信号を、第1のモードと第2のモードとで同じ水平及び垂直周波数にするとより好ましい
The control unit 7 causes the video output unit 6 to set the second video signal to a common signal system in the first mode and the second mode, and continuously output the frames of the second video signal. More preferably, the second video signal has the same horizontal and vertical frequencies in the first mode and the second mode.

<撮像装置の制御プログラム>
上述したモード切換方法をコンピュータプログラムによる制御で実現する場合には、撮
像装置に搭載されているコンピュータに、次の各ステップを有する制御プログラムを実行
させればよい。
<Control program for imaging apparatus>
When the above-described mode switching method is realized by control using a computer program, a control program having the following steps may be executed by a computer mounted on the imaging apparatus.

まず、コンピュータに、撮像部3によって被写体を撮像する第1のステップを実行させ
る。次に、コンピュータに、撮像部3が被写体を撮像した撮像信号に基づいて第1の映像
信号を生成する第2のステップを実行させる。最後に、コンピュータに、第1の映像信号
に基づいて所定の信号方式の第2の映像信号を生成する第3のステップを実行させる。
First, the computer is caused to execute a first step of imaging a subject by the imaging unit 3. Next, the computer causes the imaging unit 3 to execute a second step of generating a first video signal based on an imaging signal obtained by imaging the subject. Finally, the computer is caused to execute a third step of generating a second video signal of a predetermined signal system based on the first video signal.

コンピュータが、撮像装置を第1のモードに設定させたとき、第1のステップと第2の
ステップは次のとおりである。第1のステップは、撮像部3によって、第2の映像信号の
それぞれの1フレーム期間に対応させて露光して被写体を撮像するステップである。第2
のステップは、1フレーム期間に対応させた露光に対応して読み出された撮像信号に基づ
いて、第1の映像信号のそれぞれのフレームを生成するステップである。
When the computer sets the imaging apparatus to the first mode, the first step and the second step are as follows. The first step is a step in which the imaging unit 3 captures an image of the subject by exposing in correspondence with each frame period of the second video signal. Second
This step is a step of generating each frame of the first video signal based on the imaging signal read corresponding to the exposure corresponding to one frame period.

コンピュータが、撮像装置を第2のモードに設定させたとき、第1のステップと第2の
ステップは次のとおりである。第1のステップは、撮像部3によって、第2の映像信号の
それぞれの1フレーム期間を複数の区間に分割した各区間で互いに異なる撮像条件で露光
して被写体を撮像するステップである。第2のステップは、各区間の露光に対応して読み
出された撮像信号に基づいて、前記第1の映像信号のそれぞれのフレームを生成するステ
ップである。
When the computer sets the imaging apparatus to the second mode, the first step and the second step are as follows. The first step is a step in which the imaging unit 3 exposes the subject under different imaging conditions in each section obtained by dividing each frame period of the second video signal into a plurality of sections, and images the subject. The second step is a step of generating each frame of the first video signal based on the imaging signal read corresponding to the exposure of each section.

コンピュータが、撮像装置を第1のモードから第2のモードに移行させたとき、及び、
第2のモードから第1のモードに移行させたとき、第3のステップは、第2の映像信号を
、第1のモードと第2のモードとで共通の信号方式とし、第2の映像信号のフレームを連
続的に出力するステップである。このステップにおいて、第2の映像信号を、第1のモー
ドと第2のモードとで同じ水平及び垂直周波数にするとより好ましい。
When the computer shifts the imaging device from the first mode to the second mode; and
When shifting from the second mode to the first mode, the third step is to make the second video signal a common signal system in the first mode and the second mode, and This is a step of continuously outputting the frames. In this step, it is more preferable that the second video signal has the same horizontal and vertical frequencies in the first mode and the second mode.

撮像装置の制御プログラムは、コンピュータで読み取り可能な記録媒体に記録されたコ
ンピュータプログラムであってよい。制御プログラムが記録媒体に記録された状態で提供
されてもよいし、制御プログラムをコンピュータにダウンロードさせるよう、インターネ
ット等のネットワークを介して提供されてもよい。コンピュータで読み取り可能な記録媒
体は、CD−ROM,DVD−ROM等の非一時的な任意の記録媒体でよい。
The control program for the imaging apparatus may be a computer program recorded on a computer-readable recording medium. The control program may be provided in a state of being recorded on a recording medium, or may be provided via a network such as the Internet so that the control program can be downloaded to a computer. The computer-readable recording medium may be any non-temporary arbitrary recording medium such as a CD-ROM or a DVD-ROM.

<応用例>
ところで、以上説明した本実施形態の撮像装置の動作は、赤外光を投光しながら被写体
を撮像する赤外光投光モードだけではなく、次のような場合にも応用が可能である。
<Application example>
By the way, the operation of the image pickup apparatus of the present embodiment described above can be applied not only to the infrared light projection mode in which an object is imaged while projecting infrared light, but also to the following cases.

可視光が存在する環境下で赤外光を投光しない状態であっても、第2の映像信号のそれ
ぞれの1フレーム期間を複数の区間に分割して、各区間で互いに異なる撮像条件(異なる
シャッタスピード)で露光する、いわゆる多重露光を行う場合に応用することができる。
Even in the state where infrared light is not projected in an environment where visible light exists, each frame period of the second video signal is divided into a plurality of sections, and different imaging conditions (different from each other) The present invention can be applied to the case where so-called multiple exposure is performed at a shutter speed.

即ち、第2のモードは、赤外光投光モードに限定されず、多重露光のために第2の映像
信号のそれぞれの1フレーム期間を例えば3つの区間に分割して露光して、3つの区間の
撮像信号を合成して1つの映像信号を生成する場合に利用できる。
In other words, the second mode is not limited to the infrared light projection mode, and for the multiple exposure, each frame period of the second video signal is divided into, for example, three sections and exposed. This can be used when one image signal is generated by synthesizing the image pickup signals of the sections.

本発明は以上説明した本実施形態に限定されるものではなく、本発明の要旨を逸脱しな
い範囲において種々変更可能である。上述した発明が解決しようとする課題や目的及び効
果の記載においては、本発明の理解を容易にするために、通常モードと赤外光投光モード
との切り換えについて記載した。
The present invention is not limited to the embodiment described above, and various modifications can be made without departing from the scope of the present invention. In the description of the problems, objects, and effects to be solved by the above-described invention, switching between the normal mode and the infrared light projection mode is described in order to facilitate understanding of the present invention.

しかしながら、上述のように、本実施形態の撮像装置の動作は多重露光にも応用可能で
ある。発明が解決しようとする課題、目的、効果の記載を根拠として、本発明が通常モー
ドと赤外光投光モードとの切り換えのみに適用されると限定的に解釈されるものではない
However, as described above, the operation of the imaging apparatus of the present embodiment can be applied to multiple exposure. Based on the description of the problems, objects, and effects to be solved by the invention, the present invention is not construed as being limited to being applied only to switching between the normal mode and the infrared light projection mode.

3 撮像部
5 映像処理部
6 映像出力部
3 Imaging unit 5 Video processing unit 6 Video output unit

赤外光を投光していない状態で撮像する第1のモード、又は、赤色に対応付けられた第1の波長を有する第1の赤外光が投光されている状態で撮像する第1の区間と、緑色に対応付けられた第2の波長を有する第2の赤外光が投光されている状態で撮像する第2の区間と、青色に対応付けられた第3の波長を有する第3の赤外光が投光されている状態で撮像する第3の区間とのそれぞれで撮像する第2のモードで、被写体を撮像する撮像部と、前記撮像部より出力された撮像信号に基づく所定の信号方式の映像信号を生成して出力する映像出力部とを備え、前記第2のモードから前記第1のモードへと切り換えた、少なくとも最初の区間における露光時間は、前記第2のモードにおける1つの区間における最大露光時間以下の時間であり、前記第1のモードにおけるその他の区間における最大露光時間は、前記第2のモードにおける最大露光時間よりも長いことを特徴とする撮像装置を提供する。
赤外光を投光していない状態で撮像する第1のモード、又は、赤色に対応付けられた第1の波長を有する第1の赤外光が投光されている状態で撮像する第1の区間と、緑色に対応付けられた第2の波長を有する第2の赤外光が投光されている状態で撮像する第2の区間と、青色に対応付けられた第3の波長を有する第3の赤外光が投光されている状態で撮像する第3の区間とのそれぞれで撮像する第2のモードで、被写体を撮像する撮像ステップと、前記撮像ステップにおいて撮像された撮像信号に基づく所定の信号方式の映像信号を生成して出力する映像出力ステップとを有し、前記第2のモードから前記第1のモードへと切り換えた、少なくとも最初の区間における露光時間は、前記第2のモードにおける1つの区間における最大露光時間以下の時間であり、前記第1のモードにおけるその他の区間における最大露光時間は、前記第2のモードにおける最大露光時間よりも長いことを特徴とする撮像装置の制御方法を提供する。
赤外光を投光していない状態で撮像する第1のモード、又は、赤色に対応付けられた第1の波長を有する第1の赤外光が投光されている状態で撮像する第1の区間と、緑色に対応付けられた第2の波長を有する第2の赤外光が投光されている状態で撮像する第2の区間と、青色に対応付けられた第3の波長を有する第3の赤外光が投光されている状態で撮像する第3の区間とのそれぞれで撮像する第2のモードで、被写体を撮像する撮像ステップと、前記撮像ステップにおいて撮像された撮像信号に基づく所定の信号方式の映像信号を生成して出力する映像出力ステップとをコンピュータに実行させ、前記第2のモードから前記第1のモードへと切り換えた、少なくとも最初の区間における露光時間は、前記第2のモードにおける1つの区間における最大露光時間以下の時間であり、前記第1のモードにおけるその他の区間における最大露光時間は、前記第2のモードにおける最大露光時間よりも長いことを特徴とする撮像装置の制御プログラムを提供する。
The first mode for imaging in a state where infrared light is not projected, or the first mode for imaging in a state where first infrared light having a first wavelength associated with red is projected A second section that captures an image in a state where the second infrared light having the second wavelength associated with green is projected, and a third wavelength associated with blue In the second mode in which each image is captured in the third section in which the third infrared light is projected, the imaging unit that images the subject, and the imaging signal output from the imaging unit And a video output unit that generates and outputs a video signal of a predetermined signal system based on the second mode, and the exposure time at least in the first section when switching from the second mode to the first mode is Ri maximum exposure time or less time der in one section in the mode, before Maximum exposure time is in the other sections in the first mode, to provide an imaging apparatus characterized by longer than the maximum exposure time in the second mode.
The first mode for imaging in a state where infrared light is not projected, or the first mode for imaging in a state where first infrared light having a first wavelength associated with red is projected A second section that captures an image in a state where the second infrared light having the second wavelength associated with green is projected, and a third wavelength associated with blue In the second mode in which each image is captured in the third section in which the third infrared light is projected, the imaging step for imaging the subject, and the imaging signal captured in the imaging step A video output step of generating and outputting a video signal of a predetermined signal system based on the exposure time at least in the first section when switching from the second mode to the first mode. Maximum exposure in one section in the mode The following Ri time der, the maximum exposure time in the other sections in the first mode, a control method of an imaging apparatus characterized by longer than the maximum exposure time in the second mode.
The first mode for imaging in a state where infrared light is not projected, or the first mode for imaging in a state where first infrared light having a first wavelength associated with red is projected A second section that captures an image in a state where the second infrared light having the second wavelength associated with green is projected, and a third wavelength associated with blue In the second mode in which each image is captured in the third section in which the third infrared light is projected, the imaging step for imaging the subject, and the imaging signal captured in the imaging step An image output step of generating and outputting a video signal of a predetermined signal system based on the computer, and switching from the second mode to the first mode, the exposure time in at least the first section is One section in the second mode Maximum exposure time or less time der the definitive is, providing the maximum exposure time in the other sections in the first mode, the control program of the image pickup apparatus characterized by longer than the maximum exposure time in the second mode To do.

Claims (7)

赤外光を投光していない状態で撮像する第1のモード、又は、赤色に対応付けられた第1の波長を有する第1の赤外光が投光されている状態で撮像する第1の区間と、緑色に対応付けられた第2の波長を有する第2の赤外光が投光されている状態で撮像する第2の区間と、青色に対応付けられた第3の波長を有する第3の赤外光が投光されている状態で撮像する第3の区間とのそれぞれで撮像する第2のモードで、被写体を撮像する撮像部と、
前記撮像部より出力された撮像信号に基づく所定の信号方式の映像信号を生成して出力する映像出力部と
を備え、
前記第2のモードから前記第1のモードへと切り換えた最初の区間における露光時間は、前記第2のモードにおける1つの区間における最大露光時間以下の時間である、
ことを特徴とする撮像装置。
The first mode for imaging in a state where infrared light is not projected, or the first mode for imaging in a state where first infrared light having a first wavelength associated with red is projected A second section that captures an image in a state where the second infrared light having the second wavelength associated with green is projected, and a third wavelength associated with blue An imaging unit for imaging a subject in a second mode for imaging in each of a third section for imaging in a state where the third infrared light is projected;
A video output unit that generates and outputs a video signal of a predetermined signal system based on the imaging signal output from the imaging unit;
The exposure time in the first section switched from the second mode to the first mode is a time shorter than the maximum exposure time in one section in the second mode.
An imaging apparatus characterized by that.
前記撮像部は、前記第1のモードでは、前記所定の映像信号の1フレーム期間を奇数フィールド期間と偶数フィールド期間との2つのフィールド期間に分けて被写体を撮像し、
前記最初の区間は、奇数フィールド期間である、
ことを特徴とする請求項1記載の撮像装置。
In the first mode, the imaging unit divides one frame period of the predetermined video signal into two field periods, an odd field period and an even field period, and images a subject.
The first interval is an odd field period.
The imaging apparatus according to claim 1.
前記2つのフィールド期間の最大露光時間は互いに同じ時間である、
ことを特徴とする請求項2記載の撮像装置。
The maximum exposure times of the two field periods are the same time.
The imaging apparatus according to claim 2.
前記撮像部は、
前記第1のモードから前記第2のモードへと切り換えた最初の区間の露光では、前記第1のモードにおける区間の最大露光時間の先頭から電荷を排出させて、最大露光時間を、前記第2のモードにおける1つの区間の最大露光時間と同じ時間とする、
ことを特徴とする請求項1〜3のいずれか1項に記載の撮像装置。
The imaging unit
In the exposure of the first section where the first mode is switched to the second mode, charges are discharged from the beginning of the maximum exposure time of the section in the first mode, and the maximum exposure time is set to the second exposure time. The same time as the maximum exposure time of one section in the mode of
The imaging apparatus according to any one of claims 1 to 3, wherein
前記映像出力部は、前記第1のモードと前記第2のモードとで共通の信号方式の映像信号を生成する、
ことを特徴とする請求項1〜4のいずれか1項に記載の撮像装置。
The video output unit generates a video signal of a common signal system in the first mode and the second mode;
The imaging apparatus according to any one of claims 1 to 4, wherein
赤外光を投光していない状態で撮像する第1のモード、又は、赤色に対応付けられた第1の波長を有する第1の赤外光が投光されている状態で撮像する第1の区間と、緑色に対応付けられた第2の波長を有する第2の赤外光が投光されている状態で撮像する第2の区間と、青色に対応付けられた第3の波長を有する第3の赤外光が投光されている状態で撮像する第3の区間とのそれぞれで撮像する第2のモードで、被写体を撮像する撮像ステップと、
前記撮像部より出力された撮像信号に基づく所定の信号方式の映像信号を生成して出力する映像出力ステップと
を有し、
前記第2のモードから前記第1のモードへと切り換えた最初の区間における露光時間は、前記第2のモードにおける1つの区間における最大露光時間以下の時間である、
ことを特徴とする撮像装置の制御方法。
The first mode for imaging in a state where infrared light is not projected, or the first mode for imaging in a state where first infrared light having a first wavelength associated with red is projected A second section that captures an image in a state where the second infrared light having the second wavelength associated with green is projected, and a third wavelength associated with blue An imaging step of imaging a subject in a second mode of imaging in each of a third section for imaging in a state where the third infrared light is projected;
A video output step of generating and outputting a video signal of a predetermined signal system based on the imaging signal output from the imaging unit;
The exposure time in the first section switched from the second mode to the first mode is a time shorter than the maximum exposure time in one section in the second mode.
And a method of controlling the imaging apparatus.
赤外光を投光していない状態で撮像する第1のモード、又は、赤色に対応付けられた第1の波長を有する第1の赤外光が投光されている状態で撮像する第1の区間と、緑色に対応付けられた第2の波長を有する第2の赤外光が投光されている状態で撮像する第2の区間と、青色に対応付けられた第3の波長を有する第3の赤外光が投光されている状態で撮像する第3の区間とのそれぞれで撮像する第2のモードで、被写体を撮像する撮像ステップと、
前記撮像部より出力された撮像信号に基づく所定の信号方式の映像信号を生成して出力する映像出力ステップと
をコンピュータに実行させ、
前記第2のモードから前記第1のモードへと切り換えた最初の区間における露光時間は、前記第2のモードにおける1つの区間における最大露光時間以下の時間である、
ことを特徴とする撮像装置の制御プログラム。
The first mode for imaging in a state where infrared light is not projected, or the first mode for imaging in a state where first infrared light having a first wavelength associated with red is projected A second section that captures an image in a state where the second infrared light having the second wavelength associated with green is projected, and a third wavelength associated with blue An imaging step of imaging a subject in a second mode of imaging in each of a third section for imaging in a state where the third infrared light is projected;
Causing the computer to execute a video output step of generating and outputting a video signal of a predetermined signal system based on the imaging signal output from the imaging unit;
The exposure time in the first section switched from the second mode to the first mode is a time shorter than the maximum exposure time in one section in the second mode.
A control program for an image pickup apparatus.
JP2014135764A 2014-07-01 2014-07-01 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM Active JP5692446B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014135764A JP5692446B1 (en) 2014-07-01 2014-07-01 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014135764A JP5692446B1 (en) 2014-07-01 2014-07-01 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013269096A Division JP6264029B2 (en) 2013-12-26 2013-12-26 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM

Publications (2)

Publication Number Publication Date
JP5692446B1 JP5692446B1 (en) 2015-04-01
JP2015126537A true JP2015126537A (en) 2015-07-06

Family

ID=52830782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014135764A Active JP5692446B1 (en) 2014-07-01 2014-07-01 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM

Country Status (1)

Country Link
JP (1) JP5692446B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018056881A (en) * 2016-09-30 2018-04-05 パナソニックIpマネジメント株式会社 Imaging control device, imaging control method, program and recording medium recording the same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021048464A (en) * 2019-09-18 2021-03-25 ソニーセミコンダクタソリューションズ株式会社 Imaging device, imaging system, and imaging method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006109120A (en) * 2004-10-06 2006-04-20 Funai Electric Co Ltd Infrared imaging device
JP5874116B2 (en) * 2009-07-30 2016-03-02 国立研究開発法人産業技術総合研究所 Image photographing apparatus and image photographing method
JP6011778B2 (en) * 2012-05-22 2016-10-19 株式会社富士通ゼネラル Night vision imaging apparatus, infrared irradiation apparatus, and night vision imaging system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018056881A (en) * 2016-09-30 2018-04-05 パナソニックIpマネジメント株式会社 Imaging control device, imaging control method, program and recording medium recording the same
WO2018061427A1 (en) * 2016-09-30 2018-04-05 パナソニックIpマネジメント株式会社 Imaging control device, imaging control method, program, and recording medium having same recorded thereon

Also Published As

Publication number Publication date
JP5692446B1 (en) 2015-04-01

Similar Documents

Publication Publication Date Title
JP6264233B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM
JP6264029B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM
WO2015118911A1 (en) Image-capture device, method for controlling same, image-capture system, and method for controlling same
JP6264234B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM
JP2020053771A (en) Image processing apparatus and imaging apparatus
JP6318789B2 (en) Video processing apparatus, video processing method, and video processing program
JP5692446B1 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM
JP6183238B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5943740B2 (en) IMAGING DEVICE, IMAGING METHOD, AND PROGRAM THEREOF
JP6136948B2 (en) Imaging apparatus, video signal processing method, and video signal processing program
JP5655969B1 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM
JP6344279B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND CONTROL PROGRAM
JP3399454B2 (en) Digital camera, image processing method, and recording medium recording image photographing program
JP6330704B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND CONTROL PROGRAM
JP6331966B2 (en) IMAGING DEVICE AND IMAGING DEVICE ADJUSTING METHOD
JP6221911B2 (en) Imaging apparatus, video signal processing method, and video signal processing program
JP6260512B2 (en) Imaging apparatus, imaging method, and imaging program
JP6160546B2 (en) Video processing apparatus, imaging apparatus, video processing method, and video processing program
JP2009272703A (en) Imaging apparatus, and control method thereof
JP6090217B2 (en) IMAGING SYSTEM AND IMAGING SYSTEM CONTROL METHOD
JP6299556B2 (en) Imaging apparatus, imaging method, and imaging program
WO2015115142A1 (en) Imaging device, imaging device control method, and imaging device control program
JP6090191B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2015128256A (en) Image processing system, image processing method, imaging apparatus and imaging device
JP2004289055A (en) Solid-state imaging element

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150119

R150 Certificate of patent or registration of utility model

Ref document number: 5692446

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150