JP6720971B2 - Video shooting device, video shooting method, and video shooting program - Google Patents

Video shooting device, video shooting method, and video shooting program Download PDF

Info

Publication number
JP6720971B2
JP6720971B2 JP2017524610A JP2017524610A JP6720971B2 JP 6720971 B2 JP6720971 B2 JP 6720971B2 JP 2017524610 A JP2017524610 A JP 2017524610A JP 2017524610 A JP2017524610 A JP 2017524610A JP 6720971 B2 JP6720971 B2 JP 6720971B2
Authority
JP
Japan
Prior art keywords
infrared light
image signal
light
incident
light image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017524610A
Other languages
Japanese (ja)
Other versions
JPWO2016203760A1 (en
Inventor
塚田 正人
正人 塚田
ウォーター ブロム
ウォーター ブロム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2016203760A1 publication Critical patent/JPWO2016203760A1/en
Application granted granted Critical
Publication of JP6720971B2 publication Critical patent/JP6720971B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Description

本発明は、映像撮影装置および映像撮影方法に関する。 The present invention relates to an image capturing device and an image capturing method.

デジタルカメラやビデオカメラなどの撮影装置では、通常、そのイメージセンサには赤(R)、緑(G)、青(B)の3色光学フィルタが組み込まれている。カメラに入射した光は、この3色光学フィルタにより分解され、イメージセンサによって映像信号に変換されてRGBの映像データが生成される。 In a photographing device such as a digital camera or a video camera, a red (R), green (G), and blue (B) three-color optical filter is usually incorporated in its image sensor. The light incident on the camera is decomposed by the three-color optical filter and converted into a video signal by the image sensor to generate RGB video data.

ところで、映像撮影装置に使用されているイメージセンサがシリコン系センサの場合、可視光領域の他に、近赤外領域の光に対しても感度を有している。このため、近赤外光(Near InfraRed、NIR)がイメージセンサに入射すると、RGBそれぞれの光による出力に、NIRによる出力が加算される。その結果、色再現性が低下する。そこで、一般的なデジタルカメラやデジタルビデオカメラでは、近赤外カットフィルタで近赤外光を除去し、高精度な色再現性を確保している。なお一般的な定義では、近赤外光とは、波長が概ね0.7〜2μm程度の光のことである。 By the way, when the image sensor used in the image capturing device is a silicon-based sensor, it has sensitivity to light in the near infrared region as well as the visible light region. Therefore, when near-infrared light (Near InfraRed, NIR) is incident on the image sensor, the output by NIR is added to the output by each light of RGB. As a result, color reproducibility is reduced. Therefore, in a general digital camera or digital video camera, near-infrared light is removed by a near-infrared cut filter to ensure highly accurate color reproducibility. In a general definition, near-infrared light is light having a wavelength of approximately 0.7 to 2 μm.

一方で、上記の近赤外光感度を利用して、近赤外光映像の撮影を行いたいという要望が存在する。この要望にこたえるため、可視光撮影と、近赤外光撮影とを、1つの映像撮影装置で行う方法が、種々検討されている。 On the other hand, there is a demand for taking a near-infrared light image by utilizing the above-mentioned near-infrared light sensitivity. In order to meet this demand, various methods of performing visible light photography and near-infrared light photography with a single image capturing apparatus have been studied.

もっとも単純な手法は、赤外光(InfraRed、IR)を除去するIRカットフィルタを機械的に移動する仕組みを設けることである。この場合、可視光撮影ではIRカットフィルタを光学系にセットし、夜間屋外や暗所における撮影では、IRカットフィルタを光学系から除去して近赤外光撮影を行う。このようにして、色再現性の良い可視光映像と、近赤外光映像とを、1つの映像撮影装置で取得することができる。 The simplest method is to provide a mechanism for mechanically moving an IR cut filter that removes infrared light (InfraRed, IR). In this case, the IR cut filter is set in the optical system for visible light photography, and the near infrared light photography is performed by removing the IR cut filter from the optical system for photography outdoors at night or in a dark place. In this way, it is possible to obtain a visible light image with good color reproducibility and a near-infrared light image with one image capturing device.

また、機械的動作を必要とせずに、RGB画像とNIR画像とを撮影する方法も提案されている。例えば、非特許文献1には、RGBの3色光学フィルタに加え、可視光を除去しIRを透過するIR透過フィルタを加えた4色光学フィルタを用いる方法が開示されている。すなわち、IR専用の画素を設け、IR信号を生成している。そして、生成したIR信号を用いて、R、G、Bセンサ出力からIRの寄与分を差し引き、正しいR、G,B信号を算出する。これにより、高い色再現線を確保している。また暗所撮影ではR、G、Bのイメージセンサを近赤外センサとして利用し、近赤外光のモノクロ映像を生成している。 In addition, a method of capturing an RGB image and an NIR image without requiring a mechanical operation has also been proposed. For example, Non-Patent Document 1 discloses a method of using a four-color optical filter in which an IR transmission filter that removes visible light and transmits IR is added in addition to an RGB three-color optical filter. That is, an IR dedicated pixel is provided to generate an IR signal. Then, using the generated IR signal, the contribution of IR is subtracted from the R, G, B sensor outputs, and the correct R, G, B signals are calculated. This ensures a high color reproduction line. Further, in photographing in a dark place, R, G, and B image sensors are used as near-infrared sensors to generate near-infrared light monochrome images.

また例えば、特許文献1には、半導体フォトセンサに入射した光強度の測定を、可視光強度の測定と、近赤外光強度の測定の2段階で行う方法が開示されている。可視光強度の測定は、R、G、B各色を透過する3色光学フィルタを用いて行う。これらの光学フィルタはNIRも透過する。そして、NIR強度の測定は、R、G、Bそれぞれのフォトセンサの深部(受光面から遠い部分)に設けられたNIRセンサで行う。これは、波長が長い光ほど、半導体の表面から深くまで進入して吸収されるという現象を利用したものである。つまり、可視光センシング部を透過したNIR光の強度を、NIR専用のセンサで測定している。この構成により、一つの映像撮影装置で、可視光映像、近赤外光映像、両方の撮影を可能としている。 Further, for example, Patent Document 1 discloses a method of measuring the intensity of light incident on a semiconductor photosensor in two steps, that is, measuring the intensity of visible light and measuring the intensity of near-infrared light. The visible light intensity is measured using a three-color optical filter that transmits each of R, G, and B colors. These optical filters also transmit NIR. Then, the NIR intensity is measured by the NIR sensor provided in the deep portion (the portion far from the light receiving surface) of each of the R, G, and B photosensors. This utilizes the phenomenon that light having a longer wavelength penetrates deeper into the surface of the semiconductor and is absorbed. That is, the intensity of the NIR light transmitted through the visible light sensing unit is measured by the NIR dedicated sensor. With this configuration, one image capturing device can capture both visible light images and near infrared light images.

特開2011−243862号公報JP, 2011-243862, A

香山,田中,廣瀬,“監視カメラ用昼夜兼用イメージセンサ”,Panasonic Technical Journal Vol.54,No.4,Jan.2009Kayama, Tanaka, Hirose, “Image sensor for surveillance cameras used both day and night”, Panasonic Technical Journal Vol.54, No.4, Jan.2009

しかしながら、上記の技術には、それぞれ問題点があった。 However, each of the above techniques has problems.

非特許文献1の技術は、IR専用の画素を設けている。このため同一面積のイメージセンサに適用した場合、RGB3色だけを測定する方式に比べ、RGBの画素数または画素面積が減少する。その結果、解像度もしくは感度が低下するという問題があった。 The technique of Non-Patent Document 1 is provided with a pixel dedicated to IR. Therefore, when applied to an image sensor having the same area, the number of RGB pixels or the pixel area is reduced as compared with the method of measuring only RGB three colors. As a result, there is a problem that the resolution or sensitivity is lowered.

また特許文献1の技術では、RGB各色のフォトセンサ部の下部(表面から遠い側)にNIRセンサを設けている。このため、一種類のフォトセンサを平面的に配列する構造に比べて、構造、プロセスが複雑になり、製造コストが高くなる、という問題があった。 Further, in the technique of Patent Document 1, the NIR sensor is provided below the photosensor portion for each of the RGB colors (on the side far from the surface). For this reason, there is a problem that the structure and process are more complicated and the manufacturing cost is higher than the structure in which one type of photosensor is arranged in a plane.

本発明は、上記の問題点に鑑みてなされたものであり、簡易な構成でありながら、可視光映像および近赤外光映像、両方の撮影が可能な映像撮影装置を提供することを目的としている。 The present invention has been made in view of the above problems, and an object thereof is to provide an image capturing device capable of capturing both visible light images and near-infrared light images, while having a simple configuration. There is.

上記の課題を解決するため、本発明の映像撮影装置は、受光面に入射した入射光の可視光成分と近赤外光成分の強度に応じた入射光映像信号を生成する入射光映像信号生成手段と、前記受光面の入射側に配置され前記入射光の近赤外光成分を回折させる近赤外光回折手段と、前記近赤外光が前記受光面に生成する回折パターンを抽出する回折パターン抽出手段と、前記回折パターンに基づいて算出した前記近赤外光成分の強度に応じた近赤外光映像信号を生成する近赤外光映像信号生成手段と、前記入射光映像信号と前記近赤外光映像信号とに基づいて算出した前記可視光成分の強度に応じた可視光映像信号を生成する可視光映像信号生成手段と、を有している。 In order to solve the above-mentioned problems, an image capturing apparatus of the present invention generates an incident light image signal generating an incident light image signal according to the intensities of a visible light component and a near infrared light component of incident light incident on a light receiving surface. Means, near-infrared light diffracting means arranged on the incident side of the light-receiving surface for diffracting the near-infrared light component of the incident light, and diffraction for extracting a diffraction pattern generated by the near-infrared light on the light-receiving surface. Pattern extraction means, near-infrared light image signal generation means for generating a near-infrared light image signal according to the intensity of the near-infrared light component calculated based on the diffraction pattern, the incident light image signal and the near-infrared light image signal And a visible light image signal generating means for generating a visible light image signal corresponding to the intensity of the visible light component calculated based on the near infrared light image signal.

本発明の効果は、簡易な構成でありながら、可視光および赤外光、両方で映像撮影が可能な映像撮影装置を提供できることである。 An advantage of the present invention is that it is possible to provide an image capturing device capable of capturing an image with both visible light and infrared light with a simple configuration.

第1の実施の形態の映像撮影装置を示すブロック図である。It is a block diagram which shows the video imaging device of 1st Embodiment. 第2の実施の形態の映像撮影装置を示すブロック図である。It is a block diagram which shows the video imaging device of 2nd Embodiment. 近赤外光による回折パターンの輝度分布の一例を示すグラフである。It is a graph which shows an example of the brightness|luminance distribution of the diffraction pattern by a near infrared light. 近赤外光回折手段と入射光映像信号生成手段との幾何情報を示す斜視図である。It is a perspective view which shows the geometric information of a near-infrared light diffracting means and an incident light image signal generation means. 近赤外光回折モデルにおける中心距離と強度の関係の例を示すグラフである。It is a graph which shows the example of the center distance and intensity|strength in a near infrared light diffraction model. フォトセンサアレイ上の円状パターンの分布例を示す平面図である。It is a top view showing an example of distribution of a circular pattern on a photosensor array. 直交座標から極座標への変換の例を示す図である。It is a figure which shows the example of conversion from rectangular coordinates to polar coordinates. 輝度勾配比に関するヒストグラムの一例である。It is an example of a histogram regarding a brightness gradient ratio. 輝度勾配比と近赤外光の波長に関するヒストグラムの一例である。It is an example of a histogram regarding a luminance gradient ratio and a wavelength of near-infrared light. 近赤外光成分推定動作を示すフローチャートである。It is a flowchart which shows a near-infrared light component estimation operation. 第3の実施の形態の映像撮影装置を示すブロック図である。It is a block diagram which shows the video imaging device of 3rd Embodiment. 符号型IRカットフィルタの例を示す平面図である。It is a top view showing an example of a code type IR cut filter. ベイヤ配列型カラーフィルタが組み込まれたフォトセンサアレイの一例を示す平面図である。It is a top view showing an example of a photo sensor array with which a Bayer array type color filter was incorporated. 第3の実施の形態の動作概要を示すフローチャートである。It is a flow chart which shows an outline of operation of a 3rd embodiment. デモザイキング処理の一例を説明するための平面図である。It is a top view for explaining an example of demosaicing processing. 可視光映像信号に近赤外光による円状のパターンを付加した映像信号の一例を示す平面模式図である。It is a plane schematic diagram which shows an example of the video signal which added the circular pattern by a near infrared light to the visible light video signal. 第4の実施形態の映像撮影装置を示すブロック図である。It is a block diagram which shows the video imaging device of 4th Embodiment. 第5の実施形態の映像撮影装置を示すブロック図である。It is a block diagram which shows the video imaging device of 5th Embodiment. 第6の実施形態の映像撮影装置を示すブロック図である。It is a block diagram which shows the video imaging device of 6th Embodiment.

以下、本発明の実施形態について図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.

(第1の実施形態)
図1は、第1の実施の形態の映像撮影装置100を示すブロック図である。映像撮影装置100は、近赤外光回折手段110と、入射光映像信号生成手段120と、回折パターン抽出手段130と、近赤外光映像信号生成手段140と、可視光映像信号生成手段150と、を有している。
(First embodiment)
FIG. 1 is a block diagram showing an image capturing device 100 according to the first embodiment. The image capturing apparatus 100 includes a near infrared light diffracting means 110, an incident light image signal generating means 120, a diffraction pattern extracting means 130, a near infrared light image signal generating means 140, and a visible light image signal generating means 150. ,have.

近赤外光回折手段110は、映像撮影装置100に入射した入射光10に含まれる近赤外光を回折させる。近赤外光回折手段110で回折した近赤外光は、入射光映像信号生成手段120の受光面120aに回折パターンを形成する。 The near-infrared light diffracting means 110 diffracts the near-infrared light included in the incident light 10 that has entered the image capturing apparatus 100. The near infrared light diffracted by the near infrared light diffracting means 110 forms a diffraction pattern on the light receiving surface 120 a of the incident light image signal generating means 120.

入射光映像信号生成手段120は、可視光と近赤外光の強度に応じた入射光映像信号を生成する。 The incident light image signal generation means 120 generates an incident light image signal according to the intensities of visible light and near infrared light.

回折パターン抽出手段130は、入射光映像信号に基づいて、近赤外光が受光面120aに形成する回折パターンを抽出する。 The diffraction pattern extracting means 130 extracts the diffraction pattern formed by the near infrared light on the light receiving surface 120a based on the incident light image signal.

近赤外光映像信号生成手段140は、抽出した近赤外光の回折パターンに基づいて、映像撮影装置100に入射した近赤外光強度を算出し、近赤外光映像信号を生成する。 The near-infrared light image signal generation means 140 calculates the intensity of the near-infrared light incident on the image capturing device 100 based on the extracted diffraction pattern of the near-infrared light, and generates the near-infrared light image signal.

可視光映像信号生成手段150は、入射光映像信号と、近赤外光映像信号と、に基づいて、可視光映像信号を生成する。以上の構成により、近赤外光映像信号と、可視光映像信号と、を生成することができる。 The visible light image signal generating means 150 generates a visible light image signal based on the incident light image signal and the near infrared light image signal. With the above configuration, it is possible to generate a near-infrared light image signal and a visible light image signal.

以上説明したように、本実施の形態によれば、簡易な構成の1つの映像撮影装置を用いて、可視光映像と近赤外光映像とを撮影することができる。 As described above, according to the present embodiment, it is possible to capture a visible light image and a near infrared light image by using one image capturing device having a simple configuration.

(第2の実施形態)
本実施の形態では、第1の実施の形態の映像撮影装置100の詳細について説明する。図2は、第2の実施の形態の映像撮影装置100を示すブロック図である。
(Second embodiment)
In the present embodiment, details of the video image capturing apparatus 100 of the first embodiment will be described. FIG. 2 is a block diagram showing an image capturing device 100 according to the second embodiment.

映像撮影装置100は、近赤外光回折手段110と、入射光映像信号生成手段120と、回折パターン抽出手段130と、近赤外光映像信号生成手段140と、可視光映像信号生成手段150と、を有している。 The image capturing apparatus 100 includes a near infrared light diffracting means 110, an incident light image signal generating means 120, a diffraction pattern extracting means 130, a near infrared light image signal generating means 140, and a visible light image signal generating means 150. ,have.

回折パターン抽出手段130は、回折モデル生成手段131と、輝度勾配解析手段132と、適合モデル判定手段133と、を有している。各要素の詳細については、後述する。 The diffraction pattern extraction means 130 has a diffraction model generation means 131, a brightness gradient analysis means 132, and a suitable model determination means 133. Details of each element will be described later.

近赤外光映像信号生成手段140は、回折パターン抽出手段130が抽出した回折パターンを解析して、入射した近赤外光の強度を算出し、近赤外光映像信号を生成する。 The near infrared light image signal generation means 140 analyzes the diffraction pattern extracted by the diffraction pattern extraction means 130, calculates the intensity of the incident near infrared light, and generates a near infrared light image signal.

可視光映像信号生成手段150は、入射映像信号と、近赤外光映像信と、に基づいて、可視光信号を生成する。具体的には、各画素において入射映像信号から近赤外光映像信号を差し引くことにより、可視光映像信号を得ることができる。 The visible light image signal generating means 150 generates a visible light signal based on the incident image signal and the near infrared light image signal. Specifically, a visible light image signal can be obtained by subtracting the near infrared light image signal from the incident image signal in each pixel.

以下、各要素の詳細について説明する。 The details of each element will be described below.

近赤外光回折手段110は、近赤外光をカットする近赤外光カット部と、近赤外光を透過する近赤外光透過部と、を有し、近赤外光に対して、スリットとして作用する。近赤外光透過部の形状は、例えば円形もしくは円形に近い形状とすることができる。映像撮影装置100に入射した入射光10のうちの近赤外光成分は、近赤外光回折手段110を通過することによって回折し、入射光映像信号生成手段120の受光面120a上に、明暗の回折パターンを生じる。近赤外光透過部が円形であった場合は、回折パターンは、明暗の同心円からなる円状パターンとなる。 The near-infrared light diffracting means 110 has a near-infrared light cutting portion that cuts near-infrared light and a near-infrared light transmitting portion that transmits near-infrared light. , Acts as a slit. The shape of the near-infrared light transmitting portion can be, for example, a circular shape or a shape close to a circular shape. The near-infrared light component of the incident light 10 that has entered the image capturing apparatus 100 is diffracted by passing through the near-infrared light diffracting means 110, and is bright and dark on the light receiving surface 120a of the incident light image signal generating means 120. Results in a diffraction pattern of When the near infrared light transmitting portion is circular, the diffraction pattern is a circular pattern composed of bright and dark concentric circles.

図3は1つの円状パターンの輝度分布の一例を示すグラフである。ここで(x,y)は、入射光映像信号生成手段120における直交座標であり、z軸は、その座標における輝度を表している。この円状パターンは、Fraunhofer回折として近似できる。円状パターンの中心の明るい部分はエアリーディスクと呼ばれている。 FIG. 3 is a graph showing an example of the luminance distribution of one circular pattern. Here, (x, y) is a rectangular coordinate in the incident light image signal generating means 120, and the z axis represents the luminance at that coordinate. This circular pattern can be approximated as Fraunhofer diffraction. The bright part in the center of the circular pattern is called the Airy disk.

入射光映像信号生成手段120は、受光面120aに入射した可視光と近赤外光の強度に応じた入射光映像信号を生成する。入射光映像信号生成手段120は、例えば、可視光と近赤外光とに感度を有するフォトセンサを画素とし、画素を2次元的に配列したフォトセンサアレイである。 The incident light image signal generating means 120 generates an incident light image signal corresponding to the intensities of visible light and near infrared light incident on the light receiving surface 120a. The incident light image signal generation means 120 is, for example, a photo sensor array in which photo sensors having sensitivity to visible light and near infrared light are used as pixels, and the pixels are two-dimensionally arranged.

回折パターン抽出手段130は、入射光映像信号を解析して、近赤外光が形成する回折パターンを抽出する。そのために、回折モデル生成手段131と、輝度勾配解析手段132と、適合モデル判定手段133と、を有している。 The diffraction pattern extraction means 130 analyzes the incident light image signal and extracts the diffraction pattern formed by the near infrared light. For that purpose, it has a diffraction model generation means 131, a brightness gradient analysis means 132, and an adapted model determination means 133.

回折モデル生成手段131は、理論計算、例えばFraunhofer近似によって、近赤外光の回折モデルを生成する。 The diffraction model generation means 131 generates a diffraction model of near-infrared light by theoretical calculation, for example, Fraunhofer approximation.

輝度勾配解析手段132は、入射光映像信号の各座標における輝度勾配を解析する。解析においては、ある座標における入射光映像信号の輝度勾配と、生成した回折モデルの当該座標に対応する位置での輝度勾配の比を算出する処理などを行う。詳細は後述する。 The brightness gradient analysis unit 132 analyzes the brightness gradient at each coordinate of the incident light image signal. In the analysis, a process of calculating the ratio between the brightness gradient of the incident light image signal at a certain coordinate and the brightness gradient at the position of the generated diffraction model corresponding to the coordinate is performed. Details will be described later.

適合モデル判定手段133は、回折モデルと輝度勾配解析結果とに基づいて、入射光映像信号に含まれる円状パターンに適合する回折モデルを判定する。これにより、回折パターンが抽出される。 The adapted model determination means 133 determines a diffractive model adapted to the circular pattern included in the incident light image signal based on the diffractive model and the result of the brightness gradient analysis. Thereby, the diffraction pattern is extracted.

近赤外光映像信号生成手段140は、適合する回折モデルに基づいて、当該座標に入射した近赤外光の強度と波長を推定する。その推定結果から、近赤外光映像信号を生成する。 The near-infrared light image signal generation means 140 estimates the intensity and wavelength of the near-infrared light incident on the coordinates based on the matching diffraction model. A near infrared image signal is generated from the estimation result.

次に、回折パターン抽出手段130が、回折パターンを抽出し、近赤外光映像信号生成手段140が、近赤外光映像信号を生成する方法について説明する。 Next, a method in which the diffraction pattern extraction unit 130 extracts the diffraction pattern and the near-infrared light image signal generation unit 140 generates the near-infrared light image signal will be described.

いま、近赤外光回折手段110が有する一つの近赤外光透過部に、波長λ、入射強度Iの近赤外光が入射したとする。その際の、入射光映像信号生成手段120の受光面120a上の強度I(x)は、以下の式であらわされる。

Figure 0006720971
Now, it is assumed that the near-infrared light having the wavelength λ and the incident intensity I 0 is incident on one near-infrared light transmitting portion of the near-infrared light diffracting means 110. At that time, the intensity I(x) on the light receiving surface 120a of the incident light image signal generating means 120 is expressed by the following formula.

Figure 0006720971

ここで、J(x)は次数1の第1種ベッセル関数、Cは補正係数、xは式(2)の通りである。

Figure 0006720971
Here, J 1 (x) is a Bessel function of the first kind of order 1, C is a correction coefficient, and x is as in Expression (2).

Figure 0006720971

ここで、aは、近赤外光回折手段110の近赤外光を透過させる部分の半径である。qはその部分の中心から入射光映像信号生成手段120に垂直におろした点から当該点までの、受光面120a上における距離である。Rは近赤外光を透過させる部分の中心から受光面120aに垂直におろした点から、受光面120a上で距離q離れた点との距離を示している。これらの幾何情報を図4に示す。 Here, a is the radius of the portion of the near-infrared light diffracting means 110 that transmits near-infrared light. q is the distance on the light-receiving surface 120a from the point perpendicular to the incident light image signal generating means 120 to the point from the center of the portion. R represents the distance from the point perpendicular to the light receiving surface 120a from the center of the portion that transmits near infrared light to the point on the light receiving surface 120a that is a distance q away. These pieces of geometric information are shown in FIG.

いま、入射強度Iを正規化して、式(1)および式(2)で表現できる回折パターンを、回折モデルと呼ぶこととする。Now, the diffraction pattern that can be expressed by Expression (1) and Expression (2) by normalizing the incident intensity I 0 will be referred to as a diffraction model.

図5は、ある波長を仮定して計算した時の、回折モデルの一例である。回折モデルは、受光面120a上で生じる円状パターンの強度Iと、円状パターンの中心からの距離qとの関係を表している。ここでは、式(1)における補正係数Cが、C1(実線)、C2(破線)の2例を示している。補正係数Cは、実際の映像信号に生成される円状パターンに一致するように調整する係数である。 FIG. 5 is an example of a diffraction model when calculated assuming a certain wavelength. The diffraction model represents the relationship between the intensity I of the circular pattern generated on the light receiving surface 120a and the distance q from the center of the circular pattern. Here, the correction coefficient C in Formula (1) shows two examples of C1 (solid line) and C2 (broken line). The correction coefficient C is a coefficient that is adjusted so as to match the circular pattern generated in the actual video signal.

次に、入射光映像信号生成手段120が生成した入射光映像信号から、近赤外光成分を推定する方法について説明する。ここでは、入射光映像信号生成手段120が、可視光と近赤外光に感度を有するフォトセンサを画素として、複数の画素を2次元的に配列したフォトセンサアレイ121であるとする。また、近赤外光回折手段110は、フォトセンサアレイ121上に、複数の円状パターンを生成するものとする。また、このとき、それぞれの円状パターンが、互いに重ならないようにする。図6は、この様子を模式的に表したものである。 Next, a method of estimating the near-infrared light component from the incident light image signal generated by the incident light image signal generating means 120 will be described. Here, it is assumed that the incident light image signal generating means 120 is a photosensor array 121 in which a plurality of pixels are two-dimensionally arranged with a photosensor having sensitivity to visible light and near infrared light as a pixel. Further, the near infrared light diffracting means 110 is assumed to generate a plurality of circular patterns on the photo sensor array 121. At this time, the circular patterns are prevented from overlapping each other. FIG. 6 schematically shows this state.

近赤外光成分の推定に当たっては、まず、図6に破線で示したように、入射光映像信号を、1つの円状パターン20が含まれるように領域を分割する。次いで、各領域の入射光映像信号について、直交座標系の強度I(x,y)を、円状パターン20の中心を極とし、動径rと偏角θによって表される極座標系の強度I(r,θ)に変換する。図7は、入射光映像信号の、直交座標系から極座標系への変換過程を図示したものである。なお、強度I(x,y)は、入射光映像信号生成手段120で受光する輝度と言い換えることもできる。以降、強度と輝度とは同じ意味で用いる。 In estimating the near-infrared light component, first, as shown by the broken line in FIG. 6, the area of the incident light image signal is divided so that one circular pattern 20 is included. Next, with respect to the incident light image signal of each region, the intensity I(x, y) of the rectangular coordinate system is represented by the radius r and the angle of deviation θ with the center of the circular pattern 20 as a pole. Convert to (r, θ). FIG. 7 illustrates a process of converting an incident light image signal from a rectangular coordinate system to a polar coordinate system. The intensity I(x, y) can be restated as the brightness received by the incident light image signal generation means 120. Hereinafter, intensity and brightness will be used interchangeably.

次に、極座標系の各座標(r,θ)に対して、円状パターンの中心方向における輝度勾配を算出する。輝度勾配は、隣接するフォトセンサ(画素)が検出する輝度の傾きであり、画素の位置するそれぞれの座標に対して定義される。 Next, the brightness gradient in the center direction of the circular pattern is calculated for each coordinate (r, θ) in the polar coordinate system. The brightness gradient is a slope of brightness detected by an adjacent photosensor (pixel), and is defined for each coordinate where the pixel is located.

一方、回折モデルに対しても輝度勾配を算出する。まず、ある波長を仮定した時に、式(1)および式(2)で表現される回折モデルパターンを作成する。次いで、中心からの距離を変数とした強度(輝度とみなしてよい)の勾配を算出する。ここで、回折モデルは同心円状であるため、強度は中心からの距離のみで決まる。このため、角度方向については考慮しなくてよい。 On the other hand, the brightness gradient is also calculated for the diffraction model. First, assuming a certain wavelength, a diffraction model pattern expressed by the equations (1) and (2) is created. Next, the gradient of intensity (which may be regarded as luminance) with the distance from the center as a variable is calculated. Here, since the diffraction model is concentric, the intensity is determined only by the distance from the center. Therefore, it is not necessary to consider the angular direction.

次に、極座標系の輝度勾配を用いて近赤外光成分を推定する方法について説明する。入射光映像信号は可視光成分と近赤外光成分の両方を含んでいる。このため、輝度の絶対値は可視光成分に大きく左右される。しかしながら、極座標系における輝度勾配を取ることにより、可視光成分の影響を抑えることができる。そして円状パターンにおける全座標について輝度勾配を求めて統計処理することにより、近赤外光成分のみで生成される円状パターンを抽出することが可能となる。 Next, a method of estimating the near infrared light component using the brightness gradient of the polar coordinate system will be described. The incident light image signal includes both a visible light component and a near infrared light component. Therefore, the absolute value of the brightness is greatly influenced by the visible light component. However, the influence of the visible light component can be suppressed by taking the brightness gradient in the polar coordinate system. Then, by obtaining the luminance gradient for all coordinates in the circular pattern and performing statistical processing, it becomes possible to extract the circular pattern generated only by the near-infrared light component.

具体的には、極座標系における入射光映像信号の輝度勾配を、所定刻みで全方向に渡って算出し、その輝度勾配に適合する回折モデルを求める。そして、その回折モデルから、近赤外光の強度および波長を推定する。以下に、その方法を説明する。 Specifically, the brightness gradient of the incident light image signal in the polar coordinate system is calculated at predetermined intervals in all directions, and a diffraction model suitable for the brightness gradient is obtained. Then, the intensity and wavelength of near infrared light are estimated from the diffraction model. The method will be described below.

<入射近赤外光強度の推定>
まず、近赤外光領域のある波長を仮定し式(1)、(2)を用いて回折モデルを作成する。強度の単位は任意であるが、例えば8ビットで表して、正規化された入射強度Iを255とすることができる。
<Estimation of incident near infrared light intensity>
First, assuming a certain wavelength in the near-infrared light region, a diffraction model is created using equations (1) and (2). The unit of the intensity is arbitrary, but the normalized incident intensity I 0 can be set to 255 by representing it by 8 bits, for example.

次に、入射光映像信号の各座標位置(r,θ)における輝度勾配と、その中心からの距離が一致する点における回折モデルの輝度勾配との比bを計算する。輝度勾配比の計算は、所定刻みに全方向で行う。また領域内の全画素について行う。

Figure 0006720971
Next, the ratio b between the brightness gradient at each coordinate position (r, θ) of the incident light image signal and the brightness gradient of the diffraction model at the point where the distance from the center coincides is calculated. The brightness gradient ratio is calculated in all directions at predetermined intervals. Also, this is performed for all the pixels in the area.

Figure 0006720971

そして、算出した全ての輝度勾配比bを集計して、図8に示したような輝度勾配比の出現個数に関するヒストグラムを作成する。このヒストグラムから、最も高い頻度を示す輝度勾配比bを求める。この輝度勾配比bは、入射近赤外光強度Iと回折モデルパターンの最大強度Iの比と同等とみなせる。このため、式(4)が成り立つとすることができる。そして、式(5)によって推定される近赤外光の強度Iを計算する。

Figure 0006720971

Figure 0006720971
Then, all the calculated brightness gradient ratios b are aggregated to create a histogram relating to the number of appearances of the brightness gradient ratio as shown in FIG. From the histogram, determining the intensity gradient ratio b m indicating the most frequently. This brightness gradient ratio b m can be regarded as equivalent to the ratio of the incident near infrared light intensity I 1 and the maximum intensity I 0 of the diffraction model pattern. Therefore, the equation (4) can be established. Then, the intensity I 1 of the near infrared light estimated by the equation (5) is calculated.

Figure 0006720971

Figure 0006720971

以上のようにして、入射した近赤外光成分の強度を推定することができる。そして、輝度勾配を利用することで、対象とする領域における近赤外成分以外の成分、すなわち可視光による映像信号の輝度の不連続性(エッジなど)の影響を抑制することできる。 As described above, the intensity of the incident near-infrared light component can be estimated. Then, by using the brightness gradient, it is possible to suppress the influence of a component other than the near-infrared component in the target region, that is, the discontinuity (edge or the like) of the brightness of the video signal due to visible light.

以上の計算処理は、1つの円状パターンを含むように設定された1つの領域について行ったものである。同様の計算を、入射光映像信号の全ての領域に対して実行し、各領域における近赤外成分の強度を算出する。 The above calculation process is performed for one area set to include one circular pattern. The same calculation is executed for all the regions of the incident light image signal to calculate the intensity of the near infrared component in each region.

<入射近赤外光波長の推定>
次に、入射した近赤外光の波長を推定するために、波長λをパラメータとして、上記と同様の、近赤外光強度を求める計算を行う。
<Estimation of incident near-infrared light wavelength>
Next, in order to estimate the wavelength of the incident near-infrared light, the calculation for obtaining the near-infrared light intensity similar to the above is performed using the wavelength λ as a parameter.

まず、近赤外光の波長領域を網羅する波長領域について、回折モデルを式(1)および式(2)に基づいて生成する。ここで、近赤外光の波長領域を網羅する波長領域については、例えば、700nmより10nm間隔で離散的に取っても良い。この計算により、所定波長ごとに回折モデルが得られる。 First, for a wavelength range that covers the wavelength range of near-infrared light, a diffraction model is generated based on equations (1) and (2). Here, the wavelength region covering the wavelength region of near-infrared light may be discretely set at intervals of 10 nm from 700 nm, for example. By this calculation, a diffraction model is obtained for each predetermined wavelength.

そして、入射光映像信号における、1つの円状パターンを含むように設定された1つの領域について、入射光映像信号と回折モデルとの輝度勾配比を計算する。ここでは、式(3)に基づいて、入射光映像信号の各座標(r,θ)における輝度勾配と、その中心からの距離が一致する回折モデルにおける輝度勾配との比を計算する。次いで、輝度勾配比のヒストグラムを作成する。1つの波長に対して1つのヒストグラムが作成される。そして、波長を変えて同様のヒストグラムを作成することで、図9に示すように、選択した波長の数だけヒストグラムが作成される。 Then, the brightness gradient ratio between the incident light image signal and the diffraction model is calculated for one region set in the incident light image signal so as to include one circular pattern. Here, the ratio between the brightness gradient at each coordinate (r, θ) of the incident light image signal and the brightness gradient in the diffraction model having the same distance from the center is calculated based on the equation (3). Next, a histogram of the brightness gradient ratio is created. One histogram is created for one wavelength. Then, by changing the wavelength and creating a similar histogram, as shown in FIG. 9, histograms are created by the number of selected wavelengths.

次に、作成されたヒストグラムを解析し、そのヒストグラムの大きい方から1個以上の波長および輝度勾配の比の組み合わせを選択する。そして、選択した波長を式(5)に代入して、対象の領域における近赤外光の入射強度を計算する。こうして1つの領域における、近赤外光成分の、波長と、入射光強度と、を算出することができる。選択する波長と輝度勾配のセットが複数の場合には、セット毎に近赤外光成分の入射光強度を算出して加算すればよい。 Next, the created histogram is analyzed, and one or more combinations of wavelength and luminance gradient ratios are selected from the largest of the histograms. Then, the selected wavelength is substituted into the equation (5) to calculate the incident intensity of near infrared light in the target region. In this way, the wavelength and the incident light intensity of the near infrared light component in one region can be calculated. When there are a plurality of sets of wavelengths and brightness gradients to be selected, the incident light intensity of the near infrared light component may be calculated and added for each set.

同様の計算を、入射光映像信号で、1つの円状パターンを含むように設定された各領域で行い、各領域における近赤外光の波長および入射強度を算出する。 The same calculation is performed for each area set to include one circular pattern with the incident light image signal, and the wavelength and the incident intensity of near infrared light in each area are calculated.

以上により、近赤外光回折手段に設けられたすべての近赤外光透過部に入射する近赤外光の、波長と強度とを算出できる。すなわち、近赤外光映像信号が生成できる。 From the above, it is possible to calculate the wavelength and the intensity of the near-infrared light incident on all the near-infrared light transmitting parts provided in the near-infrared light diffracting means. That is, a near infrared light image signal can be generated.

図10は、上記に説明した1つの領域における近赤外光映像信号生成動作をまとめたフローチャートである。なお、このフローチャートは領域分割と極座標変換を行った後の動作を示している。以下、このフローチャートについて説明する。 FIG. 10 is a flowchart summarizing the near-infrared light image signal generation operation in one area described above. It should be noted that this flowchart shows the operation after performing the region division and the polar coordinate conversion. The flowchart will be described below.

まず、近赤外光領域のある波長を仮定して回折モデルを作成する(S1)。次に、入射光映像信号と回折モデルの輝度勾配比を座標ごとに計算する(S2)。次に得られた輝度勾配比のヒストグラムを作成する(S3)。次に最頻値を与える輝度勾配から近赤外光の入射強度を推定する(S4)。次に、近赤外光領域を網羅する複数の所定波長で回折モデルを作成する(S5)。次に、各波長の回折モデルと入射光映像信号との輝度勾配比を、各座標で計算する(S6)。次に輝度勾配比を計算した波長ごとに、輝度勾配のヒストグラムを作成する(S7)。次にヒストグラムのピークを示す輝度勾配から、入射した近赤外光の波長を推定する(S8)。以上により、近赤外光の波長と強度を推定する。 First, a diffraction model is created assuming a certain wavelength in the near infrared light region (S1). Next, the brightness gradient ratio between the incident light image signal and the diffraction model is calculated for each coordinate (S2). Next, a histogram of the obtained brightness gradient ratio is created (S3). Next, the incident intensity of near-infrared light is estimated from the brightness gradient giving the mode value (S4). Next, a diffraction model is created with a plurality of predetermined wavelengths covering the near infrared light region (S5). Next, the brightness gradient ratio between the diffraction model of each wavelength and the incident light image signal is calculated at each coordinate (S6). Next, a histogram of the brightness gradient is created for each wavelength for which the brightness gradient ratio has been calculated (S7). Next, the wavelength of the incident near-infrared light is estimated from the brightness gradient showing the peak of the histogram (S8). From the above, the wavelength and intensity of near infrared light are estimated.

以上説明したように、本実施の形態によれば、一般的な簡易構成のフォトセンサアレイを用いた1台の映像撮影装置で、可視光映像と、近赤外光映像との両方を、撮影することができる。 As described above, according to the present embodiment, one visible-light image and near-infrared-light image are captured by a single image capturing device using a photosensor array having a general simple configuration. can do.

(第3の実施形態)
図11は、本発明第3の実施の形態の映像撮影装置100Aを示すブロック図である。本実施の形態の映像撮影装置100Aは、可視光のカラー映像信号と近赤外光映像の、両方を生成する。映像撮影装置100Aは、近赤外光回折手段として、符号型IRカットフィルタ110aを有している。また、入射光映像信号生成手段120は、複数のフォトセンサが平面的に配置されたフォトセンサアレイ121と、フォトセンサアレイ121の光入射側に設けたカラーフィルタアレイ122と、を有する。さらに、回折パターン抽出手段130と、近赤外光映像信号生成手段140と、可視光映像信号生成手段150と、を有している。図11のR、G、B、NIRは、それぞれ、赤、緑、青、近赤外信号を表している。ここでは、フォトセンサアレイ121で、R+NIR、G+NIR、B+NIR信号が生成され、近赤外光映像信号生成手段140でNIR映像信号が生成される様子を矢印で示している。また、可視光映像信号生成手段150で、R、G,B信号が生成される様子を矢印で示している。動作の詳細については、後述する。
(Third Embodiment)
FIG. 11 is a block diagram showing an image capturing device 100A according to the third embodiment of the present invention. The image capturing apparatus 100A of the present embodiment generates both a color image signal of visible light and a near infrared light image. The image capturing apparatus 100A has a code type IR cut filter 110a as a near infrared light diffracting means. Further, the incident light image signal generating means 120 includes a photo sensor array 121 in which a plurality of photo sensors are arranged in a plane, and a color filter array 122 provided on the light incident side of the photo sensor array 121. Further, it has a diffraction pattern extraction means 130, a near infrared light image signal generation means 140, and a visible light image signal generation means 150. R, G, B, and NIR in FIG. 11 represent red, green, blue, and near infrared signals, respectively. Here, arrows show how the photosensor array 121 generates R+NIR, G+NIR, and B+NIR signals, and the near-infrared light image signal generation means 140 generates NIR image signals. Also, the way in which the visible light image signal generating means 150 generates R, G, B signals is indicated by arrows. Details of the operation will be described later.

次に、各要素の具体的な構成について説明する。 Next, a specific configuration of each element will be described.

図12は、符号型IRカットフィルタ110aを示す平面図である。符号型IRカットフィルタ110aは、近赤外光カット部111と、近赤外光透過部112と、を有している。すなわち、符号型とは、透過とカットの2値を意味している。符号型IRカットフィルタ110aは、カラーフィルタアレイ122の光進行方向前側に設けられる。これにより入射光が赤外透過部12を通過する際、近赤外光の回折が発生する。 FIG. 12 is a plan view showing the code type IR cut filter 110a. The coded IR cut filter 110a includes a near infrared light cut section 111 and a near infrared light transmission section 112. That is, the code type means a binary value of transmission and cut. The coded IR cut filter 110a is provided on the front side of the color filter array 122 in the light traveling direction. As a result, when the incident light passes through the infrared transmission section 12, diffraction of near infrared light occurs.

近赤外光カット部111は近赤外光を透過せず、可視光を透過する。 The near-infrared light cut unit 111 does not transmit near-infrared light but transmits visible light.

近赤外光透過部112は、近赤外光を透過する。上述したように、近赤外光透過部112は、円状もしくはそれに近い形である。近赤外光がフォトセンサアレイ面上に形成する複数の円状パターンは、互いに重ならないようにする。式(1)、(2)に基づけば、おおよその回折光の広がりが予測できる。上記の条件を満たすように、近赤外光透過部112を配置し、また、符号型IRカットフィルタ110aと入射光映像信号生成手段120との距離を設定する。この条件が満たされる範囲において、近赤外光透過部の配置は任意である。 The near infrared light transmitting unit 112 transmits near infrared light. As described above, the near infrared light transmitting portion 112 has a circular shape or a shape close thereto. The circular patterns formed by the near-infrared light on the photosensor array surface should not overlap each other. Based on the equations (1) and (2), the approximate spread of the diffracted light can be predicted. The near-infrared light transmitting portion 112 is arranged so that the above condition is satisfied, and the distance between the code type IR cut filter 110a and the incident light image signal generating means 120 is set. The arrangement of the near-infrared light transmitting portion is arbitrary as long as this condition is satisfied.

このような符号型IRカットフィルタ110aを用いることにより、入射光映像信号生成手段120の受光面に、所定の大きさの円状パターンを、所定の位置に、複数形成することができる。なお、近赤外光カット部112のサイズは、必ずしもフォトセンサの1画素のサイズに一致しなくてもよい。また、近赤外光透過部112は、可視光も透過することが望ましいが、可視光を不透過としても本実施の形態は成立する。 By using such a code type IR cut filter 110a, a plurality of circular patterns having a predetermined size can be formed at a predetermined position on the light receiving surface of the incident light image signal generating means 120. Note that the size of the near-infrared light cut unit 112 does not necessarily have to match the size of one pixel of the photo sensor. Further, although it is desirable that the near-infrared light transmitting portion 112 also transmit visible light, the present embodiment is established even if visible light is not transmitted.

フォトセンサアレイ121は、第2の実施の形態と同様にフォトセンサを2次元的に配置したものであり、各フォトセンサ(画素)は可視光および近赤外光に感度を有している。 The photosensor array 121 is one in which photosensors are two-dimensionally arranged as in the second embodiment, and each photosensor (pixel) is sensitive to visible light and near infrared light.

カラーフィルタ122は、例えばR(赤)、G(緑),B(青)をそれぞれ透過するカラーフィルタが、フォトセンサに対応する位置に設けられたアレイ状に配置している。また、各カラーフィルタは近赤外光も透過する。なお、カラーフィルタは、C(シアン)、M(マジェンタ)、Y(イエロ)などの補色を用いるタイプの物であっても良い。ここでは、R、G、B、の例を用いて説明する。 As the color filter 122, for example, color filters that transmit R (red), G (green), and B (blue), respectively, are arranged in an array provided at positions corresponding to the photosensors. Further, each color filter also transmits near infrared light. The color filter may be of a type that uses complementary colors such as C (cyan), M (magenta), and Y (yellow). Here, an example of R, G, and B will be described.

図13は、カラーフィルタアレイ122の構成の一例を示す平面図である。前述したように、各カラーフィルタは、それぞれが透過する色の可視光の他に、近赤外光も透過する。このことを明確にするため図13では、各画素を「色+NIR」の形で記載している。R+NIRは赤とNIRとを透過し、G+NIRは緑とNIRを透過し、B+NIRは青とNIRを透過するカラーフィルタである。入射光映像信号生成手段120では、それぞれのカラーフィルタに対応する位置にはフォトセンサが設けられる。なお、1つのカラーフィルタに対応するフォトセンサは1つであっても良いし、複数であっても良い。図13に示した各色のカラーフィルタの配列は、ベイヤ配列と呼ばれるものであり、R画素1つ、G画素2つ、B画素1つで、1ユニットを形成し、このユニットを周期的に配列したものである。図13では、縦2×横3の6ユニット分を例示している。 FIG. 13 is a plan view showing an example of the configuration of the color filter array 122. As described above, each color filter also transmits near-infrared light in addition to visible light of the color transmitted by each color filter. In order to clarify this, in FIG. 13, each pixel is described in the form of “color+NIR”. R+NIR is a color filter transmitting red and NIR, G+NIR is transmitting green and NIR, and B+NIR is a color filter transmitting blue and NIR. In the incident light image signal generating means 120, a photo sensor is provided at a position corresponding to each color filter. Note that the number of photosensors corresponding to one color filter may be one or more. The array of color filters of each color shown in FIG. 13 is called a Bayer array, and one R pixel, two G pixels, and one B pixel form one unit, and this unit is arranged periodically. It was done. In FIG. 13, 6 units of vertical 2×horizontal 3 are illustrated.

符号型IRカットフィルタ110aおよびカラーフィルタ122を透過した光は、フォトセンサにてR+NIR、G+NIR、B+NIRの3色信号に変換される。 The light transmitted through the code type IR cut filter 110a and the color filter 122 is converted by the photosensor into three color signals of R+NIR, G+NIR, and B+NIR.

以上の構成により、各色に符号型IRカットフィルタ110aによる近赤外光の回折パターンが付加された入射光映像信号が形成される。 With the above configuration, an incident light image signal in which a diffraction pattern of near infrared light by the code type IR cut filter 110a is added to each color is formed.

本実施の形態では、第2の実施の形態と同様にして、回折パターン抽出手段130が上記の回折パターンを抽出し、近赤外光映像信号生成手段140が、近赤外光映像信号を生成する。動作の詳細については後述する。 In this embodiment, similar to the second embodiment, the diffraction pattern extraction unit 130 extracts the above diffraction pattern, and the near infrared light image signal generation unit 140 generates the near infrared light image signal. To do. Details of the operation will be described later.

可視光映像信号生成手段150は、入射光映像信号と、近赤外光映像信号とに基づいて、R、G、B、色信号を生成する。 The visible light image signal generating means 150 generates R, G, B, and color signals based on the incident light image signal and the near infrared light image signal.

次に、動作について説明する。図14は、動作の概要を示すフローチャートである。以下に、このフローチャートを説明する。 Next, the operation will be described. FIG. 14 is a flowchart showing the outline of the operation. The flowchart will be described below.

まず入射光映像信号生成手段が入射光映像信号を生成する(S101)。入射光映像信号は、R、G、B、3色の映像信号であるが、それぞれの信号には、近赤外光成分が含まれている。次に、各画素で欠けている色の補間(デモザイキング処理)を行い、R+NIR、G+NIR、B+NIRそれぞれのプログレッシブ映像信号を生成する(S102)。ここで、プログレッシブ映像信号とは、上記のデモザイキング処理によって得られた、各色の映像信号であると定義する。次に各色のプログレッシブ映像信号を第2の実施の形態と同様に解析して、これらに含まれる近赤外光映像信号を抽出・生成する(S103)。次に、各プログレッシブ映像信号と、近赤外光映像信号とに基づいて、R、G、B、各色の単色の映像信号を生成する(S104)。以上により、3色の可視光映像信号と、近赤外光映像と、を生成することができる。 First, the incident light image signal generating means generates an incident light image signal (S101). The incident light image signal is an image signal of R, G, B, and three colors, and each signal includes a near infrared light component. Next, interpolation (demosaicing processing) of the missing color in each pixel is performed to generate progressive video signals of R+NIR, G+NIR, and B+NIR (S102). Here, the progressive video signal is defined as a video signal of each color obtained by the above demosaicing processing. Next, the progressive video signals of each color are analyzed in the same manner as in the second embodiment, and the near-infrared light video signals included in these are extracted and generated (S103). Next, based on each progressive video signal and near-infrared light video signal, a monochromatic video signal of R, G, B, or each color is generated (S104). As described above, it is possible to generate a visible light image signal of three colors and a near infrared light image.

次に各動作の詳細について説明する。 Next, the details of each operation will be described.

<デモザイキング処理>
まず、欠けている色を補間するデモザイキング処理について説明する。なお、以下に説明するデモザイキング処理は、あくまで一例であり、他の方法を用いてもよい。
<Demosaicing processing>
First, the demosaicing process for interpolating a missing color will be described. The demosaicing processing described below is merely an example, and other methods may be used.

図15はベイヤ配列の1ユニットで行うデモザイキング処理を説明するための平面模式図である。R画素が1つ、G画素が2つ、B画素が1つの4つの画素で1つのユニットが構成されている。なお、ここでの画素はカラーフィルタとフォトセンサのセットであるものとする。それぞれの画素では、R+NIR、G+NIR、B+NIRの光を検出する。ここで、1つの画素に注目すると、対象とする色以外の色は検出されない。このため周辺の画素の輝度を用いて、欠けている色の信号を補間する。なお、この時点でのR、G、B色信号にはNIR成分も含まれているが、説明を簡略化する為、R、G、B色信号として説明する。 FIG. 15 is a schematic plan view for explaining the demosaicing process performed by one unit in the Bayer array. One unit is composed of four R pixels, two G pixels, and one B pixel. Note that the pixel here is a set of a color filter and a photo sensor. Light of R+NIR, G+NIR, and B+NIR is detected in each pixel. Here, focusing on one pixel, no color other than the target color is detected. Therefore, the luminance of the peripheral pixels is used to interpolate the signal of the missing color. Note that the R, G, B color signals at this point also include NIR components, but in order to simplify the description, they will be described as R, G, B color signals.

座標(1,1)の画素は、Rに対応し、直接、R信号を生成する。

R(1,1)=R(1,1) (6)

座標(1,1)の画素に存在しないG信号、B信号については、例えば、以下のように周辺画素の色信号から補間して算出する。

G(1,1)=(G(2,1)+ G(1,2))/2 (7)
B(1,1)=B(2,2) (8)

次いで、座標(1,2)の画素の映像信号(R、G、B色信号)を生成する。

座標(1,2)の画素は、Gに対応し、直接、G信号を生成する。
G(1,2)=G(1,2) (9)

座標(1,2)の画素に存在しないR信号、B信号についても、R画素の場合と同様に、周辺画素の色情報から補間して算出する。

R(1,2)=R(1,1) (10)
B(1,2)=B(2,2) (11)
The pixel at the coordinates (1, 1) corresponds to R and directly generates the R signal.

R(1,1)=R(1,1) (6)

The G signal and the B signal which do not exist in the pixel of the coordinates (1, 1) are calculated by interpolating from the color signals of the peripheral pixels as follows, for example.

G(1,1)=(G(2,1)+G(1,2))/2 (7)
B(1,1)=B(2,2) (8)

Next, the video signals (R, G, B color signals) of the pixel at the coordinates (1, 2) are generated.

The pixel at the coordinate (1,2) corresponds to G and directly generates the G signal.
G(1,2)=G(1,2) (9)

The R signal and the B signal that do not exist in the pixel at the coordinates (1, 2) are also calculated by interpolating from the color information of the peripheral pixels, as in the case of the R pixel.

R(1,2)=R(1,1) (10)
B(1,2)=B(2,2) (11)

上記と同様の処理を繰り返し、全ての画素について映像データ(R、G、B色信号)を生成する。なお、デモザイキング処理については、上記手法に限らず、様々な手法を用いることができる。以上により、すべての画素にR、G、B色情報が設定されたプログレッシブ映像信号が得られる。 The same processing as above is repeated to generate video data (R, G, B color signals) for all pixels. The demosaicing process is not limited to the above method, and various methods can be used. As described above, a progressive video signal in which R, G, and B color information is set in all pixels can be obtained.

ここで、可視光成分R、G、Bは、符号型IRカットフィルタ110aにおける赤外透過部112の影響を受けない(回折しない)。このため、撮影シーンの情報がそのままカラーフィルタアレイ122およびフォトセンサアレイ121に照射される。そして照射された光から、R+NIR、G+NIR、B+NIRの3色信号で構成される入射光映像信号が生成される。この時生成された、すべての画素にR、G、B、3色の信号が設定されたプログレッシブ信号には、円状パターンの近赤外光の成分が含まれている。そこで、これらのR+NIR、G+NIR、B+NIRの各信号成分をIR+NIR、IG+NIR、IB+NIRで表すこととする。Here, the visible light components R, G, and B are not affected (not diffracted) by the infrared transmission part 112 in the code type IR cut filter 110a. Therefore, the information of the shooting scene is directly applied to the color filter array 122 and the photo sensor array 121. Then, an incident light image signal composed of three color signals of R+NIR, G+NIR, and B+NIR is generated from the irradiated light. The progressive signal generated at this time, in which signals of R, G, B, and three colors are set in all pixels, includes a near-infrared light component in a circular pattern. Therefore, these R+NIR, G+NIR, and B+NIR signal components are represented by I R+NIR , I G+NIR , and I B+NIR .

図16は、R、G、B、各色について得られた、プログレッシブ信号を示す平面模式図である。プログレッシブR映像信号1R、プログレッシブG映像信号1G、プログレッシブB映像信号1B、には、それぞれ近赤外光の円状パターンが含まれている。図ではこの様子を模式的に示している。 FIG. 16 is a schematic plan view showing progressive signals obtained for R, G, and B colors. The progressive R video signal 1R, the progressive G video signal 1G, and the progressive B video signal 1B each include a circular pattern of near infrared light. This is schematically shown in the figure.

<近赤外映像信号成分の生成>
上述したように、R、G、B、各色のプログレッシブ信号には、近赤外光成分の円状パターンが含まれている。それぞれの近赤外光成分の推定を、第2の実施の形態と同様にして行う。すなわち、R、G、Bプログレッシブ信号を用いて、図10のフローチャートと同様の処理を行う。これにより、3つのプログレッシブ信号から得られた3つの近赤外光映像信号を抽出・生成する。ここで、Rプログレッシブ信号1Rから得られたNIR信号をNIR_R信号、と呼ぶこととする。同様に、Gプログレッシブ信号1Gから得られたNIR信号をNIR_G信号、Bプログレッシブ信号1Bから得られたNIR信号をNIR_B信号、と呼ぶこととする。そして、それぞれの信号成分を、INIR_R、INIR_G、INIR_B、で表すこととする。
<Generation of near infrared image signal component>
As described above, the progressive signals of R, G, B, and colors include a circular pattern of near-infrared light components. The estimation of each near infrared light component is performed in the same manner as in the second embodiment. That is, the same processing as that in the flowchart of FIG. 10 is performed using the R, G, and B progressive signals. As a result, three near-infrared light image signals obtained from the three progressive signals are extracted and generated. Here, the NIR signal obtained from the R progressive signal 1R will be referred to as NIR_R signal. Similarly, the NIR signal obtained from the G progressive signal 1G is called the NIR_G signal, and the NIR signal obtained from the B progressive signal 1B is called the NIR_B signal. Then, each signal component is represented by I NIR_R , I NIR_G , and I NIR_B .

<可視光映像信号および近赤外映像信号の生成>
各画素において、各色のプログレッシブ信号成分から、近赤外光成分を差し引くことにより、R、G、B、単色の色成分を得ることができる。それぞれの色成分をI、I、Iと呼ぶこととすると、これらの成分は以下の式によって算出することができる。

=IR+NIR−INIR_R (12)
=IG+NIR−INIR_G (13)
=IB+NIR−INIR_B (14)

また、近赤外光成分単色の成分INIRは、次式で表すことができる。

NIR=INIR_R+INIR_G+INIR_B (15)

なお、式(15)の各項については、デモザイキング処理の仕方を反映した重み付けを行っても良い。
<Generation of visible light image signal and near infrared image signal>
In each pixel, R, G, B, and monochromatic color components can be obtained by subtracting the near-infrared light component from the progressive signal component of each color. When the respective color components are called I R , I G , and I B , these components can be calculated by the following formulas.

I R =I R +NIR −I NIR_R (12)
I G =I G +NIR −I NIR_G (13)
I B = I B + NIR -I NIR_B (14)

Further, the near-infrared light component monochromatic component I NIR can be expressed by the following equation.

I NIR =I NIR_R +I NIR_G +I NIR_B (15)

It should be noted that each item of Expression (15) may be weighted to reflect the method of the demosaicing process.

以上により、各画素についてR、G、B、NIR、4色の映像信号成分を抽出することができる。そして全画素の信号成分を用いて、上記4色の映像データを生成することができる。 As described above, R, G, B, NIR, and four color video signal components can be extracted from each pixel. Then, by using the signal components of all pixels, it is possible to generate the video data of the above four colors.

以上、説明したように、本実施の形態によれば、IRフィルタを機械的に移動したり、特殊なフォトセンサを用いたりしない、簡易な構成の映像撮影装置で、可視光カラー映像信号および近赤外映像信号を同時に生成することができる。 As described above, according to the present embodiment, a visible light color video signal and a near-light color video signal and a near-light color video signal are obtained with a video camera having a simple structure without mechanically moving the IR filter or using a special photo sensor. Infrared video signals can be generated at the same time.

<変形例>
上述の実施形態では、近赤外光成分INIRを、IR+NIR、IG+NIR、IB+NIR、3つのプログレッシブ信号を用いて算出したが、特定の色の信号を用いて算出することも可能である。特に、画素がRGBベイヤ配列型の場合、Gチャネルの情報が他のカラーチャネルの2倍あるため、デモザイキング処理後のGチャネルのみを利用する方法が有効である。
<Modification>
In the above-described embodiment, the near infrared light component I NIR is calculated using three progressive signals, I R+NIR , I G+NIR , and I B+NIR , but it is also possible to calculate using a signal of a specific color. .. In particular, when the pixels are of the RGB Bayer array type, the information of the G channel is twice as large as that of the other color channels. Therefore, it is effective to use only the G channel after the demosaicing process.

つまり、プログレッシブ信号のR成分R+NIR、B成分IB+NIRには、厳密にはNIR情報が含まれるが、微小であるためこれを無視し、IR+NIRをR信号I、IB+NIRをB信号Iと見なす。そして、NIRのみの成分INIRを次式により算出する。

NIR=INIR_G (16)

なお、G信号の映像データIについては、式(13)により算出する。
That is, the progressive signal R component R + NIR, the B component I B + NIR, although strictly speaking include NIR information, ignore it because it is very small, I R + NIR an R signal I R, I Consider B+NIR as B signal I B. Then, the component I NIR of only NIR is calculated by the following equation.

I NIR =I NIR_G (16)

The video data I G of the G signal is calculated by the equation (13).

符号型IRカットフィルタ1では、円状パターンが形成される位置を制御できる。そこで、円状パターンが、G画素を中心形成されるように、近赤外光透過部を配置すれば、IR+NIR、およびIB+NIに含まれるNIR成分が小さくなり、これらを無視しても影響は小さくなる。また、近赤外光透過部の形状および配置を、カラーフィルタおよびフォトセンサの1画素のサイズ程度にすれば、さらに影響を小さくすることができる。The coded IR cut filter 1 can control the position where the circular pattern is formed. Therefore, if the near-infrared light transmitting part is arranged so that the circular pattern is formed centering on the G pixel, the NIR components contained in IR +NIR and IB +NI will be small, and even if these are ignored, there is an effect. Becomes smaller. Further, the influence can be further reduced by setting the shape and arrangement of the near-infrared light transmitting portion to about the size of one pixel of the color filter and the photo sensor.

(第4の実施形態)
図17は、第4の実施形の態の映像撮影装置100Bのブロック図である。映像撮影装置100Bは、第3の実施の形態の映像撮影装置100Aに符号化情報メモリ134を追加した構成となっている。符号化情報メモリ134は、回折パターン抽出手段130に接続する。なお、符号型IRカットフィルタ110a、カラーフィルタアレイ122、フォトセンサアレイ121は、映像撮影装置100Aと同じものであるため、ここでは、符号化情報メモリ134および回折パターン抽出手段130について説明する。
(Fourth Embodiment)
FIG. 17 is a block diagram of the image capturing device 100B according to the fourth embodiment. The video image capturing apparatus 100B has a configuration in which a coded information memory 134 is added to the video image capturing apparatus 100A of the third embodiment. The encoded information memory 134 is connected to the diffraction pattern extraction means 130. Since the coded IR cut filter 110a, the color filter array 122, and the photo sensor array 121 are the same as those in the image capturing device 100A, the coded information memory 134 and the diffraction pattern extraction means 130 will be described here.

符号化情報メモリ134は、近赤外光によって形成される円状パターンに関する情報を記録する。具体的には、円状パターンの中心座標と、大きさと、符号型IRカットフィルタ110aとフォトセンサアレイ121との間の距離と、を記録する。 The coded information memory 134 records information about a circular pattern formed by near infrared light. Specifically, the center coordinates of the circular pattern, the size, and the distance between the coded IR cut filter 110a and the photosensor array 121 are recorded.

近赤外光が、符号型IRカットフィルタ110aに配置された近赤外光透過部112を透過すると、回折によって、フォトセンサ3上に円状のパターンが形成される。 When the near-infrared light passes through the near-infrared light transmitting portion 112 arranged in the code type IR cut filter 110a, a circular pattern is formed on the photo sensor 3 by diffraction.

この円状のパターンは、近赤外光の波長、赤外透過部12の大きさ、符号型IRカットフィルタ110aとフォトセンサアレイ121との間の距離によって決まる。したがって、これらのパラメータを決定すれば、円状パターンの中心座標および大きさを、計算もしくはキャリブレーションを行うことによって予め把握することができる。 This circular pattern is determined by the wavelength of near-infrared light, the size of the infrared transmission part 12, and the distance between the code type IR cut filter 110a and the photosensor array 121. Therefore, if these parameters are determined, the center coordinates and the size of the circular pattern can be grasped in advance by performing calculation or calibration.

上記の方法で把握した、赤外透過部12の大きさ、フォトセンサアレイ121上における円状のパターンの中心の座標位置、円状パターンの大きさ、等を有する符号化情報を、符号化情報メモリ5に記録する。記録された符号化情報を用いることで、円状パターンが形成される受光面上の位置を推定し、解析を行うための領域を決定することができる。 The coded information having the size of the infrared transmission part 12, the coordinate position of the center of the circular pattern on the photo sensor array 121, the size of the circular pattern, and the like, which is grasped by the above method, is coded information. Record in the memory 5. By using the recorded coded information, it is possible to estimate the position on the light receiving surface where the circular pattern is formed and determine the region for analysis.

この構成で、可視光映像信号および近赤外光映像信号を生成する。生成方法は、第3の実施の形態と同様である。このとき、符号化情報メモリ134に記録されている符号化情報を利用することで、処理を簡略化することができる。 With this configuration, a visible light image signal and a near infrared light image signal are generated. The generation method is the same as in the third embodiment. At this time, the processing can be simplified by using the coded information recorded in the coded information memory 134.

以上説明したように、本実施形態によれば、第3実施形態と同様の効果を、容易に得ることができる。 As described above, according to this embodiment, the same effect as that of the third embodiment can be easily obtained.

(第5の実施形態)
第3および第4の実施の形態では、ベイヤ配列型の光学フィルタにより分光する映像撮影装置について説明したがが、本発明はベイヤ配列型に限定されない。本実施の形態では、3板式映像撮影装置に適用した例を示す。
(Fifth Embodiment)
In the third and fourth embodiments, the image capturing device that performs the spectrum by the Bayer array type optical filter has been described, but the present invention is not limited to the Bayer array type. In the present embodiment, an example applied to a three-plate image capturing device is shown.

図18は、3板式の映像撮影装置101のブロック図である。映像撮影装置101は、符号型IRカットフィルタ110aと、プリズム160と、3種の入射光映像信号生成手段120R、G、Bと、を有している。また、回折パターン抽出手段130と、近赤外光映像信号生成手段140と、可視光映像信号生成手段150と、を有している。 FIG. 18 is a block diagram of a three-plate type image capturing device 101. The image capturing device 101 includes a code type IR cut filter 110a, a prism 160, and three types of incident light image signal generating means 120R, G, and B. Further, it has a diffraction pattern extraction means 130, a near infrared light image signal generation means 140, and a visible light image signal generation means 150.

プリズム160は、色分解手段であり、図18の例ではG光を直進させ、B光を図面下方に進行させ、R+NIR光を図面上方に進行させている。なお、図18に描画されたプリズム160の形状は、実際の形状を表しているわけではなく、概念的なものである。また、プリズム160が光をコリメートする光学系を備えていても良く、プリズム160の入射側にはカメラレンズ170が設けられていても良い。プリズム160およびカメラレンズ170は、3板式映像撮影装置で一般的に使用されているもので良い。 The prism 160 is a color separation unit, and in the example of FIG. 18, G light travels straight, B light travels downward in the drawing, and R+NIR light travels upward in the drawing. Note that the shape of the prism 160 drawn in FIG. 18 does not represent the actual shape, but is conceptual. Further, the prism 160 may include an optical system that collimates light, and a camera lens 170 may be provided on the incident side of the prism 160. The prism 160 and the camera lens 170 may be those generally used in the three-plate type image capturing device.

それぞれの色の光の進路には、その色専用の入射光映像信号生成手段が設けられている。入射光映像信号生成手段120Gは、G映像信号を生成する。入射光映像信号生成手段120Bは、B映像信号を生成する。そして、入射光映像信号生成手段120Rは、R+NIR映像信号を生成する。120Rの光入射側には、符号型IRカットフィルタ110aが設けられている。この構成により、120Rで生成される映像信号には、近赤外光の円状パターンが含まれている。それぞれの入射光映像信号生成手段に用いるフォトセンサは、3板式映像撮影装置で一般的に使用されているフォトセンサで良い。 In the path of the light of each color, an incident light image signal generating means dedicated to that color is provided. The incident light image signal generating means 120G generates a G image signal. Incident light image signal generating means 120B generates a B image signal. Then, the incident light image signal generating means 120R generates an R+NIR image signal. A code type IR cut filter 110a is provided on the light incident side of 120R. With this configuration, the video signal generated at 120R includes a circular pattern of near infrared light. The photosensor used for each incident light image signal generating means may be a photosensor generally used in a three-plate image capturing device.

符号型IRカットフィルタ110aは、例えば第2乃至第4の実施形態のいずれかで用いたものを適用する。符号型IRカットフィルタ110aは、3つの入射光映像信号生成手段のうち少なくとも1つに対し、光進行方向前側に設けられる。図18の例では、R対応の入射光映像信号生成手段120Rに対応して設けている。これにより近赤外光の回折が発生する。 As the code type IR cut filter 110a, for example, the one used in any of the second to fourth embodiments is applied. The code type IR cut filter 110a is provided on the front side in the light traveling direction with respect to at least one of the three incident light image signal generating means. In the example of FIG. 18, it is provided corresponding to the incident light image signal generating means 120R corresponding to R. This causes diffraction of near infrared light.

なお、符号型IRカットフィルタが設置されていない残り2つの入射光映像信号生成手段に対して、プリズム160から漏れる可能性のある近赤外光をカットするために、通常の近赤外カットフィルタを設置してもよい。これにより、色再現性を確保することができる。 A normal near-infrared cut filter is provided for the remaining two incident light image signal generating means not provided with the coded IR cut filter in order to cut near-infrared light that may leak from the prism 160. May be installed. Thereby, color reproducibility can be secured.

次に動作について説明する。なお、ここでは、プリズム160で分光されるG、Bの光には近赤外光は含まれていないとして説明する。 Next, the operation will be described. Here, it is assumed that the G and B lights split by the prism 160 do not include near infrared light.

カメラレンズ170を通じて、映像撮影装置101に入射する光は、プリズム160により、波長帯域が異なるR、G、Bの光に分解される。Rに対応する光は入射光映像信号生成手段120Rに入射し、Gに対応する光は入射光映像信号生成手段120Gに入射し、Bに対応する光は入射光映像信号生成手段120Bに入射する。 Light incident on the image capturing apparatus 101 through the camera lens 170 is decomposed into R, G, and B lights having different wavelength bands by the prism 160. The light corresponding to R is incident on the incident light image signal generating means 120R, the light corresponding to G is incident on the incident light image signal generating means 120G, and the light corresponding to B is incident on the incident light image signal generating means 120B. ..

このとき、Rに対応する光は、符号型IRカットフィルタ110aの近赤外光透過部で近赤外光成分が回折する。そして、入射光映像信号生成手段120Rにおいて、NIRを含んだR+NIRの映像信号が生成される。すなわち、上記構成により、近赤外光による円状のパターンが複数付加されたR+NIR映像信号が生成される。 At this time, the light corresponding to R has its near-infrared light component diffracted by the near-infrared light transmitting portion of the code type IR cut filter 110a. Then, the incident light image signal generating means 120R generates an R+NIR image signal including NIR. That is, with the above configuration, an R+NIR video signal to which a plurality of circular patterns of near infrared light are added is generated.

回折パターン抽出手段130と、近赤外光映像信号生成手段140とは、R+NIR映像信号を受信して、NIR映像信号を生成する。そしてNIR映像信号とR+NIR映像信号を出力する。可視光映像生成手段150は、R+NIR映像信号からNIR映像信号を差し引いて、単色のR映像信号を生成する。以上により、4色映像データ(R、G、B、NIR)を生成することができる。 The diffraction pattern extraction means 130 and the near infrared light video signal generation means 140 receive the R+NIR video signal and generate an NIR video signal. Then, the NIR video signal and the R+NIR video signal are output. The visible light image generating means 150 subtracts the NIR image signal from the R+NIR image signal to generate a monochromatic R image signal. As described above, 4-color video data (R, G, B, NIR) can be generated.

本実施形態の映像撮影装置101は、一般的な3板式撮影装置の構成であり、特殊なデバイスを必要としていない。また、符号型IRカットフィルタ1は、一般的なカットフィルタに簡単な改造を加えたものであり、簡素な構成である。すなわち、簡素な構成によって、可視光映像信号と近赤外光映像信号の両方を生成できる。このため複雑な構成や特殊なデバイスを用いる方法に比べて、生産コスト低減や故障率軽減が期待できる。また、近赤外光が強く飽和してしまう状況下でも、近赤外光を回折によって分散させることで飽和を抑制し、見かけのダイナミックレンジを広げることが可能となる。 The video image capturing apparatus 101 of the present embodiment has a configuration of a general three-plate type image capturing apparatus and does not require a special device. Further, the coded IR cut filter 1 is a simple cut filter that is a simple modification and has a simple structure. That is, both a visible light image signal and a near infrared light image signal can be generated with a simple configuration. Therefore, reduction in production cost and reduction in failure rate can be expected as compared with the method using a complicated configuration or a special device. Further, even in a situation where near-infrared light is strongly saturated, it is possible to suppress saturation by dispersing near-infrared light by diffraction and widen the apparent dynamic range.

(第6の実施の形態)
第5の実施の形態では、本発明を、3板式映像撮影装置に適用する例を示したが、本発明は、積層型フォトセンサを有する映像撮影装置にも適用できる。
(Sixth Embodiment)
In the fifth embodiment, an example in which the present invention is applied to a three-plate type image capturing device has been shown, but the present invention can also be applied to an image capturing device having a laminated photo sensor.

図19は、本実施の形態における映像撮影装置102のブロック図である。
映像撮影装置102は、符号型IRカットフィルタ110aと、R、G、B専用の入射光映像信号生成手段120R、120G、120Bが積層された積層型入射光映像信号生成手段120Sと、を有している。また回折パターン抽出手段130と、近赤外光映像信号生成手段140と、可視光映像信号生成手段150と、を有している。積層型入射光映像信号生成手段120Sには、例えば、一般的な積層型センサ式映像撮影装置に使用されている積層型センサを使用することができる。図19の例では、光進行方向に対し各フォトセンサを、120B、120G、120Rの順で積層している。
FIG. 19 is a block diagram of the video image capturing apparatus 102 according to this embodiment.
The image capturing device 102 includes a coded IR cut filter 110a and a laminated incident light image signal generation unit 120S in which incident light image signal generation units 120R, 120G and 120B dedicated to R, G and B are laminated. ing. Further, it has a diffraction pattern extraction means 130, a near infrared light image signal generation means 140, and a visible light image signal generation means 150. As the laminated incident light image signal generating means 120S, for example, a laminated sensor used in a general laminated sensor type image capturing device can be used. In the example of FIG. 19, the photosensors are stacked in the order of 120B, 120G, and 120R in the light traveling direction.

符号型IRカットフィルタ110aは、第2〜第3実施形態のいずれかで用いたものを適用することができる。110aは、120Sに対し、光進行方向前側に設けられる。 As the code type IR cut filter 110a, the one used in any of the second to third embodiments can be applied. 110a is provided on the front side in the light traveling direction with respect to 120S.

映像撮影装置102に入射する光は、波長帯域が異なるR、G、BおよびNIRの光を含む。Bに対応する光は120BによりB+NIR映像信号に変換され、Gに対応する光は120GによりG+NIR映像信号に変換され、RおよびNIRに対応する光は120RによりR+NIR映像信号に変換される。これら、R,G,B+NIR映像信号には、符号型IRカットフィルタ110aで回折したNIRが形成した円状パターンが含まれている。 The light incident on the image capturing device 102 includes R, G, B, and NIR lights having different wavelength bands. Light corresponding to B is converted to a B+NIR video signal by 120B, light corresponding to G is converted to a G+NIR video signal by 120G, and light corresponding to R and NIR is converted to an R+NIR video signal by 120R. These R, G, B+NIR video signals include a circular pattern formed by NIR diffracted by the coded IR cut filter 110a.

そして、他の実施の形態と同様、回折パターン抽出手段130によって円状パターンが抽出され、近赤外光映像生成手段130によって近赤外光映像信号が生成される。すなわち、積層型入射光映像信号生成手段120Sから入力されるR+NIR、G+NIR、B+NIR映像信号に基づいて、NIR映像信号を生成する。その方法は第3、第4の実施の形態の方法と同様である。 Then, as in the other embodiments, the circular pattern is extracted by the diffraction pattern extraction means 130, and the near infrared light image signal is generated by the near infrared light image generation means 130. That is, the NIR video signal is generated based on the R+NIR, G+NIR, and B+NIR video signals input from the laminated incident light video signal generation means 120S. The method is similar to the methods of the third and fourth embodiments.

以上の構成により、全ての画素について、R、G、B、NIR、4色の映像信号を生成することができる。 With the above configuration, video signals of R, G, B, NIR, and four colors can be generated for all pixels.

以上説明したように、本実施の形態によっても、第5の実施の形態と同様の効果を得ることができる。 As described above, according to the present embodiment, the same effect as that of the fifth embodiment can be obtained.

上記実施形態において、各部をハードウェアで構成してもよいし、コンピュータプログラムにより実現してもよい。この場合、プログラムメモリに格納されているプログラムで動作するプロセッサによって、上述と同様の機能、動作を実現させる。また、一部の機能のみをコンピュータプログラムにより実現してもよい。 In the above embodiment, each unit may be configured by hardware or may be realized by a computer program. In this case, a processor operating with a program stored in the program memory realizes the same function and operation as described above. Further, only some of the functions may be realized by a computer program.

以上の第1から第6の実施形態の処理をコンピュータに実行させるプログラムおよび該プログラムを格納した記録媒体も本発明の範囲に含む。記録媒体としては、例えば、磁気ディスク、磁気テープ、光ディスク、光磁気ディスク、半導体メモリ、などを用いることができる。 A program that causes a computer to execute the processes of the above first to sixth embodiments and a recording medium that stores the program are also included in the scope of the present invention. As the recording medium, for example, a magnetic disk, a magnetic tape, an optical disk, a magneto-optical disk, a semiconductor memory, or the like can be used.

以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上記実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。 The present invention has been described above using the above-described embodiment as an exemplary example. However, the present invention is not limited to the above embodiment. That is, the present invention can apply various aspects that can be understood by those skilled in the art within the scope of the present invention.

この出願は、2015年6月17日に出願された日本出願特願2015−121588を基礎とする優先権を主張し、その開示の全てをここに取り込む。
(付記1)
受光面に入射した入射光の可視光成分と近赤外光成分の強度に応じた入射光映像信号を生成する入射光映像信号生成手段と、前記受光面の入射側に配置され前記入射光の近赤外光成分を回折させる近赤外光回折手段と、前記近赤外光が前記受光面に生成する回折パターンを抽出する回折パターン抽出手段と、前記回折パターンに基づいて算出した前記近赤外光成分の強度に応じた近赤外光映像信号を生成する近赤外光映像信号生成手段と、前記入射光映像信号と前記近赤外光映像信号とに基づいて算出した前記可視光成分の強度に応じた可視光映像信号を生成する可視光映像信号生成手段と、を有することを特徴とする映像撮影装置。
(付記2)
前記近赤外光回折手段が、近赤外光をカットし可視光を透過する近赤外光カット部と、近赤外光を透過する近赤外光透過部と、を有することを特徴とする付記1に記載の映像撮影装置。
(付記3)
前記近赤外光回折手段が、前記近赤外光透過部を複数有する、ことを特徴とする付記2に記載の映像撮影装置。
(付記4)
前記近赤外光透過部の形状が略円形である、ことを特徴とする付記2または付記3に記載の映像撮影装置。
(付記5)
前記近赤外光回折手段の情報と、前記受光面上に前記回折パターンが発生する位置の情報と、を記憶する情報メモリを有する、ことを特徴とする付記1乃至付記4いずれか一付記に記載の映像撮影装置。
(付記6)
前記近赤外光映像信号生成手段が、近赤外光の回折モデルを生成する回折モデル生成手段と、前記入射光映像信号の輝度勾配を解析する輝度勾配解析手段と、前記輝度勾配の解析結果に適合する回折モデルを判定する適合回折モデル判定手段と、前記適合回折モデルに基づいて入射した近赤外光の強度を推定する入射近赤外光強度推定手段と、を有することを特徴とする付記1乃至付記5いずれか一付記に記載の映像撮影装置。
(付記7)
前記近赤外光映像信号生成手段が、前記適合回折モデルに基づいて入射した近赤外光の波長を推定する入射近赤外光波長推定手段、を有することを特徴とする付記6に記載の映像撮影装置。
(付記8)
前記輝度勾配解析手段が、前記入射光映像信号を、前記回折パターンを1つ含む領域ごとに分割する領域分割手段と、分割した領域の座標を前記回折パターンの中心を原点とする極座標に変換する座標変換手段と、を有することを特徴とする付記6または付記7に記載の映像撮影装置。
(付記9)
前記輝度勾配解析手段が、前記入射光映像信号のある座標における輝度勾配と、前記回折モデルの前記ある座標に対応する位置での輝度勾配と、の比である輝度勾配比を算出する輝度勾配比算出手段を有する、ことを特徴とする付記8に記載の映像撮影装置。
(付記10)
前記輝度勾配解析手段が、前記分割した領域内の複数の座標で生成した前記輝度勾配比を統計処理する輝度勾配比統計処理手段を有する、ことを特徴とする付記9に記載の映像撮影装置。
(付記11)
前記適合回折モデル判定手段が、前記起動勾配比統計処理手段の統計処理結果に基づいて判定を行う、ことを特徴とする付記10に記載の映像処理装置。
(付記12)
前記入射光映像信号生成手段が、入射光を複数色の可視光に分離して強度に応じた信号を生成することを特徴とする付記1乃至付記11いずれか一付記に記載の映像撮影装置。
(付記13)
前記近赤外光映像信号生成手段が、前記複数色の色毎に近赤外光映像信号を生成する、ことを特徴とする付記12に記載の映像撮影装置。
(付記14)
前記第入射光映像信号生成手段がシリコン系フォトセンサを有する、ことを特徴とする付記1乃至付記13いずれか一付記に記載の映像撮影装置。
(付記15)
受光面の入射側に配置された近赤外光回折手段によって入射光の近赤外光成分を回折させ、前記受光面に入射した前記入射光の可視光成分と近赤外光成分の強度に応じた入射光映像信号を生成し、前記近赤外光が前記受光面に生成する回折パターンを抽出し、前記回折パターンに基づいて算出した前記近赤外光成分の強度に応じた近赤外光映像信号を生成し、前記入射光映像信号と前記近赤外光映像信号とに基づいて前記可視光成分の強度に応じた可視光映像信号を生成する、ことを特徴とする映像撮影方法。
(付記16)
前記入射光の前記近赤外光成分を、近赤外光をカットし可視光を透過する近赤外光カット部と近赤外光を透過する近赤外光透過部とを有する符号型IRカットフィルタで回折させる、ことを特徴とする付記15に記載の映像撮影方法。
(付記17)
前記近赤外光透過部を複数有する前記符号型IRカットフィルタを用いる、ことを特徴とする付記16に記載の映像撮影方法。
(付記18)
前記近赤外光透過部が略円形の前記符号型IRカットフィルタを用いる、ことを特徴とする付記16または付記17に記載の映像撮影方法。
(付記19)
前記近赤外光回折手段の情報と前記入射光映像信号生成手段上に前記回折パターンが発生する位置情報とをメモリに記憶する、ことを特徴とする付記15乃至付記18いずれか一付記に記載の映像撮影方法。
(付記20)
近赤外光の回折モデルを生成し、前記入射光映像信号の輝度勾配を解析し、前記輝度勾配の解析結果に適合する回折モデルを判定し、前記適合する回折モデルに基づいて入射した近赤外光の強度を推定する、ことを特徴とする付記15乃至付記19いずれか一付記に記載の映像撮影方法。
(付記21)
前記適合する回折モデルに基づいて入射した近赤外光の波長を推定する、ことを特徴とする付記20に記載の映像撮影方法。
(付記22)
前記入射光映像信号を、前記回折パターンを1つ含む領域ごとに分割し、分割した領域の座標を前記回折パターンの中心を原点とする極座標に変換する、ことを特徴とする付記17乃至付記21いずれか一付記に記載の映像撮影方法。
(付記23)
前記入射光映像信号のある座標における輝度勾配と前記回折モデルの前記ある座標に対応する位置での輝度勾配との比である輝度勾配比を算出する、ことを特徴とする付記22に記載の映像撮影方法。
(付記24)
前記分割した領域内の複数の座標で生成した前記輝度勾配比を統計処理する、ことを特徴とする付記23に記載の映像撮影方法。
(付記25)
前記輝度勾配比の前記統計処理の結果に基づいて前記適合する回折モデルの判定を行う、ことを特徴とする付記24に記載の映像撮影方法。
(付記26)
入射光を複数色の可視光に分離して強度に応じた信号を生成する、ことを特徴とする付記15乃至付記25いずれか一付記に記載の映像撮影方法。
(付記27)
前記複数色の色毎に近赤外光映像信号を生成する、ことを特徴とする付記26に記載の映像撮影方法。
(付記28)
前記入射光映像信号をシリコン系フォトセンサで生成する、ことを特徴とする付記15乃至付記27いずれか一付記に記載の映像撮影方法。
(付記29)
受光面の入射側に配置された近赤外光回折手段によって入射光の近赤外光成分を回折させるステップと、前記受光面に入射した前記入射光の可視光成分と近赤外光成分の強度に応じた入射光映像信号を生成するステップと、前記近赤外光が前記受光面に生成する回折パターンを抽出するステップと、前記回折パターンに基づいて算出した前記近赤外光成分の強度に応じた近赤外光映像信号を生成するステップと、前記入射光映像信号と前記近赤外光映像信号とに基づいて前記可視光成分の強度に応じた可視光映像信号を生成するステップと、を有することを特徴とする映像撮影プログラム。
(付記30)
近赤外光の回折モデルを生成するステップと、前記入射光映像信号の輝度勾配を解析するステップと、前記輝度勾配の解析結果に適合する回折モデルを判定するステップと、前記適合する回折モデルに基づいて入射した近赤外光の強度を推定するステップと、を有することを特徴とする付記29に記載の映像撮影プログラム。
(付記31)
前記入射光映像信号を、前記回折パターンを1つ含む領域ごとに分割するステップと、分割した領域の座標を前記回折パターンの中心を原点とする極座標に変換するステップと、を有することを特徴とする付記29または付記30に記載の映像撮影プログラム。
(付記32)
前記入射光映像信号のある座標における輝度勾配と前記回折モデルの前記ある座標に対応する位置での輝度勾配との比である輝度勾配比を算出するステップ、を有することを特徴とする付記31に記載の映像撮影プログラム。
(付記33)
前記分割した領域内の複数の座標で生成した前記輝度勾配比を統計処理するステップと、前記統計処理の結果に基づいて前記適合する回折モデルの判定を行うステップと、を有することを特徴とする付記32に記載の映像撮影プログラム。
(付記34)
入射光を複数色の可視光に分離して感知するステップ、を有することを特徴とする付記29乃至付記33いずれか一付記に記載の映像撮影プログラム。
This application claims the priority on the basis of Japanese application Japanese Patent Application No. 2015-121588 for which it applied on June 17, 2015, and takes in those the indications of all here.
(Appendix 1)
Incident light image signal generating means for generating an incident light image signal according to the intensities of the visible light component and the near infrared light component of the incident light incident on the light receiving surface, and the incident light image signal generating means arranged on the incident side of the light receiving surface. Near-infrared light diffracting means for diffracting a near-infrared light component, diffraction pattern extracting means for extracting a diffraction pattern generated by the near-infrared light on the light-receiving surface, and the near-red light calculated based on the diffraction pattern Near-infrared light image signal generating means for generating a near-infrared light image signal according to the intensity of the external light component, and the visible light component calculated based on the incident light image signal and the near-infrared light image signal And a visible light image signal generating means for generating a visible light image signal according to the intensity of the image capturing device.
(Appendix 2)
The near-infrared light diffracting means includes a near-infrared light cutting portion that cuts near-infrared light and transmits visible light, and a near-infrared light transmitting portion that transmits near-infrared light. The image capturing device according to appendix 1.
(Appendix 3)
The image capturing apparatus according to appendix 2, wherein the near infrared light diffracting unit has a plurality of the near infrared light transmitting portions.
(Appendix 4)
4. The image capturing device according to attachment 2 or attachment 3, wherein the near-infrared light transmitting portion has a substantially circular shape.
(Appendix 5)
An additional information memory for storing information on the near-infrared light diffracting means and information on a position where the diffraction pattern is generated on the light receiving surface is added. The image capturing device described.
(Appendix 6)
The near-infrared light image signal generation means is a diffraction model generation means for generating a diffraction model of near-infrared light, a brightness gradient analysis means for analyzing a brightness gradient of the incident light image signal, and an analysis result of the brightness gradient. And an incident near-infrared light intensity estimating unit for estimating the intensity of incident near-infrared light based on the adaptive diffraction model. The image capturing device according to any one of appendices 1 to 5.
(Appendix 7)
7. The near-infrared light image signal generation means includes incident near-infrared light wavelength estimation means for estimating the wavelength of near-infrared light that has entered based on the adaptive diffraction model. Video shooting device.
(Appendix 8)
The brightness gradient analyzing means converts the incident light image signal into area dividing means for dividing the incident light image signal into areas including one of the diffraction patterns, and coordinates of the divided areas into polar coordinates having the center of the diffraction pattern as an origin. The image capturing device according to appendix 6 or 7, further comprising: coordinate conversion means.
(Appendix 9)
The brightness gradient analysis means calculates a brightness gradient ratio which is a ratio of a brightness gradient at a coordinate of the incident light image signal and a brightness gradient at a position corresponding to the coordinate of the diffraction model. 9. The image capturing device according to appendix 8, further comprising a calculating unit.
(Appendix 10)
10. The image capturing apparatus according to appendix 9, wherein the brightness gradient analysis means has a brightness gradient ratio statistical processing means for statistically processing the brightness gradient ratio generated at a plurality of coordinates in the divided area.
(Appendix 11)
11. The image processing apparatus according to appendix 10, wherein the adaptive diffraction model determination unit makes a determination based on a statistical processing result of the activation gradient ratio statistical processing unit.
(Appendix 12)
12. The image capturing apparatus according to any one of appendices 1 to 11, wherein the incident light image signal generation unit separates the incident light into visible light of a plurality of colors and generates a signal according to intensity.
(Appendix 13)
13. The image capturing device according to appendix 12, wherein the near-infrared light image signal generating means generates a near-infrared light image signal for each of the plurality of colors.
(Appendix 14)
14. The image capturing device according to any one of appendices 1 to 13, wherein the first incident light image signal generating means includes a silicon-based photo sensor.
(Appendix 15)
The near infrared light component of the incident light is diffracted by the near infrared light diffracting means arranged on the incident side of the light receiving surface, and the visible light component and the near infrared light component of the incident light incident on the light receiving surface are intensified. A near-infrared light corresponding to the intensity of the near-infrared light component, which is generated based on the diffraction pattern, is generated by generating an incident light image signal according to the near-infrared light and extracting a diffraction pattern generated on the light-receiving surface An image capturing method, comprising: generating an optical image signal, and generating a visible light image signal corresponding to the intensity of the visible light component based on the incident light image signal and the near infrared light image signal.
(Appendix 16)
Coded IR having a near-infrared light cut portion that cuts near-infrared light and transmits visible light, and a near-infrared light transmitting portion that transmits near-infrared light, in the near-infrared light component of the incident light. 16. The image capturing method described in appendix 15, wherein the image is diffracted by a cut filter.
(Appendix 17)
17. The image capturing method according to appendix 16, wherein the code type IR cut filter having a plurality of the near infrared light transmitting portions is used.
(Appendix 18)
18. The image capturing method according to appendix 16 or 17, wherein the coded IR cut filter in which the near-infrared light transmitting portion has a substantially circular shape is used.
(Appendix 19)
The information of the near-infrared light diffracting means and the position information of the diffraction pattern generated on the incident light image signal generating means are stored in a memory, according to any one of appendices 15 to 18. Video shooting method.
(Appendix 20)
A diffraction model of near-infrared light is generated, the brightness gradient of the incident light image signal is analyzed, a diffraction model suitable for the analysis result of the brightness gradient is determined, and the incident near-red light is based on the suitable diffraction model. The image capturing method according to any one of appendices 15 to 19, wherein the intensity of outside light is estimated.
(Appendix 21)
21. The image capturing method according to appendix 20, wherein the wavelength of the incident near-infrared light is estimated based on the adapted diffraction model.
(Appendix 22)
The incident light image signal is divided into regions each including one of the diffraction patterns, and the coordinates of the divided regions are converted into polar coordinates whose origin is the center of the diffraction pattern. The video shooting method described in any one of the appendices.
(Appendix 23)
23. The image according to appendix 22, wherein a brightness gradient ratio, which is a ratio of a brightness gradient at a coordinate of the incident light image signal and a brightness gradient at a position corresponding to the coordinate of the diffraction model, is calculated. How to shoot.
(Appendix 24)
24. The image capturing method according to appendix 23, wherein the brightness gradient ratio generated at a plurality of coordinates in the divided area is statistically processed.
(Appendix 25)
25. The image capturing method according to appendix 24, wherein the matching diffraction model is determined based on a result of the statistical processing of the brightness gradient ratio.
(Appendix 26)
26. The image capturing method according to any one of appendices 15 to 25, wherein incident light is separated into visible light of a plurality of colors to generate a signal according to intensity.
(Appendix 27)
27. The image capturing method according to appendix 26, wherein a near infrared light image signal is generated for each of the plurality of colors.
(Appendix 28)
28. The image capturing method according to any one of appendices 15 to 27, wherein the incident light image signal is generated by a silicon-based photosensor.
(Appendix 29)
Diffracting the near-infrared light component of the incident light by the near-infrared light diffracting means arranged on the incident side of the light receiving surface, and the visible light component and the near infrared light component of the incident light incident on the light receiving surface. Generating an incident light image signal according to intensity, extracting a diffraction pattern generated by the near infrared light on the light receiving surface, and intensity of the near infrared light component calculated based on the diffraction pattern Generating a near-infrared light image signal according to the above, and generating a visible light image signal according to the intensity of the visible light component based on the incident light image signal and the near-infrared light image signal. A video recording program comprising:
(Appendix 30)
Generating a diffraction model of near-infrared light; analyzing a brightness gradient of the incident light image signal; determining a diffraction model that matches the analysis result of the brightness gradient; and 30. An image capturing program as set forth in appendix 29, further comprising the step of estimating the intensity of incident near-infrared light based on the above.
(Appendix 31)
A step of dividing the incident light image signal into areas each including one of the diffraction patterns; and a step of converting coordinates of the divided areas into polar coordinates having a center of the diffraction pattern as an origin. 29. The video recording program according to supplement 29 or supplement 30.
(Appendix 32)
The method further comprises: calculating a brightness gradient ratio, which is a ratio of a brightness gradient at a coordinate of the incident light image signal and a brightness gradient at a position corresponding to the coordinate of the diffraction model. The described video shooting program.
(Appendix 33)
A step of statistically processing the luminance gradient ratio generated at a plurality of coordinates in the divided area; and a step of determining the suitable diffraction model based on a result of the statistical processing. The video recording program according to attachment 32.
(Appendix 34)
The video recording program according to any one of appendices 29 to 33, further comprising the step of separating incident light into visible lights of a plurality of colors and sensing the visible light.

10 入射光
20 円状パターン
100 映像撮影装置
110 近赤外光回折手段
110a 符号型IRカットフィルタ
120 入射光映像信号生成手段
121 フォトセンサアレイ
122 カラーフィルタアレイ
131 回折モデル生成手段
132 輝度勾配解析手段
133 適合モデル判定手段
134 符号化情報メモリ
140 近赤外光映像信号生成手段
150 可視光映像信号生成手段
160 プリズム
170 カメラレンズ
10 incident light 20 circular pattern 100 image capturing device 110 near-infrared light diffracting means 110a coded IR cut filter 120 incident light image signal generating means 121 photosensor array 122 color filter array 131 diffraction model generating means 132 luminance gradient analyzing means 133 Adaptable model determination means 134 Encoded information memory 140 Near infrared light image signal generation means 150 Visible light image signal generation means 160 Prism 170 Camera lens

Claims (10)

受光面に入射した入射光の可視光成分と近赤外光成分の強度に応じた入射光映像信号を生成する入射光映像信号生成手段と、前記受光面の入射側に配置され前記入射光の近赤外光成分を回折させる近赤外光回折手段と、前記近赤外光成分が前記受光面に生成する回折パターンを抽出する回折パターン抽出手段と、前記回折パターンに基づいて算出した前記近赤外光成分の強度に応じた近赤外光映像信号を生成する近赤外光映像信号生成手段と、前記入射光映像信号と前記近赤外光映像信号とに基づいて算出した前記可視光成分の強度に応じた可視光映像信号を生成する可視光映像信号生成手段と、を有することを特徴とする映像撮影装置。 Incident light image signal generating means for generating an incident light image signal according to the intensities of the visible light component and the near infrared light component of the incident light incident on the light receiving surface, and the incident light image signal generating means arranged on the incident side of the light receiving surface. Near-infrared light diffracting means for diffracting the near-infrared light component, diffraction pattern extracting means for extracting a diffraction pattern generated by the near-infrared light component on the light receiving surface, and the near-infrared light component calculated based on the diffraction pattern. Near-infrared light image signal generation means for generating a near-infrared light image signal according to the intensity of an infrared light component, and the visible light calculated based on the incident light image signal and the near-infrared light image signal Film image shooting apparatus characterized by comprising: a visible light image signal generating means for generating a visible light image signals corresponding to the intensity of the component, a. 前記近赤外光回折手段が、近赤外光をカットし可視光を透過する近赤外光カット部と、近赤外光を透過する近赤外光透過部と、を有することを特徴とする請求項1に記載の映像撮影装置。 The near-infrared light diffracting means includes a near-infrared light cutting portion that cuts near-infrared light and transmits visible light, and a near-infrared light transmitting portion that transmits near-infrared light. The image capturing device according to claim 1. 前記近赤外光透過部の形状が略円形である、ことを特徴とする請求項2に記載の映像撮影装置。 The image capturing apparatus according to claim 2, wherein the near-infrared light transmitting portion has a substantially circular shape. 前記回折パターン抽出手段が、近赤外光の回折モデルを生成する回折モデル生成手段と、前記入射光映像信号の輝度勾配を解析する輝度勾配解析手段と、前記輝度勾配の解析結果に適合する適合回折モデルを判定する適合回折モデル判定手段と、前記適合回折モデルに基づいて入射した近赤外光の強度を推定する入射近赤外光強度推定手段と、を有することを特徴とする請求項1乃至請求項3いずれか一付記に記載の映像撮影装置。 The diffraction pattern extraction means adapts to a diffraction model generation means for generating a near infrared light diffraction model, a luminance gradient analysis means for analyzing a luminance gradient of the incident light image signal, and an analysis result of the luminance gradient. 3. An adaptive near-infrared light intensity estimating means for estimating the intensity of near-infrared light incident on the basis of the adaptive diffraction model, and adaptive diffraction model determining means for determining a diffraction model. The image capturing device according to any one of claims 3 to 4. 前記近赤外光映像信号生成手段が、前記適合回折モデルに基づいて入射した近赤外光の波長を推定する入射近赤外光波長推定手段、を有することを特徴とする請求項4に記載の映像撮影装置。 The near-infrared light image signal generation means includes an incident near-infrared light wavelength estimation means for estimating the wavelength of the incident near-infrared light based on the adaptive diffraction model. Video shooting device. 前記輝度勾配解析手段が、前記入射光映像信号を、前記回折パターンを1つ含む領域ごとに分割する領域分割手段と、分割した領域の座標を前記回折パターンの中心を原点とする極座標に変換する座標変換手段と、を有することを特徴とする請求項4または請求項5に記載の映像撮影装置。The brightness gradient analyzing means converts the incident light image signal into area dividing means for dividing the incident light image signal into areas including one of the diffraction patterns, and coordinates of the divided areas into polar coordinates having the center of the diffraction pattern as an origin. The image capturing apparatus according to claim 4, further comprising: coordinate conversion means. 前記輝度勾配解析手段が、前記入射光映像信号のある座標における輝度勾配と、前記回折モデルの前記ある座標に対応する位置での輝度勾配と、の比である輝度勾配比を算出する輝度勾配比算出手段を有する、ことを特徴とする請求項6に記載の映像撮影装置。The brightness gradient analysis means calculates a brightness gradient ratio which is a ratio of a brightness gradient at a coordinate of the incident light image signal and a brightness gradient at a position corresponding to the coordinate of the diffraction model. The image capturing apparatus according to claim 6, further comprising a calculating unit. 前記輝度勾配解析手段が、前記分割した領域内の複数の座標で生成した前記輝度勾配比の統計処理を行う輝度勾配比統計処理手段を有し、The brightness gradient analysis means has a brightness gradient ratio statistical processing means for performing statistical processing of the brightness gradient ratio generated at a plurality of coordinates in the divided area,
前記適合回折モデル判定手段が、前記統計処理の結果に基づいて前記適合回折モデルを判定する、ことを特徴とする請求項7に記載の映像撮影装置。The image capturing apparatus according to claim 7, wherein the adaptive diffraction model determination unit determines the adaptive diffraction model based on a result of the statistical processing.
受光面の入射側に配置された近赤外光回折手段によって入射光の近赤外光成分を回折させ、前記受光面に入射した前記入射光の可視光成分と近赤外光成分の強度に応じた入射光映像信号を生成し、前記近赤外光成分が前記受光面に生成する回折パターンを抽出し、前記回折パターンに基づいて算出した前記近赤外光成分の強度に応じた近赤外光映像信号を生成し、前記入射光映像信号と前記近赤外光映像信号とに基づいて前記可視光成分の強度に応じた可視光映像信号を生成する、ことを特徴とする映像撮影方法。 Diffract the near-infrared light component of the incident light by the near-infrared light diffracting means arranged on the incident side of the light-receiving surface to obtain the intensity of the visible light component and the near-infrared light component of the incident light that has entered the light-receiving surface. A near-infrared light corresponding to the intensity of the near-infrared light component, which is calculated based on the diffraction pattern, is generated by generating an incident light image signal according to the near-infrared light component and extracting a diffraction pattern generated on the light receiving surface by the near-infrared light component. An image capturing method, wherein an external light image signal is generated, and a visible light image signal corresponding to the intensity of the visible light component is generated based on the incident light image signal and the near infrared light image signal. .. 受光面の入射側に配置された近赤外光回折手段によって入射光の近赤外光成分を回折させる処理と、前記受光面に入射した前記入射光の可視光成分と近赤外光成分の強度に応じた入射光映像信号を生成する処理と、前記近赤外光成分が前記受光面に生成する回折パターンを抽出するステップと、前記回折パターンに基づいて算出した前記近赤外光成分の強度に応じた近赤外光映像信号を生成する処理と、前記入射光映像信号と前記近赤外光映像信号とに基づいて前記可視光成分の強度に応じた可視光映像信号を生成する処理と、
コンピュータに実行させる映像撮影プログラム。
A process of diffracting the near-infrared light component of the incident light by the near-infrared light diffracting means arranged on the incident side of the light-receiving surface, and the visible light component and the near-infrared light component of the incident light incident on the light-receiving surface. A process of generating an incident light image signal according to intensity, a step of extracting a diffraction pattern generated by the near-infrared light component on the light receiving surface, and the near-infrared light component of the near-infrared light component calculated based on the diffraction pattern. Processing for generating a near-infrared light image signal according to intensity, and processing for generating a visible-light image signal according to the intensity of the visible-light component based on the incident light image signal and the near-infrared light image signal When,
A video recording program that causes a computer to execute .
JP2017524610A 2015-06-17 2016-06-13 Video shooting device, video shooting method, and video shooting program Active JP6720971B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015121588 2015-06-17
JP2015121588 2015-06-17
PCT/JP2016/002852 WO2016203760A1 (en) 2015-06-17 2016-06-13 Image capturing device and image capturing method

Publications (2)

Publication Number Publication Date
JPWO2016203760A1 JPWO2016203760A1 (en) 2018-04-05
JP6720971B2 true JP6720971B2 (en) 2020-07-08

Family

ID=57545881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017524610A Active JP6720971B2 (en) 2015-06-17 2016-06-13 Video shooting device, video shooting method, and video shooting program

Country Status (2)

Country Link
JP (1) JP6720971B2 (en)
WO (1) WO2016203760A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220078191A (en) 2020-12-03 2022-06-10 삼성전자주식회사 Electronic device for performing image processing and operation method thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4192867B2 (en) * 2004-08-30 2008-12-10 ソニー株式会社 PHYSICAL INFORMATION ACQUISITION DEVICE, PHYSICAL QUANTITY DISTRIBUTION DETECTION SEMICONDUCTOR DEVICE HAVING MULTIPLE UNIT COMPONENTS ARRAY, AND METHOD FOR MANUFACTURING SEMICONDUCTOR DEVICE
GB0602380D0 (en) * 2006-02-06 2006-03-15 Qinetiq Ltd Imaging system
JP6582987B2 (en) * 2013-10-23 2019-10-02 日本電気株式会社 Video imaging device, video imaging method, code-type infrared cut filter, and code-type specific color cut filter

Also Published As

Publication number Publication date
JPWO2016203760A1 (en) 2018-04-05
WO2016203760A1 (en) 2016-12-22

Similar Documents

Publication Publication Date Title
US7839437B2 (en) Image pickup apparatus, image processing method, and computer program capable of obtaining high-quality image data by controlling imbalance among sensitivities of light-receiving devices
EP1528797B1 (en) Image processing apparatus, image-taking system and image processing method
US8467088B2 (en) Image signal processing apparatus, imaging apparatus, image signal processing method and computer program
US9413984B2 (en) Luminance source selection in a multi-lens camera
KR101344824B1 (en) Image processing device, imaging device, image processing method, imaging method, and image processing program
JP4603011B2 (en) Image capturing apparatus and operation method thereof
US8768053B2 (en) Image processing apparatus and method of providing high sensitive color images
CN106575035B (en) System and method for light field imaging
WO2016137239A1 (en) Generating an improved depth map usinga multi-aperture imaging system
US9491377B2 (en) Methods of extracting 4-band data from a single CCD; methods of generating 4×4 or 3×3 color correction matrices using a single CCD
JP5186517B2 (en) Imaging device
JP4250506B2 (en) Image processing method, image processing apparatus, image processing program, and imaging system
WO2020031681A1 (en) Color temperature sensor for ambient light correction
US9118878B2 (en) Image processing apparatus that corrects for chromatic aberration for taken image, image pickup apparatus, method of correcting for chromatic aberration of magnification therefor, and storage medium
WO2015133130A1 (en) Video capturing device, signal separation device, and video capturing method
JP6720971B2 (en) Video shooting device, video shooting method, and video shooting program
KR101243285B1 (en) Apparatus and method for reconstructing color image based on multi-spectrum using Bayer Color Filter Array camera
JP6794989B2 (en) Video processing equipment, shooting equipment, video processing methods and programs
JP6337434B2 (en) Image processing apparatus and imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200601

R150 Certificate of patent or registration of utility model

Ref document number: 6720971

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150