JP7150514B2 - Imaging device and imaging method - Google Patents

Imaging device and imaging method Download PDF

Info

Publication number
JP7150514B2
JP7150514B2 JP2018150708A JP2018150708A JP7150514B2 JP 7150514 B2 JP7150514 B2 JP 7150514B2 JP 2018150708 A JP2018150708 A JP 2018150708A JP 2018150708 A JP2018150708 A JP 2018150708A JP 7150514 B2 JP7150514 B2 JP 7150514B2
Authority
JP
Japan
Prior art keywords
pixel
visible light
region
pixels
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018150708A
Other languages
Japanese (ja)
Other versions
JP2020027979A (en
Inventor
徳朗 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018150708A priority Critical patent/JP7150514B2/en
Publication of JP2020027979A publication Critical patent/JP2020027979A/en
Application granted granted Critical
Publication of JP7150514B2 publication Critical patent/JP7150514B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置及び撮像方法に関する。 The present invention relates to an imaging device and an imaging method.

従来、マルチバンドイメージセンサー(多原色イメージセンサー)と呼ばれる、赤(R)、緑(G)、青(B)の光の三原色以外の分光特性を有するイメージセンサー(撮像素子)が開発されている。マルチバンドイメージセンサーは、様々な波長成分を単独で取得することによって、例えば霞がかった景色もくっきりと表示できたり、肉眼では同じ緑に見える植物の葉の色を見分けて育成度を判断できたりするなど、様々な分野で応用が期待されている。 Conventionally, an image sensor (image sensor) having spectral characteristics other than the three primary colors of light of red (R), green (G), and blue (B), called a multiband image sensor (multi-primary color image sensor), has been developed. . By acquiring various wavelength components independently, multiband image sensors can, for example, clearly display hazy scenery, or distinguish the color of leaves of plants that look the same green to the naked eye and determine the degree of growth. It is expected to be applied in various fields such as

この分光特性を実現する手法としては、撮像素子の画素毎に所望の波長帯のみを透過する分光感度特性を持つカラーフィルタを配置する手法が一般的である。例えば特許文献1には、従来のRGBと組み合わせて、様々な波長帯域に対応するように分光特性を持たせたイメージセンサーの画素配列が提案されている。 As a technique for realizing this spectral characteristic, a technique of arranging a color filter having a spectral sensitivity characteristic that transmits only a desired wavelength band for each pixel of an image sensor is common. For example, Patent Document 1 proposes a pixel array of an image sensor that is combined with conventional RGB and has spectral characteristics corresponding to various wavelength bands.

また、マルチバンドイメージセンサーは、人間が視認できる可視光領域だけでなく、紫外光や赤外光等の不可視光領域まで含む分光特性を有するものがある。例えば特許文献2では、RGBに対応した画素に加えて赤外光に対応したIR(Infra Red)画素を設けた画素配列を形成し、IR画素の信号をシェーディングの防止等に利用している。 Also, some multiband image sensors have spectral characteristics that include not only the visible light range visible to humans, but also the invisible light range such as ultraviolet light and infrared light. For example, in Patent Document 2, a pixel array is formed in which IR (Infra Red) pixels corresponding to infrared light are provided in addition to pixels corresponding to RGB, and IR pixel signals are used to prevent shading.

特開2012-44519号公報JP 2012-44519 A 特開2011-29810号公報JP 2011-29810 A

従来の撮像素子は、人間が視認できる可視光領域の光以外、例えばRGB(赤、緑、青)の光以外は不要であった。そのため、紫外光領域の成分は、ガラスレンズの特性により紫外光が吸収されるために結果的に除外でき、赤外光領域の成分は、撮像素子の前に赤外光(IR)カットフィルタを配置することで除外していた。しかしながら、不可視光領域を使用したい場合、例えば赤外光を利用しようとする場合には、赤外光カットフィルタを装着することができない。 A conventional imaging device does not require light other than light in the visible light region that can be visually recognized by humans, for example, light other than RGB (red, green, and blue) light. Therefore, the components in the ultraviolet light region can be excluded as a result because the ultraviolet light is absorbed by the characteristics of the glass lens. It was excluded by arranging. However, when it is desired to use the invisible light region, for example, when using infrared light, it is not possible to attach an infrared light cut filter.

RGBのカラーフィルタは、可視光領域の成分だけでなく赤外光領域の成分も透過する分光感度特性を有することが知られている。したがって、撮像素子の前に赤外光カットフィルタを配置しないと、RGBのカラーフィルタは、RGBに対応する領域の成分に加えて赤外光領域の成分も透過させてしまう。その結果、撮像素子の画素は、RGBの各波長成分についての正しい輝度値が取得できなくなるという課題がある。 RGB color filters are known to have spectral sensitivity characteristics that transmit not only visible light components but also infrared light components. Therefore, unless an infrared light cut filter is arranged in front of the image sensor, the RGB color filter transmits not only the components of the region corresponding to RGB but also the components of the infrared light region. As a result, there is a problem that the pixels of the image sensor cannot acquire correct luminance values for each wavelength component of RGB.

それに対して特許文献2では、IR画素で得られた輝度成分をRGBに対応した画素の輝度成分から差し引くことでRGBの輝度補正を行っている。RGBのそれぞれのカラーフィルタにおける赤外光の透過量は波長によって特性が異なるが、従来技術では、RGBのカラーフィルタにおける赤外光領域での分光特性のバラツキまで加味されていない。 On the other hand, in Patent Document 2, luminance correction of RGB is performed by subtracting the luminance component obtained from the IR pixel from the luminance component of the pixel corresponding to RGB. The amount of infrared light transmitted through each of the RGB color filters has different characteristics depending on the wavelength, but the conventional technology does not take into account the variation in the spectral characteristics of the RGB color filters in the infrared region.

そのため、単純に広い波長領域をカバーするIR画素の輝度成分を用いてRGBの輝度補正を行うと、実際はRやGやBのカラーフィルタでは全く感度のない波長の成分を検出していても、その成分を含めて補正してしまい過補正となることが起こり得る。本発明は、過補正となることを防止し、精度よく輝度補正を行えるようにすることを目的とする。 Therefore, if RGB luminance correction is simply performed using the luminance components of IR pixels that cover a wide wavelength range, even if the R, G, and B color filters detect wavelength components that have no sensitivity at all, Correction including that component may result in overcorrection. SUMMARY OF THE INVENTION It is an object of the present invention to prevent overcorrection and perform luminance correction with high precision.

本発明に係る撮像装置は、視光領域の複数の異なる色成分にそれぞれ対応する複数の可視光画素領域と不可視光領域の色成分に対応する不可視光画素領域とが配列され、前記複数の可視光画素領域および前記不可視光画素領域の各々に異なる分光感度特性を有する複数の画素が配置された撮像素子と、前記複数の可視光画素領域の各々における各画素の前記分光感度特性および前記不可視光画素領域の画素の輝度情報に基づいて、前記複数の可視光画素領域の各々における各画素の補正係数を取得する取得手段と、記補正係数に基づいて、前記複数の可視光画素領域の各々における各画素の輝度情報を補正する補正処理手段とを有し、前記複数の可視光画素領域および前記不可視光画素領域の各々に配置された複数の画素の各々の分光波長帯域は、各画素領域に対応する各色成分の波長帯域よりも狭いことを特徴とする。 In the imaging device according to the present invention, a plurality of visible light pixel regions respectively corresponding to a plurality of different color components in the visible light region and invisible light pixel regions corresponding to the color components in the invisible light region are arranged, and the plurality of an imaging device in which a plurality of pixels having different spectral sensitivity characteristics are arranged in each of the visible light pixel region and the invisible light pixel region of each of the plurality of visible light pixel regions, and the spectral sensitivity characteristics and the acquisition means for acquiring a correction coefficient for each pixel in each of the plurality of visible light pixel regions based on luminance information of pixels in the invisible light pixel regions ; and correction processing means for correcting luminance information of each pixel in each of the spectral wavelength bands of each of the plurality of pixels arranged in each of the plurality of visible light pixel regions and the invisible light pixel region, It is characterized by being narrower than the wavelength band of each color component corresponding to each pixel region .

本発明によれば、輝度補正における過補正を防止して、精度よく輝度補正を行うことが可能となる。 According to the present invention, it is possible to prevent overcorrection in luminance correction and perform luminance correction with high precision.

本発明の実施形態における撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device in embodiment of this invention. ベイヤー配列での画素配列の例を示す図である。It is a figure which shows the example of the pixel arrangement|sequence in a Bayer arrangement. 赤外光カットフィルタの配置例を示す図である。It is a figure which shows the example of arrangement|positioning of an infrared-light cut filter. ベイヤー配列での分光感度特性の例を示す図である。It is a figure which shows the example of the spectral sensitivity characteristic in a Bayer array. RGB+IRの画素配列の例を示す図である。FIG. 3 is a diagram showing an example of an RGB+IR pixel array; RGB+IRの画素配列での分光感度特性の例を示す図である。FIG. 4 is a diagram showing an example of spectral sensitivity characteristics in an RGB+IR pixel array; 第1の実施形態における撮像素子の画素配列の一例を説明する図である。FIG. 3 is a diagram illustrating an example of a pixel array of an imaging device according to the first embodiment; FIG. 第1の実施形態におけるB成分に係る分光感度特性の例を示す図である。FIG. 4 is a diagram showing an example of spectral sensitivity characteristics related to the B component in the first embodiment; 第1の実施形態におけるIR成分に係る分光感度特性の例を示す図である。FIG. 4 is a diagram showing an example of spectral sensitivity characteristics related to IR components in the first embodiment; 第1の実施形態における輝度補正の例を説明する図である。FIG. 4 is a diagram illustrating an example of luminance correction in the first embodiment; FIG. 第1の実施形態におけるB成分及びIR成分に係る分光感度特性の例を示す図である。FIG. 4 is a diagram showing an example of spectral sensitivity characteristics for B and IR components in the first embodiment; 第2の実施形態におけるB成分及びIR成分に係る分光感度特性の例を示す図である。FIG. 10 is a diagram showing an example of spectral sensitivity characteristics for B and IR components in the second embodiment; 第3の実施形態におけるRGBの各成分及びIR成分に係る分光感度特性の例を示す図である。FIG. 11 is a diagram showing an example of spectral sensitivity characteristics for each RGB component and IR component in the third embodiment;

以下、本発明の実施形態を図面に基づいて説明する。 BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below with reference to the drawings.

(第1の実施形態)
本発明の第1の実施形態について説明する。図1は、本発明の一実施形態における撮像装置の構成例を示すブロック図である。本実施形態における撮像装置100は、光学レンズ101、撮像素子102、映像エンジン103、映像表示素子114、映像記録媒体115、及び映像出力端子116を有する。また、撮像装置100は、さらにモードマイコン117、ROM(Read Only Memory)118、RAM(Random Access Memory)119、操作部120、電源部121、及び発振部122等を有する。
(First embodiment)
A first embodiment of the present invention will be described. FIG. 1 is a block diagram showing a configuration example of an imaging device according to one embodiment of the present invention. The imaging apparatus 100 in this embodiment has an optical lens 101 , an imaging element 102 , an image engine 103 , an image display element 114 , an image recording medium 115 and an image output terminal 116 . The imaging apparatus 100 further includes a mode microcomputer 117, a ROM (Read Only Memory) 118, a RAM (Random Access Memory) 119, an operation section 120, a power supply section 121, an oscillation section 122, and the like.

撮像装置100は、映像(被写体像)に係る入射光を光学レンズ101で集光し、撮像素子102で受像する。光学レンズ101は、ガラスや蛍石等の材料を使い、映像(被写体像)に係る入射光を撮像素子102のサイズに合わせて縮小する。撮像素子102は、例えば、CCD(Charge Coupled Device)イメージセンサーやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサー等が用いられる。 The imaging apparatus 100 condenses incident light relating to a video (object image) with an optical lens 101 and receives an image with an imaging device 102 . The optical lens 101 is made of a material such as glass or fluorite, and reduces incident light relating to an image (object image) to match the size of the imaging device 102 . For the imaging device 102, for example, a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like is used.

撮像素子102は、光学的な信号から電気的な信号に変換する光電変換を行い、映像(被写体像)に係る入射光を電気信号に変換する。ここで得られる電気信号はアナログ値であるので、撮像素子102は、デジタル値に変換するアナログ-デジタル変換機能も合わせて有している。なお、撮像素子102がアナログ信号を出力し、撮像素子102の後段にアナログ-デジタル変換器を配置してデジタル値に変換するようにしてもよい。 The imaging device 102 performs photoelectric conversion for converting an optical signal into an electrical signal, and converts incident light relating to an image (object image) into an electrical signal. Since the electric signal obtained here is an analog value, the image sensor 102 also has an analog-to-digital conversion function for converting into a digital value. Note that the image sensor 102 may output an analog signal, and an analog-to-digital converter may be arranged after the image sensor 102 to convert it into a digital value.

映像エンジン103は、映像に係る制御や処理に特化したLSI(Large Scale Integration)であり、撮像装置100を駆動制御する様々な機能を有する。映像エンジン103は、映像分配部104、可視映像処理部107、不可視映像処理部108、分光特性比較部109、分光特性保存部110、補正係数取得部111、映像合成部112、及び付加情報重畳部113を有する。また、映像エンジン103は、撮像素子102の駆動制御やアナログゲインをかける撮像素子制御部105、及び光学レンズ101を駆動し映像のズームやフォーカス等を制御するレンズ制御部106等を有する。 The video engine 103 is an LSI (Large Scale Integration) specialized for control and processing related to video, and has various functions for driving and controlling the imaging apparatus 100 . The image engine 103 includes an image distribution unit 104, a visible image processing unit 107, an invisible image processing unit 108, a spectral characteristic comparison unit 109, a spectral characteristic storage unit 110, a correction coefficient acquisition unit 111, an image synthesis unit 112, and an additional information superimposition unit. 113. The image engine 103 also includes an image sensor control unit 105 that controls driving of the image sensor 102 and applies analog gain, and a lens control unit 106 that drives the optical lens 101 and controls image zooming, focusing, and the like.

映像分配部104は、可視映像処理部107、不可視映像処理部108、及び分光特性比較部109に対して、撮像素子102で電気信号に変換された各画素の輝度情報をそれぞれ必要な波長毎に分配する。例えば、映像分配部104は、人間の眼で視認できる波長領域である可視光領域に対応する画素から得られる輝度情報を可視映像処理部107に供給する。また、映像分配部104は、人間の眼では視認できない波長領域である不可視光領域に対応する画素から得られる輝度情報を不可視映像処理部108に供給する。 The image distribution unit 104 supplies the visible image processing unit 107, the invisible image processing unit 108, and the spectral characteristic comparison unit 109 with the luminance information of each pixel converted into an electric signal by the image sensor 102 for each required wavelength. Distribute. For example, the image distribution unit 104 supplies the visible image processing unit 107 with luminance information obtained from pixels corresponding to a visible light region, which is a wavelength region visible to the human eye. In addition, the image distribution unit 104 supplies the invisible image processing unit 108 with luminance information obtained from pixels corresponding to the invisible light region, which is a wavelength region invisible to the human eye.

可視映像処理部107は、映像分配部104から供給される可視光領域に対応する画素の輝度情報に係る処理を行う。可視映像処理部107は、例えば補正係数取得部111から供給される補正係数に基づいて輝度補正を行い、可視光領域に対応する画素の輝度情報を補正する。 The visible image processing unit 107 performs processing related to luminance information of pixels corresponding to the visible light region supplied from the image distribution unit 104 . The visible image processing unit 107 performs luminance correction based on, for example, the correction coefficient supplied from the correction coefficient acquisition unit 111, and corrects luminance information of pixels corresponding to the visible light region.

不可視映像処理部108は、映像分配部104から供給される不可視光領域に対応する画素の輝度情報に係る処理を行う。不可視映像処理部108は、例えば補正係数取得部111から供給される補正係数に基づいて輝度補正を行い、不可視光領域に対応する画素の輝度情報を補正する。また、不可視映像処理部108は、例えば不可視光領域に対応する画素から得られた輝度情報を人間の眼で視認できるように可視化処理する。 The invisible image processing unit 108 performs processing related to luminance information of pixels corresponding to the invisible light region supplied from the image distribution unit 104 . The invisible image processing unit 108 performs luminance correction, for example, based on the correction coefficient supplied from the correction coefficient acquisition unit 111, and corrects luminance information of pixels corresponding to the invisible light region. In addition, the invisible image processing unit 108 visualizes luminance information obtained from pixels corresponding to the invisible light region, for example, so that the information can be visually recognized by human eyes.

分光特性比較部109は、各カラーフィルタに係るカラーフィルタ特性情報を分光特性保存部110から取得し、映像分配部104から供給される各画素の輝度情報とカラーフィルタ特性情報とを比較して比較結果を補正係数取得部111に出力する。分光特性保存部110は、予め取得した、撮像素子102の各画素に対して配置される各カラーフィルタの分光感度特性、すなわち撮像素子102の各画素の分光感度特性を示すカラーフィルタ特性情報を記憶する。 The spectral characteristic comparison unit 109 acquires color filter characteristic information related to each color filter from the spectral characteristic storage unit 110, and compares and compares the luminance information of each pixel and the color filter characteristic information supplied from the video distribution unit 104. A result is output to the correction coefficient acquisition unit 111 . The spectral characteristic storage unit 110 stores pre-obtained spectral sensitivity characteristics of each color filter arranged for each pixel of the image sensor 102, that is, color filter characteristic information indicating the spectral sensitivity characteristic of each pixel of the image sensor 102. do.

補正係数取得部111は、分光特性比較部109での比較結果に基づいて、撮像素子102の各画素の輝度情報についての補正係数を取得する。補正係数取得部111により取得された補正係数は、可視映像処理部107や不可視映像処理部108に供給される。 A correction coefficient acquisition unit 111 acquires a correction coefficient for luminance information of each pixel of the image sensor 102 based on the comparison result of the spectral characteristic comparison unit 109 . The correction coefficients acquired by the correction coefficient acquisition unit 111 are supplied to the visible image processing unit 107 and the invisible image processing unit 108 .

映像合成部112は、可視映像処理部107から出力される映像と不可視映像処理部108から出力される映像とを適宜合成して出力する。例えば、映像合成部112は、輝度補正が施された可視映像処理部107からの映像と、不可視映像処理部108で人間が視認できるように可視化処理された映像とを合成して出力する。 The video synthesizing unit 112 appropriately synthesizes the video output from the visible video processing unit 107 and the video output from the invisible video processing unit 108 and outputs the synthesized video. For example, the image synthesizing unit 112 synthesizes the image from the visible image processing unit 107 subjected to luminance correction and the image visualized by the invisible image processing unit 108 so as to be visible to humans, and outputs the synthesized image.

付加情報重畳部113は、映像合成部112から出力される映像に必要に応じてOSD(On Screen Display)等の情報を付与し、映像表示素子114や映像記録媒体115や映像出力端子116に送出する。 The additional information superimposing unit 113 adds information such as OSD (On Screen Display) to the video output from the video synthesizing unit 112 as necessary, and sends the information to the video display element 114, the video recording medium 115, and the video output terminal 116. do.

映像表示素子114は、撮影映像や設定メニュー等を表示する。ユーザーは映像表示素子114での表示によって撮像装置100の動作状況等を視認することが可能である。映像表示素子114は、例えばLCD(Liquid Crystal Display)や有機EL(Organic Electroluminescence)といった小型で低消費電力の表示デバイスである。 The video display element 114 displays captured video, setting menus, and the like. The user can visually recognize the operation status of the image pickup apparatus 100 by the display on the image display element 114 . The image display element 114 is a small, low power consumption display device such as an LCD (Liquid Crystal Display) or an organic EL (Organic Electroluminescence).

映像記録媒体115は、映像を記録できる記録媒体である。映像記録媒体115は、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等の大容量記録メディアである。映像出力端子116は、映像を外部に出力するインターフェースであり、例えばアナログコンポジット映像端子やデジタル映像端子である。デジタル映像端子としては、例えばSDI(Serial Digital Interface)規格に準拠した端子や、HDMI(登録商標)(High Definition Multimedia Interface)規格に準拠した端子等がある。 The video recording medium 115 is a recording medium capable of recording video. The video recording medium 115 is a large-capacity recording medium such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive). The video output terminal 116 is an interface for outputting video to the outside, and is, for example, an analog composite video terminal or a digital video terminal. Examples of digital video terminals include terminals conforming to the SDI (Serial Digital Interface) standard and terminals conforming to the HDMI (registered trademark) (High Definition Multimedia Interface) standard.

モードマイコン117は、撮像装置100のモード制御を行う。ROM118は、初期値等を保存しておく不揮発性のメモリであり、RAM119は、プログラムや映像等を一時的に保存する揮発性のメモリである。操作部120は、メカニカルなボタンやスイッチ等の素子が用いられユーザーによる操作を受け付ける。電源部121は、撮像装置100内の各機能部に電源を供給し、発振部122は、撮像装置100内の各機能部に供給するクロックを生成するための基準クロックを発生させる。 A mode microcomputer 117 performs mode control of the imaging apparatus 100 . A ROM 118 is a nonvolatile memory that stores initial values and the like, and a RAM 119 is a volatile memory that temporarily stores programs, images, and the like. The operation unit 120 uses elements such as mechanical buttons and switches to accept user operations. The power supply unit 121 supplies power to each functional unit in the imaging device 100 , and the oscillator 122 generates a reference clock for generating a clock to be supplied to each functional unit in the imaging device 100 .

次に、撮像素子とその分光感度特性について説明する。まず、本発明に至る参考技術について説明し、次に本実施形態における撮像素子とその分光感度特性について説明する。なお、以下の説明において、「R成分のカラーフィルタ」とは透過主波長帯がR成分(赤成分)であるフィルタを示し、「G成分のカラーフィルタ」とは透過主波長帯がG成分(緑成分)であるフィルタを示す。また、「B成分のカラーフィルタ」とは透過主波長帯がB成分(青成分)であるフィルタを示し、「IR成分のカラーフィルタ」とは透過主波長帯がIR成分(赤外光成分)であるフィルタを示す。 Next, the imaging device and its spectral sensitivity characteristics will be described. First, the reference technology leading to the present invention will be described, and then the imaging element and its spectral sensitivity characteristics in this embodiment will be described. In the following description, "R component color filter" indicates a filter whose main transmission wavelength band is the R component (red component), and "G component color filter" indicates a filter whose main transmission wavelength band is the G component ( green component). In addition, "B component color filter" indicates a filter whose main transmission wavelength band is the B component (blue component), and "IR component color filter" indicates a filter whose main transmission wavelength band is the IR component (infrared light component). indicates a filter that is

図2は、第1の参考技術としての撮像素子の画素配列の一例を示す図である。図2に示す画素配列はベイヤー配列と呼ばれ、RGBの各色のカラーフィルタが市松模様のように配置されている。例えば、画素201にはR成分のカラーフィルタが配置され、画素202、203にはG成分のカラーフィルタが配置され、画素204にはB成分のカラーフィルタが配置されている。 FIG. 2 is a diagram showing an example of a pixel array of an imaging device as a first reference technology. The pixel array shown in FIG. 2 is called a Bayer array, in which color filters of RGB colors are arranged in a checkered pattern. For example, the pixel 201 has an R component color filter, the pixels 202 and 203 have G component color filters, and the pixel 204 has a B component color filter.

周辺画素から必要な色の画素を補間する現像処理技術の発達とともに、ベイヤー配列は単板撮像素子カメラにおいてよく採用されている配列である。このRGBの各成分のカラーフィルタは、それぞれの色に対応する波長の光だけでなく赤外光も透過する特性を持つため、通常は図3に示すように撮像素子の前面に赤外光(IR)カットフィルタ301を配置して使うのが一般的である。 Along with the development of development processing technology for interpolating pixels of a required color from surrounding pixels, the Bayer array is an array that is often used in single-chip imaging device cameras. The color filters for each of these RGB components have the characteristic of transmitting not only light of wavelengths corresponding to the respective colors but also infrared light. An IR) cut filter 301 is generally used.

RGBの各成分のカラーフィルタを用いたときの撮像素子の分光感度特性の例を図4に示す。図4(a)は、図3に示した構成、すなわち撮像素子の前面に赤外光(IR)カットフィルタ301を配置した状態における各成分のカラーフィルタでの透過率を示す図である。図4(b)は、赤外光(IR)カットフィルタ301を配置していない状態における各成分のカラーフィルタでの透過率を示す図である。図4(a)及び図4(b)には、それぞれB成分401、G成分402、R成分403で記してある。 FIG. 4 shows an example of the spectral sensitivity characteristics of an image sensor when color filters for each component of RGB are used. FIG. 4A is a diagram showing the transmittance of each component in the color filter in the configuration shown in FIG. 3, that is, in the state where the infrared light (IR) cut filter 301 is placed in front of the image sensor. FIG. 4B is a diagram showing the transmittance of each component in the color filter when the infrared light (IR) cut filter 301 is not arranged. 4(a) and 4(b) are indicated by a B component 401, a G component 402, and an R component 403, respectively.

図4(a)に示したように、撮像素子の前面に赤外光(IR)カットフィルタ301を配置すると、赤外光(IR)カットフィルタ301の効果によって、人間が視認できない700nmより長い波長の光が吸収され、不要な波長がカットされている。一方、図4(b)に示したように、赤外光(IR)カットフィルタ301を配置しない場合、RGBの各成分のカラーフィルタは赤外光も透過しており、撮像素子が赤外光領域の光にも感度を持ってしまう。 As shown in FIG. 4(a), when an infrared light (IR) cut filter 301 is placed in front of the image sensor, the effect of the infrared light (IR) cut filter 301 reduces wavelengths longer than 700 nm, which are invisible to humans. of light is absorbed and unnecessary wavelengths are cut. On the other hand, when the infrared light (IR) cut filter 301 is not arranged as shown in FIG. It also has sensitivity to light in the area.

ここで、赤外光領域での各成分のカラーフィルタの分光感度特性は、図4(b)に示したように各波長によって特性が異なっている。例えば、波長が700nmの光に着目した場合と波長が850nmの光に着目した場合とでは、RGBそれぞれの成分で分光感度特性は大きく異なる。700nmの波長帯では、R成分のカラーフィルタでの透過率は高いが、B成分のカラーフィルタでの透過率は低い。一方、850nmの波長帯では、B成分のカラーフィルタでの透過率は高いが、R成分のカラーフィルタでの透過率は低い。つまり、波長帯によってカラーフィルタの特性は大きく違うことを意味する。 Here, the spectral sensitivity characteristics of the color filters for each component in the infrared region differ depending on the wavelength as shown in FIG. 4(b). For example, when focusing on light with a wavelength of 700 nm and when focusing on light with a wavelength of 850 nm, the spectral sensitivity characteristics of each of the RGB components are significantly different. In the 700 nm wavelength band, the transmittance of the R component color filter is high, but the transmittance of the B component color filter is low. On the other hand, in the 850 nm wavelength band, the transmittance of the B component color filter is high, but the transmittance of the R component color filter is low. In other words, it means that the characteristics of the color filter differ greatly depending on the wavelength band.

次に、第2の参考技術として、図5に示すような赤外光(IR)まで対応するRGB+IRの画素配列を採用した場合を考える。この画素配列は、ベイヤー配列において2つあるG成分のカラーフィルタの1つをIR成分のカラーフィルタに代えて配置した画素配列となっている。図5には、図2に示した例においてG成分のカラーフィルタが配置される画素203を、IR成分のカラーフィルタが配置される画素501とした例を示している。 Next, as a second reference technology, consider a case where a pixel array of RGB+IR corresponding to infrared light (IR) as shown in FIG. 5 is adopted. This pixel array is a pixel array in which one of the two G-component color filters in the Bayer array is replaced with an IR-component color filter. FIG. 5 shows an example in which the pixels 203 in which the G component color filters are arranged in the example shown in FIG. 2 are replaced with pixels 501 in which the IR component color filters are arranged.

このようなRGB+IRの画素配列を採用する場合、赤外光領域を使用するために、撮像素子の前面に赤外光カットフィルタを配置することができない。そのため、撮像素子の分光感度特性は、図6に示すようになり、この画素配列ではIR成分601が追加となる。また、赤外光カットフィルタを配置しないために、RGBの各成分のカラーフィルタが赤外光領域を透過する特性を持っていることも顕在化してしまう。 When adopting such an RGB+IR pixel arrangement, an infrared light cut filter cannot be arranged in front of the image sensor because the infrared light region is used. Therefore, the spectral sensitivity characteristic of the image sensor becomes as shown in FIG. 6, and an IR component 601 is added in this pixel array. In addition, since the infrared light cut filter is not arranged, it becomes obvious that the color filters of each component of RGB have the characteristic of transmitting the infrared light region.

図5に示したようなRGB+IRの画素配列において、RGBの各成分のカラーフィルタが配置されたRGB画素の輝度成分に含まれる赤外光成分を、IR成分のカラーフィルタが配置されたIR画素の輝度成分を用いて除去することを考える。図6に示したようにIR成分のカラーフィルタの特性はRGBの各成分のカラーフィルタと同様に広い波長領域をカバーしているため、IR画素で取得できる輝度成分は、どの波長成分によるものであるかはわからない。 In the RGB+IR pixel array as shown in FIG. 5, the infrared light component contained in the luminance component of the RGB pixels in which the color filters for each of the RGB components are arranged is converted to the IR component in the IR pixels in which the color filters for the IR components are arranged. Consider removing using the luminance component. As shown in FIG. 6, the characteristics of the IR component color filter cover a wide wavelength range in the same way as the RGB component color filter. I don't know if there are.

例えば、波長が900nmの光が強かったとして、そのときのIR画素の輝度成分を基にRGB画素に対しIR成分を除去する輝度補正を行うものとする。ここで、IR成分を除去するための補正方法としては、例えば、特許文献2に記載されているような手法を用いればよい。この場合、図6に示したように、RGBの各成分のカラーフィルタは、波長が900nmの光にほとんど感度を持っていないにもかかわらず、RGB画素に対して輝度補正してしまうことになる。これでは過補正となってしまい、RGB画素の輝度成分から、それに含まれるIR成分を精度よく除去することにはならない。 For example, assume that light with a wavelength of 900 nm is strong, and based on the luminance component of the IR pixel at that time, luminance correction is performed to remove the IR component from the RGB pixels. Here, as a correction method for removing the IR component, for example, a technique as described in Patent Document 2 may be used. In this case, as shown in FIG. 6, although the color filter for each component of RGB has almost no sensitivity to light with a wavelength of 900 nm, luminance correction is performed on the RGB pixels. . This results in over-correction, and the IR component contained therein cannot be accurately removed from the luminance components of the RGB pixels.

次に、本実施形態における撮像素子とその分光感度特性について説明する。本発明では、赤外光も含む4以上の分光感度特性を持つ撮像素子を有する撮像装置を前提とする。図7(a)は、本実施形態における撮像素子の画素配列の例を示す図である。本実施形態における撮像素子の画素配列は、図7(a)に示すように、異なる分光感度特性を持った、1から16までのカラーフィルタ(CF)が配置されている。このカラーフィルタ(CF1~CF16)が配置された16画素を1つのグループとして、上下左右に同様の配列でカラーフィルタを配置する。それぞれのカラーフィルタの分光感度特性を互いに異ならせ、さらに分光波長帯域も狭くすることで、本実施形態における撮像素子は、16波長について輝度値を取得することが可能となる。 Next, the imaging device and its spectral sensitivity characteristics in this embodiment will be described. The present invention assumes an imaging apparatus having an imaging element with four or more spectral sensitivity characteristics including infrared light. FIG. 7A is a diagram showing an example of the pixel array of the imaging element in this embodiment. As shown in FIG. 7A, 1 to 16 color filters (CF) having different spectral sensitivities are arranged in the pixel array of the imaging element in this embodiment. The 16 pixels in which the color filters (CF1 to CF16) are arranged are taken as one group, and the color filters are arranged vertically and horizontally in the same arrangement. By making the spectral sensitivity characteristics of the respective color filters different from each other and further narrowing the spectral wavelength band, the imaging element in this embodiment can acquire luminance values for 16 wavelengths.

また、16画素の内、4画素単位のグループに分けて、その4画素単位のカラーフィルタの分光感度特性を波長的に比較的近い成分でまとめておく。図7(b)に、そのようにしてカラーフィルタを配置した撮像素子の画素配列の例を示す。図7(b)に示した例の場合、4画素単位毎にR成分に近い波長(R1~R4)、G成分に近い波長(G1~G4)、B成分に近い波長(B1~B4)、IR成分に近い波長(IR1~IR4)の分光感度特性をそれぞれ持つフィルタをまとめている。 Further, the 16 pixels are divided into groups of 4 pixels, and the spectral sensitivity characteristics of the color filters of the 4 pixels are grouped together with relatively close components in terms of wavelength. FIG. 7(b) shows an example of the pixel array of the image pickup device in which the color filters are arranged in such a manner. In the example shown in FIG. 7B, wavelengths close to the R component (R1 to R4), wavelengths close to the G component (G1 to G4), wavelengths close to the B component (B1 to B4), Filters having spectral sensitivity characteristics for wavelengths (IR1 to IR4) close to IR components are summarized.

図7(c)に、各画素の具体的な対応波長の例を記した画素配列を示す。すなわち、本実施形態における撮像素子は、可視光領域の3色(R成分、G成分、B成分)にそれぞれ対応する画素領域と不可視光領域のIR成分に対応する画素領域を有し、画素領域の各々に分光感度特性の異なる複数の画素を配置した画素配列となっている。 FIG. 7(c) shows a pixel array showing specific examples of corresponding wavelengths of each pixel. That is, the image sensor in this embodiment has a pixel region corresponding to each of the three colors (R component, G component, and B component) in the visible light region and a pixel region corresponding to the IR component in the invisible light region. , each of which has a pixel array in which a plurality of pixels with different spectral sensitivity characteristics are arranged.

このような画素配列とし、カラーフィルタ(R1~R4)が配置されたR成分に近い4画素の輝度値を合成して使用することで、従来の画素配列でのR画素と同等の波長成分を有する画素を生成できる。また、G画素、B画素、及びIR画素に関しても同様の処理を行うことで、従来の画素配列でのG画素、B画素、及びIR画素のそれぞれと同等の波長成分を有する画素を生成でき、RGB+IRの画素配列の撮像素子を実現することができる。このような構成は、従来のベイヤー配列において用いられる信号処理の概念を流用できるため、従来の映像エンジンと親和性が高くなるというメリットもある。 With such a pixel array, by synthesizing and using the luminance values of four pixels close to the R component in which the color filters (R1 to R4) are arranged, the wavelength component equivalent to that of the R pixel in the conventional pixel array can be obtained. can generate pixels with Further, by performing similar processing on G pixels, B pixels, and IR pixels, pixels having wavelength components equivalent to those of G pixels, B pixels, and IR pixels in a conventional pixel array can be generated. It is possible to realize an imaging device with an RGB+IR pixel array. Such a configuration also has the advantage of being highly compatible with conventional video engines, since the concept of signal processing used in the conventional Bayer array can be used.

代表例として図8(a)にB成分を構成する4つの画素の分光感度特性を示す。例えば、カラーフィルタ(B1)が配置された画素の分光感度特性がB成分1(801)であり、カラーフィルタ(B2)が配置された画素の分光感度特性がB成分2(802)である。また、カラーフィルタ(B3)が配置された画素の分光感度特性がB成分3(803)であり、カラーフィルタ(B4)が配置された画素の分光感度特性がB成分4(804)である。 As a representative example, FIG. 8A shows the spectral sensitivity characteristics of four pixels forming the B component. For example, the spectral sensitivity characteristic of a pixel provided with a color filter (B1) is B component 1 (801), and the spectral sensitivity characteristic of a pixel provided with a color filter (B2) is B component 2 (802). Further, the spectral sensitivity characteristic of the pixel on which the color filter (B3) is arranged is B component 3 (803), and the spectral sensitivity characteristic of the pixel on which the color filter (B4) is arranged is B component 4 (804).

このように細かく分けられた波長成分をすべて使うことで、従来のB成分に近い広い波長範囲をカバーした画素を形成できる。これらの画素を形成するために、各色成分について、それぞれ通常の4倍である4画素ずつ使用している。現在の4K画素センサーや8K画素センサー等の超多画素センサーであれば、画素数は十分に余裕があり、映像としても実用可能な範囲内である。このように本実施形態における撮像素子は、従来と同様のRGB画像とIR画像に加えて、さらには様々な波長を細かく観測することができる。 By using all the finely divided wavelength components in this way, it is possible to form a pixel covering a wide wavelength range close to the conventional B component. To form these pixels, four pixels are used for each color component, which is four times the normal number. Current super multi-pixel sensors such as 4K pixel sensors and 8K pixel sensors have a sufficient number of pixels, and are within a practical range for video. As described above, the imaging device of this embodiment can observe various wavelengths in detail in addition to the conventional RGB image and IR image.

次に、図7(b)に例示したような分光感度特性を持った画素配列の撮像素子を用いた輝度補正処理について説明する。前述したように、赤外光領域であるIR成分を使うことを前提とした撮像装置では、赤外光カットフィルタは使用できない。その場合、RGBの各成分のカラーフィルタの中には赤外光を透過させてしまうものもある。一例として図8(b)に、赤外光カットフィルタなしでのB成分を形成する4つの画素の分光感度特性を示す。図8(b)に示したように、一部のカラーフィルタでは赤外光領域の光を透過させている。 Next, luminance correction processing using an imaging device having a pixel array having spectral sensitivity characteristics as illustrated in FIG. 7B will be described. As described above, an infrared light cut filter cannot be used in an image pickup apparatus that is premised on using an IR component that is in the infrared light region. In that case, some of the color filters for each component of RGB transmit infrared light. As an example, FIG. 8B shows spectral sensitivity characteristics of four pixels forming the B component without an infrared light cut filter. As shown in FIG. 8B, some of the color filters transmit light in the infrared region.

以下、説明を簡単化するためにB成分で最も透過率の高いカラーフィルタを例にとって輝度補正を説明する。図9は、B成分を形成する狭帯域なカラーフィルタのひとつ(B3)が配置された画素の分光感度特性と、IR成分を形成するカラーフィルタ(IR1~IR4)が配置された画素の分光感度特性とを合わせて示す図である。 In order to simplify the explanation, the luminance correction will be explained below using a color filter with the highest transmittance for the B component as an example. FIG. 9 shows the spectral sensitivity characteristics of a pixel in which one of the narrow-band color filters (B3) forming the B component is arranged, and the spectral sensitivity of the pixels in which the color filters (IR1 to IR4) forming the IR component are arranged. It is a figure which shows together with a characteristic.

図9においては、カラーフィルタ(B3)が配置された画素の分光感度特性がB成分3(803)であるものとする。また、カラーフィルタ(IR1)が配置された画素の分光感度特性がIR成分1(901)であり、カラーフィルタ(IR2)が配置された画素の分光感度特性がIR成分2(902)であるものとする。また、カラーフィルタ(IR3)が配置された画素の分光感度特性がIR成分3(903)であり、カラーフィルタ(IR4)が配置された画素の分光感度特性がIR成分4(904)であるものとする。 In FIG. 9, it is assumed that the spectral sensitivity characteristic of the pixel in which the color filter (B3) is arranged is B component 3 (803). In addition, the spectral sensitivity characteristic of the pixel on which the color filter (IR1) is arranged is IR component 1 (901), and the spectral sensitivity characteristic of the pixel on which the color filter (IR2) is arranged is IR component 2 (902). and In addition, the spectral sensitivity characteristic of the pixel on which the color filter (IR3) is arranged is IR component 3 (903), and the spectral sensitivity characteristic of the pixel on which the color filter (IR4) is arranged is IR component 4 (904). and

図9に示した例では、B成分に係るカラーフィルタ(B3)は、本来の波長が500nm近辺の光だけでなく、赤外光領域である波長が800nm付近の光も透過している。一方、IR成分に係るカラーフィルタの1つであるカラーフィルタ(IR2)は、B成分に係るカラーフィルタ(B3)での赤外光領域の透過波長に近いところに分光感度を持つ狭帯域なカラーフィルタとなっている。 In the example shown in FIG. 9, the color filter (B3) for the B component transmits not only light with a wavelength of around 500 nm, but also light with a wavelength of around 800 nm, which is in the infrared region. On the other hand, the color filter (IR2), which is one of the color filters for the IR component, is a narrow-band color filter having spectral sensitivity near the transmission wavelength in the infrared region of the color filter (B3) for the B component. It is a filter.

例えば、撮像素子で受像した光が800nm付近に強い成分を持つ光であるものとする。このとき、カラーフィルタ(B3)が配置されたB成分を形成する画素は光量があると検出する。また、波長が800nm付近の光に分光感度を持つIR成分のカラーフィルタが配置された画素(この例ではカラーフィルタ(IR2)が配置された画素)も光量があると検出する。 For example, it is assumed that the light received by the imaging element has a strong component in the vicinity of 800 nm. At this time, it is detected that the pixel forming the B component in which the color filter (B3) is arranged has a light amount. In addition, a pixel in which an IR component color filter having spectral sensitivity to light with a wavelength of about 800 nm is arranged (in this example, a pixel in which a color filter (IR2) is arranged) is also detected as having a light amount.

この場合、予め狭帯域なB成分のカラーフィルタの特性と狭帯域なIR成分のカラーフィルタの特性とがわかっていれば、波長が800nm付近の光に分光感度を持ったカラーフィルタの画素から得られた輝度値を用い、精度よく輝度補正を行うことができる。すなわち、800nm付近の光に分光感度を持ったカラーフィルタの画素から得られた輝度値を利用して、B画素の輝度成分から、それに含まれるIR成分を適切に除去することが可能となる。 In this case, if the characteristics of the narrow-band B component color filter and the narrow-band IR component color filter characteristics are known in advance, Using the obtained luminance value, luminance correction can be performed with high accuracy. That is, it is possible to appropriately remove the IR component contained in the luminance component of the B pixel by using the luminance value obtained from the pixel of the color filter having spectral sensitivity to light around 800 nm.

具体的な補正手順を撮像装置100の処理とともに説明する。撮像装置100において、外部から入射する様々な波長の光は、光学レンズ101で集光され、図7(b)に示したような画素配列の撮像素子102で受光される。撮像素子102で電気信号に変換された各波長の輝度情報は、映像分配部104により必要な波長毎に分配される。 A specific correction procedure will be described together with the processing of the imaging device 100 . In the imaging apparatus 100, light of various wavelengths incident from the outside is condensed by an optical lens 101 and received by an imaging element 102 having a pixel array as shown in FIG. 7B. The luminance information of each wavelength converted into an electric signal by the imaging device 102 is distributed by the image distribution unit 104 for each required wavelength.

例えば、人間の眼で視認できる波長領域である可視光領域に対応する画素の輝度情報は可視映像処理部107へ分けられ、人間の眼では視認できない波長領域である不可視光領域に対応する画素の輝度情報は不可視映像処理部108に分けられる。ここで、例えばIR成分が強く検出された場合、RGBの各成分に余剰なIR成分が含まれているおそれがある。 For example, the luminance information of the pixels corresponding to the visible light region, which is the wavelength region visible to the human eye, is divided into the visible image processing unit 107, and the luminance information of the pixels corresponding to the invisible light region, which is the wavelength region invisible to the human eye. The luminance information is divided into the invisible image processing unit 108 . Here, for example, when the IR component is strongly detected, there is a possibility that each component of RGB includes an excessive IR component.

また、映像分配部104により入力される各波長の輝度値と、分光特性保存部110から取得したカラーフィルタ特性情報とが、分光特性比較部109で比較され、その比較結果が補正係数取得部111に送出される。そして、分光特性比較部109での比較結果に基づいて、補正係数取得部111により輝度補正処理に係る補正係数が算出される。算出された補正係数は、可視映像処理部107や不可視映像処理部108に出力され、可視映像処理部107や不可視映像処理部108が、補正係数に基づいて各成分の輝度補正処理を行う。 Further, the luminance value of each wavelength input by the image distribution unit 104 and the color filter characteristic information acquired from the spectral characteristic storage unit 110 are compared by the spectral characteristic comparison unit 109, and the comparison result is obtained by the correction coefficient acquisition unit 111. is sent to Then, based on the comparison result of the spectral characteristic comparison unit 109, the correction coefficient acquisition unit 111 calculates a correction coefficient for luminance correction processing. The calculated correction coefficients are output to the visible image processing unit 107 and the invisible image processing unit 108, and the visible image processing unit 107 and the invisible image processing unit 108 perform luminance correction processing for each component based on the correction coefficients.

一連の処理を終えた後、輝度補正された可視映像処理部107の出力映像と、不可視映像処理部108で可視化処理された映像とが映像合成部112で適宜合成される。そして、必要に応じてOSD等の情報が付加情報重畳部113にて付与された後、映像表示素子114や映像記録媒体115や映像出力端子116に送出される。 After a series of processes are completed, the output image of the visible image processing unit 107 whose brightness has been corrected and the image visualized by the invisible image processing unit 108 are appropriately synthesized by the image synthesizing unit 112 . After information such as OSD is added by the additional information superimposing unit 113 as necessary, the information is sent to the image display element 114, the image recording medium 115, and the image output terminal 116. FIG.

具体的な輝度補正の例を、図10を参照して説明する。ここでは、IR成分として、波長が800nmの光で光量を取得した場合の例を説明する。分光特性保存部110は、波長が800nmの光における、狭帯域なB成分のカラーフィルタの透過率特性1002と狭帯域なIR成分のカラーフィルタの透過率特性1001とを記憶している。言い換えれば、分光特性保存部110は、波長が800nmの入射光の光量が同じである場合のIR成分のカラーフィルタでの透過量とB成分のカラーフィルタでの透過量との比を示す情報を保持している。 A specific example of luminance correction will be described with reference to FIG. Here, an example in which the amount of light is obtained with light having a wavelength of 800 nm as the IR component will be described. The spectral characteristic storage unit 110 stores a transmittance characteristic 1002 of a narrow-band B component color filter and a transmittance characteristic 1001 of a narrow-band IR component color filter for light with a wavelength of 800 nm. In other words, the spectral characteristic storage unit 110 stores information indicating the ratio of the amount of transmission of the IR component through the color filter and the amount of transmission of the B component through the color filter when the amount of incident light with a wavelength of 800 nm is the same. keeping.

ここで、B成分のカラーフィルタが配置された画素(B画素)から得られる輝度値は、B成分の光によるB輝度成分1011とIR成分の光によるIR輝度成分1012とを合算したものになる。また、IR成分のカラーフィルタが配置された画素(IR画素)では、赤外光領域のみ、すなわちIR成分の光のみによる輝度値1021を取得している。 Here, the luminance value obtained from the pixel (B pixel) in which the B component color filter is arranged is the sum of the B luminance component 1011 due to the B component light and the IR luminance component 1012 due to the IR component light. . A pixel (IR pixel) in which an IR component color filter is arranged obtains a luminance value 1021 of only the infrared light region, that is, only the light of the IR component.

前述した狭帯域なB成分のカラーフィルタ及びIR成分のカラーフィルタの透過率特性の比率(透過量の比)に基づいて、IR画素で取得した輝度値からB画素で取得した輝度値に含まれるIR成分による輝度値1031を算出することができる。例えば、波長が800nmの光について、B成分のカラーフィルタでの透過率が、IR成分のカラーフィルタでの透過率の(1/2)であるものとする。この場合、IR画素で取得した輝度値が100であれば、B画素で取得した輝度値に含まれるIR成分による輝度値は50である。 Based on the transmittance characteristic ratio (transmission amount ratio) of the narrow-band B-component color filter and the IR-component color filter described above, the luminance value obtained by the B pixel is included in the luminance value obtained by the B pixel from the luminance value obtained by the IR pixel. A luminance value 1031 can be calculated from the IR component. For example, for light with a wavelength of 800 nm, the transmittance of the B component color filter is assumed to be (1/2) the transmittance of the IR component color filter. In this case, if the brightness value obtained from the IR pixel is 100, the brightness value of the IR component included in the brightness value obtained from the B pixel is 50.

この算出したIR成分による輝度値1031をB画素で取得された輝度値から減算することで、IR成分の光によるIR輝度成分1012が適切に除去されたB画素の輝度値1041が得られる。このようにして、狭帯域なB成分のカラーフィルタが配置されたB画素に対して、過補正となることを防止して、精度よく輝度補正を行うことができる。ここでは、狭帯域なB成分のカラーフィルタが配置されたB画素を一例に説明したが、他の各画素についても同様である。 By subtracting the calculated brightness value 1031 of the IR component from the brightness value obtained by the B pixel, the brightness value 1041 of the B pixel from which the IR brightness component 1012 of the IR component light has been appropriately removed is obtained. In this manner, overcorrection can be prevented for the B pixels in which the narrow-band B component color filter is arranged, and luminance correction can be performed with high accuracy. Here, the B pixel in which the narrow-band B component color filter is arranged has been described as an example, but the same applies to each of the other pixels.

第1の実施形態によれば、異なる分光感度特性を有する狭波長帯域のカラーフィルタを複数配置した画素配列の撮像素子を用いることで、複数の波長帯の輝度情報を取得することが可能となる。また、各画素から取得される輝度情報に含まれるIR成分を、過補正となることなく適切に除去することができ、精度よく輝度補正を行うことが可能となる。 According to the first embodiment, it is possible to acquire luminance information in a plurality of wavelength bands by using an imaging device having a pixel array in which a plurality of narrow wavelength band color filters having different spectral sensitivity characteristics are arranged. . In addition, the IR component included in the luminance information acquired from each pixel can be appropriately removed without overcorrection, and the luminance can be corrected with high accuracy.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。以下では、第2の実施形態における撮像装置において、前述した第1の実施形態と異なる点についてのみ説明する。前述したように、各成分のカラーフィルタの分光感度特性は様々である。図8(b)に一例を示したように、B成分のカラーフィルタであっても赤外光領域に様々な透過特性を持ってしまうものがある。前述した輝度補正処理の精度をより向上させるために、IR成分のカラーフィルタの透過波長の中心をRGBの各成分のカラーフィルタの赤外光領域の透過特性に合わせて設定することも可能である。
(Second embodiment)
Next, a second embodiment of the invention will be described. In the following, only points of the imaging apparatus according to the second embodiment that are different from the above-described first embodiment will be described. As described above, the spectral sensitivity characteristics of the color filters of each component are various. As an example is shown in FIG. 8B, even a B-component color filter may have various transmission characteristics in the infrared region. In order to further improve the accuracy of the luminance correction processing described above, it is also possible to set the center of the transmission wavelength of the color filter for the IR component in accordance with the transmission characteristics of the infrared region of the color filter for each component of RGB. .

以下、B成分を一例として説明する。例えば、図11(a)及び図11(b)に示すように、B成分1~4(801~804)の赤外光領域におけるピークの波長と、IR成分1~4(901~904)のピークの波長にはズレがある。このピークの波長のズレは輝度補正の精度に影響を及ぼし、ピークの波長のズレが大きいと輝度補正の精度が低下する。そこで、図12(a)及び図12(b)に一例を示すように、B成分1~4(801~804)の赤外光領域におけるピークの波長と、IR成分1~4(1201~1204)のピークの波長が合うように予めフィルタ特性を選択する。 Hereinafter, the B component will be described as an example. For example, as shown in FIGS. 11(a) and 11(b), the peak wavelength in the infrared region of B components 1-4 (801-804) and the IR components 1-4 (901-904) There is a shift in the wavelength of the peak. This peak wavelength deviation affects the accuracy of luminance correction, and if the peak wavelength deviation is large, the accuracy of luminance correction decreases. Therefore, as shown in FIGS. 12(a) and 12(b), peak wavelengths in the infrared region of B components 1 to 4 (801 to 804) and IR components 1 to 4 (1201 to 1204) ), the filter characteristics are selected in advance so that the wavelengths of the peaks of ) match.

このようにB成分のカラーフィルタが配置された画素の赤外光領域における分光感度特性とIR成分のカラーフィルタが配置された画素の分光感度特性とを合わせるように予め調整する。これにより、分光感度特性におけるピークの波長のズレがなくなり輝度補正の精度を向上させることができる。なお、B成分のカラーフィルタが配置された画素だけではないので、R成分やG成分のカラーフィルタが配置された画素の分光感度特性を鑑みてバランスをとることが重要であり、取得したい赤外光領域の波長も加味する必要はある。 In this way, adjustment is performed in advance so that the spectral sensitivity characteristics in the infrared light region of the pixels in which the B component color filters are arranged and the spectral sensitivity characteristics of the pixels in which the IR component color filters are arranged are matched. As a result, there is no peak wavelength shift in the spectral sensitivity characteristics, and the accuracy of luminance correction can be improved. It should be noted that it is important to strike a balance in consideration of the spectral sensitivity characteristics of the pixels in which the R and G component color filters are arranged, since the pixels are not limited to those in which the B component color filter is arranged. It is also necessary to consider the wavelength in the optical region.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。以下では、第3の実施形態における撮像装置において、前述した実施形態と異なる点についてのみ説明する。撮像素子102に配置するカラーフィルタの種類が増えると、それに伴って情報量も増える。その結果、撮像装置100における映像分配部104、分光特性比較部109、分光特性保存部110、及び補正係数取得部111等での処理量が増大する。情報量及び処理量の増大は、撮像装置100の処理能力や消費電力等に影響を及ぼす可能性がある。
(Third Embodiment)
Next, a third embodiment of the invention will be described. Only the differences from the above-described embodiments in the imaging apparatus according to the third embodiment will be described below. As the number of types of color filters arranged on the image sensor 102 increases, the amount of information increases accordingly. As a result, the amount of processing in the image distribution unit 104, the spectral characteristic comparison unit 109, the spectral characteristic storage unit 110, the correction coefficient acquisition unit 111, and the like in the imaging apparatus 100 increases. An increase in the amount of information and the amount of processing may affect the processing capability, power consumption, and the like of the imaging device 100 .

そこで、処理を軽減するために、RGBのそれぞれについて、画素領域毎にその画素領域内の画素から取得される狭波長成分を予め合成して合成輝度情報を得て輝度補正処理を行うようにしてもよい。例えば、図13(a)及び図13(b)に示すように、合成して得られたRGBのそれぞれの成分(1301~1303)に対して、狭波長のIR成分1~4(1311~1314)を用いて輝度補正することも可能である。例えば、図7(b)に示したような撮像素子において、以下のような合成結果に対してIR画素(IR1~IR4)の輝度情報を用いて補正処理を行うことも可能である。
R(合成)=R1+R2+R3+R4
G(合成)=G1+G2+G3+G4
B(合成)=B1+B2+B3+B4
このように狭波長のR成分、G成分、及びB成分を予め合成することにより、撮像装置100での処理量を低減することができ、有限のリソースで実施するには有効な手法である。
Therefore, in order to reduce the processing, for each pixel region, for each pixel region, narrow wavelength components obtained from pixels in the pixel region are combined in advance to obtain combined luminance information, and luminance correction processing is performed. good too. For example, as shown in FIGS. 13A and 13B, narrow wavelength IR components 1 to 4 (1311 to 1314 ) can be used for luminance correction. For example, in the imaging device as shown in FIG. 7B, it is possible to perform correction processing using the luminance information of the IR pixels (IR1 to IR4) for the following synthesis result.
R (composite) = R1 + R2 + R3 + R4
G (composite) = G1 + G2 + G3 + G4
B (composite) = B1 + B2 + B3 + B4
By synthesizing narrow-wavelength R, G, and B components in advance in this manner, the amount of processing in the imaging apparatus 100 can be reduced, which is an effective technique for implementation with limited resources.

なお、前述した実施形態はそれぞれ単独で実現される場合に限らず、前述した実施形態の一部を適宜組み合わせてもよい。また、前述した実施形態では、各色成分を4画素ずつとした例を示したが、さらにカラーフィルタの種類を増やすことで補正精度の向上が望める。 It should be noted that the above-described embodiments are not limited to being realized independently, and some of the above-described embodiments may be combined as appropriate. Further, in the above-described embodiment, an example in which each color component is composed of four pixels has been shown, but the correction accuracy can be improved by increasing the types of color filters.

また、前述した説明では、RGB画素の輝度情報をIR画素で取得されるIR成分を用いて補正することを主として述べたが、IR画素の輝度情報をRGB画素で取得されるRGB成分を用いて補正することも可能である。また、RGB画素の所定の色(例えばR成分)の輝度情報を補正するために、所定の色とは異なる他の色(例えばG成分及びB成分)等の輝度情報を用いて輝度補正を行うことも可能である。また、IR成分だけでなく紫外光領域であるUV(Ultraviolet)成分にも展開可能である。また、各波長成分の情報を記録メディア等に記録させておき、撮影した後に画像処理ソフトウェア等で輝度補正を行うことも可能である。 Further, in the above description, it was mainly described that the luminance information of the RGB pixels is corrected using the IR components obtained by the IR pixels. Correction is also possible. Further, in order to correct the luminance information of a predetermined color (eg, R component) of RGB pixels, luminance correction is performed using luminance information of other colors (eg, G component and B component) different from the predetermined color. is also possible. Moreover, it is possible to develop not only the IR component but also the UV (Ultraviolet) component, which is in the ultraviolet light region. It is also possible to record information of each wavelength component on a recording medium or the like, and perform luminance correction using image processing software or the like after photographing.

(本発明の他の実施形態)
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Another embodiment of the present invention)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

なお、前記実施形態は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that the above-described embodiments are merely examples of specific implementations of the present invention, and the technical scope of the present invention should not be construed to be limited by these. That is, the present invention can be embodied in various forms without departing from its technical concept or main features.

100:撮像装置 101:光学レンズ 102:撮像素子 103:映像エンジン 104:映像分配部 105:撮像素子駆動部 106:レンズ制御部 107:可視映像処理部 108:不可視映像処理部 109:分光特性比較部 110:分光特性保存部 111:補正係数取得部 112:映像合成部 113:付加情報重畳部 100: Imaging device 101: Optical lens 102: Imaging element 103: Image engine 104: Image distributing unit 105: Imaging element driving unit 106: Lens control unit 107: Visible image processing unit 108: Invisible image processing unit 109: Spectral characteristic comparison unit 110: Spectral characteristic storage unit 111: Correction coefficient acquisition unit 112: Video composition unit 113: Additional information superimposition unit

Claims (8)

視光領域の複数の異なる色成分にそれぞれ対応する複数の可視光画素領域と不可視光領域の色成分に対応する不可視光画素領域とが配列され、前記複数の可視光画素領域および前記不可視光画素領域の各々に異なる分光感度特性を有する複数の画素が配置された撮像素子と、
前記複数の可視光画素領域の各々における各画素の前記分光感度特性および前記不可視光画素領域の画素の輝度情報に基づいて、前記複数の可視光画素領域の各々における各画素の補正係数を取得する取得手段と、
記補正係数に基づいて、前記複数の可視光画素領域の各々における各画素の輝度情報を補正する補正処理手段とを有し、
前記複数の可視光画素領域および前記不可視光画素領域の各々に配置された複数の画素の各々の分光波長帯域は、各画素領域に対応する各色成分の波長帯域よりも狭いことを特徴とする撮像装置。
A plurality of visible light pixel regions respectively corresponding to a plurality of different color components of the visible light region and an invisible light pixel region corresponding to the color components of the invisible light region are arranged, and the plurality of visible light pixel regions and the invisible light pixel regions are arranged. an imaging device in which a plurality of pixels having different spectral sensitivity characteristics are arranged in each of the optical pixel regions ;
A correction coefficient for each pixel in each of the plurality of visible light pixel regions is obtained based on the spectral sensitivity characteristics of each pixel in each of the plurality of visible light pixel regions and luminance information of pixels in the invisible light pixel region . acquisition means;
correction processing means for correcting luminance information of each pixel in each of the plurality of visible light pixel regions based on the correction coefficient ;
The spectral wavelength band of each of the plurality of pixels arranged in each of the plurality of visible light pixel regions and the invisible light pixel region is narrower than the wavelength band of each color component corresponding to each pixel region. Device.
前記複数の可視光画素領域の各々における各画素の前記分光感度特性と前記不可視光画素領域の画素の前記輝度情報とを比較する比較手段を有し、
前記取得手段は、前記比較手段での比較結果に基づいて、前記補正係数を取得することを特徴とする請求項1記載の撮像装置。
Comparing means for comparing the spectral sensitivity characteristic of each pixel in each of the plurality of visible light pixel regions with the luminance information of the pixels in the invisible light pixel region ,
2. The imaging apparatus according to claim 1, wherein said acquiring means acquires said correction coefficient based on the comparison result of said comparing means.
前記可視光画素領域に、赤成分に係る前記分光感度特性を有する前記複数の画素を配置した第1の画素領域と、緑成分に係る前記分光感度特性を有する前記複数の画素を配置した第2の画素領域と、青成分に係る前記分光感度特性を有する前記複数の画素を配置した第3の画素領域とが配列され
前記不可視光画素領域に、赤外光成分に係る前記分光感度特性を有する前記複数の画素を配置した第4の画素領域が配列されていることを特徴とする請求項1又は2記載の撮像装置。
In the visible light pixel area, a first pixel area in which the plurality of pixels having the spectral sensitivity characteristic related to the red component are arranged, and a second pixel area in which the plurality of pixels having the spectral sensitivity characteristic related to the green component are arranged. and a third pixel region in which the plurality of pixels having the spectral sensitivity characteristics related to the blue component are arranged ,
3. The imaging according to claim 1, wherein a fourth pixel region in which the plurality of pixels having the spectral sensitivity characteristic related to the infrared light component are arranged is arranged in the invisible light pixel region. Device.
前記複数の可視光画素領域の各々における各画素の分光感度特性に合わせて、前記不可視光画素領域における各画素の分光感度特性が設定されることを特徴とする請求項1~の何れか1項に記載の撮像装置。 4. The spectral sensitivity characteristic of each pixel in the invisible light pixel area is set according to the spectral sensitivity characteristic of each pixel in each of the plurality of visible light pixel areas. 1. The imaging device according to claim 1. 前記取得手段は、前記可視光領域の所定の色成分に対応する前記可視光画素領域の素の補正係数を、前記可視光領域の前記所定の色成分とは異なる色成分に対応する前記可視光画素領域の画素輝度情報に基づいて取得することを特徴とする請求項1~の何れか1項に記載の撮像装置。 The obtaining means associates a correction coefficient of each pixel in the visible light pixel region corresponding to a predetermined color component in the visible light region with a color component different from the predetermined color component in the visible light region. 5. The image pickup device according to claim 1 , wherein the image pickup device is obtained based on luminance information of each pixel in the visible light pixel region. 前記取得手段は、前記複数の可視光画素領域毎に当該画素領域内の画素輝度情報を合成して得られる合成輝度情報に対する前記補正係数を取得し、
前記補正処理手段は、前記合成輝度情報を補正することを特徴とする請求項1~の何れか1項に記載の撮像装置。
The acquisition means acquires the correction coefficient for synthesized luminance information obtained by synthesizing luminance information of each pixel in each of the plurality of visible light pixel regions,
6. The imaging apparatus according to any one of claims 1 to 5 , wherein said correction processing means corrects said synthetic luminance information.
視光領域の複数の異なる色成分にそれぞれ対応する複数の可視光画素領域と不可視光領域の色成分に対応する不可視光画素領域とが配列され、前記複数の可視光画素領域および前記不可視光画素領域の各々に異なる分光感度特性を有する複数の画素が配置された撮像素子を有する撮像装置の撮像方法であって、
前記複数の可視光画素領域および前記不可視光画素領域の各々に配置された複数の画素の各々の分光波長帯域は、各画素領域に対応する各色成分の波長帯域よりも狭く、
前記複数の可視光画素領域の各々における各画素の前記分光感度特性および前記不可視光画素領域の画素の輝度情報に基づいて、前記複数の可視光画素領域の各々における各画素の補正係数を取得する取得工程と、
記補正係数に基づいて、前記複数の可視光画素領域の各々における各画素の輝度情報を補正する補正処理工程とを有することを特徴とする撮像方法。
A plurality of visible light pixel regions respectively corresponding to a plurality of different color components of the visible light region and an invisible light pixel region corresponding to the color components of the invisible light region are arranged, and the plurality of visible light pixel regions and the invisible light pixel regions are arranged. An imaging method for an imaging device having an imaging element in which a plurality of pixels having different spectral sensitivity characteristics are arranged in each of the optical pixel regions ,
the spectral wavelength band of each of the plurality of pixels arranged in each of the plurality of visible light pixel regions and the invisible light pixel region is narrower than the wavelength band of each color component corresponding to each pixel region;
A correction coefficient for each pixel in each of the plurality of visible light pixel regions is obtained based on the spectral sensitivity characteristics of each pixel in each of the plurality of visible light pixel regions and luminance information of pixels in the invisible light pixel region . an acquisition step;
and a correction processing step of correcting luminance information of each pixel in each of the plurality of visible light pixel regions based on the correction coefficient.
視光領域の複数の異なる色成分にそれぞれ対応する複数の可視光画素領域と不可視光領域の色成分に対応する不可視光画素領域とが配列され、前記複数の可視光画素領域および前記不可視光画素領域の各々に異なる分光感度特性を有する複数の画素が配置された撮像素子を有する撮像装置での処理をコンピュータに実行させるプログラムであって、
前記複数の可視光画素領域および前記不可視光画素領域の各々に配置された複数の画素の各々の分光波長帯域は、各画素領域に対応する各色成分の波長帯域よりも狭く、
前記複数の可視光画素領域の各々における各画素の前記分光感度特性および前記不可視光画素領域の画素の輝度情報に基づいて、前記複数の可視光画素領域の各々における各画素の補正係数を取得する取得ステップと、
記補正係数に基づいて、前記複数の可視光画素領域の各々における各画素の輝度情報を補正する補正処理ステップとをコンピュータに実行させるためのプログラム。
A plurality of visible light pixel regions respectively corresponding to a plurality of different color components of the visible light region and an invisible light pixel region corresponding to the color components of the invisible light region are arranged, and the plurality of visible light pixel regions and the invisible light pixel regions are arranged. A program for causing a computer to execute processing in an imaging device having an imaging device in which a plurality of pixels having different spectral sensitivity characteristics are arranged in each of the optical pixel regions ,
the spectral wavelength band of each of the plurality of pixels arranged in each of the plurality of visible light pixel regions and the invisible light pixel region is narrower than the wavelength band of each color component corresponding to each pixel region;
A correction coefficient for each pixel in each of the plurality of visible light pixel regions is obtained based on the spectral sensitivity characteristics of each pixel in each of the plurality of visible light pixel regions and luminance information of pixels in the invisible light pixel region . an acquisition step;
and a correction processing step of correcting luminance information of each pixel in each of the plurality of visible light pixel regions based on the correction coefficient.
JP2018150708A 2018-08-09 2018-08-09 Imaging device and imaging method Active JP7150514B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018150708A JP7150514B2 (en) 2018-08-09 2018-08-09 Imaging device and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018150708A JP7150514B2 (en) 2018-08-09 2018-08-09 Imaging device and imaging method

Publications (2)

Publication Number Publication Date
JP2020027979A JP2020027979A (en) 2020-02-20
JP7150514B2 true JP7150514B2 (en) 2022-10-11

Family

ID=69620387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018150708A Active JP7150514B2 (en) 2018-08-09 2018-08-09 Imaging device and imaging method

Country Status (1)

Country Link
JP (1) JP7150514B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012044519A (en) 2010-08-20 2012-03-01 Olympus Corp Digital camera
JP2013121132A (en) 2011-12-08 2013-06-17 Samsung Yokohama Research Institute Co Ltd Imaging apparatus and imaging method
JP2013121176A (en) 2011-12-09 2013-06-17 Samsung Yokohama Research Institute Co Ltd Imaging device
WO2013145487A1 (en) 2012-03-27 2013-10-03 ソニー株式会社 Image processing device, image-capturing element, image processing method, and program
WO2016047240A1 (en) 2014-09-24 2016-03-31 ソニー株式会社 Image processing device, image pickup element, image pickup device, and image processing method
WO2016098641A1 (en) 2014-12-18 2016-06-23 ソニー株式会社 Image pickup device, image pickup method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012044519A (en) 2010-08-20 2012-03-01 Olympus Corp Digital camera
JP2013121132A (en) 2011-12-08 2013-06-17 Samsung Yokohama Research Institute Co Ltd Imaging apparatus and imaging method
JP2013121176A (en) 2011-12-09 2013-06-17 Samsung Yokohama Research Institute Co Ltd Imaging device
WO2013145487A1 (en) 2012-03-27 2013-10-03 ソニー株式会社 Image processing device, image-capturing element, image processing method, and program
WO2016047240A1 (en) 2014-09-24 2016-03-31 ソニー株式会社 Image processing device, image pickup element, image pickup device, and image processing method
WO2016098641A1 (en) 2014-12-18 2016-06-23 ソニー株式会社 Image pickup device, image pickup method, and program
US20170366723A1 (en) 2014-12-18 2017-12-21 Sony Semiconductor Solutions Corporation Imaging apparatus, imaging method, and program

Also Published As

Publication number Publication date
JP2020027979A (en) 2020-02-20

Similar Documents

Publication Publication Date Title
JP6404923B2 (en) Imaging sensor and imaging apparatus
JP4453189B2 (en) Imaging device
EP2664153B1 (en) Imaging system using a lens unit with longitudinal chromatic aberrations and method of operating
US10630920B2 (en) Image processing apparatus
WO2016047240A1 (en) Image processing device, image pickup element, image pickup device, and image processing method
JP2007074635A (en) Image input apparatus and solid imaging element
JP2007318753A (en) Image capturing device and operation method
US8564654B2 (en) Image pick-up apparatus
JP2008289000A (en) Image input processing device, and method thereof
JP2010154335A (en) Imaging apparatus and imaging method
JP5171004B2 (en) Image processing apparatus, endoscope apparatus, and image processing program
WO2013100033A1 (en) Image processing device and method, and imaging device
JP2015053578A (en) Color image pickup device and color image pickup method
JP2007158628A (en) Imaging apparatus and image processing method
JP5108013B2 (en) Color imaging device, imaging device using the same, and filter
JP7150514B2 (en) Imaging device and imaging method
JP2007318630A (en) Image input device, imaging module, and solid-state image pickup device
JP2003101815A (en) Signal processor and method for processing signal
JP4027116B2 (en) Imaging device and imaging apparatus
JP7121538B2 (en) Imaging device and imaging method
JP2020202441A (en) Image processing device and methods, imaging device
JP4017017B2 (en) Color imaging device
WO2019053764A1 (en) Image-capturing device
JP2009232352A (en) Image pickup device and color filter array
JP6815628B2 (en) Multispectral imager

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220928

R151 Written notification of patent or utility model registration

Ref document number: 7150514

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151