JP4292950B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP4292950B2
JP4292950B2 JP2003371537A JP2003371537A JP4292950B2 JP 4292950 B2 JP4292950 B2 JP 4292950B2 JP 2003371537 A JP2003371537 A JP 2003371537A JP 2003371537 A JP2003371537 A JP 2003371537A JP 4292950 B2 JP4292950 B2 JP 4292950B2
Authority
JP
Japan
Prior art keywords
pixel
color
interpolation
color component
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003371537A
Other languages
Japanese (ja)
Other versions
JP2005136765A (en
Inventor
宜邦 野村
知生 光永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003371537A priority Critical patent/JP4292950B2/en
Publication of JP2005136765A publication Critical patent/JP2005136765A/en
Application granted granted Critical
Publication of JP4292950B2 publication Critical patent/JP4292950B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

本発明は、画像処理装置および画像処理方法、並びにプログラムに関し、特に、偽色の発生と解像度の低下を抑えつつ、全画素に色成分の補間処理ができるようにした画像処理装置および画像処理方法、並びにプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly, to an image processing apparatus and an image processing method capable of performing color component interpolation processing on all pixels while suppressing generation of false colors and reduction in resolution. , As well as programs.

単板式の固定撮像素子を用いた撮影装置で撮影した場合、単一の分光感度しか得られない。そのため、一般的には、多数の画素に対してそれぞれ異なる色フィルタを貼り、それらを特定のパターンで配置してカラー撮影を行う方法が利用されている。この方法で撮像された画像は、画素毎に1つの色しか得ることができないため、色に関してモザイク状になった画像が生成される。そこで、周囲の画素から得られる色情報を利用して補間を行うことにより、全画素で全ての色(例えばRGB)が揃った画像を生成することができる。   When photographing with a photographing device using a single plate type fixed imaging element, only a single spectral sensitivity can be obtained. Therefore, in general, a method is used in which different color filters are attached to a large number of pixels and arranged in a specific pattern to perform color photographing. Since an image captured by this method can obtain only one color for each pixel, an image having a mosaic shape with respect to the color is generated. Therefore, by performing interpolation using color information obtained from surrounding pixels, it is possible to generate an image in which all colors (for example, RGB) are aligned in all pixels.

近年このような撮像装置において、固体撮像素子の画素数が飛躍的に増加するに伴って、電荷の転送や画素補間にかかる処理時間が伸び、高速に連続撮影して動画を得ることが困難になってきている。   In recent years, in such an imaging device, as the number of pixels of the solid-state imaging device has increased dramatically, the processing time for charge transfer and pixel interpolation has increased, making it difficult to obtain moving images by continuously shooting at high speed. It has become to.

そこで、この問題を解決するために、画素を間引く、つまり低解像度にして撮像する方法が検討されてきた。間引き方の原則は、間引き後も局所領域にフィルタの全色が揃っていることであり、撮像素子がCCD(Charge Coupled Device)である場合には、回路上の都合により水平ライン毎に間引かれることが大半である。例えば、特許文献1には、図1に示されるようなベイヤー(Bayer)配列と呼ばれる色配列における間引き方の例が示されており、特許文献2には、図2に示されるようなGストライプRB完全市松色フィルタ配列や図3に示されるようなすRGBストライプ色フィルタ配列における例が示されている。また、例えば特許文献3には、隣接する2ラインをセットとして間引きを行う方法が開示されている。
特開2001−86520号公報 特開平7−312714号公報 特開2001−86520号公報
Therefore, in order to solve this problem, methods for thinning out pixels, that is, imaging with a low resolution have been studied. The principle of thinning is that all the colors of the filter are aligned in the local area even after thinning. If the image sensor is a CCD (Charge Coupled Device), thinning is performed for each horizontal line due to the convenience of the circuit. It is mostly done. For example, Patent Document 1 shows an example of a thinning method in a color array called a Bayer array as shown in FIG. 1, and Patent Document 2 shows a G stripe as shown in FIG. An example of an RB complete checkered filter array and a soot RGB stripe color filter array as shown in FIG. 3 is shown. Further, for example, Patent Document 3 discloses a method of performing thinning with two adjacent lines as a set.
JP 2001-86520 A Japanese Patent Laid-Open No. 7-312714 JP 2001-86520 A

しかしながら、上述したような隣接したラインをセットとして間引く方法では、全ての色情報が隣接ラインから得られるので偽色は出にくいが、空間的な情報はあまり得られない。図4を用いて説明すると、右側に描かれている縞模様を左側のフィルタ配列を1/4に間引いてサンプリングする場合、隣接した1,2行目でGの信号を得るならば、aの縞しか検出することができないが、隣接していない1,4行目を用いると、a,bの縞について検出することができる。隣接しないラインを用いることで偽色が発生してしまう場合、従来の技術では、色成分の帯域を制限し、偽色を低減させる処理が行われてきた。しかし、偽色が発生した後で改めてその発生位置を特定することは困難であり、かといって全画素に処理を行うと、補間画像全体の彩度が落ちてしまうという問題があった。   However, in the method of thinning out adjacent lines as a set as described above, since all color information is obtained from the adjacent lines, false colors are not easily generated, but spatial information is not obtained much. Referring to FIG. 4, when sampling the striped pattern drawn on the right side by thinning out the filter array on the left side to 1/4, if a G signal is obtained in the adjacent first and second rows, Although only fringes can be detected, if the first and fourth rows that are not adjacent to each other are used, the fringes a and b can be detected. In the case where false colors are generated by using non-adjacent lines, in the conventional technology, processing for limiting the band of color components and reducing false colors has been performed. However, it is difficult to specify the generation position again after the false color is generated. However, if all pixels are processed, there is a problem that the saturation of the entire interpolated image is lowered.

また、単板式の固体撮像素子のフィルタは3色に限定されるものではなく、4色用いられる場合もある。良く知られているものには、いわゆる補色系のフィルタ配列があり、原色系のフィルタ配列では、色再現性の向上を狙って、特許文献4に開示されているようにRGBの3色にさらにもう1つの色(以下Eと表記)を足すことで、4色の配列にすることが可能である。このような4色配列において間引きを行う場合もベイヤー配列と同様の問題が発生する。ベイヤー配列においても、Gに隣接するR,Bの配置の違いや、特許文献5、特許文献6で言及されているような、製造過程にけるフィルタの位置ずれ等を原因とした分光特性の違いや、特許文献7に開示されているような偶数ライン、奇数ラインで別の信号出力経路を持つ固体撮像素子に発生するライン間でのゲイン誤差等により、2×2のフィルタ配列内の2つのGが必ずしも同一の特性を持つとは限らず、3色の配列というよりは、事実上4色の配列となっている場合がある。いずれの理由にしても、フィルタの色数が増えることで、1つの色についてのサンプリング数が減ると、間引きによる偽色の発生の問題がより深刻になる。   Further, the filter of the single-plate solid-state image sensor is not limited to three colors, and there are cases where four colors are used. A well-known one is a so-called complementary color filter array, and the primary color filter array further improves the three colors of RGB as disclosed in Patent Document 4 with the aim of improving color reproducibility. By adding another color (hereinafter referred to as E), an array of four colors can be obtained. When thinning is performed in such a four-color arrangement, the same problem as in the Bayer arrangement occurs. Even in the Bayer array, the difference in spectral characteristics caused by the difference in the arrangement of R and B adjacent to G and the positional deviation of the filter in the manufacturing process as mentioned in Patent Document 5 and Patent Document 6 Or two gains in a 2 × 2 filter array due to a gain error between lines generated in a solid-state imaging device having different signal output paths in even lines and odd lines as disclosed in Patent Document 7. G does not necessarily have the same characteristics, and may actually be an array of four colors rather than an array of three colors. For any reason, if the number of colors of the filter increases and the number of samplings for one color decreases, the problem of false color generation due to thinning becomes more serious.

本発明はこのような状況に鑑みてなされたものであり、4色のフィルタ配列において間引きして撮像された色のモザイク信号を用いて、偽色の発生と解像度の低下を抑えつつ、全画素に色成分の補間処理ができるようにするものである。
特開2002−271804号公報 特開平7−135302号公報 特開平8−191141号公報 特開平4−154281号公報
The present invention has been made in view of such a situation, and using a mosaic signal of a color imaged by thinning out in a four-color filter array, while suppressing occurrence of false colors and a decrease in resolution, all pixels In addition, the color component interpolation process can be performed.
JP 2002-271804 A JP 7-135302 A JP-A-8-191141 Japanese Patent Laid-Open No. 4-154281

本発明の画像処理装置は、単板式カラー撮像素子を用いて撮像されたモザイク画像に基づいて、各画素が複数の色成分を有するカラー画像を生成する画像処理装置であって、第1の色成分が第1の水平ラインに配置されるとともに、第2の色成分が第2の水平ラインに配置され、全ての水平ラインには、第1の色成分と第2の色成分のいずれかが配置され、第1の水平ラインにおいて、第1の水平ライン内の画素のみを用いて、第1の色成分がない画素における第1の色成分の補間値である第1の補間値を算出し、第2の水平ラインにおいて、第2の水平ライン内の画素のみを用いて、第2の色成分がない画素における第2の色成分の補間値である第2の補間値を算出する第1の補間値算出手段と、モザイク画像の注目画素の近傍の画素における第1の補間値および第1の色成分、並びに、注目画素の近傍の画素における第2の補間値および第2の色成分に基づいて、注目画素における第1の全色の補間値を算出する第2の補間値算出手段と、モザイク画像の画素値に基づいて、各画素における第1の色成分と第2の色成分からなる第3の色成分を生成する生成手段と、注目画素の近傍の画素における第3の色成分と、注目画素の近傍の画素の画素値に基づいて、注目画素における第2の全色の補間値を算出する第3の補間値算出手段と、第1の全色の補間値および第2の全色の補間値を合成して、第3の全色の補間値を算出する第4の補間値算出手段とを備えることを特徴とする。   An image processing apparatus according to the present invention is an image processing apparatus that generates a color image in which each pixel has a plurality of color components based on a mosaic image captured using a single-plate color image sensor, and the first color The component is arranged on the first horizontal line, the second color component is arranged on the second horizontal line, and any one of the first color component and the second color component is included in all the horizontal lines. A first interpolation value that is an interpolation value of the first color component in a pixel that does not have the first color component is calculated using only pixels in the first horizontal line that are arranged and in the first horizontal line. In the second horizontal line, only the pixels in the second horizontal line are used to calculate a second interpolation value that is an interpolation value of the second color component in a pixel having no second color component. Interpolation value calculation means and pixels near the pixel of interest in the mosaic image. Based on the first interpolation value and the first color component, and the second interpolation value and the second color component in the pixel in the vicinity of the target pixel, the interpolation values of the first all colors in the target pixel are calculated. A second interpolation value calculating means, a generating means for generating a third color component composed of a first color component and a second color component in each pixel based on the pixel value of the mosaic image, A third interpolation value calculating means for calculating an interpolation value for all the second colors in the target pixel based on the third color component in the neighboring pixel and the pixel value of the pixel in the vicinity of the target pixel; And a fourth interpolation value calculating means for calculating the interpolation values of the third all colors by synthesizing the interpolation values of all the colors and the interpolation values of the second all colors.

第4の補間値算出手段は、第1の全色の補間値に基づいて彩度を算出する彩度算出手段と、第1の全色の補間値および第2の全色の補間値に基づいて、色度差を算出する色度差算出手段と、彩度算出手段により算出された彩度と色度差算出手段により算出された色度差に基づいて、ブレンド率を算出するブレンド率算出手段と、第1の全色の補間値および第2の全色の補間値を、ブレンド率を用いて合成する合成手段とを備えるようにすることができる。   The fourth interpolation value calculation means is based on the saturation calculation means for calculating the saturation based on the interpolation values of the first all colors, the interpolation values of the first all colors and the interpolation values of the second all colors. A chromaticity difference calculating means for calculating a chromaticity difference, and a blend ratio calculation for calculating a blend ratio based on the saturation calculated by the saturation calculating means and the chromaticity difference calculated by the chromaticity difference calculating means. And means for synthesizing the interpolated values of the first all colors and the interpolated values of the second all colors using the blend ratio.

第1の色成分および第2の色成分は、互いに相関の高い分光感度を有するようにすることができる。   The first color component and the second color component can have spectral sensitivity highly correlated with each other.

第1の補間値と第2の補間値を算出する前に、モザイク画像の画素に対して、ホワイトバランスを調整する調整手段をさらに備えるようにすることができる。   Before calculating the first interpolation value and the second interpolation value, it is possible to further include adjustment means for adjusting the white balance for the pixels of the mosaic image.

本発明の画像処理方法は、単板式カラー撮像素子を用いて撮像されたモザイク画像に基づいて、各画素が複数の色成分を有するカラー画像を生成する画像処理装置の画像処理方法であって、第1の色成分が第1の水平ラインに配置されるとともに、第2の色成分が第2の水平ラインに配置され、全ての水平ラインには、第1の色成分と第2の色成分のいずれかが配置され、第1の水平ラインにおいて、第1の水平ライン内の画素のみを用いて、第1の色成分がない画素における第1の色成分の補間値である第1の補間値を算出する第1の補間値算出ステップと、第2の水平ラインにおいて、第2の水平ライン内の画素のみを用いて、第2の色成分がない画素における第2の色成分の補間値である第2の補間値を算出する第2の補間値算出ステップと、モザイク画像の注目画素の近傍の画素における第1の補間値および第1の色成分、並びに、注目画素の近傍の画素における第2の補間値および第2の色成分に基づいて、注目画素における第1の全色の補間値を算出する第3の補間値算出ステップと、モザイク画像の画素値に基づいて、各画素における第1の色成分と第2の色成分からなる第3の色成分を生成する生成ステップと、注目画素の近傍の画素における第3の色成分と、注目画素の近傍の画素の画素値に基づいて、注目画素における第2の全色の補間値を算出する第4の補間値算出ステップと、第1の全色の補間値および第2の全色の補間値を合成して、第3の全色の補間値を算出する第5の補間値算出ステップとを含むことを特徴とする。   The image processing method of the present invention is an image processing method of an image processing apparatus that generates a color image in which each pixel has a plurality of color components based on a mosaic image captured using a single-plate color image sensor, The first color component is arranged on the first horizontal line, the second color component is arranged on the second horizontal line, and all the horizontal lines have the first color component and the second color component. The first interpolation which is an interpolation value of the first color component in the pixel having no first color component using only the pixels in the first horizontal line in the first horizontal line. A first interpolation value calculation step for calculating a value, and an interpolation value of the second color component in a pixel having no second color component by using only pixels in the second horizontal line in the second horizontal line The second interpolation value calculation step for calculating the second interpolation value is And the first interpolation value and the first color component in the pixel in the vicinity of the target pixel of the mosaic image, and the second interpolation value and the second color component in the pixel in the vicinity of the target pixel. A third interpolation value calculating step for calculating the interpolation values of all the first colors in the pixel, and a third interpolation unit including a first color component and a second color component in each pixel based on the pixel value of the mosaic image. Based on the generation step for generating the color component, the third color component in the pixel in the vicinity of the target pixel, and the pixel value of the pixel in the vicinity of the target pixel, the interpolation values of the second all colors in the target pixel are calculated. A fourth interpolation value calculating step; a fifth interpolation value calculating step for calculating an interpolation value for the third all color by synthesizing the interpolation value for the first all color and the interpolation value for the second all color; It is characterized by including.

本発明のプログラムは、単板式カラー撮像素子を用いて撮像されたモザイク画像に基づいて、各画素が複数の色成分を有するカラー画像を生成するプログラムであって、第1の色成分が第1の水平ラインに配置されるとともに、第2の色成分が第2の水平ラインに配置され、全ての水平ラインには、第1の色成分と第2の色成分のいずれかが配置され、第1の水平ラインにおいて、第1の水平ライン内の画素のみを用いて、第1の色成分がない画素における第1の色成分の補間値である第1の補間値を算出する第1の補間値算出ステップと、第2の水平ラインにおいて、第2の水平ライン内の画素のみを用いて、第2の色成分がない画素における第2の色成分の補間値である第2の補間値を算出する第2の補間値算出ステップと、モザイク画像の注目画素の近傍の画素における第1の補間値および第1の色成分、並びに、注目画素の近傍の画素における第2の補間値および第2の色成分に基づいて、注目画素における第1の全色の補間値を算出する第3の補間値算出ステップと、モザイク画像の画素値に基づいて、各画素における第1の色成分と第2の色成分からなる第3の色成分を生成する生成ステップと、注目画素の近傍の画素における第3の色成分と、注目画素の近傍の画素の画素値に基づいて、注目画素における第2の全色の補間値を算出する第4の補間値算出ステップと、第1の全色の補間値および第2の全色の補間値を合成して、第3の全色の補間値を算出する第5の補間値算出ステップとを含む処理をコンピュータに実行させることを特徴とする。   The program of the present invention is a program for generating a color image in which each pixel has a plurality of color components based on a mosaic image captured using a single-plate color imaging device, and the first color component is the first color component. And the second color component is arranged on the second horizontal line, and any one of the first color component and the second color component is arranged on all the horizontal lines. 1st interpolation which calculates the 1st interpolation value which is the interpolation value of the 1st color component in the pixel which does not have the 1st color component, using only the pixel in the 1st horizontal line in 1 horizontal line In the value calculating step, in the second horizontal line, only the pixels in the second horizontal line are used, and the second interpolation value that is the interpolation value of the second color component in the pixel having no second color component is obtained. A second interpolation value calculating step to calculate, and a mosaic image Based on the first interpolation value and the first color component in the pixel in the vicinity of the target pixel, and the second interpolation value and the second color component in the pixel in the vicinity of the target pixel. Based on the third interpolation value calculation step for calculating the interpolation values of all colors and the pixel value of the mosaic image, a third color component composed of the first color component and the second color component in each pixel is generated. Based on the generation step, the third color component in the pixel in the vicinity of the target pixel, and the pixel value in the pixel in the vicinity of the target pixel, the fourth interpolation value for calculating the interpolation values of the second all colors in the target pixel A computer including a calculation step and a fifth interpolation value calculation step of combining the interpolation values of the first all colors and the interpolation values of the second all colors to calculate the interpolation values of the third all colors. It is made to perform.

本発明においては、第1の色成分が第1の水平ラインに配置されるとともに、第2の色成分が第2の水平ラインに配置され、全ての水平ラインには、第1の色成分と第2の色成分のいずれかが配置され、第1の水平ラインにおいて、第1の水平ライン内の画素のみを用いて、第1の色成分がない画素における第1の色成分の補間値である第1の補間値が算出され、第2の水平ラインにおいて、第2の水平ライン内の画素のみを用いて、第2の色成分がない画素における第2の色成分の補間値である第2の補間値が算出され、モザイク画像の注目画素の近傍の画素における第1の補間値および第1の色成分、並びに、注目画素の近傍の画素における第2の補間値および第2の色成分に基づいて、注目画素における第1の全色の補間値が算出され、モザイク画像の画素値に基づいて、各画素における第1の色成分と第2の色成分からなる第3の色成分が生成され、注目画素の近傍の画素における第3の色成分と、注目画素の近傍の画素の画素値に基づいて、注目画素における第2の全色の補間値が算出され、第1の全色の補間値および第2の全色の補間値を合成して、第3の全色の補間値が算出される。   In the present invention, the first color component is arranged on the first horizontal line, the second color component is arranged on the second horizontal line, and all the horizontal lines have the first color component and Any one of the second color components is arranged, and in the first horizontal line, only the pixels in the first horizontal line are used, and the interpolation value of the first color component in the pixel having no first color component is used. A first interpolation value is calculated, and in the second horizontal line, only the pixels in the second horizontal line are used, and the interpolation value of the second color component in the pixel having no second color component is used. 2 interpolation values are calculated, the first interpolation value and the first color component in the pixel near the target pixel of the mosaic image, and the second interpolation value and the second color component in the pixel near the target pixel Based on the above, the interpolation values of the first all colors in the target pixel are calculated. Based on the pixel value of the mosaic image, a third color component including the first color component and the second color component in each pixel is generated, and the third color component in the pixel near the target pixel and the target pixel are generated. Based on the pixel values of the pixels in the vicinity of the second pixel, the interpolation values of the second all colors in the pixel of interest are calculated, and the first all color interpolation values and the second all color interpolation values are synthesized to obtain the third Interpolated values of all the colors are calculated.

本発明によれば、偽色の発生と解像度の低下を抑えつつ、全画素に色成分の補間をすることができる。特に、本発明によれば、偽色の発生位置の判定を精度良く行うことができる。また、高品位な色成分の補間を可能とする。さらに、より自然な補間画像を得ることができる。   According to the present invention, it is possible to interpolate color components for all pixels while suppressing generation of false colors and reduction in resolution. In particular, according to the present invention, it is possible to accurately determine the occurrence position of a false color. In addition, high-quality color components can be interpolated. Furthermore, a more natural interpolation image can be obtained.

以下に本発明の実施の形態を説明するが、本明細書に記載の発明と、発明の実施の形態との対応関係を例示すると、次のようになる。この記載は、本明細書に記載されている発明をサポートする実施の形態が、本明細書に記載されていることを確認するためのものである。したがって、発明の実施の形態中には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. The correspondence relationship between the invention described in this specification and the embodiments of the invention is exemplified as follows. This description is intended to confirm that the embodiments supporting the invention described in this specification are described in this specification. Therefore, even if there is an embodiment that is described in the embodiment of the invention but is not described here as corresponding to the invention, the fact that the embodiment is not It does not mean that it does not correspond to the invention. Conversely, even if an embodiment is described herein as corresponding to an invention, that means that the embodiment does not correspond to an invention other than the invention. Absent.

更に、この記載は、本明細書に記載されている発明の全てを意味するものでもない。換言すれば、この記載は、本明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現、追加される発明の存在を否定するものではない。   Further, this description does not mean all the inventions described in this specification. In other words, this description is for the invention described in the present specification, which is not claimed in this application, that is, for the invention that will be applied for in the future or that will appear and be added by amendment. It does not deny existence.

本発明によれば画像処理装置が提供される。この画像処理装置(例えば、図5のデジタルカメラ201)は、単板式カラー撮像素子(例えば、図5のCCDイメージセンサ213)を用いて撮像されたモザイク画像に基づいて、各画素が複数の色成分を有するカラー画像を生成する画像処理装置であって、第1の色成分(例えば、G)が第1の水平ラインに配置されるとともに、第2の色成分(例えば、E)が第2の水平ラインに配置され、全ての水平ラインには、第1の色成分と第2の色成分のいずれかが配置され、第1の水平ラインにおいて、第1の水平ライン内の画素のみを用いて、第1の色成分がない画素(例えば、B)における第1の色成分(例えば、G)の補間値である第1の補間値(例えば、図12のステップS108の処理で算出されるL(j,k)(但し、(j,k)は処理画素位置))を算出し、第2の水平ラインにおいて、第2の水平ライン内の画素のみを用いて、第2の色成分がない画素(例えば、R)における第2の色成分の補間値である第2の補間値(例えば、図12のステップS104の処理で算出されるL(j,k))を算出する第1の補間値算出手段(例えば、図8のG,E補間処理部262)と、モザイク画像の注目画素の近傍の画素における第1の補間値および第1の色成分、並びに、注目画素の近傍の画素における第2の補間値および第2の色成分に基づいて、注目画素における第1の全色の補間値(例えば、図14のステップS154の処理で算出されるRF,GF,BF,EF)を算出する第2の補間値算出手段(図8の全色補間処理部264)と、モザイク画像の画素値に基づいて、各画素における第1の色成分と第2の色成分からなる第3の色成分(例えば、G+E)を生成する生成手段と、注目画素の近傍の画素における第3の色成分と、注目画素の近傍の画素の画素値に基づいて、注目画素における第2の全色の補間値(例えば、図23のステップS507の処理で算出されるRU,GU,BU,EU)を算出する第3の補間値算出手段(図8の全色補間処理部265)と、第1の全色の補間値および第2の全色の補間値を合成して、第3の全色の補間値(例えば、図24のステップS559で出力されるC’’)を算出する第4の補間値算出手段(例えば、図8の合成処理部266)とを含む。   According to the present invention, an image processing apparatus is provided. In this image processing apparatus (for example, the digital camera 201 in FIG. 5), each pixel has a plurality of colors based on a mosaic image captured using a single-plate color image sensor (for example, the CCD image sensor 213 in FIG. 5). An image processing apparatus that generates a color image having components, wherein a first color component (for example, G) is arranged on a first horizontal line, and a second color component (for example, E) is second. The first color component and the second color component are arranged in all the horizontal lines, and only the pixels in the first horizontal line are used in the first horizontal line. Thus, the first interpolation value (for example, the processing of step S108 in FIG. 12) that is the interpolation value of the first color component (for example, G) in the pixel that has no first color component (for example, B) is calculated. L (j, k) (However, (j, k) Processing pixel position)), and in the second horizontal line, only the pixels in the second horizontal line are used, and the interpolation of the second color component in the pixel having no second color component (for example, R) is performed. First interpolation value calculation means (for example, G and E interpolation processes in FIG. 8) for calculating a second interpolation value (for example, L (j, k) calculated in the process of step S104 in FIG. 12). 262), the first interpolation value and the first color component in the pixel in the vicinity of the target pixel of the mosaic image, and the second interpolation value and the second color component in the pixel in the vicinity of the target pixel. Second interpolation value calculation means (all colors in FIG. 8) for calculating the interpolation values of the first all colors in the target pixel (for example, RF, GF, BF, EF calculated in step S154 in FIG. 14) Based on interpolation processing unit 264) and pixel values of the mosaic image Generating means for generating a third color component (for example, G + E) composed of a first color component and a second color component in each pixel, a third color component in a pixel in the vicinity of the target pixel, and a target Based on the pixel values of the pixels in the vicinity of the pixel, the third interpolation value for the second all colors in the target pixel (for example, RU, GU, BU, EU calculated in the process of step S507 in FIG. 23) is calculated. The interpolation value calculation means (all color interpolation processing unit 265 in FIG. 8) and the interpolation values of the first all colors and the interpolation values of the second all colors are synthesized to obtain the interpolation values of the third all colors (for example, , Fourth interpolation value calculation means (for example, the synthesis processing unit 266 in FIG. 8) for calculating C ″) output in step S559 in FIG.

第4の補間値算出手段は、前記第1の全色の補間値に基づいて彩度(例えば、彩度S)を算出する彩度算出手段(例えば、図9の彩度算出処理部302)と、前記第1の全色の補間値および前記第2の全色の補間値に基づいて、色度差(例えば、色度差ΔCc)を算出する色度差算出手段(例えば、図9の色度差算出処理部304)と、前記彩度算出手段により算出された前記彩度と前記色度差算出手段により算出された前記色度差に基づいて、ブレンド率(例えば、r)を算出するブレンド率算出手段(例えば、図9のブレンド率算出処理部303)と、前記第1の全色の補間値および前記第2の全色の補間値を、前記ブレンド率を用いて合成する合成手段(例えば、図9のブレンド処理部305)とをさらに備えるようにすることができる。   The fourth interpolation value calculating means calculates saturation (for example, saturation S) based on the interpolation values of the first all colors (for example, saturation calculation processing unit 302 in FIG. 9). And a chromaticity difference calculating means (for example, FIG. 9) that calculates a chromaticity difference (for example, chromaticity difference ΔCc) based on the interpolation values of the first all colors and the second all colors. A blend ratio (for example, r) is calculated based on the chromaticity difference calculation processing unit 304) and the saturation calculated by the saturation calculation unit and the chromaticity difference calculated by the chromaticity difference calculation unit. A blend ratio calculating unit (for example, blend ratio calculation processing unit 303 in FIG. 9), and a composition for combining the interpolation values of the first all colors and the interpolation values of the second all colors using the blend ratio. A means (for example, blend processing unit 305 in FIG. 9). .

第1の色成分および第2の色成分は、互いに相関の高い分光感度を有するようにすることができる。   The first color component and the second color component can have spectral sensitivity highly correlated with each other.

第1の補間値と第2の補間値を算出する前に、モザイク画像の画素に対して、ホワイトバランスを調整する調整手段(例えば、図7のホワイトバランス調整部251)をさらに備えるようにすることができる。   Before calculating the first interpolation value and the second interpolation value, adjustment means (for example, the white balance adjustment unit 251 in FIG. 7) for adjusting the white balance for the pixels of the mosaic image is further provided. be able to.

本発明によれば、画像処理方法が提供される。この画像処理方法は、単板式カラー撮像素子を用いて撮像されたモザイク画像に基づいて、各画素が複数の色成分を有するカラー画像を生成する画像処理装置(例えば、図5のデジタルカメラ201)の画像処理方法であって、第1の色成分(例えば、G)が第1の水平ラインに配置されるとともに、第2の色成分(例えば、E)が第2の水平ラインに配置され、全ての水平ラインには、前記第1の色成分と前記第2の色成分のいずれかが配置され、前記第1の水平ラインにおいて、前記第1の水平ライン内の画素のみを用いて、前記第1の色成分がない画素(例えば、B)における前記第1の色成分(例えば、G)の補間値である第1の補間値(例えば、図12のステップS108の処理で算出されるL(j,k))を算出する第1の補間値算出ステップ(例えば、図12のステップS108)と、前記第2の水平ラインにおいて、前記第2の水平ライン内の画素のみを用いて、前記第2の色成分がない画素(例えば、R)における前記第2の色成分の補間値である第2の補間値(例えば、図12のステップS104の処理で算出されるL(j,k))を算出する第2の補間値算出ステップ(例えば、図12のステップS104)と、前記モザイク画像の注目画素の近傍の画素における前記第1の補間値および第1の色成分、並びに、前記注目画素の近傍の画素における前記第2の補間値および前記第2の色成分に基づいて、前記注目画素における第1の全色の補間値(例えば、図14のステップS154の処理で算出されるRF,GF,BF,EF)を算出する第3の補間値算出ステップ(例えば、図11のステップS54)と、前記モザイク画像の画素値に基づいて、各画素における前記第1の色成分と前記第2の色成分からなる第3の色成分(例えば、G+E)を生成する生成ステップ(例えば、図11のステップS55)と、前記注目画素の近傍の画素における前記第3の色成分(例えば、G+E)と、前記注目画素の近傍の画素の画素値に基づいて、前記注目画素における第2の全色の補間値(例えば、図23のステップS507の処理で算出されるRU,GU,BU,EU)を算出する第4の補間値算出ステップ(例えば、図11のステップS56)と、前記第1の全色の補間値および前記第2の全色の補間値を合成して、第3の全色の補間値(例えば、図24のステップS559で出力されるC’’)を算出する第5の補間値算出ステップ(例えば、図11のステップS57)とを含む。   According to the present invention, an image processing method is provided. This image processing method is an image processing apparatus (for example, the digital camera 201 in FIG. 5) that generates a color image in which each pixel has a plurality of color components based on a mosaic image captured using a single-plate color image sensor. The first color component (for example, G) is disposed on the first horizontal line, and the second color component (for example, E) is disposed on the second horizontal line. All the horizontal lines are provided with either the first color component or the second color component, and in the first horizontal line, using only the pixels in the first horizontal line, A first interpolation value (for example, L calculated in the process of step S108 in FIG. 12) that is an interpolation value of the first color component (for example, G) in a pixel that has no first color component (for example, B). (J, k)) to calculate the first interpolation value In the calculation step (for example, step S108 in FIG. 12), and in the second horizontal line, only the pixel in the second horizontal line is used and the pixel without the second color component (for example, R) is used. A second interpolation value calculating step (for example, calculating a second interpolation value (for example, L (j, k) calculated in the process of step S104 in FIG. 12)) that is the interpolation value of the second color component. Step S104 in FIG. 12, the first interpolation value and the first color component in the pixel in the vicinity of the target pixel of the mosaic image, the second interpolation value in the pixel in the vicinity of the target pixel and the Based on the second color component, a third interpolation that calculates the interpolation values (for example, RF, GF, BF, EF calculated in the process of step S154 in FIG. 14) of the first all colors in the pixel of interest. Value calculation Based on the step (for example, step S54 in FIG. 11) and the pixel value of the mosaic image, a third color component (for example, G + E) composed of the first color component and the second color component in each pixel. Based on the generation step (for example, step S55 in FIG. 11), the third color component (for example, G + E) in the pixel in the vicinity of the target pixel, and the pixel value of the pixel in the vicinity of the target pixel. A fourth interpolation value calculating step (for example, FIG. 11) for calculating the interpolation values (for example, RU, GU, BU, EU calculated in the process of step S507 in FIG. 23) of the second all colors in the target pixel. Step S56) and the interpolation values of the first all colors and the second all colors are synthesized and output in the third all colors (for example, step S559 in FIG. 24). C '') Fifth interpolation value calculation step of (e.g., step S57 of FIG. 11) and a.

本発明によれば、プログラムが提供される。このプログラムは、単板式カラー撮像素子を用いて撮像されたモザイク画像に基づいて、各画素が複数の色成分を有するカラー画像を生成するプログラムであって、第1の色成分(例えば、G)が第1の水平ラインに配置されるとともに、第2の色成分(例えば、E)が第2の水平ラインに配置され、全ての水平ラインには、前記第1の色成分と前記第2の色成分のいずれかが配置され、前記第1の水平ラインにおいて、前記第1の水平ライン内の画素のみを用いて、前記第1の色成分がない画素(例えば、B)における前記第1の色成分(例えば、G)の補間値である第1の補間値(例えば、図12のステップS108の処理で算出されるL(j,k))を算出する第1の補間値算出ステップ(例えば、図12のステップS108)と、前記第2の水平ラインにおいて、前記第2の水平ライン内の画素のみを用いて、前記第2の色成分がない画素(例えば、R)における前記第2の色成分の補間値である第2の補間値(例えば、図12のステップS104の処理で算出されるL(j,k))を算出する第2の補間値算出ステップ(例えば、図12のステップS104)と、前記モザイク画像の注目画素の近傍の画素における前記第1の補間値および第1の色成分、並びに、前記注目画素の近傍の画素における前記第2の補間値および前記第2の色成分に基づいて、前記注目画素における第1の全色の補間値(例えば、図14のステップS154の処理で算出されるRF,GF,BF,EF)を算出する第3の補間値算出ステップ(例えば、図11のステップS54)と、前記モザイク画像の画素値に基づいて、各画素における前記第1の色成分と前記第2の色成分からなる第3の色成分(例えば、G+E)を生成する生成ステップ(例えば、図11のステップS55)と、前記注目画素の近傍の画素における前記第3の色成分(例えば、G+E)と、前記注目画素の近傍の画素の画素値に基づいて、前記注目画素における第2の全色の補間値(例えば、図23のステップS507の処理で算出されるRU,GU,BU,EU)を算出する第4の補間値算出ステップ(例えば、図11のステップS56)と、前記第1の全色の補間値および前記第2の全色の補間値を合成して、第3の全色の補間値(例えば、図24のステップS559で出力されるC’’)を算出する第5の補間値算出ステップ(例えば、図11のステップS57)とをコンピュータに実行させる。   According to the present invention, a program is provided. This program is a program for generating a color image in which each pixel has a plurality of color components based on a mosaic image captured using a single-plate color image sensor, and the first color component (for example, G) Are arranged on the first horizontal line, and a second color component (for example, E) is arranged on the second horizontal line, and all the horizontal lines include the first color component and the second color component. Any one of the color components is arranged, and in the first horizontal line, only the pixels in the first horizontal line are used, and the first in the pixel (for example, B) without the first color component is used. A first interpolation value calculating step (for example, a first interpolation value (for example, L (j, k) calculated in the process of step S108 in FIG. 12)) that is an interpolation value of a color component (for example, G). , Step S108 in FIG. In the second horizontal line, only the pixels in the second horizontal line are used, and the second color component is an interpolation value of the second color component in a pixel having no second color component (for example, R). A second interpolation value calculation step (for example, step S104 in FIG. 12) for calculating an interpolation value (for example, L (j, k) calculated in the process of step S104 in FIG. 12), and the target pixel of the mosaic image Based on the first interpolation value and the first color component in the pixel in the vicinity of the pixel, and the second interpolation value and the second color component in the pixel in the vicinity of the pixel of interest. A third interpolation value calculation step (for example, step S54 in FIG. 11) for calculating interpolation values for all the colors of one (for example, RF, GF, BF, and EF calculated in the process of step S154 in FIG. 14); Mosai A generating step (for example, step S55 in FIG. 11) that generates a third color component (for example, G + E) composed of the first color component and the second color component in each pixel based on the pixel value of the image. Based on the third color component (for example, G + E) in the pixel in the vicinity of the target pixel and the pixel value of the pixel in the vicinity of the target pixel. For example, a fourth interpolation value calculation step (for example, step S56 in FIG. 11) for calculating RU, GU, BU, EU calculated in the process of step S507 in FIG. 23, and interpolation of the first all colors A fifth interpolation value calculation step of calculating the interpolation value of the third all colors (for example, C ″ output in step S559 of FIG. 24) by combining the values and the interpolation values of the second all colors (For example, step of FIG. 57) and causes the computer to execute.

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図5は、本発明を適用したデジタルカメラ201の構成を示すブロック図である。   FIG. 5 is a block diagram showing a configuration of a digital camera 201 to which the present invention is applied.

図5に示すように、デジタルカメラ201は、レンズ211、絞り212、CCD(Charge Coupled Devices)イメージセンサ213、相関2重サンプリング(CDS:Correlated Double Sampling)回路214、A/Dコンバータ215、DSP(Digital Signal Processor)ブロック216、タイミングジェネレータ217、D/Aコンバータ218、ビデオエンコーダ219、表示部220、コーデック(CODEC:COmpression/DECompression)処理部221、メモリ222、CPU(Central Processing Unit)223、および、操作入力部224から構成される。   As shown in FIG. 5, a digital camera 201 includes a lens 211, a diaphragm 212, a CCD (Charge Coupled Devices) image sensor 213, a correlated double sampling (CDS) circuit 214, an A / D converter 215, and a DSP (DSP). Digital Signal Processor) block 216, timing generator 217, D / A converter 218, video encoder 219, display unit 220, CODEC (CODEC: COmpression / DECompression) processing unit 221, memory 222, CPU (Central Processing Unit) 223, and The operation input unit 224 is configured.

CCDとは、光情報を電気信号に変換する(光電変換)半導体素子であり、CCDイメージセンサ213は、光を電気に変換する受光素子(画素)を複数個並べ、光の変化を画素ごとに独立して電気信号に変換するものである。相関2重サンプリング回路214は、CCDイメージセンサ213の出力信号に含まれるノイズのうちの主な成分であるリセットノイズを、出力の各画素信号のうち、映像信号期間をサンプリングしたものと、基準期間をサンプリングしたものとを引き算することにより除去する回路である。A/Dコンバータ215は、供給されたノイズ除去後のアナログ信号をデジタル信号に変換する。   The CCD is a semiconductor element that converts light information into an electrical signal (photoelectric conversion). The CCD image sensor 213 has a plurality of light receiving elements (pixels) that convert light into electricity, and changes in light for each pixel. It converts to an electric signal independently. The correlated double sampling circuit 214 samples the reset noise, which is the main component of the noise included in the output signal of the CCD image sensor 213, from the sampled video signal period of the output pixel signals, and the reference period. Is a circuit that removes the signal by subtracting the sampled signal. The A / D converter 215 converts the supplied analog signal after noise removal into a digital signal.

DSPブロック216は、信号処理用プロセッサと画像用RAM(Random Access Memory)を持つブロックで、信号処理用プロセッサが画像用RAMに格納された画像データに対して、予めプログラムされた画像処理、または、ハードウェアによる演算処理として構成された画像処理を行うものである。タイミングジェネレータ217は、CCDを駆動するために必要な、水平および垂直の各種駆動パルス、並びに、アナログフロント処理で用いるパルスを、基準クロックに同期して発生させるロジック回路である。また、タイミングジェネレータ217により発生されるタイミングクロックは、バス225を介して、コーデック処理部221、メモリ222、および、CPU223にも供給されている。   The DSP block 216 is a block having a signal processing processor and an image RAM (Random Access Memory), and the signal processing processor performs pre-programmed image processing on image data stored in the image RAM, or It performs image processing configured as arithmetic processing by hardware. The timing generator 217 is a logic circuit that generates various horizontal and vertical driving pulses necessary for driving the CCD and pulses used in the analog front processing in synchronization with the reference clock. The timing clock generated by the timing generator 217 is also supplied to the codec processing unit 221, the memory 222, and the CPU 223 via the bus 225.

D/Aコンバータ218は、供給されたデジタル信号をアナログ信号に変換して出力する。ビデオエンコーダ219は、供給されたアナログ信号を、表示部220において表示可能な形式のビデオデータにエンコードする。表示部220は、例えば、LCD(Liquid Crystal Display)などで構成され、ビデオエンコーダ219から供給されたビデオ信号を表示する。   The D / A converter 218 converts the supplied digital signal into an analog signal and outputs the analog signal. The video encoder 219 encodes the supplied analog signal into video data in a format that can be displayed on the display unit 220. The display unit 220 is configured by, for example, an LCD (Liquid Crystal Display) and displays the video signal supplied from the video encoder 219.

コーデック処理部221は、例えば、MPEG(Moving Picture Coding Experts Group/Moving Picture Experts Group)などの、デジタルビデオデータの圧縮または伸張アルゴリズムによる処理を実行する。メモリ222は、例えば、半導体メモリ、磁気ディスク、光磁気ディスク、または、光ディスクなどにより構成され、CPU223の制御に基づいて、供給されたデータを記憶したり、または、記憶しているデータを出力する。なお、メモリ222は、デジタルカメラ201に対して着脱可能なようになされていても良い。   The codec processing unit 221 performs processing by digital video data compression or expansion algorithm such as MPEG (Moving Picture Coding Experts Group / Moving Picture Experts Group), for example. The memory 222 is configured by, for example, a semiconductor memory, a magnetic disk, a magneto-optical disk, or an optical disk, and stores supplied data or outputs stored data based on control of the CPU 223. . Note that the memory 222 may be detachable from the digital camera 201.

CPU223は、バス225を介して、操作入力部224から供給されたユーザの操作入力を基に、デジタルカメラ201の各部を制御する。操作入力部224は、録画を指令する場合のボタンをはじめとして、例えば、ジョグダイヤル、キー、レバー、ボタン、またはタッチパネルなどにより構成され、ユーザによる操作入力を受ける。   The CPU 223 controls each unit of the digital camera 201 based on a user operation input supplied from the operation input unit 224 via the bus 225. The operation input unit 224 includes, for example, a jog dial, a key, a lever, a button, or a touch panel as well as a button for instructing recording, and receives an operation input by a user.

レンズ211および絞り212を介して入力された光は、CCDイメージセンサ213に入射され、受光素子での光電変換によって電気信号に変換され、相関2重サンプリング回路214に供給される。相関2重サンプリング回路214は、CCDイメージセンサ213の出力の各画素信号のうち、映像信号期間をサンプリングしたものと、基準期間をサンプリングしたものとを引き算することによりノイズを除去し、A/Dコンバータ215に供給する。A/Dコンバータ215は、供給されたノイズ除去後のアナログ信号をデジタル信号に変換し、DSPブロック216の画像用RAMに一時格納する。   Light input through the lens 211 and the diaphragm 212 is incident on the CCD image sensor 213, converted into an electrical signal by photoelectric conversion at the light receiving element, and supplied to the correlated double sampling circuit 214. The correlated double sampling circuit 214 removes noise by subtracting the sampled video signal period and the sampled reference period from the pixel signals output from the CCD image sensor 213, and A / D This is supplied to the converter 215. The A / D converter 215 converts the supplied analog signal after noise removal into a digital signal, and temporarily stores it in the image RAM of the DSP block 216.

タイミングジェネレータ217は、撮像中の状態において、一定のフレームレートによる画像取り込みを維持するように、CCDイメージセンサ213、相関2重サンプリング回路214、A/Dコンバータ215、および、DSPブロック216を制御する。   The timing generator 217 controls the CCD image sensor 213, the correlated double sampling circuit 214, the A / D converter 215, and the DSP block 216 so as to maintain image capture at a constant frame rate during imaging. .

DSPブロック216は、一定のレートで画素のストリームデータの供給を受け、画像用RAMに一時格納し、信号処理用プロセッサにおいて、一時格納された画像データに対して、後述する画像処理を実行する。DSPブロック216は、画像処理の終了後、CPU223の制御に基づいて、その画像データを表示部220に表示させる場合は、D/Aコンバータ218に、メモリ222に記憶させる場合は、コーデック処理部221に画像データを供給する。   The DSP block 216 receives supply of pixel stream data at a constant rate, temporarily stores it in the image RAM, and executes image processing (to be described later) on the temporarily stored image data in the signal processing processor. When the image block is displayed on the display unit 220 after the image processing is completed, the DSP block 216 displays the code data in the D / A converter 218 and the codec processing unit 221 in the case where the image data is stored in the memory 222. Supply image data.

D/Aコンバータ218は、DSPブロック216から供給されたデジタルの画像データをアナログ信号に変換し、ビデオエンコーダ219に供給する。ビデオエンコーダ219は、供給されたアナログの画像信号を、ビデオ信号に変換し、表示部220に出力して表示させる。すなわち、表示部220は、デジタルカメラ201において、カメラのファインダの役割を担っている。コーデック処理部221は、DSPブロック216から供給された画像データに対して、所定の方式の符号化を施し、符号化された画像データをメモリ222に供給して記憶させる。   The D / A converter 218 converts the digital image data supplied from the DSP block 216 into an analog signal and supplies the analog signal to the video encoder 219. The video encoder 219 converts the supplied analog image signal into a video signal, and outputs the video signal to the display unit 220 for display. That is, the display unit 220 plays the role of a camera finder in the digital camera 201. The codec processing unit 221 performs a predetermined encoding on the image data supplied from the DSP block 216 and supplies the encoded image data to the memory 222 for storage.

また、コーデック処理部221は、操作入力部224からユーザの操作入力を受けたCPU223の制御に基づいて、メモリ222に記憶されているデータのうち、ユーザに指定されたデータを読み取り、所定の復号方法で復号し、復号した信号をDSPブロック216に出力する。これにより、復号された信号が、DSPブロック216を介してD/Aコンバータ218に供給され、アナログ変換された後、ビデオエンコーダ219によりエンコードされて、表示部220に表示される。   Further, the codec processing unit 221 reads data designated by the user from among the data stored in the memory 222 based on the control of the CPU 223 that has received the user's operation input from the operation input unit 224, and performs predetermined decoding. The decoded signal is output to the DSP block 216. Thus, the decoded signal is supplied to the D / A converter 218 via the DSP block 216, converted into an analog signal, encoded by the video encoder 219, and displayed on the display unit 220.

ところで、図5のCCDイメージセンサ213のオンチップカラーフィルタには、通常、3種類または4種類の色が用いられており、これらのオンチップカラーフィルタは、受光素子ごとに、交互に異なる色になるようモザイク状に配列されている。本発明においては、RGB(Red,Green,Blue:赤、緑、青)の3色に、Gに分光特性が近い4色目となる色(以下、E(Emerald)と称する)を加えた4色を用いた配列のオンチップカラーフィルタを用いる。この4色のモザイク配列の例を、図6に示す。なお、本明細書中では、Gに近い分光特性の4色目となる色をEとしたが、この色はEmeraldに限定されず、Gに近い分光特性であれば何色でもよい。   Incidentally, the on-chip color filter of the CCD image sensor 213 in FIG. 5 normally uses three or four types of colors, and these on-chip color filters have different colors alternately for each light receiving element. They are arranged in a mosaic. In the present invention, four colors obtained by adding a color (hereinafter referred to as E (Emerald)) that has a spectral characteristic close to G to three colors of RGB (Red, Green, Blue). An on-chip color filter with an array of is used. An example of this four-color mosaic arrangement is shown in FIG. In the present specification, the fourth color having spectral characteristics close to G is E, but this color is not limited to Emerald, and any color may be used as long as the spectral characteristics are close to G.

図6に示されるように4色配列は、赤(R)の光のみを透過するRのフィルタが1個、緑色(G)の光のみを透過するGのフィルタが1個、青(B)の光のみを透過するBのフィルタが1個、エメラルド(E)の光のみを透過するEのフィルタが1個の、合計4個を最小単位として構成されている。すなわち、R,G,B,Eの各フィルタは、同じ密度で存在する。   As shown in FIG. 6, the four-color arrangement has one R filter that transmits only red (R) light, one G filter that transmits only green (G) light, and blue (B). One filter for transmitting only B light and one E filter for transmitting only light of emerald (E), a total of four is configured as a minimum unit. That is, the R, G, B, and E filters exist at the same density.

このように、CCDイメージセンサ213のオンチップカラーフィルタに図6に示されるような4色のモザイクが用いられている場合、DSPブロック216の画像用RAMに一時格納されている画像は、各画素とも、R,G,B,Eのうちのいずれか1つの色しか持たない。そこで、DSPブロック216の信号処理用プロセッサは、予め組み込まれた画像処理プログラムまたはハードウェアによって、この画像を処理し、全画素において全色のデータを有する画像データを生成する。具体的には、DSPブロック216の信号処理用プロセッサは、まず、G,Eを合成した新たな色(以下、G+Eと称する)を全画素に生成し、3色のベイヤー配列においてGを全画素揃えることを前提とした補間方法を、4色のモザイク配列においても同様に適用できるようにする。   As described above, when the four-color mosaic as shown in FIG. 6 is used for the on-chip color filter of the CCD image sensor 213, the image temporarily stored in the image RAM of the DSP block 216 is stored in each pixel. Both have only one color of R, G, B, and E. Therefore, the signal processing processor of the DSP block 216 processes this image by using an image processing program or hardware incorporated in advance, and generates image data having data of all colors in all pixels. Specifically, the signal processing processor of the DSP block 216 first generates a new color (hereinafter referred to as G + E) by combining G and E for all pixels, and G is set to all pixels in the three-color Bayer array. The interpolation method based on the premise of being aligned is also applicable to the mosaic arrangement of four colors.

図7は、図5のDSPブロック216の更に詳細な構成を示すブロック図である。   FIG. 7 is a block diagram showing a more detailed configuration of the DSP block 216 of FIG.

DSPブロック216は、上述したように、画像用RAM241および信号処理用プロセッサ242で構成され、信号処理用プロセッサ242は、ホワイトバランス調整部251、ガンマ補正部252、およびデモザイク処理部253で構成される。   As described above, the DSP block 216 includes the image RAM 241 and the signal processing processor 242, and the signal processing processor 242 includes the white balance adjustment unit 251, the gamma correction unit 252, and the demosaic processing unit 253. .

A/Dコンバータ215によってデジタル信号に変換されたモザイク画像は、画像用RAM241に一時保存される。モザイク画像は、各画素にR,G,BまたはEのいずれかの色に対応する強度信号、すなわち、CCDイメージセンサ213に用いられているカラーフィルタにより定められる配列(例えば、図6を用いて説明した4色のモザイク配列)の周期的なパターンの強度信号により構成されている。   The mosaic image converted into a digital signal by the A / D converter 215 is temporarily stored in the image RAM 241. The mosaic image is an intensity signal corresponding to any color of R, G, B, or E for each pixel, that is, an array determined by a color filter used in the CCD image sensor 213 (for example, using FIG. 6). This is composed of periodic pattern intensity signals of the four-color mosaic arrangement described.

ホワイトバランス調整部251は、モザイク画像に対して、無彩色の被写体領域の色バランスが無彩色になるように、各画素強度の持つ色に応じて適切な係数をかける処理(ホワイトバランスの調整処理、またはレベルバランスの調整処理)を実行する。ガンマ補正部252は、ホワイトバランス(レベルバランス)が調整されたモザイク画像の各画素強度に対して、ガンマ補正を行う。画像の階調の応答特性を表すために「ガンマ(γ)」という数値が使われる。ガンマ補正とは、表示部220に表示される画像の明るさや色の彩度を正しく表示するための補正処理のことである。表示部220に出力される信号は、画素ごとに特定の電圧を加えることで、画像の明るさや色が再現されるようになされている。しかしながら、実際に表示される画像の明るさや色は、表示部220が有する特性(ガンマ値)により、入力電圧を倍にしてもブラウン管の明るさが倍になるわけではない(非線形性を有する)ため、ガンマ補正部252において、表示部220に表示される画像の明るさや色の彩度が正しく表示されるように補正する処理が施される。   The white balance adjustment unit 251 performs processing (white balance adjustment processing) for applying an appropriate coefficient to the mosaic image according to the color of each pixel intensity so that the color balance of the achromatic subject region becomes an achromatic color. Or level balance adjustment processing). The gamma correction unit 252 performs gamma correction on each pixel intensity of the mosaic image whose white balance (level balance) has been adjusted. A numerical value “gamma (γ)” is used to represent the response characteristics of the gradation of the image. The gamma correction is a correction process for correctly displaying the brightness and color saturation of the image displayed on the display unit 220. The signal output to the display unit 220 reproduces the brightness and color of the image by applying a specific voltage for each pixel. However, due to the characteristics (gamma value) of the display unit 220, the brightness and color of the actually displayed image does not double the brightness of the CRT even if the input voltage is doubled (has non-linearity). For this reason, the gamma correction unit 252 performs a correction process so that the brightness and color saturation of the image displayed on the display unit 220 are displayed correctly.

デモザイク処理部253は、ガンマ補正がなされたモザイク信号の各画素位置に、R,G,B,Eの4色の強度を揃えるデモザイク処理を実行するとともに、マトリックス処理およびクロマ成分に対する帯域制限を行うことで、YCbrの色に対応する画像(Y画像およびC画像)を生成する。これにより、デモザイク処理部253からの出力信号は、YCbrの色に対応する画像(Y画像およびC画像の)信号となる。 The demosaic processing unit 253 performs a demosaic process for aligning the intensities of the four colors R, G, B, and E at each pixel position of the mosaic signal subjected to the gamma correction, and performs a band limitation on the matrix process and the chroma component. it is, to generate an image (Y image and the C image) corresponding to the color of the YC b C r. Thus, the output signal from the demosaic processing unit 253, image (the Y and C images) corresponding to the color of the YC b C r becomes a signal.

本例では、図6に示される4色のフィルタ配列を用いた例について説明する。間引き方は、8ラインを1セットとして、そのうち4ライン目と7ライン目を用いることにする。水平ライン内の補間のみで生成されたGとEが混在する輝度に基づいて得られた注目画素位置の全色の補間値と、G,Eを合成した新たな色成分G+Eを生成し、G+Eに基づいて得られた注目画素位置の全色の補間値を合成することにより偽色を抑えた全色の補間値を得ることができる画像処理方法について述べる。   In this example, an example using the four-color filter array shown in FIG. 6 will be described. The thinning method uses 8 lines as one set, and uses the 4th and 7th lines. A new color component G + E is generated by synthesizing G and E with interpolation values of all colors at the target pixel position obtained based on luminance in which G and E are generated only by interpolation within the horizontal line, and G + E An image processing method capable of obtaining interpolated values of all colors with suppressed false colors by combining interpolated values of all colors at the target pixel position obtained based on the above will be described.

図8は、全画素位置でRGBEの4色が存在するように、各画素位置ごとに順次、そこにない色の強度を補間または推定していく処理であるデモザイク処理を実行する、図7のデモザイク処理部253の更に詳細な構成を示すブロック図である。   8 executes a demosaic process, which is a process of sequentially interpolating or estimating the intensity of a color that is not present at each pixel position so that there are four RGBE colors at all pixel positions. 4 is a block diagram showing a more detailed configuration of a demosaic processing unit 253. FIG.

デモザイク処理部253には、局所領域抽出部261、G,E補間処理部262、G+E生成処理部263、全色補間処理部264、全色補間処理部265および合成処理部266が設けられている。局所領域抽出部261は、ガンマ補正されたモザイク画像から、注目画素位置周囲の決まった大きさの局所領域の画素を切り出す。ここでは、切り出す局所領域を、注目画素位置を中心とした5×5画素の矩形領域とする。G,E補間処理部262は、局所領域内に存在する画素を用いて、Gが存在するラインでは、ライン内のGが存在しない画素位置に、左右に隣接するGを用いてGを補間し、Eが存在するラインでは、ライン内のEが存在しない画素位置に、左右に隣接するEを補間して、どの画素位置でもG,Eのいずれかが存在するように補間し、これらG,Eを輝度信号Lと見なす。全色補間処理部264は、輝度信号Lおよびモザイク信号Mを用いて、注目画素位置にR,G,B,Eの補間値RF,GF,BF,EF(以下、信号Cと称する)を算出する。G+E生成処理部263は、モザイク信号Mに基づいて新たな色成分G+Eを生成する。全色補間処理部265は、G+Eおよびモザイク信号Mに基づいて、注目画素位置にR,G,B,Eの補間値RU,GU,BU,EU(以下、信号C’と称する)を算出する。合成処理部266は、補間値RF,GF,BF,EF並びにRU,GU,BU,EUを合成して、最終的な全色補間信号を算出する。   The demosaic processing unit 253 includes a local region extraction unit 261, a G / E interpolation processing unit 262, a G + E generation processing unit 263, an all color interpolation processing unit 264, an all color interpolation processing unit 265, and a synthesis processing unit 266. . The local area extraction unit 261 cuts out pixels in a local area having a predetermined size around the target pixel position from the gamma-corrected mosaic image. Here, the local region to be cut out is a 5 × 5 pixel rectangular region centered on the target pixel position. The G / E interpolation processing unit 262 interpolates G using pixels adjacent to the left and right at pixel positions where G does not exist in the line where G exists, using pixels existing in the local region. , E is present in a line where E is not present in the line, and the adjacent E is interpolated so that either G or E exists at any pixel position. E is regarded as a luminance signal L. The all-color interpolation processing unit 264 uses the luminance signal L and the mosaic signal M to calculate R, G, B, and E interpolation values RF, GF, BF, and EF (hereinafter referred to as a signal C) at the target pixel position. To do. The G + E generation processing unit 263 generates a new color component G + E based on the mosaic signal M. Based on G + E and the mosaic signal M, the all-color interpolation processing unit 265 calculates R, G, B, and E interpolation values RU, GU, BU, and EU (hereinafter referred to as a signal C ′) at the target pixel position. . The synthesis processing unit 266 synthesizes the interpolation values RF, GF, BF, EF and RU, GU, BU, EU to calculate a final all-color interpolation signal.

図9は、図8の合成処理部266の詳細な構成例を示すブロック図である。合成処理部266は、色空間変換処理部301−1,色空間変換処理部301−2、彩度算出処理部302、ブレンド率算出処理部303、色度差算出処理部304およびブレンド処理部305により構成される。   FIG. 9 is a block diagram illustrating a detailed configuration example of the composition processing unit 266 of FIG. The composition processing unit 266 includes a color space conversion processing unit 301-1, a color space conversion processing unit 301-2, a saturation calculation processing unit 302, a blend rate calculation processing unit 303, a chromaticity difference calculation processing unit 304, and a blend processing unit 305. Consists of.

色空間変換処理部301−1は、信号CをRGBEの色空間からRGBの色空間に変換し、さらに、輝度と色度で表される色空間に変換する。色空間変換処理部301−2は、信号C’をRGBEの色空間からRGBの色空間に変換し、さらに、輝度と色度で表される色空間に変換する。このような色空間のうち、本実施の形態では、ITU−R BT.601で規定されるYCbr色空間を代表例として用いる。 The color space conversion processing unit 301-1 converts the signal C from the RGBE color space to the RGB color space, and further converts the signal C into a color space represented by luminance and chromaticity. The color space conversion processing unit 301-2 converts the signal C ′ from the RGBE color space to the RGB color space, and further converts the signal C ′ to a color space represented by luminance and chromaticity. Among such color space, in this embodiment, a YC b C r color space defined by ITU-R BT.601 as a representative example.

彩度算出処理部302は、信号Cから得られた色度信号Ccに基づいて彩度Sを算出する。色度差算出処理部304は、色度信号Ccおよび信号C’から得られた色度信号C’cに基づいて、色度差ΔCcを算出する。ブレンド率算出処理部303は、彩度Sと色度差ΔCcに基づいて、色度信号Ccおよび色度信号C’cを合成するときの比率であるブレンド率rを算出する。ブレンド処理部305は、CcおよびC’cに基づいて、新たな色度信号C''cを算出するとともに、信号C’から得られた輝度信号C’lと色度信号C''cを併せて新たなYCbr信号C’’が算出される。 The saturation calculation processing unit 302 calculates the saturation S based on the chromaticity signal C c obtained from the signal C. The chromaticity difference calculation processing unit 304 calculates the chromaticity difference ΔC c based on the chromaticity signal C ′ c obtained from the chromaticity signal C c and the signal C ′. The blend rate calculation processing unit 303 calculates a blend rate r that is a ratio when the chromaticity signal C c and the chromaticity signal C ′ c are combined based on the saturation S and the chromaticity difference ΔC c . Blending processing unit 305, C c and C 'on the basis of c, new chroma signal C' to calculate the 'c,' brightness signal obtained from the C 'signal C l and the chromaticity signal C''c Are combined to calculate a new YC b Cr signal C ″.

次に、図10のフローチャートを参照して、図7のDSPブロック216の処理について説明する。   Next, processing of the DSP block 216 in FIG. 7 will be described with reference to the flowchart in FIG.

ステップS1において、画像用RAM241は、CCDイメージセンサ213に用いられているカラーフィルタにより定められる配列(例えば、図6を用いて説明した4色配列)の周期的なパターンの強度信号により構成されるモザイク画像を取得して、一時保存する。   In step S1, the image RAM 241 is composed of periodic pattern intensity signals in an array (for example, the four-color array described with reference to FIG. 6) defined by the color filter used in the CCD image sensor 213. Obtain a mosaic image and save it temporarily.

ステップS2において、信号処理用プロセッサ242のホワイトバランス調整部251は、モザイク画像に対して、無彩色の被写体領域の色バランスが無彩色になるように、各画素強度の持つ色に応じて適切な係数をかける処理であるホワイトバランス調整処理(レベルバランス調整処理)を行う。   In step S2, the white balance adjustment unit 251 of the signal processing processor 242 applies an appropriate color according to the color of each pixel intensity so that the color balance of the achromatic subject region is achromatic with respect to the mosaic image. White balance adjustment processing (level balance adjustment processing), which is processing for applying a coefficient, is performed.

ステップS3において、ガンマ補正部252は、ホワイトバランスがとられたモザイク画像の各画素強度に対し、表示部220に表示される画像の明るさや色の彩度が正しく表示されるようにガンマ補正を行う。   In step S <b> 3, the gamma correction unit 252 performs gamma correction so that the brightness and color saturation of the image displayed on the display unit 220 are correctly displayed for each pixel intensity of the mosaic image with white balance. Do.

ステップS4において、デモザイク処理部253により、図11を用いて後述するデモザイク処理が実行され、生成されたY画像およびC画像が出力され、処理が終了される。   In step S4, the demosaic processing unit 253 performs a demosaic process described later with reference to FIG. 11, outputs the generated Y image and C image, and ends the process.

このような処理により、DSPブロック216は、供給されたモザイク画像信号に対して、各種処理を施して、Y画像およびC画像を生成し、CPU223の制御に基づいて、その画像データを表示部220に表示させる場合は、D/Aコンバータ218に、メモリ222に記憶させる場合は、コーデック処理部221に供給する。   Through such processing, the DSP block 216 performs various processing on the supplied mosaic image signal to generate a Y image and a C image, and displays the image data on the display unit 220 based on the control of the CPU 223. Is displayed in the D / A converter 218 and is stored in the memory 222, and is supplied to the codec processing unit 221.

次に、図11のフローチャートを参照して、図10のステップS4において実行されるデモザイク処理について説明する。   Next, the demosaic process executed in step S4 of FIG. 10 will be described with reference to the flowchart of FIG.

局所領域抽出部261は、ステップS51において、未処理の画素のうちのいずれかを注目画素とし、ステップS52において、注目画素位置の周辺の所定数(2n+1)×(2n+1)の画素を、局所領域として抽出し、G,E補間処理部262、G+E生成処理部263、全色補間処理部264、全色補間処理部265に供給する。なお、nは、正の整数である。   In step S51, the local area extraction unit 261 sets one of unprocessed pixels as a target pixel, and in step S52, determines a predetermined number (2n + 1) × (2n + 1) of pixels around the target pixel position. Are extracted and supplied to the G, E interpolation processing unit 262, the G + E generation processing unit 263, the all color interpolation processing unit 264, and the all color interpolation processing unit 265. Note that n is a positive integer.

ステップS53において、G,E補間処理部262は、図12および図13のフローチャートを参照して後述する、G,E補間処理を実行し、算出した値Lを全色補間処理部264に供給する。   In step S53, the G / E interpolation processing unit 262 executes G / E interpolation processing, which will be described later with reference to the flowcharts of FIGS. 12 and 13, and supplies the calculated value L to the all-color interpolation processing unit 264. .

ステップS54において、全色補間処理部264は、図14を参照して後述する、第1の全色補間処理を実行し、算出した信号Cを合成処理部266に供給する。   In step S <b> 54, the all-color interpolation processing unit 264 performs a first all-color interpolation process, which will be described later with reference to FIG. 14, and supplies the calculated signal C to the synthesis processing unit 266.

ステップS55において、G+E生成処理部263は、図20を参照して後述する、G+E生成処理を実行し、生成したG+Eを全色補間処理部265に供給する。   In step S55, the G + E generation processing unit 263 performs a G + E generation process, which will be described later with reference to FIG. 20, and supplies the generated G + E to the all-color interpolation processing unit 265.

ステップS56において、全色補間処理部265は、図23を参照して後述する、第2の全色補間処理を実行し、算出したC’を合成処理部266に供給する。   In step S <b> 56, the all-color interpolation processing unit 265 performs a second all-color interpolation process, which will be described later with reference to FIG. 23, and supplies the calculated C ′ to the synthesis processing unit 266.

ステップS57において、合成処理部266は、図24を参照して後述する合成処理を実行し、YCbrの色信号を出力する。 In step S57, the synthesis processing unit 266 performs a combination process described below with reference to FIG. 24, and outputs the color signal of the YC b C r.

ステップS58において、局所領域抽出部261は、全ての画素において処理が終了したか否かを判断する。ステップS58において、全ての画素において処理が終了していないと判断された場合、処理は、ステップS51に戻り、それ以降の処理が繰り返される。ステップS58において、全ての画素において処理が終了したと判断された場合、処理が終了される。   In step S58, the local region extraction unit 261 determines whether or not processing has been completed for all pixels. If it is determined in step S58 that processing has not been completed for all pixels, the processing returns to step S51, and the subsequent processing is repeated. If it is determined in step S58 that the processing has been completed for all pixels, the processing is terminated.

換言すれば、デモザイク処理部253を構成する各部は、ある注目画素位置が決定されたときにその注目画素位置においてそれぞれの処理を実行し、全画素において、ステップS51乃至ステップS57の処理が終了された場合、処理が終了される。   In other words, each unit constituting the demosaic processing unit 253 executes the respective processes at the target pixel position when a certain target pixel position is determined, and the processes of steps S51 to S57 are completed for all the pixels. If so, the process is terminated.

なお、ステップS53およびステップS54の処理と、ステップS55およびステップS56の処理は、その順番を逆にしてもよいし、並行して実行させるようにしてもよい。   Note that the order of the processes of step S53 and step S54 and the processes of step S55 and step S56 may be reversed or may be executed in parallel.

次に、図12のフローチャートを参照して、図11のステップS53において実行されるG,E補間処理について説明する。この処理は、図8のG,E補間処理部262により実行される処理である。なお、nは、正の整数である。また、(j,k)は局所領域における中心(注目画素位置)を(0,0)とした場合の、処理を実行する画素位置(処理画素位置)を示す。   Next, the G and E interpolation processing executed in step S53 in FIG. 11 will be described with reference to the flowchart in FIG. This process is a process executed by the G and E interpolation processing unit 262 in FIG. Note that n is a positive integer. Further, (j, k) indicates a pixel position (processing pixel position) for executing processing when the center (target pixel position) in the local region is (0, 0).

ステップS101において、G,E補間処理部262は、局所領域のうち、処理を実行する画素位置を示す第1のレジスタの値jを初期化してj=−n+1とし、ステップS102において、局所領域のうち、処理を実行する画素位置を示す第2のレジスタの値kを初期化してk=−nとする。ここでは、画素(0,0)を中心とする(2n+1)×(2n+1)の画素群に対して処理が行われる。なお、nは、正の整数である。ここで、jとkの初期値がj=−n+1、k=−nとなるのは、図12の処理において、処理画素位置がRまたはBである場合に、左右のEまたはGに基づいてG,E補間を行っているためである。なお、nの値は、処理に必要な任意の定数と考えることができる。したがって、本実施形態を実装する際には、このようなレジスタ値の細かい設定を省略することも可能である。特に、nが十分大きな値であるとすれば、実質的に同一の結果を得ることができるものと考えられる。このことは、後述するn’、n’’、およびn’’’についても同様である。   In step S101, the G and E interpolation processing unit 262 initializes the value j of the first register indicating the pixel position to be processed in the local region to j = −n + 1, and in step S102, the local region Among them, the value k of the second register indicating the pixel position to be processed is initialized to k = −n. Here, processing is performed on a pixel group of (2n + 1) × (2n + 1) centered on the pixel (0, 0). Note that n is a positive integer. Here, the initial values of j and k are j = −n + 1 and k = −n based on the left and right E or G when the processing pixel position is R or B in the processing of FIG. This is because G and E interpolation is performed. Note that the value of n can be considered as an arbitrary constant required for processing. Therefore, when this embodiment is implemented, such detailed setting of register values can be omitted. In particular, if n is a sufficiently large value, it is considered that substantially the same result can be obtained. The same applies to n ′, n ″, and n ″ ″ described later.

ステップS103において、G,E補間処理部262は、モザイク信号Mの画素位置(j,k)の色がRであるか否かを判定する。上述した図6に示される4色のフィルタ配列が公知であることから、この処理では、画素位置を用いて色を判定することができる。   In step S103, the G / E interpolation processing unit 262 determines whether or not the color of the pixel position (j, k) of the mosaic signal M is R. Since the above-described four-color filter arrangement shown in FIG. 6 is known, in this process, the color can be determined using the pixel position.

ステップS103において、モザイク信号Mの画素位置(j,k)の色がRであると判定された場合、ステップS104において、G,E補間処理部262は、画素位置Rの左右のEを加算平均し、輝度L(j,k)とする。すなわち、画素(j−1,k)と画素(j+1,k)の平均値が輝度L(j,k)とされる。   When it is determined in step S103 that the color of the pixel position (j, k) of the mosaic signal M is R, in step S104, the G and E interpolation processing unit 262 averages the left and right Es of the pixel position R. And the luminance L (j, k). That is, the average value of the pixel (j−1, k) and the pixel (j + 1, k) is the luminance L (j, k).

ステップS103において、モザイク信号Mの画素位置(j,k)の色がRでないと判定された場合、ステップS105において、G,E補間処理部262は、画素(j,k)がGであるか否かを判定する。   If it is determined in step S103 that the color of the pixel position (j, k) of the mosaic signal M is not R, in step S105, the G and E interpolation processing unit 262 determines whether the pixel (j, k) is G. Determine whether or not.

ステップS105において、モザイク信号Mの画素位置(j,k)がGであると判定された場合、ステップS106において、G,E補間処理部262は、画素位置G(j,k)をL(j,k)とする。すなわち、処理画素位置のGがLとされる。   When it is determined in step S105 that the pixel position (j, k) of the mosaic signal M is G, in step S106, the G and E interpolation processing unit 262 sets the pixel position G (j, k) to L (j , K). That is, G at the processing pixel position is set to L.

ステップS105において、モザイク信号Mの画素位置(j,k)がGでないと判定された場合、ステップS107において、G,E補間処理部262は、モザイク信号の画素位置(j,k)がBであるか否かを判定する。ステップS107において、モザイク信号の画素位置(j,k)がBであると判定された場合、ステップS108において、G,E補間処理部262は、画素Bの左右のGを加算平均し、輝度L(j,k)とする。すなわち、画素(j−1,k)と画素(j+1,k)の平均値が輝度L(j,k)とされる。   If it is determined in step S105 that the pixel position (j, k) of the mosaic signal M is not G, in step S107, the G and E interpolation processing unit 262 determines that the pixel position (j, k) of the mosaic signal is B. It is determined whether or not there is. If it is determined in step S107 that the pixel position (j, k) of the mosaic signal is B, in step S108, the G and E interpolation processing unit 262 averages the left and right G of the pixel B, and the luminance L (J, k). That is, the average value of the pixel (j−1, k) and the pixel (j + 1, k) is the luminance L (j, k).

ステップS107において、モザイク信号Mの画素位置(j,k)がBでない、すなわちEであると判定された場合、ステップS109において、G,E補間処理部262は、画素位置のEをL(j,k)とする。すなわち、処理画素位置のEがLとされる。   When it is determined in step S107 that the pixel position (j, k) of the mosaic signal M is not B, that is, E, in step S109, the G and E interpolation processing unit 262 converts E of the pixel position to L (j , K). That is, E at the processing pixel position is set to L.

ステップS104、ステップS106、ステップS108、またはステップS109の処理の後、ステップS110において、G,E補間処理部262は、第2のレジスタの値kを参照し、k=nであるか否かを判定する。ステップS110においてk=nでないと判定された場合、ステップS111において、G,E補間処理部262は、第2のレジスタの値kをk=k+1に更新して、処理はステップS103に戻り、それ以降の処理が繰り返される。   After step S104, step S106, step S108, or step S109, in step S110, the G and E interpolation processing unit 262 refers to the value k of the second register and determines whether or not k = n. judge. If it is determined in step S110 that k = n is not satisfied, in step S111, the G and E interpolation processing unit 262 updates the value k of the second register to k = k + 1, and the process returns to step S103. The subsequent processing is repeated.

ステップS110においてk=nであると判定された場合、ステップS112において、G,E補間処理部262は、処理を実行する画素位置を示す第1のレジスタの値jを参照し、j=n−1であるか否かを判定する。ステップS112においてj=n−1ではないと判定された場合、ステップS113においてG,E補間処理部262は、第1のレジスタの値jをj=j+1に更新して、処理はステップS102に戻り、それ以降の処理が繰り返される。   When it is determined in step S110 that k = n, in step S112, the G and E interpolation processing unit 262 refers to the value j of the first register indicating the pixel position where the process is performed, and j = n− It is determined whether or not 1. If it is determined in step S112 that j = n−1 is not satisfied, the G and E interpolation processing unit 262 updates the value j of the first register to j = j + 1 in step S113, and the process returns to step S102. The subsequent processing is repeated.

ステップS112においてj=n−1であると判定された場合、ステップS114においてG,E補間処理部262は、注目画素付近の(2n+1)×(2n−1)画素の輝度信号Lの組を出力し、処理は図11のステップS54に進む。   When it is determined in step S112 that j = n−1, in step S114, the G and E interpolation processing unit 262 outputs a set of luminance signals L of (2n + 1) × (2n−1) pixels near the target pixel. Then, the process proceeds to step S54 in FIG.

図12および図13の処理をまとめると、G,E補間処理部262は、Gが存在するラインでは、ライン内のGが存在しない画素位置(B)に、左右に隣接するGを用いてGを補間し、Eが存在するラインでは、ライン内のEが存在しない画素位置(R)に、左右に隣接するEを用いてEを補間して、どの画素位置でもG,Eのどちらかが存在するようにし、それを輝度信号Lとみなしている。   12 and FIG. 13, the G and E interpolation processing unit 262 uses the G adjacent to the left and right at the pixel position (B) where G does not exist in the line where G exists. In a line where E is present, E is interpolated using E adjacent to the left and right at the pixel position (R) where E does not exist in the line, and either G or E is used at any pixel position. It is assumed to exist and is regarded as the luminance signal L.

次に、図14のフローチャートを参照して、図11のステップS54において実行される第1の全色補間処理を説明する。なお、この処理は、図8の全色補間処理部264により実行される処理である。   Next, the first all-color interpolation process executed in step S54 in FIG. 11 will be described with reference to the flowchart in FIG. This process is a process executed by the all-color interpolation processing unit 264 in FIG.

ステップS151において、全色補間処理部264は、注目画素位置におけるR,G,B,Eの推定値R’c,G’c,B’c,E’c算出処理を実行する。この処理の詳細は、図15を参照して後述する。 In step S151, the all-color interpolation processing unit 264 performs an R, G, B, E estimated value R ′ c , G ′ c , B ′ c , E ′ c calculation process at the target pixel position. Details of this processing will be described later with reference to FIG.

ステップS152において、全色補間処理部264は、注目画素位置の1画素上におけるR,G,B,Eの推定値R’u,G’u,B’u,E’u算出処理を実行する。この処理の詳細は、図15を参照して後述する。 In step S152, the all-color interpolation processing unit 264 performs an R, G, B, E estimated value R ′ u , G ′ u , B ′ u , E ′ u calculation process on one pixel at the target pixel position. . Details of this processing will be described later with reference to FIG.

ステップS153において、全色補間処理部264は、注目画素位置の1画素下におけるR,G,B,Eの推定値R’d,G’d,B’d,E’d算出処理を実行する。この処理の詳細は、図15を参照して後述する。 In step S153, the all-color interpolation processing unit 264 performs an R, G, B, E estimated value R ′ d , G ′ d , B ′ d , E ′ d calculation process one pixel below the target pixel position. . Details of this processing will be described later with reference to FIG.

ステップS154において、全色補間処理部264は、注目画素位置の上下に補間された結果を加算平均し、その加算平均と注目画素位置に補間された結果をさらに加算平均し、推定値RF,GF,BF,EFを算出する。具体的には、式(1)乃至式(4)に示される演算が行われる。   In step S154, the all-color interpolation processing unit 264 adds and averages the results interpolated above and below the target pixel position, and further adds and averages the addition average and the result interpolated to the target pixel position, and estimates RF and GF. , BF, EF are calculated. Specifically, the calculations shown in the equations (1) to (4) are performed.

RF=(R’c+(R’u+R’d)/2)/2 ・・・(1)
GF=(G’c+(G’u+G’d)/2)/2 ・・・(2)
BF=(B’c+(B’u+B’d)/2)/2 ・・・(3)
EF=(E’c+(E’u+E’d)/2)/2 ・・・(4)
RF = (R ′ c + (R ′ u + R ′ d ) / 2) / 2 (1)
GF = (G ′ c + (G ′ u + G ′ d ) / 2) / 2 (2)
BF = (B ′ c + (B ′ u + B ′ d ) / 2) / 2 (3)
EF = (E ′ c + (E ′ u + E ′ d ) / 2) / 2 (4)

ステップS154の処理の後、処理は図11のステップS55に進む。   After the process of step S154, the process proceeds to step S55 of FIG.

なお、ステップS151、ステップS152およびステップS153の処理は、その順番を逆にしてもよいし、並行して実行させるようにしてもよい。   Note that the order of the processing of step S151, step S152, and step S153 may be reversed or may be executed in parallel.

次に、図15のフローチャートを参照して、図14のステップS151において実行される推定値算出処理について説明する。図15は、色バランス補間によって、R,G,B,Eの推定を行う処理であり、R,G,B,Eの全てについて同じ処理が行われるので、図15においてXと記述されている部分については、適宜R,G,B,Eに読み替えられる。なお、色バランス補間とは、注目画素位置における輝度信号のDC成分と色信号のDC成分の比率に輝度信号を乗算して不明な色成分の補間を行うものである。   Next, the estimated value calculation process executed in step S151 in FIG. 14 will be described with reference to the flowchart in FIG. FIG. 15 is a process for estimating R, G, B, and E by color balance interpolation. Since the same process is performed for all of R, G, B, and E, X is described in FIG. The portion is appropriately read as R, G, B, E. The color balance interpolation is to interpolate an unknown color component by multiplying the ratio of the DC component of the luminance signal and the DC component of the color signal at the target pixel position by the luminance signal.

ステップS201において、全色補間処理部264は、線形補間処理を実行する。この処理の詳細は、図16および図17を参照して後述する。   In step S201, the all-color interpolation processing unit 264 executes linear interpolation processing. Details of this processing will be described later with reference to FIGS. 16 and 17.

ステップS202において、全色補間処理部264は、重み付き平均Mxa算出処理を実行する。この処理の詳細は、図18を参照して後述する。 In step S202, the all-color interpolation processing unit 264 executes a weighted average M xa calculation process. Details of this processing will be described later with reference to FIG.

ステップS203において、全色補間処理部264は、重み付き平均ML算出処理を実行する。この処理の詳細は、図18を参照して後述する。 In step S203, all the color interpolation section 264 performs a weighted average M L calculation process. Details of this processing will be described later with reference to FIG.

ステップS204において、全色補間処理部264は、ML<(第1の定数)であるか否かを判定し、ML<(第1の定数)であると判定された場合、ステップS205においてML’=(第1の定数)と設定する。この第1の定数は、例えば、経験的にまたは実験的に定められる所定の値である。 In step S204, the all color interpolation processing unit 264 determines whether or not M L <(first constant), and if it is determined that M L <(first constant), in step S205. Set M L '= (first constant). This first constant is a predetermined value determined empirically or experimentally, for example.

ステップS204においてML<(第1の定数)でない、すなわちML≧(第1の定数)であると判定された場合、ステップS206において、全色補間処理部264は、ML’=MLと設定する。 When it is determined in step S204 that M L <(first constant) is not satisfied, that is, M L ≧ (first constant), in step S206, the all-color interpolation processing unit 264 determines that M L ′ = M L And set.

ステップS205の処理の後、またはステップS206の処理の後、ステップS207において、全色補間処理部264は、X’=Mxa/ML’(L−ML)+Mxaとし、処理は図14のステップS152に進む。 After the process of step S205, or after the processing in step S206, in step S207, all the color interpolation section 264, and X '= M xa / M L ' (L-M L) + M xa, process 14 The process proceeds to step S152.

本例では、図15の処理を図14のステップS151の処理の詳細として説明したが、図14のステップS152、ステップS153についても同様の処理が行われる。単に、注目画素位置の1画素上や1画素下のR,G,B,Eについて推定値算出処理が行われるだけである。   In this example, the processing in FIG. 15 has been described as the details of the processing in step S151 in FIG. 14, but the same processing is performed in steps S152 and S153 in FIG. The estimated value calculation process is simply performed for R, G, B, and E one pixel above and one pixel below the target pixel position.

なお、ステップS202およびステップS203の処理は、その順番を逆にしてもよいし、並行して実行させるようにしてもよい。   Note that the order of the processes in step S202 and step S203 may be reversed or executed in parallel.

次に、図16および図17のフローチャートを参照して、図15のステップS201において実行される線形補間処理を説明する。この処理は、注目画素近傍にR,G,B,Eを線形補間する処理手順を示すフローチャートである。R,G,B,Eの全てについて同様の処理が実行されるので、図16および図17においてXと記述されている部分については、適宜、R,G,B,Eに読み替えられる。なお、n'は、正の整数であり、(j',k')は局所領域における中心(注目画素位置)を(0,0)とした場合の、処理を実行する画素位置を示す。   Next, the linear interpolation process executed in step S201 in FIG. 15 will be described with reference to the flowcharts in FIGS. This process is a flowchart showing a processing procedure for linearly interpolating R, G, B, and E near the target pixel. Since the same processing is executed for all of R, G, B, and E, the portion described as X in FIGS. 16 and 17 is appropriately read as R, G, B, and E. Note that n ′ is a positive integer, and (j ′, k ′) indicates a pixel position where the process is executed when the center (target pixel position) in the local region is (0, 0).

ステップS251において、全色補間処理部264は、局所領域のうち、処理を実行する画素位置を示す第1のレジスタの値j’を初期化してj’=−n'+1とし、ステップS252において、局所領域のうち、処理を実行する画素位置を示す第2のレジスタの値k’を初期化してk’=−n'+1とする。ここでは、画素(0,0)を中心とする(2n'+1)×(2n'+1)の画素群に対して処理が行われる。   In step S251, the all color interpolation processing unit 264 initializes the value j ′ of the first register indicating the pixel position to be processed in the local region to j ′ = − n ′ + 1, and in step S252, A value k ′ of a second register indicating a pixel position to be processed in the local area is initialized to k ′ = − n ′ + 1. Here, processing is performed on a pixel group of (2n ′ + 1) × (2n ′ + 1) centered on the pixel (0, 0).

ステップS253において、全色補間処理部264は、信号Mの画素(j’,k’)のM(モザイク信号Mの)色がXであるか否かを判定する。ここでXは、R,G,B,Eに適宜読み替えられる。上述した図6に示される4色のフィルタ配列が公知であることから、この処理では、画素位置を用いて色を判定することができる。   In step S253, the all color interpolation processing unit 264 determines whether the M (mosaic signal M) color of the pixel (j ′, k ′) of the signal M is X or not. Here, X is appropriately read as R, G, B, and E. Since the above-described four-color filter arrangement shown in FIG. 6 is known, in this process, the color can be determined using the pixel position.

ステップS253において、信号Mの画素(j’,k’)の色がXであると判定された場合、ステップS254において、全色補間処理部264は、信号Mの画素(j’,k’)の補間値XAを信号Mの画素(j’,k’)とする。すなわち、信号Mの画素位置の色がXであると判定された場合には、補間をする必要がないのでそのままの信号が用いられる。   If it is determined in step S253 that the color of the pixel (j ′, k ′) of the signal M is X, in step S254, the all-color interpolation processing unit 264 determines the pixel (j ′, k ′) of the signal M. Is the pixel (j ′, k ′) of the signal M. That is, when it is determined that the color of the pixel position of the signal M is X, no interpolation is required and the signal is used as it is.

ステップS253において、信号Mの画素(j’,k’)がXでないと判定された場合、ステップS255において、全色補間処理部264は、画素(j’−1,k’)がXであるか否かを判定する。すなわち、処理画素の横に隣接する画素の色がXであるか否かが判定される。   When it is determined in step S253 that the pixel (j ′, k ′) of the signal M is not X, in step S255, the all-color interpolation processing unit 264 determines that the pixel (j′−1, k ′) is X. It is determined whether or not. That is, it is determined whether or not the color of the pixel adjacent to the processing pixel is X.

ステップS255において、信号Mの画素(j’−1,k’)の色がXであると判定された場合、ステップS256において、全色補間処理部264は、画素(j’,k’)の補間値XAを画素(j’−1,k’)と(j’+1,k’)の平均値とする。すなわち、横に隣接する画素の色がXであると判定された場合、左右から補間が行われる。   When it is determined in step S255 that the color of the pixel (j′−1, k ′) of the signal M is X, in step S256, the all-color interpolation processing unit 264 determines the pixel (j ′, k ′). Interpolated value XA is an average value of pixels (j′−1, k ′) and (j ′ + 1, k ′). That is, when it is determined that the color of the horizontally adjacent pixel is X, interpolation is performed from the left and right.

ステップS255において、信号Mの画素(j’−1,k’)の色がXでないと判定された場合、ステップS257において全色補間処理部264は、信号Mの画素(j’,k’−1)の色がXであるか否かを判定し、画素(j’,k’−1)の色がXであると判定された場合、ステップS258において、信号Mの画素(j’,k’)の補間値XAを画素(j’,k’−1)と画素(j’,k’+1)の平均とする。すなわち、縦に隣接する画素の色がXであると判定された場合、上下補間が行われる。   When it is determined in step S255 that the color of the pixel (j′−1, k ′) of the signal M is not X, in step S257, the all-color interpolation processing unit 264 determines the pixel (j ′, k′− of the signal M). It is determined whether the color of 1) is X, and if it is determined that the color of the pixel (j ′, k′−1) is X, the pixel (j ′, k) of the signal M is determined in step S258. The interpolation value XA of ') is the average of the pixel (j', k'-1) and the pixel (j ', k' + 1). That is, when it is determined that the color of the vertically adjacent pixel is X, vertical interpolation is performed.

ステップS257において、画素(j’,k’−1)がXでないと判定された場合、ステップS259において、全色補間処理部264は、信号Mの画素(j’,k’)の補間値XAを、画素(j’−1,k’−1)、画素(j’+1,k’−1)、画素(j’−1,k’+1)、画素(j’+1,k’+1)の平均とする。すなわち、信号Mの画素(j’,k’)、画素の横に隣接する信号Mの画素(j’−1,k’)および画素の縦に隣接する信号Mの画素(j’,k’−1)の色がXでないと判定された場合、左上、右上、左下、右下から補間が行われる。   If it is determined in step S257 that the pixel (j ′, k′−1) is not X, in step S259, the all-color interpolation processing unit 264 determines the interpolation value XA of the pixel (j ′, k ′) of the signal M. Of pixel (j′−1, k′−1), pixel (j ′ + 1, k′−1), pixel (j′−1, k ′ + 1), pixel (j ′ + 1, k ′ + 1) Average. That is, the pixel (j ′, k ′) of the signal M, the pixel (j′−1, k ′) of the signal M adjacent to the side of the pixel, and the pixel (j ′, k ′) of the signal M adjacent to the pixel vertically. When it is determined that the color of -1) is not X, interpolation is performed from the upper left, upper right, lower left, and lower right.

ステップS254、ステップS256、ステップS258、またはステップS259の処理の後、ステップS260において、全色補間処理部264は、第2のレジスタの値k’を参照し、k’=n'−1であるか否かを判定する。ステップS260においてk’=n'−1でないと判定された場合、ステップS261において、全色補間処理部264は、第2のレジスタの値k’をk’=k’+1に更新して、処理はステップS253に戻り、それ以降の処理が繰り返される。   After step S254, step S256, step S258, or step S259, in step S260, the all color interpolation processing unit 264 refers to the value k ′ of the second register, and k ′ = n′−1. It is determined whether or not. If it is determined in step S260 that k ′ = n′−1 is not satisfied, in step S261, the all color interpolation processing unit 264 updates the value k ′ of the second register to k ′ = k ′ + 1, and performs processing. Returns to step S253, and the subsequent processing is repeated.

ステップS260においてk’=n'−1であると判定された場合、ステップS262において、全色補間処理部264は、処理を実行する画素位置を示す第1のレジスタの値j’を参照し、j’=n'−1であるか否かを判定する。ステップS262においてj’=n'−1ではないと判定された場合、ステップS263において全色補間処理部264は、第1のレジスタの値j’をj’=j’+1に更新して、処理はステップS252に戻り、それ以降の処理が繰り返される。   If it is determined in step S260 that k ′ = n′−1, in step S262, the all-color interpolation processing unit 264 refers to the value j ′ of the first register indicating the pixel position to be processed, It is determined whether j ′ = n′−1. When it is determined in step S262 that j ′ = n′−1 is not satisfied, in step S263, the all-color interpolation processing unit 264 updates the value j ′ of the first register to j ′ = j ′ + 1 and performs processing. Returns to step S252, and the subsequent processing is repeated.

ステップS262においてj’=n'−1であると判定された場合、ステップS264において全色補間処理部264は、注目画素付近の(2n'−1)×(2n'−1)画素のXの補間値XAの組を出力し、処理は図15のステップS202に進む。   If it is determined in step S262 that j ′ = n′−1, in step S264, the all-color interpolation processing unit 264 determines X of (2n′−1) × (2n′−1) pixels near the target pixel. The set of interpolation values XA is output, and the process proceeds to step S202 in FIG.

図16および図17の処理をまとめると、以下のようになる。全色補間処理部264は、信号Mの処理画素位置の色がXであると判定された場合、補間の必要はないのでそのままの信号を用い、信号Mの処理画素の横に隣接する画素がXであると判定された場合、左右から補間を行い、信号Mの処理画素の縦に隣接する画素がXであると判定された場合、上下から補間を行い、以上の条件以外の場合は左上、右上、左下、右下から補間を行う。このような処理が、R,G,B,Eの全てについて行われ、RA,GA,BA,EAが算出される。   The processing in FIG. 16 and FIG. 17 is summarized as follows. When it is determined that the color of the processing pixel position of the signal M is X, the all-color interpolation processing unit 264 uses the signal as it is because there is no need for interpolation, and the adjacent pixel beside the processing pixel of the signal M When it is determined that the pixel is X, interpolation is performed from the left and right. When it is determined that the pixel vertically adjacent to the processing pixel of the signal M is X, interpolation is performed from the top and bottom. Interpolate from the upper right, lower left, and lower right. Such processing is performed for all of R, G, B, and E, and RA, GA, BA, and EA are calculated.

次に、図18のフローチャートを参照して、図15のステップS202またはステップS203において実行される重み付き平均値Mx(重み付き平均値Mxの添え字xは、図15のステップS202に対応する処理の場合xaに、図15のステップS203に対応する処理の場合Lに、それぞれ置き換えられる)算出処理を説明する。なお、図18の処理は、RA,GA,BA,EA,Lについて同様の処理が実行されるので、図18においてXと記述されている部分については、適宜RA,GA,BA,EA,Lに読み替えられる。このRA,GA,BA,EAは、上述した図16および図17の処理により算出された値である。なお、n''は、正の整数であり、(j'',k'')は局所領域における中心(注目画素位置)を(0,0)とした場合の、処理を実行する画素位置を示す。 Next, referring to the flowchart of FIG. 18, the weighted average value M x (the subscript x of the weighted average value M x is executed in step S202 or step S203 of FIG. 15 corresponds to step S202 of FIG. The calculation process will be described (replaced by xa in the case of the process to be performed and L in the case of the process corresponding to step S203 in FIG. 15). 18 is executed for RA, GA, BA, EA, and L. Therefore, in the portion described as X in FIG. 18, RA, GA, BA, EA, and L are appropriately selected. To be read as The RA, GA, BA, and EA are values calculated by the processes shown in FIGS. 16 and 17 described above. Note that n ″ is a positive integer, and (j ″, k ″) is a pixel position for executing processing when the center (target pixel position) in the local region is (0, 0). Show.

ステップS301において、全色補間処理部264は、重み付き平均値Mxを0に初期化する。 In step S301, the all-color interpolation processing unit 264 initializes the weighted average value M x to 0.

ステップS302において、全色補間処理部264は、供給された局所領域の画素のうち、処理を実行する画素位置を示す第1のレジスタの値j’’を初期化してj’’=−n''とし、ステップS303において供給された局所領域の画素のうち、処理を実行する画素位置を示す第2のレジスタの値k’’を初期化してk’’=−n''とする。   In step S302, the all-color interpolation processing unit 264 initializes the value j ″ of the first register indicating the pixel position where the processing is to be performed among the supplied pixels in the local region, and j ″ = − n ′. ', And among the pixels in the local area supplied in step S303, the value k ″ of the second register indicating the pixel position to be processed is initialized to k ″ = − n ″.

ステップS304において、全色補間処理部264は、Mx=Mx+(重み係数wiが施された画素(j'’,k'’)のX)とする。すなわち、Mxに重み付きwiが施された画素(j’’,k’’)のXを加算したものが新たなMxとされる。 In step S304, the all-color interpolation processing unit 264 sets M x = M x + ( X of the pixel (j ″, k ″) to which the weight coefficient wi is applied). That, M pixels weighted wi is applied to x (j '', k ' ') obtained by adding the X in is the new M x.

この重み係数wiは、i番目のデータの位置から注目画素への距離などを指標として予め設定されている値である。例えば、図19に示されるように設定される。図中四角形は5×5局所領域の画素位置を示し、四角形中の数字が該当する位置のデータの重み係数を示す。これらの重み係数は、図19に示されるものに限定されないことはいうまでもないが、図19に示されるように、注目画素に近い程重み係数が大きくなるようにした方が好適である。なお、図19においては、外周が0であるため、実質、内周の3×3の範囲において演算が行われることとなる。そのため、最初から内周の3×3の範囲に対してのみ演算を行うようにしてもよい。   The weighting factor wi is a value set in advance using the distance from the position of the i-th data to the target pixel as an index. For example, it is set as shown in FIG. In the figure, squares indicate the pixel positions of the 5 × 5 local area, and the numbers in the squares indicate the weighting factors of the data at the corresponding positions. Needless to say, these weighting factors are not limited to those shown in FIG. 19, but as shown in FIG. 19, it is preferable that the weighting factors become larger as they are closer to the target pixel. In FIG. 19, since the outer periphery is 0, the calculation is actually performed in the 3 × 3 range of the inner periphery. Therefore, the calculation may be performed only for the 3 × 3 range of the inner periphery from the beginning.

ステップS305において、全色補間処理部264は、第2のレジスタの値k’’を参照し、k’’=n''であるか否かを判定する。ステップS305において、k’’=n''でないと判定された場合、ステップS306において、全色補間処理部264は、第2のレジスタの値k’’をk’’=k’’+1に更新して、処理はステップS304に戻り、それ以降の処理が繰り返される。   In step S305, the all-color interpolation processing unit 264 refers to the value k ″ of the second register and determines whether k ″ = n ″. If it is determined in step S305 that k ″ = n ″ is not satisfied, in step S306, the all color interpolation processing unit 264 updates the value k ″ of the second register to k ″ = k ″ +1. Then, the process returns to step S304, and the subsequent processes are repeated.

ステップS305において、k’’=n''であると判定された場合、ステップS307において、全色補間処理部264は、処理を実行する画素位置を示す第1のレジスタの値j’’を参照し、j’’=n''であるか否かを判定する。ステップS307においてj’’=n''ではないと判定された場合、ステップS308において全色補間処理部264は、第1のレジスタの値j’’をj’’=j’’+1に更新して、処理はステップS303に戻り、それ以降の処理が繰り返される。   When it is determined in step S305 that k ″ = n ″, in step S307, the all color interpolation processing unit 264 refers to the value j ″ of the first register indicating the pixel position where the processing is performed. Then, it is determined whether j ″ = n ″. When it is determined in step S307 that j ″ = n ″ is not satisfied, in step S308, the all color interpolation processing unit 264 updates the value j ″ of the first register to j ″ = j ″ +1. Then, the process returns to step S303, and the subsequent processes are repeated.

ステップS307において、j’’=n''であると判定された場合、ステップS309において、全色補間処理部264は、Mx=Mx/Wとする。このWは重み係数wiの総和Wとされる。 If it is determined in step S307 that j ″ = n ″, in step S309, the all-color interpolation processing unit 264 sets M x = M x / W. This W is the total sum W of the weighting factors wi.

ステップS310において、全色補間処理部264は、重み付き平均値Mxを出力し、処理は図15のステップS203またはステップS204に進む。 In step S310, the all-color interpolation processing unit 264 outputs the weighted average value M x , and the process proceeds to step S203 or step S204 in FIG.

図18の処理により、処理画素近傍のRA,GA,BA,EA,Lの重み付き平均値Mx(xはRA,GA,BA,EA,Lに適宜読み替えられる)がそれぞれ算出される。 The weighted average values M x (x is appropriately read as RA, GA, BA, EA, L) in the vicinity of the processing pixel are calculated by the processing in FIG.

次に、図20のフローチャートを参照して、図11のステップS55において実行されるG+E生成処理を説明する。なお、この処理は、図6のG+E生成処理部263により実行される処理である。なお、n'' 'は、正の整数であり、(j'' ',k'' ')は局所領域における中心(注目画素位置)を(0,0)とした場合の、処理を実行する画素位置を示す。   Next, the G + E generation process executed in step S55 of FIG. 11 will be described with reference to the flowchart of FIG. This process is a process executed by the G + E generation processing unit 263 in FIG. Note that n ″ ′ is a positive integer, and (j ″ ′, k ″ ′) executes processing when the center (target pixel position) in the local region is (0, 0). Indicates the pixel position.

ステップS351において、G+E生成処理部263は、供給された局所領域の画素のうち、処理を実行する画素位置を示す第1のレジスタの値j’’’を初期化してj’’’=−n'' 'とし、ステップS352において供給された局所領域の画素のうち、処理を実行する画素位置を示す第2のレジスタの値k’’’を初期化してk’’’=−n'' 'とする。   In step S <b> 351, the G + E generation processing unit 263 initializes a value j ′ ″ of the first register indicating a pixel position where the process is executed among the pixels of the supplied local region, and j ′ ″ = − n. '' ', And among the pixels in the local area supplied in step S352, the value k' '' of the second register indicating the pixel position for executing the process is initialized, and k '' '=-n' '' And

ステップS353において、G+E生成処理部263は、画素位置(j'' '、k'' ')のモザイク信号MがGまたはEであるか否かを判定し、GまたはEであると判定された場合、ステップS354において、G+E生成処理部263は、第1のG+E生成処理を実行する。なお、この処理の詳細は、図21を参照して後述する。   In step S353, the G + E generation processing unit 263 determines whether the mosaic signal M at the pixel position (j ″ ′, k ″ ′) is G or E, and is determined to be G or E. In this case, in step S354, the G + E generation processing unit 263 executes a first G + E generation process. Details of this processing will be described later with reference to FIG.

ステップS353において、処理画素位置のモザイク信号MがGまたはEでない、すなわちBまたはRであると判定された場合、ステップS355において、G+E生成処理部263は、第2のG+E生成処理を実行する。なお、この処理の詳細は、図22を参照して後述する。   In step S353, when it is determined that the mosaic signal M at the processing pixel position is not G or E, that is, B or R, in step S355, the G + E generation processing unit 263 executes a second G + E generation process. Details of this processing will be described later with reference to FIG.

ステップS354またはステップS355の処理の後、ステップS356において、G+E生成処理部263は、第2のレジスタの値k’’’を参照し、k’’’=n'' 'であるか否かを判定する。ステップS356において、k’’’=n'' 'でないと判定された場合、ステップS357において、G+E生成処理部263は、第2のレジスタの値k’’’をk’’’=k’’’+1に更新して、処理はステップS353に戻り、それ以降の処理が繰り返される。   After step S354 or step S355, in step S356, the G + E generation processing unit 263 refers to the value k ′ ″ of the second register and determines whether k ′ ″ = n ″ ′. judge. If it is determined in step S356 that k ′ ″ = n ″ ′ is not satisfied, in step S357, the G + E generation processing unit 263 sets the value k ′ ″ of the second register to k ′ ″ = k ″. After updating to '+1', the process returns to step S353, and the subsequent processes are repeated.

ステップS356において、k’’’=n'' 'であると判定された場合、ステップS358において、G+E生成処理部263は、処理を実行する画素位置を示す第1のレジスタの値j’’’を参照し、j’’’=n'' 'であるか否かを判定する。ステップS358においてj’’’=n'' 'ではないと判定された場合、ステップS359においてG+E生成処理部263は、第1のレジスタの値j’’’をj’’’=j’’’+1に更新して、処理はステップS352に戻り、それ以降の処理が繰り返される。   If it is determined in step S356 that k ′ ″ = n ″ ′, in step S358, the G + E generation processing unit 263 sets the value j ′ ″ of the first register indicating the pixel position for executing the processing. To determine whether j ′ ″ = n ″ ′. When it is determined in step S358 that j ′ ″ = n ″ ′ is not satisfied, in step S359, the G + E generation processing unit 263 sets the value j ′ ″ of the first register to j ′ ″ = j ′ ″. After updating to +1, the processing returns to step S352, and the subsequent processing is repeated.

ステップS358において、j’’’=n'' 'であると判定された場合、ステップS360において、G+E生成処理部263は、注目画素付近の(2n'' '+1)×(2n'' '+1)画素のG+Eを出力し、処理は図11のステップS56進む。   When it is determined in step S358 that j ′ ″ = n ″ ′, in step S360, the G + E generation processing unit 263 determines (2n ″ ′ + 1) × (2n ″ ′ + 1) near the target pixel. ) Output G + E of the pixel, and the process proceeds to step S56 in FIG.

次に、図21のフローチャートを参照して、図20のステップS354において実行される第1のG+E生成処理を説明する。なお、この処理は、図6のG+E生成処理部263により実行される処理である。また、GとEのいずれかが存在する画素位置において、同様の処理が行われるので、Gが存在する画素位置では、図21においてXと表記されている部分をGに、Yを表記されている部分はEに読み替え、Eが存在する画素位置では、図21においてXをEに、YをGに適宜読み替えることにする。また、以下の処理では、Xが輝度、Yが色信号として扱われる。   Next, the first G + E generation process executed in step S354 of FIG. 20 will be described with reference to the flowchart of FIG. This process is a process executed by the G + E generation processing unit 263 in FIG. Further, since the same processing is performed at the pixel position where either G or E exists, at the pixel position where G exists, the portion indicated as X in FIG. The portion which is present is read as E, and in the pixel position where E is present, X is read as E and Y is read as G in FIG. In the following processing, X is treated as luminance and Y is treated as a color signal.

ステップS401において、G+E生成処理部263は、線形補間処理を実行する。この処理は、上述した図16および図17の処理と同様であるので、その詳細は省略する。   In step S401, the G + E generation processing unit 263 performs linear interpolation processing. Since this process is the same as the process of FIG. 16 and FIG. 17 described above, its details are omitted.

ステップS402において、G+E生成処理部263は、重み付き平均Mxa算出処理を実行する。この処理は、上述した図18の処理と同様であるので、その詳細は省略する。 In step S402, the G + E generation processing unit 263 executes a weighted average M xa calculation process. Since this process is the same as the process of FIG. 18 described above, its details are omitted.

ステップS403において、G+E生成処理部263は、重み付き平均Mya算出処理を実行する。この処理は、上述した図18の処理と同様であるので、その詳細は省略する。 In step S403, the G + E generation processing unit 263 executes a weighted average Mya calculation process. Since this process is the same as the process of FIG. 18 described above, its details are omitted.

ステップS404において、G+E生成処理部263は、重み付き平均Mxa<(第2の定数)であるか否かを判定し、重み付き平均Mxa<(第2の定数)であると判定された場合、ステップS405において、Mxa’=(第2の定数)と設定する。この第2の定数は、例えば、経験的にまたは実験的に定められる所定の値である。ステップS404においてMxa<(第2の定数)でない、すなわちMxa≧(第2の定数)であると判定された場合、ステップS406において、G+E生成処理部263は、Mxa’=Mxaと設定する。 In step S404, G + E generation processing unit 263 determines whether the weighted average M xa <(second constant) was determined to be weighted average M xa <(second constant) In this case, in step S405, M xa '= (second constant) is set. This second constant is a predetermined value determined empirically or experimentally, for example. When it is determined in step S404 that M xa <(second constant) is not satisfied, that is, M xa ≧ (second constant), in step S406, the G + E generation processing unit 263 determines that M xa ′ = M xa Set.

ステップS405の処理の後、またはステップS406の処理の後、ステップS407において、G+E生成処理部263は、モザイク画像上における注目画素位置を(x、y)とした場合、注目画素(x,y)におけるG+Eの値を((Mya/Mxa’(M(x,y)−Mxa)+Mya)+M(x,y))/2とし、処理は図20のステップS356に進む。 After the processing in step S405 or after the processing in step S406, in step S407, the G + E generation processing unit 263 sets the target pixel (x, y) when the target pixel position on the mosaic image is (x, y). The value of G + E at is set to (( Mya / Mxa '(M (x, y) -Mxa ) + Mya ) + M (x, y)) / 2, and the process proceeds to step S356 in FIG.

図21の処理により、Gが存在する画素位置にはEが、Eが存在する画素位置にはGが色バランス補間によって補間され、同一画素上のGとEが合成されて新たな色成分G+Eが生成される。   21, E is interpolated by color balance interpolation at the pixel position where G exists, and G is interpolated by color balance interpolation at the pixel position where E exists, and a new color component G + E is synthesized by combining G and E on the same pixel. Is generated.

なお、ステップS401乃至ステップS403の処理は、その順番を逆にしてもよいし、並行して実行させるようにしてもよい。   Note that the processing in steps S401 to S403 may be performed in reverse order or in parallel.

次に、図22のフローチャートを参照して、図20のステップS355において実行される第2のG+E生成処理を説明する。なお、この処理は、図6のG+E生成処理部263により実行される処理である。RとBのいずれかが存在する画素位置において、同様の処理が行われるので、図22においてXと記述されている部分については、適宜R,Bに読み替えることにする。また、以下の処理では、Xが輝度、GとEが色信号として扱われる。   Next, the second G + E generation process executed in step S355 of FIG. 20 will be described with reference to the flowchart of FIG. This process is a process executed by the G + E generation processing unit 263 in FIG. Since the same processing is performed at a pixel position where either R or B exists, the portion described as X in FIG. 22 is appropriately read as R or B. In the following processing, X is treated as luminance and G and E are treated as color signals.

ステップS451において、G+E生成処理部263は、線形補間処理を実行する。この処理は、上述した図16および図17の処理と同様であるので、その詳細は省略する。   In step S451, the G + E generation processing unit 263 performs linear interpolation processing. Since this process is the same as the process of FIG. 16 and FIG. 17 described above, its details are omitted.

ステップS452において、G+E生成処理部263は、重み付き平均Mxa算出処理を実行する。この処理は、上述した図18の処理と同様であるので、その詳細は省略する。 In step S452, the G + E generation processing unit 263 executes a weighted average M xa calculation process. Since this process is the same as the process of FIG. 18 described above, its details are omitted.

ステップS453において、G+E生成処理部263は、重み付き平均Mga算出処理を実行する。この処理は、上述した図18の処理と同様であるので、その詳細は省略する。 In step S453, the G + E generation processing unit 263 executes a weighted average M ga calculation process. Since this process is the same as the process of FIG. 18 described above, its details are omitted.

ステップS454において、G+E生成処理部263は、重み付き平均Mea算出処理を実行する。この処理は、上述した図18の処理と同様であるので、その詳細は省略する。 In step S454, the G + E generation processing unit 263 executes a weighted average Mea calculation process. Since this process is the same as the process of FIG. 18 described above, its details are omitted.

ステップS455において、G+E生成処理部263は、重み付き平均Mxa<(第3の定数)であるか否かを判定し、重み付き平均Mxa<(第3の定数)であると判定された場合、ステップS456において、Mxa’=(第3の定数)と設定する。この第3の定数は、例えば、経験的にまたは実験的に定められる所定の値である。ステップS455においてMxa<(第3の定数)でない、すなわちMxa≧(第3の定数)であると判定された場合、ステップS457において、G+E生成部263は、Mxa’=Mxaと設定する。 In step S455, G + E generation processing unit 263 determines whether the weighted average M xa <(third constant) was determined to be weighted average M xa <(third constant) In this case, in step S456, M xa ′ = (third constant) is set. This third constant is a predetermined value determined empirically or experimentally, for example. If it is determined in step S455 that M xa <(third constant) is not satisfied, that is, M xa ≧ (third constant), the G + E generation unit 263 sets M xa ′ = M xa in step S457. To do.

ステップS456の処理の後、またはステップS457の処理の後、ステップS458において、G+E生成処理部263は、注目画素(x、y)におけるG+Eの値を((Mga/Mxa’(M(x,y)−Mxa)+Mga)+(Mea/Mxa’(M(x,y)−Mxa)+Mea))/2とし、処理は図20のステップS356に進む。 After the process of step S456 or the process of step S457, in step S458, the G + E generation processing unit 263 sets the value of G + E at the target pixel (x, y) to ((M ga / M xa '(M (x , Y) −M xa ) + M ga ) + (M ea / M xa ′ (M (x, y) −M xa ) + M ea )) / 2, and the process proceeds to step S356 in FIG.

図22の処理により、注目画素位置のモザイク信号がRもしくはBの場合に、その画素位置にGとEが色バランス補間によって補間され、それらが合成されて新たな色成分G+Eが生成される。   22, when the mosaic signal at the target pixel position is R or B, G and E are interpolated at the pixel position by color balance interpolation, and they are combined to generate a new color component G + E.

なお、ステップS451乃至ステップS454の処理は、その順番を逆にしてもよいし、並行して実行させるようにしてもよい。   Note that the processing in steps S451 to S454 may be performed in reverse order or in parallel.

次に、図23のフローチャートを参照して、図11のステップS56において実行される第2の全色補間処理を説明する。なお、この処理は図6の全色補間処理部265により実行される処理である。ここでは、色バランス補間によってR,G,B,Eの推定が行われる。この処理は、R,G,B,Eの全てについて同様の処理が実行されるので、図中Xと記述されている部分については、適宜、R,G,B,Eに読み替えることにする。また、この処理では、G+Eが輝度、Xが色信号として扱われる。   Next, the second all-color interpolation process executed in step S56 in FIG. 11 will be described with reference to the flowchart in FIG. This process is a process executed by the all-color interpolation processing unit 265 of FIG. Here, R, G, B, and E are estimated by color balance interpolation. In this processing, the same processing is executed for all of R, G, B, and E. Therefore, the portion described as X in the figure is appropriately read as R, G, B, and E. In this process, G + E is treated as luminance and X is treated as a color signal.

ステップS501において、全色補間処理部265は、上述した図21のステップS401または図22のステップS451でG+E生成処理部263により算出された線形補間処理の結果を取得する。   In step S501, the all-color interpolation processing unit 265 acquires the result of the linear interpolation processing calculated by the G + E generation processing unit 263 in step S401 of FIG. 21 or step S451 of FIG.

ステップS502において、全色補間処理部265は、重み付き平均Mxa算出処理を実行する。この処理は、上述した図18と同様の処理であるので、その説明は省略する。なお、ステップS502では、上述した図21のステップS402またはステップS452の処理で用いる重み係数wiとは異なる重み係数を用いて、重み付き平均Mxaを求めるようにしてもよい。この場合、ステップS502で算出される重み付き平均Mxaと、図21のステップS402またはステップS452で算出される重み付き平均Mxaの値は異なることになる。 In step S502, the all-color interpolation processing unit 265 executes a weighted average M xa calculation process. Since this process is the same as that in FIG. 18 described above, the description thereof is omitted. In step S502, the weighted average M xa may be obtained using a weighting factor different from the weighting factor wi used in the processing in step S402 or step S452 of FIG. In this case, a weighted average M xa calculated in step S502, the value of the weighted average M xa calculated in step S402 or step S452 of FIG. 21 will be different.

ステップS503において、全色補間処理部265は、重み付き平均MG+E算出処理を実行する。この処理は、上述した図18と同様の処理であるので、その説明は省略する。具体的には、図18において、xが上述した図20の処理で求められるG+Eに変更されるだけである。 In step S503, the all-color interpolation processing unit 265 executes a weighted average M G + E calculation process. Since this process is the same as that in FIG. 18 described above, the description thereof is omitted. Specifically, in FIG. 18, x is merely changed to G + E obtained by the above-described processing of FIG.

ステップS504において、全色補間処理部265は、MG+E<(第4の定数)であるか否かを判定し、MG+E<(第4の定数)であると判定された場合、ステップS505において、全色補間処理部265は、MG+E’=(第4の定数)と設定する。この第4の定数は、例えば、経験的にまたは実験的に定められる所定の値である。ステップS504において、MG+E<(第4の定数)でない、すなわちMG+E≧(第4の定数)であると判定された場合、ステップS506において、全色補間処理部265は、MG+E’=MG+Eと設定する。 In step S504, the all-color interpolation processing unit 265 determines whether or not M G + E <(fourth constant), and if it is determined that M G + E <(fourth constant). In step S505, the all-color interpolation processing unit 265 sets M G + E ′ = (fourth constant). The fourth constant is a predetermined value determined empirically or experimentally, for example. If it is determined in step S504 that M G + E <(fourth constant) is not satisfied, that is, M G + E ≧ (fourth constant), in step S506, the all-color interpolation processing unit 265 determines that M G + E <(fourth constant). Set G + E '= MG + E.

ステップS505の処理の後、またはステップS506の処理の後、ステップS507において、全色補間処理部265は、Xの推定値XUを、Mxa/MG+E’((G+E)(x,y)−MG+E)+Mxaとし、処理は図11のステップS58に進む。 After step S505 or after step S506, in step S507, the all-color interpolation processing unit 265 converts the estimated value XU of X to M xa / M G + E ′ ((G + E) (x, y ) −M G + E ) + M xa , and the process proceeds to step S58 in FIG.

なお、ステップS501乃至ステップS503の処理は、その順番を逆にしてもよいし、並行して実行させるようにしてもよい。   Note that the processing in steps S501 to S503 may be performed in reverse order or in parallel.

次に、図24のフローチャートを参照して、図11のステップS57において実行される合成処理を説明する。なおこの処理は、図6の合成処理部266により実行される処理である。   Next, the synthesis process executed in step S57 in FIG. 11 will be described with reference to the flowchart in FIG. This process is a process executed by the synthesis processing unit 266 of FIG.

ステップS551において、合成処理部266は、注目画素位置のR,G,B,Eの補間値RF,GF,BF,EFを信号Cとして取得する。この値は、全色補間処理部264(図11のステップS54の処理)により算出された値である。   In step S551, the composition processing unit 266 acquires the interpolated values RF, GF, BF, and EF of R, G, B, and E at the target pixel position as the signal C. This value is a value calculated by the all-color interpolation processing unit 264 (the process in step S54 in FIG. 11).

ステップS552において、合成処理部266は、注目画素位置のR,G,B,Eの補間値RU,GU,BU,EUを信号C’として取得する。この値は、全色補間処理部265(図11のステップS56の処理)により算出された値である。   In step S552, the composition processing unit 266 acquires R, G, B, and E interpolation values RU, GU, BU, and EU at the target pixel position as a signal C ′. This value is a value calculated by the all-color interpolation processing unit 265 (processing in step S56 in FIG. 11).

ステップS553において、合成処理部266の色空間変換処理部301−1は、ステップS551の処理で取得された信号CのRGBEの色空間で表される信号をRGBの色空間に変換するとともに、RGBをYCbrに変換する。また、ステップS554において、合成処理部266の色空間変換処理部301−2は、ステップS552の処理で取得された信号C’のRGBEの色空間で表される信号をRGBの色空間に変換するとともに、RGBをYCbrに変換する。ここで、色空間変換処理部301−1と色空間変換処理部301−2は同様の処理を実行する。以下、色空間変換処理部301−1と色空間変換処理部301−2を個々に区別する必要がない場合、色空間変換処理部301と称する。RGBEの色空間からRGBの色空間(RGBの表色系)への変換マトリックスは、式(5)に示される。 In step S553, the color space conversion processing unit 301-1 of the composition processing unit 266 converts the signal represented by the RGBE color space of the signal C acquired in the processing of step S551 into an RGB color space, and performs RGB It is converted to YC b C r. In step S554, the color space conversion processing unit 301-2 of the synthesis processing unit 266 converts the signal represented by the RGBE color space of the signal C ′ acquired in the processing of step S552 into the RGB color space. together, converts the RGB to YC b C r. Here, the color space conversion processing unit 301-1 and the color space conversion processing unit 301-2 execute similar processing. Hereinafter, the color space conversion processing unit 301-1 and the color space conversion processing unit 301-2 will be referred to as the color space conversion processing unit 301 when it is not necessary to distinguish them individually. A conversion matrix from the RGBE color space to the RGB color space (RGB color system) is expressed by Equation (5).

Figure 0004292950
Figure 0004292950

式(5)において、行列内のパラメータTij(i=1乃至3,j=1乃至4)は、色再現性に関する部分であり、使用するフィルタの分光特性に合わせて任意に与えられる。例えば、特開2002−271804号公報には、465nm、530nm、585nm、615nmを分光感度曲線のピーク波長とする、ある4色のフィルタセットの場合にXYZ色空間へ変換するためのパラメータが示されている。なお、XYZ色空間からRGB色空間への変換は、CCIR 601に示される。   In Expression (5), parameters Tij (i = 1 to 3, j = 1 to 4) in the matrix are portions relating to color reproducibility, and are arbitrarily given according to the spectral characteristics of the filter to be used. For example, Japanese Patent Application Laid-Open No. 2002-271804 discloses parameters for converting to an XYZ color space in the case of a filter set of four colors having 465 nm, 530 nm, 585 nm, and 615 nm as peak wavelengths of the spectral sensitivity curve. ing. The conversion from the XYZ color space to the RGB color space is shown in CCIR 601.

また、RGB色空間からYCbr色空間への変換マトリックスは、式(6)に示される。 Also, the conversion matrix from the RGB color space to the YC b Cr color space is expressed by Equation (6).

Figure 0004292950
Figure 0004292950

式(6)においては、Yが本実施の形態における輝度信号C’lとされ、Cb,Crは、色度信号Cc,C’cとされる。以下、色度信号Ccに含まれる2つの信号をCb,Crと記述する。 In Equation (6), Y is the luminance signal C ′ l in the present embodiment, and C b and C r are the chromaticity signals C c and C ′ c . Hereinafter, two signals included in the chromaticity signal C c are described as C b and C r .

ステップS555において、合成処理部266の彩度算出処理部302は、色度信号Ccに基づいて、彩度Sを算出する。具体的には、式(7)に示される演算が行われる。 In step S555, the saturation calculation processing unit 302 of the synthetic processing unit 266, based on the chromaticity signal C c, to calculate the saturation S. Specifically, the calculation shown in Expression (7) is performed.

Figure 0004292950
Figure 0004292950

ステップS556において、合成処理部266の色度差算出処理部304は、色度信号CcおよびC’cに基づいて色度差ΔCcを算出する。具体的には、式(8)に示される演算が行われる。 In step S556, the chromaticity difference calculation processing unit 304 of the composition processing unit 266 calculates the chromaticity difference ΔC c based on the chromaticity signals C c and C ′ c . Specifically, the calculation shown in Expression (8) is performed.

Figure 0004292950
Figure 0004292950

ステップS557において、合成処理部266のブレンド率算出処理部303は、彩度Sと色度差ΔCcに基づいてブレンド率rを算出する。具体的には、式(9)に示される演算によりブレンド率rが求められる。 In step S557, the blend rate calculation processing unit 303 of the synthesis processing unit 266 calculates the blend rate r based on the saturation S and the chromaticity difference ΔC c . Specifically, the blend ratio r is obtained by the calculation shown in Expression (9).

Figure 0004292950
Figure 0004292950

式(9)において、第5の定数および第6の定数は任意の定数である。式6により求められたrが1より大きい場合には、1にクリップされる。この第5の定数および第6の定数は、例えば、経験的にまたは実験的に定められる所定の値である。   In Expression (9), the fifth constant and the sixth constant are arbitrary constants. If r obtained by Equation 6 is greater than 1, it is clipped to 1. The fifth constant and the sixth constant are predetermined values determined empirically or experimentally, for example.

ステップS558において、合成処理部266のブレンド処理部305は、色度信号CcおよびC’cをブレンド率rに基づいてブレンドし、色度信号C''cを生成する。具体的には、式(10)および式(11)に示される演算により色度信号C''cが生成される。 In step S558, the blend processing unit 305 of the synthesis processing unit 266 blends the chromaticity signals C c and C ′ c based on the blend ratio r to generate the chromaticity signal C ″ c . Specifically, the chromaticity signal C ″ c is generated by the operations shown in the equations (10) and (11).

C’’b=Cb×r+C’b×(1−r) ・・・(10)
C’’r=Cr×r+C’r×(1−r) ・・・(11)
C ″ b = C b × r + C ′ b × (1−r) (10)
C ″ r = C r × r + C ′ r × (1−r) (11)

ステップS559において、合成処理部266のブレンド処理部305は、色度信号C''cと、ステップS552の処理で色空間変換処理部301−2により算出された輝度信号C’lをあわせて新たなYCbr信号C’’として出力する。 In step S559, the blend processing unit 305 of the composition processing unit 266 newly adds the chromaticity signal C ″ c and the luminance signal C ′ l calculated by the color space conversion processing unit 301-2 in the process of step S552. YC b Cr signal C ″ is output.

なお、ステップS553およびステップS554の処理は、その順番を逆にしてもよいし、並行して実行させるようにしてもよい。   Note that the order of the processes in steps S553 and S554 may be reversed, or may be executed in parallel.

以上の例では、色空間変換処理部301により、RGBE色空間で表される信号を輝度と色差で表される色空間に変換してからブレンド処理を行っている。このような構成を取ることで、信号C’に比べ縦方向の解像度が落ちている信号Cをブレンドに用いても最終的に得られる信号C’’は信号C’の輝度信号を用いていることから、信号C’と同等の解像感が得られる。逆に、ブレンドによる解像度の低下が問題にならないならば、例えば、図25に示されるような、色空間の変換を行わない、より簡単な方法を用いても構わない。   In the above example, the color space conversion processing unit 301 converts the signal expressed in the RGBE color space into the color space expressed by the luminance and the color difference, and then performs the blending process. By adopting such a configuration, the signal C ″ that is finally obtained even when the signal C whose longitudinal resolution is lower than that of the signal C ′ is used for blending uses the luminance signal of the signal C ′. Therefore, the same resolution as the signal C ′ can be obtained. On the other hand, if resolution reduction due to blending does not become a problem, for example, a simpler method that does not perform color space conversion as shown in FIG. 25 may be used.

図25は、本発明を適用した他の実施の形態である、図8の合成処理部266の詳細な構成を示すブロック図である。すなわち図9の合成処理部266の変形例(他の実施の形態)である。図25の合成処理部266は、輝度算出処理部401、彩度算出処理部402、ブレンド率算出処理部403、色度差算出処理部404、およびブレンド処理部405により構成される。信号Cは、上述した図8の全色補間処理部264から供給され、信号C’は、上述した図8の全色補間処理部265から供給される。以下、信号Cに含まれる4つの色成分をR,G,B,Eで表し、信号C’に含まれる4つの色成分をR’,G’,B’,E’で表す。   FIG. 25 is a block diagram showing a detailed configuration of the composition processing unit 266 of FIG. 8, which is another embodiment to which the present invention is applied. That is, this is a modification (another embodiment) of the composition processing unit 266 of FIG. 25 includes a luminance calculation processing unit 401, a saturation calculation processing unit 402, a blend rate calculation processing unit 403, a chromaticity difference calculation processing unit 404, and a blend processing unit 405. The signal C is supplied from the all-color interpolation processing unit 264 of FIG. 8 described above, and the signal C ′ is supplied from the all-color interpolation processing unit 265 of FIG. 8 described above. Hereinafter, four color components included in the signal C are represented by R, G, B, and E, and four color components included in the signal C ′ are represented by R ′, G ′, B ′, and E ′.

輝度算出処理部401は、信号Cから輝度を算出する。この実施の形態(他の実施の形態)では、輝度Lを以下の式(12)に示されるように定義する。   The luminance calculation processing unit 401 calculates the luminance from the signal C. In this embodiment (another embodiment), the luminance L is defined as shown in the following formula (12).

L=(R+G+B+E)/4 ・・・(12)   L = (R + G + B + E) / 4 (12)

彩度算出処理部402は、信号Cと、輝度算出処理部401により得られた輝度Lに基づいて、彩度Sを算出する。この実施の形態(他の実施の形態)では、彩度Sを以下の式(13)に示されるように定義する。   The saturation calculation processing unit 402 calculates the saturation S based on the signal C and the luminance L obtained by the luminance calculation processing unit 401. In this embodiment (another embodiment), the saturation S is defined as shown in the following equation (13).

Figure 0004292950
Figure 0004292950

色度差算出処理部404は、信号C,C’に基づいて色度差を算出する。この実施の形態(他の実施の形態)では、色度差ΔCを以下の式(14)に示されるように定義する。   The chromaticity difference calculation processing unit 404 calculates the chromaticity difference based on the signals C and C ′. In this embodiment (another embodiment), the chromaticity difference ΔC is defined as shown in the following equation (14).

Figure 0004292950
Figure 0004292950

ブレンド率算出処理部403は、再度算出処理部402により得られた彩度Sと、色度差算出処理部404により得られた色度差ΔCに基づいて、ブレンド率rを以下の式(15)を用いて算出する。   Based on the saturation S obtained again by the calculation processing unit 402 and the chromaticity difference ΔC obtained by the chromaticity difference calculation processing unit 404, the blend rate calculation processing unit 403 calculates the blend rate r by the following formula (15 ) To calculate.

Figure 0004292950
Figure 0004292950

なお、式(15)において、第7の定数および第8の定数は任意の定数である。また式(15)により算出されたrが1よりも大きい場合は、1にクリップされる。この第7の定数および第8の定数は、例えば、経験的にまたは実験的に定められる所定の値である。   In the formula (15), the seventh constant and the eighth constant are arbitrary constants. If r calculated by the equation (15) is larger than 1, it is clipped to 1. The seventh constant and the eighth constant are predetermined values determined empirically or experimentally, for example.

ブレンド処理部405は、信号C,C’をブレンド率に基づいてブレンドし、新たな信号C’’Aを算出する。以下、C’’Aに含まれる4つの色成分をR’’,G’’,B’’,E’’で表す。またブレンド方法は、以下の式(16)乃至式(20)に示される。   The blend processing unit 405 blends the signals C and C ′ based on the blend rate, and calculates a new signal C ″ A. Hereinafter, four color components included in C ″ A are represented by R ″, G ″, B ″, and E ″. The blending method is represented by the following formulas (16) to (20).

R’’=R×r+R’×(1−r) ・・・(16)
G’’=G×r+G’×(1−r) ・・・(17)
B’’=B×r+B’×(1−r) ・・・(18)
E’’=E×r+E’×(1−r) ・・・(19)
R ″ = R × r + R ′ × (1-r) (16)
G ″ = G × r + G ′ × (1−r) (17)
B ″ = B × r + B ′ × (1-r) (18)
E ″ = E × r + E ′ × (1-r) (19)

このように、G、Eについて、1つの水平ライン内にGが存在する場合、そのライン内にEが存在しないフィルタ配列を持つ単板カラー撮像素子によって間引きして撮像された色のモザイク画像より、偽色の発生は抑えられているが、解像度が低く、信頼性が低い、第1の全色の補間値と、偽色は発生しやすいが、解像度が高く、偽色が出ていない画素位置では色の信頼性が高い、第2の全色の補間値を得ることができる。また、この2つの全色の補間値を比較することにより、従来困難であった偽色の発生位置の判定を精度良く行うことが可能になる。   Thus, for G and E, when G is present in one horizontal line, from a mosaic image of colors picked up by a single-plate color imaging device having a filter array in which E does not exist in that line. The generation of false colors is suppressed, but the resolution is low and the reliability is low. The interpolated values of all the first colors and the false colors are likely to be generated, but the resolution is high and no false colors are generated. An interpolated value of the second all colors having high color reliability at the position can be obtained. Further, by comparing the interpolation values of all the two colors, it is possible to accurately determine the generation position of the false color, which has been difficult in the past.

さらに、2つの全色の補間値から得られる彩度と色度差に基づいて、第1の全色の補間値(例えば、全色補間処理部264により生成される信号C)の特徴である偽色の少なさと第2の全色の補間値(例えば、全色補間処理部265により生成される信号C’)の特徴である解像度の高さと色の信頼性が高さを生かした、2つの全色の補間値の効果的な合成を行うことができ、もって、高品位な色成分の補間を可能にする。   Further, it is a feature of the interpolation values of the first all colors (for example, the signal C generated by the all color interpolation processing unit 264) based on the saturation and the chromaticity difference obtained from the interpolation values of the two all colors. The high resolution and color reliability, which are the characteristics of the small number of false colors and the interpolation values of the second all colors (for example, the signal C ′ generated by the all color interpolation processing unit 265), are 2 It is possible to effectively synthesize the interpolation values of all the two colors, thereby enabling high-quality color component interpolation.

このことは、従来行われていた、発生した偽色を無彩色に近づける処理とは異なり、単に無彩色にするよりは真値に近い第1の全色の補間値を偽色抑制処理に用いることができるので、より自然な補間画像を得ることができる。   This is different from the conventional process of making the generated false color close to an achromatic color, and the interpolation values of the first all colors closer to the true value are used for the false color suppression process than simply making the achromatic color. Therefore, a more natural interpolation image can be obtained.

なお、本実施の形態および他の実施の形態では、彩度算出処理部302,402、色度差算出処理部304,404において彩度や色度差の算出にユークリッド距離(偏差の自乗和の平方値)を用いているが、マンハッタン距離(偏差の絶対値の総和)を用いても構わない。   In this embodiment and other embodiments, the saturation calculation processing units 302 and 402 and the chromaticity difference calculation processing units 304 and 404 use the Euclidean distance (the sum of squares of the deviation) to calculate the saturation and chromaticity difference. Square value) is used, but Manhattan distance (sum of absolute values of deviations) may be used.

また、ブレンド率rは定性的には色度差ΔCが大きくなると大きくなり、彩度Sが大きくなると小さくなれば良いので、式(9)や式(15)に限らず、式(20)を用いるようにしてもよい。   In addition, the blend ratio r qualitatively increases as the chromaticity difference ΔC increases, and may be decreased as the saturation S increases. Therefore, the blend ratio r is not limited to Expression (9) or Expression (15), and Expression (20) You may make it use.

r=ΔC×(第9の定数)−S×(第10の定数)・・・(20)   r = ΔC × (9th constant) −S × (10th constant) (20)

当然、同様の挙動を示すさらに別の式を用いても構わない。   Of course, another formula showing the same behavior may be used.

また、以上の例では、図6に示されるような4色のフィルタ配列の場合について述べてきたが、さらにフィルタの色数が増えても構わない。本発明の本質は、ある色G,Eについて、すべての水平ライン内にG,Eのいずれかが存在し、1つの水平ライン内にGが存在する時はそのライン内にEが存在しないフィルタ配列において、G,Eに基づいて2種類の輝度を生成する点にある。人間の視覚が色成分に対して輝度に対するほど敏感でないことを考慮すると、輝度さえ同等の精度で生成できれば、他の色についてはDC成分が取れる程度のサンプル数があれば問題なく補間することができる。例えば本発明は、6色配列である図26に対しても適用する事ができる。   In the above example, the case of a four-color filter array as shown in FIG. 6 has been described, but the number of filter colors may be further increased. The essence of the present invention is that, for a certain color G, E, any one of G, E exists in all horizontal lines, and when G exists in one horizontal line, a filter in which E does not exist in that line. In the arrangement, two types of luminance are generated based on G and E. Considering that human vision is not so sensitive to luminance with respect to color components, as long as the luminance can be generated with the same accuracy, other colors can be interpolated without problems if there are enough samples to obtain the DC component. it can. For example, the present invention can be applied to FIG. 26 having a six-color arrangement.

以上の処理をまとめると、以下の通りとなる。   The above processing is summarized as follows.

画素補間方法として、輝度信号を全画素に生成し、それを参照情報として他の色成分を補間する方法が一般的に用いられている。例えば、「U.S. Patent 4,642, 678「Cok,David R. "Signal processing method and apparatus for producing interpolated chrominance values in a sampled color image signal"」には、局所領域における色の比率がほぼ一定であるという仮定の元、全画素にあらかじめGを揃え、近傍画素におけるRとGの比率の平均、およびBとGの比率の平均を注目画素位置のGに乗算し、不明な色成分の推定を行う画素補間方法が提案されている。   As a pixel interpolation method, a method of generating a luminance signal for all pixels and interpolating other color components using it as reference information is generally used. For example, “US Patent 4,642, 678“ Cok, David R. “Signal processing method and apparatus for producing interpolated chrominance values in a sampled color image signal” ”assumes that the color ratio in the local region is almost constant. Original, pixel interpolation method in which G is preliminarily arranged in all pixels, and the average of the ratio of R and G in the neighboring pixels and the average of the ratio of B and G are multiplied by G of the target pixel position to estimate the unknown color component Has been proposed.

そこで、本発明では、注目画素位置における輝度信号のDC成分と色信号のDC成分の比率に輝度信号を乗算して不明な色成分の補間を行う。以下、これを色バランス補間と称する。DC成分は注目画素近傍の画素値を平均することで簡易に求められる。   Therefore, in the present invention, an unknown color component is interpolated by multiplying the ratio of the DC component of the luminance signal and the DC component of the color signal at the target pixel position by the luminance signal. Hereinafter, this is referred to as color balance interpolation. The DC component can be easily obtained by averaging pixel values in the vicinity of the target pixel.

間引いて撮像している場合、輝度信号の補間に用いる画素間の距離が広がると、偽色増大の大きな原因となる。ベイヤー配列では輝度として用いられるGが市松に存在するため、水平ライン毎の間引きを行ってもGが存在しない画素位置には横近傍のGを用いて補間することができ、上記の問題を回避できる。   When imaging is performed with thinning, if the distance between pixels used for interpolation of the luminance signal is widened, it causes a large increase in false color. In the Bayer array, G used as luminance exists in a checkered pattern. Therefore, even if thinning is performed for each horizontal line, a pixel position where G does not exist can be interpolated using G in the lateral vicinity, and the above problem is avoided. it can.

しかしながら、輝度として全画素に共通して用いられる色成分が、横近傍の画素だけでは作れない配列では、ベイヤー配列と同じ手法を用いることはできない。そこで、本実施の形態では、2種類の輝度を生成し、それぞれに基づいて補間した2つの補間値の特徴をいかして合成することで、同等の効果を得るようにする。   However, the same method as the Bayer array cannot be used in an array in which a color component that is commonly used for all pixels as luminance cannot be generated by only pixels in the horizontal vicinity. Therefore, in the present embodiment, two types of luminance are generated, and the characteristics of the two interpolation values interpolated based on the two are combined to obtain the same effect.

以下に、図6に示される4色のフィルタ配列を例として、色の補間に色バランス補間を用いた場合について説明する。間引き後も、図6の配列となるように間引くこととし、解像度の低下を抑えるために、できる限り均等な間隔で間引きを行う。例えば、8ラインを1セットとして、そのうち、4ライン目と7ライン目を用いて1/4に間引くパターンが考えられる。なお、配列や補間方法はこの説明で使用しているものに限定されない。   In the following, a case where color balance interpolation is used for color interpolation will be described using the four-color filter array shown in FIG. 6 as an example. Even after thinning, thinning is performed so that the arrangement in FIG. 6 is obtained, and thinning is performed at as even intervals as possible in order to suppress a reduction in resolution. For example, it is possible to consider a pattern in which 8 lines are set as one set and the fourth and seventh lines are thinned out to 1/4. Note that the arrangement and the interpolation method are not limited to those used in this description.

最初に、Gが存在するラインでは、ライン内のGが存在しない画素位置に、左右に隣接するGを用いてGの補間を行い、Eが存在するラインでは、ライン内のEが存在しない画素位置に、左右に隣接するEを用いてEの補間を行う。その結果、全ての画素にGまたはEが存在することになるが、それらを区別せずに1つの輝度とみなす。図27は、GとEがライン毎に補間された状態を示す。例として、撮像対象がDC成分のみを持ち、得られたモザイク信号値がRの値が0.5、Gの値が1、Eの値が0.8であるとき、位置452に位置するRを推定する場合を考える。   First, in a line where G exists, G is interpolated using G adjacent to the left and right at a pixel position where G does not exist in the line, and in a line where E exists, a pixel where E does not exist in the line. E is interpolated using E adjacent to the left and right at the position. As a result, although G or E exists in all the pixels, they are regarded as one luminance without being distinguished. FIG. 27 shows a state where G and E are interpolated for each line. As an example, when the imaging target has only a DC component and the obtained mosaic signal value is R value 0.5, G value 1 and E value 0.8, R located at position 452 Consider the case of estimating.

位置451における色の補間のために、近傍3×3領域454の輝度の平均値を求めると、約0.87となる。位置452における色の補間のために、近傍3×3領域455の輝度の平均値を求めると、約0.93となる。Rの平均値は、どの領域においても0.5となるので、色バランス補間を用いると、位置451のRの補間値R1は、式(21)で示されるように演算され、位置452のRの補間値R2は、式(22)で示されるように演算される。   When the average value of the luminance of the neighboring 3 × 3 region 454 is obtained for color interpolation at the position 451, it is about 0.87. When the average value of the luminance of the neighboring 3 × 3 region 455 is obtained for color interpolation at the position 452, it is about 0.93. Since the average value of R is 0.5 in any region, when color balance interpolation is used, the R interpolation value R1 at the position 451 is calculated as shown in Expression (21), and the R value at the position 452 is calculated. The interpolation value R2 is calculated as shown in Expression (22).

Figure 0004292950
Figure 0004292950

このように、ライン毎に注目画素位置で輝度とみなしている色が異なり、また輝度の平均も同一にはならないため、単に色バランス補間を行うだけでは、画素位置によって補間される色が変わることになる。そこで、注目画素位置の輝度がGである場合と、Eである場合の補間結果を合成し、画素間のバランスを取ることにする。ここで用いている間引き方では、注目画素位置の輝度がGである場合と、Eである場合の補間結果が1ライン毎に得られるので、注目画素位置およびその上下に補間された色を用いる。領域456の輝度の平均値を用いて、位置453に補間したRの補間値をR3とした場合、位置452のRの最終的な補間値R2’は、式(23)により求められる。   In this way, the color considered as luminance at the target pixel position is different for each line, and the average luminance is not the same, so simply performing color balance interpolation will change the interpolated color depending on the pixel position. become. Therefore, the interpolation results when the luminance of the target pixel position is G and E are combined to balance the pixels. In the thinning method used here, since the interpolation result when the luminance at the target pixel position is G and E is obtained for each line, the target pixel position and the color interpolated above and below it are used. . If the R interpolation value interpolated at the position 453 using the average value of the luminance of the region 456 is R3, the final R interpolation value R2 'at the position 452 is obtained by Expression (23).

Figure 0004292950
Figure 0004292950

このような方法により、全色を揃えた補間画素は、輝度の生成にサンプリング間隔が広い縦方向の近傍画素を用いていないため偽色がでにくい。しかし、複数の補間値の足しあわせにより解像度の低下を招いている。また、GとEを区別せずに補間を行っているので、色の推定に誤りが含まれ、補間された色の信頼度が低くなっている。この信頼を上げるためには、なるべくGとEの分光特性が近い方が好ましい。また、無彩色に対してGとEが同じであるとみなすために、モザイク信号の段階でレベルバランス(ホワイトバランス)をあわせておくことも信頼性の向上につながる。   By using such a method, the interpolated pixels in which all the colors are aligned do not generate false colors because the neighboring pixels in the vertical direction with a wide sampling interval are not used for luminance generation. However, the addition of a plurality of interpolation values causes a reduction in resolution. In addition, since interpolation is performed without distinguishing between G and E, an error is included in the color estimation, and the reliability of the interpolated color is low. In order to increase the reliability, it is preferable that the spectral characteristics of G and E are as close as possible. Further, in order to consider that G and E are the same for an achromatic color, it is also possible to improve reliability by adjusting the level balance (white balance) at the mosaic signal stage.

続いて、別の輝度を用いた補間を行う。まず線形補間等、適当な補間法で全ての画素位置にGとEをそろえる。そして、同一画素上のG,Eを加算平均し、新たな色成分G+Eを生成する。このG+Eを輝度とみなして、不明な色成分を色バランス補間で補間する。G+Eは生成時にサンプリング間隔が広い縦方向の近傍画素を用いるため偽色がでやすいが、撮像対象のDC成分に対しては、色の推定が正しく行われるため、偽色がでていない画素位置では、補間された色の信頼性が高い。   Subsequently, interpolation using another luminance is performed. First, G and E are aligned at all pixel positions by an appropriate interpolation method such as linear interpolation. Then, G and E on the same pixel are averaged to generate a new color component G + E. G + E is regarded as luminance, and unknown color components are interpolated by color balance interpolation. Since G + E uses vertical neighboring pixels with a wide sampling interval at the time of generation, false colors are likely to occur. However, for DC components to be imaged, since color estimation is performed correctly, pixel positions where no false colors are generated Then, the reliability of the interpolated color is high.

以上の2つの推定方法を用いて、偽色の発生が抑えられているが、解像度が低く、色の信頼性が低い第1の全色の補間値C(RF,GF,BF,EF)と、偽色は発生しやすいが、解像度が高く、偽色が出ていない画素位置では色の信頼性が高い、第2の全色の補間値C’(RU,GU,BU,EU)が得られる。この2つの全色の補間値を合成することにより、偽色の発生が抑えられていて、色の信頼性が高く、解像度が高い、新たな第3の全色の補間値を生成することができる。その方法としては、最初に現在の色空間から、輝度と色度で表される色空間に変換し、第1の全色の補間値から第1の輝度と第1の色度を生成する。次に、第2の全色の補間値から第2の輝度と第2の色度を生成する。   By using the above two estimation methods, the occurrence of false colors is suppressed, but the first all-color interpolation values C (RF, GF, BF, EF) and the resolution are low and the color reliability is low. A second all-color interpolated value C ′ (RU, GU, BU, EU) is obtained which is easy to generate false colors, but has high resolution and high color reliability at pixel positions where no false colors appear. It is done. By synthesizing these two interpolated values of all colors, generation of false colors can be suppressed, and a new third interpolated value of all colors can be generated with high color reliability and high resolution. it can. As the method, first, the current color space is converted into a color space represented by luminance and chromaticity, and the first luminance and the first chromaticity are generated from the interpolation values of all the first colors. Next, second luminance and second chromaticity are generated from the interpolation values of the second all colors.

視覚の特性として、輝度の解像度に対しては敏感で、色度の解像度に対しては鈍感であることを利用し、輝度については解像度の高い第2の輝度(例えば、図9の輝度信号C’l)をそのまま用い、色度について合成を行う。偽色が発生している画素位置では、色度の信頼性は第1の色度(例えば、図9の色度信号Cc)の方が高く、逆に偽色が発生していない画素位置では、第2の色度の方が高くなるという仮定の元、第1および第2の色度を比較し色度差が大きい場合は偽色であると判断し、第1の色度の合成比率を上げ、また、偽色が目立つ無彩色部分を重点的に第1の色度の合成比率を上げることで、偽色が出ていない部分の色度が信頼性の高い第2の色度になるように合成を行う。 As a visual characteristic, a second luminance having a high resolution (for example, luminance signal C in FIG. 9) is used for luminance, which is sensitive to luminance resolution and insensitive to chromaticity resolution. ' l ) is used as it is, and the chromaticity is synthesized. At the pixel position where the false color is generated, the reliability of the chromaticity is higher in the first chromaticity (for example, the chromaticity signal C c in FIG. 9), and conversely, the pixel position where the false color is not generated. Then, based on the assumption that the second chromaticity is higher, the first and second chromaticities are compared, and if the chromaticity difference is large, it is determined that the color is false, and the first chromaticity is synthesized. By increasing the ratio and increasing the composite ratio of the first chromaticity with emphasis on the achromatic part where the false color is conspicuous, the chromaticity of the part where the false color does not appear is highly reliable. The synthesis is performed so that

以上の処理により、例えば、G,Eについて、すべての水平ライン内にGまたはEが配置され、1つの水平ライン内にGが存在する場合、そのライン内にEが存在しないフィルタ配列を持つ単板カラー撮像素子によって間引きして撮像された色のモザイク画像より、偽色の発生は抑えられているが、解像度が低く、信頼性が低い、第1の全色の補間値と、偽色は発生しやすいが、解像度が高く、偽色が出ていない画素位置では色の信頼性が高い、第2の全色の補間値が得られる。この2つの全色の補間値を比較することにより、偽色の発生位置の判定を精度良く行うことが可能になる。   By the above processing, for example, for G and E, when G or E is arranged in all horizontal lines and G exists in one horizontal line, a single filter array having no E in that line is provided. The generation of false colors is suppressed from the mosaic image of the color picked up by the plate color image sensor, but the first color interpolated values and the false colors are low in resolution and low in reliability. Interpolated values of the second all colors, which are likely to occur but have high resolution and high color reliability at pixel positions where no false color appears, are obtained. By comparing the interpolation values of these two colors, it is possible to accurately determine the occurrence position of the false color.

また、2つの全色の補間値から得られる彩度と色度差に基づいて、第1の全色の補間値の特徴である偽色の少なさと第2の全色の補間値の特徴である解像度の高さと色の信頼性が高さを生かした、2つの全色の補間値の効果的な合成を行うことができ、もって、高品位な色成分の補間を可能にする。   Further, based on the saturation and chromaticity difference obtained from the interpolation values of the two all colors, there are a small number of false colors, which are the characteristics of the interpolation values of the first all colors, and the characteristics of the interpolation values of the second all colors. It is possible to effectively combine the interpolation values of all the two colors by taking advantage of the high resolution and high color reliability, thereby enabling high-quality color component interpolation.

この処理は、従来行われていた、発生した偽色を無彩色に近づける処理とは異なり、単に無彩色にするよりは真値に近い第1の全色の補間値を偽色抑制処理に用いることができるので、より自然な補間画像を得ることができる。   This process is different from the conventional process of making the generated false color close to an achromatic color, and the interpolation values of the first all colors closer to the true value are used for the false color suppression process than simply making the achromatic color. Therefore, a more natural interpolation image can be obtained.

なお、図18のステップS309において、重み係数wiの総和Wで、所定の値が除算されているが、重み係数wiを中心位置からの距離に応じて変化させ、その総和を2の累乗となるように定めることにより、重み係数wiの総和Wで、所定の値を除算する処理(画素数を用いた除算)に代って、シフト演算を用いるようにしてもよい。これにより、演算を簡略化することが可能となる。   In step S309 in FIG. 18, the predetermined value is divided by the sum W of the weighting factors wi. The weighting factor wi is changed according to the distance from the center position, and the sum is raised to a power of 2. Thus, a shift operation may be used instead of the process of dividing a predetermined value by the total sum W of the weighting factors wi (division using the number of pixels). This makes it possible to simplify the calculation.

また、本発明は、デジタルカメラを初めとする、固体撮像素子および固体撮像素子を利用した撮像装置(例えば、デジタルスチルカメラ)に適用することができる。具体的には、1つの固体撮像素子によってカラー画像を得る方式(単板カラー方式)の撮像装置に本発明を適用することによって、不明な色成分を推定することができる。   Further, the present invention can be applied to a solid-state image pickup device and an image pickup apparatus using the solid-state image pickup device (for example, a digital still camera) such as a digital camera. Specifically, an unknown color component can be estimated by applying the present invention to an imaging apparatus that obtains a color image with a single solid-state imaging device (single-plate color system).

上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。   The series of processes described above can be executed by hardware, but can also be executed by software.

この場合、ソフトウェアをDSPブロック216が実行することにより、上述した機能が実現される。また、例えば、デモザイク処理部253は、図28に示されるようなパーソナルコンピュータ501により構成することが可能となる。   In this case, the above-described functions are realized by executing the software by the DSP block 216. Further, for example, the demosaic processing unit 253 can be configured by a personal computer 501 as shown in FIG.

図28において、CPU(Central Processing Unit)511は、ROM(Read Only Memory)512に記憶されているプログラム、または記憶部518からRAM(Random Access Memory)513にロードされたプログラムに従って、各種の処理を実行する。RAM513にはまた、CPU511が各種の処理を実行する上において必要なデータなども適宜記憶される。   In FIG. 28, a CPU (Central Processing Unit) 511 performs various processes according to a program stored in a ROM (Read Only Memory) 512 or a program loaded from a storage unit 518 to a RAM (Random Access Memory) 513. Execute. The RAM 513 also appropriately stores data necessary for the CPU 511 to execute various processes.

CPU511、ROM512、およびRAM513は、バス514を介して相互に接続されている。このバス514にはまた、入出力インタフェース515も接続されている。   The CPU 511, ROM 512, and RAM 513 are connected to each other via a bus 514. An input / output interface 515 is also connected to the bus 514.

入出力インタフェース515には、キーボード、マウスなどよりなる入力部516、ディスプレイやスピーカなどよりなる出力部517、ハードディスクなどより構成される記憶部518、モデム、ターミナルアダプタなどより構成される通信部519が接続されている。通信部519は、インターネットを含むネットワークを介しての通信処理を行う。   The input / output interface 515 includes an input unit 516 including a keyboard and a mouse, an output unit 517 including a display and a speaker, a storage unit 518 including a hard disk, and a communication unit 519 including a modem and a terminal adapter. It is connected. A communication unit 519 performs communication processing via a network including the Internet.

入出力インタフェース515にはまた、必要に応じてドライブ520が接続され、磁気ディスク531、光ディスク532、光磁気ディスク533、もしくは、半導体メモリ534などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部518にインストールされる。   A drive 520 is connected to the input / output interface 515 as necessary, and a magnetic disk 531, an optical disk 532, a magneto-optical disk 533, a semiconductor memory 534, or the like is appropriately mounted, and a computer program read from them is loaded. It is installed in the storage unit 518 as necessary.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェア(例えば、DSPブロック216や、その中に含まれている、デモザイク処理部253、G,E補間処理部262、G+E生成処理部263、全色補間処理部264、全色補間処理部265、または合成処理部266)に組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。   When a series of processing is executed by software, a program that configures the software is dedicated hardware (for example, DSP block 216 and demosaic processing unit 253, G, E interpolation processing included therein) Unit 262, G + E generation processing unit 263, all-color interpolation processing unit 264, all-color interpolation processing unit 265, or composition processing unit 266), or various programs can be installed by installing various programs. Is installed from a network or a recording medium into a general-purpose personal computer or the like.

この記録媒体は、図28に示されるように、装置本体とは別に、ユーザにプログラムを供給するために配布される、プログラムが記憶されている磁気ディスク531(フロッピディスクを含む)、光ディスク532(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク533(MO(Magnet Optical Disk)を含む)、もしくは半導体メモリ534などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに供給される、プログラムが記憶されているROM512や、記憶部518に含まれるハードディスクなどで構成される。   As shown in FIG. 28, this recording medium is distributed to supply a program to the user separately from the main body of the apparatus, and includes a magnetic disk 531 (including a floppy disk) on which the program is stored, an optical disk 532 ( CD-ROM (compact disk-read only memory), DVD (including digital versatile disk)), magneto-optical disk 533 (including MO (magnet optical disk)), or a package medium composed of semiconductor memory 534, etc. In addition, the program is configured by a ROM 512 storing a program supplied to the user in a state of being incorporated in the apparatus main body in advance, a hard disk included in the storage unit 518, and the like.

なお、本明細書において、記録媒体に記憶されるプログラムを記述するステップは、含む順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的もしくは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the recording medium is not limited to the processing performed in chronological order in the order in which they are included, but is not necessarily processed in chronological order, either in parallel or individually. The process to be executed is also included.

ベイヤー配列を説明するための図である。It is a figure for demonstrating a Bayer arrangement | sequence. GストライプRB完全市松色フィルタ配列を説明するための図である。It is a figure for demonstrating G stripe RB perfect checkered color filter arrangement | sequence. RGBストライプ色フィルタ配列を説明するための図である。It is a figure for demonstrating a RGB stripe color filter arrangement | sequence. 間引きサンプリングを説明するための図である。It is a figure for demonstrating thinning sampling. 本発明を適用したデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera to which this invention is applied. 4色配列を説明するための図である。It is a figure for demonstrating 4 color arrangement | sequence. 図5のDSPブロックの構成を示すブロック図である。It is a block diagram which shows the structure of the DSP block of FIG. 図7のデモザイク処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the demosaic process part of FIG. 図8の合成処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the synthetic | combination process part of FIG. 図5のDSPブロックが実行する画像処理についてについて説明するためのフローチャートである。6 is a flowchart for explaining image processing executed by the DSP block of FIG. 5. 図8のデモザイク処理部が実行するデモザイク処理について説明するためのフローチャートである。It is a flowchart for demonstrating the demosaic process which the demosaic process part of FIG. 8 performs. G,E補間処理について説明するためのフローチャートである。It is a flowchart for demonstrating G and E interpolation processing. G,E補間処理について説明するためのフローチャートである。It is a flowchart for demonstrating G and E interpolation processing. 第1の全色補間処理について説明するためのフローチャートである。It is a flowchart for demonstrating a 1st all color interpolation process. 推定値算出処理について説明するためのフローチャートである。It is a flowchart for demonstrating an estimated value calculation process. 第1の補間処理について説明するためのフローチャートである。It is a flowchart for demonstrating a 1st interpolation process. 第1の補間処理について説明するためのフローチャートである。It is a flowchart for demonstrating a 1st interpolation process. 重み付き平均値Mx算出処理について説明するためのフローチャートである。It is a flowchart for demonstrating the weighted average value Mx calculation process. 重み付けの例について説明するための図である。It is a figure for demonstrating the example of weighting. G+E生成処理を説明するためのフローチャートである。It is a flowchart for demonstrating a G + E production | generation process. 第1のG+E生成処理を説明するためのフローチャートである。It is a flowchart for demonstrating a 1st G + E production | generation process. 第2のG+E生成処理を説明するためのフローチャートである。It is a flowchart for demonstrating a 2nd G + E production | generation process. 第2の全色補間処理を説明するためのフローチャートである。It is a flowchart for demonstrating a 2nd all color interpolation process. 合成処理を説明するためのフローチャートである。It is a flowchart for demonstrating a synthetic | combination process. 図8の他の合成処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the other synthetic | combination process part of FIG. 6色配列を説明するための図である。It is a figure for demonstrating 6 color arrangement | sequence. G,Eをライン毎にそろえて輝度とみなす場合を説明する図である。It is a figure explaining the case where G and E are arranged for every line and it considers as a brightness | luminance. パーソナルコンピュータの構成を示すブロック図である。It is a block diagram which shows the structure of a personal computer.

符号の説明Explanation of symbols

216 DSPブロック, 251 ホワイトバランス調整部, 253 デモザイク処理部, 261 局所領域抽出部, 262 G,E補間処理部, 263 G+E生成処理部, 264,265 全色補間処理部, 266 合成処理部, 301−1,301−2 色空間変換処理部, 302 彩度算出処理部, 303 ブレンド率算出処理部, 304 色度差算出処理部, 305 ブレンド処理部   216 DSP blocks, 251 white balance adjustment unit, 253 demosaic processing unit, 261 local region extraction unit, 262 G, E interpolation processing unit, 263 G + E generation processing unit, 264, 265 all color interpolation processing unit, 266 synthesis processing unit, 301 -1, 301-2 color space conversion processing unit, 302 saturation calculation processing unit, 303 blend rate calculation processing unit, 304 chromaticity difference calculation processing unit, 305 blend processing unit

Claims (6)

単板式カラー撮像素子を用いて撮像されたモザイク画像に基づいて、各画素が複数の色成分を有するカラー画像を生成する画像処理装置において、
第1の色成分が第1の水平ラインに配置されるとともに、第2の色成分が第2の水平ラインに配置され、全ての水平ラインには、前記第1の色成分と前記第2の色成分のいずれかが配置され、前記第1の水平ラインにおいて、前記第1の水平ライン内の画素のみを用いて、前記第1の色成分がない画素における前記第1の色成分の補間値である第1の補間値を算出し、前記第2の水平ラインにおいて、前記第2の水平ライン内の画素のみを用いて、前記第2の色成分がない画素における前記第2の色成分の補間値である第2の補間値を算出する第1の補間値算出手段と、
前記モザイク画像の注目画素の近傍の画素における前記第1の補間値および第1の色成分、並びに、前記注目画素の近傍の画素における前記第2の補間値および前記第2の色成分に基づいて、前記注目画素における第1の全色の補間値を算出する第2の補間値算出手段と、
前記モザイク画像の画素値に基づいて、各画素における前記第1の色成分と前記第2の色成分からなる第3の色成分を生成する生成手段と、
前記注目画素の近傍の画素における前記第3の色成分と、前記注目画素の近傍の画素の画素値に基づいて、前記注目画素における第2の全色の補間値を算出する第3の補間値算出手段と、
前記第1の全色の補間値および前記第2の全色の補間値を合成して、第3の全色の補間値を算出する第4の補間値算出手段と
を備えることを特徴とする画像処理装置。
In an image processing device that generates a color image in which each pixel has a plurality of color components based on a mosaic image captured using a single-plate color image sensor,
The first color component is disposed on the first horizontal line, the second color component is disposed on the second horizontal line, and all the horizontal lines include the first color component and the second color component. Any one of the color components is arranged, and in the first horizontal line, only the pixels in the first horizontal line are used, and the interpolation value of the first color component in the pixel without the first color component The first interpolation value is calculated, and only the pixels in the second horizontal line are used in the second horizontal line, and the second color component in the pixel having no second color component is calculated. First interpolation value calculation means for calculating a second interpolation value that is an interpolation value;
Based on the first interpolation value and the first color component in a pixel in the vicinity of the target pixel of the mosaic image, and the second interpolation value and the second color component in a pixel in the vicinity of the target pixel. Second interpolation value calculation means for calculating interpolation values of all the first colors in the target pixel;
Generating means for generating a third color component composed of the first color component and the second color component in each pixel based on the pixel value of the mosaic image;
A third interpolation value for calculating an interpolated value of all the second colors in the target pixel based on the third color component in the pixel in the vicinity of the target pixel and the pixel value of the pixel in the vicinity of the target pixel; A calculation means;
4th interpolation value calculation means which synthesize | combines the interpolation value of said 1st all color and the interpolation value of said 2nd all color, and calculates the interpolation value of 3rd all color, It is characterized by the above-mentioned. Image processing device.
前記第4の補間値算出手段は、
前記第1の全色の補間値に基づいて彩度を算出する彩度算出手段と、
前記第1の全色の補間値および前記第2の全色の補間値に基づいて、色度差を算出する色度差算出手段と、
前記彩度算出手段により算出された前記彩度と前記色度差算出手段により算出された前記色度差に基づいて、ブレンド率を算出するブレンド率算出手段と、
前記第1の全色の補間値および前記第2の全色の補間値を、前記ブレンド率を用いて合成する合成手段と
を備えることを特徴とする請求項1に記載の画像処理装置。
The fourth interpolation value calculation means includes:
Saturation calculating means for calculating saturation based on the interpolation values of the first all colors;
Chromaticity difference calculating means for calculating a chromaticity difference based on the interpolation values of the first all colors and the interpolation values of the second all colors;
A blend rate calculation unit that calculates a blend rate based on the saturation calculated by the saturation calculation unit and the chromaticity difference calculated by the chromaticity difference calculation unit;
The image processing apparatus according to claim 1, further comprising: a combining unit configured to combine the interpolation values of the first all colors and the interpolation values of the second all colors using the blend ratio.
前記第1の色成分および前記第2の色成分は、互いに相関の高い分光感度を有する
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the first color component and the second color component have spectral sensitivity highly correlated with each other.
前記第1の補間値と前記第2の補間値を算出する前に、前記モザイク画像の画素に対して、ホワイトバランスを調整する調整手段を
さらに備えることを特徴とする請求項1に記載の画像処理装置。
2. The image according to claim 1, further comprising an adjusting unit that adjusts a white balance with respect to pixels of the mosaic image before calculating the first interpolation value and the second interpolation value. 3. Processing equipment.
単板式カラー撮像素子を用いて撮像されたモザイク画像に基づいて、各画素が複数の色成分を有するカラー画像を生成する画像処理装置の画像処理方法において、
第1の色成分が第1の水平ラインに配置されるとともに、第2の色成分が第2の水平ラインに配置され、全ての水平ラインには、前記第1の色成分と前記第2の色成分のいずれかが配置され、前記第1の水平ラインにおいて、前記第1の水平ライン内の画素のみを用いて、前記第1の色成分がない画素における前記第1の色成分の補間値である第1の補間値を算出する第1の補間値算出ステップと、
前記第2の水平ラインにおいて、前記第2の水平ライン内の画素のみを用いて、前記第2の色成分がない画素における前記第2の色成分の補間値である第2の補間値を算出する第2の補間値算出ステップと、
前記モザイク画像の注目画素の近傍の画素における前記第1の補間値および第1の色成分、並びに、前記注目画素の近傍の画素における前記第2の補間値および前記第2の色成分に基づいて、前記注目画素における第1の全色の補間値を算出する第3の補間値算出ステップと、
前記モザイク画像の画素値に基づいて、各画素における前記第1の色成分と前記第2の色成分からなる第3の色成分を生成する生成ステップと、
前記注目画素の近傍の画素における前記第3の色成分と、前記注目画素の近傍の画素の画素値に基づいて、前記注目画素における第2の全色の補間値を算出する第4の補間値算出ステップと、
前記第1の全色の補間値および前記第2の全色の補間値を合成して、第3の全色の補間値を算出する第5の補間値算出ステップと
を含むことを特徴とする画像処理方法。
In an image processing method of an image processing apparatus that generates a color image in which each pixel has a plurality of color components based on a mosaic image captured using a single-plate color image sensor,
The first color component is disposed on the first horizontal line, the second color component is disposed on the second horizontal line, and all the horizontal lines include the first color component and the second color component. Any one of the color components is arranged, and in the first horizontal line, only the pixels in the first horizontal line are used, and the interpolation value of the first color component in the pixel without the first color component A first interpolation value calculating step for calculating a first interpolation value which is:
In the second horizontal line, only a pixel in the second horizontal line is used to calculate a second interpolation value that is an interpolation value of the second color component in a pixel having no second color component. A second interpolation value calculating step,
Based on the first interpolation value and the first color component in a pixel in the vicinity of the target pixel of the mosaic image, and the second interpolation value and the second color component in a pixel in the vicinity of the target pixel. A third interpolation value calculating step for calculating the interpolation values of all the first colors in the target pixel;
Generating a third color component composed of the first color component and the second color component in each pixel based on the pixel value of the mosaic image;
A fourth interpolation value for calculating an interpolated value of all the second colors in the target pixel based on the third color component in the pixel in the vicinity of the target pixel and the pixel value of the pixel in the vicinity of the target pixel; A calculation step;
And a fifth interpolation value calculating step of calculating an interpolation value of the third all color by combining the interpolation value of the first all color and the interpolation value of the second all color. Image processing method.
単板式カラー撮像素子を用いて撮像されたモザイク画像に基づいて、各画素が複数の色成分を有するカラー画像を生成するプログラムであって、
第1の色成分が第1の水平ラインに配置されるとともに、第2の色成分が第2の水平ラインに配置され、全ての水平ラインには、前記第1の色成分と前記第2の色成分のいずれかが配置され、前記第1の水平ラインにおいて、前記第1の水平ライン内の画素のみを用いて、前記第1の色成分がない画素における前記第1の色成分の補間値である第1の補間値を算出する第1の補間値算出ステップと、
前記第2の水平ラインにおいて、前記第2の水平ライン内の画素のみを用いて、前記第2の色成分がない画素における前記第2の色成分の補間値である第2の補間値を算出する第2の補間値算出ステップと、
前記モザイク画像の注目画素の近傍の画素における前記第1の補間値および第1の色成分、並びに、前記注目画素の近傍の画素における前記第2の補間値および前記第2の色成分に基づいて、前記注目画素における第1の全色の補間値を算出する第3の補間値算出ステップと、
前記モザイク画像の画素値に基づいて、各画素における前記第1の色成分と前記第2の色成分からなる第3の色成分を生成する生成ステップと、
前記注目画素の近傍の画素における前記第3の色成分と、前記注目画素の近傍の画素の画素値に基づいて、前記注目画素における第2の全色の補間値を算出する第4の補間値算出ステップと、
前記第1の全色の補間値および前記第2の全色の補間値を合成して、第3の全色の補間値を算出する第5の補間値算出ステップと
を含む処理をコンピュータに実行させることを特徴とするプログラム。
A program for generating a color image in which each pixel has a plurality of color components based on a mosaic image captured using a single-plate color image sensor,
The first color component is disposed on the first horizontal line, the second color component is disposed on the second horizontal line, and all the horizontal lines include the first color component and the second color component. Any one of the color components is arranged, and in the first horizontal line, only the pixels in the first horizontal line are used, and the interpolation value of the first color component in the pixel without the first color component A first interpolation value calculating step for calculating a first interpolation value which is:
In the second horizontal line, only a pixel in the second horizontal line is used to calculate a second interpolation value that is an interpolation value of the second color component in a pixel having no second color component. A second interpolation value calculating step,
Based on the first interpolation value and the first color component in a pixel in the vicinity of the target pixel of the mosaic image, and the second interpolation value and the second color component in a pixel in the vicinity of the target pixel. A third interpolation value calculating step for calculating the interpolation values of all the first colors in the target pixel;
Generating a third color component composed of the first color component and the second color component in each pixel based on the pixel value of the mosaic image;
A fourth interpolation value for calculating an interpolated value of all the second colors in the target pixel based on the third color component in the pixel in the vicinity of the target pixel and the pixel value of the pixel in the vicinity of the target pixel; A calculation step;
A fifth interpolation value calculating step of combining the interpolation values for the first all colors and the interpolation values for the second all colors to calculate the interpolation values for the third all colors is executed on a computer. A program characterized by letting
JP2003371537A 2003-10-31 2003-10-31 Image processing apparatus, image processing method, and program Expired - Fee Related JP4292950B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003371537A JP4292950B2 (en) 2003-10-31 2003-10-31 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003371537A JP4292950B2 (en) 2003-10-31 2003-10-31 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2005136765A JP2005136765A (en) 2005-05-26
JP4292950B2 true JP4292950B2 (en) 2009-07-08

Family

ID=34648158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003371537A Expired - Fee Related JP4292950B2 (en) 2003-10-31 2003-10-31 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP4292950B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4983093B2 (en) 2006-05-15 2012-07-25 ソニー株式会社 Imaging apparatus and method
JP5305992B2 (en) * 2009-03-10 2013-10-02 キヤノン株式会社 Image processing apparatus and image processing method
CN104025575B (en) 2011-12-27 2015-11-25 富士胶片株式会社 The control method of camera head and camera head
WO2013100094A1 (en) * 2011-12-27 2013-07-04 富士フイルム株式会社 Imaging device, method for controlling imaging device, and control program
JP6019964B2 (en) * 2012-09-10 2016-11-02 株式会社リコー Image processing apparatus, imaging apparatus equipped with the same, and image processing method

Also Published As

Publication number Publication date
JP2005136765A (en) 2005-05-26

Similar Documents

Publication Publication Date Title
JP4385282B2 (en) Image processing apparatus and image processing method
USRE47062E1 (en) Image processing apparatus and method for generating a restoration image
US7577315B2 (en) Method and apparatus for processing image data of a color filter array
JP5183880B2 (en) Color filter and image sensor
US9392241B2 (en) Image processing apparatus and image processing method
KR101391161B1 (en) Image processing device
TWI386049B (en) A solid-state imaging device, and a device using the solid-state imaging device
US20070159542A1 (en) Color filter array with neutral elements and color image formation
WO2006080220A1 (en) Imaging device and imaging element
KR20090087811A (en) Imaging device, image processing device, image processing method, program for image processing method, and recording medium having program for image processing method recorded thereon
US20060050956A1 (en) Signal processing apparatus, signal processing method, and signal processing program
KR20130083464A (en) Image processing apparatus and control method of the same
US8320714B2 (en) Image processing apparatus, computer-readable recording medium for recording image processing program, and image processing method
JP2002209223A (en) Image processing unit and method, and recording medium
JP2009290607A (en) Imaging apparatus
JP2006033575A (en) Signal processing device and method, and program
US7412092B2 (en) Image processing apparatus, image processing method, and program
JP4292950B2 (en) Image processing apparatus, image processing method, and program
WO2007082289A2 (en) Color filter array with neutral elements and color image formation
JP4449696B2 (en) Image processing apparatus, image processing method, and program
JP2005210218A (en) Image processor, image processing method, and program
JP4285587B2 (en) Image sensor
JP2010233241A (en) Image processing apparatus, image processing method, program and recording medium
KR20070099238A (en) Image sensor for expanding wide dynamic range and output bayer-pattern image
JP2010004472A (en) Image conversion device, and electronic apparatus including the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090317

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090330

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120417

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120417

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120417

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130417

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees