JP4292950B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP4292950B2 JP4292950B2 JP2003371537A JP2003371537A JP4292950B2 JP 4292950 B2 JP4292950 B2 JP 4292950B2 JP 2003371537 A JP2003371537 A JP 2003371537A JP 2003371537 A JP2003371537 A JP 2003371537A JP 4292950 B2 JP4292950 B2 JP 4292950B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- color
- interpolation
- color component
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 331
- 238000003672 processing method Methods 0.000 title claims description 11
- 239000003086 colorant Substances 0.000 claims description 120
- 238000004364 calculation method Methods 0.000 claims description 84
- 239000000203 mixture Substances 0.000 claims description 44
- 230000003595 spectral effect Effects 0.000 claims description 11
- 230000002596 correlated effect Effects 0.000 claims description 8
- 230000035945 sensitivity Effects 0.000 claims description 5
- 238000000034 method Methods 0.000 description 171
- 230000008569 process Effects 0.000 description 150
- 238000006243 chemical reaction Methods 0.000 description 20
- 230000015572 biosynthetic process Effects 0.000 description 13
- 238000003786 synthesis reaction Methods 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000012937 correction Methods 0.000 description 10
- 238000005070 sampling Methods 0.000 description 10
- 230000000875 corresponding effect Effects 0.000 description 7
- 238000000605 extraction Methods 0.000 description 5
- 238000002156 mixing Methods 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 230000002194 synthesizing effect Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 241000579895 Chlorostilbon Species 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 229910052876 emerald Inorganic materials 0.000 description 3
- 239000010976 emerald Substances 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004071 soot Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Color Television Image Signal Generators (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Description
本発明は、画像処理装置および画像処理方法、並びにプログラムに関し、特に、偽色の発生と解像度の低下を抑えつつ、全画素に色成分の補間処理ができるようにした画像処理装置および画像処理方法、並びにプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly, to an image processing apparatus and an image processing method capable of performing color component interpolation processing on all pixels while suppressing generation of false colors and reduction in resolution. , As well as programs.
単板式の固定撮像素子を用いた撮影装置で撮影した場合、単一の分光感度しか得られない。そのため、一般的には、多数の画素に対してそれぞれ異なる色フィルタを貼り、それらを特定のパターンで配置してカラー撮影を行う方法が利用されている。この方法で撮像された画像は、画素毎に1つの色しか得ることができないため、色に関してモザイク状になった画像が生成される。そこで、周囲の画素から得られる色情報を利用して補間を行うことにより、全画素で全ての色(例えばRGB)が揃った画像を生成することができる。 When photographing with a photographing device using a single plate type fixed imaging element, only a single spectral sensitivity can be obtained. Therefore, in general, a method is used in which different color filters are attached to a large number of pixels and arranged in a specific pattern to perform color photographing. Since an image captured by this method can obtain only one color for each pixel, an image having a mosaic shape with respect to the color is generated. Therefore, by performing interpolation using color information obtained from surrounding pixels, it is possible to generate an image in which all colors (for example, RGB) are aligned in all pixels.
近年このような撮像装置において、固体撮像素子の画素数が飛躍的に増加するに伴って、電荷の転送や画素補間にかかる処理時間が伸び、高速に連続撮影して動画を得ることが困難になってきている。 In recent years, in such an imaging device, as the number of pixels of the solid-state imaging device has increased dramatically, the processing time for charge transfer and pixel interpolation has increased, making it difficult to obtain moving images by continuously shooting at high speed. It has become to.
そこで、この問題を解決するために、画素を間引く、つまり低解像度にして撮像する方法が検討されてきた。間引き方の原則は、間引き後も局所領域にフィルタの全色が揃っていることであり、撮像素子がCCD(Charge Coupled Device)である場合には、回路上の都合により水平ライン毎に間引かれることが大半である。例えば、特許文献1には、図1に示されるようなベイヤー(Bayer)配列と呼ばれる色配列における間引き方の例が示されており、特許文献2には、図2に示されるようなGストライプRB完全市松色フィルタ配列や図3に示されるようなすRGBストライプ色フィルタ配列における例が示されている。また、例えば特許文献3には、隣接する2ラインをセットとして間引きを行う方法が開示されている。
しかしながら、上述したような隣接したラインをセットとして間引く方法では、全ての色情報が隣接ラインから得られるので偽色は出にくいが、空間的な情報はあまり得られない。図4を用いて説明すると、右側に描かれている縞模様を左側のフィルタ配列を1/4に間引いてサンプリングする場合、隣接した1,2行目でGの信号を得るならば、aの縞しか検出することができないが、隣接していない1,4行目を用いると、a,bの縞について検出することができる。隣接しないラインを用いることで偽色が発生してしまう場合、従来の技術では、色成分の帯域を制限し、偽色を低減させる処理が行われてきた。しかし、偽色が発生した後で改めてその発生位置を特定することは困難であり、かといって全画素に処理を行うと、補間画像全体の彩度が落ちてしまうという問題があった。 However, in the method of thinning out adjacent lines as a set as described above, since all color information is obtained from the adjacent lines, false colors are not easily generated, but spatial information is not obtained much. Referring to FIG. 4, when sampling the striped pattern drawn on the right side by thinning out the filter array on the left side to 1/4, if a G signal is obtained in the adjacent first and second rows, Although only fringes can be detected, if the first and fourth rows that are not adjacent to each other are used, the fringes a and b can be detected. In the case where false colors are generated by using non-adjacent lines, in the conventional technology, processing for limiting the band of color components and reducing false colors has been performed. However, it is difficult to specify the generation position again after the false color is generated. However, if all pixels are processed, there is a problem that the saturation of the entire interpolated image is lowered.
また、単板式の固体撮像素子のフィルタは3色に限定されるものではなく、4色用いられる場合もある。良く知られているものには、いわゆる補色系のフィルタ配列があり、原色系のフィルタ配列では、色再現性の向上を狙って、特許文献4に開示されているようにRGBの3色にさらにもう1つの色(以下Eと表記)を足すことで、4色の配列にすることが可能である。このような4色配列において間引きを行う場合もベイヤー配列と同様の問題が発生する。ベイヤー配列においても、Gに隣接するR,Bの配置の違いや、特許文献5、特許文献6で言及されているような、製造過程にけるフィルタの位置ずれ等を原因とした分光特性の違いや、特許文献7に開示されているような偶数ライン、奇数ラインで別の信号出力経路を持つ固体撮像素子に発生するライン間でのゲイン誤差等により、2×2のフィルタ配列内の2つのGが必ずしも同一の特性を持つとは限らず、3色の配列というよりは、事実上4色の配列となっている場合がある。いずれの理由にしても、フィルタの色数が増えることで、1つの色についてのサンプリング数が減ると、間引きによる偽色の発生の問題がより深刻になる。
Further, the filter of the single-plate solid-state image sensor is not limited to three colors, and there are cases where four colors are used. A well-known one is a so-called complementary color filter array, and the primary color filter array further improves the three colors of RGB as disclosed in
本発明はこのような状況に鑑みてなされたものであり、4色のフィルタ配列において間引きして撮像された色のモザイク信号を用いて、偽色の発生と解像度の低下を抑えつつ、全画素に色成分の補間処理ができるようにするものである。
本発明の画像処理装置は、単板式カラー撮像素子を用いて撮像されたモザイク画像に基づいて、各画素が複数の色成分を有するカラー画像を生成する画像処理装置であって、第1の色成分が第1の水平ラインに配置されるとともに、第2の色成分が第2の水平ラインに配置され、全ての水平ラインには、第1の色成分と第2の色成分のいずれかが配置され、第1の水平ラインにおいて、第1の水平ライン内の画素のみを用いて、第1の色成分がない画素における第1の色成分の補間値である第1の補間値を算出し、第2の水平ラインにおいて、第2の水平ライン内の画素のみを用いて、第2の色成分がない画素における第2の色成分の補間値である第2の補間値を算出する第1の補間値算出手段と、モザイク画像の注目画素の近傍の画素における第1の補間値および第1の色成分、並びに、注目画素の近傍の画素における第2の補間値および第2の色成分に基づいて、注目画素における第1の全色の補間値を算出する第2の補間値算出手段と、モザイク画像の画素値に基づいて、各画素における第1の色成分と第2の色成分からなる第3の色成分を生成する生成手段と、注目画素の近傍の画素における第3の色成分と、注目画素の近傍の画素の画素値に基づいて、注目画素における第2の全色の補間値を算出する第3の補間値算出手段と、第1の全色の補間値および第2の全色の補間値を合成して、第3の全色の補間値を算出する第4の補間値算出手段とを備えることを特徴とする。 An image processing apparatus according to the present invention is an image processing apparatus that generates a color image in which each pixel has a plurality of color components based on a mosaic image captured using a single-plate color image sensor, and the first color The component is arranged on the first horizontal line, the second color component is arranged on the second horizontal line, and any one of the first color component and the second color component is included in all the horizontal lines. A first interpolation value that is an interpolation value of the first color component in a pixel that does not have the first color component is calculated using only pixels in the first horizontal line that are arranged and in the first horizontal line. In the second horizontal line, only the pixels in the second horizontal line are used to calculate a second interpolation value that is an interpolation value of the second color component in a pixel having no second color component. Interpolation value calculation means and pixels near the pixel of interest in the mosaic image. Based on the first interpolation value and the first color component, and the second interpolation value and the second color component in the pixel in the vicinity of the target pixel, the interpolation values of the first all colors in the target pixel are calculated. A second interpolation value calculating means, a generating means for generating a third color component composed of a first color component and a second color component in each pixel based on the pixel value of the mosaic image, A third interpolation value calculating means for calculating an interpolation value for all the second colors in the target pixel based on the third color component in the neighboring pixel and the pixel value of the pixel in the vicinity of the target pixel; And a fourth interpolation value calculating means for calculating the interpolation values of the third all colors by synthesizing the interpolation values of all the colors and the interpolation values of the second all colors.
第4の補間値算出手段は、第1の全色の補間値に基づいて彩度を算出する彩度算出手段と、第1の全色の補間値および第2の全色の補間値に基づいて、色度差を算出する色度差算出手段と、彩度算出手段により算出された彩度と色度差算出手段により算出された色度差に基づいて、ブレンド率を算出するブレンド率算出手段と、第1の全色の補間値および第2の全色の補間値を、ブレンド率を用いて合成する合成手段とを備えるようにすることができる。 The fourth interpolation value calculation means is based on the saturation calculation means for calculating the saturation based on the interpolation values of the first all colors, the interpolation values of the first all colors and the interpolation values of the second all colors. A chromaticity difference calculating means for calculating a chromaticity difference, and a blend ratio calculation for calculating a blend ratio based on the saturation calculated by the saturation calculating means and the chromaticity difference calculated by the chromaticity difference calculating means. And means for synthesizing the interpolated values of the first all colors and the interpolated values of the second all colors using the blend ratio.
第1の色成分および第2の色成分は、互いに相関の高い分光感度を有するようにすることができる。 The first color component and the second color component can have spectral sensitivity highly correlated with each other.
第1の補間値と第2の補間値を算出する前に、モザイク画像の画素に対して、ホワイトバランスを調整する調整手段をさらに備えるようにすることができる。 Before calculating the first interpolation value and the second interpolation value, it is possible to further include adjustment means for adjusting the white balance for the pixels of the mosaic image.
本発明の画像処理方法は、単板式カラー撮像素子を用いて撮像されたモザイク画像に基づいて、各画素が複数の色成分を有するカラー画像を生成する画像処理装置の画像処理方法であって、第1の色成分が第1の水平ラインに配置されるとともに、第2の色成分が第2の水平ラインに配置され、全ての水平ラインには、第1の色成分と第2の色成分のいずれかが配置され、第1の水平ラインにおいて、第1の水平ライン内の画素のみを用いて、第1の色成分がない画素における第1の色成分の補間値である第1の補間値を算出する第1の補間値算出ステップと、第2の水平ラインにおいて、第2の水平ライン内の画素のみを用いて、第2の色成分がない画素における第2の色成分の補間値である第2の補間値を算出する第2の補間値算出ステップと、モザイク画像の注目画素の近傍の画素における第1の補間値および第1の色成分、並びに、注目画素の近傍の画素における第2の補間値および第2の色成分に基づいて、注目画素における第1の全色の補間値を算出する第3の補間値算出ステップと、モザイク画像の画素値に基づいて、各画素における第1の色成分と第2の色成分からなる第3の色成分を生成する生成ステップと、注目画素の近傍の画素における第3の色成分と、注目画素の近傍の画素の画素値に基づいて、注目画素における第2の全色の補間値を算出する第4の補間値算出ステップと、第1の全色の補間値および第2の全色の補間値を合成して、第3の全色の補間値を算出する第5の補間値算出ステップとを含むことを特徴とする。 The image processing method of the present invention is an image processing method of an image processing apparatus that generates a color image in which each pixel has a plurality of color components based on a mosaic image captured using a single-plate color image sensor, The first color component is arranged on the first horizontal line, the second color component is arranged on the second horizontal line, and all the horizontal lines have the first color component and the second color component. The first interpolation which is an interpolation value of the first color component in the pixel having no first color component using only the pixels in the first horizontal line in the first horizontal line. A first interpolation value calculation step for calculating a value, and an interpolation value of the second color component in a pixel having no second color component by using only pixels in the second horizontal line in the second horizontal line The second interpolation value calculation step for calculating the second interpolation value is And the first interpolation value and the first color component in the pixel in the vicinity of the target pixel of the mosaic image, and the second interpolation value and the second color component in the pixel in the vicinity of the target pixel. A third interpolation value calculating step for calculating the interpolation values of all the first colors in the pixel, and a third interpolation unit including a first color component and a second color component in each pixel based on the pixel value of the mosaic image. Based on the generation step for generating the color component, the third color component in the pixel in the vicinity of the target pixel, and the pixel value of the pixel in the vicinity of the target pixel, the interpolation values of the second all colors in the target pixel are calculated. A fourth interpolation value calculating step; a fifth interpolation value calculating step for calculating an interpolation value for the third all color by synthesizing the interpolation value for the first all color and the interpolation value for the second all color; It is characterized by including.
本発明のプログラムは、単板式カラー撮像素子を用いて撮像されたモザイク画像に基づいて、各画素が複数の色成分を有するカラー画像を生成するプログラムであって、第1の色成分が第1の水平ラインに配置されるとともに、第2の色成分が第2の水平ラインに配置され、全ての水平ラインには、第1の色成分と第2の色成分のいずれかが配置され、第1の水平ラインにおいて、第1の水平ライン内の画素のみを用いて、第1の色成分がない画素における第1の色成分の補間値である第1の補間値を算出する第1の補間値算出ステップと、第2の水平ラインにおいて、第2の水平ライン内の画素のみを用いて、第2の色成分がない画素における第2の色成分の補間値である第2の補間値を算出する第2の補間値算出ステップと、モザイク画像の注目画素の近傍の画素における第1の補間値および第1の色成分、並びに、注目画素の近傍の画素における第2の補間値および第2の色成分に基づいて、注目画素における第1の全色の補間値を算出する第3の補間値算出ステップと、モザイク画像の画素値に基づいて、各画素における第1の色成分と第2の色成分からなる第3の色成分を生成する生成ステップと、注目画素の近傍の画素における第3の色成分と、注目画素の近傍の画素の画素値に基づいて、注目画素における第2の全色の補間値を算出する第4の補間値算出ステップと、第1の全色の補間値および第2の全色の補間値を合成して、第3の全色の補間値を算出する第5の補間値算出ステップとを含む処理をコンピュータに実行させることを特徴とする。 The program of the present invention is a program for generating a color image in which each pixel has a plurality of color components based on a mosaic image captured using a single-plate color imaging device, and the first color component is the first color component. And the second color component is arranged on the second horizontal line, and any one of the first color component and the second color component is arranged on all the horizontal lines. 1st interpolation which calculates the 1st interpolation value which is the interpolation value of the 1st color component in the pixel which does not have the 1st color component, using only the pixel in the 1st horizontal line in 1 horizontal line In the value calculating step, in the second horizontal line, only the pixels in the second horizontal line are used, and the second interpolation value that is the interpolation value of the second color component in the pixel having no second color component is obtained. A second interpolation value calculating step to calculate, and a mosaic image Based on the first interpolation value and the first color component in the pixel in the vicinity of the target pixel, and the second interpolation value and the second color component in the pixel in the vicinity of the target pixel. Based on the third interpolation value calculation step for calculating the interpolation values of all colors and the pixel value of the mosaic image, a third color component composed of the first color component and the second color component in each pixel is generated. Based on the generation step, the third color component in the pixel in the vicinity of the target pixel, and the pixel value in the pixel in the vicinity of the target pixel, the fourth interpolation value for calculating the interpolation values of the second all colors in the target pixel A computer including a calculation step and a fifth interpolation value calculation step of combining the interpolation values of the first all colors and the interpolation values of the second all colors to calculate the interpolation values of the third all colors. It is made to perform.
本発明においては、第1の色成分が第1の水平ラインに配置されるとともに、第2の色成分が第2の水平ラインに配置され、全ての水平ラインには、第1の色成分と第2の色成分のいずれかが配置され、第1の水平ラインにおいて、第1の水平ライン内の画素のみを用いて、第1の色成分がない画素における第1の色成分の補間値である第1の補間値が算出され、第2の水平ラインにおいて、第2の水平ライン内の画素のみを用いて、第2の色成分がない画素における第2の色成分の補間値である第2の補間値が算出され、モザイク画像の注目画素の近傍の画素における第1の補間値および第1の色成分、並びに、注目画素の近傍の画素における第2の補間値および第2の色成分に基づいて、注目画素における第1の全色の補間値が算出され、モザイク画像の画素値に基づいて、各画素における第1の色成分と第2の色成分からなる第3の色成分が生成され、注目画素の近傍の画素における第3の色成分と、注目画素の近傍の画素の画素値に基づいて、注目画素における第2の全色の補間値が算出され、第1の全色の補間値および第2の全色の補間値を合成して、第3の全色の補間値が算出される。 In the present invention, the first color component is arranged on the first horizontal line, the second color component is arranged on the second horizontal line, and all the horizontal lines have the first color component and Any one of the second color components is arranged, and in the first horizontal line, only the pixels in the first horizontal line are used, and the interpolation value of the first color component in the pixel having no first color component is used. A first interpolation value is calculated, and in the second horizontal line, only the pixels in the second horizontal line are used, and the interpolation value of the second color component in the pixel having no second color component is used. 2 interpolation values are calculated, the first interpolation value and the first color component in the pixel near the target pixel of the mosaic image, and the second interpolation value and the second color component in the pixel near the target pixel Based on the above, the interpolation values of the first all colors in the target pixel are calculated. Based on the pixel value of the mosaic image, a third color component including the first color component and the second color component in each pixel is generated, and the third color component in the pixel near the target pixel and the target pixel are generated. Based on the pixel values of the pixels in the vicinity of the second pixel, the interpolation values of the second all colors in the pixel of interest are calculated, and the first all color interpolation values and the second all color interpolation values are synthesized to obtain the third Interpolated values of all the colors are calculated.
本発明によれば、偽色の発生と解像度の低下を抑えつつ、全画素に色成分の補間をすることができる。特に、本発明によれば、偽色の発生位置の判定を精度良く行うことができる。また、高品位な色成分の補間を可能とする。さらに、より自然な補間画像を得ることができる。 According to the present invention, it is possible to interpolate color components for all pixels while suppressing generation of false colors and reduction in resolution. In particular, according to the present invention, it is possible to accurately determine the occurrence position of a false color. In addition, high-quality color components can be interpolated. Furthermore, a more natural interpolation image can be obtained.
以下に本発明の実施の形態を説明するが、本明細書に記載の発明と、発明の実施の形態との対応関係を例示すると、次のようになる。この記載は、本明細書に記載されている発明をサポートする実施の形態が、本明細書に記載されていることを確認するためのものである。したがって、発明の実施の形態中には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. The correspondence relationship between the invention described in this specification and the embodiments of the invention is exemplified as follows. This description is intended to confirm that the embodiments supporting the invention described in this specification are described in this specification. Therefore, even if there is an embodiment that is described in the embodiment of the invention but is not described here as corresponding to the invention, the fact that the embodiment is not It does not mean that it does not correspond to the invention. Conversely, even if an embodiment is described herein as corresponding to an invention, that means that the embodiment does not correspond to an invention other than the invention. Absent.
更に、この記載は、本明細書に記載されている発明の全てを意味するものでもない。換言すれば、この記載は、本明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現、追加される発明の存在を否定するものではない。 Further, this description does not mean all the inventions described in this specification. In other words, this description is for the invention described in the present specification, which is not claimed in this application, that is, for the invention that will be applied for in the future or that will appear and be added by amendment. It does not deny existence.
本発明によれば画像処理装置が提供される。この画像処理装置(例えば、図5のデジタルカメラ201)は、単板式カラー撮像素子(例えば、図5のCCDイメージセンサ213)を用いて撮像されたモザイク画像に基づいて、各画素が複数の色成分を有するカラー画像を生成する画像処理装置であって、第1の色成分(例えば、G)が第1の水平ラインに配置されるとともに、第2の色成分(例えば、E)が第2の水平ラインに配置され、全ての水平ラインには、第1の色成分と第2の色成分のいずれかが配置され、第1の水平ラインにおいて、第1の水平ライン内の画素のみを用いて、第1の色成分がない画素(例えば、B)における第1の色成分(例えば、G)の補間値である第1の補間値(例えば、図12のステップS108の処理で算出されるL(j,k)(但し、(j,k)は処理画素位置))を算出し、第2の水平ラインにおいて、第2の水平ライン内の画素のみを用いて、第2の色成分がない画素(例えば、R)における第2の色成分の補間値である第2の補間値(例えば、図12のステップS104の処理で算出されるL(j,k))を算出する第1の補間値算出手段(例えば、図8のG,E補間処理部262)と、モザイク画像の注目画素の近傍の画素における第1の補間値および第1の色成分、並びに、注目画素の近傍の画素における第2の補間値および第2の色成分に基づいて、注目画素における第1の全色の補間値(例えば、図14のステップS154の処理で算出されるRF,GF,BF,EF)を算出する第2の補間値算出手段(図8の全色補間処理部264)と、モザイク画像の画素値に基づいて、各画素における第1の色成分と第2の色成分からなる第3の色成分(例えば、G+E)を生成する生成手段と、注目画素の近傍の画素における第3の色成分と、注目画素の近傍の画素の画素値に基づいて、注目画素における第2の全色の補間値(例えば、図23のステップS507の処理で算出されるRU,GU,BU,EU)を算出する第3の補間値算出手段(図8の全色補間処理部265)と、第1の全色の補間値および第2の全色の補間値を合成して、第3の全色の補間値(例えば、図24のステップS559で出力されるC’’)を算出する第4の補間値算出手段(例えば、図8の合成処理部266)とを含む。
According to the present invention, an image processing apparatus is provided. In this image processing apparatus (for example, the
第4の補間値算出手段は、前記第1の全色の補間値に基づいて彩度(例えば、彩度S)を算出する彩度算出手段(例えば、図9の彩度算出処理部302)と、前記第1の全色の補間値および前記第2の全色の補間値に基づいて、色度差(例えば、色度差ΔCc)を算出する色度差算出手段(例えば、図9の色度差算出処理部304)と、前記彩度算出手段により算出された前記彩度と前記色度差算出手段により算出された前記色度差に基づいて、ブレンド率(例えば、r)を算出するブレンド率算出手段(例えば、図9のブレンド率算出処理部303)と、前記第1の全色の補間値および前記第2の全色の補間値を、前記ブレンド率を用いて合成する合成手段(例えば、図9のブレンド処理部305)とをさらに備えるようにすることができる。
The fourth interpolation value calculating means calculates saturation (for example, saturation S) based on the interpolation values of the first all colors (for example, saturation
第1の色成分および第2の色成分は、互いに相関の高い分光感度を有するようにすることができる。 The first color component and the second color component can have spectral sensitivity highly correlated with each other.
第1の補間値と第2の補間値を算出する前に、モザイク画像の画素に対して、ホワイトバランスを調整する調整手段(例えば、図7のホワイトバランス調整部251)をさらに備えるようにすることができる。
Before calculating the first interpolation value and the second interpolation value, adjustment means (for example, the white
本発明によれば、画像処理方法が提供される。この画像処理方法は、単板式カラー撮像素子を用いて撮像されたモザイク画像に基づいて、各画素が複数の色成分を有するカラー画像を生成する画像処理装置(例えば、図5のデジタルカメラ201)の画像処理方法であって、第1の色成分(例えば、G)が第1の水平ラインに配置されるとともに、第2の色成分(例えば、E)が第2の水平ラインに配置され、全ての水平ラインには、前記第1の色成分と前記第2の色成分のいずれかが配置され、前記第1の水平ラインにおいて、前記第1の水平ライン内の画素のみを用いて、前記第1の色成分がない画素(例えば、B)における前記第1の色成分(例えば、G)の補間値である第1の補間値(例えば、図12のステップS108の処理で算出されるL(j,k))を算出する第1の補間値算出ステップ(例えば、図12のステップS108)と、前記第2の水平ラインにおいて、前記第2の水平ライン内の画素のみを用いて、前記第2の色成分がない画素(例えば、R)における前記第2の色成分の補間値である第2の補間値(例えば、図12のステップS104の処理で算出されるL(j,k))を算出する第2の補間値算出ステップ(例えば、図12のステップS104)と、前記モザイク画像の注目画素の近傍の画素における前記第1の補間値および第1の色成分、並びに、前記注目画素の近傍の画素における前記第2の補間値および前記第2の色成分に基づいて、前記注目画素における第1の全色の補間値(例えば、図14のステップS154の処理で算出されるRF,GF,BF,EF)を算出する第3の補間値算出ステップ(例えば、図11のステップS54)と、前記モザイク画像の画素値に基づいて、各画素における前記第1の色成分と前記第2の色成分からなる第3の色成分(例えば、G+E)を生成する生成ステップ(例えば、図11のステップS55)と、前記注目画素の近傍の画素における前記第3の色成分(例えば、G+E)と、前記注目画素の近傍の画素の画素値に基づいて、前記注目画素における第2の全色の補間値(例えば、図23のステップS507の処理で算出されるRU,GU,BU,EU)を算出する第4の補間値算出ステップ(例えば、図11のステップS56)と、前記第1の全色の補間値および前記第2の全色の補間値を合成して、第3の全色の補間値(例えば、図24のステップS559で出力されるC’’)を算出する第5の補間値算出ステップ(例えば、図11のステップS57)とを含む。
According to the present invention, an image processing method is provided. This image processing method is an image processing apparatus (for example, the
本発明によれば、プログラムが提供される。このプログラムは、単板式カラー撮像素子を用いて撮像されたモザイク画像に基づいて、各画素が複数の色成分を有するカラー画像を生成するプログラムであって、第1の色成分(例えば、G)が第1の水平ラインに配置されるとともに、第2の色成分(例えば、E)が第2の水平ラインに配置され、全ての水平ラインには、前記第1の色成分と前記第2の色成分のいずれかが配置され、前記第1の水平ラインにおいて、前記第1の水平ライン内の画素のみを用いて、前記第1の色成分がない画素(例えば、B)における前記第1の色成分(例えば、G)の補間値である第1の補間値(例えば、図12のステップS108の処理で算出されるL(j,k))を算出する第1の補間値算出ステップ(例えば、図12のステップS108)と、前記第2の水平ラインにおいて、前記第2の水平ライン内の画素のみを用いて、前記第2の色成分がない画素(例えば、R)における前記第2の色成分の補間値である第2の補間値(例えば、図12のステップS104の処理で算出されるL(j,k))を算出する第2の補間値算出ステップ(例えば、図12のステップS104)と、前記モザイク画像の注目画素の近傍の画素における前記第1の補間値および第1の色成分、並びに、前記注目画素の近傍の画素における前記第2の補間値および前記第2の色成分に基づいて、前記注目画素における第1の全色の補間値(例えば、図14のステップS154の処理で算出されるRF,GF,BF,EF)を算出する第3の補間値算出ステップ(例えば、図11のステップS54)と、前記モザイク画像の画素値に基づいて、各画素における前記第1の色成分と前記第2の色成分からなる第3の色成分(例えば、G+E)を生成する生成ステップ(例えば、図11のステップS55)と、前記注目画素の近傍の画素における前記第3の色成分(例えば、G+E)と、前記注目画素の近傍の画素の画素値に基づいて、前記注目画素における第2の全色の補間値(例えば、図23のステップS507の処理で算出されるRU,GU,BU,EU)を算出する第4の補間値算出ステップ(例えば、図11のステップS56)と、前記第1の全色の補間値および前記第2の全色の補間値を合成して、第3の全色の補間値(例えば、図24のステップS559で出力されるC’’)を算出する第5の補間値算出ステップ(例えば、図11のステップS57)とをコンピュータに実行させる。 According to the present invention, a program is provided. This program is a program for generating a color image in which each pixel has a plurality of color components based on a mosaic image captured using a single-plate color image sensor, and the first color component (for example, G) Are arranged on the first horizontal line, and a second color component (for example, E) is arranged on the second horizontal line, and all the horizontal lines include the first color component and the second color component. Any one of the color components is arranged, and in the first horizontal line, only the pixels in the first horizontal line are used, and the first in the pixel (for example, B) without the first color component is used. A first interpolation value calculating step (for example, a first interpolation value (for example, L (j, k) calculated in the process of step S108 in FIG. 12)) that is an interpolation value of a color component (for example, G). , Step S108 in FIG. In the second horizontal line, only the pixels in the second horizontal line are used, and the second color component is an interpolation value of the second color component in a pixel having no second color component (for example, R). A second interpolation value calculation step (for example, step S104 in FIG. 12) for calculating an interpolation value (for example, L (j, k) calculated in the process of step S104 in FIG. 12), and the target pixel of the mosaic image Based on the first interpolation value and the first color component in the pixel in the vicinity of the pixel, and the second interpolation value and the second color component in the pixel in the vicinity of the pixel of interest. A third interpolation value calculation step (for example, step S54 in FIG. 11) for calculating interpolation values for all the colors of one (for example, RF, GF, BF, and EF calculated in the process of step S154 in FIG. 14); Mosai A generating step (for example, step S55 in FIG. 11) that generates a third color component (for example, G + E) composed of the first color component and the second color component in each pixel based on the pixel value of the image. Based on the third color component (for example, G + E) in the pixel in the vicinity of the target pixel and the pixel value of the pixel in the vicinity of the target pixel. For example, a fourth interpolation value calculation step (for example, step S56 in FIG. 11) for calculating RU, GU, BU, EU calculated in the process of step S507 in FIG. 23, and interpolation of the first all colors A fifth interpolation value calculation step of calculating the interpolation value of the third all colors (for example, C ″ output in step S559 of FIG. 24) by combining the values and the interpolation values of the second all colors (For example, step of FIG. 57) and causes the computer to execute.
以下、図を参照して、本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図5は、本発明を適用したデジタルカメラ201の構成を示すブロック図である。
FIG. 5 is a block diagram showing a configuration of a
図5に示すように、デジタルカメラ201は、レンズ211、絞り212、CCD(Charge Coupled Devices)イメージセンサ213、相関2重サンプリング(CDS:Correlated Double Sampling)回路214、A/Dコンバータ215、DSP(Digital Signal Processor)ブロック216、タイミングジェネレータ217、D/Aコンバータ218、ビデオエンコーダ219、表示部220、コーデック(CODEC:COmpression/DECompression)処理部221、メモリ222、CPU(Central Processing Unit)223、および、操作入力部224から構成される。
As shown in FIG. 5, a
CCDとは、光情報を電気信号に変換する(光電変換)半導体素子であり、CCDイメージセンサ213は、光を電気に変換する受光素子(画素)を複数個並べ、光の変化を画素ごとに独立して電気信号に変換するものである。相関2重サンプリング回路214は、CCDイメージセンサ213の出力信号に含まれるノイズのうちの主な成分であるリセットノイズを、出力の各画素信号のうち、映像信号期間をサンプリングしたものと、基準期間をサンプリングしたものとを引き算することにより除去する回路である。A/Dコンバータ215は、供給されたノイズ除去後のアナログ信号をデジタル信号に変換する。
The CCD is a semiconductor element that converts light information into an electrical signal (photoelectric conversion). The
DSPブロック216は、信号処理用プロセッサと画像用RAM(Random Access Memory)を持つブロックで、信号処理用プロセッサが画像用RAMに格納された画像データに対して、予めプログラムされた画像処理、または、ハードウェアによる演算処理として構成された画像処理を行うものである。タイミングジェネレータ217は、CCDを駆動するために必要な、水平および垂直の各種駆動パルス、並びに、アナログフロント処理で用いるパルスを、基準クロックに同期して発生させるロジック回路である。また、タイミングジェネレータ217により発生されるタイミングクロックは、バス225を介して、コーデック処理部221、メモリ222、および、CPU223にも供給されている。
The
D/Aコンバータ218は、供給されたデジタル信号をアナログ信号に変換して出力する。ビデオエンコーダ219は、供給されたアナログ信号を、表示部220において表示可能な形式のビデオデータにエンコードする。表示部220は、例えば、LCD(Liquid Crystal Display)などで構成され、ビデオエンコーダ219から供給されたビデオ信号を表示する。
The D /
コーデック処理部221は、例えば、MPEG(Moving Picture Coding Experts Group/Moving Picture Experts Group)などの、デジタルビデオデータの圧縮または伸張アルゴリズムによる処理を実行する。メモリ222は、例えば、半導体メモリ、磁気ディスク、光磁気ディスク、または、光ディスクなどにより構成され、CPU223の制御に基づいて、供給されたデータを記憶したり、または、記憶しているデータを出力する。なお、メモリ222は、デジタルカメラ201に対して着脱可能なようになされていても良い。
The
CPU223は、バス225を介して、操作入力部224から供給されたユーザの操作入力を基に、デジタルカメラ201の各部を制御する。操作入力部224は、録画を指令する場合のボタンをはじめとして、例えば、ジョグダイヤル、キー、レバー、ボタン、またはタッチパネルなどにより構成され、ユーザによる操作入力を受ける。
The
レンズ211および絞り212を介して入力された光は、CCDイメージセンサ213に入射され、受光素子での光電変換によって電気信号に変換され、相関2重サンプリング回路214に供給される。相関2重サンプリング回路214は、CCDイメージセンサ213の出力の各画素信号のうち、映像信号期間をサンプリングしたものと、基準期間をサンプリングしたものとを引き算することによりノイズを除去し、A/Dコンバータ215に供給する。A/Dコンバータ215は、供給されたノイズ除去後のアナログ信号をデジタル信号に変換し、DSPブロック216の画像用RAMに一時格納する。
Light input through the
タイミングジェネレータ217は、撮像中の状態において、一定のフレームレートによる画像取り込みを維持するように、CCDイメージセンサ213、相関2重サンプリング回路214、A/Dコンバータ215、および、DSPブロック216を制御する。
The
DSPブロック216は、一定のレートで画素のストリームデータの供給を受け、画像用RAMに一時格納し、信号処理用プロセッサにおいて、一時格納された画像データに対して、後述する画像処理を実行する。DSPブロック216は、画像処理の終了後、CPU223の制御に基づいて、その画像データを表示部220に表示させる場合は、D/Aコンバータ218に、メモリ222に記憶させる場合は、コーデック処理部221に画像データを供給する。
The
D/Aコンバータ218は、DSPブロック216から供給されたデジタルの画像データをアナログ信号に変換し、ビデオエンコーダ219に供給する。ビデオエンコーダ219は、供給されたアナログの画像信号を、ビデオ信号に変換し、表示部220に出力して表示させる。すなわち、表示部220は、デジタルカメラ201において、カメラのファインダの役割を担っている。コーデック処理部221は、DSPブロック216から供給された画像データに対して、所定の方式の符号化を施し、符号化された画像データをメモリ222に供給して記憶させる。
The D /
また、コーデック処理部221は、操作入力部224からユーザの操作入力を受けたCPU223の制御に基づいて、メモリ222に記憶されているデータのうち、ユーザに指定されたデータを読み取り、所定の復号方法で復号し、復号した信号をDSPブロック216に出力する。これにより、復号された信号が、DSPブロック216を介してD/Aコンバータ218に供給され、アナログ変換された後、ビデオエンコーダ219によりエンコードされて、表示部220に表示される。
Further, the
ところで、図5のCCDイメージセンサ213のオンチップカラーフィルタには、通常、3種類または4種類の色が用いられており、これらのオンチップカラーフィルタは、受光素子ごとに、交互に異なる色になるようモザイク状に配列されている。本発明においては、RGB(Red,Green,Blue:赤、緑、青)の3色に、Gに分光特性が近い4色目となる色(以下、E(Emerald)と称する)を加えた4色を用いた配列のオンチップカラーフィルタを用いる。この4色のモザイク配列の例を、図6に示す。なお、本明細書中では、Gに近い分光特性の4色目となる色をEとしたが、この色はEmeraldに限定されず、Gに近い分光特性であれば何色でもよい。
Incidentally, the on-chip color filter of the
図6に示されるように4色配列は、赤(R)の光のみを透過するRのフィルタが1個、緑色(G)の光のみを透過するGのフィルタが1個、青(B)の光のみを透過するBのフィルタが1個、エメラルド(E)の光のみを透過するEのフィルタが1個の、合計4個を最小単位として構成されている。すなわち、R,G,B,Eの各フィルタは、同じ密度で存在する。 As shown in FIG. 6, the four-color arrangement has one R filter that transmits only red (R) light, one G filter that transmits only green (G) light, and blue (B). One filter for transmitting only B light and one E filter for transmitting only light of emerald (E), a total of four is configured as a minimum unit. That is, the R, G, B, and E filters exist at the same density.
このように、CCDイメージセンサ213のオンチップカラーフィルタに図6に示されるような4色のモザイクが用いられている場合、DSPブロック216の画像用RAMに一時格納されている画像は、各画素とも、R,G,B,Eのうちのいずれか1つの色しか持たない。そこで、DSPブロック216の信号処理用プロセッサは、予め組み込まれた画像処理プログラムまたはハードウェアによって、この画像を処理し、全画素において全色のデータを有する画像データを生成する。具体的には、DSPブロック216の信号処理用プロセッサは、まず、G,Eを合成した新たな色(以下、G+Eと称する)を全画素に生成し、3色のベイヤー配列においてGを全画素揃えることを前提とした補間方法を、4色のモザイク配列においても同様に適用できるようにする。
As described above, when the four-color mosaic as shown in FIG. 6 is used for the on-chip color filter of the
図7は、図5のDSPブロック216の更に詳細な構成を示すブロック図である。 FIG. 7 is a block diagram showing a more detailed configuration of the DSP block 216 of FIG.
DSPブロック216は、上述したように、画像用RAM241および信号処理用プロセッサ242で構成され、信号処理用プロセッサ242は、ホワイトバランス調整部251、ガンマ補正部252、およびデモザイク処理部253で構成される。
As described above, the
A/Dコンバータ215によってデジタル信号に変換されたモザイク画像は、画像用RAM241に一時保存される。モザイク画像は、各画素にR,G,BまたはEのいずれかの色に対応する強度信号、すなわち、CCDイメージセンサ213に用いられているカラーフィルタにより定められる配列(例えば、図6を用いて説明した4色のモザイク配列)の周期的なパターンの強度信号により構成されている。
The mosaic image converted into a digital signal by the A /
ホワイトバランス調整部251は、モザイク画像に対して、無彩色の被写体領域の色バランスが無彩色になるように、各画素強度の持つ色に応じて適切な係数をかける処理(ホワイトバランスの調整処理、またはレベルバランスの調整処理)を実行する。ガンマ補正部252は、ホワイトバランス(レベルバランス)が調整されたモザイク画像の各画素強度に対して、ガンマ補正を行う。画像の階調の応答特性を表すために「ガンマ(γ)」という数値が使われる。ガンマ補正とは、表示部220に表示される画像の明るさや色の彩度を正しく表示するための補正処理のことである。表示部220に出力される信号は、画素ごとに特定の電圧を加えることで、画像の明るさや色が再現されるようになされている。しかしながら、実際に表示される画像の明るさや色は、表示部220が有する特性(ガンマ値)により、入力電圧を倍にしてもブラウン管の明るさが倍になるわけではない(非線形性を有する)ため、ガンマ補正部252において、表示部220に表示される画像の明るさや色の彩度が正しく表示されるように補正する処理が施される。
The white
デモザイク処理部253は、ガンマ補正がなされたモザイク信号の各画素位置に、R,G,B,Eの4色の強度を揃えるデモザイク処理を実行するとともに、マトリックス処理およびクロマ成分に対する帯域制限を行うことで、YCbCrの色に対応する画像(Y画像およびC画像)を生成する。これにより、デモザイク処理部253からの出力信号は、YCbCrの色に対応する画像(Y画像およびC画像の)信号となる。
The
本例では、図6に示される4色のフィルタ配列を用いた例について説明する。間引き方は、8ラインを1セットとして、そのうち4ライン目と7ライン目を用いることにする。水平ライン内の補間のみで生成されたGとEが混在する輝度に基づいて得られた注目画素位置の全色の補間値と、G,Eを合成した新たな色成分G+Eを生成し、G+Eに基づいて得られた注目画素位置の全色の補間値を合成することにより偽色を抑えた全色の補間値を得ることができる画像処理方法について述べる。 In this example, an example using the four-color filter array shown in FIG. 6 will be described. The thinning method uses 8 lines as one set, and uses the 4th and 7th lines. A new color component G + E is generated by synthesizing G and E with interpolation values of all colors at the target pixel position obtained based on luminance in which G and E are generated only by interpolation within the horizontal line, and G + E An image processing method capable of obtaining interpolated values of all colors with suppressed false colors by combining interpolated values of all colors at the target pixel position obtained based on the above will be described.
図8は、全画素位置でRGBEの4色が存在するように、各画素位置ごとに順次、そこにない色の強度を補間または推定していく処理であるデモザイク処理を実行する、図7のデモザイク処理部253の更に詳細な構成を示すブロック図である。
8 executes a demosaic process, which is a process of sequentially interpolating or estimating the intensity of a color that is not present at each pixel position so that there are four RGBE colors at all pixel positions. 4 is a block diagram showing a more detailed configuration of a
デモザイク処理部253には、局所領域抽出部261、G,E補間処理部262、G+E生成処理部263、全色補間処理部264、全色補間処理部265および合成処理部266が設けられている。局所領域抽出部261は、ガンマ補正されたモザイク画像から、注目画素位置周囲の決まった大きさの局所領域の画素を切り出す。ここでは、切り出す局所領域を、注目画素位置を中心とした5×5画素の矩形領域とする。G,E補間処理部262は、局所領域内に存在する画素を用いて、Gが存在するラインでは、ライン内のGが存在しない画素位置に、左右に隣接するGを用いてGを補間し、Eが存在するラインでは、ライン内のEが存在しない画素位置に、左右に隣接するEを補間して、どの画素位置でもG,Eのいずれかが存在するように補間し、これらG,Eを輝度信号Lと見なす。全色補間処理部264は、輝度信号Lおよびモザイク信号Mを用いて、注目画素位置にR,G,B,Eの補間値RF,GF,BF,EF(以下、信号Cと称する)を算出する。G+E生成処理部263は、モザイク信号Mに基づいて新たな色成分G+Eを生成する。全色補間処理部265は、G+Eおよびモザイク信号Mに基づいて、注目画素位置にR,G,B,Eの補間値RU,GU,BU,EU(以下、信号C’と称する)を算出する。合成処理部266は、補間値RF,GF,BF,EF並びにRU,GU,BU,EUを合成して、最終的な全色補間信号を算出する。
The
図9は、図8の合成処理部266の詳細な構成例を示すブロック図である。合成処理部266は、色空間変換処理部301−1,色空間変換処理部301−2、彩度算出処理部302、ブレンド率算出処理部303、色度差算出処理部304およびブレンド処理部305により構成される。
FIG. 9 is a block diagram illustrating a detailed configuration example of the
色空間変換処理部301−1は、信号CをRGBEの色空間からRGBの色空間に変換し、さらに、輝度と色度で表される色空間に変換する。色空間変換処理部301−2は、信号C’をRGBEの色空間からRGBの色空間に変換し、さらに、輝度と色度で表される色空間に変換する。このような色空間のうち、本実施の形態では、ITU−R BT.601で規定されるYCbCr色空間を代表例として用いる。 The color space conversion processing unit 301-1 converts the signal C from the RGBE color space to the RGB color space, and further converts the signal C into a color space represented by luminance and chromaticity. The color space conversion processing unit 301-2 converts the signal C ′ from the RGBE color space to the RGB color space, and further converts the signal C ′ to a color space represented by luminance and chromaticity. Among such color space, in this embodiment, a YC b C r color space defined by ITU-R BT.601 as a representative example.
彩度算出処理部302は、信号Cから得られた色度信号Ccに基づいて彩度Sを算出する。色度差算出処理部304は、色度信号Ccおよび信号C’から得られた色度信号C’cに基づいて、色度差ΔCcを算出する。ブレンド率算出処理部303は、彩度Sと色度差ΔCcに基づいて、色度信号Ccおよび色度信号C’cを合成するときの比率であるブレンド率rを算出する。ブレンド処理部305は、CcおよびC’cに基づいて、新たな色度信号C''cを算出するとともに、信号C’から得られた輝度信号C’lと色度信号C''cを併せて新たなYCbCr信号C’’が算出される。
The saturation
次に、図10のフローチャートを参照して、図7のDSPブロック216の処理について説明する。
Next, processing of the
ステップS1において、画像用RAM241は、CCDイメージセンサ213に用いられているカラーフィルタにより定められる配列(例えば、図6を用いて説明した4色配列)の周期的なパターンの強度信号により構成されるモザイク画像を取得して、一時保存する。
In step S1, the
ステップS2において、信号処理用プロセッサ242のホワイトバランス調整部251は、モザイク画像に対して、無彩色の被写体領域の色バランスが無彩色になるように、各画素強度の持つ色に応じて適切な係数をかける処理であるホワイトバランス調整処理(レベルバランス調整処理)を行う。
In step S2, the white
ステップS3において、ガンマ補正部252は、ホワイトバランスがとられたモザイク画像の各画素強度に対し、表示部220に表示される画像の明るさや色の彩度が正しく表示されるようにガンマ補正を行う。
In step S <b> 3, the
ステップS4において、デモザイク処理部253により、図11を用いて後述するデモザイク処理が実行され、生成されたY画像およびC画像が出力され、処理が終了される。
In step S4, the
このような処理により、DSPブロック216は、供給されたモザイク画像信号に対して、各種処理を施して、Y画像およびC画像を生成し、CPU223の制御に基づいて、その画像データを表示部220に表示させる場合は、D/Aコンバータ218に、メモリ222に記憶させる場合は、コーデック処理部221に供給する。
Through such processing, the
次に、図11のフローチャートを参照して、図10のステップS4において実行されるデモザイク処理について説明する。 Next, the demosaic process executed in step S4 of FIG. 10 will be described with reference to the flowchart of FIG.
局所領域抽出部261は、ステップS51において、未処理の画素のうちのいずれかを注目画素とし、ステップS52において、注目画素位置の周辺の所定数(2n+1)×(2n+1)の画素を、局所領域として抽出し、G,E補間処理部262、G+E生成処理部263、全色補間処理部264、全色補間処理部265に供給する。なお、nは、正の整数である。
In step S51, the local
ステップS53において、G,E補間処理部262は、図12および図13のフローチャートを参照して後述する、G,E補間処理を実行し、算出した値Lを全色補間処理部264に供給する。
In step S53, the G / E
ステップS54において、全色補間処理部264は、図14を参照して後述する、第1の全色補間処理を実行し、算出した信号Cを合成処理部266に供給する。
In step S <b> 54, the all-color
ステップS55において、G+E生成処理部263は、図20を参照して後述する、G+E生成処理を実行し、生成したG+Eを全色補間処理部265に供給する。
In step S55, the G + E
ステップS56において、全色補間処理部265は、図23を参照して後述する、第2の全色補間処理を実行し、算出したC’を合成処理部266に供給する。
In step S <b> 56, the all-color
ステップS57において、合成処理部266は、図24を参照して後述する合成処理を実行し、YCbCrの色信号を出力する。
In step S57, the
ステップS58において、局所領域抽出部261は、全ての画素において処理が終了したか否かを判断する。ステップS58において、全ての画素において処理が終了していないと判断された場合、処理は、ステップS51に戻り、それ以降の処理が繰り返される。ステップS58において、全ての画素において処理が終了したと判断された場合、処理が終了される。
In step S58, the local
換言すれば、デモザイク処理部253を構成する各部は、ある注目画素位置が決定されたときにその注目画素位置においてそれぞれの処理を実行し、全画素において、ステップS51乃至ステップS57の処理が終了された場合、処理が終了される。
In other words, each unit constituting the
なお、ステップS53およびステップS54の処理と、ステップS55およびステップS56の処理は、その順番を逆にしてもよいし、並行して実行させるようにしてもよい。 Note that the order of the processes of step S53 and step S54 and the processes of step S55 and step S56 may be reversed or may be executed in parallel.
次に、図12のフローチャートを参照して、図11のステップS53において実行されるG,E補間処理について説明する。この処理は、図8のG,E補間処理部262により実行される処理である。なお、nは、正の整数である。また、(j,k)は局所領域における中心(注目画素位置)を(0,0)とした場合の、処理を実行する画素位置(処理画素位置)を示す。
Next, the G and E interpolation processing executed in step S53 in FIG. 11 will be described with reference to the flowchart in FIG. This process is a process executed by the G and E
ステップS101において、G,E補間処理部262は、局所領域のうち、処理を実行する画素位置を示す第1のレジスタの値jを初期化してj=−n+1とし、ステップS102において、局所領域のうち、処理を実行する画素位置を示す第2のレジスタの値kを初期化してk=−nとする。ここでは、画素(0,0)を中心とする(2n+1)×(2n+1)の画素群に対して処理が行われる。なお、nは、正の整数である。ここで、jとkの初期値がj=−n+1、k=−nとなるのは、図12の処理において、処理画素位置がRまたはBである場合に、左右のEまたはGに基づいてG,E補間を行っているためである。なお、nの値は、処理に必要な任意の定数と考えることができる。したがって、本実施形態を実装する際には、このようなレジスタ値の細かい設定を省略することも可能である。特に、nが十分大きな値であるとすれば、実質的に同一の結果を得ることができるものと考えられる。このことは、後述するn’、n’’、およびn’’’についても同様である。
In step S101, the G and E
ステップS103において、G,E補間処理部262は、モザイク信号Mの画素位置(j,k)の色がRであるか否かを判定する。上述した図6に示される4色のフィルタ配列が公知であることから、この処理では、画素位置を用いて色を判定することができる。
In step S103, the G / E
ステップS103において、モザイク信号Mの画素位置(j,k)の色がRであると判定された場合、ステップS104において、G,E補間処理部262は、画素位置Rの左右のEを加算平均し、輝度L(j,k)とする。すなわち、画素(j−1,k)と画素(j+1,k)の平均値が輝度L(j,k)とされる。
When it is determined in step S103 that the color of the pixel position (j, k) of the mosaic signal M is R, in step S104, the G and E
ステップS103において、モザイク信号Mの画素位置(j,k)の色がRでないと判定された場合、ステップS105において、G,E補間処理部262は、画素(j,k)がGであるか否かを判定する。
If it is determined in step S103 that the color of the pixel position (j, k) of the mosaic signal M is not R, in step S105, the G and E
ステップS105において、モザイク信号Mの画素位置(j,k)がGであると判定された場合、ステップS106において、G,E補間処理部262は、画素位置G(j,k)をL(j,k)とする。すなわち、処理画素位置のGがLとされる。
When it is determined in step S105 that the pixel position (j, k) of the mosaic signal M is G, in step S106, the G and E
ステップS105において、モザイク信号Mの画素位置(j,k)がGでないと判定された場合、ステップS107において、G,E補間処理部262は、モザイク信号の画素位置(j,k)がBであるか否かを判定する。ステップS107において、モザイク信号の画素位置(j,k)がBであると判定された場合、ステップS108において、G,E補間処理部262は、画素Bの左右のGを加算平均し、輝度L(j,k)とする。すなわち、画素(j−1,k)と画素(j+1,k)の平均値が輝度L(j,k)とされる。
If it is determined in step S105 that the pixel position (j, k) of the mosaic signal M is not G, in step S107, the G and E
ステップS107において、モザイク信号Mの画素位置(j,k)がBでない、すなわちEであると判定された場合、ステップS109において、G,E補間処理部262は、画素位置のEをL(j,k)とする。すなわち、処理画素位置のEがLとされる。
When it is determined in step S107 that the pixel position (j, k) of the mosaic signal M is not B, that is, E, in step S109, the G and E
ステップS104、ステップS106、ステップS108、またはステップS109の処理の後、ステップS110において、G,E補間処理部262は、第2のレジスタの値kを参照し、k=nであるか否かを判定する。ステップS110においてk=nでないと判定された場合、ステップS111において、G,E補間処理部262は、第2のレジスタの値kをk=k+1に更新して、処理はステップS103に戻り、それ以降の処理が繰り返される。
After step S104, step S106, step S108, or step S109, in step S110, the G and E
ステップS110においてk=nであると判定された場合、ステップS112において、G,E補間処理部262は、処理を実行する画素位置を示す第1のレジスタの値jを参照し、j=n−1であるか否かを判定する。ステップS112においてj=n−1ではないと判定された場合、ステップS113においてG,E補間処理部262は、第1のレジスタの値jをj=j+1に更新して、処理はステップS102に戻り、それ以降の処理が繰り返される。
When it is determined in step S110 that k = n, in step S112, the G and E
ステップS112においてj=n−1であると判定された場合、ステップS114においてG,E補間処理部262は、注目画素付近の(2n+1)×(2n−1)画素の輝度信号Lの組を出力し、処理は図11のステップS54に進む。
When it is determined in step S112 that j = n−1, in step S114, the G and E
図12および図13の処理をまとめると、G,E補間処理部262は、Gが存在するラインでは、ライン内のGが存在しない画素位置(B)に、左右に隣接するGを用いてGを補間し、Eが存在するラインでは、ライン内のEが存在しない画素位置(R)に、左右に隣接するEを用いてEを補間して、どの画素位置でもG,Eのどちらかが存在するようにし、それを輝度信号Lとみなしている。
12 and FIG. 13, the G and E
次に、図14のフローチャートを参照して、図11のステップS54において実行される第1の全色補間処理を説明する。なお、この処理は、図8の全色補間処理部264により実行される処理である。
Next, the first all-color interpolation process executed in step S54 in FIG. 11 will be described with reference to the flowchart in FIG. This process is a process executed by the all-color
ステップS151において、全色補間処理部264は、注目画素位置におけるR,G,B,Eの推定値R’c,G’c,B’c,E’c算出処理を実行する。この処理の詳細は、図15を参照して後述する。
In step S151, the all-color
ステップS152において、全色補間処理部264は、注目画素位置の1画素上におけるR,G,B,Eの推定値R’u,G’u,B’u,E’u算出処理を実行する。この処理の詳細は、図15を参照して後述する。
In step S152, the all-color
ステップS153において、全色補間処理部264は、注目画素位置の1画素下におけるR,G,B,Eの推定値R’d,G’d,B’d,E’d算出処理を実行する。この処理の詳細は、図15を参照して後述する。
In step S153, the all-color
ステップS154において、全色補間処理部264は、注目画素位置の上下に補間された結果を加算平均し、その加算平均と注目画素位置に補間された結果をさらに加算平均し、推定値RF,GF,BF,EFを算出する。具体的には、式(1)乃至式(4)に示される演算が行われる。
In step S154, the all-color
RF=(R’c+(R’u+R’d)/2)/2 ・・・(1)
GF=(G’c+(G’u+G’d)/2)/2 ・・・(2)
BF=(B’c+(B’u+B’d)/2)/2 ・・・(3)
EF=(E’c+(E’u+E’d)/2)/2 ・・・(4)
RF = (R ′ c + (R ′ u + R ′ d ) / 2) / 2 (1)
GF = (G ′ c + (G ′ u + G ′ d ) / 2) / 2 (2)
BF = (B ′ c + (B ′ u + B ′ d ) / 2) / 2 (3)
EF = (E ′ c + (E ′ u + E ′ d ) / 2) / 2 (4)
ステップS154の処理の後、処理は図11のステップS55に進む。 After the process of step S154, the process proceeds to step S55 of FIG.
なお、ステップS151、ステップS152およびステップS153の処理は、その順番を逆にしてもよいし、並行して実行させるようにしてもよい。 Note that the order of the processing of step S151, step S152, and step S153 may be reversed or may be executed in parallel.
次に、図15のフローチャートを参照して、図14のステップS151において実行される推定値算出処理について説明する。図15は、色バランス補間によって、R,G,B,Eの推定を行う処理であり、R,G,B,Eの全てについて同じ処理が行われるので、図15においてXと記述されている部分については、適宜R,G,B,Eに読み替えられる。なお、色バランス補間とは、注目画素位置における輝度信号のDC成分と色信号のDC成分の比率に輝度信号を乗算して不明な色成分の補間を行うものである。 Next, the estimated value calculation process executed in step S151 in FIG. 14 will be described with reference to the flowchart in FIG. FIG. 15 is a process for estimating R, G, B, and E by color balance interpolation. Since the same process is performed for all of R, G, B, and E, X is described in FIG. The portion is appropriately read as R, G, B, E. The color balance interpolation is to interpolate an unknown color component by multiplying the ratio of the DC component of the luminance signal and the DC component of the color signal at the target pixel position by the luminance signal.
ステップS201において、全色補間処理部264は、線形補間処理を実行する。この処理の詳細は、図16および図17を参照して後述する。
In step S201, the all-color
ステップS202において、全色補間処理部264は、重み付き平均Mxa算出処理を実行する。この処理の詳細は、図18を参照して後述する。
In step S202, the all-color
ステップS203において、全色補間処理部264は、重み付き平均ML算出処理を実行する。この処理の詳細は、図18を参照して後述する。
In step S203, all the
ステップS204において、全色補間処理部264は、ML<(第1の定数)であるか否かを判定し、ML<(第1の定数)であると判定された場合、ステップS205においてML’=(第1の定数)と設定する。この第1の定数は、例えば、経験的にまたは実験的に定められる所定の値である。
In step S204, the all color
ステップS204においてML<(第1の定数)でない、すなわちML≧(第1の定数)であると判定された場合、ステップS206において、全色補間処理部264は、ML’=MLと設定する。
When it is determined in step S204 that M L <(first constant) is not satisfied, that is, M L ≧ (first constant), in step S206, the all-color
ステップS205の処理の後、またはステップS206の処理の後、ステップS207において、全色補間処理部264は、X’=Mxa/ML’(L−ML)+Mxaとし、処理は図14のステップS152に進む。
After the process of step S205, or after the processing in step S206, in step S207, all the
本例では、図15の処理を図14のステップS151の処理の詳細として説明したが、図14のステップS152、ステップS153についても同様の処理が行われる。単に、注目画素位置の1画素上や1画素下のR,G,B,Eについて推定値算出処理が行われるだけである。 In this example, the processing in FIG. 15 has been described as the details of the processing in step S151 in FIG. 14, but the same processing is performed in steps S152 and S153 in FIG. The estimated value calculation process is simply performed for R, G, B, and E one pixel above and one pixel below the target pixel position.
なお、ステップS202およびステップS203の処理は、その順番を逆にしてもよいし、並行して実行させるようにしてもよい。 Note that the order of the processes in step S202 and step S203 may be reversed or executed in parallel.
次に、図16および図17のフローチャートを参照して、図15のステップS201において実行される線形補間処理を説明する。この処理は、注目画素近傍にR,G,B,Eを線形補間する処理手順を示すフローチャートである。R,G,B,Eの全てについて同様の処理が実行されるので、図16および図17においてXと記述されている部分については、適宜、R,G,B,Eに読み替えられる。なお、n'は、正の整数であり、(j',k')は局所領域における中心(注目画素位置)を(0,0)とした場合の、処理を実行する画素位置を示す。 Next, the linear interpolation process executed in step S201 in FIG. 15 will be described with reference to the flowcharts in FIGS. This process is a flowchart showing a processing procedure for linearly interpolating R, G, B, and E near the target pixel. Since the same processing is executed for all of R, G, B, and E, the portion described as X in FIGS. 16 and 17 is appropriately read as R, G, B, and E. Note that n ′ is a positive integer, and (j ′, k ′) indicates a pixel position where the process is executed when the center (target pixel position) in the local region is (0, 0).
ステップS251において、全色補間処理部264は、局所領域のうち、処理を実行する画素位置を示す第1のレジスタの値j’を初期化してj’=−n'+1とし、ステップS252において、局所領域のうち、処理を実行する画素位置を示す第2のレジスタの値k’を初期化してk’=−n'+1とする。ここでは、画素(0,0)を中心とする(2n'+1)×(2n'+1)の画素群に対して処理が行われる。
In step S251, the all color
ステップS253において、全色補間処理部264は、信号Mの画素(j’,k’)のM(モザイク信号Mの)色がXであるか否かを判定する。ここでXは、R,G,B,Eに適宜読み替えられる。上述した図6に示される4色のフィルタ配列が公知であることから、この処理では、画素位置を用いて色を判定することができる。
In step S253, the all color
ステップS253において、信号Mの画素(j’,k’)の色がXであると判定された場合、ステップS254において、全色補間処理部264は、信号Mの画素(j’,k’)の補間値XAを信号Mの画素(j’,k’)とする。すなわち、信号Mの画素位置の色がXであると判定された場合には、補間をする必要がないのでそのままの信号が用いられる。
If it is determined in step S253 that the color of the pixel (j ′, k ′) of the signal M is X, in step S254, the all-color
ステップS253において、信号Mの画素(j’,k’)がXでないと判定された場合、ステップS255において、全色補間処理部264は、画素(j’−1,k’)がXであるか否かを判定する。すなわち、処理画素の横に隣接する画素の色がXであるか否かが判定される。
When it is determined in step S253 that the pixel (j ′, k ′) of the signal M is not X, in step S255, the all-color
ステップS255において、信号Mの画素(j’−1,k’)の色がXであると判定された場合、ステップS256において、全色補間処理部264は、画素(j’,k’)の補間値XAを画素(j’−1,k’)と(j’+1,k’)の平均値とする。すなわち、横に隣接する画素の色がXであると判定された場合、左右から補間が行われる。
When it is determined in step S255 that the color of the pixel (j′−1, k ′) of the signal M is X, in step S256, the all-color
ステップS255において、信号Mの画素(j’−1,k’)の色がXでないと判定された場合、ステップS257において全色補間処理部264は、信号Mの画素(j’,k’−1)の色がXであるか否かを判定し、画素(j’,k’−1)の色がXであると判定された場合、ステップS258において、信号Mの画素(j’,k’)の補間値XAを画素(j’,k’−1)と画素(j’,k’+1)の平均とする。すなわち、縦に隣接する画素の色がXであると判定された場合、上下補間が行われる。
When it is determined in step S255 that the color of the pixel (j′−1, k ′) of the signal M is not X, in step S257, the all-color
ステップS257において、画素(j’,k’−1)がXでないと判定された場合、ステップS259において、全色補間処理部264は、信号Mの画素(j’,k’)の補間値XAを、画素(j’−1,k’−1)、画素(j’+1,k’−1)、画素(j’−1,k’+1)、画素(j’+1,k’+1)の平均とする。すなわち、信号Mの画素(j’,k’)、画素の横に隣接する信号Mの画素(j’−1,k’)および画素の縦に隣接する信号Mの画素(j’,k’−1)の色がXでないと判定された場合、左上、右上、左下、右下から補間が行われる。
If it is determined in step S257 that the pixel (j ′, k′−1) is not X, in step S259, the all-color
ステップS254、ステップS256、ステップS258、またはステップS259の処理の後、ステップS260において、全色補間処理部264は、第2のレジスタの値k’を参照し、k’=n'−1であるか否かを判定する。ステップS260においてk’=n'−1でないと判定された場合、ステップS261において、全色補間処理部264は、第2のレジスタの値k’をk’=k’+1に更新して、処理はステップS253に戻り、それ以降の処理が繰り返される。
After step S254, step S256, step S258, or step S259, in step S260, the all color
ステップS260においてk’=n'−1であると判定された場合、ステップS262において、全色補間処理部264は、処理を実行する画素位置を示す第1のレジスタの値j’を参照し、j’=n'−1であるか否かを判定する。ステップS262においてj’=n'−1ではないと判定された場合、ステップS263において全色補間処理部264は、第1のレジスタの値j’をj’=j’+1に更新して、処理はステップS252に戻り、それ以降の処理が繰り返される。
If it is determined in step S260 that k ′ = n′−1, in step S262, the all-color
ステップS262においてj’=n'−1であると判定された場合、ステップS264において全色補間処理部264は、注目画素付近の(2n'−1)×(2n'−1)画素のXの補間値XAの組を出力し、処理は図15のステップS202に進む。
If it is determined in step S262 that j ′ = n′−1, in step S264, the all-color
図16および図17の処理をまとめると、以下のようになる。全色補間処理部264は、信号Mの処理画素位置の色がXであると判定された場合、補間の必要はないのでそのままの信号を用い、信号Mの処理画素の横に隣接する画素がXであると判定された場合、左右から補間を行い、信号Mの処理画素の縦に隣接する画素がXであると判定された場合、上下から補間を行い、以上の条件以外の場合は左上、右上、左下、右下から補間を行う。このような処理が、R,G,B,Eの全てについて行われ、RA,GA,BA,EAが算出される。
The processing in FIG. 16 and FIG. 17 is summarized as follows. When it is determined that the color of the processing pixel position of the signal M is X, the all-color
次に、図18のフローチャートを参照して、図15のステップS202またはステップS203において実行される重み付き平均値Mx(重み付き平均値Mxの添え字xは、図15のステップS202に対応する処理の場合xaに、図15のステップS203に対応する処理の場合Lに、それぞれ置き換えられる)算出処理を説明する。なお、図18の処理は、RA,GA,BA,EA,Lについて同様の処理が実行されるので、図18においてXと記述されている部分については、適宜RA,GA,BA,EA,Lに読み替えられる。このRA,GA,BA,EAは、上述した図16および図17の処理により算出された値である。なお、n''は、正の整数であり、(j'',k'')は局所領域における中心(注目画素位置)を(0,0)とした場合の、処理を実行する画素位置を示す。 Next, referring to the flowchart of FIG. 18, the weighted average value M x (the subscript x of the weighted average value M x is executed in step S202 or step S203 of FIG. 15 corresponds to step S202 of FIG. The calculation process will be described (replaced by xa in the case of the process to be performed and L in the case of the process corresponding to step S203 in FIG. 15). 18 is executed for RA, GA, BA, EA, and L. Therefore, in the portion described as X in FIG. 18, RA, GA, BA, EA, and L are appropriately selected. To be read as The RA, GA, BA, and EA are values calculated by the processes shown in FIGS. 16 and 17 described above. Note that n ″ is a positive integer, and (j ″, k ″) is a pixel position for executing processing when the center (target pixel position) in the local region is (0, 0). Show.
ステップS301において、全色補間処理部264は、重み付き平均値Mxを0に初期化する。
In step S301, the all-color
ステップS302において、全色補間処理部264は、供給された局所領域の画素のうち、処理を実行する画素位置を示す第1のレジスタの値j’’を初期化してj’’=−n''とし、ステップS303において供給された局所領域の画素のうち、処理を実行する画素位置を示す第2のレジスタの値k’’を初期化してk’’=−n''とする。
In step S302, the all-color
ステップS304において、全色補間処理部264は、Mx=Mx+(重み係数wiが施された画素(j'’,k'’)のX)とする。すなわち、Mxに重み付きwiが施された画素(j’’,k’’)のXを加算したものが新たなMxとされる。
In step S304, the all-color
この重み係数wiは、i番目のデータの位置から注目画素への距離などを指標として予め設定されている値である。例えば、図19に示されるように設定される。図中四角形は5×5局所領域の画素位置を示し、四角形中の数字が該当する位置のデータの重み係数を示す。これらの重み係数は、図19に示されるものに限定されないことはいうまでもないが、図19に示されるように、注目画素に近い程重み係数が大きくなるようにした方が好適である。なお、図19においては、外周が0であるため、実質、内周の3×3の範囲において演算が行われることとなる。そのため、最初から内周の3×3の範囲に対してのみ演算を行うようにしてもよい。 The weighting factor wi is a value set in advance using the distance from the position of the i-th data to the target pixel as an index. For example, it is set as shown in FIG. In the figure, squares indicate the pixel positions of the 5 × 5 local area, and the numbers in the squares indicate the weighting factors of the data at the corresponding positions. Needless to say, these weighting factors are not limited to those shown in FIG. 19, but as shown in FIG. 19, it is preferable that the weighting factors become larger as they are closer to the target pixel. In FIG. 19, since the outer periphery is 0, the calculation is actually performed in the 3 × 3 range of the inner periphery. Therefore, the calculation may be performed only for the 3 × 3 range of the inner periphery from the beginning.
ステップS305において、全色補間処理部264は、第2のレジスタの値k’’を参照し、k’’=n''であるか否かを判定する。ステップS305において、k’’=n''でないと判定された場合、ステップS306において、全色補間処理部264は、第2のレジスタの値k’’をk’’=k’’+1に更新して、処理はステップS304に戻り、それ以降の処理が繰り返される。
In step S305, the all-color
ステップS305において、k’’=n''であると判定された場合、ステップS307において、全色補間処理部264は、処理を実行する画素位置を示す第1のレジスタの値j’’を参照し、j’’=n''であるか否かを判定する。ステップS307においてj’’=n''ではないと判定された場合、ステップS308において全色補間処理部264は、第1のレジスタの値j’’をj’’=j’’+1に更新して、処理はステップS303に戻り、それ以降の処理が繰り返される。
When it is determined in step S305 that k ″ = n ″, in step S307, the all color
ステップS307において、j’’=n''であると判定された場合、ステップS309において、全色補間処理部264は、Mx=Mx/Wとする。このWは重み係数wiの総和Wとされる。
If it is determined in step S307 that j ″ = n ″, in step S309, the all-color
ステップS310において、全色補間処理部264は、重み付き平均値Mxを出力し、処理は図15のステップS203またはステップS204に進む。
In step S310, the all-color
図18の処理により、処理画素近傍のRA,GA,BA,EA,Lの重み付き平均値Mx(xはRA,GA,BA,EA,Lに適宜読み替えられる)がそれぞれ算出される。 The weighted average values M x (x is appropriately read as RA, GA, BA, EA, L) in the vicinity of the processing pixel are calculated by the processing in FIG.
次に、図20のフローチャートを参照して、図11のステップS55において実行されるG+E生成処理を説明する。なお、この処理は、図6のG+E生成処理部263により実行される処理である。なお、n'' 'は、正の整数であり、(j'' ',k'' ')は局所領域における中心(注目画素位置)を(0,0)とした場合の、処理を実行する画素位置を示す。
Next, the G + E generation process executed in step S55 of FIG. 11 will be described with reference to the flowchart of FIG. This process is a process executed by the G + E
ステップS351において、G+E生成処理部263は、供給された局所領域の画素のうち、処理を実行する画素位置を示す第1のレジスタの値j’’’を初期化してj’’’=−n'' 'とし、ステップS352において供給された局所領域の画素のうち、処理を実行する画素位置を示す第2のレジスタの値k’’’を初期化してk’’’=−n'' 'とする。
In step S <b> 351, the G + E
ステップS353において、G+E生成処理部263は、画素位置(j'' '、k'' ')のモザイク信号MがGまたはEであるか否かを判定し、GまたはEであると判定された場合、ステップS354において、G+E生成処理部263は、第1のG+E生成処理を実行する。なお、この処理の詳細は、図21を参照して後述する。
In step S353, the G + E
ステップS353において、処理画素位置のモザイク信号MがGまたはEでない、すなわちBまたはRであると判定された場合、ステップS355において、G+E生成処理部263は、第2のG+E生成処理を実行する。なお、この処理の詳細は、図22を参照して後述する。
In step S353, when it is determined that the mosaic signal M at the processing pixel position is not G or E, that is, B or R, in step S355, the G + E
ステップS354またはステップS355の処理の後、ステップS356において、G+E生成処理部263は、第2のレジスタの値k’’’を参照し、k’’’=n'' 'であるか否かを判定する。ステップS356において、k’’’=n'' 'でないと判定された場合、ステップS357において、G+E生成処理部263は、第2のレジスタの値k’’’をk’’’=k’’’+1に更新して、処理はステップS353に戻り、それ以降の処理が繰り返される。
After step S354 or step S355, in step S356, the G + E
ステップS356において、k’’’=n'' 'であると判定された場合、ステップS358において、G+E生成処理部263は、処理を実行する画素位置を示す第1のレジスタの値j’’’を参照し、j’’’=n'' 'であるか否かを判定する。ステップS358においてj’’’=n'' 'ではないと判定された場合、ステップS359においてG+E生成処理部263は、第1のレジスタの値j’’’をj’’’=j’’’+1に更新して、処理はステップS352に戻り、それ以降の処理が繰り返される。
If it is determined in step S356 that k ′ ″ = n ″ ′, in step S358, the G + E
ステップS358において、j’’’=n'' 'であると判定された場合、ステップS360において、G+E生成処理部263は、注目画素付近の(2n'' '+1)×(2n'' '+1)画素のG+Eを出力し、処理は図11のステップS56進む。
When it is determined in step S358 that j ′ ″ = n ″ ′, in step S360, the G + E
次に、図21のフローチャートを参照して、図20のステップS354において実行される第1のG+E生成処理を説明する。なお、この処理は、図6のG+E生成処理部263により実行される処理である。また、GとEのいずれかが存在する画素位置において、同様の処理が行われるので、Gが存在する画素位置では、図21においてXと表記されている部分をGに、Yを表記されている部分はEに読み替え、Eが存在する画素位置では、図21においてXをEに、YをGに適宜読み替えることにする。また、以下の処理では、Xが輝度、Yが色信号として扱われる。
Next, the first G + E generation process executed in step S354 of FIG. 20 will be described with reference to the flowchart of FIG. This process is a process executed by the G + E
ステップS401において、G+E生成処理部263は、線形補間処理を実行する。この処理は、上述した図16および図17の処理と同様であるので、その詳細は省略する。
In step S401, the G + E
ステップS402において、G+E生成処理部263は、重み付き平均Mxa算出処理を実行する。この処理は、上述した図18の処理と同様であるので、その詳細は省略する。
In step S402, the G + E
ステップS403において、G+E生成処理部263は、重み付き平均Mya算出処理を実行する。この処理は、上述した図18の処理と同様であるので、その詳細は省略する。
In step S403, the G + E
ステップS404において、G+E生成処理部263は、重み付き平均Mxa<(第2の定数)であるか否かを判定し、重み付き平均Mxa<(第2の定数)であると判定された場合、ステップS405において、Mxa’=(第2の定数)と設定する。この第2の定数は、例えば、経験的にまたは実験的に定められる所定の値である。ステップS404においてMxa<(第2の定数)でない、すなわちMxa≧(第2の定数)であると判定された場合、ステップS406において、G+E生成処理部263は、Mxa’=Mxaと設定する。
In step S404, G + E
ステップS405の処理の後、またはステップS406の処理の後、ステップS407において、G+E生成処理部263は、モザイク画像上における注目画素位置を(x、y)とした場合、注目画素(x,y)におけるG+Eの値を((Mya/Mxa’(M(x,y)−Mxa)+Mya)+M(x,y))/2とし、処理は図20のステップS356に進む。
After the processing in step S405 or after the processing in step S406, in step S407, the G + E
図21の処理により、Gが存在する画素位置にはEが、Eが存在する画素位置にはGが色バランス補間によって補間され、同一画素上のGとEが合成されて新たな色成分G+Eが生成される。 21, E is interpolated by color balance interpolation at the pixel position where G exists, and G is interpolated by color balance interpolation at the pixel position where E exists, and a new color component G + E is synthesized by combining G and E on the same pixel. Is generated.
なお、ステップS401乃至ステップS403の処理は、その順番を逆にしてもよいし、並行して実行させるようにしてもよい。 Note that the processing in steps S401 to S403 may be performed in reverse order or in parallel.
次に、図22のフローチャートを参照して、図20のステップS355において実行される第2のG+E生成処理を説明する。なお、この処理は、図6のG+E生成処理部263により実行される処理である。RとBのいずれかが存在する画素位置において、同様の処理が行われるので、図22においてXと記述されている部分については、適宜R,Bに読み替えることにする。また、以下の処理では、Xが輝度、GとEが色信号として扱われる。
Next, the second G + E generation process executed in step S355 of FIG. 20 will be described with reference to the flowchart of FIG. This process is a process executed by the G + E
ステップS451において、G+E生成処理部263は、線形補間処理を実行する。この処理は、上述した図16および図17の処理と同様であるので、その詳細は省略する。
In step S451, the G + E
ステップS452において、G+E生成処理部263は、重み付き平均Mxa算出処理を実行する。この処理は、上述した図18の処理と同様であるので、その詳細は省略する。
In step S452, the G + E
ステップS453において、G+E生成処理部263は、重み付き平均Mga算出処理を実行する。この処理は、上述した図18の処理と同様であるので、その詳細は省略する。
In step S453, the G + E
ステップS454において、G+E生成処理部263は、重み付き平均Mea算出処理を実行する。この処理は、上述した図18の処理と同様であるので、その詳細は省略する。
In step S454, the G + E
ステップS455において、G+E生成処理部263は、重み付き平均Mxa<(第3の定数)であるか否かを判定し、重み付き平均Mxa<(第3の定数)であると判定された場合、ステップS456において、Mxa’=(第3の定数)と設定する。この第3の定数は、例えば、経験的にまたは実験的に定められる所定の値である。ステップS455においてMxa<(第3の定数)でない、すなわちMxa≧(第3の定数)であると判定された場合、ステップS457において、G+E生成部263は、Mxa’=Mxaと設定する。
In step S455, G + E
ステップS456の処理の後、またはステップS457の処理の後、ステップS458において、G+E生成処理部263は、注目画素(x、y)におけるG+Eの値を((Mga/Mxa’(M(x,y)−Mxa)+Mga)+(Mea/Mxa’(M(x,y)−Mxa)+Mea))/2とし、処理は図20のステップS356に進む。
After the process of step S456 or the process of step S457, in step S458, the G + E
図22の処理により、注目画素位置のモザイク信号がRもしくはBの場合に、その画素位置にGとEが色バランス補間によって補間され、それらが合成されて新たな色成分G+Eが生成される。 22, when the mosaic signal at the target pixel position is R or B, G and E are interpolated at the pixel position by color balance interpolation, and they are combined to generate a new color component G + E.
なお、ステップS451乃至ステップS454の処理は、その順番を逆にしてもよいし、並行して実行させるようにしてもよい。 Note that the processing in steps S451 to S454 may be performed in reverse order or in parallel.
次に、図23のフローチャートを参照して、図11のステップS56において実行される第2の全色補間処理を説明する。なお、この処理は図6の全色補間処理部265により実行される処理である。ここでは、色バランス補間によってR,G,B,Eの推定が行われる。この処理は、R,G,B,Eの全てについて同様の処理が実行されるので、図中Xと記述されている部分については、適宜、R,G,B,Eに読み替えることにする。また、この処理では、G+Eが輝度、Xが色信号として扱われる。
Next, the second all-color interpolation process executed in step S56 in FIG. 11 will be described with reference to the flowchart in FIG. This process is a process executed by the all-color
ステップS501において、全色補間処理部265は、上述した図21のステップS401または図22のステップS451でG+E生成処理部263により算出された線形補間処理の結果を取得する。
In step S501, the all-color
ステップS502において、全色補間処理部265は、重み付き平均Mxa算出処理を実行する。この処理は、上述した図18と同様の処理であるので、その説明は省略する。なお、ステップS502では、上述した図21のステップS402またはステップS452の処理で用いる重み係数wiとは異なる重み係数を用いて、重み付き平均Mxaを求めるようにしてもよい。この場合、ステップS502で算出される重み付き平均Mxaと、図21のステップS402またはステップS452で算出される重み付き平均Mxaの値は異なることになる。
In step S502, the all-color
ステップS503において、全色補間処理部265は、重み付き平均MG+E算出処理を実行する。この処理は、上述した図18と同様の処理であるので、その説明は省略する。具体的には、図18において、xが上述した図20の処理で求められるG+Eに変更されるだけである。
In step S503, the all-color
ステップS504において、全色補間処理部265は、MG+E<(第4の定数)であるか否かを判定し、MG+E<(第4の定数)であると判定された場合、ステップS505において、全色補間処理部265は、MG+E’=(第4の定数)と設定する。この第4の定数は、例えば、経験的にまたは実験的に定められる所定の値である。ステップS504において、MG+E<(第4の定数)でない、すなわちMG+E≧(第4の定数)であると判定された場合、ステップS506において、全色補間処理部265は、MG+E’=MG+Eと設定する。
In step S504, the all-color
ステップS505の処理の後、またはステップS506の処理の後、ステップS507において、全色補間処理部265は、Xの推定値XUを、Mxa/MG+E’((G+E)(x,y)−MG+E)+Mxaとし、処理は図11のステップS58に進む。
After step S505 or after step S506, in step S507, the all-color
なお、ステップS501乃至ステップS503の処理は、その順番を逆にしてもよいし、並行して実行させるようにしてもよい。 Note that the processing in steps S501 to S503 may be performed in reverse order or in parallel.
次に、図24のフローチャートを参照して、図11のステップS57において実行される合成処理を説明する。なおこの処理は、図6の合成処理部266により実行される処理である。
Next, the synthesis process executed in step S57 in FIG. 11 will be described with reference to the flowchart in FIG. This process is a process executed by the
ステップS551において、合成処理部266は、注目画素位置のR,G,B,Eの補間値RF,GF,BF,EFを信号Cとして取得する。この値は、全色補間処理部264(図11のステップS54の処理)により算出された値である。
In step S551, the
ステップS552において、合成処理部266は、注目画素位置のR,G,B,Eの補間値RU,GU,BU,EUを信号C’として取得する。この値は、全色補間処理部265(図11のステップS56の処理)により算出された値である。
In step S552, the
ステップS553において、合成処理部266の色空間変換処理部301−1は、ステップS551の処理で取得された信号CのRGBEの色空間で表される信号をRGBの色空間に変換するとともに、RGBをYCbCrに変換する。また、ステップS554において、合成処理部266の色空間変換処理部301−2は、ステップS552の処理で取得された信号C’のRGBEの色空間で表される信号をRGBの色空間に変換するとともに、RGBをYCbCrに変換する。ここで、色空間変換処理部301−1と色空間変換処理部301−2は同様の処理を実行する。以下、色空間変換処理部301−1と色空間変換処理部301−2を個々に区別する必要がない場合、色空間変換処理部301と称する。RGBEの色空間からRGBの色空間(RGBの表色系)への変換マトリックスは、式(5)に示される。
In step S553, the color space conversion processing unit 301-1 of the
式(5)において、行列内のパラメータTij(i=1乃至3,j=1乃至4)は、色再現性に関する部分であり、使用するフィルタの分光特性に合わせて任意に与えられる。例えば、特開2002−271804号公報には、465nm、530nm、585nm、615nmを分光感度曲線のピーク波長とする、ある4色のフィルタセットの場合にXYZ色空間へ変換するためのパラメータが示されている。なお、XYZ色空間からRGB色空間への変換は、CCIR 601に示される。 In Expression (5), parameters Tij (i = 1 to 3, j = 1 to 4) in the matrix are portions relating to color reproducibility, and are arbitrarily given according to the spectral characteristics of the filter to be used. For example, Japanese Patent Application Laid-Open No. 2002-271804 discloses parameters for converting to an XYZ color space in the case of a filter set of four colors having 465 nm, 530 nm, 585 nm, and 615 nm as peak wavelengths of the spectral sensitivity curve. ing. The conversion from the XYZ color space to the RGB color space is shown in CCIR 601.
また、RGB色空間からYCbCr色空間への変換マトリックスは、式(6)に示される。 Also, the conversion matrix from the RGB color space to the YC b Cr color space is expressed by Equation (6).
式(6)においては、Yが本実施の形態における輝度信号C’lとされ、Cb,Crは、色度信号Cc,C’cとされる。以下、色度信号Ccに含まれる2つの信号をCb,Crと記述する。 In Equation (6), Y is the luminance signal C ′ l in the present embodiment, and C b and C r are the chromaticity signals C c and C ′ c . Hereinafter, two signals included in the chromaticity signal C c are described as C b and C r .
ステップS555において、合成処理部266の彩度算出処理部302は、色度信号Ccに基づいて、彩度Sを算出する。具体的には、式(7)に示される演算が行われる。
In step S555, the saturation
ステップS556において、合成処理部266の色度差算出処理部304は、色度信号CcおよびC’cに基づいて色度差ΔCcを算出する。具体的には、式(8)に示される演算が行われる。
In step S556, the chromaticity difference
ステップS557において、合成処理部266のブレンド率算出処理部303は、彩度Sと色度差ΔCcに基づいてブレンド率rを算出する。具体的には、式(9)に示される演算によりブレンド率rが求められる。
In step S557, the blend rate
式(9)において、第5の定数および第6の定数は任意の定数である。式6により求められたrが1より大きい場合には、1にクリップされる。この第5の定数および第6の定数は、例えば、経験的にまたは実験的に定められる所定の値である。
In Expression (9), the fifth constant and the sixth constant are arbitrary constants. If r obtained by
ステップS558において、合成処理部266のブレンド処理部305は、色度信号CcおよびC’cをブレンド率rに基づいてブレンドし、色度信号C''cを生成する。具体的には、式(10)および式(11)に示される演算により色度信号C''cが生成される。
In step S558, the
C’’b=Cb×r+C’b×(1−r) ・・・(10)
C’’r=Cr×r+C’r×(1−r) ・・・(11)
C ″ b = C b × r + C ′ b × (1−r) (10)
C ″ r = C r × r + C ′ r × (1−r) (11)
ステップS559において、合成処理部266のブレンド処理部305は、色度信号C''cと、ステップS552の処理で色空間変換処理部301−2により算出された輝度信号C’lをあわせて新たなYCbCr信号C’’として出力する。
In step S559, the
なお、ステップS553およびステップS554の処理は、その順番を逆にしてもよいし、並行して実行させるようにしてもよい。 Note that the order of the processes in steps S553 and S554 may be reversed, or may be executed in parallel.
以上の例では、色空間変換処理部301により、RGBE色空間で表される信号を輝度と色差で表される色空間に変換してからブレンド処理を行っている。このような構成を取ることで、信号C’に比べ縦方向の解像度が落ちている信号Cをブレンドに用いても最終的に得られる信号C’’は信号C’の輝度信号を用いていることから、信号C’と同等の解像感が得られる。逆に、ブレンドによる解像度の低下が問題にならないならば、例えば、図25に示されるような、色空間の変換を行わない、より簡単な方法を用いても構わない。 In the above example, the color space conversion processing unit 301 converts the signal expressed in the RGBE color space into the color space expressed by the luminance and the color difference, and then performs the blending process. By adopting such a configuration, the signal C ″ that is finally obtained even when the signal C whose longitudinal resolution is lower than that of the signal C ′ is used for blending uses the luminance signal of the signal C ′. Therefore, the same resolution as the signal C ′ can be obtained. On the other hand, if resolution reduction due to blending does not become a problem, for example, a simpler method that does not perform color space conversion as shown in FIG. 25 may be used.
図25は、本発明を適用した他の実施の形態である、図8の合成処理部266の詳細な構成を示すブロック図である。すなわち図9の合成処理部266の変形例(他の実施の形態)である。図25の合成処理部266は、輝度算出処理部401、彩度算出処理部402、ブレンド率算出処理部403、色度差算出処理部404、およびブレンド処理部405により構成される。信号Cは、上述した図8の全色補間処理部264から供給され、信号C’は、上述した図8の全色補間処理部265から供給される。以下、信号Cに含まれる4つの色成分をR,G,B,Eで表し、信号C’に含まれる4つの色成分をR’,G’,B’,E’で表す。
FIG. 25 is a block diagram showing a detailed configuration of the
輝度算出処理部401は、信号Cから輝度を算出する。この実施の形態(他の実施の形態)では、輝度Lを以下の式(12)に示されるように定義する。
The luminance
L=(R+G+B+E)/4 ・・・(12) L = (R + G + B + E) / 4 (12)
彩度算出処理部402は、信号Cと、輝度算出処理部401により得られた輝度Lに基づいて、彩度Sを算出する。この実施の形態(他の実施の形態)では、彩度Sを以下の式(13)に示されるように定義する。
The saturation
色度差算出処理部404は、信号C,C’に基づいて色度差を算出する。この実施の形態(他の実施の形態)では、色度差ΔCを以下の式(14)に示されるように定義する。
The chromaticity difference
ブレンド率算出処理部403は、再度算出処理部402により得られた彩度Sと、色度差算出処理部404により得られた色度差ΔCに基づいて、ブレンド率rを以下の式(15)を用いて算出する。
Based on the saturation S obtained again by the
なお、式(15)において、第7の定数および第8の定数は任意の定数である。また式(15)により算出されたrが1よりも大きい場合は、1にクリップされる。この第7の定数および第8の定数は、例えば、経験的にまたは実験的に定められる所定の値である。 In the formula (15), the seventh constant and the eighth constant are arbitrary constants. If r calculated by the equation (15) is larger than 1, it is clipped to 1. The seventh constant and the eighth constant are predetermined values determined empirically or experimentally, for example.
ブレンド処理部405は、信号C,C’をブレンド率に基づいてブレンドし、新たな信号C’’Aを算出する。以下、C’’Aに含まれる4つの色成分をR’’,G’’,B’’,E’’で表す。またブレンド方法は、以下の式(16)乃至式(20)に示される。
The
R’’=R×r+R’×(1−r) ・・・(16)
G’’=G×r+G’×(1−r) ・・・(17)
B’’=B×r+B’×(1−r) ・・・(18)
E’’=E×r+E’×(1−r) ・・・(19)
R ″ = R × r + R ′ × (1-r) (16)
G ″ = G × r + G ′ × (1−r) (17)
B ″ = B × r + B ′ × (1-r) (18)
E ″ = E × r + E ′ × (1-r) (19)
このように、G、Eについて、1つの水平ライン内にGが存在する場合、そのライン内にEが存在しないフィルタ配列を持つ単板カラー撮像素子によって間引きして撮像された色のモザイク画像より、偽色の発生は抑えられているが、解像度が低く、信頼性が低い、第1の全色の補間値と、偽色は発生しやすいが、解像度が高く、偽色が出ていない画素位置では色の信頼性が高い、第2の全色の補間値を得ることができる。また、この2つの全色の補間値を比較することにより、従来困難であった偽色の発生位置の判定を精度良く行うことが可能になる。 Thus, for G and E, when G is present in one horizontal line, from a mosaic image of colors picked up by a single-plate color imaging device having a filter array in which E does not exist in that line. The generation of false colors is suppressed, but the resolution is low and the reliability is low. The interpolated values of all the first colors and the false colors are likely to be generated, but the resolution is high and no false colors are generated. An interpolated value of the second all colors having high color reliability at the position can be obtained. Further, by comparing the interpolation values of all the two colors, it is possible to accurately determine the generation position of the false color, which has been difficult in the past.
さらに、2つの全色の補間値から得られる彩度と色度差に基づいて、第1の全色の補間値(例えば、全色補間処理部264により生成される信号C)の特徴である偽色の少なさと第2の全色の補間値(例えば、全色補間処理部265により生成される信号C’)の特徴である解像度の高さと色の信頼性が高さを生かした、2つの全色の補間値の効果的な合成を行うことができ、もって、高品位な色成分の補間を可能にする。 Further, it is a feature of the interpolation values of the first all colors (for example, the signal C generated by the all color interpolation processing unit 264) based on the saturation and the chromaticity difference obtained from the interpolation values of the two all colors. The high resolution and color reliability, which are the characteristics of the small number of false colors and the interpolation values of the second all colors (for example, the signal C ′ generated by the all color interpolation processing unit 265), are 2 It is possible to effectively synthesize the interpolation values of all the two colors, thereby enabling high-quality color component interpolation.
このことは、従来行われていた、発生した偽色を無彩色に近づける処理とは異なり、単に無彩色にするよりは真値に近い第1の全色の補間値を偽色抑制処理に用いることができるので、より自然な補間画像を得ることができる。 This is different from the conventional process of making the generated false color close to an achromatic color, and the interpolation values of the first all colors closer to the true value are used for the false color suppression process than simply making the achromatic color. Therefore, a more natural interpolation image can be obtained.
なお、本実施の形態および他の実施の形態では、彩度算出処理部302,402、色度差算出処理部304,404において彩度や色度差の算出にユークリッド距離(偏差の自乗和の平方値)を用いているが、マンハッタン距離(偏差の絶対値の総和)を用いても構わない。
In this embodiment and other embodiments, the saturation
また、ブレンド率rは定性的には色度差ΔCが大きくなると大きくなり、彩度Sが大きくなると小さくなれば良いので、式(9)や式(15)に限らず、式(20)を用いるようにしてもよい。 In addition, the blend ratio r qualitatively increases as the chromaticity difference ΔC increases, and may be decreased as the saturation S increases. Therefore, the blend ratio r is not limited to Expression (9) or Expression (15), and Expression (20) You may make it use.
r=ΔC×(第9の定数)−S×(第10の定数)・・・(20) r = ΔC × (9th constant) −S × (10th constant) (20)
当然、同様の挙動を示すさらに別の式を用いても構わない。 Of course, another formula showing the same behavior may be used.
また、以上の例では、図6に示されるような4色のフィルタ配列の場合について述べてきたが、さらにフィルタの色数が増えても構わない。本発明の本質は、ある色G,Eについて、すべての水平ライン内にG,Eのいずれかが存在し、1つの水平ライン内にGが存在する時はそのライン内にEが存在しないフィルタ配列において、G,Eに基づいて2種類の輝度を生成する点にある。人間の視覚が色成分に対して輝度に対するほど敏感でないことを考慮すると、輝度さえ同等の精度で生成できれば、他の色についてはDC成分が取れる程度のサンプル数があれば問題なく補間することができる。例えば本発明は、6色配列である図26に対しても適用する事ができる。 In the above example, the case of a four-color filter array as shown in FIG. 6 has been described, but the number of filter colors may be further increased. The essence of the present invention is that, for a certain color G, E, any one of G, E exists in all horizontal lines, and when G exists in one horizontal line, a filter in which E does not exist in that line. In the arrangement, two types of luminance are generated based on G and E. Considering that human vision is not so sensitive to luminance with respect to color components, as long as the luminance can be generated with the same accuracy, other colors can be interpolated without problems if there are enough samples to obtain the DC component. it can. For example, the present invention can be applied to FIG. 26 having a six-color arrangement.
以上の処理をまとめると、以下の通りとなる。 The above processing is summarized as follows.
画素補間方法として、輝度信号を全画素に生成し、それを参照情報として他の色成分を補間する方法が一般的に用いられている。例えば、「U.S. Patent 4,642, 678「Cok,David R. "Signal processing method and apparatus for producing interpolated chrominance values in a sampled color image signal"」には、局所領域における色の比率がほぼ一定であるという仮定の元、全画素にあらかじめGを揃え、近傍画素におけるRとGの比率の平均、およびBとGの比率の平均を注目画素位置のGに乗算し、不明な色成分の推定を行う画素補間方法が提案されている。 As a pixel interpolation method, a method of generating a luminance signal for all pixels and interpolating other color components using it as reference information is generally used. For example, “US Patent 4,642, 678“ Cok, David R. “Signal processing method and apparatus for producing interpolated chrominance values in a sampled color image signal” ”assumes that the color ratio in the local region is almost constant. Original, pixel interpolation method in which G is preliminarily arranged in all pixels, and the average of the ratio of R and G in the neighboring pixels and the average of the ratio of B and G are multiplied by G of the target pixel position to estimate the unknown color component Has been proposed.
そこで、本発明では、注目画素位置における輝度信号のDC成分と色信号のDC成分の比率に輝度信号を乗算して不明な色成分の補間を行う。以下、これを色バランス補間と称する。DC成分は注目画素近傍の画素値を平均することで簡易に求められる。 Therefore, in the present invention, an unknown color component is interpolated by multiplying the ratio of the DC component of the luminance signal and the DC component of the color signal at the target pixel position by the luminance signal. Hereinafter, this is referred to as color balance interpolation. The DC component can be easily obtained by averaging pixel values in the vicinity of the target pixel.
間引いて撮像している場合、輝度信号の補間に用いる画素間の距離が広がると、偽色増大の大きな原因となる。ベイヤー配列では輝度として用いられるGが市松に存在するため、水平ライン毎の間引きを行ってもGが存在しない画素位置には横近傍のGを用いて補間することができ、上記の問題を回避できる。 When imaging is performed with thinning, if the distance between pixels used for interpolation of the luminance signal is widened, it causes a large increase in false color. In the Bayer array, G used as luminance exists in a checkered pattern. Therefore, even if thinning is performed for each horizontal line, a pixel position where G does not exist can be interpolated using G in the lateral vicinity, and the above problem is avoided. it can.
しかしながら、輝度として全画素に共通して用いられる色成分が、横近傍の画素だけでは作れない配列では、ベイヤー配列と同じ手法を用いることはできない。そこで、本実施の形態では、2種類の輝度を生成し、それぞれに基づいて補間した2つの補間値の特徴をいかして合成することで、同等の効果を得るようにする。 However, the same method as the Bayer array cannot be used in an array in which a color component that is commonly used for all pixels as luminance cannot be generated by only pixels in the horizontal vicinity. Therefore, in the present embodiment, two types of luminance are generated, and the characteristics of the two interpolation values interpolated based on the two are combined to obtain the same effect.
以下に、図6に示される4色のフィルタ配列を例として、色の補間に色バランス補間を用いた場合について説明する。間引き後も、図6の配列となるように間引くこととし、解像度の低下を抑えるために、できる限り均等な間隔で間引きを行う。例えば、8ラインを1セットとして、そのうち、4ライン目と7ライン目を用いて1/4に間引くパターンが考えられる。なお、配列や補間方法はこの説明で使用しているものに限定されない。 In the following, a case where color balance interpolation is used for color interpolation will be described using the four-color filter array shown in FIG. 6 as an example. Even after thinning, thinning is performed so that the arrangement in FIG. 6 is obtained, and thinning is performed at as even intervals as possible in order to suppress a reduction in resolution. For example, it is possible to consider a pattern in which 8 lines are set as one set and the fourth and seventh lines are thinned out to 1/4. Note that the arrangement and the interpolation method are not limited to those used in this description.
最初に、Gが存在するラインでは、ライン内のGが存在しない画素位置に、左右に隣接するGを用いてGの補間を行い、Eが存在するラインでは、ライン内のEが存在しない画素位置に、左右に隣接するEを用いてEの補間を行う。その結果、全ての画素にGまたはEが存在することになるが、それらを区別せずに1つの輝度とみなす。図27は、GとEがライン毎に補間された状態を示す。例として、撮像対象がDC成分のみを持ち、得られたモザイク信号値がRの値が0.5、Gの値が1、Eの値が0.8であるとき、位置452に位置するRを推定する場合を考える。
First, in a line where G exists, G is interpolated using G adjacent to the left and right at a pixel position where G does not exist in the line, and in a line where E exists, a pixel where E does not exist in the line. E is interpolated using E adjacent to the left and right at the position. As a result, although G or E exists in all the pixels, they are regarded as one luminance without being distinguished. FIG. 27 shows a state where G and E are interpolated for each line. As an example, when the imaging target has only a DC component and the obtained mosaic signal value is R value 0.5,
位置451における色の補間のために、近傍3×3領域454の輝度の平均値を求めると、約0.87となる。位置452における色の補間のために、近傍3×3領域455の輝度の平均値を求めると、約0.93となる。Rの平均値は、どの領域においても0.5となるので、色バランス補間を用いると、位置451のRの補間値R1は、式(21)で示されるように演算され、位置452のRの補間値R2は、式(22)で示されるように演算される。
When the average value of the luminance of the neighboring 3 × 3
このように、ライン毎に注目画素位置で輝度とみなしている色が異なり、また輝度の平均も同一にはならないため、単に色バランス補間を行うだけでは、画素位置によって補間される色が変わることになる。そこで、注目画素位置の輝度がGである場合と、Eである場合の補間結果を合成し、画素間のバランスを取ることにする。ここで用いている間引き方では、注目画素位置の輝度がGである場合と、Eである場合の補間結果が1ライン毎に得られるので、注目画素位置およびその上下に補間された色を用いる。領域456の輝度の平均値を用いて、位置453に補間したRの補間値をR3とした場合、位置452のRの最終的な補間値R2’は、式(23)により求められる。
In this way, the color considered as luminance at the target pixel position is different for each line, and the average luminance is not the same, so simply performing color balance interpolation will change the interpolated color depending on the pixel position. become. Therefore, the interpolation results when the luminance of the target pixel position is G and E are combined to balance the pixels. In the thinning method used here, since the interpolation result when the luminance at the target pixel position is G and E is obtained for each line, the target pixel position and the color interpolated above and below it are used. . If the R interpolation value interpolated at the
このような方法により、全色を揃えた補間画素は、輝度の生成にサンプリング間隔が広い縦方向の近傍画素を用いていないため偽色がでにくい。しかし、複数の補間値の足しあわせにより解像度の低下を招いている。また、GとEを区別せずに補間を行っているので、色の推定に誤りが含まれ、補間された色の信頼度が低くなっている。この信頼を上げるためには、なるべくGとEの分光特性が近い方が好ましい。また、無彩色に対してGとEが同じであるとみなすために、モザイク信号の段階でレベルバランス(ホワイトバランス)をあわせておくことも信頼性の向上につながる。 By using such a method, the interpolated pixels in which all the colors are aligned do not generate false colors because the neighboring pixels in the vertical direction with a wide sampling interval are not used for luminance generation. However, the addition of a plurality of interpolation values causes a reduction in resolution. In addition, since interpolation is performed without distinguishing between G and E, an error is included in the color estimation, and the reliability of the interpolated color is low. In order to increase the reliability, it is preferable that the spectral characteristics of G and E are as close as possible. Further, in order to consider that G and E are the same for an achromatic color, it is also possible to improve reliability by adjusting the level balance (white balance) at the mosaic signal stage.
続いて、別の輝度を用いた補間を行う。まず線形補間等、適当な補間法で全ての画素位置にGとEをそろえる。そして、同一画素上のG,Eを加算平均し、新たな色成分G+Eを生成する。このG+Eを輝度とみなして、不明な色成分を色バランス補間で補間する。G+Eは生成時にサンプリング間隔が広い縦方向の近傍画素を用いるため偽色がでやすいが、撮像対象のDC成分に対しては、色の推定が正しく行われるため、偽色がでていない画素位置では、補間された色の信頼性が高い。 Subsequently, interpolation using another luminance is performed. First, G and E are aligned at all pixel positions by an appropriate interpolation method such as linear interpolation. Then, G and E on the same pixel are averaged to generate a new color component G + E. G + E is regarded as luminance, and unknown color components are interpolated by color balance interpolation. Since G + E uses vertical neighboring pixels with a wide sampling interval at the time of generation, false colors are likely to occur. However, for DC components to be imaged, since color estimation is performed correctly, pixel positions where no false colors are generated Then, the reliability of the interpolated color is high.
以上の2つの推定方法を用いて、偽色の発生が抑えられているが、解像度が低く、色の信頼性が低い第1の全色の補間値C(RF,GF,BF,EF)と、偽色は発生しやすいが、解像度が高く、偽色が出ていない画素位置では色の信頼性が高い、第2の全色の補間値C’(RU,GU,BU,EU)が得られる。この2つの全色の補間値を合成することにより、偽色の発生が抑えられていて、色の信頼性が高く、解像度が高い、新たな第3の全色の補間値を生成することができる。その方法としては、最初に現在の色空間から、輝度と色度で表される色空間に変換し、第1の全色の補間値から第1の輝度と第1の色度を生成する。次に、第2の全色の補間値から第2の輝度と第2の色度を生成する。 By using the above two estimation methods, the occurrence of false colors is suppressed, but the first all-color interpolation values C (RF, GF, BF, EF) and the resolution are low and the color reliability is low. A second all-color interpolated value C ′ (RU, GU, BU, EU) is obtained which is easy to generate false colors, but has high resolution and high color reliability at pixel positions where no false colors appear. It is done. By synthesizing these two interpolated values of all colors, generation of false colors can be suppressed, and a new third interpolated value of all colors can be generated with high color reliability and high resolution. it can. As the method, first, the current color space is converted into a color space represented by luminance and chromaticity, and the first luminance and the first chromaticity are generated from the interpolation values of all the first colors. Next, second luminance and second chromaticity are generated from the interpolation values of the second all colors.
視覚の特性として、輝度の解像度に対しては敏感で、色度の解像度に対しては鈍感であることを利用し、輝度については解像度の高い第2の輝度(例えば、図9の輝度信号C’l)をそのまま用い、色度について合成を行う。偽色が発生している画素位置では、色度の信頼性は第1の色度(例えば、図9の色度信号Cc)の方が高く、逆に偽色が発生していない画素位置では、第2の色度の方が高くなるという仮定の元、第1および第2の色度を比較し色度差が大きい場合は偽色であると判断し、第1の色度の合成比率を上げ、また、偽色が目立つ無彩色部分を重点的に第1の色度の合成比率を上げることで、偽色が出ていない部分の色度が信頼性の高い第2の色度になるように合成を行う。 As a visual characteristic, a second luminance having a high resolution (for example, luminance signal C in FIG. 9) is used for luminance, which is sensitive to luminance resolution and insensitive to chromaticity resolution. ' l ) is used as it is, and the chromaticity is synthesized. At the pixel position where the false color is generated, the reliability of the chromaticity is higher in the first chromaticity (for example, the chromaticity signal C c in FIG. 9), and conversely, the pixel position where the false color is not generated. Then, based on the assumption that the second chromaticity is higher, the first and second chromaticities are compared, and if the chromaticity difference is large, it is determined that the color is false, and the first chromaticity is synthesized. By increasing the ratio and increasing the composite ratio of the first chromaticity with emphasis on the achromatic part where the false color is conspicuous, the chromaticity of the part where the false color does not appear is highly reliable. The synthesis is performed so that
以上の処理により、例えば、G,Eについて、すべての水平ライン内にGまたはEが配置され、1つの水平ライン内にGが存在する場合、そのライン内にEが存在しないフィルタ配列を持つ単板カラー撮像素子によって間引きして撮像された色のモザイク画像より、偽色の発生は抑えられているが、解像度が低く、信頼性が低い、第1の全色の補間値と、偽色は発生しやすいが、解像度が高く、偽色が出ていない画素位置では色の信頼性が高い、第2の全色の補間値が得られる。この2つの全色の補間値を比較することにより、偽色の発生位置の判定を精度良く行うことが可能になる。 By the above processing, for example, for G and E, when G or E is arranged in all horizontal lines and G exists in one horizontal line, a single filter array having no E in that line is provided. The generation of false colors is suppressed from the mosaic image of the color picked up by the plate color image sensor, but the first color interpolated values and the false colors are low in resolution and low in reliability. Interpolated values of the second all colors, which are likely to occur but have high resolution and high color reliability at pixel positions where no false color appears, are obtained. By comparing the interpolation values of these two colors, it is possible to accurately determine the occurrence position of the false color.
また、2つの全色の補間値から得られる彩度と色度差に基づいて、第1の全色の補間値の特徴である偽色の少なさと第2の全色の補間値の特徴である解像度の高さと色の信頼性が高さを生かした、2つの全色の補間値の効果的な合成を行うことができ、もって、高品位な色成分の補間を可能にする。 Further, based on the saturation and chromaticity difference obtained from the interpolation values of the two all colors, there are a small number of false colors, which are the characteristics of the interpolation values of the first all colors, and the characteristics of the interpolation values of the second all colors. It is possible to effectively combine the interpolation values of all the two colors by taking advantage of the high resolution and high color reliability, thereby enabling high-quality color component interpolation.
この処理は、従来行われていた、発生した偽色を無彩色に近づける処理とは異なり、単に無彩色にするよりは真値に近い第1の全色の補間値を偽色抑制処理に用いることができるので、より自然な補間画像を得ることができる。 This process is different from the conventional process of making the generated false color close to an achromatic color, and the interpolation values of the first all colors closer to the true value are used for the false color suppression process than simply making the achromatic color. Therefore, a more natural interpolation image can be obtained.
なお、図18のステップS309において、重み係数wiの総和Wで、所定の値が除算されているが、重み係数wiを中心位置からの距離に応じて変化させ、その総和を2の累乗となるように定めることにより、重み係数wiの総和Wで、所定の値を除算する処理(画素数を用いた除算)に代って、シフト演算を用いるようにしてもよい。これにより、演算を簡略化することが可能となる。 In step S309 in FIG. 18, the predetermined value is divided by the sum W of the weighting factors wi. The weighting factor wi is changed according to the distance from the center position, and the sum is raised to a power of 2. Thus, a shift operation may be used instead of the process of dividing a predetermined value by the total sum W of the weighting factors wi (division using the number of pixels). This makes it possible to simplify the calculation.
また、本発明は、デジタルカメラを初めとする、固体撮像素子および固体撮像素子を利用した撮像装置(例えば、デジタルスチルカメラ)に適用することができる。具体的には、1つの固体撮像素子によってカラー画像を得る方式(単板カラー方式)の撮像装置に本発明を適用することによって、不明な色成分を推定することができる。 Further, the present invention can be applied to a solid-state image pickup device and an image pickup apparatus using the solid-state image pickup device (for example, a digital still camera) such as a digital camera. Specifically, an unknown color component can be estimated by applying the present invention to an imaging apparatus that obtains a color image with a single solid-state imaging device (single-plate color system).
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。 The series of processes described above can be executed by hardware, but can also be executed by software.
この場合、ソフトウェアをDSPブロック216が実行することにより、上述した機能が実現される。また、例えば、デモザイク処理部253は、図28に示されるようなパーソナルコンピュータ501により構成することが可能となる。
In this case, the above-described functions are realized by executing the software by the
図28において、CPU(Central Processing Unit)511は、ROM(Read Only Memory)512に記憶されているプログラム、または記憶部518からRAM(Random Access Memory)513にロードされたプログラムに従って、各種の処理を実行する。RAM513にはまた、CPU511が各種の処理を実行する上において必要なデータなども適宜記憶される。
In FIG. 28, a CPU (Central Processing Unit) 511 performs various processes according to a program stored in a ROM (Read Only Memory) 512 or a program loaded from a
CPU511、ROM512、およびRAM513は、バス514を介して相互に接続されている。このバス514にはまた、入出力インタフェース515も接続されている。
The
入出力インタフェース515には、キーボード、マウスなどよりなる入力部516、ディスプレイやスピーカなどよりなる出力部517、ハードディスクなどより構成される記憶部518、モデム、ターミナルアダプタなどより構成される通信部519が接続されている。通信部519は、インターネットを含むネットワークを介しての通信処理を行う。
The input /
入出力インタフェース515にはまた、必要に応じてドライブ520が接続され、磁気ディスク531、光ディスク532、光磁気ディスク533、もしくは、半導体メモリ534などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部518にインストールされる。
A
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェア(例えば、DSPブロック216や、その中に含まれている、デモザイク処理部253、G,E補間処理部262、G+E生成処理部263、全色補間処理部264、全色補間処理部265、または合成処理部266)に組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
When a series of processing is executed by software, a program that configures the software is dedicated hardware (for example, DSP block 216 and
この記録媒体は、図28に示されるように、装置本体とは別に、ユーザにプログラムを供給するために配布される、プログラムが記憶されている磁気ディスク531(フロッピディスクを含む)、光ディスク532(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク533(MO(Magnet Optical Disk)を含む)、もしくは半導体メモリ534などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに供給される、プログラムが記憶されているROM512や、記憶部518に含まれるハードディスクなどで構成される。
As shown in FIG. 28, this recording medium is distributed to supply a program to the user separately from the main body of the apparatus, and includes a magnetic disk 531 (including a floppy disk) on which the program is stored, an optical disk 532 ( CD-ROM (compact disk-read only memory), DVD (including digital versatile disk)), magneto-optical disk 533 (including MO (magnet optical disk)), or a package medium composed of
なお、本明細書において、記録媒体に記憶されるプログラムを記述するステップは、含む順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的もしくは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program stored in the recording medium is not limited to the processing performed in chronological order in the order in which they are included, but is not necessarily processed in chronological order, either in parallel or individually. The process to be executed is also included.
216 DSPブロック, 251 ホワイトバランス調整部, 253 デモザイク処理部, 261 局所領域抽出部, 262 G,E補間処理部, 263 G+E生成処理部, 264,265 全色補間処理部, 266 合成処理部, 301−1,301−2 色空間変換処理部, 302 彩度算出処理部, 303 ブレンド率算出処理部, 304 色度差算出処理部, 305 ブレンド処理部 216 DSP blocks, 251 white balance adjustment unit, 253 demosaic processing unit, 261 local region extraction unit, 262 G, E interpolation processing unit, 263 G + E generation processing unit, 264, 265 all color interpolation processing unit, 266 synthesis processing unit, 301 -1, 301-2 color space conversion processing unit, 302 saturation calculation processing unit, 303 blend rate calculation processing unit, 304 chromaticity difference calculation processing unit, 305 blend processing unit
Claims (6)
第1の色成分が第1の水平ラインに配置されるとともに、第2の色成分が第2の水平ラインに配置され、全ての水平ラインには、前記第1の色成分と前記第2の色成分のいずれかが配置され、前記第1の水平ラインにおいて、前記第1の水平ライン内の画素のみを用いて、前記第1の色成分がない画素における前記第1の色成分の補間値である第1の補間値を算出し、前記第2の水平ラインにおいて、前記第2の水平ライン内の画素のみを用いて、前記第2の色成分がない画素における前記第2の色成分の補間値である第2の補間値を算出する第1の補間値算出手段と、
前記モザイク画像の注目画素の近傍の画素における前記第1の補間値および第1の色成分、並びに、前記注目画素の近傍の画素における前記第2の補間値および前記第2の色成分に基づいて、前記注目画素における第1の全色の補間値を算出する第2の補間値算出手段と、
前記モザイク画像の画素値に基づいて、各画素における前記第1の色成分と前記第2の色成分からなる第3の色成分を生成する生成手段と、
前記注目画素の近傍の画素における前記第3の色成分と、前記注目画素の近傍の画素の画素値に基づいて、前記注目画素における第2の全色の補間値を算出する第3の補間値算出手段と、
前記第1の全色の補間値および前記第2の全色の補間値を合成して、第3の全色の補間値を算出する第4の補間値算出手段と
を備えることを特徴とする画像処理装置。 In an image processing device that generates a color image in which each pixel has a plurality of color components based on a mosaic image captured using a single-plate color image sensor,
The first color component is disposed on the first horizontal line, the second color component is disposed on the second horizontal line, and all the horizontal lines include the first color component and the second color component. Any one of the color components is arranged, and in the first horizontal line, only the pixels in the first horizontal line are used, and the interpolation value of the first color component in the pixel without the first color component The first interpolation value is calculated, and only the pixels in the second horizontal line are used in the second horizontal line, and the second color component in the pixel having no second color component is calculated. First interpolation value calculation means for calculating a second interpolation value that is an interpolation value;
Based on the first interpolation value and the first color component in a pixel in the vicinity of the target pixel of the mosaic image, and the second interpolation value and the second color component in a pixel in the vicinity of the target pixel. Second interpolation value calculation means for calculating interpolation values of all the first colors in the target pixel;
Generating means for generating a third color component composed of the first color component and the second color component in each pixel based on the pixel value of the mosaic image;
A third interpolation value for calculating an interpolated value of all the second colors in the target pixel based on the third color component in the pixel in the vicinity of the target pixel and the pixel value of the pixel in the vicinity of the target pixel; A calculation means;
4th interpolation value calculation means which synthesize | combines the interpolation value of said 1st all color and the interpolation value of said 2nd all color, and calculates the interpolation value of 3rd all color, It is characterized by the above-mentioned. Image processing device.
前記第1の全色の補間値に基づいて彩度を算出する彩度算出手段と、
前記第1の全色の補間値および前記第2の全色の補間値に基づいて、色度差を算出する色度差算出手段と、
前記彩度算出手段により算出された前記彩度と前記色度差算出手段により算出された前記色度差に基づいて、ブレンド率を算出するブレンド率算出手段と、
前記第1の全色の補間値および前記第2の全色の補間値を、前記ブレンド率を用いて合成する合成手段と
を備えることを特徴とする請求項1に記載の画像処理装置。 The fourth interpolation value calculation means includes:
Saturation calculating means for calculating saturation based on the interpolation values of the first all colors;
Chromaticity difference calculating means for calculating a chromaticity difference based on the interpolation values of the first all colors and the interpolation values of the second all colors;
A blend rate calculation unit that calculates a blend rate based on the saturation calculated by the saturation calculation unit and the chromaticity difference calculated by the chromaticity difference calculation unit;
The image processing apparatus according to claim 1, further comprising: a combining unit configured to combine the interpolation values of the first all colors and the interpolation values of the second all colors using the blend ratio.
ことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the first color component and the second color component have spectral sensitivity highly correlated with each other.
さらに備えることを特徴とする請求項1に記載の画像処理装置。 2. The image according to claim 1, further comprising an adjusting unit that adjusts a white balance with respect to pixels of the mosaic image before calculating the first interpolation value and the second interpolation value. 3. Processing equipment.
第1の色成分が第1の水平ラインに配置されるとともに、第2の色成分が第2の水平ラインに配置され、全ての水平ラインには、前記第1の色成分と前記第2の色成分のいずれかが配置され、前記第1の水平ラインにおいて、前記第1の水平ライン内の画素のみを用いて、前記第1の色成分がない画素における前記第1の色成分の補間値である第1の補間値を算出する第1の補間値算出ステップと、
前記第2の水平ラインにおいて、前記第2の水平ライン内の画素のみを用いて、前記第2の色成分がない画素における前記第2の色成分の補間値である第2の補間値を算出する第2の補間値算出ステップと、
前記モザイク画像の注目画素の近傍の画素における前記第1の補間値および第1の色成分、並びに、前記注目画素の近傍の画素における前記第2の補間値および前記第2の色成分に基づいて、前記注目画素における第1の全色の補間値を算出する第3の補間値算出ステップと、
前記モザイク画像の画素値に基づいて、各画素における前記第1の色成分と前記第2の色成分からなる第3の色成分を生成する生成ステップと、
前記注目画素の近傍の画素における前記第3の色成分と、前記注目画素の近傍の画素の画素値に基づいて、前記注目画素における第2の全色の補間値を算出する第4の補間値算出ステップと、
前記第1の全色の補間値および前記第2の全色の補間値を合成して、第3の全色の補間値を算出する第5の補間値算出ステップと
を含むことを特徴とする画像処理方法。 In an image processing method of an image processing apparatus that generates a color image in which each pixel has a plurality of color components based on a mosaic image captured using a single-plate color image sensor,
The first color component is disposed on the first horizontal line, the second color component is disposed on the second horizontal line, and all the horizontal lines include the first color component and the second color component. Any one of the color components is arranged, and in the first horizontal line, only the pixels in the first horizontal line are used, and the interpolation value of the first color component in the pixel without the first color component A first interpolation value calculating step for calculating a first interpolation value which is:
In the second horizontal line, only a pixel in the second horizontal line is used to calculate a second interpolation value that is an interpolation value of the second color component in a pixel having no second color component. A second interpolation value calculating step,
Based on the first interpolation value and the first color component in a pixel in the vicinity of the target pixel of the mosaic image, and the second interpolation value and the second color component in a pixel in the vicinity of the target pixel. A third interpolation value calculating step for calculating the interpolation values of all the first colors in the target pixel;
Generating a third color component composed of the first color component and the second color component in each pixel based on the pixel value of the mosaic image;
A fourth interpolation value for calculating an interpolated value of all the second colors in the target pixel based on the third color component in the pixel in the vicinity of the target pixel and the pixel value of the pixel in the vicinity of the target pixel; A calculation step;
And a fifth interpolation value calculating step of calculating an interpolation value of the third all color by combining the interpolation value of the first all color and the interpolation value of the second all color. Image processing method.
第1の色成分が第1の水平ラインに配置されるとともに、第2の色成分が第2の水平ラインに配置され、全ての水平ラインには、前記第1の色成分と前記第2の色成分のいずれかが配置され、前記第1の水平ラインにおいて、前記第1の水平ライン内の画素のみを用いて、前記第1の色成分がない画素における前記第1の色成分の補間値である第1の補間値を算出する第1の補間値算出ステップと、
前記第2の水平ラインにおいて、前記第2の水平ライン内の画素のみを用いて、前記第2の色成分がない画素における前記第2の色成分の補間値である第2の補間値を算出する第2の補間値算出ステップと、
前記モザイク画像の注目画素の近傍の画素における前記第1の補間値および第1の色成分、並びに、前記注目画素の近傍の画素における前記第2の補間値および前記第2の色成分に基づいて、前記注目画素における第1の全色の補間値を算出する第3の補間値算出ステップと、
前記モザイク画像の画素値に基づいて、各画素における前記第1の色成分と前記第2の色成分からなる第3の色成分を生成する生成ステップと、
前記注目画素の近傍の画素における前記第3の色成分と、前記注目画素の近傍の画素の画素値に基づいて、前記注目画素における第2の全色の補間値を算出する第4の補間値算出ステップと、
前記第1の全色の補間値および前記第2の全色の補間値を合成して、第3の全色の補間値を算出する第5の補間値算出ステップと
を含む処理をコンピュータに実行させることを特徴とするプログラム。 A program for generating a color image in which each pixel has a plurality of color components based on a mosaic image captured using a single-plate color image sensor,
The first color component is disposed on the first horizontal line, the second color component is disposed on the second horizontal line, and all the horizontal lines include the first color component and the second color component. Any one of the color components is arranged, and in the first horizontal line, only the pixels in the first horizontal line are used, and the interpolation value of the first color component in the pixel without the first color component A first interpolation value calculating step for calculating a first interpolation value which is:
In the second horizontal line, only a pixel in the second horizontal line is used to calculate a second interpolation value that is an interpolation value of the second color component in a pixel having no second color component. A second interpolation value calculating step,
Based on the first interpolation value and the first color component in a pixel in the vicinity of the target pixel of the mosaic image, and the second interpolation value and the second color component in a pixel in the vicinity of the target pixel. A third interpolation value calculating step for calculating the interpolation values of all the first colors in the target pixel;
Generating a third color component composed of the first color component and the second color component in each pixel based on the pixel value of the mosaic image;
A fourth interpolation value for calculating an interpolated value of all the second colors in the target pixel based on the third color component in the pixel in the vicinity of the target pixel and the pixel value of the pixel in the vicinity of the target pixel; A calculation step;
A fifth interpolation value calculating step of combining the interpolation values for the first all colors and the interpolation values for the second all colors to calculate the interpolation values for the third all colors is executed on a computer. A program characterized by letting
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003371537A JP4292950B2 (en) | 2003-10-31 | 2003-10-31 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003371537A JP4292950B2 (en) | 2003-10-31 | 2003-10-31 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005136765A JP2005136765A (en) | 2005-05-26 |
JP4292950B2 true JP4292950B2 (en) | 2009-07-08 |
Family
ID=34648158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003371537A Expired - Fee Related JP4292950B2 (en) | 2003-10-31 | 2003-10-31 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4292950B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4983093B2 (en) | 2006-05-15 | 2012-07-25 | ソニー株式会社 | Imaging apparatus and method |
JP5305992B2 (en) * | 2009-03-10 | 2013-10-02 | キヤノン株式会社 | Image processing apparatus and image processing method |
CN104025575B (en) | 2011-12-27 | 2015-11-25 | 富士胶片株式会社 | The control method of camera head and camera head |
WO2013100094A1 (en) * | 2011-12-27 | 2013-07-04 | 富士フイルム株式会社 | Imaging device, method for controlling imaging device, and control program |
JP6019964B2 (en) * | 2012-09-10 | 2016-11-02 | 株式会社リコー | Image processing apparatus, imaging apparatus equipped with the same, and image processing method |
-
2003
- 2003-10-31 JP JP2003371537A patent/JP4292950B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005136765A (en) | 2005-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4385282B2 (en) | Image processing apparatus and image processing method | |
USRE47062E1 (en) | Image processing apparatus and method for generating a restoration image | |
US7577315B2 (en) | Method and apparatus for processing image data of a color filter array | |
JP5183880B2 (en) | Color filter and image sensor | |
US9392241B2 (en) | Image processing apparatus and image processing method | |
KR101391161B1 (en) | Image processing device | |
TWI386049B (en) | A solid-state imaging device, and a device using the solid-state imaging device | |
US20070159542A1 (en) | Color filter array with neutral elements and color image formation | |
WO2006080220A1 (en) | Imaging device and imaging element | |
KR20090087811A (en) | Imaging device, image processing device, image processing method, program for image processing method, and recording medium having program for image processing method recorded thereon | |
US20060050956A1 (en) | Signal processing apparatus, signal processing method, and signal processing program | |
KR20130083464A (en) | Image processing apparatus and control method of the same | |
US8320714B2 (en) | Image processing apparatus, computer-readable recording medium for recording image processing program, and image processing method | |
JP2002209223A (en) | Image processing unit and method, and recording medium | |
JP2009290607A (en) | Imaging apparatus | |
JP2006033575A (en) | Signal processing device and method, and program | |
US7412092B2 (en) | Image processing apparatus, image processing method, and program | |
JP4292950B2 (en) | Image processing apparatus, image processing method, and program | |
WO2007082289A2 (en) | Color filter array with neutral elements and color image formation | |
JP4449696B2 (en) | Image processing apparatus, image processing method, and program | |
JP2005210218A (en) | Image processor, image processing method, and program | |
JP4285587B2 (en) | Image sensor | |
JP2010233241A (en) | Image processing apparatus, image processing method, program and recording medium | |
KR20070099238A (en) | Image sensor for expanding wide dynamic range and output bayer-pattern image | |
JP2010004472A (en) | Image conversion device, and electronic apparatus including the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061019 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090317 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090330 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130417 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |