JP2003196649A - Image processing device and image processing program - Google Patents

Image processing device and image processing program

Info

Publication number
JP2003196649A
JP2003196649A JP2001401713A JP2001401713A JP2003196649A JP 2003196649 A JP2003196649 A JP 2003196649A JP 2001401713 A JP2001401713 A JP 2001401713A JP 2001401713 A JP2001401713 A JP 2001401713A JP 2003196649 A JP2003196649 A JP 2003196649A
Authority
JP
Japan
Prior art keywords
coefficient
pattern
similarity
image processing
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001401713A
Other languages
Japanese (ja)
Inventor
Kenichi Ishiga
健一 石賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2001401713A priority Critical patent/JP2003196649A/en
Publication of JP2003196649A publication Critical patent/JP2003196649A/en
Pending legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing device capable of realizing highly- accurate heightening of image quality to a multi spectral image easily by hardware, and an image processing program for realizing the highly-accurate heightening of the image quality by a computer. <P>SOLUTION: A first direction coefficient pattern, a second direction coefficient pattern, a third direction coefficient pattern and a fourth direction coefficient pattern are recorded. A first coefficient pattern group comprising three or more kinds of coefficient patterns is generated by using the first direction coefficient pattern and the second direction coefficient pattern, and a second coefficient pattern group comprising three or more kinds of coefficient patterns is generated by using the third direction coefficient pattern and the fourth direction coefficient pattern. A third coefficient pattern group comprising nine or more kinds of coefficient patterns is generated by composing the first and the second coefficient pattern groups, and weighted addition of color information of the multi spectral image is performed by using one coefficient pattern in the third coefficient pattern group, to thereby generate a brightness component. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、複数の色で表さ
れ、かつ、所定の状態に配列された画素の各々に1つの
色情報が存在する多重スペクトル画像に対し、該多重ス
ペクトル画像よりも高画質な色成分を生成する画像処理
を行う画像処理装置と、該画像処理をコンピュータで実
現させるための画像処理プログラムとに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a multispectral image represented by a plurality of colors and having one color information for each pixel arranged in a predetermined state. The present invention relates to an image processing device that performs image processing that generates high-quality color components, and an image processing program that causes the computer to implement the image processing.

【0002】[0002]

【従来の技術】従来から、カラーの画像データの生成に
は、複数色のカラーフィルタが所定の位置に配置された
撮像素子が用いられているが、このような撮像素子によ
って生成される画像データは、画素の各々に1つの色成
分の色情報しか存在しない。そこで、このような画像デ
ータには、一般に、各画素に少なくとも1つの共通する
色成分の色情報を対応付けて高画質化を図るための画像
処理が施される。
2. Description of the Related Art Conventionally, an image pickup device in which color filters of a plurality of colors are arranged at predetermined positions has been used to generate color image data. Image data generated by such an image pickup device is used. Has only one color component of color information for each pixel. Therefore, such image data is generally subjected to image processing for assuring high image quality by associating each pixel with color information of at least one common color component.

【0003】例えば、米国特許第5,901,242号明
細書には、R,G,B(赤色、緑色、青色)の3色のカラ
ーフィルタが3:4:1の比で配列された撮像素子によ
って生成された画像データに対し、全ての画素にR,G,
Bの3つの色成分の色情報を対応付ける画像処理(所
謂、補間処理)の技術が開示されている。米国特許第
5,901,242号明細書に開示されている技術では、
各々の画素に欠落している色成分の色情報が算出されて
いるが、このような色情報の算出は、以下に示すような
範囲内に配置される色情報を所定の係数により加重加算
することによって実現されている。
For example, in US Pat. No. 5,901,242, image pickup in which three color filters of R, G, B (red, green, blue) are arranged at a ratio of 3: 4: 1. For the image data generated by the element, R, G,
A technique of image processing (so-called interpolation processing) that associates the color information of the three color components B is disclosed. In the technology disclosed in US Pat. No. 5,901,242,
Although the color information of the color component missing in each pixel is calculated, such color information is calculated by performing weighted addition of color information arranged within the range shown below by a predetermined coefficient. It is realized by

【0004】・緑色成分の色情報が存在する画素におい
て赤色成分の色情報を算出する場合:その画素を中心と
する9画素×9画素の範囲。 ・緑色成分の色情報が存在する画素において青色成分の
色情報を算出する場合:その画素を中心とする9画素×
7画素の範囲。 ・赤色成分の色情報が存在する画素において緑色成分の
色情報を算出する場合:その画素を中心とする11画素
×11画素ないし9画素×9画素の範囲。
When calculating the color information of the red component in a pixel having the color information of the green component: a range of 9 pixels × 9 pixels centered on the pixel. When calculating the color information of the blue component in the pixel having the color information of the green component: 9 pixels centered on the pixel x
A range of 7 pixels. When calculating the color information of the green component in the pixel having the color information of the red component: a range of 11 pixels × 11 pixels to 9 pixels × 9 pixels with the pixel as the center.

【0005】・赤色成分の色情報が存在する画素におい
て青色成分の色情報を算出する場合:その画素を中心と
する7画素×7画素ないし5画素×5画素の範囲。 ・青色成分の色情報が存在する画素において緑色成分の
色情報を算出する場合:その画素を中心とする9画素×
9画素の範囲。
When calculating the color information of the blue component in a pixel having the color information of the red component: a range of 7 pixels × 7 pixels to 5 pixels × 5 pixels with the pixel as the center. When calculating the color information of the green component in a pixel having the color information of the blue component: 9 pixels centered on that pixel x
A range of 9 pixels.

【0006】・青色成分の色情報が存在する画素におい
て赤色成分の色情報を算出する場合:その画素を中心と
する9画素×9画素の範囲。 上述したような範囲内に配列される色情報の加重加算
は、まず、予め決められた係数パターンを用いて行われ
る。例えば、赤色成分の色情報が存在する画素において
緑色成分の色情報を算出する際には、図26に示すよう
な係数パターンが画像全体に渡って用いられる。そし
て、このようにして生成された色情報の結果が悪けれ
ば、係数パターンが調整され、調整された係数パターン
をもう一度画像全体に適用して色情報が再度生成され、
その後、適当な色情報が生成されるまで、係数パターン
の調整と加重加算による色情報の算出し直しとが繰り返
し行われる。
When calculating the color information of the red component in a pixel having the color information of the blue component: a range of 9 pixels × 9 pixels centered on the pixel. The weighted addition of color information arranged in the range as described above is first performed using a predetermined coefficient pattern. For example, when calculating the color information of the green component in a pixel having the color information of the red component, a coefficient pattern as shown in FIG. 26 is used over the entire image. Then, if the result of the color information generated in this way is poor, the coefficient pattern is adjusted, and the adjusted coefficient pattern is applied to the entire image again to generate color information again,
After that, the adjustment of the coefficient pattern and the recalculation of the color information by the weighted addition are repeatedly performed until the appropriate color information is generated.

【0007】すなわち、米国特許第5,901,242号
明細書に開示されている技術では、各々の画素に欠落す
る色情報を生成する際に用いるべき加重加算の係数は、
試行錯誤による繰り返し処理によって決定されることに
なる。また、特開2000−78597号公報(米国特
許第6,075,889号明細書)には、R,G,Bの3色
のカラーフィルタがベイア配列された撮像素子によって
生成される画像データに対し、各々の画素に輝度値とク
ロミナンスの値とを生成する画像処理の技術が開示され
ている。
That is, in the technique disclosed in US Pat. No. 5,901,242, the weighted addition coefficient to be used when generating the color information missing in each pixel is
It will be decided by the iterative process by trial and error. Further, Japanese Patent Laid-Open No. 2000-78597 (US Pat. No. 6,075,889) describes that image data generated by an image pickup device in which color filters of three colors R, G, B are arranged in a Bayer array. On the other hand, an image processing technique for generating a luminance value and a chrominance value for each pixel is disclosed.

【0008】米国特許第5,901,242号明細書に開
示されている技術において、輝度値は、以下に示す処理
1ないし処理6を用いて生成され、クロミナンスの値
は、輝度値を参照して生成される。 《処理1》:「ぼかされた輝度値」の算出。 撮像素子によって生成された画像データから高周波成分
が取り除かれ、「ぼかされた輝度値」が算出される。
In the technique disclosed in US Pat. No. 5,901,242, the luminance value is generated by using the following processing 1 to processing 6, and the chrominance value refers to the luminance value. Generated. << Process 1 >>: Calculation of "blurred luminance value". The high-frequency component is removed from the image data generated by the image sensor, and the "blurred luminance value" is calculated.

【0009】《処理2》:「分類子」(類似度)の算
出。 「ぼかされた輝度値」に基づいて、水平方向、垂直方
向、斜め方向1、斜め方向2の類似度が算出される。
<< Process 2 >>: Calculation of "classifier" (similarity). Based on the “blurred brightness value”, the degrees of similarity in the horizontal direction, the vertical direction, the diagonal direction 1, and the diagonal direction 2 are calculated.

【0010】《処理3》:類似性の判定。 類似度に基づいて、類似性の強弱が判定される。このよ
うな類似性の判定結果により、各々の画素は、5つの類
似方向(水平方向、垂直方向、フラット、斜め方向1、
斜め方向2)の何れか1つに分類される。 《処理4》:輝度値の生成。
<< Process 3 >>: Judgment of similarity. The strength of similarity is determined based on the degree of similarity. According to the similarity determination result, each pixel has five similar directions (horizontal direction, vertical direction, flat, diagonal direction 1,
It is classified into any one of diagonal directions 2). << Process 4 >>: Generation of luminance value.

【0011】図27(a)ないし(e)に示す係数パタ
ーンのうち、類似方向に応じた係数パターンで加重加算
することによって、各々の画素に輝度値(「予報される
輝度値」に相当する)が生成される。 《処理5》:補正値の算出。 輝度値を補正するための「補正値」が、「ぼかされた輝
度値」を用いて水平方向、垂直方向、斜め方向1、斜め
方向2について算出される。
Of the coefficient patterns shown in FIGS. 27 (a) to 27 (e), the coefficient pattern corresponding to the similar direction is subjected to weighted addition to obtain a brightness value (corresponding to the "predicted brightness value") for each pixel. ) Is generated. << Process 5 >>: Calculation of correction value. A “correction value” for correcting the brightness value is calculated for the horizontal direction, the vertical direction, the oblique direction 1, and the oblique direction 2 using the “blurred brightness value”.

【0012】《処理6》:輝度値の補正。 輝度値が、各々の画素の類似方向分類結果に応じて、選
択的に補正値を用いて補正される。
<< Process 6 >>: Correction of luminance value. The brightness value is selectively corrected using the correction value in accordance with the similar direction classification result of each pixel.

【0013】[0013]

【発明が解決しようとする課題】以上説明したように、
米国特許第5,901,242号明細書に開示されている
技術によって、各画素にR,G,Bの3つの色成分の色情
報を対応付ける画像処理を実現する場合には、上述した
ような広範囲の色情報を加重加算するための非常に多く
の係数値を予め用意しておく必要がある。したがって、
ハードウエアによって実現する場合、複数ある係数パタ
ーンの各々に対して、広範囲の加重加算を実現するため
の機構を予め設けておく必要があり、回路規模が大きく
なってしまうという問題が発生する。
As described above,
In the case of implementing the image processing for associating the color information of the three color components of R, G, B with each pixel by the technique disclosed in US Pat. No. 5,901,242, as described above, It is necessary to prepare in advance a large number of coefficient values for weighted addition of a wide range of color information. Therefore,
When implemented by hardware, it is necessary to previously provide a mechanism for implementing weighted addition over a wide range for each of a plurality of coefficient patterns, which causes a problem that the circuit scale becomes large.

【0014】また、米国特許第5,901,242号明細
書に開示されている技術で、予め用意されている係数パ
ターンを試行錯誤による繰り返し処理によって調整する
場合、ハードウエアによる実現は不可能に近い。
In the technique disclosed in US Pat. No. 5,901,242, when adjusting a coefficient pattern prepared in advance by iterative processing by trial and error, it cannot be realized by hardware. near.

【0015】また、米国特許第5,901,242号明細
書に開示されている技術で用いられる係数パターンは、
画像全体に渡って固定されており、場所による方向類似
性が反映されないので、高画質化を精度良く実現できな
い可能性が高い。一方、特開2000−78597号公
報(米国特許第6,075,889号明細書)に開示され
た技術では、処理4において、図27(a)ないし
(e)の何れかの係数パターンによる加重加算によって
輝度値が生成されるが、赤色成分の色情報や青色成分の
色情報が存在する画素を着目すれば明らかなように、輝
度値は、2成分の色情報を用いて生成することを基本と
しており、特に彩色部では、輝度値の生成の対象となる
画素が変わる度に、生成される輝度値のRGBの比率が
激しく変動して、隣接する画素間であっても生成される
輝度値が滑らかに連結しない可能性が高い。
The coefficient pattern used in the technique disclosed in US Pat. No. 5,901,242 is
Since it is fixed over the entire image and the directional similarity depending on the location is not reflected, it is highly possible that high image quality cannot be realized with high accuracy. On the other hand, in the technique disclosed in Japanese Unexamined Patent Publication No. 2000-78597 (US Pat. No. 6,075,889), in the process 4, the weighting by the coefficient pattern of any one of FIGS. Although the luminance value is generated by the addition, it is clear that the luminance value is generated by using the two-component color information, as is clear from the observation of the pixel having the red component color information and the blue component color information. Basically, especially in the coloring part, the RGB ratio of the generated luminance values fluctuates drastically every time the pixel for which the luminance value is generated changes, and the luminance generated even between adjacent pixels. It is highly likely that the values will not connect smoothly.

【0016】また、輝度値に対する補正値の演算は、各
々の画素が分類された類似方向毎に切り換えられて行わ
れる。そのため、このような処理をハードウェアで実現
する場合には、事前に全ての方向に関する補正値を算出
しておく必要性があり、ハードウエアの回路規模が大き
くなってしまうという問題が発生する。また、処理2で
は、類似度が「ぼかされた輝度値」に基づいて算出され
ているので、細かな部分における解像性能が低下してお
り不正確である。
Further, the calculation of the correction value for the brightness value is performed by switching for each similar direction in which each pixel is classified. Therefore, when such processing is realized by hardware, it is necessary to calculate correction values for all directions in advance, which causes a problem that the circuit scale of hardware becomes large. Further, in the process 2, the similarity is calculated based on the “blurred luminance value”, and thus the resolution performance in a fine portion is deteriorated and is inaccurate.

【0017】以上のことを踏まえ、請求項1ないし請求
項36に記載の発明は、多重スペクトル画像に対する高
精度の高画質化をハードウエアによって容易に実現する
ことができる画像処理装置を提供することを目的とし、
請求項37ないし請求項39に記載の発明は、多重スペ
クトル画像に対する高画質化を高精度に行う画像処理を
コンピュータで実現させるための画像処理プログラムを
提供することを目的とする。
Based on the above, the inventions described in claims 1 to 36 provide an image processing apparatus capable of easily realizing high-quality high-quality image processing for a multispectral image by hardware. For the purpose of
It is an object of the present invention to provide an image processing program for causing a computer to implement image processing for highly accurately improving the image quality of a multispectral image.

【0018】[0018]

【課題を解決するための手段】請求項1に記載の画像処
理装置は、複数の色で表され、2次元正方格子状に配列
された画素の各々に1つの色情報が存在する多重スペク
トル画像に対し、該多重スペクトル画像の表色系とは異
なる表色系の輝度成分を生成する画像処理を行う画像処
理装置において、第1の方向に配列された色情報に対す
る加重加算の係数を示す第1方向係数パターンと、前記
第1の方向に直交する第2の方向に配列された色情報に
対する加重加算の係数を示す第2方向係数パターンと、
前記第1の方向および前記第2の方向とは異なる第3の
方向に配列された色情報に対する加重加算の係数を示す
第3方向係数パターンと、前記第3の方向に直交する第
4の方向に配列された色情報に対する加重加算の係数を
示す第4方向係数パターンとを記録する記録手段と、前
記第1方向係数パターンと前記第2方向係数パターンと
を用いて、少なくとも3種類の係数パターンから成る第
1の係数パターン群を生成する第1のパターン生成手段
と、前記第3方向係数パターンと前記第4方向係数パタ
ーンとを用いて、少なくとも3種類の係数パターンから
成る第2の係数パターン群を生成する第2のパターン生
成手段と、前記第1の係数パターン群と前記第2の係数
パターン群とを合成して、少なくとも9種類の係数パタ
ーンから成る第3の係数パターン群を生成する第3のパ
ターン生成手段と、前記第3の係数パターン群の何れか
1つの係数パターンを用いて、前記多重スペクトル画像
の色情報を加重加算し、輝度成分を生成する輝度成分生
成手段とを備えたことを特徴とする。
An image processing apparatus according to claim 1 is a multispectral image represented by a plurality of colors, in which one color information is present in each pixel arranged in a two-dimensional square lattice. On the other hand, in the image processing device that performs the image processing for generating the luminance component of the color system different from the color system of the multi-spectral image, the first coefficient indicating the weighted addition for the color information arranged in the first direction A unidirectional coefficient pattern, and a second directional coefficient pattern indicating a weighted addition coefficient for color information arranged in a second direction orthogonal to the first direction,
A third direction coefficient pattern indicating a weighted addition coefficient for color information arranged in a third direction different from the first direction and the second direction, and a fourth direction orthogonal to the third direction. Recording means for recording a fourth directional coefficient pattern indicating a coefficient for weighted addition for the color information arranged in the above, and at least three types of coefficient patterns using the first directional coefficient pattern and the second directional coefficient pattern. A second coefficient pattern composed of at least three types of coefficient patterns by using a first pattern generating means for generating a first coefficient pattern group consisting of, and the third direction coefficient pattern and the fourth direction coefficient pattern. A second pattern generating means for generating a group, the first coefficient pattern group and the second coefficient pattern group are combined to form a third pattern including at least nine types of coefficient patterns. Luminance that generates a luminance component by weighted addition of color information of the multispectral image using a third pattern generation unit that generates a coefficient pattern group and any one coefficient pattern of the third coefficient pattern group. And a component generating means.

【0019】請求項2に記載の画像処理装置は、請求項
1に記載の画像処理装置において、前記第1のパターン
生成手段は、前記第1方向係数パターンと前記第2方向
係数パターンとの2種類の係数パターンと、該2種類の
係数パターンを平均して得られる係数パターンとから成
る第1の係数パターン群を生成することを特徴とする。
請求項3に記載の画像処理装置は、請求項1に記載の画
像処理装置において、前記第2のパターン生成手段は、
前記第3方向係数パターンと前記第4方向係数パターン
との2種類の係数パターンと、該2種類の係数パターン
を平均して得られる係数パターンとから成る第2の係数
パターン群を生成することを特徴とする。
An image processing apparatus according to a second aspect is the image processing apparatus according to the first aspect, wherein the first pattern generating means has two of the first direction coefficient pattern and the second direction coefficient pattern. It is characterized in that a first coefficient pattern group consisting of a coefficient pattern of two kinds and a coefficient pattern obtained by averaging the two kinds of coefficient patterns is generated.
The image processing apparatus according to claim 3 is the image processing apparatus according to claim 1, wherein the second pattern generation means is
Generating a second coefficient pattern group consisting of two kinds of coefficient patterns, the third direction coefficient pattern and the fourth direction coefficient pattern, and a coefficient pattern obtained by averaging the two kinds of coefficient patterns. Characterize.

【0020】請求項4に記載の画像処理装置は、請求項
1に記載の画像処理装置において、前記第3のパターン
生成手段は、前記第1の係数パターン群を構成する少な
くとも3種類の係数パターンと、前記第2の係数パター
ン群を構成する少なくとも3種類の係数パターンとを、
組み合わせて平均することによって、前記少なくとも9
種類の係数パターンを生成することを特徴とする。
An image processing apparatus according to a fourth aspect is the image processing apparatus according to the first aspect, wherein the third pattern generating means comprises at least three types of coefficient patterns forming the first coefficient pattern group. And at least three types of coefficient patterns forming the second coefficient pattern group,
By averaging in combination, said at least 9
It is characterized in that it generates different types of coefficient patterns.

【0021】請求項5に記載の画像処理装置は、請求項
1に記載の画像処理装置において、前記第1の方向に関
する類似度と前記第2の方向に関する類似度とを算出
し、該類似度に基づいて、該第1の方向と該第2の方向
との間の類似性を少なくとも3段階で判定する第1の類
似性判定手段を備え、前記第1のパターン生成手段は、
前記第1の類似性判定手段によって判定され得る類似性
の違いに応じて、前記第1方向係数パターンと前記第2
方向係数パターンとを合成して、前記第1の係数パター
ン群を生成することを特徴とする。
According to a fifth aspect of the present invention, in the image processing apparatus according to the first aspect, the degree of similarity regarding the first direction and the degree of similarity regarding the second direction are calculated, and the degree of similarity is calculated. A first similarity determination means for determining the similarity between the first direction and the second direction in at least three stages based on
The first direction coefficient pattern and the second direction coefficient pattern are selected according to the difference in similarity that can be determined by the first similarity determination means.
It is characterized in that the first coefficient pattern group is generated by synthesizing with the direction coefficient pattern.

【0022】請求項6に記載の画像処理装置は、請求項
1に記載の画像処理装置において、前記第3の方向に関
する類似度と前記第4の方向に関する類似度とを算出
し、該類似度に基づいて、該第3の方向と該第4の方向
との間の類似性を少なくとも3段階で判定する第2の類
似性判定手段を備え、前記第2のパターン生成手段は、
前記第2の類似性判定手段によって判定され得る類似性
の違いに応じて、前記第3方向係数パターンと前記第4
方向係数パターンとを合成して、前記第2の係数パター
ン群を生成することを特徴とする。
According to a sixth aspect of the present invention, in the image processing apparatus according to the first aspect, the similarity regarding the third direction and the similarity regarding the fourth direction are calculated, and the similarity is calculated. A second similarity determining means for determining the similarity between the third direction and the fourth direction in at least three stages, wherein the second pattern generating means comprises:
The third direction coefficient pattern and the fourth direction coefficient pattern are generated according to the difference in similarity that can be determined by the second similarity determination means.
It is characterized in that the second coefficient pattern group is generated by synthesizing with the direction coefficient pattern.

【0023】請求項7に記載の画像処理装置は、請求項
1に記載の画像処理装置において、前記記録手段は、前
記多重スペクトル画像が第1ないし第3の色成分から成
る表色系で表され、かつ、第1の色成分の空間密度が第
2の色成分および第3の色成分の空間密度よりも高い場
合、前記第1方向係数パターンとして、前記第1の方向
に配列された第1の色成分の色情報を平均するための係
数パターンを記録し、前記第2方向係数パターンとし
て、前記第2の方向に配列された第1の色成分の色情報
を平均するための係数パターンを記録し、前記第3方向
係数パターンとして、前記第3の方向に配列された第2
および第3の色成分の色情報を加重平均するための係数
を記録し、前記第4方向係数パターンとして、前記第4
の方向に配列された第2および第3の色成分の色情報を
加重平均するための係数を記録することを特徴とする。
An image processing apparatus according to a seventh aspect is the image processing apparatus according to the first aspect, wherein the recording means displays the multi-spectral image in a color system including first to third color components. And the spatial density of the first color component is higher than the spatial densities of the second color component and the third color component, the first direction coefficient pattern is arranged in the first direction. A coefficient pattern for averaging color information of one color component is recorded, and as the second direction coefficient pattern, a coefficient pattern for averaging color information of the first color component arranged in the second direction. Is recorded, and second patterns arranged in the third direction are used as the third direction coefficient pattern.
And a coefficient for weighted averaging the color information of the third color component is recorded, and as the fourth direction coefficient pattern, the fourth direction coefficient pattern is recorded.
The coefficient for weighted averaging the color information of the second and third color components arranged in the direction is recorded.

【0024】請求項8に記載の画像処理装置は、請求項
1に記載の画像処理装置において、前記記録手段は、負
の値を含まない係数パターンを記録することを特徴とす
る。請求項9に記載の画像処理装置は、請求項1に記載
の画像処理装置において、前記輝度成分生成手段は、前
記多重スペクトル画像と同じ画素位置に輝度成分を生成
することを特徴とする。
An image processing apparatus according to an eighth aspect is the image processing apparatus according to the first aspect, wherein the recording means records a coefficient pattern containing no negative value. According to a ninth aspect of the present invention, in the image processing apparatus according to the first aspect, the luminance component generating means generates a luminance component at the same pixel position as the multispectral image.

【0025】請求項10に記載の画像処理装置は、請求
項1に記載の画像処理装置において、前記記録手段は、
前記第1の係数パターン群と前記第2の係数パターン群
との少なくとも一方を構成する係数パターンとして、前
記輝度成分生成対象画素位置の色情報に対応する加重加
算の係数が正の値を示す係数パターンを記録することを
特徴とする。
An image processing apparatus according to a tenth aspect is the image processing apparatus according to the first aspect, wherein the recording means is
As a coefficient pattern forming at least one of the first coefficient pattern group and the second coefficient pattern group, the coefficient of the weighted addition corresponding to the color information of the luminance component generation target pixel position is a coefficient showing a positive value. It is characterized by recording a pattern.

【0026】請求項11に記載の画像処理装置は、請求
項1に記載の画像処理装置において、前記記録手段は、
輝度成分生成対象画素を中心に前記多重スペクトル画像
の表色系を構成する全ての色成分の色情報が含まれる最
も狭い範囲内の色情報を加重加算するための係数パター
ンを記録することを特徴とする。請求項12に記載の画
像処理装置は、請求項1に記載の画像処理装置におい
て、前記輝度成分生成手段によって生成された輝度成分
に対し、固定フィルタによるエッジ強調処理を行う補正
手段を備えたことを特徴とする。
An image processing apparatus according to an eleventh aspect is the image processing apparatus according to the first aspect, wherein the recording means is
It is characterized by recording a coefficient pattern for weighted addition of color information in the narrowest range including color information of all color components constituting the color system of the multi-spectral image centered on a luminance component generation target pixel And The image processing apparatus according to claim 12 is the image processing apparatus according to claim 1, further comprising a correction unit that performs edge enhancement processing by a fixed filter on the luminance component generated by the luminance component generation unit. Is characterized by.

【0027】請求項13に記載の画像処理装置は、請求
項1に記載の画像処理装置において、前記多重スペクト
ル画像の色情報を用いて、色差成分を生成する色差成分
生成手段を備えたことを特徴とする。請求項14に記載
の画像処理装置は、請求項13に記載の画像処理装置に
おいて、前記色差成分生成手段は、少なくとも2方向に
関する類似度を算出して類似性を判定し、該類似性の判
定結果に基づいて色差成分を算出することを特徴とす
る。
An image processing apparatus according to a thirteenth aspect is the image processing apparatus according to the first aspect, further comprising color difference component generating means for generating a color difference component using the color information of the multispectral image. Characterize. The image processing apparatus according to claim 14 is the image processing apparatus according to claim 13, wherein the color difference component generation means calculates similarity in at least two directions to determine similarity, and determines the similarity. The color difference component is calculated based on the result.

【0028】請求項15に記載の画像処置装置は、請求
項14に記載の画像処理装置において、前記類似度は、
前記多重スペクトル画像の異なる色成分間の色情報で構
成される異色間類似度であることを特徴とする。請求項
16に記載の画像処理装置は、複数の色で表され、2次
元格子状に配列された画素の各々に1つの色情報が存在
する多重スペクトル画像に対し、該多重スペクトル画像
の表色系とは異なる表色系の輝度成分を生成する画像処
理を行う画像処理装置において、輝度成分生成対象画素
と該輝度成分生成対象画素に対して最も近い位置に配列
された最近接画素とを結ぶn1(n1≧2)個の方向の各
々に配列された色情報に対する加重加算の係数を示すn
1個の係数パターンと、前記輝度成分生成対象画素と該
輝度成分生成対象画素に対して前記最近接画素の次に近
い位置に配列された第2近接画素とを結ぶn2(n2
2)個の方向の各々に配列された色情報に対する加重加
算の係数を示すn2個の係数パターンとを記録する記録
手段と、前記n1個の係数パターンを用いて、m1(m1
>n1)個の係数パターンから成る第1の係数パターン
群を生成する第1のパターン生成手段と、前記n2個の
係数パターンを用いて、m2(m1>n2)個の係数パタ
ーンから成る第2の係数パターン群を生成する第2のパ
ターン生成手段と、前記第1の係数パターン群と前記第
2の係数パターン群とを合成して、L個(L>m1、か
つ、L>m2)の係数パターンから成る第3の係数パタ
ーン群を生成する第3のパターン生成手段と、前記第3
の係数パターン群の何れか1つの係数パターンを用い
て、前記多重スペクトル画像の色情報を加重加算し、前
記輝度成分を生成する輝度成分生成手段とを備えたこと
を特徴とする。
An image processing apparatus according to a fifteenth aspect is the image processing apparatus according to the fourteenth aspect, wherein the similarity is
It is characterized in that it is a similarity between different colors composed of color information between different color components of the multispectral image. The image processing apparatus according to claim 16, wherein a multispectral image represented by a plurality of colors and having one color information in each of the pixels arranged in a two-dimensional grid is used to represent the color of the multispectral image. In an image processing device that performs image processing for generating a luminance component of a color system different from the system, the luminance component generation target pixel is connected to the closest pixel arranged at a position closest to the luminance component generation target pixel. n indicating a coefficient of weighted addition for color information arranged in each of n 1 (n 1 ≧ 2) directions
And one coefficient pattern, the luminance component subject pixels and luminance components subject pixels connecting the second closest pixels arranged in a position closer to the next of the closest pixels for n 2 (n 2
2) recording means for recording the number of direction two n indicating the coefficients of the weighted addition for the color information arranged in each of the coefficient pattern, using the n 1 coefficients patterns, m 1 (m 1
M 2 (m 1 > n 2 ) coefficients using the first pattern generating means for generating a first coefficient pattern group composed of> n 1 ) coefficient patterns and the n 2 coefficient patterns. A second pattern generating means for generating a second coefficient pattern group including a pattern, the first coefficient pattern group and the second coefficient pattern group are combined to obtain L (L> m 1 , and , L> m 2 ) and a third pattern generating means for generating a third coefficient pattern group consisting of the coefficient patterns,
Luminance coefficient generating means for generating the luminance component by performing weighted addition of the color information of the multi-spectral image using any one of the coefficient pattern groups.

【0029】請求項17に記載の画像処理装置は、請求
項16に記載の画像処理装置において、前記第1のパタ
ーン生成手段は、前記n1個の係数パターンと、該n1
の係数パターンの間で平均して得られる少なくとも1つ
の係数パターンとから成る第1の係数パターン群を生成
することを特徴とする。
An image processing apparatus according to a seventeenth aspect is the image processing apparatus according to the sixteenth aspect, wherein the first pattern generating means includes the n 1 coefficient patterns and the n 1 coefficient patterns. It is characterized in that a first coefficient pattern group consisting of at least one coefficient pattern obtained by averaging between is generated.

【0030】請求項18に記載の画像処理装置は、請求
項16に記載の画像処理装置において、前記第2のパタ
ーン生成手段は、前記n2個の係数パターンと、該n2
の係数パターンの間で平均して得られる少なくとも1つ
の係数パターンとから成る第2の係数パターン群を生成
することを特徴とする。請求項19に記載の画像処理装
置は、請求項16に記載の画像処理装置において、前記
第3のパターン生成手段は、前記第1の係数パターン群
を構成するm1個の係数パターンと、前記第2の係数パ
ターン群を構成するm2個の係数パターンとを、組み合
わせて平均することによって、前記L個の係数パターン
として、m1×m2個の係数パターンを生成することを特
徴とする。
The image processing apparatus according to claim 18 is the image processing apparatus according to claim 16, wherein the second pattern generating means includes the n 2 coefficient patterns and the n 2 coefficient patterns. It is characterized in that a second coefficient pattern group consisting of at least one coefficient pattern obtained by averaging between is generated. The image processing device according to claim 19 is the image processing device according to claim 16, wherein the third pattern generation unit includes m 1 coefficient patterns that form the first coefficient pattern group, and It is characterized in that m 1 × m 2 coefficient patterns are generated as the L coefficient patterns by combining and averaging m 2 coefficient patterns forming the second coefficient pattern group. .

【0031】請求項20に記載の画像処理装置は、請求
項16に記載の画像処理装置において、前記第1のパタ
ーン生成手段は、前記輝度成分生成対象画素と前記最近
接画素とを結ぶn1個の方向間の類似性の違いに応じ
て、前記n1個の係数パターンを合成して、前記第1の
係数パターン群を生成することを特徴とする。請求項2
1に記載の画像処理装置は、請求項16に記載の画像処
理装置において、前記第2のパターン生成手段は、前記
輝度成分生成対象画素と前記第2近接画素とを結ぶn2
個の方向間の類似性の違いに応じて、前記n2個の係数
パターンを合成して、前記第2の係数パターン群を生成
することを特徴とする。
An image processing apparatus according to a twentieth aspect is the image processing apparatus according to the sixteenth aspect, wherein the first pattern generation means connects the luminance component generation target pixel and the closest pixel to n 1 The first coefficient pattern group is generated by synthesizing the n 1 coefficient patterns according to the difference in similarity between the respective directions. Claim 2
The image processing apparatus according to item 1 is the image processing apparatus according to claim 16, wherein the second pattern generation unit connects the luminance component generation target pixel and the second adjacent pixel to n 2
The second coefficient pattern group is generated by combining the n 2 coefficient patterns according to the difference in similarity between the two directions.

【0032】請求項22に記載の画像処理装置は、請求
項16に記載の画像処理装置において、前記記録手段
は、負の値を含まない係数パターンを記録することを特
徴とする。請求項23に記載の画像処理装置は、請求項
16に記載の画像処理装置において、前記輝度成分生成
手段は、前記多重スペクトル画像と同じ画素位置に輝度
成分を生成することを特徴とする。
An image processing apparatus according to a twenty-second aspect is the image processing apparatus according to the sixteenth aspect, wherein the recording means records a coefficient pattern containing no negative value. The image processing apparatus according to a twenty-third aspect is the image processing apparatus according to the sixteenth aspect, characterized in that the luminance component generating means generates a luminance component at the same pixel position as the multispectral image.

【0033】請求項24に記載の画像処理装置は、請求
項16に記載の画像処理装置において、前記記録手段
は、前記第1の係数パターン群と前記第2の係数パター
ン群との少なくとも一方を構成する係数パターンとし
て、前記輝度成分生成対象画素位置の色情報に対応する
加重加算の係数が正の値を示す係数パターンを記録する
ことを特徴とする。
An image processing apparatus according to a twenty-fourth aspect is the image processing apparatus according to the sixteenth aspect, wherein the recording means includes at least one of the first coefficient pattern group and the second coefficient pattern group. As a coefficient pattern to be configured, a coefficient pattern in which the weighted addition coefficient corresponding to the color information of the luminance component generation target pixel position has a positive value is recorded.

【0034】請求項25に記載の画像処理装置は、請求
項16に記載の画像処理装置において、前記記録手段
は、前記多重スペクトル画像が第1ないし第N(N≧
3)の色成分から成る表色系で表される場合、前記n1
個の係数パターンとして、少なくとも第1の色成分の色
情報を加重加算するための係数パターンを記録し、前記
2個の係数パターンとして、第2ないし第Nの色成分
の少なくとも一成分の色情報を加重加算するための係数
パターンを記録することを特徴とする。
The image processing apparatus according to claim 25
Item 16. The image processing apparatus according to Item 16, wherein the recording unit
Is the first to Nth (N ≧)
When represented by a color system consisting of the color components of 3), n1
At least the color of the first color component as the coefficient pattern
Record a coefficient pattern for weighted addition of information,
n 2The second to Nth color components as the coefficient patterns
Coefficient for weighted addition of color information of at least one component of
It is characterized by recording a pattern.

【0035】請求項26に記載の画像処理装置は、請求
項16に記載の画像処理装置において、前記輝度成分生
成手段によって生成された輝度成分に対し、固定フィル
タによるエッジ強調処理を行う補正手段を備えたことを
特徴とする。請求項27に記載の画像処理装置は、請求
項16に記載の画像処理装置において、前記多重スペク
トル画像の色情報を用いて、色差成分を生成する色差成
分生成手段を備えたことを特徴とする。
An image processing apparatus according to a twenty-sixth aspect is the image processing apparatus according to the sixteenth aspect, further comprising correction means for performing edge enhancement processing by a fixed filter on the luminance component generated by the luminance component generation means. It is characterized by having. An image processing apparatus according to a twenty-seventh aspect is the image processing apparatus according to the sixteenth aspect, further comprising color difference component generating means for generating a color difference component using color information of the multispectral image. .

【0036】請求項28に記載の画像処理装置は、請求
項27に記載の画像処理装置において、前記色差成分生
成手段は、少なくとも2方向に関する類似度を算出して
類似性を判定し、該類似性の判定結果に基づいて色差成
分を算出することを特徴とする。請求項29に記載の画
像処置装置は、請求項28に記載の画像処理装置におい
て、前記類似度は、前記多重スペクトル画像の異なる色
成分間の色情報で構成される異色間類似度であることを
特徴とする。
An image processing apparatus according to a twenty-eighth aspect is the image processing apparatus according to the twenty-seventh aspect, wherein the color difference component generating means calculates the degree of similarity in at least two directions to determine the similarity, and the similarity is calculated. It is characterized in that the color difference component is calculated based on the sex determination result. The image processing device according to claim 29 is the image processing device according to claim 28, wherein the similarity is a similarity between different colors configured by color information between different color components of the multispectral image. Is characterized by.

【0037】請求項30に記載の画像処理装置は、第1
〜第n(n≧2)の色成分で表され、2次元正方格子状
に配列された画素の各々に1つの色情報が存在する多重
スペクトル画像に対し、該多重スペクトル画像の表色系
とは異なる表色系の輝度成分を生成する画像処理を行う
画像処理装置において、前記多重スペクトル画像の色情
報を直接参照して、第1の方向に関する類似度と、前記
第1の方向に直交する第2の方向に関する類似度と、前
記第1の方向および前記第2の方向とは異なる第3の方
向に関する類似度と、前記第3の方向に直交する第4の
方向に関する類似度とを算出する類似度算出手段と、前
記第1の方向に配列された少なくとも第1色成分の色情
報に対する加重加算の係数を示す第1方向係数パターン
と、前記第2の方向に配列された少なくとも第1色成分
の色情報に対する加重加算の係数を示す第2方向係数パ
ターンと、前記第3の方向に配列された少なくとも第1
色成分以外の色情報に対する加重加算の係数を示す第3
方向係数パターンと、前記第4の方向に配列された少な
くとも第1色成分以外の色情報に対する加重加算の係数
を示す第4方向係数パターンとを記録する記録手段と、
前記類似度算出手段によって算出される類似度と前記記
録手段に記録されている係数パターンとを用いて輝度成
分を生成する輝度成分生成手段とを備えたことを特徴と
する。
An image processing apparatus according to claim 30 is the first
A multispectral image represented by an nth (n ≧ 2) color component and having one color information in each pixel arranged in a two-dimensional square lattice, In an image processing device that performs image processing for generating luminance components of different color systems, the color information of the multispectral image is directly referred to, and the degree of similarity in the first direction is orthogonal to the first direction. A similarity regarding a second direction, a similarity regarding a third direction different from the first direction and the second direction, and a similarity regarding a fourth direction orthogonal to the third direction are calculated. Similarity calculating means, a first direction coefficient pattern indicating a weighted addition coefficient for color information of at least a first color component arranged in the first direction, and at least a first direction coefficient pattern arranged in the second direction. For color information of color components A second direction coefficient pattern indicating the coefficients of the heavy addition, at least a first is arranged in the third direction 1
Third showing the coefficient of weighted addition for color information other than color components
Recording means for recording the directional coefficient pattern and a fourth directional coefficient pattern indicating a coefficient of weighted addition for color information other than at least the first color component arranged in the fourth direction;
It is characterized by further comprising: a luminance component generating means for generating a luminance component using the similarity calculated by the similarity calculating means and the coefficient pattern recorded in the recording means.

【0038】請求項31に記載の画像処理装置は、請求
項30に記載の画像処理装置において、前記第1方向係
数パターンと前記第2方向係数パターンとの少なくとも
1つの係数パターンと、前記第3方向係数パターンと前
記第4方向係数パターンとの少なくとも1つの係数パタ
ーンとを用いて、前記輝度成分を生成するための係数パ
ターンを合成する合成手段を備えたことを特徴とする。
An image processing apparatus according to a thirty-first aspect is the image processing apparatus according to the thirtieth aspect, wherein at least one coefficient pattern of the first directional coefficient pattern and the second directional coefficient pattern, and the third directional coefficient pattern. It is characterized by further comprising synthesizing means for synthesizing the coefficient pattern for generating the luminance component by using the directional coefficient pattern and at least one coefficient pattern of the fourth directional coefficient pattern.

【0039】請求項32に記載の画像処理装置は、請求
項30に記載の画像処理装置において、前記類似度算出
手段は、前記第1の方向に関する類似度と前記第2の方
向に関する類似度とを所定の色情報を用いて算出し、該
2つの類似度とは独立に、前記第3の方向に関する類似
度と前記第4の方向に関する類似度とを所定の色情報を
用いて算出することを特徴とする。
An image processing apparatus according to a thirty-second aspect is the image processing apparatus according to the thirtieth aspect, wherein the similarity calculation means calculates the similarity regarding the first direction and the similarity regarding the second direction. Using the predetermined color information, and independently of the two similarities, the similarity regarding the third direction and the similarity regarding the fourth direction are calculated using the predetermined color information. Is characterized by.

【0040】請求項33に記載の画像処理装置は、請求
項32に記載の画像処理装置において、前記類似度算出
手段は、前記第3の方向に関する類似度と前記第4の方
向に関する類似度とを算出する際、前記第3方向係数パ
ターンまたは前記第4方向係数パターンを構成する少な
くとも1つの色成分の色情報を用いることを特徴とす
る。
An image processing apparatus according to a thirty-third aspect is the image processing apparatus according to the thirty-second aspect, wherein the similarity calculation means calculates the similarity regarding the third direction and the similarity regarding the fourth direction. Is calculated, color information of at least one color component forming the third directional coefficient pattern or the fourth directional coefficient pattern is used.

【0041】請求項34に記載の画像処理装置は、請求
項30に記載の画像処理装置において、前記多重スペク
トル画像の色情報を用いて、色差成分を生成する色差成
分生成手段を備えたことを特徴とする。請求項35に記
載の画像処理装置は、請求項34に記載の画像処理装置
において、前記色差成分生成手段は、少なくとも2方向
に関する類似度を算出して類似性を判定し、該類似性の
判定結果に基づいて色差成分を算出することを特徴とす
る。
An image processing apparatus according to a thirty-fourth aspect is the image processing apparatus according to the thirtieth aspect, further comprising color difference component generating means for generating a color difference component using the color information of the multispectral image. Characterize. The image processing device according to claim 35 is the image processing device according to claim 34, in which the color difference component generation means calculates a degree of similarity in at least two directions to determine similarity, and determines the similarity. The color difference component is calculated based on the result.

【0042】請求項36に記載の画像処置装置は、請求
項35に記載の画像処理装置において、前記類似度は、
前記多重スペクトル画像の異なる色成分間の色情報で構
成される異色間類似度であることを特徴とする。請求項
37に記載の画像処理プログラムは、複数の色で表さ
れ、2次元正方格子状に配列された画素の各々に1つの
色情報が存在する多重スペクトル画像に対し、該多重ス
ペクトル画像の表色系とは異なる表色系の輝度成分を生
成する画像処理をコンピュータで実現させるための画像
処理プログラムにおいて、第1の方向に配列された色情
報に対する加重加算の係数を示す第1方向係数パターン
と、前記第1の方向に直交する第2の方向に配列された
色情報に対する加重加算の係数を示す第2方向係数パタ
ーンと、前記第1の方向および前記第2の方向とは異な
る第3の方向に配列された色情報に対する加重加算の係
数を示す第3方向係数パターンと、前記第3の方向に直
交する第4の方向に配列された色情報に対する加重加算
の係数を示す第4方向係数パターンとを記録する記録手
順と、前記第1方向係数パターンと前記第2方向係数パ
ターンとを用いて、少なくとも3種類の係数パターンか
ら成る第1の係数パターン群を生成する第1のパターン
生成手順と、前記第3方向係数パターンと前記第4方向
係数パターンとを用いて、少なくとも3種類の係数パタ
ーンから成る第2の係数パターン群を生成する第2のパ
ターン生成手順と、前記第1の係数パターン群と前記第
2の係数パターン群とを合成して、少なくとも9種類の
係数パターンから成る第3の係数パターン群を生成する
第3のパターン生成手順と、前記第3の係数パターン群
の何れか1つの係数パターンを用いて、前記多重スペク
トル画像の色情報を加重加算し、輝度成分を生成する輝
度成分生成手順とを備えたことを特徴とする。
An image processing apparatus according to a thirty-sixth aspect is the image processing apparatus according to the thirty-fifth aspect, wherein the similarity is
It is characterized in that it is a similarity between different colors composed of color information between different color components of the multispectral image. The image processing program according to claim 37, wherein the multispectral image is represented by a plurality of colors, and for each multispectral image in which one color information is present in each pixel arranged in a two-dimensional square lattice, the multispectral image table is displayed. In an image processing program for causing a computer to realize image processing for generating a luminance component of a color system different from the color system, a first direction coefficient pattern indicating a weighted addition coefficient for color information arranged in the first direction. And a second directional coefficient pattern indicating a weighted addition coefficient for color information arranged in a second direction orthogonal to the first direction, and a third directional coefficient pattern different from the first and second directions. Shows a third direction coefficient pattern indicating the weighted addition coefficient for the color information arranged in the direction and the weighted addition coefficient for the color information arranged in the fourth direction orthogonal to the third direction. A first procedure for generating a first coefficient pattern group including at least three types of coefficient patterns by using a recording procedure for recording a 4-direction coefficient pattern and the first direction coefficient pattern and the second direction coefficient pattern. A pattern generation procedure, a second pattern generation procedure for generating a second coefficient pattern group consisting of at least three types of coefficient patterns using the third direction coefficient pattern and the fourth direction coefficient pattern, A third pattern generation procedure for combining the first coefficient pattern group and the second coefficient pattern group to generate a third coefficient pattern group consisting of at least nine kinds of coefficient patterns; and the third coefficient pattern. A luminance component generation procedure for generating a luminance component by weighted addition of color information of the multispectral image using any one of the coefficient patterns of the group. And it features.

【0043】請求項38に記載の画像処理プログラム
は、複数の色で表され、2次元格子状に配列された画素
の各々に1つの色情報が存在する多重スペクトル画像に
対し、該多重スペクトル画像の表色系とは異なる表色系
の輝度成分を生成する画像処理をコンピュータで実現さ
せるための画像処理プログラムにおいて、輝度成分生成
対象画素と該輝度成分生成対象画素に対して最も近い位
置に配列された最近接画素とを結ぶn1(n1≧2)個の
方向の各々に配列された色情報に対する加重加算の係数
を示すn1個の係数パターンと、前記輝度成分生成対象
画素と該輝度成分生成対象画素に対して前記最近接画素
の次に近い位置に配列された第2近接画素とを結ぶn2
(n2≧2)個の方向の各々に配列された色情報に対す
る加重加算の係数を示すn2個の係数パターンとを記録
する記録手順と、前記n1個の係数パターンを用いて、
1(m1>n1)個の係数パターンから成る第1の係数
パターン群を生成する第1のパターン生成手順と、前記
2個の係数パターンを用いて、m2(m1>n2)個の係
数パターンから成る第2の係数パターン群を生成する第
2のパターン生成手順と、前記第1の係数パターン群と
前記第2の係数パターン群とを合成して、L個(L>m
1、かつ、L>m2)の係数パターンから成る第3の係数
パターン群を生成する第3のパターン生成手順と、前記
第3の係数パターン群の何れか1つの係数パターンを用
いて、前記多重スペクトル画像の色情報を加重加算し、
前記輝度成分を生成する輝度成分生成手順とを備えたこ
とを特徴とする。
According to a thirty-eighth aspect of the present invention, there is provided an image processing program, wherein a multispectral image represented by a plurality of colors and one color information is present in each pixel arranged in a two-dimensional lattice form is used. In an image processing program for causing a computer to realize image processing for generating a brightness component of a color system different from that of the color system, the brightness component generation target pixel and the array at the position closest to the brightness component generation target pixel n 1 (n 1 ≧ 2) pieces of direction and n 1 coefficients pattern indicating the coefficients of the weighted addition for the color information arranged in each said luminance component subject pixels and the line connecting the closest pixels which are N 2 connecting a second adjacent pixel arranged at a position next to the closest pixel to the luminance component generation target pixel
A recording procedure for recording n 2 coefficient patterns indicating weighted addition coefficients for color information arranged in each of (n 2 ≧ 2) directions, and using the n 1 coefficient patterns,
Using the first pattern generation procedure for generating a first coefficient pattern group consisting of m 1 (m 1 > n 1 ) coefficient patterns and the n 2 coefficient patterns, m 2 (m 1 > n 2 ) A second pattern generation procedure for generating a second coefficient pattern group consisting of a number of coefficient patterns and the first coefficient pattern group and the second coefficient pattern group are combined to obtain L (L > M
1 and L> m 2 ) A third pattern generation procedure for generating a third coefficient pattern group consisting of coefficient patterns, and using any one coefficient pattern of the third coefficient pattern group, Weighted addition of color information of multispectral image,
And a luminance component generation procedure for generating the luminance component.

【0044】請求項39に記載の画像処理プログラム
は、第1〜第n(n≧2)の色成分で表され、2次元正
方格子状に配列された画素の各々に1つの色情報が存在
する多重スペクトル画像に対し、該多重スペクトル画像
の表色系とは異なる表色系の輝度成分を生成する画像処
理をコンピュータで実現させるための画像処理プログラ
ムにおいて、前記多重スペクトル画像の色情報を直接参
照して、第1の方向に関する類似度と、前記第1の方向
に直交する第2の方向に関する類似度と、前記第1の方
向および前記第2の方向とは異なる第3の方向に関する
類似度と、前記第3の方向に直交する第4の方向に関す
る類似度とを算出する類似度算出手順と、前記第1の方
向に配列された少なくとも第1色成分の色情報に対する
加重加算の係数を示す第1方向係数パターンと、前記第
2の方向に配列された少なくとも第1色成分の色情報に
対する加重加算の係数を示す第2方向係数パターンと、
前記第3の方向に配列された少なくとも第1色成分以外
の色情報に対する加重加算の係数を示す第3方向係数パ
ターンと、前記第4の方向に配列された少なくとも第1
色成分以外の色情報に対する加重加算の係数を示す第4
方向係数パターンとを記録する記録手順と、前記類似度
算出手順によって算出される類似度と前記記録手順に記
録されている係数パターンとを用いて輝度成分を生成す
る輝度成分生成手順とを備えたことを特徴とする。
The image processing program according to a thirty-ninth aspect is represented by the first to nth (n ≧ 2) color components, and one color information exists in each of the pixels arranged in a two-dimensional square lattice. In the image processing program for causing the computer to realize the image processing for generating the luminance component of the color system different from the color system of the multi-spectral image, the color information of the multi-spectral image is directly For reference, a similarity regarding a first direction, a similarity regarding a second direction orthogonal to the first direction, and a similarity regarding a third direction different from the first direction and the second direction Degree and a similarity degree calculation procedure for calculating a similarity degree in a fourth direction orthogonal to the third direction, and a weighted addition coefficient for color information of at least the first color component arranged in the first direction. Shows A first direction coefficient pattern, the second direction coefficient pattern indicating the coefficients of the weighted addition for the at least color information of the first color component second are arranged in a direction,
A third direction coefficient pattern indicating a weighted addition coefficient for color information other than at least the first color component arranged in the third direction, and at least a first direction coefficient pattern arranged in the fourth direction;
Fourth showing a coefficient of weighted addition for color information other than color components
A recording procedure for recording the direction coefficient pattern and a luminance component generating procedure for generating a luminance component using the similarity calculated by the similarity calculating procedure and the coefficient pattern recorded in the recording procedure are provided. It is characterized by

【0045】[0045]

【発明の実施の形態】以下、図面に基づいて、本発明の
実施形態について詳細を説明する。第1の実施形態ない
し第6の実施形態は、本発明の画像処理装置に対応する
実施形態であり、第1の実施形態ないし第6の実施形態
では、本発明の画像処理装置が行う画像処理の機能を備
えた画像入力装置(例えば、電子カメラやスキャナな
ど)を用いて説明を行う。また、第7の実施形態は、本
発明の画像処理プログラムをPC(パーソナルコンピュ
ータ)によって実行して画像処理を実現する実施形態で
ある。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings. The first embodiment to the sixth embodiment are embodiments corresponding to the image processing apparatus of the present invention. In the first embodiment to the sixth embodiment, the image processing performed by the image processing apparatus of the present invention is performed. The description will be made using an image input device (for example, an electronic camera, a scanner, etc.) having the above function. The seventh embodiment is an embodiment in which the image processing program of the present invention is executed by a PC (personal computer) to realize image processing.

【0046】特に、第1の実施形態ないし第4の実施形
態では、画像入力装置におけるモノクロ画像を復元する
画像復元処理(輝度成分を生成する処理に相当する)に
よる高画質化について説明し、第5の実施形態および第
6の実施形態では、画像入力装置におけるカラー画像を
復元する画像復元処理(輝度成分および色差成分を生成
する処理に相当する)による高画質化について説明す
る。
In particular, in the first to fourth embodiments, image quality improvement by image restoration processing (corresponding to processing for generating a luminance component) for restoring a monochrome image in the image input apparatus will be described. In the fifth embodiment and the sixth embodiment, image quality improvement by an image restoration process (corresponding to a process of generating a luminance component and a color difference component) for restoring a color image in an image input device will be described.

【0047】図1は、画像入力装置の機能ブロック図で
ある。図1において、画像入力装置1は、撮像素子1
1、A/D変換部12、画像処理部13、制御部14、
メモリカード(カード状のリムーバブルメモリ)15と
のインタフェースを実現するメモリカード用インタフェ
ース部16および所定のケーブルや無線伝送路を介して
PC17等の外部装置とのインタフェースを実現する外
部インタフェース部18を備えている。
FIG. 1 is a functional block diagram of the image input device. In FIG. 1, the image input device 1 includes an image sensor 1
1, A / D conversion unit 12, image processing unit 13, control unit 14,
The memory card (card-shaped removable memory) 15 is provided with a memory card interface section 16 for realizing an interface and an external interface section 18 for realizing an interface with an external device such as a PC 17 via a predetermined cable or a wireless transmission path. ing.

【0048】撮像素子11の出力はA/D変換部12に
接続され、A/D変換部12の出力はバスに接続され
る。画像処理部13、制御部14、メモリカード用イン
タフェース部16および外部インタフェース部18は、
バスを介して相互に接続される。PC17には、ディス
プレイ19やプリンタ20等が接続されており、CD−
ROM21に記録されたアプリケーションプログラムが
予めインストールされているものとする。また、PC1
7は、不図示のCPU、メモリ、ハードディスクの他
に、メモリカード15とのインタフェースを実現するメ
モリカード用インタフェース部(図示省略)や所定のケ
ーブルや無線伝送路を介して画像入力装置1等の外部装
置とのインタフェースを実現する外部インタフェース部
(図示省略)を備えている。
The output of the image pickup device 11 is connected to the A / D converter 12, and the output of the A / D converter 12 is connected to the bus. The image processing unit 13, the control unit 14, the memory card interface unit 16 and the external interface unit 18 are
Connected to each other via a bus. A display 19, a printer 20, etc. are connected to the PC 17, and a CD-
It is assumed that the application program recorded in the ROM 21 is installed in advance. Also, PC1
Reference numeral 7 denotes a CPU, a memory, a hard disk (not shown), a memory card interface unit (not shown) that realizes an interface with the memory card 15, a predetermined cable or a wireless transmission path, and the like of the image input device 1. An external interface unit (not shown) that realizes an interface with an external device is provided.

【0049】図1のような構成の画像入力装置1におい
て、画像処理部13は、後述する画像処理をASIC
(application specific IC:特定用途向けIC)など
のハードウエアによって実現するものとする。また、画
像入力装置1において、撮像素子11には不図示の光学
系を介して光学像が結像する。撮像素子11は、その光
学像に対応する画像信号を生成する。その画像信号は、
A/D変換部12でディジタル化され、画像データとし
て、バスを介して画像処理部13に供給される。
In the image input device 1 having the configuration as shown in FIG. 1, the image processing unit 13 performs the image processing described later in ASIC.
It is realized by hardware such as (application specific IC). Further, in the image input device 1, an optical image is formed on the image sensor 11 via an optical system (not shown). The image sensor 11 generates an image signal corresponding to the optical image. The image signal is
The data is digitized by the A / D converter 12 and supplied as image data to the image processor 13 via the bus.

【0050】第1の実施形態ないし第5の実施形態の画
像入力装置1において、撮像素子11には、正方格子状
に配列された複数の画素が設けられ、各々の画素には、
ベイア配列されたR,G,Bのカラーフィルタが対応付け
られている。そのため、このような撮像素子11を介し
て画像処理部13に供給される画像データは、RGB表
色系で示され、各々の画素には、R,G,Bの何れか1つ
の色成分の色情報が存在することになる。以下、このよ
うな画像データを、「ベイア配列型画像データ」と称す
る。
In the image input device 1 of the first to fifth embodiments, the image pickup device 11 is provided with a plurality of pixels arranged in a square lattice, and each pixel is
The R, G, and B color filters arranged in a Bayer pattern are associated with each other. Therefore, the image data supplied to the image processing unit 13 via such an image pickup device 11 is represented by the RGB color system, and each pixel has one of R, G, and B color components. Color information will exist. Hereinafter, such image data will be referred to as “Bayer array image data”.

【0051】図2は、ベイア配列型画像データの色成分
の配列を示す図である。図2では、R、G、Bを用いて
色成分の種類を示し、座標[X,Y]の値を用いて各々の色
成分に対応する画素の位置を示している。以下では、ベ
イア配列におけるRのカラーフィルタが付いた画素位置
をR位置、Gのカラーフィルタが付いた画素位置をG位
置、Bのカラーフィルタが付いた画素位置をB位置と称
する。
FIG. 2 is a diagram showing an array of color components of the Bayer array type image data. In FIG. 2, the types of color components are shown using R, G, and B, and the position of the pixel corresponding to each color component is shown using the value of coordinates [X, Y]. Hereinafter, the pixel position with the R color filter in the Bayer array is referred to as the R position, the pixel position with the G color filter as the G position, and the pixel position with the B color filter as the B position.

【0052】特に、図2(a)は、R位置が処理対象画
素に対応する場合を示し、図2(b)は、B位置が処理
対象画素に対応する場合を示し、図2(c)は、G位置
が処理対象画素に対応する場合を示している。なお、後
述する演算式では、各々の画素における色情報を緑色成
分と他の色成分とで区別する場合、図2のR、BをZに
置き換えて、R位置またはB位置の色情報をZ[i,j]のよ
うに表現し、G位置の色情報をG[i,j]のように表現す
る。
In particular, FIG. 2A shows the case where the R position corresponds to the pixel to be processed, FIG. 2B shows the case where the B position corresponds to the pixel to be processed, and FIG. Shows the case where the G position corresponds to the pixel to be processed. In the arithmetic expression described later, when the color information in each pixel is distinguished between the green color component and the other color components, R and B in FIG. 2 are replaced with Z, and the color information at the R position or the B position is changed to Z. It is expressed as [i, j], and the color information at the G position is expressed as G [i, j].

【0053】また、第6の実施形態の画像入力装置1に
おいて、撮像素子11には、ハニカム形状に配列された
複数の画素が設けられ、各々の画素には、ベイア配列を
45度回転した状態に配置されたR,G,Bのカラーフィ
ルタが対応付けられている。このような撮像素子11を
介して画像処理部13に供給される画像データ(以下、
「ハニカム配列型画像データ」と称する)は、ベイア配
列型画像データと同様に、RGB表色系で示され、各々
の画素には、R,G,Bの何れか1つの色成分の色情報が
存在することになる。
In the image input device 1 of the sixth embodiment, the image pickup device 11 is provided with a plurality of pixels arranged in a honeycomb shape, and each pixel is in a state in which the Bayer array is rotated by 45 degrees. The color filters of R, G, and B arranged at are associated with each other. Image data supplied to the image processing unit 13 via the image sensor 11 (hereinafter,
“Honeycomb array type image data” is represented by the RGB color system like the Bayer array type image data, and each pixel has color information of any one of R, G, and B color components. Will exist.

【0054】画像処理部13は、ベイア配列型画像デー
タ(または、ハニカム配列型画像データ)に対し、後述
する画像復元処理を行う。画像処理部13による画像復
元処理が完了した画像データは、必要に応じて、不図示
の圧縮部により所定の圧縮処理が施され、メモリカード
用インタフェース部16を介してメモリカード15に記
録される。
The image processing unit 13 performs an image restoration process, which will be described later, on the Bayer array type image data (or the honeycomb array type image data). The image data that has been subjected to the image restoration processing by the image processing unit 13 is subjected to predetermined compression processing by a compression unit (not shown) as necessary, and is recorded in the memory card 15 via the memory card interface unit 16. .

【0055】なお、画像復元処理が完了した画像データ
は、圧縮処理を施さずにメモリカード15に記録した
り、PC17側のディスプレイ19やプリンタ20で採
用されている表色系に変換して、外部インタフェース部
18を介してPC17に供給しても良い。図3は、第1
の実施形態ないし第4の実施形態における画像処理部1
3内の画像復元処理の実現に係わる構成を示す図であ
る。
The image data for which the image restoration processing has been completed is recorded in the memory card 15 without being compressed, or converted into the color system adopted in the display 19 or printer 20 on the PC 17 side, It may be supplied to the PC 17 via the external interface unit 18. FIG. 3 shows the first
Image processing unit 1 in any one of the first to fourth embodiments
3 is a diagram showing a configuration related to implementation of image restoration processing in FIG.

【0056】図3において、画像処理部13は輝度成分
生成処理部100を備えており、輝度成分生成処理部1
00は、R/B位置輝度成分生成部110、G位置輝度
成分生成部120、輝度面補正部130を備えている。
R/B位置輝度成分生成部110は、縦横方向類似性判
定部111、斜め方向類似性判定部112、G成分生成
部113、Mg(マゼンダ)成分生成部114、縦横輝
度成分生成部115、斜め輝度成分生成部116、輝度
成分合成部117を備えている。
In FIG. 3, the image processing unit 13 includes a luminance component generation processing unit 100, and the luminance component generation processing unit 1
00 includes an R / B position brightness component generation unit 110, a G position brightness component generation unit 120, and a brightness plane correction unit 130.
The R / B position luminance component generation unit 110 includes a vertical / horizontal direction similarity determination unit 111, a diagonal direction similarity determination unit 112, a G component generation unit 113, a Mg (magenta) component generation unit 114, a vertical / horizontal luminance component generation unit 115, and an oblique direction. The brightness component generation unit 116 and the brightness component synthesis unit 117 are provided.

【0057】縦横方向類似性判定部111およびG成分
生成部113の出力は縦横輝度成分生成部115に接続
され、斜め方向類似性判定部112およびMg成分生成
部114の出力は斜め輝度成分生成部116に接続さ
れ、縦横輝度成分生成部115および斜め輝度成分生成
部116の出力は輝度成分合成部117に接続される。
輝度成分合成部117およびG位置輝度成分生成部12
0の出力は輝度面補正部130に接続される。
The outputs of the vertical / horizontal direction similarity determining section 111 and the G component generating section 113 are connected to the vertical / horizontal luminance component generating section 115, and the outputs of the diagonal direction similarity determining section 112 and the Mg component generating section 114 are the diagonal luminance component generating section. The output of the vertical / horizontal luminance component generating unit 115 and the diagonal luminance component generating unit 116 is connected to the luminance component synthesizing unit 117.
Luminance component synthesis unit 117 and G position luminance component generation unit 12
The output of 0 is connected to the luminance plane correction unit 130.

【0058】《第1の実施形態の説明》図4は、第1の
実施形態における輝度成分生成処理部100内の動作を
説明する図である。以下、第1の実施形態を説明する
が、以下では、図3および図4を参照して、輝度成分生
成処理部100内の各部によって実現されるベイア配列
型画像データに対するモノクロの画像復元処理を説明
し、他の処理の説明は省略する。
<< Explanation of First Embodiment >> FIG. 4 is a diagram for explaining the operation in the luminance component generation processing unit 100 in the first embodiment. Hereinafter, the first embodiment will be described. Hereinafter, referring to FIGS. 3 and 4, a monochrome image restoration process for the Bayer array image data realized by each unit in the luminance component generation processing unit 100 will be described. However, the description of other processes will be omitted.

【0059】まず、R/B位置輝度成分生成部110内
の各部の動作を説明する。《縦横方向類似性判定部11
1の説明》縦横方向類似性判定部111は、R位置もし
くはB位置の画素に対し、ベイア配列型画像データを参
照して縦方向の類似度Cvと横方向の類似度Chとを算出
し、算出した縦方向の類似度Cvと横方向の類似度Chとを
比較する。そして、縦横方向類似性判定部111は、そ
の比較結果に応じて、縦方向および横方向に対する類似
性(以下、「縦横類似性」と称する。)を3段階で判定
し、その判定結果を示す方向指標HVsを設定する。
First, the operation of each section in the R / B position luminance component generating section 110 will be described. << Longitudinal direction similarity determination unit 11
Description of 1 >> The vertical / horizontal direction similarity determination unit 111 calculates the vertical direction similarity Cv and the horizontal direction similarity Ch for the pixel at the R position or the B position by referring to the Bayer array image data, The calculated vertical similarity Cv is compared with the horizontal similarity Ch. Then, the vertical / horizontal direction similarity determination unit 111 determines the similarity in the vertical direction and the horizontal direction (hereinafter, referred to as “vertical / horizontal similarity”) in three stages according to the comparison result, and shows the determination result. Set the direction index HVs.

【0060】縦横方向類似性判定部111において、類
似度Cv,Chは任意に定義して良い。例えば、ベイア配列
型画像データやそれを加工して得られるデータなどを用
い、縦方向に配列される画素間の色情報の差分の絶対値
などによって縦方向の類似度Cvを算出し、横方向に配列
される画素間の色情報の差分の絶対値などによって横方
向の類似度Chを算出する。
In the vertical / horizontal direction similarity determining section 111, the degrees of similarity Cv and Ch may be arbitrarily defined. For example, using Bayer array image data or data obtained by processing the image data, the vertical similarity Cv is calculated by the absolute value of the difference in color information between pixels arranged in the vertical direction, and the horizontal similarity Cv is calculated. The similarity Ch in the horizontal direction is calculated by the absolute value of the difference in color information between the pixels arranged in.

【0061】処理対象画素の座標を[i,j]とし、縦方向
の類似度Cv[i,j]の値および横方向の類似度Ch[i,j]の値
が小さい程、各々の方向に対する類似性が強くなるよう
に定義した場合、方向指標HVs[i,j]は、以下のようにし
て設定することが可能である。すなわち、縦横方向類似
性判定部111は、閾値Th1について、 |Cv[i,j]-Ch[i,j]|≦Th1 ・・・条件1 が成り立つ場合、処理対象画素が縦横両方向に対して類
似性が同程度であると判断し、方向指標HVs[i,j]に
「0」を設定する。
When the coordinates of the pixel to be processed are [i, j], the smaller the value of the similarity Cv [i, j] in the vertical direction and the similarity Ch [i, j] in the horizontal direction, the smaller each direction. When the definition is made so that the similarity with respect to becomes strong, the direction index HVs [i, j] can be set as follows. That is, the vertical / horizontal similarity determination unit 111 determines that for the threshold value Th1, if | Cv [i, j] -Ch [i, j] | ≦ Th1 ... It is determined that the similarities are similar, and "0" is set to the direction index HVs [i, j].

【0062】また、縦横方向類似性判定部111は、条
件1が成り立たず、 Cv[i,j]<Ch[i,j] ・・・条件2 が成り立つ場合、処理対象画素が縦方向に対して類似性
が強いと判断し、方向指標HVs[i,j]に「1」を設定す
る。
If the condition 1 is not satisfied and the condition Cv [i, j] <Ch [i, j] ... Condition 2 is satisfied, the vertical / horizontal similarity determining unit 111 determines that the pixel to be processed is in the vertical direction. It is determined that the similarity is strong, and the direction index HVs [i, j] is set to "1".

【0063】さらに、縦横方向類似性判定部111は、
条件1および条件2が共に成り立たない場合、処理対象
画素が横方向に対して類似性が強いと判断し、方向指標
HVs[i,j]に「−1」を設定する。ここで、条件1は、縦
方向の類似度Cv[i,j]と横方向の類似度Ch[i,j]とが同程
度であるか否かを判定するための条件であり、閾値Th1
は、これらの2つの類似度の差異が微少である場合、ノ
イズの影響によって一方の類似性が強いと誤判定される
ことを避ける役割を果たす。そのため、ベイア配列型画
像データのノイズが多い場合、閾値Th1の値を高く設定
すれば、類似性の判定の精度を高めることが可能であ
る。
Further, the vertical / horizontal direction similarity determining section 111 is
If both Condition 1 and Condition 2 are not satisfied, it is determined that the processing target pixel has a strong similarity in the horizontal direction, and the direction index
Set "-1" to HVs [i, j]. Here, the condition 1 is a condition for determining whether or not the similarity Cv [i, j] in the vertical direction and the similarity Ch [i, j] in the horizontal direction are approximately the same, and the threshold Th1
Plays a role of avoiding erroneous determination that one of the two similarities is strong due to the influence of noise when the difference between these two similarities is small. Therefore, when there is a lot of noise in the Bayer array type image data, it is possible to improve the accuracy of the similarity determination by setting the value of the threshold Th1 high.

【0064】《斜め方向類似性判定部112の説明》斜
め方向類似性判定部112は、R位置もしくはB位置の
画素に対し、ベイア配列型画像データを参照して斜め4
5度方向の類似度C45と斜め135度方向の類似度C135
とを算出し、斜め45度方向の類似度C45と斜め135
度方向の類似度C135とを比較する。そして、斜め方向類
似性判定部112は、その比較結果に応じて、斜め45
度方向および斜め135度方向に対する類似性(以下、
「斜め類似性」と称する。)を3段階で判定し、その判
定結果を示す方向指標DNを設定する。
<< Explanation of Oblique Direction Similarity Determining Section 112 >> The oblique direction similarity determining section 112 refers to the Bayer array image data for the pixel at the R position or the B position, and calculates the diagonal 4
5 degree similarity C45 and diagonal 135 degree similarity C135
Is calculated, and the similarity C45 in the diagonal direction of 45 degrees and the diagonal degree of 135 are calculated.
The degree of similarity C135 is compared. Then, the diagonal direction similarity determination unit 112 determines whether the diagonal direction is 45 degrees depending on the comparison result.
Similarity to the degree direction and the diagonal 135 degree direction (hereinafter,
This is called "oblique similarity". ) Is determined in three steps, and the direction index DN indicating the determination result is set.

【0065】斜め方向類似性判定部112において、類
似度C45,C135は任意に定義して良い。例えば、ベイア配
列型画像データやそれを加工して得られるデータなどを
用い、斜め45度方向に配列される画素間の色情報の差
分の絶対値などによって斜め45度方向の類似度C45を
算出し、斜め135度方向に配列される画素間の色情報
の差分の絶対値などによって斜め135度方向の類似度
C135を算出する。
The degrees of similarity C45 and C135 may be arbitrarily defined in the diagonal direction similarity determining section 112. For example, using the Bayer array type image data or data obtained by processing the image data, the similarity C45 in the diagonal 45 degree direction is calculated by the absolute value of the difference in color information between pixels arranged in the diagonal 45 degree direction. However, the similarity in the diagonal 135 degree direction is determined by the absolute value of the difference in color information between pixels arranged in the diagonal 135 degree direction.
Calculate C135.

【0066】処理対象画素の座標を[i,j]とし、斜め4
5度方向の類似度C45[i,j]の値および斜め135度方向
の類似度C135[i,j]の値が小さい程、各々の方向に対す
る類似性が強くなるように定義した場合、方向指標DN
[i,j]は、以下のようにして設定することが可能であ
る。
The coordinates of the pixel to be processed are [i, j], and the diagonal angle is 4
If the values of the similarity C45 [i, j] in the 5 degree direction and the similarity C135 [i, j] in the diagonal 135 degree direction are smaller, the similarity in each direction becomes stronger. Indicator DN
[i, j] can be set as follows.

【0067】すなわち、斜め方向類似性判定部112
は、閾値Th2について、 |C45[i,j]-C135[i,j]|≦Th2 ・・・条件3 が成り立つ場合、処理対象画素が斜めの2方向に対して
類似性が同程度であると判断し、方向指標DN[i,j]に
「0」を設定する。また、斜め方向類似性判定部112
は、条件3が成り立たず、 C45[i,j]<C135[i,j] ・・・条件4 が成り立つ場合、処理対象画素が斜め45度方向に対し
て類似性が強いと判断し、方向指標DN[i,j]に「1」を
設定する。
That is, the diagonal direction similarity determination section 112.
For threshold Th2, | C45 [i, j] -C135 [i, j] | ≦ Th2 ... If Condition 3 is satisfied, the pixels to be processed have similar degrees of similarity in two diagonal directions. Therefore, the direction index DN [i, j] is set to "0". Also, the diagonal direction similarity determination unit 112
If condition 3 is not satisfied and C45 [i, j] <C135 [i, j] ... Condition 4 is satisfied, it is determined that the processing target pixel has a strong similarity in the diagonal 45 degree direction, and Set “1” to the indicator DN [i, j].

【0068】さらに、条件3および条件4が共に成り立
たない場合、処理対象画素が斜め135度方向に対して
類似性が強いと判断し、方向指標DN[i,j]に「−1」を
設定する。ここで、条件3における閾値Th2は、上述し
た条件1における閾値Th1と同様に、2つの類似度(斜
め45度方向の類似度C45[i,j]と斜め135度方向の類
似度C135[i,j])の差異が微少である場合、ノイズの影
響によって一方の類似性が強いと誤判定されることを避
ける役割を果たす。そのため、閾値Th2は、閾値Th1と同
程度の値に設定することが望ましい。
Further, when both the condition 3 and the condition 4 are not satisfied, it is judged that the pixel to be processed has a strong similarity in the oblique 135 degree direction, and "-1" is set to the direction index DN [i, j]. To do. Here, the threshold value Th2 in the condition 3 is similar to the threshold value Th1 in the above-described condition 1 and has two similarities (similarity C45 [i, j] in the oblique 45-degree direction and similarity C135 [i in the oblique 135-degree direction). , j]) is small, it plays a role of avoiding erroneous determination that one similarity is strong due to the influence of noise. Therefore, it is desirable that the threshold value Th2 be set to a value similar to the threshold value Th1.

【0069】《係数パターンの説明》ここで、R位置も
しくはB位置の画素に対して行うG成分生成部113お
よびMg成分生成部114の動作の説明を簡単にするた
め、G成分生成部113およびMg成分生成部114に
予め記録されている係数パターン(ベイア配列型画像デ
ータの色情報を加重加算するための係数パターン)につ
いて説明する。
<< Explanation of Coefficient Pattern >> Here, in order to simplify the description of the operations of the G component generating unit 113 and the Mg component generating unit 114 performed on the pixel at the R position or the B position, the G component generating unit 113 and A coefficient pattern (a coefficient pattern for weighted addition of the color information of the Bayer array image data) pre-recorded in the Mg component generation unit 114 will be described.

【0070】図5は、このような係数パターンを示す図
である。図5(a)は、処理対象画素の縦方向に配列さ
れた色情報に対する加重加算の係数を示す縦方向の係数
パターンを示し、図5(b)は、処理対象画素の横方向
に配列された色情報に対する加重加算の係数を示す横方
向の係数パターンを示し、図5(c)は、処理対象画素
の斜め45度方向に配列された色情報に対する加重加算
の係数を示す斜め45度方向の係数パターンを示し、図
5(d)は、処理対象画素の斜め135度方向に配列さ
れた色情報に対する加重加算の係数を示す斜め135度
方向の係数パターンを示している。
FIG. 5 is a diagram showing such a coefficient pattern. FIG. 5A shows a coefficient pattern in the vertical direction showing weighted addition coefficients for the color information arranged in the vertical direction of the processing target pixel, and FIG. 5B shows that the processing target pixel is arranged in the horizontal direction. 5C shows a horizontal coefficient pattern showing the weighted addition coefficient for the color information, and FIG. 5C shows a diagonal 45 degree direction showing the weighted addition coefficient for the color information arranged in the diagonal 45 degree direction of the processing target pixel. 5D shows the coefficient pattern of the diagonal 135 degree direction showing the coefficient of the weighted addition for the color information arranged in the diagonal 135 degree direction of the pixel to be processed.

【0071】図5(a)において、u1、u2は、「u1+u2
=1」、「u1≧0」、「u2≧0」を満たす定数であり、
通常は「u1≒u2」を満たす程度の値が設定される。図5
(b)において、v1、v2は、「v1+v2=1」、「v1
0」、「v2≧0」を満たす定数であり、通常は「v1
v2」を満たす程度の値が設定される。図5(c)におい
て、t1、t2は、「t1+t2=1」、「t1≧0」、「t2
0」を満たす定数であり、通常は「t1≒t2」を満たす程
度の値が設定される。図5(d)において、s1、s2は、
「s1+s2=1」、「s1≧0」、「s2≧0」を満たす定数
であり、通常は「s1≒s2」を満たす程度の値が設定され
る。
In FIG. 5A, u 1 and u 2 are “u 1 + u 2
= 1 ”,“ u 1 ≧ 0 ”,“ u 2 ≧ 0 ”,
Normally, the value is set to the extent that “u 1 ≈u 2 ” is satisfied. Figure 5
In (b), v 1 and v 2 are “v 1 + v 2 = 1” and “v 1
It is a constant that satisfies “0” and “v 2 ≧ 0”, and usually “v 1
v 2 "is set to a value that satisfies the above. In FIG. 5C, t 1 and t 2 are “t 1 + t 2 = 1”, “t 1 ≧ 0”, and “t 2 ≧”.
It is a constant that satisfies "0", and is normally set to a value that satisfies "t 1 ≈t 2 ". In FIG. 5D, s 1 and s 2 are
It is a constant that satisfies “s 1 + s 2 = 1”, “s 1 ≧ 0”, and “s 2 ≧ 0”, and usually a value that satisfies “s 1 ≈s 2 ” is set.

【0072】なお、縦方向の係数パターンは、図6
(a)に示すような縦方向に配列された緑色成分の色情
報を平均してG成分を生成する役割を担う。また、横方
向の係数パターンは、図6(b)に示すような横方向に
配列された緑色成分の色情報を平均してG成分を生成す
る役割を担う。また、斜め45度方向の係数パターン
は、R位置では図6(c)、B位置では図6(d)に示
すような斜め45度方向に配列された赤色成分および青
色成分の色情報を加重平均してMg(マゼンダ)成分を
生成する役割を担う。また、斜め135度方向の係数パ
ターンは、R位置では図6(e)、B位置では図6
(f)に示すような斜め135度方向に配列された赤色
成分および青色成分の色情報を加重平均してMg成分を
生成する役割を担う。
The coefficient pattern in the vertical direction is shown in FIG.
It plays a role of averaging color information of green components arranged in the vertical direction as shown in (a) to generate a G component. The coefficient pattern in the horizontal direction plays a role of averaging the color information of the green components arranged in the horizontal direction as shown in FIG. 6B to generate the G component. Further, the coefficient pattern in the oblique 45-degree direction is weighted with the color information of the red component and the blue component arranged in the oblique 45-degree direction as shown in FIG. 6C at the R position and FIG. 6D at the B position. It plays a role of generating Mg (magenta) component on average. Further, the coefficient pattern in the direction of oblique 135 degrees is as shown in FIG. 6E at the R position and as shown in FIG.
As shown in (f), it plays a role of generating a Mg component by performing weighted averaging on the color information of the red component and the blue component arranged in the oblique 135 degree direction.

【0073】《G成分生成部113の説明》G成分生成
部113は、R位置もしくはB位置の画素に対しベイア
配列型画像データを参照し、図5(a)に示すような縦
方向の係数パターンを用いて縦方向のG成分Gvを生成
し、図5(b)に示すような横方向の係数パターンを用
いて横方向のG成分Ghを生成する。
<< Explanation of G Component Generating Unit 113 >> The G component generating unit 113 refers to the Bayer array image data for the pixel at the R position or the B position, and the coefficient in the vertical direction as shown in FIG. The vertical G component Gv is generated using the pattern, and the horizontal G component Gh is generated using the horizontal coefficient pattern as shown in FIG.

【0074】すなわち、処理対象画素の座標を[i,j]と
する場合、縦方向のG成分Gv[i,j]と横方向のG成分Gh
[i,j]とは、図5(a)、(b)に示したu1、u2、v1、v
2を用いて、以下の式1および式2によって算出される
ことになる。 Gv[i,j]=u1・G[i,j-1]+u2・G[i,j+1] ・・・式1 Gh[i,j]=v1・G[i-1,j]+v2・G[i+1,j] ・・・式2 《Mg成分生成部114の説明》Mg成分生成部114
は、R位置もしくはB位置の画素に対しベイア配列型画
像データを参照し、図5(c)に示すような斜め45度
方向の係数パターンを用いて斜め45度方向のMg成分
Mg45を生成し、図5(d)に示すような斜め135度方
向の係数パターンを用いて斜め135度方向のMg成分
Mg135を生成する。
That is, when the coordinates of the pixel to be processed are [i, j], the vertical G component Gv [i, j] and the horizontal G component Gh
[i, j] means u 1 , u 2 , v 1 and v shown in FIGS.
It will be calculated by the following equations 1 and 2 using 2 . Gv [i, j] = u 1 · G [i, j-1] + u 2 · G [i, j + 1] ・ ・ ・ Equation 1 Gh [i, j] = v 1 · G [i-1 , j] + v 2 · G [i + 1, j] ... Equation 2 << Explanation of Mg component generation unit 114 >> Mg component generation unit 114
Refers to the Bayer array type image data for the pixel at the R position or the B position, and uses the coefficient pattern in the diagonal 45 degree direction as shown in FIG.
Generate Mg45 and use the coefficient pattern in the oblique 135 degree direction as shown in FIG.
Generates Mg135.

【0075】すなわち、処理対象画素の座標を[i,j]と
する場合、斜め45度方向のMg成分Mg45[i,j]と斜め
135度方向のMg成分Mg135[i,j]とは、図5(c)、
(d)に示したt1、t2、s1、s2を用いて、以下の式3お
よび式4によって算出されることになる。 Mg45[i,j]=(t1・Z[i-1,j+1]+Z[i,j]+t2・Z[i+1,j-1])/2・・・式3 Mg135[i,j]=(s1・Z[i-1,j-1]+Z[i,j]+s2・Z[i+1,j+1])/2・・・式4 《縦横輝度成分生成部115の説明》縦横輝度成分生成
部115は、G成分生成部113によって生成された縦
方向のG成分Gvと横方向のG成分Ghとを用い、上述した
縦横方向類似性判定部111によって設定された方向指
標HVsの値に応じて、縦横輝度成分YHVを生成する。
That is, when the coordinates of the pixel to be processed are [i, j], the Mg component Mg45 [i, j] in the 45 ° diagonal direction and the Mg component Mg135 [i, j] in the 135 ° diagonal direction are FIG. 5 (c),
Using t 1 , t 2 , s 1 , and s 2 shown in (d), they are calculated by the following equations 3 and 4. Mg45 [i, j] = (t 1 · Z [i-1, j + 1] + Z [i, j] + t 2 · Z [i + 1, j-1]) / 2 ... Equation 3 Mg135 [i, j] = (s 1 · Z [i-1, j-1] + Z [i, j] + s 2 · Z [i + 1, j + 1]) / 2 ... Equation 4 << Description of Vertical and Horizontal Luminance Component Generation Unit 115 >> The vertical and horizontal luminance component generation unit 115 uses the vertical direction G component Gv and the horizontal direction G component Gh generated by the G component generation unit 113, and the above-described vertical and horizontal direction similarity. The vertical / horizontal luminance component Y HV is generated according to the value of the direction index HVs set by the determination unit 111.

【0076】処理対象画素の座標を[i,j]とする場合、
縦横輝度成分YHV[i,j]は、以下の式5ないし式7の何れ
かによって算出する。 HVs[i,j]=1のとき:YHV[i,j]=Gv[i,j] ・・・式5 HVs[i,j]=0のとき:YHV[i,j]=(Gv[i,j]+Gh[i,j])/2 ・・・式6 HVs[i,j]=-1のとき:YHV[i,j]=Gh[i,j] ・・・式7 ここで、式5ないし式7を式1および式2によって展開
すると、縦横輝度成分YHVは、図7(a)に示すような
3種類の係数パターンの何れかを用いて生成されること
に相当する。
When the coordinates of the pixel to be processed are [i, j],
The vertical and horizontal luminance components Y HV [i, j] are calculated by any one of the following equations 5 to 7. When HVs [i, j] = 1: Y HV [i, j] = Gv [i, j] ... Equation 5 When HVs [i, j] = 0: Y HV [i, j] = ( Gv [i, j] + Gh [i, j]) / 2 ・ ・ ・ When Formula 6 HVs [i, j] =-1: Y HV [i, j] = Gh [i, j] ・ ・ ・Expression 7 Here, when Expressions 5 to 7 are expanded by Expressions 1 and 2, the vertical and horizontal luminance components Y HV are generated using any of the three types of coefficient patterns as shown in FIG. 7A. Equivalent to that.

【0077】なお、このような3種類の係数パターン
は、図5(a)に示した縦方向の係数パターンと、図5
(b)に示した横方向の係数パターンと、これらの係数
パターンを平均して得られる係数パターンに相当し、縦
方向の係数パターンと横方向の係数パターンとを、縦横
類似性の違いに応じて合成して生成された係数パターン
を表す。
It should be noted that such three types of coefficient patterns are different from the coefficient pattern in the vertical direction shown in FIG.
It corresponds to the coefficient pattern in the horizontal direction shown in (b) and the coefficient pattern obtained by averaging these coefficient patterns. The coefficient pattern in the vertical direction and the coefficient pattern in the horizontal direction are classified according to the difference in vertical and horizontal similarity. Represents a coefficient pattern generated by combining.

【0078】《斜め輝度成分生成部116の説明》斜め
輝度成分生成部116は、Mg成分生成部114によっ
て生成された斜め45度方向のMg成分Mg45と斜め13
5度方向のMg成分Mg135とを用い、上述した斜め方向
類似性判定部112によって設定された方向指標DNの値
に応じて、斜め輝度成分YDNを生成する。
<< Explanation of Oblique Luminance Component Generating Unit 116 >> The oblique luminance component generating unit 116 includes the Mg component Mg45 in the direction of 45 degrees obliquely generated by the Mg component generating unit 114 and the oblique component 13
The diagonal luminance component Y DN is generated according to the value of the direction index DN set by the diagonal direction similarity determination unit 112 described above using the Mg component Mg135 in the 5 ° direction.

【0079】処理対象画素の座標を[i,j]とする場合、
斜め輝度成分YDN[i,j]は、以下の式8ないし式10の何
れかによって算出する。 DN[i,j]=1のとき:YDN[i,j]=Mg45[i,j] ・・・式8 DN[i,j]=0のとき:YDN[i,j]=(Mg45[i,j]+Mg135[i,j])/2 ・・・式9 DN[i,j]=-1のとき:YDN[i,j]=Mg135[i,j] ・・・式10 ここで、式8ないし式10を式3および式4によって展
開すると、斜め輝度成分YDNは、図7(b)に示すよう
な3種類の係数パターンの何れかを用いて生成されるこ
とに相当する。
When the coordinates of the pixel to be processed are [i, j],
The diagonal luminance component Y DN [i, j] is calculated by any of the following formulas 8 to 10. When DN [i, j] = 1: Y DN [i, j] = Mg45 [i, j] Equation 8 When DN [i, j] = 0: Y DN [i, j] = ( Mg45 [i, j] + Mg135 [i, j]) / 2 ・ ・ ・ Equation 9 When DN [i, j] =-1: Y DN [i, j] = Mg135 [i, j] ・ ・ ・Expression 10 Here, when Expression 8 to Expression 10 are expanded by Expression 3 and Expression 4, the diagonal luminance component Y DN is generated using any of the three types of coefficient patterns as shown in FIG. 7B. Equivalent to that.

【0080】なお、このような3種類の係数パターン
は、図5(c)に示した斜め45度方向の係数パターン
と、図5(d)に示した斜め135度方向の係数パター
ンと、これらの係数パターンを平均して得られる係数パ
ターンに相当し、斜め45度方向の係数パターンと斜め
135度方向の係数パターンとを、斜め類似性の違いに
応じて合成して生成された係数パターンを表す。
Note that such three types of coefficient patterns include the coefficient pattern in the oblique 45-degree direction shown in FIG. 5C and the coefficient pattern in the oblique 135-degree direction shown in FIG. 5D. Corresponding to the coefficient pattern obtained by averaging, the coefficient pattern generated by synthesizing the coefficient pattern in the diagonal 45 degree direction and the coefficient pattern in the diagonal 135 degree direction according to the difference in diagonal similarity. Represent

【0081】《輝度成分合成部117の説明》輝度成分
合成部117は、縦横輝度成分YHVと斜め輝度成分YDN
を合成して、R/B位置の輝度成分Yを生成する。処理
対象画素の座標を[i,j]とする場合、R/B位置の輝度
成分Y[i,j]は、以下の式11によって算出する。
<< Description of Luminance Component Synthesizing Unit 117 >> The luminance component synthesizing unit 117 synthesizes the vertical and horizontal luminance components Y HV and the diagonal luminance components Y DN to generate the luminance component Y at the R / B position. When the coordinates of the pixel to be processed are [i, j], the luminance component Y [i, j] at the R / B position is calculated by the following Expression 11.

【0082】 Y[i,j]=(α・YHV[i,j]+β・YDN[i,j])/2 ・・・式11 ただし、式11において、α、βは、「α+β=1」、
「α≧0」、「β≧0」を満たす定数であり、αの値と
βの値との組み合わせとしては、以下のような組み合わ
せが挙げられる。 (α,β)=(1/3,2/3),(4/9,5/9),(5/11,6/11),(1/2,1/2),
(5/9,4/9),(3/5,2/5),(2/3,1/3) ここで、式11を、式5ないし式7と式8ないし式10
との組み合わせによって展開すると、R/B位置の輝度
成分Yは、図8に示すような9種類の係数パターンの何
れかを用いて、ベイア配列型画像データの色情報が加重
加算されて生成されることに相当する。
Y [i, j] = (α · Y HV [i, j] + β · Y DN [i, j]) / 2 Equation 11 However, in Equation 11, α and β are α + β = 1 ”,
These are constants that satisfy “α ≧ 0” and “β ≧ 0”, and examples of the combination of the value of α and the value of β include the following combinations. (α, β) = (1 / 3,2 / 3), (4 / 9,5 / 9), (5 / 11,6 / 11), (1 / 2,1 / 2),
(5 / 9,4 / 9), (3 / 5,2 / 5), (2 / 3,1 / 3) where Equation 11 is replaced by Equation 5 to Equation 7 and Equation 8 to Equation 10
When the combination is developed, the luminance component Y at the R / B position is generated by performing weighted addition of the color information of the Bayer array type image data using any of nine types of coefficient patterns as shown in FIG. It is equivalent to that.

【0083】図8において、(HVs,DN)の値は、縦横類似
性の判定結果と斜め類似性の判定結果との組み合わせを
示しており、処理対象画素における類似性の強さが以下
に示すような特徴を示すことを意味する。 (HVs,DN)=(1,1):縦および斜め45度方向の類似性が強
い。 (HVs,DN)=(1,0):縦方向の類似性が強い。
In FIG. 8, the value of (HVs, DN) indicates a combination of the vertical and horizontal similarity determination result and the diagonal similarity determination result, and the strength of the similarity in the pixel to be processed is shown below. It is meant to show such characteristics. (HVs, DN) = (1,1): Strong similarity in the vertical and diagonal 45 degree directions. (HVs, DN) = (1,0): Strong vertical similarity.

【0084】(HVs,DN)=(1,-1):縦および斜め135度方向
の類似性が強い。 (HVs,DN)=(0,1):斜め45度方向の類似性が強い。 (HVs,DN)=(0,0):全ての方向の類似性が強い、または、
全ての方向の類似性が弱い(類似性の強い方向が不明で
ある)。
(HVs, DN) = (1, -1): The similarity in the vertical and diagonal 135 degree directions is strong. (HVs, DN) = (0,1): Similarity is strong in the 45 ° diagonal direction. (HVs, DN) = (0,0): Strong similarity in all directions, or
Weak similarity in all directions (direction with strong similarity is unknown).

【0085】(HVs,DN)=(0,-1):斜め135度方向の類似性
が強い。 (HVs,DN)=(-1,1):横および斜め45度方向の類似性が強
い。 (HVs,DN)=(-1,0):横方向の類似性が強い。 (HVs,DN)=(-1,-1):横および斜め135度方向の類似性が強
い。 すなわち、図8に示すような9種類の係数パターンは、
処理対象画素における類似性の強さに対応付けられてい
ることになる。
(HVs, DN) = (0, -1): The similarity in the oblique 135 degree direction is strong. (HVs, DN) = (-1,1): Similar in the horizontal and diagonal 45 degree directions. (HVs, DN) = (-1,0): Strong horizontal similarity. (HVs, DN) = (-1, -1): Strong similarity in lateral and diagonal 135 degree directions. That is, the nine types of coefficient patterns as shown in FIG.
It is associated with the strength of similarity in the processing target pixel.

【0086】図9は、(HVs,DN)の値に対応する類似性の
強い方向を示す図である。図9に示すように、第1の実
施形態では、処理対象画素における類似性が9通りで判
定されることになり、各々の画素を5つの類似方向(水
平方向、垂直方向、フラット、斜め方向1、斜め方向
2)に分類していた特開2000−78597号公報
(米国特許第6,075,889号明細書)に開示された
技術と比べて、よりきめ細かで正確な類似性の判定が行
えることになるので、より周辺画素との連続性の高い輝
度面生成が可能となる。
FIG. 9 is a diagram showing the direction of strong similarity corresponding to the value of (HVs, DN). As shown in FIG. 9, in the first embodiment, the similarity in the processing target pixel is determined in nine ways, and each pixel is determined in five similar directions (horizontal direction, vertical direction, flat direction, diagonal direction). 1, the diagonal direction 2), the more detailed and accurate determination of the similarity can be made as compared with the technique disclosed in Japanese Patent Laid-Open No. 2000-78597 (US Pat. No. 6,075,889). Since it can be performed, it is possible to generate a luminance surface having high continuity with surrounding pixels.

【0087】なお、図8に示すような9種類の係数パタ
ーンは、図7(a)に示した縦横輝度成分YHVに係わる
3種類の係数パターン(縦方向の係数パターンと横方向
の係数パターンとを用いて生成された係数パターン)
と、図7(b)に示した斜め輝度成分YDNに係わる3種
類の係数パターン(斜め45度方向の係数パターンと斜
め135度方向の係数パターンとを用いて生成された係
数パターン)とを、組み合わせて平均して得られる係数
パターンで構成されている。
The nine types of coefficient patterns shown in FIG. 8 are the three types of coefficient patterns (vertical coefficient pattern and horizontal coefficient pattern) related to the vertical and horizontal luminance components Y HV shown in FIG. 7A. (The coefficient pattern generated using and)
And three types of coefficient patterns relating to the diagonal luminance component Y DN shown in FIG. 7B (coefficient patterns generated using a coefficient pattern in the diagonal 45 degree direction and a coefficient pattern in the diagonal 135 degree direction). , And a coefficient pattern obtained by averaging in combination.

【0088】すなわち、R/B位置輝度成分生成部11
0内のG成分生成部113、Mg成分生成部114、縦
横輝度成分生成部115、斜め輝度成分生成部116、
輝度成分合成部117によってR/B位置の輝度成分Y
が生成される過程では、予め記録されている4通りの係
数パターンから9通りの係数パターンが自動的に生成さ
れることになる。
That is, the R / B position luminance component generator 11
0 G component generator 113, Mg component generator 114, vertical and horizontal luminance component generator 115, diagonal luminance component generator 116,
The luminance component synthesizing unit 117 causes the luminance component Y at the R / B position.
In the process of generating, the 9 coefficient patterns are automatically generated from the 4 previously recorded coefficient patterns.

【0089】次に、G位置輝度成分生成部120の動作
を説明する。 《G位置輝度成分生成部120の説明》G位置輝度成分
生成部120は、ベイア配列型画像データを参照し、G
位置の画素に対し、輝度成分Yを生成する。処理対象画
素の座標を[i,j]とする場合、式11と同様のαおよび
βを用いると、G位置の輝度成分Y[i,j]は、以下の式1
2によって算出する。
Next, the operation of the G position luminance component generating section 120 will be described. << Description of G-Position Luminance Component Generation Unit 120 >> The G-position luminance component generation unit 120 refers to the Bayer array image data
A luminance component Y is generated for the pixel at the position. When the coordinates of the pixel to be processed are [i, j], the same α and β as in Expression 11 are used, the luminance component Y [i, j] at the G position is given by the following Expression 1
Calculated according to 2.

【0090】 Y[i,j]=α・G[i,j]+ (β/4)・(Z[i-1,j]+Z[i+1,j]+Z[i,j-1]+Z[i,j+1]) ・・・式12 なお、式12による演算は、図10に示すような1種類
の係数パターンを用いて、処理対象画素およびその周辺
画素の色情報を加重加算することに相当し、処理対象画
素におけるG成分と、周辺画素のみにおけるMg成分と
を合成していると捉えることもできる。
Y [i, j] = α · G [i, j] + (β / 4) · (Z [i-1, j] + Z [i + 1, j] + Z [i, j- 1] + Z [i, j + 1]) ... Expression 12 The calculation by Expression 12 uses the color information of the pixel to be processed and its surrounding pixels by using one type of coefficient pattern as shown in FIG. Can be regarded as combining the G component of the processing target pixel and the Mg component of only the peripheral pixels.

【0091】以上説明したようにして、R/B位置輝度
成分生成部110内の各部によって生成されたR/B位
置の輝度成分Yと、G位置輝度成分生成部120によっ
て生成されたG位置の輝度成分Yとを合わせると、ベイ
ア配列型画像データの各画素位置に輝度成分が対応付け
られた輝度面が生成されたことになる。このような輝度
面は、ベイア配列型画像データの各々の画素において数
多くの方向に対する類似性の強さを考慮しているため、
極めて滑らかに生成される。そのため、このような輝度
面の補正は、通常のエッジ強調と同様に固定フィルタに
よるフィルタリングによって実現することが可能であ
る。
As described above, the luminance component Y of the R / B position generated by each unit in the R / B position luminance component generation unit 110 and the G position generated by the G position luminance component generation unit 120 are calculated. When combined with the luminance component Y, it means that a luminance plane in which the luminance component is associated with each pixel position of the Bayer array image data is generated. Since such a luminance surface considers the strength of similarity in many directions in each pixel of the Bayer array type image data,
Generates very smoothly. Therefore, such correction of the luminance surface can be realized by filtering with a fixed filter as in the case of normal edge enhancement.

【0092】《輝度面補正部130の説明》輝度面補正
部130は、例えば、図11に示すような固定のバンド
パスフィルタを輝度面に掛けた結果を、元の輝度面に加
算することによって、エッジ強調処理を実現する。すな
わち、輝度面の補正は、以下の式13および式14の演
算によって実現されることになる。
<< Explanation of Luminance Surface Correction Unit 130 >> The luminance surface correction unit 130 adds the result obtained by applying a fixed bandpass filter as shown in FIG. 11 to the luminance surface to the original luminance surface, for example. , Realizes edge enhancement processing. That is, the correction of the luminance plane is realized by the calculation of the following Expressions 13 and 14.

【0093】 YH[i,j]=(8・Y[i,j]-(Y[i-1,j]+Y[i+1,j]+Y[i,j-1]+Y[i,j+1] +Y[i-1,j-1]+Y[i+1,j-1]+Y[i-1,j+1]+Y[i+1,j+1]))/16 ・・・式13 Y[i,j]=Y[i,j]+K・YH[i,j] ・・・式14 ただし、式14において、Kは、エッジ強調の強さを可
変するための係数であり、元の輝度面が正のみの値で構
成されているので、「1」以上の値をとることが好まし
い。
YH [i, j] = (8 · Y [i, j]-(Y [i-1, j] + Y [i + 1, j] + Y [i, j-1] + Y [ i, j + 1] + Y [i-1, j-1] + Y [i + 1, j-1] + Y [i-1, j + 1] + Y [i + 1, j + 1] )) / 16 ・ ・ ・ Equation 13 Y [i, j] = Y [i, j] + K · YH [i, j] ・ ・ ・ Equation 14 However, in Equation 14, K is the edge emphasis strength. Is a coefficient for changing the value, and since the original luminance surface is constituted by only positive values, it is preferable to take a value of "1" or more.

【0094】以上説明したように、第1の実施形態で
は、R/B位置の輝度成分Yの生成過程で、4通りの係
数パターンから9通りの係数パターンが生成されるの
で、予め9通りの係数パターンを記録しておく必要がな
く、輝度成分生成処理部100の回路構成を簡略化でき
る。また、第1の実施形態では、R/B位置の輝度成分
Yの生成に際し、ベイア配列型画像データを参照して4
通りの係数パターンを用いた加重加算を行ってしまえ
ば、加重加算によって得られた結果を平均するなどの簡
単な機構によって、9通りの係数パターンを生成するこ
とができる。そのため、9通りの係数パターンによる加
重加算を実現するための機構を予め設けておく場合に比
べて、輝度成分生成処理部100の回路構成の規模を小
さくすることができる。
As described above, in the first embodiment, nine coefficient patterns are generated from four coefficient patterns in the process of generating the luminance component Y at the R / B position, so that nine coefficient patterns are generated in advance. It is not necessary to record the coefficient pattern, and the circuit configuration of the luminance component generation processing unit 100 can be simplified. Further, in the first embodiment, the luminance component at the R / B position
When generating Y, refer to the Bayer array image data 4
If the weighted addition is performed using the different coefficient patterns, nine kinds of coefficient patterns can be generated by a simple mechanism such as averaging the results obtained by the weighted addition. Therefore, it is possible to reduce the scale of the circuit configuration of the luminance component generation processing unit 100 as compared with the case where a mechanism for realizing weighted addition by nine types of coefficient patterns is provided in advance.

【0095】また、第1の実施形態では、各画素位置の
類似性の違いに応じて、予め記録されている係数パター
ンが合成されて新たな係数パターンが生成される。その
ため、局所的な類似性の違いに応じて輝度成分を生成す
る際に用いられる係数パターンが自動的に切り換えられ
ることになり、精度良く輝度成分を生成することができ
る。また、輝度成分を生成する際に用いるべき最適な係
数パターンが、類似性の違いに応じて即座に決められる
ことにもなり、米国特許第5,901,242号明細書に
開示されている技術で行われていたような試行錯誤によ
る繰り返し処理が不要である。
Further, in the first embodiment, the coefficient patterns recorded in advance are combined to generate a new coefficient pattern in accordance with the difference in similarity between the pixel positions. Therefore, the coefficient pattern used when generating the luminance component is automatically switched according to the difference in local similarity, and the luminance component can be accurately generated. Also, the optimum coefficient pattern to be used when generating the luminance component can be immediately determined according to the difference in similarity, and the technique disclosed in US Pat. No. 5,901,242 is disclosed. It is not necessary to carry out repeated processing by trial and error as performed in.

【0096】また、上述した係数パターン自動合成の他
に、以下に挙げるいくつかの効果も付随して得られる。
例えば、第1の実施形態では、図6(a)、(b)に示
すように、縦方向の係数パターンとして縦方向に配列さ
れた緑色成分の色情報を平均するための係数パターンが
記録され、横方向の係数パターンとして横方向に配列さ
れた緑色成分の色情報を平均するための係数パターンが
記録されている。また、図6(c)ないし(f)に示す
ように、斜め45度方向の係数パターンとして斜め45
度方向に配列された赤色成分および青色成分の色情報を
加重平均するための係数パターンが記録され、斜め13
5度方向の係数パターンとして斜め135度方向に配列
された赤色成分および青色成分の色情報を加重平均する
ための係数パターンが記録されている。そのため、この
ように記録されている4通りの係数パターンから生成さ
れる9通りの係数パターンは、3色の色情報を加重平均
している。また、図10に示す係数パターンも、同じ比
率で3色の色情報を加重平均している。
In addition to the above-described coefficient pattern automatic composition, the following several effects can be obtained together.
For example, in the first embodiment, as shown in FIGS. 6A and 6B, a coefficient pattern for averaging color information of green components arranged in the vertical direction is recorded as the coefficient pattern in the vertical direction. As a horizontal coefficient pattern, a coefficient pattern for averaging color information of green components arranged in the horizontal direction is recorded. Further, as shown in FIGS. 6C to 6F, the coefficient pattern in the diagonal 45 degree direction is diagonal 45 degrees.
A coefficient pattern for weighted averaging the color information of the red and blue components arranged in the degree direction is recorded.
A coefficient pattern for weighted averaging the color information of the red component and the blue component arranged in the direction of 135 degrees diagonally is recorded as the coefficient pattern of the 5 degree direction. Therefore, the nine coefficient patterns generated from the four coefficient patterns recorded in this way are weighted average of the color information of the three colors. In the coefficient pattern shown in FIG. 10, the color information of the three colors is weighted and averaged at the same ratio.

【0097】したがって、第1の実施形態によれば、R
/B位置の輝度成分YおよびG位置の輝度成分Yを、R,
G,B3色の色情報を一定の比率で用いて生成すること
ができる。そのため、特開2000−78597号公報
(米国特許第6,075,889号明細書)に開示された
技術によって発生する可能性が高かった彩色部における
輝度値のRGBの比率の変動を抑制することができ、隣
接する画素間で滑らかに連結する輝度成分を生成するこ
とができる。
Therefore, according to the first embodiment, R
The luminance component Y at the / B position and the luminance component Y at the G position are
It can be generated by using color information of three colors of G and B at a constant ratio. Therefore, it is possible to suppress the variation in the RGB ratio of the luminance value in the colored portion, which is likely to occur due to the technique disclosed in Japanese Patent Laid-Open No. 2000-78597 (US Pat. No. 6,075,889). Therefore, it is possible to generate a luminance component that is smoothly connected between adjacent pixels.

【0098】また、第1の実施形態において、4通りの
係数パターンは、図5(a)ないし(d)に示すよう
に、R,G,B3色の色成分の色情報が配列された最も狭
い範囲(3画素×3画素)に含まれる色情報を加重加算
するように設定された負の値を含まない係数パターンで
あり、上述したようにR,G,B3色の色情報を用いた輝
度成分の生成を実現するための9通りの係数パターンを
生成することができるばかりでなく、輝度成分生成処理
部100の回路構成の規模の縮小化にも寄与している。
Further, in the first embodiment, the four types of coefficient patterns are the most arranged color information of the color components of R, G, and B colors as shown in FIGS. 5A to 5D. It is a coefficient pattern that does not include a negative value and is set so as to perform weighted addition of color information included in a narrow range (3 pixels × 3 pixels), and uses color information of R, G, and B colors as described above. Not only is it possible to generate nine types of coefficient patterns for realizing the generation of the luminance component, but it also contributes to the reduction in the scale of the circuit configuration of the luminance component generation processing unit 100.

【0099】また、第1の実施形態では、図5(c)、
(d)に示すように、斜め45度方向の係数パターンお
よび斜め135度方向の係数パターンにおいて、処理対
象画素の色情報に対応する加重加算の係数が「1」を示
す。そのため、このような係数パターンを含む4通りの
係数パターンから生成される9通りの係数パターンによ
れば、処理対象画素の色情報が反映されたジャギーのな
い輝度成分を生成することができる。
Further, in the first embodiment, as shown in FIG.
As shown in (d), the coefficient of weighted addition corresponding to the color information of the pixel to be processed indicates "1" in the coefficient pattern in the diagonal 45-degree direction and the coefficient pattern in the diagonal 135-degree direction. Therefore, according to nine kinds of coefficient patterns generated from four kinds of coefficient patterns including such a coefficient pattern, it is possible to generate a jaggies-free luminance component in which the color information of the pixel to be processed is reflected.

【0100】また、第1の実施形態では、輝度面の補正
を、各々の画素における類似性の強弱に関係なく、固定
のバンドパスフィルタによるエッジ強調処理によって実
現することができる。そのため、各々の画素位置で補正
の仕方を切り換える必要がなく、輝度成分生成処理部1
00の回路構成が複雑化することがない。また、輝度面
の補正値を輝度面自身から抽出できるため、特開200
0−78597号公報(米国特許第6,075,889号
明細書)に開示された技術と異なり、補正に必要な複数
の項を予め算出して、そのデータを保持し続ける必要が
ない。
Further, in the first embodiment, the correction of the luminance plane can be realized by the edge emphasis processing by the fixed band pass filter regardless of the strength of the similarity in each pixel. Therefore, it is not necessary to switch the correction method at each pixel position, and the luminance component generation processing unit 1
The circuit configuration of 00 does not become complicated. Further, since the correction value for the luminance plane can be extracted from the luminance plane itself, the method disclosed in Japanese Patent Laid-Open No.
Unlike the technique disclosed in 0-78597 (U.S. Pat. No. 6,075,889), it is not necessary to pre-calculate a plurality of terms necessary for correction and keep the data.

【0101】また、第1の実施形態において、ベイア配
列型画像データの参照は、縦横方向類似性判定部11
1、斜め方向類似性判定部112、G成分生成部11
3、Mg成分生成部114、G位置輝度成分生成部12
0のみで行われ、縦横輝度成分生成部115、斜め輝度
成分生成部116、輝度成分合成部117、輝度面補正
部130では不要である。そのため、第1の実施形態で
は、縦横方向類似性判定部111、斜め方向類似性判定
部112、G成分生成部113、Mg成分生成部11
4、G位置輝度成分生成部120による動作が完了した
時点で、ベイア配列型画像データを解放することができ
る。特に、第1の実施形態では、これらの各部は、ハー
ドウエアによって実現されるので、互いに独立して並行
に動作させることができるため、ベイア配列型画像デー
タを保持する時間を更に短縮することが可能であり、ベ
イア配列型画像データの解放を速やかに行うことができ
る。
In the first embodiment, the Bayer array image data is referred to in the vertical / horizontal direction similarity determination section 11.
1, diagonal direction similarity determination unit 112, G component generation unit 11
3, Mg component generation unit 114, G position luminance component generation unit 12
It is performed only by 0, and is not necessary in the vertical and horizontal luminance component generation unit 115, the diagonal luminance component generation unit 116, the luminance component synthesis unit 117, and the luminance plane correction unit 130. Therefore, in the first embodiment, the vertical / horizontal direction similarity determination unit 111, the diagonal direction similarity determination unit 112, the G component generation unit 113, and the Mg component generation unit 11 are described.
4. The Bayer array image data can be released when the operation by the G position luminance component generation unit 120 is completed. In particular, in the first embodiment, since these units are realized by hardware, they can be operated independently of each other and in parallel, so that the time for holding the Bayer array type image data can be further shortened. It is possible, and the Bayer array type image data can be released quickly.

【0102】なお、第1の実施形態では、R/B位置輝
度成分生成部110において、図6(c)、(d)、
(e)、(f)に示すように配列された赤色成分および
青色成分の色情報を平均して生成される斜め45度方向
のMg成分Mg45および斜め135度方向のMg成分Mg13
5を用いて、斜め輝度成分YDNが生成される。しかしなが
ら、本発明では、R位置の画素が処理対象画素である場
合、図12(a)、(b)に示すように配列された緑色
成分および赤色成分の色情報を平均して生成される輝度
成分を用いて、縦横輝度成分YHVを生成し、図12
(c)、(d)に示すように配列された青色成分の色情
報を平均して生成される輝度成分を用いて、斜め輝度成
分YDNを生成することができる。また、B位置の画素が
処理対象画素である場合にも同様に、図12(e)、
(f)、(g)、(h)に示すように配列された色情報
を平均して生成される輝度成分を用いて、縦横輝度成分
YHVおよび斜め輝度成分YDNを生成することができる。
In the first embodiment, in the R / B position luminance component generating section 110, as shown in FIGS. 6 (c), 6 (d),
(E) and (f) are arranged by averaging the color information of the red component and the blue component, and the 45-degree diagonal Mg component Mg45 and the 135-degree diagonal Mg component Mg13 are generated.
5 is used to generate the diagonal luminance component Y DN . However, in the present invention, when the pixel at the R position is the pixel to be processed, the luminance generated by averaging the color information of the green component and the red component arranged as shown in FIGS. The vertical and horizontal luminance components Y HV are generated using the components, and FIG.
The diagonal luminance component Y DN can be generated using the luminance component generated by averaging the color information of the blue components arranged as shown in (c) and (d). Similarly, in the case where the pixel at the B position is the pixel to be processed, FIG.
Using the luminance component generated by averaging the color information arranged as shown in (f), (g), and (h), the vertical and horizontal luminance components
Y HV and diagonal luminance component Y DN can be generated.

【0103】すなわち、処理対象画素の色情報は、第1
の実施形態のように、斜め輝度成分YDNの生成の際に用
いても良いが、縦横輝度成分YHVの生成の際に用いるこ
とも可能である。 《第2の実施形態の説明》以下、第2の実施形態の説明
として、輝度成分生成処理部100内の各部によって実
現されるベイア配列型画像データに対するモノクロの画
像復元処理を説明する。
That is, the color information of the pixel to be processed is the first
Although it may be used when the oblique luminance component Y DN is generated as in the above embodiment, it can also be used when the vertical and horizontal luminance components Y HV are generated. << Description of Second Embodiment >> Hereinafter, as a description of the second embodiment, a monochrome image restoration process for the Bayer array image data realized by each unit in the luminance component generation processing unit 100 will be described.

【0104】図13は、第2の実施形態における輝度成
分生成処理部100内の動作を説明する図である。第2
の実施形態と第1の実施形態とでは、縦横方向類似性判
定部111、斜め方向類似性判定部112、縦横輝度成
分生成部115、斜め輝度成分生成部116によって行
われる動作が異なり、他の動作については同じである。
FIG. 13 is a diagram for explaining the operation in the luminance component generation processing section 100 in the second embodiment. Second
The operation performed by the vertical and horizontal direction similarity determination unit 111, the diagonal direction similarity determination unit 112, the vertical and horizontal luminance component generation unit 115, and the diagonal luminance component generation unit 116 is different between the first exemplary embodiment and the second exemplary embodiment. The operation is the same.

【0105】そこで、以下では、縦横方向類似性判定部
111、斜め方向類似性判定部112、縦横輝度成分生
成部115、斜め輝度成分生成部116の動作のみを説
明し、他の動作の説明は省略する。 《縦横方向類似性判定部111の説明》縦横方向類似性
判定部111は、第1の実施形態と同様に、ベイア配列
型画像データを参照して、R位置もしくはB位置の画素
に対し、縦方向の類似度Cvと横方向の類似度Chとを算出
する。そして、縦横方向類似性判定部111は、処理対
象画素[i,j]における方向指標HVs[i,j](縦横類似性の
判定結果を示す方向指標)を、以下の式15によって設
定する。
Therefore, hereinafter, only the operations of the vertical / horizontal direction similarity determining section 111, the diagonal direction similarity determining section 112, the vertical / horizontal luminance component generating section 115, and the diagonal luminance component generating section 116 will be described, and the other operations will not be described. Omit it. << Explanation of Vertical / Horizontal Direction Similarity Determining Unit 111 >> The vertical / horizontal direction similarity determining unit 111 refers to the Bayer array type image data, as in the case of the first embodiment, with respect to the pixel at the R position or the B position. The directional similarity Cv and the lateral similarity Ch are calculated. Then, the vertical / horizontal direction similarity determination unit 111 sets the direction index HVs [i, j] (direction index indicating the determination result of vertical / horizontal similarity) in the processing target pixel [i, j] by the following Expression 15.

【0106】 HVs[i,j]=(Ch[i,j]-Cv[i,j])/(Cv[i,j]+Ch[i,j]) ・・・式15 このような設定によって、方向指標HVsは、縦方向の類
似度Cvと横方向の類似度Chとによって連続的に表され、
縦方向の類似性が強い程「1」に近づき、横方向の類似
性が強い程「−1」に近づくことになる。すなわち、縦
方向の類似度Cv[i,j]の値および横方向の類似度Ch[i,j]
の値が小さい程、各々の方向に対する類似性が強いの
で、以下の条件が成り立つ場合、方向指標HVs[i,j]は、
第1の実施形態と同様に設定されることになる。
HVs [i, j] = (Ch [i, j] -Cv [i, j]) / (Cv [i, j] + Ch [i, j]) Equation 15 Such setting The direction index HVs is continuously represented by the vertical similarity Cv and the horizontal similarity Ch.
The closer the similarity in the vertical direction is, the closer to "1", and the stronger the similarity in the horizontal direction is, the closer to "-1". That is, the value of the vertical similarity Cv [i, j] and the horizontal similarity Ch [i, j]
The smaller the value of, the stronger the similarity to each direction, so if the following conditions hold, the direction index HVs [i, j] is
The setting is made in the same manner as in the first embodiment.

【0107】Ch[i,j]>>Cv[i,j]のとき:HVs[i,j]=1とな
り、処理対象画素が縦方向に対して類似性が強いことを
表すことになる。 Ch[i,j]≒Cv[i,j]のとき:HVs[i,j]=0となり、処理対象
画素が縦横両方向に対して類似性が同程度であることを
表すことになる。 Ch[i,j]<<Cv[i,j]のとき:HVs[i,j]=-1となり、処理対
象画素が横方向に対して類似性が強いことを表すことに
なる。
When Ch [i, j] >> Cv [i, j]: HVs [i, j] = 1, which means that the pixel to be processed has a strong similarity in the vertical direction. When Ch [i, j] ≈Cv [i, j]: HVs [i, j] = 0, which means that the processing target pixel has similar similarity in both vertical and horizontal directions. When Ch [i, j] << Cv [i, j]: HVs [i, j] =-1, which indicates that the pixel to be processed has a strong similarity in the horizontal direction.

【0108】《斜め方向類似性判定部112の説明》斜
め方向類似性判定部112は、第1の実施形態と同様
に、ベイア配列型画像データを参照して、R位置もしく
はB位置の画素に対し、斜め45度方向の類似度C45と
斜め135度方向の類似度C135とを算出する。そして、
斜め方向類似性判定部112は、処理対象画素[i,j]に
おける方向指標DN[i,j](斜め類似性の判定結果を示す
方向指標)を、以下の式16によって設定する。
<< Explanation of Oblique Direction Similarity Determining Section 112 >> As in the first embodiment, the oblique direction similarity determining section 112 refers to the Bayer array type image data and selects the pixel at the R position or the B position. On the other hand, the similarity C45 in the diagonal 45 degree direction and the similarity C135 in the diagonal 135 degree direction are calculated. And
The diagonal direction similarity determination unit 112 sets the direction index DN [i, j] (direction index indicating the determination result of diagonal similarity) in the processing target pixel [i, j] by the following Expression 16.

【0109】 DN[i,j]=(C135[i,j]-C45[i,j])/(C45[i,j]+C135[i,j]) ・・・式16 このような設定によって、方向指標DNは、斜め45度方
向の類似度C45と斜め135度方向の類似度C135とによ
って連続的に表され、斜め45度方向の類似性が強い程
「1」に近づき、斜め135度方向の類似性が強い程
「−1」に近づくことになる。
DN [i, j] = (C135 [i, j] -C45 [i, j]) / (C45 [i, j] + C135 [i, j]) Equation 16 Such setting Thus, the direction index DN is continuously represented by the similarity C45 in the diagonal 45-degree direction and the similarity C135 in the diagonal 135-degree direction. The stronger the similarity in the diagonal 45-degree direction is, the closer it is to "1", and the diagonal 135. The stronger the degree of similarity is, the closer it is to "-1".

【0110】すなわち、斜め45度方向の類似度C45[i,
j]の値および斜め135度方向の類似度C135[i,j]の値
が小さい程、各々の方向に対する処理対象画素の類似性
が強いので、以下の条件が成り立つ場合、方向指標DN
[i,j]は、第1の実施形態と同様に設定されることにな
る。 C135[i,j]>>C45[i,j]のとき:DN[i,j]=1となり、処理対
象画素が斜め45度方向に対して類似性が同程度である
ことを表すことになる。
That is, the degree of similarity C45 [i,
The smaller the value of j] and the value of the similarity C135 [i, j] in the diagonal direction of 135 degrees, the stronger the similarity of the pixel to be processed in each direction. Therefore, if the following conditions are satisfied, the direction index DN
[i, j] will be set as in the first embodiment. When C135 [i, j] >> C45 [i, j]: DN [i, j] = 1, indicating that the pixels to be processed have similar degrees of similarity in the diagonal 45 ° direction. Become.

【0111】C135[i,j]≒C45[i,j]のとき:DN[i,j]=0と
なり、処理対象画素が2つの斜め方向に対して類似性が
強い(または、弱い)ことを表すことになる。 C135[i,j]<<C45[i,j]のとき:DN[i,j]=-1となり、処理
対象画素が斜め135度方向に対して類似性が強いこと
を表すことになる。 《縦横輝度成分生成部115の説明》縦横輝度成分生成
部115は、R位置もしくはB位置の画素に対し、G成
分生成部113によって第1の実施形態と同様に生成さ
れる縦方向のG成分Gvおよび横方向のG成分Ghと、上述
した縦横方向類似性判定部111によって設定される方
向指標HVsとを用いて、処理対象画素[i,j]における縦横
輝度成分YHV[i,j]を、以下の式17によって算出する。
When C135 [i, j] ≈C45 [i, j]: DN [i, j] = 0, and the processing target pixel has a strong similarity (or weakness) in two diagonal directions. Will be represented. When C135 [i, j] << C45 [i, j]: DN [i, j] = − 1, which means that the pixel to be processed has a strong similarity in the oblique 135 ° direction. << Description of Vertical / Horizontal Brightness Component Generation Unit 115 >> The vertical / horizontal brightness component generation unit 115 generates vertical G components in the same manner as in the first embodiment by the G component generation unit 113 for pixels at the R position or the B position. By using Gv and the horizontal G component Gh and the direction index HVs set by the vertical / horizontal direction similarity determination unit 111 described above, the vertical / horizontal luminance component Y HV [i, j] of the processing target pixel [i, j] is obtained. Is calculated by the following equation 17.

【0112】 YHV[i,j]=Kv[i,j]・Gv[i,j]+Kh[i,j]・Gh[i,j] ・・・式17 ただし、式17において、Kv[i,j]=(1+HVs[i,j])/2、Kh
[i,j]=(1-HVs[i,j])/2である。ここで、式17を、第1
の実施形態に記載の式1および式2によって展開する
と、縦横輝度成分YHVは、図14(a)に示すような係
数パターンを用いて生成されることに相当する。
Y HV [i, j] = Kv [i, j] · Gv [i, j] + Kh [i, j] · Gh [i, j] Equation 17 However, in Equation 17, Kv [i, j] = (1 + HVs [i, j]) / 2, Kh
[i, j] = (1-HVs [i, j]) / 2. Here, Equation 17 is changed to the first
When expanded by Expression 1 and Expression 2 described in the embodiment, the vertical / horizontal luminance component Y HV corresponds to being generated using a coefficient pattern as shown in FIG.

【0113】ただし、図14(a)において、HVsは、
「−1≦HVs≦1」を満たす範囲で連続的に変化するた
め、図14(a)に示す係数パターンは、HVsの値に対
応付けられる多様な係数パターンを表している。また、
図14(a)に示す係数パターンは、例えば、「HVs=
1」のとき、図7(a)−(1)に示した係数パターン
と一致し、「HVs=−1」のとき、図7(a)−(3)
に示した係数パターンと一致し、「HVs=0」のとき、
図7(a)−(2)に示した係数パターンと一致してい
る。
However, in FIG. 14A, HVs are
The coefficient pattern shown in FIG. 14A represents various coefficient patterns associated with the value of HVs, because the coefficient pattern continuously changes within a range satisfying “−1 ≦ HVs ≦ 1”. Also,
The coefficient pattern shown in FIG. 14A is, for example, “HVs =
1 ”corresponds to the coefficient patterns shown in FIGS. 7 (a)-(1), and when“ HVs = −1 ”, FIG. 7 (a)-(3)
It matches the coefficient pattern shown in, and when "HVs = 0",
This coincides with the coefficient pattern shown in FIGS.

【0114】すなわち、図14(a)に示す係数パター
ンは、G成分生成部113に予め記録されている2つの
係数パターン(縦方向の係数パターンおよび横方向の係
数パターン)を加重平均して得られる係数パターンに相
当し、縦横類似性の違いに応じて合成して生成された係
数パターンを表す。 《斜め輝度成分生成部116の説明》斜め輝度成分生成
部116は、R位置もしくはB位置の画素に対し、Mg
成分生成部114によって第1の実施形態と同様に生成
される斜め45度方向のMg成分Mg45および斜め135
度方向のMg成分Mg135と、上述した斜め方向類似性判
定部112によって設定される方向指標DNとを用いて、
処理対象画素[i,j]における斜め輝度成分YDN[i,j]を、
以下の式18によって算出する。
That is, the coefficient pattern shown in FIG. 14A is obtained by weighted averaging two coefficient patterns (a vertical coefficient pattern and a horizontal coefficient pattern) recorded in advance in the G component generator 113. Corresponding to the generated coefficient pattern, and represents a coefficient pattern generated by combining according to the difference in vertical and horizontal similarities. << Explanation of Oblique Luminance Component Generation Unit 116 >>
The Mg component Mg45 in the oblique 45 degree direction and the oblique 135 generated by the component generation unit 114 in the same manner as in the first embodiment.
Using the Mg component Mg135 in the degree direction and the direction index DN set by the diagonal direction similarity determination unit 112 described above,
The diagonal luminance component Y DN [i, j] in the processing target pixel [i, j] is
It is calculated by the following equation 18.

【0115】 YDN[i,j]=K45[i,j]・Mg45[i,j]+K135[i,j]・Mg135[i,j] ・・・式18 ただし、式18において、K45[i,j]=(1+DN[i,j])/2、K1
35[i,j]=(1-DN[i,j])/2である。ここで、式18を、第
1の実施形態に記載の式3および式4によって展開する
と、斜め輝度成分YDNは、図14(b)に示すような係
数パターンを用いて生成されることに相当する。
Y DN [i, j] = K45 [i, j] .Mg45 [i, j] + K135 [i, j] .Mg135 [i, j] Equation 18 However, in Equation 18, K45 [i, j] = (1 + DN [i, j]) / 2, K1
35 [i, j] = (1-DN [i, j]) / 2. Here, when Expression 18 is expanded by Expression 3 and Expression 4 described in the first embodiment, the diagonal luminance component Y DN is generated using the coefficient pattern as shown in FIG. 14B. Equivalent to.

【0116】ただし、図14(b)において、DNは、
「−1≦DN≦1」を満たす範囲で連続的に変化するた
め、図14(b)に示す係数パターンは、DNの値に対応
付けられる多様な係数パターンを表している。
However, in FIG. 14B, the DN is
The coefficient pattern shown in FIG. 14B represents various coefficient patterns associated with the value of DN, because the coefficient pattern changes continuously within the range of “−1 ≦ DN ≦ 1”.

【0117】また、図14(b)に示す係数パターン
は、例えば、「DN=1」のとき、図7(b)−(1)に
示した係数パターンと一致し、「DN=−1」のとき、図
7(b)−(3)に示した係数パターンと一致し、「DN
=0」のとき、図7(b)−(2)に示した係数パター
ンと一致している。すなわち、図14(b)に示す係数
パターンは、Mg成分生成部114に予め記録されてい
る2つの係数パターン(斜め45度方向の係数パターン
および斜め135度方向の係数パターン)を加重平均し
て得られる係数パターンに相当し、斜め類似性の違いに
応じて合成して生成された係数パターンを表す。
Further, the coefficient pattern shown in FIG. 14B coincides with the coefficient patterns shown in FIGS. 7B to 7C when "DN = 1", and "DN = -1". In the case of, it matches the coefficient pattern shown in FIGS.
= 0 ”, the coefficient pattern matches the coefficient pattern shown in FIGS. That is, the coefficient pattern shown in FIG. 14B is a weighted average of two coefficient patterns (a coefficient pattern in the oblique 45-degree direction and a coefficient pattern in the oblique 135-degree direction) recorded in advance in the Mg component generation unit 114. It corresponds to the obtained coefficient pattern, and represents the coefficient pattern generated by combining according to the difference in diagonal similarity.

【0118】以上説明したようにして、縦横輝度成分生
成部115によって生成される縦横輝度成分YHVと、斜
め輝度成分生成部116とによって生成される斜め輝度
成分Y DNとは、第1の実施形態と同様に、輝度成分合成
部117によって合成される。すなわち、第1の実施形
態に記載の式11と同様にして、R/B位置の輝度成分
Yが生成される。
As described above, vertical and horizontal luminance component generation
Vertical and horizontal luminance components Y generated by the composition unit 115HVAnd the diagonal
Diagonal luminance generated by the luminance component generating unit 116
Ingredient Y DNIs the luminance component synthesis as in the first embodiment.
It is synthesized by the section 117. That is, the first embodiment
The luminance component at the R / B position in the same manner as the equation 11 described in
Y is generated.

【0119】ここで、式11を、式17および式18に
よって展開すると、R/B位置の輝度成分Yは、図15
に示すような係数パターンを用い、ベイア配列型画像デ
ータの色情報が加重加算されて生成されることに相当す
る。ただし、図15において、HVsは、「−1≦HVs≦
1」を満たす範囲で連続的に変化し、DNは、「−1≦DN
≦1」を満たす範囲で連続的に変化する。また、図15
に示すような係数パターンは、図14(a)に示した縦
横輝度成分YHVに係わる係数パターン(縦方向の係数パ
ターンと横方向の係数パターンとを用いて生成された係
数パターン)と、図14(b)に示した斜め輝度成分Y
DNに係わる係数パターン(斜め45度方向の係数パター
ンと斜め135度方向の係数パターンとを用いて生成さ
れた係数パターン)とを、組み合わせて平均して得られ
る係数パターンで構成されている。
Here, when Expression 11 is expanded by Expression 17 and Expression 18, the luminance component Y at the R / B position is calculated as shown in FIG.
This is equivalent to generation of weighted addition of color information of the Bayer array type image data using a coefficient pattern as shown in FIG. However, in FIG. 15, HVs is “−1 ≦ HVs ≦
1 continuously changes within the range satisfying “1”, and DN is “−1 ≦ DN
It continuously changes within a range satisfying ≦ 1. In addition, FIG.
The coefficient pattern as shown in FIG. 14 is a coefficient pattern related to the vertical and horizontal luminance components Y HV shown in FIG. 14A (a coefficient pattern generated using the vertical coefficient pattern and the horizontal coefficient pattern), Diagonal luminance component Y shown in 14 (b)
It is configured by a coefficient pattern obtained by combining and averaging coefficient patterns related to DN (a coefficient pattern generated by using a coefficient pattern in the diagonal direction of 45 degrees and a coefficient pattern in the diagonal direction of 135 degrees).

【0120】したがって、第2の実施形態では、R/B
位置輝度成分生成部110内のG成分生成部113、M
g成分生成部114、縦横輝度成分生成部115、斜め
輝度成分生成部116、輝度成分合成部117によって
R/B位置の輝度成分Yが生成される過程で、予め記録
されている4通りの係数パターンから無限通りの係数パ
ターンが生成されることになる。
Therefore, in the second embodiment, R / B
The G component generation unit 113, M in the position / luminance component generation unit 110
In the process of the luminance component Y at the R / B position being generated by the g component generation unit 114, the vertical and horizontal luminance component generation unit 115, the diagonal luminance component generation unit 116, and the luminance component combination unit 117, four pre-recorded coefficients An infinite number of coefficient patterns will be generated from the pattern.

【0121】すなわち、第2の実施形態では、処理対象
画素位置の縦横類似性や斜め類似性に応じた最適な係数
パターンを、予め記録されている4通りの係数パターン
から生成することができる。また、第2の実施形態で
は、ベイア配列型画像データを参照して4通りの係数パ
ターンを用いた加重加算を行ってしまえば、加重加算に
よって得られた結果を縦横類似性や斜め類似性に応じて
加重平均するなどの簡単な機構によって、処理対象画素
位置における最適な係数パターンを生成することでき
る。
That is, in the second embodiment, the optimum coefficient pattern according to the vertical / horizontal similarity or the diagonal similarity of the pixel position to be processed can be generated from the four kinds of previously recorded coefficient patterns. Further, in the second embodiment, if the weighted addition using four types of coefficient patterns is performed with reference to the Bayer array type image data, the results obtained by the weighted addition are converted into vertical and horizontal similarity and diagonal similarity. Accordingly, the optimum coefficient pattern at the pixel position to be processed can be generated by a simple mechanism such as weighted averaging.

【0122】したがって、第2の実施形態によれば、輝
度成分生成処理部100の回路構成の規模を最小限に抑
えつつ、モノクロの画像復元処理を高精度に行うことが
できる。 《第3の実施形態の説明》以下、第3の実施形態の説明
として、輝度成分生成処理部100内の各部によって実
現されるベイア配列型画像データに対するモノクロの画
像復元処理を説明するが、第3の実施形態では、輝度成
分生成処理部100内の各部の動作のうち、G成分生成
部113およびMg成分生成部114の動作以外は、第
1もしくは第2の実施形態と同じである。
Therefore, according to the second embodiment, it is possible to perform the monochrome image restoration process with high accuracy while minimizing the scale of the circuit configuration of the luminance component generation processing section 100. << Description of Third Embodiment >> Hereinafter, as a description of the third embodiment, a monochrome image restoration process for Bayer array image data realized by each unit in the luminance component generation processing unit 100 will be described. The third embodiment is the same as the first or second embodiment except for the operations of the G component generating unit 113 and the Mg component generating unit 114 among the operations of the respective units in the luminance component generating processing unit 100.

【0123】そこで、以下では、G成分生成部113お
よびMg成分生成部114の動作のみを説明し、他の動
作の説明は省略する。図16は、第3の実施形態におけ
るG成分生成部113およびMg成分生成部114の動
作を説明する図である。図17は、第3の実施形態にお
いて、G成分生成部113およびMg成分生成部114
に予め記録されている係数パターンを示す図である。
Therefore, only the operations of the G component generating unit 113 and the Mg component generating unit 114 will be described below, and the description of the other operations will be omitted. FIG. 16 is a diagram illustrating operations of the G component generation unit 113 and the Mg component generation unit 114 according to the third embodiment. FIG. 17 shows the G component generation unit 113 and the Mg component generation unit 114 in the third embodiment.
It is a figure which shows the coefficient pattern previously recorded on.

【0124】図17(a)は、処理対象画素の上方向に
配列された色情報に対する加重加算の係数を示す上方向
の係数パターンを示し、図17(b)は、処理対象画素
の下方向に配列された色情報に対する加重加算の係数を
示す下方向の係数パターンを示している。図17(c)
は、処理対象画素の左方向に配列された色情報に対する
加重加算の係数を示す左方向の係数パターンを示し、図
17(d)は、処理対象画素の右方向に配列された色情
報に対する加重加算の係数を示す右方向の係数パターン
を示している。
FIG. 17A shows an upward coefficient pattern showing the weighted addition coefficient for the color information arranged in the upward direction of the pixel to be processed, and FIG. 17B shows the downward pattern of the pixel to be processed. 7 shows a downward coefficient pattern indicating weighted addition coefficients for the color information arranged in FIG. FIG. 17 (c)
Shows a coefficient pattern in the left direction showing the weighted addition coefficient for the color information arranged in the left direction of the processing target pixel, and FIG. 17D shows weighting for the color information arranged in the right direction of the processing target pixel. The coefficient pattern of the right direction which shows the coefficient of addition is shown.

【0125】図17(e)は、処理対象画素の右上方向
に配列された色情報に対する加重加算の係数を示す右上
方向の係数パターンを示し、図17(f)は、処理対象
画素の左下方向に配列された色情報に対する加重加算の
係数を示す左下方向の係数パターンを示している。図1
7(g)は、処理対象画素の左上方向に配列された色情
報に対する加重加算の係数を示す左上方向の係数パター
ンを示し、図17(h)は、処理対象画素の右下方向に
配列された色情報に対する加重加算の係数を示す右下方
向の係数パターンを示している。
FIG. 17E shows a coefficient pattern in the upper right direction showing the weighted addition coefficient for the color information arranged in the upper right direction of the processing target pixel, and FIG. 17F shows the lower left direction of the processing target pixel. 7 shows a coefficient pattern in the lower left direction showing the weighted addition coefficient for the color information arranged in FIG. Figure 1
7 (g) shows a coefficient pattern in the upper left direction showing the weighted addition coefficient for the color information arranged in the upper left direction of the processing target pixel, and FIG. 17 (h) is arranged in the lower right direction of the processing target pixel. 9 shows a coefficient pattern in the lower right direction, which indicates the coefficient of weighted addition for the color information.

【0126】《G成分生成部113の説明》G成分生成
部113は、R位置もしくはB位置の画素に対し、ベイ
ア配列型画像データを参照し、図17(a)に示すよう
な上方向の係数パターンと図17(b)に示すような下
方向の係数パターンとを用いて、図5(a)に示すよう
な縦方向の係数パターンを生成する。
<< Explanation of G Component Generating Unit 113 >> The G component generating unit 113 refers to the Bayer array image data for the pixel at the R position or the B position, and moves in the upward direction as shown in FIG. A coefficient pattern in the vertical direction as shown in FIG. 5A is generated using the coefficient pattern and the coefficient pattern in the downward direction as shown in FIG. 17B.

【0127】すなわち、処理対象画素の座標を[i,j]と
する場合、縦方向の係数パターンを構成するu1、u2を上
下間の方向加重係数と定義し、上方向の類似度Cup[i,j]
と下方向の類似度Cdn[i,j]とを用いて、以下のように算
出する。 u1=Cdn[i,j]/(Cup[i,j]+Cdn[i,j]) ・・・式19 u2=Cup[i,j]/(Cup[i,j]+Cdn[i,j]) ・・・式20 ただし、 Cup[i,j]=|Z[i,j-2]-Z[i,j]| ・・・式21 Cdn[i,j]=|Z[i,j+2]-Z[i,j]| ・・・式22 である。
That is, when the coordinates of the pixel to be processed are [i, j], u 1 and u 2 which constitute the coefficient pattern in the vertical direction are defined as the vertical weighting coefficients, and the similarity in the upward direction Cup [i, j]
And the similarity Cdn [i, j] in the downward direction are used to calculate as follows. u 1 = Cdn [i, j] / (Cup [i, j] + Cdn [i, j]) Equation 19 u 2 = Cup [i, j] / (Cup [i, j] + Cdn [ i, j]) ・ ・ ・ Equation 20 However, Cup [i, j] = | Z [i, j-2] -Z [i, j] | ・ ・ ・ Equation 21 Cdn [i, j] = | Z [i, j + 2] -Z [i, j] | Equation 22

【0128】そして、G成分生成部113は、このよう
に算出した方向加重係数を用い、上方向の係数パターン
から生成される上方向のG成分Gupと下方向の係数パタ
ーンから生成される下方向のG成分Gdnとにより、縦方
向のG成分Gvを以下のように生成する。 Gv[i,j]=u1・Gup[i,j]+u2・Gdn[i,j] ・・・式23 ただし、 Gup[i,j]=G[i,j-1] ・・・式24 Gdn[i,j]=G[i,j+1] ・・・式25 である。
Then, the G component generator 113 uses the direction weighting coefficient calculated in this way, and the upward G component Gup generated from the upward coefficient pattern and the downward direction generated from the downward coefficient pattern. The G component Gv of the vertical direction is used to generate the G component Gv in the vertical direction as follows. Gv [i, j] = u 1 · Gup [i, j] + u 2 · Gdn [i, j] ・ ・ ・ Equation 23 where Gup [i, j] = G [i, j-1] ・ ・Formula 24 Gdn [i, j] = G [i, j + 1] ... Formula 25.

【0129】また、G成分生成部113は、R位置もし
くはB位置の画素に対し、ベイア配列型画像データを参
照し、図17(c)に示すような左方向の係数パターン
と図17(d)に示すような右方向の係数パターンとを
用いて、図5(b)に示すような横方向の係数パターン
を生成する。すなわち、処理対象画素の座標を[i,j]と
する場合、横方向の係数パターンを構成するv1、v2を左
右間の方向加重係数と定義し、左方向の類似度Clt[i,j]
と右方向の類似度Crt[i,j]とを用いて、以下のように算
出する。
Further, the G component generating unit 113 refers to the Bayer array image data for the pixel at the R position or the B position, and the coefficient pattern in the left direction as shown in FIG. 5) is used to generate a horizontal coefficient pattern as shown in FIG. 5B. That is, when the coordinates of the pixel to be processed are [i, j], v 1 and v 2 which form the coefficient pattern in the horizontal direction are defined as the direction weighting coefficients between the left and right, and the similarity Clt [i, j]
And the similarity Crt [i, j] in the right direction are used to calculate as follows.

【0130】 v1=Clt[i,j]/(Clt[i,j]+Crt[i,j]) ・・・式26 v2=Crt[i,j]/(Clt[i,j]+Crt[i,j]) ・・・式27 ただし、 Clt[i,j]=|Z[i-2,j]-Z[i,j]| ・・・式28 Crt[i,j]=|Z[i+2,j]-Z[i,j]| ・・・式29 である。V 1 = Clt [i, j] / (Clt [i, j] + Crt [i, j]) Equation 26 v 2 = Crt [i, j] / (Clt [i, j] + Crt [i, j]) ・ ・ ・ Equation 27 where Clt [i, j] = | Z [i-2, j] -Z [i, j] | ・ ・ ・ Equation 28 Crt [i, j] = | Z [i + 2, j] -Z [i, j] | ... Equation 29.

【0131】そして、G成分生成部113は、このよう
に算出した方向加重係数を用い、左方向の係数パターン
から生成される左方向のG成分Gltと右方向の係数パタ
ーンから生成される右方向のG成分Grtとにより、横方
向のG成分Ghを以下のように生成する。 Gh[i,j]=v1・Glt[i,j]+v2・Grt[i,j] ・・・式30 ただし、 Glt[i,j]=G[i-1,j] ・・・式31 Grt[i,j]=G[i+1,j] ・・・式32 である。
Then, the G component generator 113 uses the direction weighting coefficient calculated in this way to generate a leftward G component Glt generated from the leftward coefficient pattern and a rightward direction generated from the rightward coefficient pattern. And the G component Grt in the horizontal direction, the horizontal G component Gh is generated as follows. Gh [i, j] = v 1 · Glt [i, j] + v 2 · Grt [i, j] ・ ・ ・ Equation 30 where Glt [i, j] = G [i-1, j] ・ ・Formula 31 Grt [i, j] = G [i + 1, j] ... Formula 32.

【0132】次に、上述した縦方向のG成分Gvおよび横
方向のG成分Ghは、第1もしくは第2の実施形態と同様
に、縦横輝度成分生成部115による縦横輝度成分YHV
の生成に用いられる。 《Mg成分生成部114の説明》Mg成分生成部114
は、R位置もしくはB位置の画素に対し、ベイア配列型
画像データを参照し、図17(e)に示すような右上方
向の係数パターンと図17(f)に示すような左下方向
の係数パターンとを用いて、図5(c)に示すような斜
め45度方向の係数パターンを生成する。
Next, the vertical G component Gv and the horizontal G component Gh described above are the vertical and horizontal luminance components Y HV by the vertical and horizontal luminance component generating section 115, as in the first or second embodiment.
Used to generate << Description of Mg Component Generation Unit 114 >> Mg Component Generation Unit 114
Refers to the Bayer array image data for the pixel at the R position or the B position, and the coefficient pattern in the upper right direction as shown in FIG. 17E and the coefficient pattern in the lower left direction as shown in FIG. 17F. And are used to generate a coefficient pattern in the direction of oblique 45 degrees as shown in FIG.

【0133】すなわち、処理対象画素の座標を[i,j]と
する場合、斜め45度方向の係数パターンを構成する
t1、t2を、右上、左下間の方向加重係数と定義し、右上
方向の類似度Cur[i,j]と左下方向の類似度Cdl[i,j]とを
用いて、以下のように算出する。 t1=Cdl[i,j]/(Cur[i,j]+Cdl[i,j]) ・・・式33 t2=Cur[i,j]/(Cur[i,j]+Cdl[i,j]) ・・・式34 ただし、 Cur[i,j]=|Z[i+2,j-2]-Z[i,j]| ・・・式35 Cdl[i,j]=|Z[i-2,j+2]-Z[i,j]| ・・・式36 である。
That is, when the coordinates of the pixel to be processed are [i, j], a coefficient pattern in the direction of an oblique 45 degree is formed.
We define t 1 and t 2 as direction weighting coefficients between upper right and lower left, and use the similarity Cur [i, j] in the upper right direction and the similarity Cdl [i, j] in the lower left direction as follows. Calculate to. t 1 = Cdl [i, j] / (Cur [i, j] + Cdl [i, j]) Equation 33 t 2 = Cur [i, j] / (Cur [i, j] + Cdl [ i, j]) ・ ・ ・ Equation 34 However, Cur [i, j] = | Z [i + 2, j-2] -Z [i, j] | ・ ・ ・ Equation 35 Cdl [i, j] = | Z [i-2, j + 2] -Z [i, j] | ... Expression 36.

【0134】そして、G成分生成部113は、このよう
に算出した方向加重係数を用い、右上方向の係数パター
ンから生成される右上方向のMg成分Mg_urと左下方向
の係数パターンから生成される左下方向のMg成分Mg_d
lとにより、斜め45度方向のMg成分Mg_45を生成す
る。 Mg_45[i,j]=t1・Mg_ur[i,j]+t2・Mg_dl[i,j] ・・・式37 ただし、 Mg_ur[i,j]=(Z[i,j]+Z[i+1,j-1])/2 ・・・式38 Mg_dl[i,j]=(Z[i,j]+Z[i-1,j+1])/2 ・・・式39 である。
Then, the G component generating unit 113 uses the direction weighting coefficient calculated in this way, and the Mg component Mg_ur in the upper right direction generated from the coefficient pattern in the upper right direction and the lower left direction generated from the coefficient pattern in the lower left direction. Mg component of Mg_d
With l, the Mg component Mg_45 in the oblique 45 ° direction is generated. Mg_45 [i, j] = t 1 · Mg_ur [i, j] + t 2 · Mg_dl [i, j] ・ ・ ・ Equation 37 However, Mg_ur [i, j] = (Z [i, j] + Z [ i + 1, j-1]) / 2 ... Equation 38 Mg_dl [i, j] = (Z [i, j] + Z [i-1, j + 1]) / 2 ... Equation 39 is there.

【0135】また、Mg成分生成部114は、R位置も
しくはB位置の画素に対し、ベイア配列型画像データを
参照し、図17(g)に示すような左上方向の係数パタ
ーンと図17(h)に示すような右下方向の係数パター
ンとを用いて、図5(d)に示すような斜め135度方
向の係数パターンを生成する。すなわち、処理対象画素
の座標を[i,j]とする場合、斜め135度方向の係数パ
ターンを構成するs1、s2を、左上、右下間の方向加重係
数と定義し、左上方向の類似度Cul[i,j]と右下方向の類
似度Cdr[i,j]とを用いて、以下のように算出する。
Further, the Mg component generator 114 refers to the Bayer array image data for the pixel at the R position or the B position, and the coefficient pattern in the upper left direction as shown in FIG. 5) is used to generate a coefficient pattern in the direction of an oblique 135 degree as shown in FIG. 5D. That is, when the coordinates of the pixel to be processed are [i, j], s 1 and s 2 that form the coefficient pattern in the diagonal 135 degree direction are defined as the direction weighting coefficients between the upper left and lower right, and Using the similarity Cul [i, j] and the lower right direction similarity Cdr [i, j], the calculation is performed as follows.

【0136】 s1=Cdr[i,j]/(Cul[i,j]+Cdr[i,j]) ・・・式40 s2=Cul[i,j]/(Cul[i,j]+Cdr[i,j]) ・・・式41 ただし、 Cul[i,j]=|Z[i-2,j-2]-Z[i,j]| ・・・式42 Cdr[i,j]=|Z[i+2,j+2]-Z[i,j]| ・・・式43 である。S 1 = Cdr [i, j] / (Cul [i, j] + Cdr [i, j]) Equation 40 s 2 = Cul [i, j] / (Cul [i, j] + Cdr [i, j]) ・ ・ ・ Equation 41 However, Cul [i, j] = | Z [i-2, j-2] -Z [i, j] | ・ ・ ・ Equation 42 Cdr [i, j] = | Z [i + 2, j + 2] -Z [i, j] | ... Equation 43.

【0137】そして、G成分生成部113は、このよう
に算出した方向加重係数を用い、左右上方向の係数パタ
ーンから生成される左上方向のMg成分Mg_ulと右下方
向の係数パターンから生成される右下方向のMg成分Mg
_drとにより、斜め135度方向のMg成分Mg_135を生
成する。
Then, the G component generator 113 uses the direction weighting coefficients calculated in this way to generate the Mg component Mg_ul in the upper left direction and the coefficient pattern in the lower right direction, which are generated from the coefficient patterns in the upper left and right directions. Mg component Mg in the lower right direction
_dr, the Mg component Mg_135 in the oblique direction of 135 degrees is generated.

【0138】 Mg_135[i,j]=s1・Mg_ul[i,j]+s2・Mg_dr[i,j] ・・・式44 ただし、 Mg_ul[i,j]=(Z[i,j]+Z[i-1,j-1])/2 ・・・式45 Mg_dr[i,j]=(Z[i,j]+Z[i+1,j+1])/2 ・・・式46 である。Mg_135 [i, j] = s 1 · Mg_ul [i, j] + s 2 · Mg_dr [i, j] ・ ・ ・ Equation 44 However, Mg_ul [i, j] = (Z [i, j] + Z [i-1, j-1]) / 2 ・ ・ ・ Equation 45 Mg_dr [i, j] = (Z [i, j] + Z [i + 1, j + 1]) / 2 ・ ・ ・Equation 46 is given.

【0139】次に、上述した斜め45度方向のMg成分
Mg45および斜め135度方向のMg成分Mg135は、第1
もしくは第2の実施形態と同様に、斜め輝度成分生成部
116による斜め輝度成分YDNの生成に用いられる。そ
して、上述した縦横輝度成分YHVおよび斜め輝度成分YDN
は、第1もしくは第2の実施形態と同様に、輝度成分合
成部117によるR/B位置の輝度成分Yの生成に用い
られる。
Next, the above-mentioned Mg component in the oblique 45 ° direction
Mg45 and Mg component Mg135 in the oblique 135 degree direction are the first
Alternatively, similarly to the second embodiment, the diagonal luminance component generating unit 116 generates the diagonal luminance component Y DN . Then, the above-described vertical and horizontal luminance components Y HV and diagonal luminance components Y DN
Is used for generation of the luminance component Y at the R / B position by the luminance component synthesizing unit 117, as in the first or second embodiment.

【0140】このような縦横輝度成分YHVは、例えば、
第2の実施形態の場合に当てはめると、図14(a)に
示すような係数パターンを用いて生成されることに相当
する。また、斜め輝度成分YDNは、図14(b)に示す
ような係数パターンを用いて生成されることに相当し、
R/B位置の輝度成分Yは、図15に示すような係数パ
ターンを用いて生成されることに相当する。
Such a vertical and horizontal luminance component Y HV is, for example,
When applied to the case of the second embodiment, it corresponds to generation using a coefficient pattern as shown in FIG. The diagonal luminance component Y DN is equivalent to being generated using a coefficient pattern as shown in FIG.
The brightness component Y at the R / B position corresponds to being generated using a coefficient pattern as shown in FIG.

【0141】したがって、第3の実施形態では、G成分
生成部113、Mg成分生成部114、縦横輝度成分生
成部115、斜め輝度成分生成部116、輝度成分合成
部117によってR/B位置の輝度成分Yが生成される
過程で、予め記録されている8通りの係数パターンから
細部まで局所化した無限通りの係数パターンが生成され
ることになる。
Therefore, in the third embodiment, the G component generating unit 113, the Mg component generating unit 114, the vertical and horizontal luminance component generating unit 115, the diagonal luminance component generating unit 116, and the luminance component synthesizing unit 117 make the luminance at the R / B position. In the process of generating the component Y, an infinite number of coefficient patterns localized in detail from the eight kinds of coefficient patterns recorded in advance are generated.

【0142】そのため、第3の実施形態によれば、モノ
クロの画像復元処理を高精度に行うことができ、特に、
文字などの細かい構造の復元に有効である。 《第4の実施形態の説明》以下、第4の実施形態の説明
を行うが、第4の実施形態の特徴は、縦横方向類似性判
定部111による縦方向の類似度Cvおよび横方向の類似
度Chの算出の手法と、斜め方向類似性判定部112によ
る斜め45度方向の類似度C45および斜め135度方向
の類似度C135の算出の手法とにあり、他の動作について
は、上述した第1の実施形態ないし第3の実施形態と同
じである。
Therefore, according to the third embodiment, the monochrome image restoration process can be performed with high accuracy.
It is effective for restoring fine structures such as characters. << Description of Fourth Embodiment >> Hereinafter, the fourth embodiment will be described. The feature of the fourth embodiment is that the similarity Cv in the vertical direction and the similarity in the horizontal direction by the vertical / horizontal similarity determination unit 111. The method of calculating the degree Ch and the method of calculating the degree of similarity C45 in the diagonal direction of 45 degrees and the degree of similarity C135 in the direction of diagonal 135 degrees by the diagonal direction similarity determination unit 112, and other operations are described above. This is the same as the first to third embodiments.

【0143】そこで、以下では、第4の実施形態の説明
として、類似度を算出するための手法の代表的な3つの
例(代表例1、代表例2、代表例3)を説明する。ただ
し、処理対象画素の座標を[i,j]とし、以下に定義され
る類似度は、類似度の値が小さい程、類似性が強い。 《代表例1の説明》まず、代表例1を説明する。
Therefore, in the following, as a description of the fourth embodiment, three representative examples (representative example 1, representative example 2, representative example 3) of the method for calculating the similarity will be described. However, the coordinates of the pixel to be processed are [i, j], and the similarity defined below has a higher similarity as the value of the similarity is smaller. << Description of Representative Example 1 >> First, the representative example 1 will be described.

【0144】縦横方向類似性判定部111は、ベイア配
列型画像データを参照して、R位置もしくはB位置の画
素に対し、縦方向の類似度Cv[i,j]および横方向の類似
度Ch[i,j]を、以下の式47および式48によって算出
する。 Cv[i,j]=|G[i,j-1]-G[i,j+1]| ・・・式47 Ch[i,j]=|G[i-1,j]-G[i+1,j]| ・・・式48 斜め方向類似性判定部112は、ベイア配列型画像デー
タを参照して、R位置もしくはB位置の画素に対し、斜
め45度方向の類似度C45[i,j]および斜め135度方向
の類似度C135[i,j]を、以下の式49および式50によ
って算出する。
The vertical / horizontal similarity determination unit 111 refers to the Bayer array image data, and with respect to the pixel at the R position or the B position, the vertical similarity Cv [i, j] and the horizontal similarity Ch. [i, j] is calculated by the following Expression 47 and Expression 48. Cv [i, j] = | G [i, j-1] -G [i, j + 1] | ... Equation 47 Ch [i, j] = | G [i-1, j] -G [ i + 1, j] | Equation 48 The diagonal similarity determination unit 112 refers to the Bayer array image data, and with respect to the pixel at the R position or the B position, the similarity C45 [in the diagonal direction of 45 degrees]. i, j] and the similarity C135 [i, j] in the diagonal direction of 135 degrees are calculated by the following Expression 49 and Expression 50.

【0145】 C45[i,j]=(|G[i,j-1]-G[i-1,j]|+|G[i+1,j]-G[i,j+1]|)/2 ・・・式49 C135[i,j]=(|G[i,j-1]-G[i+1,j]|+|G[i-1,j]-G[i,j+1]|)/2 ・・・式50 すなわち、代表例1では、縦方向の類似度Cvと横方向の
類似度Chと斜め45度方向の類似度C45と斜め135度
方向の類似度C135とは、共に、緑色成分の色情報を用い
て算出され、緑色成分の色情報の差の絶対値から成る類
似度成分(以下、「GG間類似度成分」と称する)のみ
によって構成されている。
C45 [i, j] = (| G [i, j-1] -G [i-1, j] | + | G [i + 1, j] -G [i, j + 1] | ) / 2 Equation 49 C135 [i, j] = (| G [i, j-1] -G [i + 1, j] | + | G [i-1, j] -G [i, j + 1] |) / 2 Equation 50 That is, in the representative example 1, the similarity Cv in the vertical direction, the similarity Ch in the horizontal direction, the similarity C45 in the diagonal 45 degree direction, and the similarity in the diagonal 135 degree direction. Both C135 is calculated using the color information of the green component, and is composed only of the similarity component (hereinafter, referred to as “the inter-GG similarity component”) that is composed of the absolute value of the difference in the color information of the green component. There is.

【0146】図18(a)は、代表例1による類似度の
算出時に用いられる色情報の位置関係を示す図である。 《代表例2の説明》次に、代表例2を説明する。縦横方
向類似性判定部111は、ベイア配列型画像データを参
照して、R位置もしくはB位置の画素に対し、縦方向の
類似度Cv[i,j]および横方向の類似度Ch[i,j]を、以下の
式51および式52によって算出する。
FIG. 18A is a diagram showing the positional relationship of the color information used when calculating the degree of similarity in the first representative example. << Description of Representative Example 2 >> Next, Representative Example 2 will be described. The vertical / horizontal direction similarity determination unit 111 refers to the Bayer array image data, and with respect to the pixel at the R position or the B position, the vertical direction similarity Cv [i, j] and the horizontal direction similarity Ch [i, j]. j] is calculated by the following Equation 51 and Equation 52.

【0147】 Cv[i,j]=(|G[i,j-1]-G[i,j+1]| +|G[i-1,j-2]-G[i-1,j]|+|G[i-1,j+2]-G[i-1,j]| +|G[i+1,j-2]-G[i+1,j]|+|G[i+1,j+2]-G[i+1,j]|)/5 ・・・式51 Ch[i,j]=(|G[i-1,j]-G[i+1,j]| +|G[i-2,j-1]-G[i,j-1]|+|G[i+2,j-1]-G[i,j-1]| +|G[i-2,j+1]-G[i,j+1]|+|G[i+2,j+1]-G[i,j+1]|)/5 ・・・式52 すなわち、代表例2では、縦方向の類似度Cvと横方向の
類似度Chとは、共に、緑色成分の色情報を用いて算出さ
れ、GG間類似度成分のみによって構成されている。
Cv [i, j] = (| G [i, j-1] -G [i, j + 1] | + | G [i-1, j-2] -G [i-1, j ] | + | G [i-1, j + 2] -G [i-1, j] | + | G [i + 1, j-2] -G [i + 1, j] | + | G [ i + 1, j + 2] -G [i + 1, j] |) / 5 Equation 51 Ch [i, j] = (| G [i-1, j] -G [i + 1, j] | + | G [i-2, j-1] -G [i, j-1] | + | G [i + 2, j-1] -G [i, j-1] | + | G [i-2, j + 1] -G [i, j + 1] | + | G [i + 2, j + 1] -G [i, j + 1] |) / 5 Equation 52 In the representative example 2, the vertical direction similarity Cv and the horizontal direction similarity Ch are both calculated using the color information of the green component, and are composed of only the inter-GG similarity component.

【0148】斜め方向類似性判定部112は、ベイア配
列型画像データを参照して、R位置もしくはB位置の画
素に対し、斜め45度方向の類似度C45[i,j]および斜め
135度方向の類似度C135[i,j]を、以下の式53およ
び式54によって算出する。 C45[i,j]=(|G[i,j-1]-G[i-1,j]|+|G[i+1,j]-G[i,j+1]| +|G[i-1,j-2]-G[i-2,j-1]|+|G[i+2,j+1]-G[i+1,j+2]| +|Z[i+1,j-1]-Z[i-1,j+1]|)/5 ・・・式53 C135[i,j]=(|G[i,j-1]-G[i+1,j]|+|G[i-1,j]-G[i,j+1]| +|G[i-2,j+1]-G[i-1,j+2]|+|G[i+1,j-2]-G[i+2,j-1]| +|Z[i-1,j-1]-Z[i+1,j+1]|)/5 ・・・式54 ここで、式53におけるZ[i+1,j-1]、Z[i-1,j+1]および
式54におけるZ[i-1,j-1]、Z[i+1,j+1]は、処理対象画
素の斜め方向に隣接する色情報であり、R位置の画素が
処理対象画素である場合には青色成分の色情報を示し、
B位置の画素が処理対象画素である場合には赤色成分の
色情報を示す。
The diagonal similarity determination unit 112 refers to the Bayer array type image data, and with respect to the pixel at the R position or the B position, the similarity C45 [i, j] in the diagonal 45 degree direction and the diagonal 135 degree direction. The similarity C135 [i, j] of is calculated by the following equations 53 and 54. C45 [i, j] = (| G [i, j-1] -G [i-1, j] | + | G [i + 1, j] -G [i, j + 1] | + | G [i-1, j-2] -G [i-2, j-1] | + | G [i + 2, j + 1] -G [i + 1, j + 2] | + | Z [i + 1, j-1] -Z [i-1, j + 1] |) / 5 ・ ・ ・ Equation 53 C135 [i, j] = (| G [i, j-1] -G [i + 1 , j] | + | G [i-1, j] -G [i, j + 1] | + | G [i-2, j + 1] -G [i-1, j + 2] | + | G [i + 1, j-2] -G [i + 2, j-1] | + | Z [i-1, j-1] -Z [i + 1, j + 1] |) / 5 Equation 54 Here, Z [i + 1, j-1], Z [i-1, j + 1] in Equation 53 and Z [i-1, j-1], Z [i + in Equation 54 1, j + 1] is the color information adjacent to the processing target pixel in the diagonal direction, and indicates the color information of the blue component when the pixel at the R position is the processing target pixel,
When the pixel at the B position is the pixel to be processed, it indicates the color information of the red component.

【0149】すなわち、代表例2では、斜め45度方向
の類似度C45と斜め135度方向の類似度C135とは、共
に、緑色成分の色情報と青色成分の色情報(場合によっ
ては赤色成分の色情報)とを用いて算出され、GG間類
似度成分だけでなく、青色成分の色情報の差の絶対値か
ら成る類似度成分(以下、「BB間類似度成分」と称す
る)、または、赤色成分の色情報の差の絶対値から成る
類似度成分(以下、「RR間類似度成分」と称する)に
よって構成されている。
That is, in the representative example 2, the similarity C45 in the oblique 45-degree direction and the similarity C135 in the oblique 135-degree direction are both the color information of the green component and the color information of the blue component (in some cases, the red component Color information) and a similarity component not only for the GG similarity component but also for the absolute value of the difference in the color information of the blue component (hereinafter referred to as “BB similarity component”), or It is composed of a similarity component (hereinafter referred to as “RR similarity component”) that is composed of the absolute value of the difference in color information of the red component.

【0150】図18(b)は、代表例2による類似度の
算出時に用いられる色情報の位置関係を示す図である。
ただし、図18(b)のうち、斜め45度方向の類似度
C45および斜め135度方向の類似度C135については、
R位置の画素が処理対象画素である場合の例を示してい
る。 《代表例3の説明》次に、代表例3を説明する。
FIG. 18B is a diagram showing the positional relationship of color information used when calculating the degree of similarity according to the second representative example.
However, in FIG. 18B, the degree of similarity in the diagonal direction of 45 degrees
For C45 and the similarity C135 in the diagonal 135 degree direction,
An example is shown in which the pixel at the R position is the pixel to be processed. << Description of Representative Example 3 >> Next, Representative Example 3 will be described.

【0151】縦横方向類似性判定部111は、ベイア配
列型画像データを参照して、R位置もしくはB位置の画
素に対し、縦方向の類似度Cv[i,j]および横方向の類似
度Ch[i,j]を、以下の式55および式56によって算出
する。 Cv[i,j]=(4・|G[i,j-1]-G[i,j+1]| +2・(|G[i-1,j-2]-G[i-1,j]|+|G[i-1,j+2]-G[i-1,j]| +|G[i+1,j-2]-G[i+1,j]|+|G[i+1,j+2]-G[i+1,j]|) +|G[i,j-3]-G[i,j-1]|+|G[i,j+3]-G[i,j+1]| +|G[i-2,j-1]-G[i-2,j+1]|+|G[i+2,j-1]-G[i+2,j+1]|)/16 ・・・式55 Ch[i,j]=(4・|G[i-1,j]-G[i+1,j]| +2・(|G[i-2,j-1]-G[i,j-1]|+|G[i+2,j-1]-G[i,j-1]| +|G[i-2,j+1]-G[i,j+1]|+|G[i+2,j+1]-G[i,j+1]|) +|G[i-3,j]-G[i-1,j]|+|G[i+3,j]-G[i+1,j]| +|G[i-1,j-2]-G[i+1,j-2]|+|G[i-1,j+2]-G[i+1,j+2]|)/16 ・・・式56 すなわち、代表例3では、縦方向の類似度Cvと横方向の
類似度Chとは、共に、緑色成分の色情報を用いて算出さ
れ、GG間類似度成分のみによって構成されている。
The vertical / horizontal similarity determination section 111 refers to the Bayer array type image data, and with respect to the pixel at the R position or the B position, the vertical similarity Cv [i, j] and the horizontal similarity Ch. [i, j] is calculated by the following equations 55 and 56. Cv [i, j] = (4 ・ | G [i, j-1] -G [i, j + 1] | +2 ・ (| G [i-1, j-2] -G [i-1 , j] | + | G [i-1, j + 2] -G [i-1, j] | + | G [i + 1, j-2] -G [i + 1, j] | + | G [i + 1, j + 2] -G [i + 1, j] |) + | G [i, j-3] -G [i, j-1] | + | G [i, j + 3 ] -G [i, j + 1] | + | G [i-2, j-1] -G [i-2, j + 1] | + | G [i + 2, j-1] -G [ i + 2, j + 1] |) / 16 Equation 55 Ch [i, j] = (4 ・ | G [i-1, j] -G [i + 1, j] | +2 ・ ( | G [i-2, j-1] -G [i, j-1] | + | G [i + 2, j-1] -G [i, j-1] | + | G [i-2 , j + 1] -G [i, j + 1] | + | G [i + 2, j + 1] -G [i, j + 1] |) + | G [i-3, j] -G [i-1, j] | + | G [i + 3, j] -G [i + 1, j] | + | G [i-1, j-2] -G [i + 1, j-2 ] | + | G [i-1, j + 2] -G [i + 1, j + 2] |) / 16 Equation 56 That is, in the representative example 3, the similarity Cv in the vertical direction and the similarity Cv in the horizontal direction. And the similarity Ch of both are calculated using the color information of the green component, and are composed of only the inter-GG similarity component.

【0152】斜め方向類似性判定部112は、ベイア配
列型画像データを参照して、R位置もしくはB位置の画
素に対し、斜め45度方向の類似度C45[i,j]および斜め
135度方向の類似度C135[i,j]を、以下の式57およ
び式58によって算出する。 C45[i,j]=(6・(|G[i,j-1]-G[i-1,j]|+|G[i+1,j]-G[i,j+1]|) +2・(|G[i-1,j-2]-G[i-2,j-1]|+|G[i+2,j+1]-G[i+1,j+2]|) +3・(|G[i+1,j-2]-G[i,j-1]|+|G[i+2,j-1]-G[i+1,j]|) +1・(|G[i,j-3]-G[i-1,j-2]|+|G[i+3,j]-G[i+2,j+1]|) +3・(|G[i-1,j]-G[i-2,j+1]|+|G[i,j+1]-G[i-1,j+2]|) +1・(|G[i-2,j-1]-G[i-3,j]|+|G[i+1,j+2]-G[i,j+3]|))/64 +(2・|Z[i+1,j-1]-Z[i-1,j+1]| +|Z[i,j-2]-Z[i-2,j]|+|Z[i+2,j]-Z[i,j+2]|)/8 ・・・式57 C135[i,j]=(6・(|G[i,j-1]-G[i+1,j]|+|G[i-1,j]-G[i,j+1]|) +2・(|G[i-2,j+1]-G[i-1,j+2]|+|G[i+1,j-2]-G[i+2,j-1]|) +3・(|G[i-1,j-2]-G[i,j-1]|+|G[i-2,j-1]-G[i-1,j]|) +1・(|G[i-3,j]-G[i-2,j+1]|+|G[i,j-3]-G[i+1,j-2]|) +3・(|G[i+1,j]-G[i+2,j+1]|+|G[i,j+1]-G[i+1,j+2]|) +1・(|G[i-1,j+2]-G[i,j+3]|+|G[i+1,j-1]-G[i+3,j]|))/64 +2・(|Z[i-1,j-1]-Z[i+1,j+1]| +|Z[i,j-2]-Z[i+2,j]|+|Z[i-2,j]-Z[i,j+2]|)/8 ・・・式58 ここで、式57におけるZ[i+1,j-1]、Z[i-1,j+1]および
式58におけるZ[i-1,j-1]、Z[i+1,j+1]は、代表例2と
同様に、処理対象画素の斜め方向に隣接する色情報であ
り、R位置の画素が処理対象画素である場合には青色成
分の色情報を示し、B位置の画素が処理対象画素である
場合には赤色成分の色情報を示す。また、式57におけ
るZ[i,j-2]、Z[i-2,j]、Z[i+2,j]、Z[i,j+2]および式5
8におけるZ[i,j-2]、Z[i+2,j]、Z[i-2,j]、Z[i,j+2]
は、処理対象画素と同色の色情報を示す。
The diagonal similarity determination unit 112 refers to the Bayer array type image data, and with respect to the pixel at the R position or B position, the similarity C45 [i, j] in the diagonal 45 degree direction and the diagonal 135 degree direction. The similarity C135 [i, j] of is calculated by the following Expressions 57 and 58. C45 [i, j] = (6 ・ (| G [i, j-1] -G [i-1, j] | + | G [i + 1, j] -G [i, j + 1] | ) +2 ・ (| G [i-1, j-2] -G [i-2, j-1] | + | G [i + 2, j + 1] -G [i + 1, j + 2 ] |) +3 ・ (| G [i + 1, j-2] -G [i, j-1] | + | G [i + 2, j-1] -G [i + 1, j] | ) +1 · (| G [i, j-3] -G [i-1, j-2] | + | G [i + 3, j] -G [i + 2, j + 1] |) + 3 ・ (| G [i-1, j] -G [i-2, j + 1] | + | G [i, j + 1] -G [i-1, j + 2] |) +1 ・(| G [i-2, j-1] -G [i-3, j] | + | G [i + 1, j + 2] -G [i, j + 3] |)) / 64 + ( 2 · | Z [i + 1, j-1] -Z [i-1, j + 1] | + | Z [i, j-2] -Z [i-2, j] | + | Z [i + 2, j] -Z [i, j + 2] |) / 8 Equation 57 C135 [i, j] = (6 · (| G [i, j-1] -G [i + 1, j] | + | G [i-1, j] -G [i, j + 1] |) +2 ・ (| G [i-2, j + 1] -G [i-1, j + 2] | + | G [i + 1, j-2] -G [i + 2, j-1] |) +3 ・ (| G [i-1, j-2] -G [i, j-1] | + | G [i-2, j-1] -G [i-1, j] |) +1 ・ (| G [i-3, j] -G [i-2, j + 1] | + | G [i, j-3] -G [i + 1, j-2] |) +3 ・ (| G [i + 1, j] -G [i + 2, j + 1] | + | G [i, j + 1] -G [i + 1, j + 2] |) +1 ・ (| G [i-1, j + 2] -G [i, j + 3] | + | G [i + 1, j-1] -G [i + 3, j] |)) / 64 +2 ・ (| Z [i-1, j-1] -Z [i + 1, j + 1] | + | Z [i, j-2] -Z [i + 2, j] | + | Z [i-2, j] -Z [i, j + 2] |) / 8 ... Equation 58 Here, the equation Z [i + 1, j-1] and Z [i-1, j + 1] in 57 and Z [i-1, j-1] and Z [i + 1, j + 1] in Expression 58 are Similar to the representative example 2, the diagonal direction of the pixel to be processed When the pixel at the R position is the processing target pixel, the color information about the blue component is shown, and when the pixel at the B position is the processing target pixel, the color information about the red component is shown. Further, Z [i, j-2], Z [i-2, j], Z [i + 2, j], Z [i, j + 2] and Formula 5 in Formula 57
Z [i, j-2], Z [i + 2, j], Z [i-2, j], Z [i, j + 2] in 8
Indicates color information of the same color as the pixel to be processed.

【0153】すなわち、代表例3では、斜め45度方向
の類似度C45と斜め135度方向の類似度C135とは、共
に、緑色成分の色情報と青色成分の色情報と赤色成分の
色情報とを用いて算出され、GG間類似度成分だけでな
く、BB間類似度成分およびRR間類似度成分によって
構成されている。図18(c)は、代表例3による類似
度の算出時に用いられる色情報の位置関係を示す図であ
る。ただし、図18(c)のうち、斜め45度方向の類
似度C45および斜め135度方向の類似度C135について
は、R位置の画素が処理対象画素である場合の例を示し
ている。
That is, in the representative example 3, the similarity C45 in the oblique 45 degree direction and the similarity C135 in the oblique 135 degree direction are both the color information of the green component, the color information of the blue component, and the color information of the red component. And is composed of not only the inter-GG similarity component but also the inter-BB similarity component and the inter-RR similarity component. FIG. 18C is a diagram showing a positional relationship of color information used when calculating the degree of similarity according to the representative example 3. However, in FIG. 18C, regarding the similarity C45 in the diagonal 45 degree direction and the similarity C135 in the diagonal 135 degree direction, an example in which the pixel at the R position is the processing target pixel is shown.

【0154】以上説明したように、第4の実施形態の代
表例1ないし代表例3において、縦方向の類似度Cvおよ
び横方向の類似度Chの算出時と、斜め45度方向の類似
度C45および斜め135度方向の類似度C135の算出時と
では、それぞれ個別に定義された色情報が用いられ、縦
方向の類似度Cvおよび横方向の類似度Chと、斜め45度
方向の類似度C45および斜め135度方向の類似度C135
とが独立に算出される。
As described above, in the representative examples 1 to 3 of the fourth embodiment, the similarity Cv in the vertical direction and the similarity Ch in the horizontal direction are calculated, and the similarity C45 in the oblique 45 ° direction. And when calculating the similarity C135 in the oblique 135 degree direction, individually defined color information is used, and the similarity Cv in the vertical direction and the similarity Ch in the horizontal direction and the similarity C45 in the oblique 45 degree direction are used. And the similarity C135 in the diagonal direction of 135 degrees
And are calculated independently.

【0155】そのため、第4の実施形態によれば、ベイ
ア配列型画像データを直接参照して斜め45度方向の類
似度C45および斜め135度方向の類似度C135を算出す
ることができるので、特開2000−78597号公報
(米国特許第6,075,889号明細書)において、各
方向の類似度の算出に際して行われていたぼかしたY面
を生成するためのフィルタリングが不要となる。
Therefore, according to the fourth embodiment, the similarity C45 in the oblique 45-degree direction and the similarity C135 in the oblique 135-degree direction can be calculated by directly referring to the Bayer array type image data. In U.S. Pat. No. 2000-78597 (U.S. Pat. No. 6,075,889), the filtering for generating the blurred Y plane, which is performed when calculating the similarity in each direction, is unnecessary.

【0156】したがって、微細構造の情報を失うことな
く、正確な類似度を算出することができる。また、第4
の実施形態の代表例2および代表例3では、斜め45度
方向の類似度C45および斜め135度方向の類似度C135
を算出する際に、緑色成分だけでなく、赤色成分と青色
成分との少なくとも1つの色成分の色情報が用いられて
いるが、赤色成分や青色成分は、斜め45度方向の係数
パターンや斜め135度方向の係数パターンを用いてM
g成分を生成する際に参照される色情報が示す色成分に
含まれる。
Therefore, the accurate similarity can be calculated without losing the information on the fine structure. Also, the fourth
In the representative example 2 and the representative example 3 of the embodiment, the similarity C45 in the diagonal 45 degree direction and the similarity C135 in the diagonal 135 degree direction are described.
When calculating, the color information of at least one color component of the red component and the blue component is used in addition to the green component. M using the coefficient pattern in the 135 degree direction
It is included in the color component indicated by the color information referred to when the g component is generated.

【0157】すなわち、代表例2および代表例3によっ
て斜め45度方向の類似度C45および斜め135度方向
の類似度C135を算出する際には、斜め45度方向の係数
パターンや斜め135度方向の係数パターンを用いてM
g成分を生成する際に参照される少なくとも1つの色成
分の色情報が用いられている。そのため、代表例2や代
表例3によって算出される斜め45度方向の類似度C45
および斜め135度方向の類似度C135によれば、斜め類
似性の判定結果を示す方向指標DNを正確に設定すること
が可能となる。その結果、斜め輝度成分YDNを精度良く
生成することができ、輝度面を高精細に復元することが
できる。
That is, when calculating the similarity C45 in the oblique 45-degree direction and the similarity C135 in the oblique 135-degree direction by the representative examples 2 and 3, the coefficient pattern in the oblique 45-degree direction and the similarity pattern in the oblique 135-degree direction are calculated. M using coefficient pattern
Color information of at least one color component referred to when generating the g component is used. Therefore, the degree of similarity C45 in the oblique 45 degree direction calculated by the representative example 2 and the representative example 3
Further, according to the similarity C135 in the diagonal 135 degree direction, it is possible to accurately set the direction index DN indicating the determination result of the diagonal similarity. As a result, the diagonal luminance component Y DN can be accurately generated, and the luminance plane can be restored with high precision.

【0158】なお、上述した第1の実施形態ないし第4
の実施形態では、ベイア配列型画像データと同じ画素の
位置に輝度成分が生成されるが、例えば、縦方向の類似
度Cv、横方向の類似度Ch、斜め45度方向の類似度C4
5、斜め135度方向の類似度C135を算出する際に参照
する色情報や、G成分生成部113、Mg成分生成部1
14に予め記録しておく係数パターンを変更することに
よって、ベイア配列型画像データの隣接する画素の中間
位置に輝度成分を生成することが可能である。
Incidentally, the above-mentioned first to fourth embodiments
In the embodiment, the luminance component is generated at the same pixel position as the Bayer array image data. For example, the similarity Cv in the vertical direction, the similarity Ch in the horizontal direction, and the similarity C4 in the diagonal 45 ° direction are
5, color information to be referred to when calculating the similarity C135 in the oblique 135 degree direction, the G component generation unit 113, the Mg component generation unit 1
By changing the coefficient pattern recorded in advance in 14, it is possible to generate a luminance component at an intermediate position between adjacent pixels of the Bayer array image data.

【0159】《第5の実施形態の説明》以下、第5の実
施形態の説明として、画像処理部13内の各部によって
実現されるベイア配列型画像データに対するカラーの画
像復元処理について説明する。ただし、第5の実施形態
では、画像処理部13内の各部の動作のうち、輝度成分
生成処理部100の動作については、上述した第1の実
施形態ないし第4の実施形態と同様に行われるため、詳
細な説明を省略する。
<< Explanation of Fifth Embodiment >> As an explanation of the fifth embodiment, a color image restoration process for the Bayer array type image data realized by the respective units in the image processing unit 13 will be explained below. However, in the fifth embodiment, among the operations of the respective units in the image processing unit 13, the operation of the luminance component generation processing unit 100 is performed in the same manner as in the above-described first to fourth embodiments. Therefore, detailed description is omitted.

【0160】図19は、第5の実施形態における画像処
理部13内の画像復元処理の実現に係わる構成を示す図
である。図19において、画像処理部13は、輝度成分
生成処理部100、色差成分生成処理部200、表色系
変換処理部300を備えており、色差成分生成処理部2
00は、縦横方向類似性判定部210、Crb成分生成
部220、色差成分生成部230、色差補間処理部24
0を備えている。
FIG. 19 is a diagram showing a configuration relating to the realization of the image restoration processing in the image processing unit 13 in the fifth embodiment. 19, the image processing unit 13 includes a luminance component generation processing unit 100, a color difference component generation processing unit 200, and a color system conversion processing unit 300, and the color difference component generation processing unit 2
00 is a vertical / horizontal direction similarity determination unit 210, a Crb component generation unit 220, a color difference component generation unit 230, and a color difference interpolation processing unit 24.
It has 0.

【0161】縦横方向類似性判定部210およびCrb
成分生成部220の出力は色差成分生成部230に接続
され、色差成分生成部230の出力は色差補間処理部2
40に接続され、輝度成分生成処理部100および色差
補間処理部240の出力(色差成分生成処理部200の
出力に相当する)は、表色系変換処理部300に接続さ
れる。
Vertical / horizontal direction similarity determination section 210 and Crb
The output of the component generation unit 220 is connected to the color difference component generation unit 230, and the output of the color difference component generation unit 230 is the color difference interpolation processing unit 2.
The output of the luminance component generation processing unit 100 and the color difference interpolation processing unit 240 (corresponding to the output of the color difference component generation processing unit 200) is connected to the color system conversion processing unit 300.

【0162】図20は、色差成分生成処理部200内の
動作を説明する図である。以下、図19および図20を
参照し、画像処理部13内の各部によって実現されるベ
イア配列型画像データに対するカラーの画像復元処理を
説明する。まず、色差成分生成処理部200内の各部の
動作を説明する。 《縦横方向類似性判定部210の説明》縦横方向類似性
判定部210は、ベイア配列型画像データを参照し、R
位置もしくはB位置の画素に対し、異なる色成分の色情
報から成る縦方向に関する類似度(以下、「縦方向の異
色間類似度CvN」と称する)と横方向に関する類似度
(以下、「横方向の異色間類似度ChN」と称する)とを
算出する。
FIG. 20 is a diagram for explaining the operation in the color difference component generation processing section 200. Hereinafter, with reference to FIGS. 19 and 20, a color image restoration process for the Bayer array image data realized by each unit in the image processing unit 13 will be described. First, the operation of each unit in the color difference component generation processing unit 200 will be described. << Description of Vertical-Horizontal Direction Similarity Determining Unit 210 >> The vertical-horizontal direction similarity determining unit 210 refers to the Bayer array image data and
Similarity in the vertical direction (hereinafter referred to as “vertical dissimilarity CvN between different colors”) and horizontal similarity (hereinafter referred to as “horizontal direction”) with respect to the pixel at position B or position B. Of the different color similarity ChN ")).

【0163】そして、縦横方向類似性判定部210は、
縦方向の異色間類似度CvNと横方向の異色間類似度ChNと
を比較し、その比較結果に応じて、縦横類似性を3段階
で判定し、その判定結果を示す方向指標HVdを設定す
る。例えば、処理対象画素の座標を[i,j]とする場合、
処理対象画素における縦方向の異色間類似度CvN[i,j]と
横方向の異色間類似度ChN[i,j]とは、以下の式59およ
び式60によって算出することが可能である。
Then, the vertical / horizontal similarity determination unit 210
The similarity CVN between different colors in the vertical direction is compared with the similarity ChN between different colors in the horizontal direction, and the vertical and horizontal similarities are determined in three stages according to the comparison result, and the direction index HVd indicating the determination result is set. . For example, when the coordinates of the pixel to be processed are [i, j],
The different color similarity CvN [i, j] in the vertical direction and the different color similarity ChN [i, j] in the horizontal direction of the pixel to be processed can be calculated by the following Expressions 59 and 60.

【0164】 CvN[i,j]=(|G[i,j-1]-Z[i,j]|+|G[i-1,j]-Z[i-1,j+1]|)/2 ・・・式59 ChN[i,j]=(|G[i+1,j]-Z[i,j]|+|G[i,j-1]-Z[i-1,j-1]|)/2 ・・・式60 図21(a)は、縦方向の異色間類似度CvNの算出時に
用いられる色情報の位置関係を示す図であり、図21
(b)は、横方向の異色間類似度ChNの算出時に用いら
れる色情報の位置関係を示す図である。ただし、図21
(a)、(b)では、R位置の画素が処理対象画素であ
る場合の例を示している。
CvN [i, j] = (| G [i, j-1] -Z [i, j] | + | G [i-1, j] -Z [i-1, j + 1] | ) / 2 Equation 59 ChN [i, j] = (| G [i + 1, j] -Z [i, j] | + | G [i, j-1] -Z [i-1, j-1] |) / 2 ... Expression 60 FIG. 21A is a diagram showing the positional relationship of the color information used when calculating the similarity CvN between different colors in the vertical direction.
(B) is a diagram showing a positional relationship of color information used when calculating the similarity ChN between different colors in the horizontal direction. However, in FIG.
In (a) and (b), an example is shown in which the pixel at the R position is the pixel to be processed.

【0165】上述したように算出される縦方向の異色間
類似度CvN[i,j]および横方向の異色間類似度ChN[i,j]
は、値が小さい程、各々の方向に対する類似性が強いこ
とを示す。したがって、方向指標HVd[i,j]は、以下のよ
うにして設定することが可能である。すなわち、縦横方
向類似性判定部210は、閾値Th0について、 |CvN[i,j]-ChN[i,j]|≦Th0 ・・・条件5 が成り立つ場合、処理対象画素が縦横両方向に対して類
似性が同程度であると判断し、方向指標HVd[i,j]に
「0」を設定する。
The different color similarity CvN [i, j] in the vertical direction and the different color similarity ChN [i, j] in the horizontal direction calculated as described above.
Indicates that the smaller the value, the stronger the similarity to each direction. Therefore, the direction index HVd [i, j] can be set as follows. That is, the vertical / horizontal direction similarity determination unit 210 determines that for the threshold value Th0, | CvN [i, j] -ChN [i, j] | ≦ Th0 ... It is determined that the similarities are similar, and "0" is set to the direction index HVd [i, j].

【0166】また、縦横方向類似性判定部210は、条
件5が成り立たず、 CvN[i,j]<ChN[i,j] ・・・条件6 が成り立つ場合、処理対象画素が縦方向に対して類似性
が強いと判断し、方向指標HVd[i,j]に「1」を設定す
る。さらに、縦横方向類似性判定部210は、条件5お
よび条件6が共に成り立たない場合、処理対象画素が横
方向に対して類似性が強いと判断し、方向指標HVd[i,j]
に「−1」を設定する。
If the condition 5 is not satisfied and CvN [i, j] <ChN [i, j] ... Condition 6 is satisfied, the vertical / horizontal similarity determining unit 210 determines that the pixel to be processed is in the vertical direction. It is determined that the similarity is strong, and the direction index HVd [i, j] is set to "1". Further, the vertical / horizontal direction similarity determination unit 210 determines that the processing target pixel has a strong similarity in the horizontal direction when both Condition 5 and Condition 6 are not satisfied, and the direction index HVd [i, j].
Is set to "-1".

【0167】ここで、条件5における閾値Th0は、第1
の実施形態で説明した条件1における閾値Th1と同様
に、2つの類似度(縦方向の異色間類似度CvN[i,j]と横
方向の異色間類似度ChN[i,j])の差異が微少である場
合、ノイズの影響によって一方の類似性が強いと誤判定
されることを避ける役割を果たす。そのため、閾値Th0
は、閾値Th1と同程度の値に設定することが望ましい。
Here, the threshold value Th0 in condition 5 is the first
Similar to the threshold value Th1 in the condition 1 described in the above embodiment, the difference between the two similarities (vertical dissimilarity similarity CvN [i, j] and horizontal dissimilarity similarity ChN [i, j]). Is very small, it plays a role of avoiding erroneous determination that one of the similarities is strong due to the influence of noise. Therefore, the threshold Th0
Is preferably set to a value similar to the threshold Th1.

【0168】《Crb成分生成部220の説明》Crb
成分生成部220には、色差成分生成用の2種類の係数
パターン(ベイア配列型画像データの色情報を加重加算
するための係数パターン)が予め記録されている。図2
2は、このような係数パターンを示す図である。
<< Explanation of Crb Component Generation Unit 220 >> Crb
Two types of coefficient patterns for generating color difference components (coefficient patterns for weighted addition of color information of Bayer array image data) are recorded in the component generation unit 220 in advance. Figure 2
2 is a diagram showing such a coefficient pattern.

【0169】図22(a)は、処理対象画素の縦方向に
配列された色情報に対する加重加算の係数を示す縦方向
の係数パターンを示し、図22(b)は、処理対象画素
の横方向に配列された色情報に対する加重加算の係数を
示す横方向の係数パターンを示している。Crb成分生
成部220は、ベイア配列型画像データを参照し、R位
置もしくはB位置の画素に対し、図22(a)に示すよ
うな縦方向の係数パターンを用いて縦方向の色差成分Cr
b_vを生成し、図22(b)に示すような横方向の係数
パターンを用いて横方向の色差成分Crb_hを生成する。
FIG. 22A shows a coefficient pattern in the vertical direction showing weighted addition coefficients for the color information arranged in the vertical direction of the pixel to be processed, and FIG. 22B shows the coefficient pattern in the horizontal direction of the pixel to be processed. 7 shows a coefficient pattern in the horizontal direction showing the weighted addition coefficient for the color information arranged in FIG. The Crb component generation unit 220 refers to the Bayer array type image data, and for the pixel at the R position or the B position, uses the coefficient pattern in the vertical direction as shown in FIG.
b_v is generated, and the color difference component Crb_h in the horizontal direction is generated using the coefficient pattern in the horizontal direction as shown in FIG.

【0170】すなわち、処理対象画素の座標を[i,j]と
する場合、縦方向の色差成分Crb_v[i,j]と横方向の色差
成分Crb_h[i,j]とは、以下の式61および式62によっ
て算出される。 Crb_v[i,j]=Z[i,j]-(G[i,j-1]+G[i,j+1])/2 ・・・式61 Crb_h[i,j]=Z[i,j]-(G[i-1,j]+G[i+1,j])/2 ・・・式62 《色差成分生成部230の説明》色差成分生成部230
は、上述した縦横方向類似性判定部210によって設定
された方向指標HVdの値に応じて、縦方向の色差成分Crb
_vや横方向の色差成分Crb_hを用い、R位置の画素には
色差成分Cr(赤色成分と緑色成分との間の色差成分)を
対応させ、B位置の画素には色差成分Cb(青色成分と緑
色成分との間の色差成分)を対応させる。
That is, when the coordinates of the pixel to be processed are [i, j], the color difference component Crb_v [i, j] in the vertical direction and the color difference component Crb_h [i, j] in the horizontal direction are expressed by the following equation 61. And calculated by the equation 62. Crb_v [i, j] = Z [i, j]-(G [i, j-1] + G [i, j + 1]) / 2 ・ ・ ・ Equation 61 Crb_h [i, j] = Z [i , j]-(G [i-1, j] + G [i + 1, j]) / 2 Equation 62 << Description of Color Difference Component Generation Unit 230 >> Color Difference Component Generation Unit 230
Is the color difference component Crb in the vertical direction according to the value of the direction index HVd set by the vertical / horizontal direction similarity determination unit 210 described above.
_v and the color difference component Crb_h in the horizontal direction are used, the color difference component Cr (the color difference component between the red component and the green component) is made to correspond to the pixel at the R position, and the color difference component Cb (the blue component is compared to the pixel at the B position). The color difference component with the green component) is made to correspond.

【0171】すなわち、処理対象画素の座標を[i,j]と
する場合、R位置の画素における色差成分Cr[i,j]は、
以下の式63ないし式65の何れかによって算出され、
B位置の画素における色差成分Cb[i,j]は、以下の式6
6ないし式68の何れかによって算出される。 《R位置の画素における色差成分Crの算出例》 HVd[i,j]=1のとき:Cr[i,j]=Crb_v[i,j] ・・・式63 HVd[i,j]=0のとき:Cr[i,j]=(Crb_v[i,j]+Crb_h[i,j])/2 ・・・式64 HVd[i,j]=-1のとき:Cr[i,j]=Crb_h[i,j] ・・・式65 《B位置の画素における色差成分Cbの算出例》 HVd[i,j]=1のとき:Cb[i,j]=Crb_v[i,j] ・・・式66 HVd[i,j]=0のとき:Cb[i,j]=(Crb_v[i,j]+Crb_h[i,j])/2 ・・・式67 HVd[i,j]=-1のとき:Cb[i,j]=Crb_h[i,j] ・・・式68 また、色差成分生成部230は、後述する色差補間処理
部240による補間処理をフィルタリング処理で実現す
るため、R位置以外の画素(G位置とB位置の画素)に
おける色差成分Crとして「0」を設定し、B位置以外の
画素(G位置とR位置の画素)における色差成分Cbとし
て「0」を設定する。
That is, when the coordinates of the pixel to be processed are [i, j], the color difference component Cr [i, j] at the pixel at the R position is
Calculated by one of the following equations 63 to 65,
The color difference component Cb [i, j] at the pixel at the B position is calculated by the following equation 6
It is calculated by any of 6 to 68. << Example of Calculation of Color Difference Component Cr at Pixel at R Position >> When HVd [i, j] = 1: Cr [i, j] = Crb_v [i, j] ... Equation 63 HVd [i, j] = 0 When: Cr [i, j] = (Crb_v [i, j] + Crb_h [i, j]) / 2 ・ ・ ・ Equation 64 HVd [i, j] =-1: Cr [i, j] = Crb_h [i, j] ・ ・ ・ Equation 65 << Calculation example of color difference component Cb in pixel at B position >> When HVd [i, j] = 1: Cb [i, j] = Crb_v [i, j] ..When Expression 66 HVd [i, j] = 0: Cb [i, j] = (Crb_v [i, j] + Crb_h [i, j]) / 2 ... Expression 67 HVd [i, j] = -1: Cb [i, j] = Crb_h [i, j] (Equation 68) Further, the color difference component generation unit 230 implements the interpolation processing by the color difference interpolation processing unit 240 described later by filtering processing. , "0" is set as the color difference component Cr in pixels other than the R position (pixels at the G position and B position), and "0" is set as the color difference component Cb in pixels other than the B position (pixels at the G position and R position). Set.

【0172】このように、ベイア配列型画像データの各
画素の位置に色差成分Crが対応付けられた面をCr面、色
差成分Cbが対応付けられた面をCb面と呼ぶ。 《色差補間処理部240の説明》色差補間処理部240
は、Cr面およびCb面に対して、図23に示すような固定
フィルタによるフィルタリングを行って、色差成分Crお
よび色差成分Cbを補間する。
As described above, the surface in which the color difference component Cr is associated with the position of each pixel of the Bayer array type image data is called the Cr surface, and the surface in which the color difference component Cb is associated is called the Cb surface. << Explanation of Color Difference Interpolation Processing Unit 240 >> Color difference interpolation processing unit 240
Performs the filtering by the fixed filter as shown in FIG. 23 on the Cr plane and the Cb plane to interpolate the color difference component Cr and the color difference component Cb.

【0173】すなわち、色差成分Crの補間は、分離型フ
ィルタの形式で記述すると、以下の式69および式70
の演算によって実現される。 tmp_Cr[i,j]=(2・Cr[i,j]+Cr[i-1,j]+Cr[i+1,j])/2 ・・・式69 Cr[i,j]=(2・tmp_Cr[i,j]+tmp_Cr[i,j-1]+tmp_Cr[i,j+1])/2 ・・・式70 また、色差成分Cbの補間についても、同様の演算によっ
て実現される。
That is, the interpolation of the color difference component Cr can be described in the form of a separable filter by the following expressions 69 and 70.
It is realized by the calculation of. tmp_Cr [i, j] = (2 · Cr [i, j] + Cr [i-1, j] + Cr [i + 1, j]) / 2 ・ ・ ・ Equation 69 Cr [i, j] = ( 2 · tmp_Cr [i, j] + tmp_Cr [i, j-1] + tmp_Cr [i, j + 1]) / 2 Equation 70 Further, the interpolation of the color difference component Cb is also realized by the same calculation. It

【0174】以上説明したようにして得られる色差成分
Crおよび色差成分Cbは、2種類の色差面として表色系変
換処理部300に供給される。なお、色差面は、ローパ
スフィルタやメディアンフィルタ等による補正処理を施
してから、表色系変換処理部300に供給されても良
い。 《表色系変換処理部300の説明》表色系変換処理部3
00は、第1の実施形態ないし第4の実施形態と同様に
輝度成分生成処理部100を介して得られる輝度面と、
上述したように色差補間処理部240から供給される色
差面とから表色変換処理により、各画素にR,G,B3色
の色情報が対応付けられる画像データを生成する。そし
て、このようにして生成された画像データは、ベイア配
列型画像データに対するカラーの画像復元処理済みの画
像データとして出力される。
Color difference component obtained as described above
The Cr and the color difference component Cb are supplied to the color system conversion processing unit 300 as two types of color difference surfaces. Note that the color difference surface may be supplied to the color system conversion processing unit 300 after being subjected to correction processing by a low-pass filter, a median filter, or the like. << Explanation of Color System Conversion Processing Unit 300 >> Color system conversion processing unit 3
00 is a luminance plane obtained via the luminance component generation processing unit 100 as in the first to fourth embodiments,
As described above, the color difference conversion processing is performed from the color difference surface supplied from the color difference interpolation processing unit 240 to generate image data in which color information of R, G, and B colors is associated with each pixel. The image data generated in this way is output as image data that has been subjected to color image restoration processing for the Bayer array image data.

【0175】例えば、処理対象画素の座標を[i,j]とす
る場合、処理対象画素に対応付けられて出力されるR,
G,B色成分の色情報Rout[i,j],Gout[i,j],Bout[i,j]
は、式11で定義したβを用いて、以下の式71ないし
式73によって算出することが可能である。 Rout[i,j]=Y[i,j]+(1-β/2)・Cr[i,j]-(β/2)・Cb[i,j] ・・・式71 Gout[i,j]=Y[i,j]-(β/2)・Cr[i,j]-(β/2)・Cb[i,j])/4 ・・・式72 Bout[i,j]=Y[i,j]-(β/2)・Cr[i,j]+(1-β/2)・Cb[i,j])/4 ・・・式73 以上説明したように、第5の実施形態では、第1から第
4の実施形態の高精細の輝度面生成処理に、新たに独立
にベイア配列型画像データを参照して簡略な機構の色差
面生成処理を付け加えることにより、高精細のカラー画
像復元処理が可能となる。
For example, when the coordinates of the pixel to be processed are [i, j], R, which is output in association with the pixel to be processed,
Color information of G and B color components Rout [i, j], Gout [i, j], Bout [i, j]
Can be calculated by the following Expressions 71 to 73 using β defined in Expression 11. Rout [i, j] = Y [i, j] + (1-β / 2) ・ Cr [i, j]-(β / 2) ・ Cb [i, j] ・ ・ ・ Equation 71 Gout [i, j] = Y [i, j]-(β / 2) ・ Cr [i, j]-(β / 2) ・ Cb [i, j]) / 4 ・ ・ ・ Equation 72 Bout [i, j] = Y [i, j]-(β / 2) · Cr [i, j] + (1-β / 2) · Cb [i, j]) / 4 Equation 73 As described above, the fifth In the embodiment of the present invention, by adding the color difference surface generation processing of a simple mechanism to the high definition luminance surface generation processing of the first to fourth embodiments independently and newly referring to the Bayer array type image data, Fine color image restoration processing becomes possible.

【0176】また、第5の実施形態では、縦横方向類似
性判定部210による縦横類似性の判定結果を示す方向
指標HVdの値に応じて色差成分が算出されるが、縦横方
向類似性判定部210による縦横類似性の判定は、図2
1(a)、(b)に示すように一画素間隔で配置されて
いる異なる色成分の色情報から成る異色間類似度CvN,Ch
Nを用いて行われる。そのため、ベイア配列型画像デー
タにナイキスト周波数の縦線縞や横線縞が存在する場合
であっても、精度良く縦横類似性を判定することがで
き、ナイキスト周波数の縦線縞や横線縞の周辺部におけ
る偽色の発生を低減することができる。
In the fifth embodiment, the color difference component is calculated in accordance with the value of the direction index HVd indicating the result of the vertical / horizontal similarity determination section 210 indicating the vertical / horizontal similarity. The determination of the vertical-horizontal similarity by 210 is shown in FIG.
1 (a) and (b), the similarity CvN, Ch between different colors composed of color information of different color components arranged at one pixel intervals
Performed using N. Therefore, even if the Bayer array type image data has vertical stripes or horizontal stripes of Nyquist frequency, vertical-horizontal similarity can be accurately determined, and the peripheral portion of the vertical stripes or horizontal stripes of Nyquist frequency can be determined. It is possible to reduce the occurrence of false color in.

【0177】したがって、第5の実施形態によれば、ベ
イア配列型画像データに対して、偽色抑制度の高い高精
細なカラーの画像復元処理を行うことができる。なお、
第5の実施形態では、R位置の色差成分CrとB位置の色
差成分Cbとは、縦方向の異色間類似度CvNと横方向の異
色間類似度ChNとを比較して設定される方向指標HVdを用
いて算出されるが、方向指標HVdに代えて、第4の実施
形態における代表例1ないし代表例3によって算出され
る縦方向の類似度Cvと横方向の類似度Chとを比較して設
定される方向指標HVsを用いても良い。
Therefore, according to the fifth embodiment, it is possible to perform high-definition color image restoration processing with a high degree of false color suppression on the Bayer array image data. In addition,
In the fifth embodiment, the color difference component Cr at the R position and the color difference component Cb at the B position are directional indexes set by comparing the similarity CvN between different colors in the vertical direction and the similarity ChN between different colors in the horizontal direction. It is calculated using HVd, but instead of the direction index HVd, the vertical similarity Cv and the horizontal similarity Ch calculated by the representative examples 1 to 3 in the fourth embodiment are compared. The direction index HVs set by the above may be used.

【0178】このように、方向指標HVdに代えて方向指
標HVsを用いる場合、R/B位置輝度成分生成部110
内の縦横方向類似性判定部111によって設定される方
向指標HVsを、色差成分生成処理部200内の色差成分
生成部230が参照すれば良いので、色差成分生成処理
部200内に縦横方向類似性判定部210を設ける必要
がなくなり、ハードウエハの規模を縮小することができ
る。
As described above, when the direction index HVs is used instead of the direction index HVd, the R / B position luminance component generating section 110
Since the color difference component generation unit 230 in the color difference component generation processing unit 200 may refer to the direction index HVs set by the vertical / horizontal direction similarity determination unit 111 in FIG. Since it is not necessary to provide the determination unit 210, the scale of the hard wafer can be reduced.

【0179】《第6の実施形態の説明》以下、第6の実
施形態の説明として、画像処理部13内の各部によって
実現されるハニカム配列型画像データに対するカラーの
画像復元処理について説明する。図24は、第6の実施
形態における画像処理部13内の画像復元処理の実現に
係わる構成を示す図である。
<< Explanation of Sixth Embodiment >> As an explanation of the sixth embodiment, a color image restoration process for the honeycomb array image data realized by the respective units in the image processing unit 13 will be explained below. FIG. 24 is a diagram showing a configuration relating to implementation of image restoration processing in the image processing unit 13 in the sixth embodiment.

【0180】ただし、図24では、上述した第5の実施
形態と同様に動作が行われるものについては、図19と
同じ符号を付与している。図24において、画像処理部
13は、45度回転処理部400、輝度成分生成処理部
100、色差成分生成処理部200、表色系変換処理部
300、45度逆回転処理部500を備えている。
However, in FIG. 24, the same reference numerals as those in FIG. 19 are given to the same components as those in the fifth embodiment described above. 24, the image processing unit 13 includes a 45-degree rotation processing unit 400, a luminance component generation processing unit 100, a color difference component generation processing unit 200, a color system conversion processing unit 300, and a 45-degree reverse rotation processing unit 500. .

【0181】45度回転処理部400の出力は、輝度成
分生成処理部100および色差成分生成処理部200に
接続され、輝度成分生成処理部100の出力および色差
成分生成処理部200の出力は、表色系変換処理部30
0に接続され、表色系変換処理部300の出力は、45
度逆回転処理部500に接続される。以下、図24を参
照し、画像処理部13内の各部によって実現されるハニ
カム配列型画像データに対するカラーの画像復元処理を
説明する。
The output of the 45 ° rotation processing unit 400 is connected to the luminance component generation processing unit 100 and the color difference component generation processing unit 200, and the output of the luminance component generation processing unit 100 and the output of the color difference component generation processing unit 200 are Color system conversion processing unit 30
0, and the output of the color system conversion processing unit 300 is 45
The reverse rotation processing unit 500 is connected. Hereinafter, with reference to FIG. 24, a color image restoration process for the honeycomb array image data realized by each unit in the image processing unit 13 will be described.

【0182】《45度回転処理部400の説明》45度
回転処理部400は、ハニカム配列型画像データに対し
て、45度回転する画像処理を施す。その結果、図25
(a)に示すようなハニカム配列型画像データは、図2
5(b)に示すようなベイア配列型画像データに変換さ
れる。このようなベイア配列型画像データは、輝度成分
生成処理部100および色差成分生成処理部200に供
給される。
<< Description of 45-degree Rotation Processing Unit 400 >> The 45-degree rotation processing unit 400 performs image processing for rotating the honeycomb array image data by 45 degrees. As a result, FIG.
The honeycomb array image data as shown in FIG.
5 (b) is converted into the Bayer array type image data. Such Bayer array image data is supplied to the luminance component generation processing unit 100 and the color difference component generation processing unit 200.

【0183】《輝度成分生成処理部100の説明》輝度
成分生成処理部100は、第5の実施形態と同様に、ベ
イア配列型画像データを参照して、R/B位置の輝度成
分YおよびG位置の輝度成分Yを生成し、これらの輝度成
分が合わせられて得られる輝度面を必要に応じて補正を
行って出力する。
<< Explanation of Luminance Component Generation Processing Unit 100 >> As in the fifth embodiment, the luminance component generation processing unit 100 refers to the Bayer array type image data and refers to the luminance components Y and G at the R / B positions. The position luminance component Y is generated, and the luminance surface obtained by combining these luminance components is corrected and output as necessary.

【0184】《色差成分生成処理部200の説明》色差
成分生成処理部200は、第5の実施形態と同様に、ベ
イア配列型画像データを参照して色差成分Crおよび色差
成分Cbを算出し、補間して色差面を生成する。 《表色系変換処理部300の説明》表色系変換処理部3
00は、第5の実施形態と同様に、輝度面と色差面とか
ら表色変換処理により、各画素にR,G,B3色の色情報
が対応付けられる画像データを生成する。
<< Description of Color Difference Component Generation Processing Unit 200 >> The color difference component generation processing unit 200 calculates the color difference component Cr and the color difference component Cb by referring to the Bayer array image data, as in the fifth embodiment. Interpolate to generate a color difference surface. << Explanation of Color System Conversion Processing Unit 300 >> Color system conversion processing unit 3
As in the fifth embodiment, 00 generates image data in which color information of R, G, and B colors is associated with each pixel by colorimetric conversion processing from the luminance surface and the color difference surface.

【0185】《45度逆回転処理部500の説明》45
度逆回転処理部500は、表色系変換処理部300によ
って生成された画像データに対して、45度逆回転する
画像処理を施す。その結果、ハニカム配列型画像データ
に対するカラーの画像復元処理済みの画像データが得ら
れる。
<< Description of 45-degree Reverse Rotation Processing Unit 500 >> 45
The degree reverse rotation processing unit 500 performs image processing of reverse rotation of 45 degrees on the image data generated by the color system conversion processing unit 300. As a result, image data that has been subjected to color image restoration processing for the honeycomb array type image data is obtained.

【0186】以上説明したように、第6の実施形態によ
れば、ハニカム配列型画像データに対してでも、第5の
実施形態と同様に、高精度なカラーの画像復元処理を行
うことができる。また、同様にして、第1から第4の実
施形態を45度回転して用いることにより、高精度なモ
ノクロ画像の画像復元処理も行うことができる。
As described above, according to the sixth embodiment, a highly accurate color image restoration process can be performed on the honeycomb array image data as in the fifth embodiment. . Similarly, by using the first to fourth embodiments rotated by 45 degrees, highly accurate image restoration processing of a monochrome image can be performed.

【0187】なお、上述した各実施形態において、画像
処理部13では、ASICなどのハードウエアによって
画像復元処理が実現されているが、画像処理部13内の
各部で行われる一連の動作は、プログラムなどのソフト
ウエアによって実現することも可能である。 《第7の実施形態》以下、第7の実施形態の動作を説明
する。
In each of the above-described embodiments, the image processing unit 13 implements the image restoration process by hardware such as ASIC. However, the series of operations performed by each unit in the image processing unit 13 is It is also possible to realize it by software such as. << Seventh Embodiment >> The operation of the seventh embodiment will be described below.

【0188】第7の実施形態は、本発明の画像処理プロ
グラムを図1に示すPC17によって実行し、画像入力
装置1によって入力される画像データに対して画像復元
処理を行うことに相当する。ただし、第7の実施形態に
おいて、図1に示す画像処理部13は、上述した各実施
形態と異なり、画像復元処理を行わず、画像復元処理以
外の画像処理(例えば、画素欠陥補正など)を行うもの
とする。
The seventh embodiment is equivalent to executing the image processing program of the present invention by the PC 17 shown in FIG. 1 and performing image restoration processing on the image data input by the image input apparatus 1. However, in the seventh embodiment, unlike the above-described embodiments, the image processing unit 13 illustrated in FIG. 1 does not perform the image restoration processing, and performs image processing other than the image restoration processing (for example, pixel defect correction). Assumed to be performed.

【0189】また、PC17には、上述した何れかの実
施形態の画像処理部13内の各部で行われる動作をPC
17によって順次実現するための画像処理プログラム
が、CD−ROM21などの記録媒体を介して、予めイ
ンストールされている。画像入力装置1において、撮像
素子11で生成されてA/D変換部12でディジタル化
された画像データは、バスを介して画像処理部13に供
給される。画像処理部13は、このようにして供給され
た画像データに対して、画素欠陥補正などの画像処理を
行う。このような画像処理が完了した画像データは、外
部インタフェース部18を介してPC17に供給された
り、メモリカード15に記録されてPC17に読み出さ
れる。
Further, the PC 17 is instructed by the PC to perform the operations performed by the respective units in the image processing unit 13 of any of the above-described embodiments.
An image processing program to be sequentially realized by 17 is installed in advance via a recording medium such as a CD-ROM 21. In the image input device 1, the image data generated by the image sensor 11 and digitized by the A / D converter 12 is supplied to the image processor 13 via the bus. The image processing unit 13 performs image processing such as pixel defect correction on the image data thus supplied. The image data that has undergone such image processing is supplied to the PC 17 via the external interface unit 18, or recorded in the memory card 15 and read out by the PC 17.

【0190】PC17は、上述したような画像処理部プ
ログラムを実行し、外部インタフェース部18を介して
供給された画像データやメモリカード15から読み出し
た画像データに対して画像復元処理を行う。以上説明し
たように、第7の実施形態では、上述した何れかの実施
形態で実現される画像復元処理をPC17によって行う
ことができる。
The PC 17 executes the image processing section program as described above, and performs the image restoration processing on the image data supplied via the external interface section 18 or the image data read from the memory card 15. As described above, in the seventh embodiment, the PC 17 can perform the image restoration process realized in any of the above-described embodiments.

【0191】なお、第7の実施形態では、画像入力装置
1に接続されたPC17によって、上述したような画像
処理プログラムが実行されるが、このような画像処理プ
ログラムは、PC17で実行せず、インターネット等を
介して接続される遠隔地のサーバ等で実行しても良い。
すなわち、PC17は、画像入力装置1から供給される
画像データを、インターネット等を介して、上述した画
像処理プログラムが実行可能なサーバ等に転送するだけ
で、画像復元処理が施された画像データを得ることがで
きる。
In the seventh embodiment, the image processing program as described above is executed by the PC 17 connected to the image input apparatus 1. However, such an image processing program is not executed by the PC 17, It may be executed by a remote server or the like connected via the Internet or the like.
That is, the PC 17 simply transfers the image data supplied from the image input device 1 to a server or the like capable of executing the above-described image processing program via the Internet or the like, and the image data subjected to the image restoration processing is transferred. Obtainable.

【0192】また、上述した各実施形態では、画像復元
処理によって高画質化を実現する例を示したが、本発明
は、画像復元処理に限定されず、他の画像処理によって
高画質化を実現する場合にも適用することが可能であ
る。
Further, in each of the above-described embodiments, an example of realizing high image quality by image restoration processing has been shown, but the present invention is not limited to image restoration processing, and high image quality is realized by other image processing. It is also possible to apply when doing.

【0193】[0193]

【発明の効果】以上説明したように、請求項1ないし請
求項36に記載の発明によれば、多重スペクトル画像に
対する高精度の高画質化をハードウエアによって容易に
実現することができる。
As described above, according to the inventions described in claims 1 to 36, it is possible to easily realize highly accurate image quality improvement for a multispectral image by hardware.

【0194】また、請求項37ないし請求項39に記載
の発明によれば、多重スペクトル画像に対する高精度の
高画質化をコンピュータによって容易に実現させること
ができる。
According to the thirty-seventh to thirty-ninth aspects of the present invention, it is possible to easily realize a highly accurate image quality improvement for a multispectral image by a computer.

【図面の簡単な説明】[Brief description of drawings]

【図1】画像入力装置の機能ブロック図である。FIG. 1 is a functional block diagram of an image input device.

【図2】ベイア配列型画像データの色成分の配列を示す
図である。
FIG. 2 is a diagram showing an array of color components of Bayer array type image data.

【図3】画像処理部内の画像復元処理の実現に係わる構
成を示す図である。
FIG. 3 is a diagram showing a configuration relating to implementation of image restoration processing in an image processing unit.

【図4】輝度成分生成処理部内の各部の動作を説明する
図である。
FIG. 4 is a diagram illustrating an operation of each unit in a luminance component generation processing unit.

【図5】係数パターンを示す図である。FIG. 5 is a diagram showing a coefficient pattern.

【図6】輝度成分の生成時に用いる色情報の配列を示す
図である。
FIG. 6 is a diagram showing an array of color information used when generating a luminance component.

【図7】係数パターンを示す図である。FIG. 7 is a diagram showing a coefficient pattern.

【図8】係数パターンを示す図である。FIG. 8 is a diagram showing a coefficient pattern.

【図9】(HVs,DN)の値に対応する類似性の強い方向を示
す図である。
FIG. 9 is a diagram showing a direction of strong similarity corresponding to the value of (HVs, DN).

【図10】係数パターンを示す図である。FIG. 10 is a diagram showing a coefficient pattern.

【図11】バンドパスフィルタの例を示す図である。FIG. 11 is a diagram showing an example of a bandpass filter.

【図12】輝度成分の生成時に用いる色情報の配列を示
す図である。
FIG. 12 is a diagram showing an array of color information used when generating a luminance component.

【図13】第2の実施形態における輝度成分生成処理部
内の各部の動作を説明する図である。
FIG. 13 is a diagram illustrating an operation of each unit in the luminance component generation processing unit according to the second embodiment.

【図14】係数パターンを示す図である。FIG. 14 is a diagram showing a coefficient pattern.

【図15】係数パターンを示す図である。FIG. 15 is a diagram showing a coefficient pattern.

【図16】第3の実施形態におけるG成分生成部および
Mg成分生成部の動作を説明する図である。
FIG. 16 is a diagram illustrating operations of a G component generation unit and a Mg component generation unit according to the third embodiment.

【図17】係数パターンを示す図である。FIG. 17 is a diagram showing a coefficient pattern.

【図18】類似度の算出時に用いる色情報の位置関係を
示す図である。
FIG. 18 is a diagram showing a positional relationship of color information used when calculating similarity.

【図19】画像処理部内の画像復元処理の実現に係わる
構成を示す図である。
FIG. 19 is a diagram showing a configuration relating to implementation of image restoration processing in the image processing unit.

【図20】色差成分生成処理部内の各部の動作を説明す
る図である。
FIG. 20 is a diagram illustrating an operation of each unit in the color difference component generation processing unit.

【図21】類似度の算出時に用いる色情報の位置関係を
示す図である。
FIG. 21 is a diagram showing a positional relationship of color information used when calculating similarity.

【図22】係数パターンを示す図である。FIG. 22 is a diagram showing a coefficient pattern.

【図23】補間フィルタの例を示す図である。FIG. 23 is a diagram showing an example of an interpolation filter.

【図24】画像復元処理の実現に係わる構成を示す図で
ある。
FIG. 24 is a diagram showing a configuration relating to realization of image restoration processing.

【図25】ハニカム配列型画像からベイア配列型画像デ
ータへの変換を説明する図である。
[Fig. 25] Fig. 25 is a diagram for describing conversion from a honeycomb array type image to Bayer array type image data.

【図26】従来の技術を説明する図である。FIG. 26 is a diagram illustrating a conventional technique.

【図27】従来の技術を説明する図である。FIG. 27 is a diagram illustrating a conventional technique.

【符号の説明】[Explanation of symbols]

1 画像入力装置 11 撮像素子 12 A/D変換部 13 画像処理部 14 制御部 15 メモリカード 16 メモリカード用インタフェース部 17 PC(パーソナルコンピュータ) 18 外部インタフェース部 19 ディスプレイ 20 プリンタ 21 CD−ROM 100 輝度成分生成処理部 110 R/B位置輝度成分生成部 111、210 縦横方向類似性判定部 112 斜め方向類似性判定部 113 G成分生成部 114 Mg成分生成部 115 縦横輝度成分生成部 116 斜め輝度成分生成部 117 輝度成分合成部 120 G位置輝度成分生成部 130 輝度面補正部 200 色差成分生成処理部 220 Crb成分生成部 230 色差成分生成部 240 色差補間処理部 300 表色系変換処理部 400 45度回転処理部 500 45度逆回転処理部 1 Image input device 11 Image sensor 12 A / D converter 13 Image processing unit 14 Control unit 15 memory card 16 Memory card interface 17 PC (personal computer) 18 External interface section 19 display 20 printers 21 CD-ROM 100 Luminance component generation processing unit 110 R / B position luminance component generation unit 111, 210 vertical / horizontal similarity determination unit 112 diagonal similarity determination unit 113 G component generator 114 Mg component generator 115 Vertical and Horizontal Luminance Component Generation Unit 116 diagonal luminance component generation unit 117 Luminance component synthesizer 120 G position luminance component generation unit 130 Luminance plane correction unit 200 Color difference component generation processing unit 220 Crb component generator 230 Color difference component generator 240 Color difference interpolation processing unit 300 Color system conversion processor 400 45 degree rotation processing unit 500 45 degree reverse rotation processing unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CE17 CE18 CH01 CH11 5C066 AA01 CA05 EC02 GA01 GA02 GA05 HA03 JA03 KE01 KE05 KM05 5C077 MP08 PP32 PP34 PP37 PP46 PQ12 PQ18 PQ22 5C079 HB01 HB04 HB11 LB02 MA01 MA11 NA29 5C082 AA01 BA12 BA34 BA35 BA39 BB15 BB53 BD09 CA12 CA42 CA81 DA53 DA61 DA86 MM09 MM10    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 5B057 CA01 CA08 CA12 CA16 CB01                       CB08 CB12 CB16 CE17 CE18                       CH01 CH11                 5C066 AA01 CA05 EC02 GA01 GA02                       GA05 HA03 JA03 KE01 KE05                       KM05                 5C077 MP08 PP32 PP34 PP37 PP46                       PQ12 PQ18 PQ22                 5C079 HB01 HB04 HB11 LB02 MA01                       MA11 NA29                 5C082 AA01 BA12 BA34 BA35 BA39                       BB15 BB53 BD09 CA12 CA42                       CA81 DA53 DA61 DA86 MM09                       MM10

Claims (39)

【特許請求の範囲】[Claims] 【請求項1】 複数の色で表され、2次元正方格子状に
配列された画素の各々に1つの色情報が存在する多重ス
ペクトル画像に対し、該多重スペクトル画像の表色系と
は異なる表色系の輝度成分を生成する画像処理を行う画
像処理装置において、 第1の方向に配列された色情報に対する加重加算の係数
を示す第1方向係数パターンと、前記第1の方向に直交
する第2の方向に配列された色情報に対する加重加算の
係数を示す第2方向係数パターンと、前記第1の方向お
よび前記第2の方向とは異なる第3の方向に配列された
色情報に対する加重加算の係数を示す第3方向係数パタ
ーンと、前記第3の方向に直交する第4の方向に配列さ
れた色情報に対する加重加算の係数を示す第4方向係数
パターンとを記録する記録手段と、 前記第1方向係数パターンと前記第2方向係数パターン
とを用いて、少なくとも3種類の係数パターンから成る
第1の係数パターン群を生成する第1のパターン生成手
段と、 前記第3方向係数パターンと前記第4方向係数パターン
とを用いて、少なくとも3種類の係数パターンから成る
第2の係数パターン群を生成する第2のパターン生成手
段と、 前記第1の係数パターン群と前記第2の係数パターン群
とを合成して、少なくとも9種類の係数パターンから成
る第3の係数パターン群を生成する第3のパターン生成
手段と、 前記第3の係数パターン群の何れか1つの係数パターン
を用いて、前記多重スペクトル画像の色情報を加重加算
し、輝度成分を生成する輝度成分生成手段とを備えたこ
とを特徴とする画像処理装置。
1. A multi-spectral image represented by a plurality of colors and having one color information in each of the pixels arranged in a two-dimensional square lattice pattern is different from the color system of the multi-spectral image. In an image processing device that performs image processing for generating a luminance component of a color system, a first direction coefficient pattern indicating a weighted addition coefficient for color information arranged in a first direction and a first direction coefficient pattern orthogonal to the first direction. A second direction coefficient pattern indicating a weighted addition coefficient for color information arranged in two directions, and a weighted addition for color information arranged in a third direction different from the first direction and the second direction. Recording means for recording a third directional coefficient pattern indicating the coefficient and a fourth directional coefficient pattern indicating the coefficient of the weighted addition for the color information arranged in the fourth direction orthogonal to the third direction, First direction clerk First pattern generating means for generating a first coefficient pattern group including at least three types of coefficient patterns using the pattern and the second direction coefficient pattern; the third direction coefficient pattern and the fourth direction coefficient Pattern, and second pattern generating means for generating a second coefficient pattern group including at least three types of coefficient patterns, and the first coefficient pattern group and the second coefficient pattern group are combined. A third pattern generating means for generating a third coefficient pattern group including at least nine types of coefficient patterns, and a coefficient pattern of any one of the third coefficient pattern group, An image processing apparatus, comprising: a luminance component generating unit that weights and adds color information to generate a luminance component.
【請求項2】 請求項1に記載の画像処理装置におい
て、 前記第1のパターン生成手段は、 前記第1方向係数パターンと前記第2方向係数パターン
との2種類の係数パターンと、該2種類の係数パターン
を平均して得られる係数パターンとから成る第1の係数
パターン群を生成することを特徴とする画像処理装置。
2. The image processing apparatus according to claim 1, wherein the first pattern generation means includes two types of coefficient patterns, the first direction coefficient pattern and the second direction coefficient pattern, and the two types. And a coefficient pattern obtained by averaging the coefficient patterns of 1) to generate a first coefficient pattern group.
【請求項3】 請求項1に記載の画像処理装置におい
て、 前記第2のパターン生成手段は、 前記第3方向係数パターンと前記第4方向係数パターン
との2種類の係数パターンと、該2種類の係数パターン
を平均して得られる係数パターンとから成る第2の係数
パターン群を生成することを特徴とする画像処理装置。
3. The image processing apparatus according to claim 1, wherein the second pattern generation unit includes two types of coefficient patterns, the third direction coefficient pattern and the fourth direction coefficient pattern, and the two types. And a coefficient pattern obtained by averaging the coefficient patterns of 1.
【請求項4】 請求項1に記載の画像処理装置におい
て、 前記第3のパターン生成手段は、 前記第1の係数パターン群を構成する少なくとも3種類
の係数パターンと、前記第2の係数パターン群を構成す
る少なくとも3種類の係数パターンとを、組み合わせて
平均することによって、前記少なくとも9種類の係数パ
ターンを生成することを特徴とする画像処理装置。
4. The image processing apparatus according to claim 1, wherein the third pattern generation unit includes at least three types of coefficient patterns forming the first coefficient pattern group, and the second coefficient pattern group. The image processing apparatus is characterized by generating at least nine kinds of coefficient patterns by combining and averaging at least three kinds of coefficient patterns constituting the above.
【請求項5】 請求項1に記載の画像処理装置におい
て、 前記第1の方向に関する類似度と前記第2の方向に関す
る類似度とを算出し、該類似度に基づいて、該第1の方
向と該第2の方向との間の類似性を少なくとも3段階で
判定する第1の類似性判定手段を備え、 前記第1のパターン生成手段は、 前記第1の類似性判定手段によって判定され得る類似性
の違いに応じて、前記第1方向係数パターンと前記第2
方向係数パターンとを合成して、前記第1の係数パター
ン群を生成することを特徴とする画像処理装置。
5. The image processing apparatus according to claim 1, wherein the similarity regarding the first direction and the similarity regarding the second direction are calculated, and the first direction is calculated based on the similarity. And a first similarity determination unit that determines the similarity between the second direction and at least three stages, and the first pattern generation unit can be determined by the first similarity determination unit. The first direction coefficient pattern and the second direction coefficient pattern may be selected according to the difference in similarity.
An image processing apparatus, wherein the first coefficient pattern group is generated by synthesizing with a direction coefficient pattern.
【請求項6】 請求項1に記載の画像処理装置におい
て、 前記第3の方向に関する類似度と前記第4の方向に関す
る類似度とを算出し、該類似度に基づいて、該第3の方
向と該第4の方向との間の類似性を少なくとも3段階で
判定する第2の類似性判定手段を備え、 前記第2のパターン生成手段は、 前記第2の類似性判定手段によって判定され得る類似性
の違いに応じて、前記第3方向係数パターンと前記第4
方向係数パターンとを合成して、前記第2の係数パター
ン群を生成することを特徴とする画像処理装置。
6. The image processing apparatus according to claim 1, wherein the similarity regarding the third direction and the similarity regarding the fourth direction are calculated, and the third direction is calculated based on the similarity. And a second similarity determining unit that determines the similarity between the second direction and the fourth direction in at least three stages, and the second pattern generating unit can be determined by the second similarity determining unit. The third direction coefficient pattern and the fourth direction coefficient pattern may be selected according to the difference in similarity.
An image processing apparatus, wherein the second coefficient pattern group is generated by synthesizing with a direction coefficient pattern.
【請求項7】 請求項1に記載の画像処理装置におい
て、 前記記録手段は、 前記多重スペクトル画像が第1ないし第3の色成分から
成る表色系で表され、かつ、第1の色成分の空間密度が
第2の色成分および第3の色成分の空間密度よりも高い
場合、前記第1方向係数パターンとして、前記第1の方
向に配列された第1の色成分の色情報を平均するための
係数パターンを記録し、前記第2方向係数パターンとし
て、前記第2の方向に配列された第1の色成分の色情報
を平均するための係数パターンを記録し、前記第3方向
係数パターンとして、前記第3の方向に配列された第2
および第3の色成分の色情報を加重平均するための係数
を記録し、前記第4方向係数パターンとして、前記第4
の方向に配列された第2および第3の色成分の色情報を
加重平均するための係数を記録することを特徴とする画
像処理装置。
7. The image processing apparatus according to claim 1, wherein the recording unit displays the multispectral image in a color system that includes first to third color components, and the first color component. Is higher than the spatial densities of the second color component and the third color component, the color information of the first color components arranged in the first direction is averaged as the first direction coefficient pattern. And a coefficient pattern for averaging color information of the first color components arranged in the second direction is recorded as the second direction coefficient pattern, and the third direction coefficient is recorded. As a pattern, second patterns arranged in the third direction
And a coefficient for weighted averaging the color information of the third color component is recorded, and as the fourth direction coefficient pattern, the fourth direction coefficient pattern is recorded.
An image processing apparatus for recording a coefficient for weighted averaging the color information of the second and third color components arranged in the direction.
【請求項8】 請求項1に記載の画像処理装置におい
て、 前記記録手段は、 負の値を含まない係数パターンを記録することを特徴と
する画像処理装置。
8. The image processing apparatus according to claim 1, wherein the recording unit records a coefficient pattern that does not include a negative value.
【請求項9】 請求項1に記載の画像処理装置におい
て、 前記輝度成分生成手段は、 前記多重スペクトル画像と同じ画素位置に輝度成分を生
成することを特徴とする画像処理装置。
9. The image processing apparatus according to claim 1, wherein the brightness component generating means generates a brightness component at the same pixel position as the multispectral image.
【請求項10】 請求項1に記載の画像処理装置におい
て、 前記記録手段は、 前記第1の係数パターン群と前記第2の係数パターン群
との少なくとも一方を構成する係数パターンとして、前
記輝度成分生成対象画素位置の色情報に対応する加重加
算の係数が正の値を示す係数パターンを記録することを
特徴とする画像処理装置。
10. The image processing apparatus according to claim 1, wherein the recording unit uses the luminance component as a coefficient pattern forming at least one of the first coefficient pattern group and the second coefficient pattern group. An image processing apparatus, wherein a coefficient pattern showing a positive value of a weighted addition coefficient corresponding to color information of a generation target pixel position is recorded.
【請求項11】 請求項1に記載の画像処理装置におい
て、 前記記録手段は、 輝度成分生成対象画素を中心に前記多重スペクトル画像
の表色系を構成する全ての色成分の色情報が含まれる最
も狭い範囲内の色情報を加重加算するための係数パター
ンを記録することを特徴とする画像処理装置。
11. The image processing apparatus according to claim 1, wherein the recording unit includes color information of all color components that constitute a color system of the multispectral image centered on a luminance component generation target pixel. An image processing apparatus, which records a coefficient pattern for weighted addition of color information in the narrowest range.
【請求項12】 請求項1に記載の画像処理装置におい
て、 前記輝度成分生成手段によって生成された輝度成分に対
し、固定フィルタによるエッジ強調処理を行う補正手段
を備えたことを特徴とする画像処理装置。
12. The image processing apparatus according to claim 1, further comprising a correction unit that performs edge enhancement processing by a fixed filter on the luminance component generated by the luminance component generation unit. apparatus.
【請求項13】 請求項1に記載の画像処理装置におい
て、 前記多重スペクトル画像の色情報を用いて、色差成分を
生成する色差成分生成手段を備えたことを特徴とする画
像処理装置。
13. The image processing apparatus according to claim 1, further comprising a color difference component generation unit that generates a color difference component using color information of the multispectral image.
【請求項14】 請求項13に記載の画像処理装置にお
いて、 前記色差成分生成手段は、 少なくとも2方向に関する類似度を算出して類似性を判
定し、該類似性の判定結果に基づいて色差成分を算出す
ることを特徴とする画像処理装置。
14. The image processing apparatus according to claim 13, wherein the color difference component generating means calculates a degree of similarity in at least two directions to determine similarity, and based on the determination result of the similarity, the color difference component. An image processing apparatus, wherein:
【請求項15】 請求項14に記載の画像処理装置にお
いて、 前記類似度は、 前記多重スペクトル画像の異なる色成分間の色情報で構
成される異色間類似度であることを特徴とする画像処置
装置。
15. The image processing apparatus according to claim 14, wherein the similarity is an inter-color similarity composed of color information between different color components of the multispectral image. apparatus.
【請求項16】 複数の色で表され、2次元格子状に配
列された画素の各々に1つの色情報が存在する多重スペ
クトル画像に対し、該多重スペクトル画像の表色系とは
異なる表色系の輝度成分を生成する画像処理を行う画像
処理装置において、 輝度成分生成対象画素と該輝度成分生成対象画素に対し
て最も近い位置に配列された最近接画素とを結ぶn
1(n1≧2)個の方向の各々に配列された色情報に対す
る加重加算の係数を示すn1個の係数パターンと、前記
輝度成分生成対象画素と該輝度成分生成対象画素に対し
て前記最近接画素の次に近い位置に配列された第2近接
画素とを結ぶn2(n2≧2)個の方向の各々に配列され
た色情報に対する加重加算の係数を示すn2個の係数パ
ターンとを記録する記録手段と、 前記n1個の係数パターンを用いて、m1(m1>n1)個
の係数パターンから成る第1の係数パターン群を生成す
る第1のパターン生成手段と、 前記n2個の係数パターンを用いて、m2(m1>n2)個
の係数パターンから成る第2の係数パターン群を生成す
る第2のパターン生成手段と、 前記第1の係数パターン群と前記第2の係数パターン群
とを合成して、L個(L>m1、かつ、L>m2)の係数
パターンから成る第3の係数パターン群を生成する第3
のパターン生成手段と、 前記第3の係数パターン群の何れか1つの係数パターン
を用いて、前記多重スペクトル画像の色情報を加重加算
し、前記輝度成分を生成する輝度成分生成手段とを備え
たことを特徴とする画像処理装置。
16. A color system different from the color system of the multi-spectral image for a multi-spectral image represented by a plurality of colors and having one color information in each pixel arranged in a two-dimensional grid pattern. In an image processing device that performs image processing for generating a brightness component of a system, a pixel connecting a brightness component generation target pixel and a nearest pixel arranged at a position closest to the brightness component generation target pixel n
1 (n 1 ≧ 2) pieces of the direction of each ordered n 1 coefficients pattern indicating the coefficients of the weighted addition with respect to the color information, the to the luminance component subject pixels and luminance components subject pixels second proximity connecting the pixel n 2 (n 2 ≧ 2) pieces weighted n 2 coefficients indicating the coefficients of the addition for each color information arranged in the direction of which is arranged in a position close to the next nearest pixel recording means for recording a pattern, using the n 1 coefficients patterns, m 1 (m 1> n 1) a first pattern generating means for generating a first coefficient pattern group consisting of pieces of coefficient pattern When using the n 2 coefficients patterns, m 2 (m 1> n 2) and the second pattern generating means for generating a second coefficient pattern group consisting of pieces of coefficient pattern, the first coefficient By combining the pattern group and the second coefficient pattern group, L ( L> m 1 and L> m 2 ) A third coefficient pattern group consisting of coefficient patterns
And a luminance component generation unit for generating the luminance component by weighted addition of color information of the multispectral image using any one of the coefficient patterns of the third coefficient pattern group. An image processing device characterized by the above.
【請求項17】 請求項16に記載の画像処理装置にお
いて、 前記第1のパターン生成手段は、 前記n1個の係数パターンと、該n1個の係数パターンの
間で平均して得られる少なくとも1つの係数パターンと
から成る第1の係数パターン群を生成することを特徴と
する画像処理装置。
The image processing apparatus according to claim 17 claim 16, wherein the first pattern generating means, said n 1 coefficients patterns, at least obtained by averaging between the n 1 coefficients pattern An image processing apparatus, which generates a first coefficient pattern group consisting of one coefficient pattern.
【請求項18】 請求項16に記載の画像処理装置にお
いて、 前記第2のパターン生成手段は、 前記n2個の係数パターンと、該n2個の係数パターンの
間で平均して得られる少なくとも1つの係数パターンと
から成る第2の係数パターン群を生成することを特徴と
する画像処理装置。
The image processing apparatus according to claim 18 claim 16, wherein the second pattern generating means, said n 2 coefficients patterns, at least obtained by averaging between the n 2 coefficients pattern An image processing apparatus, wherein a second coefficient pattern group including one coefficient pattern is generated.
【請求項19】 請求項16に記載の画像処理装置にお
いて、 前記第3のパターン生成手段は、 前記第1の係数パターン群を構成するm1個の係数パタ
ーンと、前記第2の係数パターン群を構成するm2個の
係数パターンとを、組み合わせて平均することによっ
て、前記L個の係数パターンとして、m1×m2個の係数
パターンを生成することを特徴とする画像処理装置。
19. The image processing apparatus according to claim 16, wherein the third pattern generation unit includes m 1 coefficient patterns forming the first coefficient pattern group, and the second coefficient pattern group. The image processing apparatus is characterized in that m 1 × m 2 coefficient patterns are generated as the L coefficient patterns by averaging by combining the m 2 coefficient patterns constituting the above.
【請求項20】 請求項16に記載の画像処理装置にお
いて、 前記第1のパターン生成手段は、 前記輝度成分生成対象画素と前記最近接画素とを結ぶn
1個の方向間の類似性の違いに応じて、前記n1個の係数
パターンを合成して、前記第1の係数パターン群を生成
することを特徴とする画像処理装置。
20. The image processing apparatus according to claim 16, wherein the first pattern generation unit connects the luminance component generation target pixel and the closest pixel to n.
Depending on the similarity of the differences between one direction, and combining the n 1 coefficients pattern, an image processing apparatus and generates the first coefficient pattern group.
【請求項21】 請求項16に記載の画像処理装置にお
いて、 前記第2のパターン生成手段は、 前記輝度成分生成対象画素と前記第2近接画素とを結ぶ
2個の方向間の類似性の違いに応じて、前記n2個の係
数パターンを合成して、前記第2の係数パターン群を生
成することを特徴とする画像処理装置。
21. The image processing device according to claim 16, wherein the second pattern generation unit is configured to determine similarity between n 2 directions connecting the luminance component generation target pixel and the second adjacent pixel. An image processing apparatus, wherein the n 2 coefficient patterns are combined according to a difference to generate the second coefficient pattern group.
【請求項22】 請求項16に記載の画像処理装置にお
いて、 前記記録手段は、 負の値を含まない係数パターンを記録することを特徴と
する画像処理装置。
22. The image processing apparatus according to claim 16, wherein the recording unit records a coefficient pattern that does not include a negative value.
【請求項23】 請求項16に記載の画像処理装置にお
いて、 前記輝度成分生成手段は、 前記多重スペクトル画像と同じ画素位置に輝度成分を生
成することを特徴とする画像処理装置。
23. The image processing device according to claim 16, wherein the luminance component generation means generates a luminance component at the same pixel position as the multispectral image.
【請求項24】 請求項16に記載の画像処理装置にお
いて、 前記記録手段は、 前記第1の係数パターン群と前記第2の係数パターン群
との少なくとも一方を構成する係数パターンとして、前
記輝度成分生成対象画素位置の色情報に対応する加重加
算の係数が正の値を示す係数パターンを記録することを
特徴とする画像処理装置。
24. The image processing apparatus according to claim 16, wherein the recording unit uses the luminance component as a coefficient pattern that constitutes at least one of the first coefficient pattern group and the second coefficient pattern group. An image processing apparatus, wherein a coefficient pattern showing a positive value of a weighted addition coefficient corresponding to color information of a generation target pixel position is recorded.
【請求項25】 請求項16に記載の画像処理装置にお
いて、 前記記録手段は、 前記多重スペクトル画像が第1ないし第N(N≧3)の
色成分から成る表色系で表される場合、前記n1個の係
数パターンとして、少なくとも第1の色成分の色情報を
加重加算するための係数パターンを記録し、前記n2
の係数パターンとして、第2ないし第Nの色成分の少な
くとも一成分の色情報を加重加算するための係数パター
ンを記録することを特徴とする画像処理装置。
25. The image processing apparatus according to claim 16, wherein the recording unit displays the multispectral image in a color system including first to Nth (N ≧ 3) color components, as the n 1 coefficients patterns, record the coefficient patterns for performing weighted addition of color information of at least a first color component, the n as two coefficient pattern, at least one color component of the second to n An image processing apparatus, which records a coefficient pattern for weighted addition of color information of components.
【請求項26】 請求項16に記載の画像処理装置にお
いて、 前記輝度成分生成手段によって生成された輝度成分に対
し、固定フィルタによるエッジ強調処理を行う補正手段
を備えたことを特徴とする画像処理装置。
26. The image processing apparatus according to claim 16, further comprising a correction unit that performs edge enhancement processing by a fixed filter on the luminance component generated by the luminance component generation unit. apparatus.
【請求項27】 請求項16に記載の画像処理装置にお
いて、 前記多重スペクトル画像の色情報を用いて、色差成分を
生成する色差成分生成手段を備えたことを特徴とする画
像処理装置。
27. The image processing apparatus according to claim 16, further comprising a color difference component generation unit that generates a color difference component using color information of the multispectral image.
【請求項28】 請求項27に記載の画像処理装置にお
いて、 前記色差成分生成手段は、 少なくとも2方向に関する類似度を算出して類似性を判
定し、該類似性の判定結果に基づいて色差成分を算出す
ることを特徴とする画像処理装置。
28. The image processing apparatus according to claim 27, wherein the color difference component generating means calculates a degree of similarity in at least two directions to determine similarity, and a color difference component based on a result of the similarity determination. An image processing apparatus, wherein:
【請求項29】 請求項28に記載の画像処理装置にお
いて、 前記類似度は、 前記多重スペクトル画像の異なる色成分間の色情報で構
成される異色間類似度であることを特徴とする画像処置
装置。
29. The image processing apparatus according to claim 28, wherein the degree of similarity is a degree of similarity between different colors configured by color information between different color components of the multispectral image. apparatus.
【請求項30】 第1〜第n(n≧2)の色成分で表さ
れ、2次元正方格子状に配列された画素の各々に1つの
色情報が存在する多重スペクトル画像に対し、該多重ス
ペクトル画像の表色系とは異なる表色系の輝度成分を生
成する画像処理を行う画像処理装置において、 前記多重スペクトル画像の色情報を直接参照して、第1
の方向に関する類似度と、前記第1の方向に直交する第
2の方向に関する類似度と、前記第1の方向および前記
第2の方向とは異なる第3の方向に関する類似度と、前
記第3の方向に直交する第4の方向に関する類似度とを
算出する類似度算出手段と、 前記第1の方向に配列された少なくとも第1色成分の色
情報に対する加重加算の係数を示す第1方向係数パター
ンと、前記第2の方向に配列された少なくとも第1色成
分の色情報に対する加重加算の係数を示す第2方向係数
パターンと、前記第3の方向に配列された少なくとも第
1色成分以外の色情報に対する加重加算の係数を示す第
3方向係数パターンと、前記第4の方向に配列された少
なくとも第1色成分以外の色情報に対する加重加算の係
数を示す第4方向係数パターンとを記録する記録手段
と、 前記類似度算出手段によって算出される類似度と前記記
録手段に記録されている係数パターンとを用いて輝度成
分を生成する輝度成分生成手段とを備えたことを特徴と
する画像処理装置。
30. A multispectral image represented by first to nth (n ≧ 2) color components and arranged in a two-dimensional square lattice, in which one color information exists, In an image processing device that performs image processing for generating a luminance component of a color system different from the color system of a spectrum image, the color information of the multispectral image is directly referred to
Of the first direction, the similarity of the second direction orthogonal to the first direction, the similarity of the third direction different from the first direction and the second direction, and the third direction of A similarity calculation means for calculating a similarity in a fourth direction orthogonal to the direction, and a first direction coefficient indicating a weighted addition coefficient for color information of at least the first color component arranged in the first direction. A pattern, a second direction coefficient pattern indicating a coefficient of weighted addition for color information of at least a first color component arranged in the second direction, and at least a first color component other than the first color component arranged in the third direction. A third direction coefficient pattern indicating a weighted addition coefficient for color information and a fourth direction coefficient pattern indicating a weighted addition coefficient for color information other than at least the first color component arranged in the fourth direction are recorded. Image processing comprising: a recording unit; and a luminance component generating unit that generates a luminance component using the similarity calculated by the similarity calculating unit and the coefficient pattern recorded in the recording unit. apparatus.
【請求項31】 請求項30に記載の画像処理装置にお
いて、 前記第1方向係数パターンと前記第2方向係数パターン
との少なくとも1つの係数パターンと、前記第3方向係
数パターンと前記第4方向係数パターンとの少なくとも
1つの係数パターンとを用いて、前記輝度成分を生成す
るための係数パターンを合成する合成手段を備えたこと
を特徴とする画像処理装置。
31. The image processing apparatus according to claim 30, wherein at least one coefficient pattern of the first direction coefficient pattern and the second direction coefficient pattern, the third direction coefficient pattern, and the fourth direction coefficient. An image processing apparatus comprising: a synthesizing unit that synthesizes a coefficient pattern for generating the luminance component by using a pattern and at least one coefficient pattern.
【請求項32】 請求項30に記載の画像処理装置にお
いて、 前記類似度算出手段は、 前記第1の方向に関する類似度と前記第2の方向に関す
る類似度とを所定の色情報を用いて算出し、該2つの類
似度とは独立に、前記第3の方向に関する類似度と前記
第4の方向に関する類似度とを所定の色情報を用いて算
出することを特徴とする画像処理装置。
32. The image processing apparatus according to claim 30, wherein the similarity calculation unit calculates the similarity regarding the first direction and the similarity regarding the second direction using predetermined color information. The image processing apparatus is characterized by calculating the similarity regarding the third direction and the similarity regarding the fourth direction independently of the two similarities by using predetermined color information.
【請求項33】 請求項32に記載の画像処理装置にお
いて、 前記類似度算出手段は、 前記第3の方向に関する類似度と前記第4の方向に関す
る類似度とを算出する際、前記第3方向係数パターンま
たは前記第4方向係数パターンを構成する少なくとも1
つの色成分の色情報を用いることを特徴とする画像処理
装置。
33. The image processing apparatus according to claim 32, wherein the similarity calculation unit calculates the similarity in the third direction and the similarity in the fourth direction in the third direction. At least 1 constituting the coefficient pattern or the fourth direction coefficient pattern
An image processing apparatus characterized by using color information of three color components.
【請求項34】 請求項30に記載の画像処理装置にお
いて、 前記多重スペクトル画像の色情報を用いて、色差成分を
生成する色差成分生成手段を備えたことを特徴とする画
像処理装置。
34. The image processing apparatus according to claim 30, further comprising a color difference component generating unit that generates a color difference component using the color information of the multispectral image.
【請求項35】 請求項34に記載の画像処理装置にお
いて、 前記色差成分生成手段は、 少なくとも2方向に関する類似度を算出して類似性を判
定し、該類似性の判定結果に基づいて色差成分を算出す
ることを特徴とする画像処理装置。
35. The image processing apparatus according to claim 34, wherein the color difference component generating means calculates similarity in at least two directions to determine similarity, and the color difference component based on the similarity determination result. An image processing apparatus, wherein:
【請求項36】 請求項35に記載の画像処理装置にお
いて、 前記類似度は、 前記多重スペクトル画像の異なる色成分間の色情報で構
成される異色間類似度であることを特徴とする画像処置
装置。
36. The image processing apparatus according to claim 35, wherein the degree of similarity is a degree of similarity between different colors configured by color information between different color components of the multispectral image. apparatus.
【請求項37】 複数の色で表され、2次元正方格子状
に配列された画素の各々に1つの色情報が存在する多重
スペクトル画像に対し、該多重スペクトル画像の表色系
とは異なる表色系の輝度成分を生成する画像処理をコン
ピュータで実現させるための画像処理プログラムにおい
て、 第1の方向に配列された色情報に対する加重加算の係数
を示す第1方向係数パターンと、前記第1の方向に直交
する第2の方向に配列された色情報に対する加重加算の
係数を示す第2方向係数パターンと、前記第1の方向お
よび前記第2の方向とは異なる第3の方向に配列された
色情報に対する加重加算の係数を示す第3方向係数パタ
ーンと、前記第3の方向に直交する第4の方向に配列さ
れた色情報に対する加重加算の係数を示す第4方向係数
パターンとを記録する記録手順と、 前記第1方向係数パターンと前記第2方向係数パターン
とを用いて、少なくとも3種類の係数パターンから成る
第1の係数パターン群を生成する第1のパターン生成手
順と、 前記第3方向係数パターンと前記第4方向係数パターン
とを用いて、少なくとも3種類の係数パターンから成る
第2の係数パターン群を生成する第2のパターン生成手
順と、 前記第1の係数パターン群と前記第2の係数パターン群
とを合成して、少なくとも9種類の係数パターンから成
る第3の係数パターン群を生成する第3のパターン生成
手順と、 前記第3の係数パターン群の何れか1つの係数パターン
を用いて、前記多重スペクトル画像の色情報を加重加算
し、輝度成分を生成する輝度成分生成手順とを備えたこ
とを特徴とする画像処理プログラム。
37. A multi-spectral image represented by a plurality of colors and having one color information in each pixel arranged in a two-dimensional square lattice pattern is different from the color system of the multi-spectral image. In an image processing program for causing a computer to realize image processing for generating a luminance component of a color system, a first direction coefficient pattern indicating a weighted addition coefficient for color information arranged in a first direction, and the first direction coefficient pattern. A second direction coefficient pattern indicating a weighted addition coefficient for color information arranged in a second direction orthogonal to the direction; and a second direction coefficient pattern arranged in a third direction different from the first direction and the second direction. A third directional coefficient pattern indicating a weighted addition coefficient for color information and a fourth directional coefficient pattern indicating a weighted addition coefficient for color information arranged in a fourth direction orthogonal to the third direction. A recording procedure for recording; a first pattern generation procedure for generating a first coefficient pattern group composed of at least three types of coefficient patterns using the first direction coefficient pattern and the second direction coefficient pattern; A second pattern generation procedure for generating a second coefficient pattern group composed of at least three types of coefficient patterns by using a third direction coefficient pattern and the fourth direction coefficient pattern; and the first coefficient pattern group. A third pattern generation procedure for combining the second coefficient pattern group to generate a third coefficient pattern group including at least nine kinds of coefficient patterns; and any one of the third coefficient pattern group. And a luminance component generating procedure for generating a luminance component by weighted addition of color information of the multispectral image using a coefficient pattern. Grams.
【請求項38】 複数の色で表され、2次元格子状に配
列された画素の各々に1つの色情報が存在する多重スペ
クトル画像に対し、該多重スペクトル画像の表色系とは
異なる表色系の輝度成分を生成する画像処理をコンピュ
ータで実現させるための画像処理プログラムにおいて、 輝度成分生成対象画素と該輝度成分生成対象画素に対し
て最も近い位置に配列された最近接画素とを結ぶn
1(n1≧2)個の方向の各々に配列された色情報に対す
る加重加算の係数を示すn1個の係数パターンと、前記
輝度成分生成対象画素と該輝度成分生成対象画素に対し
て前記最近接画素の次に近い位置に配列された第2近接
画素とを結ぶn2(n2≧2)個の方向の各々に配列され
た色情報に対する加重加算の係数を示すn2個の係数パ
ターンとを記録する記録手順と、 前記n1個の係数パターンを用いて、m1(m1>n1)個
の係数パターンから成る第1の係数パターン群を生成す
る第1のパターン生成手順と、 前記n2個の係数パターンを用いて、m2(m1>n2)個
の係数パターンから成る第2の係数パターン群を生成す
る第2のパターン生成手順と、 前記第1の係数パターン群と前記第2の係数パターン群
とを合成して、L個(L>m1、かつ、L>m2)の係数
パターンから成る第3の係数パターン群を生成する第3
のパターン生成手順と、 前記第3の係数パターン群の何れか1つの係数パターン
を用いて、前記多重スペクトル画像の色情報を加重加算
し、前記輝度成分を生成する輝度成分生成手順とを備え
たことを特徴とする画像処理プログラム。
38. A color system different from the color system of the multispectral image for a multispectral image represented by a plurality of colors and having one color information in each pixel arranged in a two-dimensional grid pattern. In an image processing program for causing a computer to realize image processing for generating a brightness component of a system, a pixel connecting a brightness component generation target pixel and a nearest pixel arranged at a position closest to the brightness component generation target pixel n
1 (n 1 ≧ 2) pieces of the direction of each ordered n 1 coefficients pattern indicating the coefficients of the weighted addition with respect to the color information, the to the luminance component subject pixels and luminance components subject pixels second proximity connecting the pixel n 2 (n 2 ≧ 2) pieces weighted n 2 coefficients indicating the coefficients of the addition for each color information arranged in the direction of which is arranged in a position close to the next nearest pixel a recording procedure for recording the pattern, using the n 1 coefficients pattern, the first pattern generation step of generating a first coefficient pattern group consisting of m 1 (m 1> n 1) pieces of coefficient pattern When, using said n 2 coefficients patterns, m 2 (m 1> n 2) and the second pattern generation step of generating a second coefficient pattern group consisting of pieces of coefficient pattern, the first coefficient By combining the pattern group and the second coefficient pattern group, L ( L> m 1 and L> m 2 ) A third coefficient pattern group consisting of coefficient patterns
And a luminance component generation procedure for generating the luminance component by performing weighted addition of color information of the multispectral image using any one coefficient pattern of the third coefficient pattern group. An image processing program characterized by the above.
【請求項39】 第1〜第n(n≧2)の色成分で表さ
れ、2次元正方格子状に配列された画素の各々に1つの
色情報が存在する多重スペクトル画像に対し、該多重ス
ペクトル画像の表色系とは異なる表色系の輝度成分を生
成する画像処理をコンピュータで実現させるための画像
処理プログラムにおいて、 前記多重スペクトル画像の色情報を直接参照して、第1
の方向に関する類似度と、前記第1の方向に直交する第
2の方向に関する類似度と、前記第1の方向および前記
第2の方向とは異なる第3の方向に関する類似度と、前
記第3の方向に直交する第4の方向に関する類似度とを
算出する類似度算出手順と、 前記第1の方向に配列された少なくとも第1色成分の色
情報に対する加重加算の係数を示す第1方向係数パター
ンと、前記第2の方向に配列された少なくとも第1色成
分の色情報に対する加重加算の係数を示す第2方向係数
パターンと、前記第3の方向に配列された少なくとも第
1色成分以外の色情報に対する加重加算の係数を示す第
3方向係数パターンと、前記第4の方向に配列された少
なくとも第1色成分以外の色情報に対する加重加算の係
数を示す第4方向係数パターンとを記録する記録手順
と、 前記類似度算出手順によって算出される類似度と前記記
録手順に記録されている係数パターンとを用いて輝度成
分を生成する輝度成分生成手順とを備えたことを特徴と
する画像処理プログラム。
39. A multi-spectral image represented by first to n-th (n ≧ 2) color components and having one color information in each of pixels arranged in a two-dimensional square lattice, An image processing program for causing a computer to realize image processing for generating a luminance component of a color system different from the color system of a spectrum image, by directly referring to the color information of the multispectral image,
, A similarity regarding a second direction orthogonal to the first direction, a similarity regarding a third direction different from the first direction and the second direction, and the third A similarity calculation procedure for calculating a similarity with respect to a fourth direction orthogonal to the direction, and a first direction coefficient indicating a weighted addition coefficient for color information of at least the first color component arranged in the first direction. A pattern, a second direction coefficient pattern indicating a weighted addition coefficient for color information of at least the first color component arranged in the second direction, and at least a first color component other than the first color component arranged in the third direction. A third directional coefficient pattern indicating a weighted addition coefficient for color information and a fourth directional coefficient pattern indicating a weighted addition coefficient for color information other than at least the first color component arranged in the fourth direction are recorded. Image processing, comprising: a recording procedure; and a luminance component generation procedure for generating a luminance component using the similarity calculated by the similarity calculation procedure and the coefficient pattern recorded in the recording procedure. program.
JP2001401713A 2001-12-28 2001-12-28 Image processing device and image processing program Pending JP2003196649A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001401713A JP2003196649A (en) 2001-12-28 2001-12-28 Image processing device and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001401713A JP2003196649A (en) 2001-12-28 2001-12-28 Image processing device and image processing program

Publications (1)

Publication Number Publication Date
JP2003196649A true JP2003196649A (en) 2003-07-11

Family

ID=27605492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001401713A Pending JP2003196649A (en) 2001-12-28 2001-12-28 Image processing device and image processing program

Country Status (1)

Country Link
JP (1) JP2003196649A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007206593A (en) * 2006-02-06 2007-08-16 Seiko Epson Corp Oblique printing method and printer
JP2009055281A (en) * 2007-08-27 2009-03-12 Mega Chips Corp Image processing apparatus
JP2009100150A (en) * 2007-10-16 2009-05-07 Acutelogic Corp Device, method, and program for image processing
EP2152010A2 (en) 2008-08-06 2010-02-10 Canon Kabushiki Kaisha Luminance signal generation apparatus, luminance signal generation method, and image capturing apparatus
WO2014050251A1 (en) * 2012-09-28 2014-04-03 株式会社メガチップス Pixel interpolation device, imaging device, program, and integrated circuit
US20180260941A1 (en) * 2017-03-07 2018-09-13 Adobe Systems Incorporated Preserving color in image brightness adjustment for exposure fusion
CN113877827A (en) * 2021-09-14 2022-01-04 深圳玩智商科技有限公司 Logistics piece grabbing method, grabbing equipment and storage medium

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007206593A (en) * 2006-02-06 2007-08-16 Seiko Epson Corp Oblique printing method and printer
JP2009055281A (en) * 2007-08-27 2009-03-12 Mega Chips Corp Image processing apparatus
US8798398B2 (en) 2007-08-27 2014-08-05 Megachips Corporation Image processing apparatus
JP2009100150A (en) * 2007-10-16 2009-05-07 Acutelogic Corp Device, method, and program for image processing
EP2152010A2 (en) 2008-08-06 2010-02-10 Canon Kabushiki Kaisha Luminance signal generation apparatus, luminance signal generation method, and image capturing apparatus
US8130286B2 (en) 2008-08-06 2012-03-06 Canon Kabushiki Kaisha Luminance signal generation apparatus, luminance signal generation method, and image capturing apparatus
JP2014072663A (en) * 2012-09-28 2014-04-21 Mega Chips Corp Pixel interpolating device, imaging apparatus, program and integrated circuit
WO2014050251A1 (en) * 2012-09-28 2014-04-03 株式会社メガチップス Pixel interpolation device, imaging device, program, and integrated circuit
US9251602B2 (en) 2012-09-28 2016-02-02 Megachips Corporation Pixel interpolation apparatus, imaging apparatus, pixel interpolation processing method, integrated circuit, and non-transitory computer readable storage medium
US20180260941A1 (en) * 2017-03-07 2018-09-13 Adobe Systems Incorporated Preserving color in image brightness adjustment for exposure fusion
US10706512B2 (en) * 2017-03-07 2020-07-07 Adobe Inc. Preserving color in image brightness adjustment for exposure fusion
CN113877827A (en) * 2021-09-14 2022-01-04 深圳玩智商科技有限公司 Logistics piece grabbing method, grabbing equipment and storage medium
CN113877827B (en) * 2021-09-14 2023-06-16 深圳玩智商科技有限公司 Logistics part grabbing method, grabbing equipment and storage medium

Similar Documents

Publication Publication Date Title
KR100791375B1 (en) Apparatus and method for color correction
US6934056B2 (en) Noise cleaning and interpolating sparsely populated color digital image using a variable noise cleaning kernel
US7236628B2 (en) Interpolation processing apparatus and recording medium having interpolation processing program recording therein
JPWO2002060186A1 (en) Image processing method, image processing program, and image processing device
JP2001061157A (en) Image processing method, machine-readable recording medium with image processing program recorded therein and image processor
US20060119896A1 (en) Image processing apparatus, image processing program, electronic camera, and image processing method for smoothing image of mixedly arranged color components
JP2002300461A (en) Image restoring device, image restoring method and program thereof and recording medium
JP4329542B2 (en) Image processing apparatus and image processing program for determining similarity of pixels
JP4321064B2 (en) Image processing apparatus and image processing program
US7801355B2 (en) Image processing method, image processing device, semiconductor device, electronic apparatus, image processing program, and computer-readable storage medium
JP4317619B2 (en) Image processing device
JPWO2002021849A1 (en) Image processing apparatus and color system conversion method
US7623705B2 (en) Image processing method, image processing apparatus, and semiconductor device using one-dimensional filters
JP2003196649A (en) Image processing device and image processing program
JP2001119705A (en) Color image pickup device
JP2003123063A (en) Image processor
JP2001320720A (en) Signal processing method and signal processor
JP4196055B2 (en) Image processing method, image processing program, and image processing apparatus
JP4239483B2 (en) Image processing method, image processing program, and image processing apparatus
JP3899144B2 (en) Image processing device
JP2001275126A (en) Interpolation processor and recording medium recorded with interpolation processing program
JP4239480B2 (en) Image processing method, image processing program, and image processing apparatus
JP2012100215A (en) Image processing device, imaging device, and image processing program
JP4019304B2 (en) Image processing apparatus, image processing method, program, and recording medium
WO2012004973A1 (en) Image processing device, imaging device, and image processing program