JP2000278702A - Interpolation processor and recording medium storing interpolation processing program - Google Patents

Interpolation processor and recording medium storing interpolation processing program

Info

Publication number
JP2000278702A
JP2000278702A JP11083168A JP8316899A JP2000278702A JP 2000278702 A JP2000278702 A JP 2000278702A JP 11083168 A JP11083168 A JP 11083168A JP 8316899 A JP8316899 A JP 8316899A JP 2000278702 A JP2000278702 A JP 2000278702A
Authority
JP
Japan
Prior art keywords
interpolation
color information
similarity
pixel
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11083168A
Other languages
Japanese (ja)
Inventor
Takeshi Utagawa
健 歌川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP11083168A priority Critical patent/JP2000278702A/en
Publication of JP2000278702A publication Critical patent/JP2000278702A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Of Color Television Signals (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

PROBLEM TO BE SOLVED: To surely improve the decision accuracy of similarity by removing the low band part of spatial frequency from a color image to be interpolated and mutually comparing the color information of different colors in the prescribed color image to decide similarity. SOLUTION: An interpolation processing part removes the low band part of spatial frequency from image data to be interpolated and calculates color information mainly consisting of a high band part. Namely the absolute value of the difference between red color information and green color information in an image mainly consisting of a high band part is calculated for a pixel having red color information, the absolute value of the difference between blue color information and green color information in the image mainly consisting of the high band part is calculated for a pixel having blue color information, the different color information data in the image mainly consisting of the high band part are mutually compared, and the vertical similarity and horizontal similarity of the pixel to be interpolated are calculated. Then the evaluation values of vertical and horizontal similarity are calculated by using the vertical and horizontal similarity of plural pixels close to each other and then red and blue are interpolated.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、予め決められた複
数の色の色情報から成るカラー画像に対して、複数の方
向に対する類似性の強弱の判定を行い、該判定の結果に
応じて画素毎に欠落する色の色情報に相当する補間量を
算出することによって補間処理を行う補間処理装置と、
該補間処理をコンピュータに実行させる補間処理プログ
ラムを記録した記録媒体とに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention determines the degree of similarity in a plurality of directions with respect to a color image composed of color information of a plurality of predetermined colors, and determines a pixel based on the result of the determination. An interpolation processing device that performs an interpolation process by calculating an interpolation amount corresponding to color information of a missing color for each color;
And a recording medium storing an interpolation processing program for causing a computer to execute the interpolation processing.

【0002】[0002]

【従来の技術】電子カメラには、3色(例えば、RG
B:赤色・緑色・青色)のカラーフィルタが所定の位置
に配置(例えば、ベイア配列など)された撮像素子によ
ってカラー画像の画像データを生成するものがある。こ
のような電子カメラでは、個々の画素で1色の色情報し
か生成されない。そのため、画素単位で全ての色の色情
報を得るためには、補間処理が必要である。
2. Description of the Related Art Electronic cameras have three colors (for example, RG
There is a type in which image data of a color image is generated by an image sensor in which color filters of B, red, green, and blue) are arranged at predetermined positions (for example, a Bayer arrangement). In such an electronic camera, only one color information is generated for each pixel. Therefore, interpolation processing is necessary to obtain color information of all colors on a pixel-by-pixel basis.

【0003】このような補間処理の方法としては、補間
処理の対象となる補間対象画素の空間的な類似性を判定
し、類似性の強い方向に隣接する画素の色情報を用いて
補間量を算出する方法が従来から考えられている。
[0003] As a method of such interpolation processing, the spatial similarity of an interpolation target pixel to be subjected to interpolation processing is determined, and the amount of interpolation is determined using color information of pixels adjacent in the direction of strong similarity. Conventionally, a calculation method has been considered.

【0004】例えば、米国特許第5,373,322号明
細書、米国特許第5,382,976号明細書、米国特許
第5,629,734号明細書には、補間対象画素の空間
的な類似性を色傾斜(chrominance gradients)によっ
て判定する技術が開示されている。図6は、これらの米
国特許明細書に開示された従来の補間処理を説明する図
である。図6は、撮像素子(RGBの3色のカラーフィ
ルタがベイア配列されて構成される)の各画素に対応す
る色情報を示し、G11,G13,・・・,G66など
は、緑色(G)の色情報を示し、R12,R14,・・
・,R56などは、赤色(R)の色情報を示し、B2
1,B23,・・・,B67などは、青色(B)の色情
報を示す。
For example, US Pat. No. 5,373,322, US Pat. No. 5,382,976, and US Pat. No. 5,629,734 disclose spatial interpolation pixels. Techniques for determining similarity by chrominance gradients have been disclosed. FIG. 6 is a diagram illustrating the conventional interpolation processing disclosed in these US patent specifications. FIG. 6 shows color information corresponding to each pixel of the image pickup device (configured such that three color filters of RGB are arranged in a Bayer array). G11, G13,... R12, R14,...
.., R56 and the like indicate red (R) color information, and B2
1, B23,..., B67, etc. indicate blue (B) color information.

【0005】米国特許第5,373,322号明細書に開
示された技術では、R34を有する画素の緑色の補間量
を求める際、横方向の色傾斜に関する情報HDiff およ
び縦方向の色傾斜に関する情報HDiffを HDiff =|((R32+R36)/2)−R34| VDiff =|((R14+R54)/2)−R34| によって求め、HDiff<VDiffである場合に横方向の
類似性が強いと判定し、VDiff<HDiffである場合に
縦方向の類似性が強いと判定する。
In the technique disclosed in US Pat. No. 5,373,322, when calculating the amount of green interpolation of a pixel having R34, information HDiff on the horizontal color gradient and information on the color gradient in the vertical direction are used. HDiff = | ((R32 + R36) / 2) -R34 | VDiff = | ((R14 + R54) / 2) -R34 |, and when HDiff <VDiff, it is determined that the similarity in the horizontal direction is strong, and VDiff is determined. If <HDiff, it is determined that the similarity in the vertical direction is strong.

【0006】以下、説明を簡単にするため、縦方向の類
似性が強いことを縦類似と称し、横方向の類似性が強い
ことを横類似と称し、双方向の類似性が酷似しているこ
とを中間類似と称する。米国特許第5,382,976号
明細書に開示された技術では、R34を有する画素の緑
色の補間量を求める際、横方向の色傾斜に関する情報G
diff-horおよび縦方向の色傾斜に関する情報Gdiff-ver
を Gdiff-hor=|G33−G35| Gdiff-ver=|G24−G44| によって求め、閾値Thresholdについて、 Gdiff-hor<Threshold∩Gdiff-ver>Threshold が成り立つ場合に横類似と判定し、 Gdiff-hor>Threshold∩Gdiff-ver<Threshold が成り立つ場合に縦類似と判定する。
Hereinafter, for the sake of simplicity, strong similarity in the vertical direction is referred to as vertical similarity, strong similarity in the horizontal direction is referred to as horizontal similarity, and two-way similarities are very similar. This is called an intermediate similarity. According to the technique disclosed in U.S. Pat. No. 5,382,976, when calculating a green interpolation amount of a pixel having R34, information G on a horizontal color gradient is obtained.
Information on diff-hor and vertical color gradient Gdiff-ver
Gdiff-hor = | G33-G35 | If> Threshold∩Gdiff-ver <Threshold, it is determined that the images are vertically similar.

【0007】米国特許第5,629,734号明細書に
開示された技術では、R34を有する画素の緑色の補間
量を求める際、横方向の色傾斜に関する情報DHおよび
縦方向の類似度に関する情報DVを DH=|−R32+2×R34−R36|+|G33−
G35| DV=|−R14+2×R34−R54|+|G24−
G44| によって求め、DH<DVである場合に横類似と判定
し、DV<DHである場合に縦類似と判定する。
In the technique disclosed in US Pat. No. 5,629,734, when calculating the amount of green interpolation of a pixel having R34, information DH on the horizontal color gradient and information on the similarity in the vertical direction are obtained. DV is calculated as follows: DH = | −R32 + 2 × R34−R36 | + | G33−
G35 | DV = | -R14 + 2 × R34-R54 | + | G24-
G44 |, it is determined that horizontal similarity is obtained when DH <DV, and vertical similarity is determined when DV <DH.

【0008】ところで、図6に示すように、RGBの3
色のカラーフィルタがベイア配列されて構成される撮像
素子において、縦方向と横方向とに対する各画素の間隔
を画素ピッチPとした場合、上述した各々の色傾斜に関
する情報は、2Pの間隔に配置された各画素の色情報の
勾配に相当する。したがって、上述した米国特許明細書
に開示された技術では、縦方向や横方向に対して2Pよ
りも細かく変化するカラー画像(空間周波数が高いカラ
ー画像)に対しては、類似性の強い方向を精度良く判定
することができず、補間量を的確に算出することができ
ない。
By the way, as shown in FIG.
In a case where the pixel pitch in the vertical direction and the horizontal direction is defined as a pixel pitch P in an imaging device in which color filters of colors are arranged in a Bayer array, the information on each color gradient described above is arranged at a 2P interval. Of the color information of each pixel. Therefore, according to the technology disclosed in the above-mentioned U.S. Patent Specification, for a color image (a color image having a high spatial frequency) that changes more finely than 2P in the vertical direction and the horizontal direction, a direction having a strong similarity is determined. The determination cannot be made with high accuracy, and the interpolation amount cannot be accurately calculated.

【0009】そこで、本出願人は、空間周波数の高いカ
ラー画像に対しても、補間量を的確に算出することがで
きる発明を特願平10−70454号、特願平10−1
51278号として出願している。これらの発明では、
異なる色の色情報を用いて類似性の判定を行うことが可
能であるため、1画素間隔(Pの間隔)で色情報を比較
することによって類似性の判定を行うことができる。し
たがって、これらの発明では、無彩色に近く彩度の低い
カラー画像(色合いが似ており、RGBの各々の空間周
波数が酷似した波形を示すカラー画像)については、空
間周波数が高くても補間量を的確に算出することができ
る。
Accordingly, the present applicant has proposed an invention capable of accurately calculating an interpolation amount even for a color image having a high spatial frequency, as disclosed in Japanese Patent Application Nos. 10-70454 and 10-1.
No. 51278. In these inventions,
Since similarity can be determined using color information of different colors, similarity can be determined by comparing color information at one pixel interval (interval of P). Therefore, according to these inventions, for a color image which is close to an achromatic color and has low saturation (a color image having a similar hue and a waveform in which the spatial frequencies of RGB are very similar), even if the spatial frequency is high, the interpolation amount Can be accurately calculated.

【0010】なお、自然画像は、実質的に無彩色に近い
場合が殆どであるため、このような補間処理によって、
かなり高い精度で補間量を算出することができる。
In most cases, a natural image is substantially close to an achromatic color.
The interpolation amount can be calculated with considerably high accuracy.

【0011】[0011]

【発明が解決しようとする課題】ところで、色合いが急
変する部分や彩度が高い部分(RGBの各々の空間周波
数が異なる波形を示す部分)を含むカラー画像では、た
とえ隣接していても異なる色情報を有する画素であれ
ば、色情報の値に大幅な差違が生じる可能性がある。そ
のため、このようなカラー画像に対しては、異なる色の
色情報を用いて類似性の判定を行っても、類似性の判定
を正しく行うことができない場合があり、補間処理を行
うことによって原画像に本来存在し得ない偽色が発生す
る可能性があった。
By the way, in a color image including a portion where the hue changes suddenly or a portion with high saturation (a portion showing a waveform in which each spatial frequency of RGB is different), different colors are used even if they are adjacent to each other. If the pixel has information, there is a possibility that a large difference occurs in the value of the color information. Therefore, even if similarity determination is performed on such a color image using color information of different colors, the similarity determination may not be correctly performed. There is a possibility that a false color that cannot originally exist in an image may occur.

【0012】そこで、請求項1ないし請求項4に記載の
発明は、類似性の判定時のカラー画像の特性による影響
を抑えて、精度良く類似性の判定を行って偽色の発生を
抑制することができる補間処理装置を提供することを目
的とする。また、請求項5に記載の発明は、類似性の判
定時のカラー画像の特性による影響を抑えて、精度良く
類似性の判定を行って偽色の発生を抑制することができ
る補間処理をコンピュータに実行させることができる補
間処理プログラムを記録した記録媒体を提供することを
目的とする。
Therefore, the inventions according to the first to fourth aspects suppress the influence of the characteristics of the color image when determining the similarity, and perform the similarity determination with high accuracy to suppress the generation of false colors. It is an object of the present invention to provide an interpolation processing device capable of performing the above. According to a fifth aspect of the present invention, an interpolation process capable of suppressing the influence of the characteristics of a color image at the time of determining similarity and performing similarity determination with high accuracy to suppress the occurrence of false colors. It is an object of the present invention to provide a recording medium that records an interpolation processing program that can be executed by a computer.

【0013】[0013]

【課題を解決するための手段】以下、後述する実施形態
に対応付けて、課題を解決するための手段を説明する。
請求項1に記載の補間処理装置は、予め決められた複数
の色の色情報から成るカラー画像に対して、画素毎に欠
落する色の色情報に相当する補間量を算出する補間処理
を行う補間処理装置において、カラー画像の空間周波数
の低域成分を所定量除去し、空間周波数の高域成分を主
体とする高域主体画像を生成する高域主体画像生成手段
(図2S2およびS3の処理を行っている状態の図1の
補間処理部20に対応する)と、高域主体画像生成手段
によって生成された高域主体画像の色情報を参照し、補
間処理の対象となる補間対象画素が有する色情報と該補
間対象画素の近傍に位置する画素が有する色情報とのう
ち、異なる色の色情報を比較することによって該補間対
象画素における複数の方向に対する類似性の強弱の判定
を行う類似性判定手段(図2S4およびS5の処理を行
っている状態の図1の補間処理部20に対応する)と、
類似性判定手段による判定の結果に応じて、前記補間対
象画素の補間量を算出する補間量算出手段(図2S6の
処理を行っている状態の図1の補間処理部20に対応す
る)とを備えたことを特徴とする。
Means for solving the problem will be described below in association with embodiments described later.
The interpolation processing device according to claim 1 performs an interpolation process for calculating an interpolation amount corresponding to color information of a missing color for each pixel on a color image including color information of a plurality of predetermined colors. In the interpolation processing device, a high-frequency main image generating means for removing a predetermined amount of the low-frequency component of the spatial frequency of the color image and generating a high-frequency main image mainly including the high-frequency component of the spatial frequency (the processing in FIGS. 2S2 and S3) Is performed, and the color information of the high-frequency main image generated by the high-frequency main image generation means is referred to, and an interpolation target pixel to be subjected to the interpolation processing is determined. A similarity that determines the strength of similarity of the interpolation target pixel in a plurality of directions by comparing color information of different colors among the color information of the interpolation target pixel and the color information of a pixel located in the vicinity of the interpolation target pixel. Sex judgment A stage (corresponding to the interpolation processing unit 20 of FIG processing by the state of performing the FIG 2S4 and S5 1),
An interpolation amount calculating unit (corresponding to the interpolation processing unit 20 in FIG. 1 in a state where the processing in FIG. 2 is performed) in accordance with the result of the determination by the similarity determining unit. It is characterized by having.

【0014】ところで、高域主体画像生成手段によって
生成される高域主体画像は、補間処理の対象となるカラ
ー画像のエッジ部分が強調され、無彩色に近く彩度の低
いカラー画像(色合いが似ているカラー画像)に相当す
る。すなわち、請求項1に記載の発明では、空間周波数
の低域成分が除去された無彩色に近く彩度の低いカラー
画像に対し、異なる色の色情報を比較することによって
類似性の判定を行うことになるので、同様の類似性の判
定を空間周波数の低域成分が除去される前のカラー画像
に対して行う場合と比べて、類似性の判定の精度を確実
に向上させることができる。
By the way, the high-frequency main image generated by the high-frequency main image generating means has an edge portion of the color image to be subjected to the interpolation processing emphasized, and is a color image close to an achromatic color and low in saturation (having a similar color tone). Color image). That is, according to the first aspect of the present invention, similarity determination is performed by comparing color information of different colors with a color image that is close to an achromatic color and has low saturation, from which low-frequency components of the spatial frequency have been removed. Therefore, the accuracy of the similarity determination can be reliably improved compared to the case where the similarity determination is performed on the color image before the low frequency component of the spatial frequency is removed.

【0015】なお、高域主体画像生成手段は、補間処理
の対象となるカラー画像の全域を対象として高域主体画
像を生成しても良く、カラー画像の一部(例えば、補間
対象画素および補間対象画素の近傍に位置する画素)を
対象として高域主体画像を生成しても良い。また、高域
主体画像生成手段は、比較的広域な領域に位置する画素
を対象として高域主体画像を生成する処理と、比較的狭
域な領域に位置する画素を対象として高域主体画像を生
成する処理とを切り換えて行っても良い。
The high-frequency main image generating means may generate the high-frequency main image for the whole area of the color image to be subjected to the interpolation processing, and may generate a part of the color image (for example, the interpolation target pixel and the interpolation target pixel). A high-frequency main image may be generated for a pixel located in the vicinity of the target pixel). Further, the high-frequency main image generation means includes a process of generating a high-frequency main image targeting pixels located in a relatively wide area, and a process of generating a high-frequency main image targeting pixels located in a relatively narrow area. The process for generation may be switched.

【0016】ここで、比較的広域な領域に位置する画素
を対象として高域主体画像を生成する処理は、色情報が
滑らかに変化する部分に適しており、比較的狭域な領域
に位置する画素を対象として高域主体画像を生成する処
理は、色情報が激しく変化する部分に適している。
Here, the process of generating a high-frequency main image for pixels located in a relatively wide area is suitable for a portion where color information changes smoothly and is located in a relatively narrow area. The process of generating a high-frequency main image for a pixel is suitable for a portion where color information changes drastically.

【0017】さらに、補間量算出手段による補間量の算
出方法の一形態としては、類似性判定手段によって判定
された類似性の強弱に応じて、補間対象画素および補間
対象画素の近傍に位置する画素から補間対象画素の補間
量を算出する際に色情報を参照すべき画素(例えば、類
似性が強い方向に位置する画素など)を選択し、該画素
が有する色情報を用いて補間量を算出する方法が考えら
れる。
Further, as one mode of a method of calculating the interpolation amount by the interpolation amount calculating means, an interpolation target pixel and a pixel located in the vicinity of the interpolation target pixel are determined in accordance with the strength of the similarity determined by the similarity determining means. When calculating the interpolation amount of the pixel to be interpolated, a pixel (for example, a pixel located in a direction having a high similarity) to be referred to when calculating the interpolation amount is selected, and the interpolation amount is calculated using the color information of the pixel. There is a way to do it.

【0018】請求項2に記載の補間処理装置は、請求項
1に記載の補間処理装置において、高域主体画像生成手
段は、前記カラー画像の空間周波数の低域成分の半分以
上を除去して、高域主体画像を生成すること(式15〜
式17において、係数kが「k>0.5」を満足する値であ
ることに対応する)を特徴とする。請求項3に記載の補
間処理装置は、請求項1または請求項2に記載の補間処
理装置において、高域主体画像生成手段は、前記カラー
画像の空間周波数の低域成分を少量残して、高域主体画
像を生成すること(式15〜式17において、係数kが
「1>k」を満足する値であることに対応する)を特徴と
する。
According to a second aspect of the present invention, in the interpolation processing apparatus according to the first aspect, the high-frequency main image generating means removes at least half of a low-frequency component of the spatial frequency of the color image. Generating a high-frequency main image (Equation 15 to
In Equation 17, the coefficient k is a value that satisfies “k> 0.5”. According to a third aspect of the present invention, in the interpolation processing apparatus according to the first or second aspect, the high-frequency main image generating means leaves a small amount of low-frequency components of the spatial frequency of the color image high, It is characterized in that a region-based image is generated (corresponding to a value in which the coefficient k satisfies “1> k” in Equations 15 to 17).

【0019】請求項4に記載の補間処理装置は、請求項
1ないし請求項3の何れか1項に記載の補間処理装置に
おいて、類似性判定手段は、高域主体画像生成手段によ
って生成された高域主体画像の色情報を参照し、補間対
象画素が有する色情報と該補間対象画素の近傍に位置す
る画素が有する色情報とのうち、異なる色の色情報を比
較して該補間対象画素の類似度を算出すると共に、該補
間対象画素と同様にして該補間対象画素の近傍に位置す
る画素の類似度を算出し(図2S4に対応する)、該補
間対象画素の類似度と該補間対象画素の近傍に位置する
複数の画素の類似度とを用いて、該補間対象画素におけ
る複数の方向に対する類似性の強弱の判定を行う(図2
S5に対応する)ことを特徴とする。
According to a fourth aspect of the present invention, in the interpolation processing apparatus according to any one of the first to third aspects, the similarity determining means is generated by the high-frequency main image generating means. Referring to the color information of the high-frequency main image, the color information of the interpolation target pixel is compared with the color information of a pixel located in the vicinity of the interpolation target pixel, and the color information of a different color is compared. , The similarity of a pixel located in the vicinity of the interpolation target pixel is calculated in the same manner as the interpolation target pixel (corresponding to S4 in FIG. 2), and the similarity of the interpolation target pixel and the interpolation are calculated. Using the similarity of a plurality of pixels located near the target pixel, the degree of similarity of the interpolation target pixel in a plurality of directions is determined (FIG. 2).
(Corresponding to S5).

【0020】請求項5に記載の記録媒体は、コンピュー
タを請求項1ないし請求項4の何れか1項に記載の高域
主体画像生成手段、類似性判定手段、補間量算出手段と
して機能させるための補間処理プログラムを記録したこ
とを特徴とする。
According to a fifth aspect of the present invention, there is provided a recording medium for causing a computer to function as a high-frequency main image generating unit, a similarity determining unit, and an interpolation amount calculating unit according to any one of the first to fourth aspects. Is recorded.

【0021】[0021]

【発明の実施の形態】以下、図面に基づいて、本発明の
実施形態について詳細を説明する。図1は、第1の実施
形態に対応する電子カメラの機能ブロック図である。な
お、第1の実施形態に対応する電子カメラは、請求項1
ないし請求項4に記載の補間処理装置が行う補間処理の
機能を備えた電子カメラに相当する。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a functional block diagram of an electronic camera corresponding to the first embodiment. An electronic camera corresponding to the first embodiment is described in claim 1.
Further, the present invention corresponds to an electronic camera having a function of an interpolation process performed by the interpolation processing device according to the present invention.

【0022】図1において、電子カメラ10は、制御部
11、撮影光学系12、OLPF (光学ローパスフィル
タ:Optical Low Pass Filter)13、撮像素子14、A
/D変換部15、画像バッファメモリ16、階調変換部
17、画像処理部18および記録部19を有する。ま
た、画像処理部18は、補間処理部(補間処理専用の1
チップ・マイクロプロセッサ)20を有する。
In FIG. 1, an electronic camera 10 includes a control unit 11, a photographing optical system 12, an OLPF (Optical Low Pass Filter) 13, an image sensor 14,
It has a / D conversion unit 15, an image buffer memory 16, a gradation conversion unit 17, an image processing unit 18, and a recording unit 19. The image processing unit 18 includes an interpolation processing unit (1 dedicated to the interpolation processing).
Chip microprocessor) 20.

【0023】なお、図1では、説明を簡略化するため、
画像処理部18内に補間処理部20のみを記載している
が、画像処理部18内には、他の画像処理を行う機能ブ
ロックが設けられても良い。図1において、制御部11
は、撮像素子14、A/D変換部15、画像バッファメ
モリ16、階調変換部17、画像処理部18および記録
部19に接続される。
In FIG. 1, in order to simplify the explanation,
Although only the interpolation processing unit 20 is described in the image processing unit 18, a functional block for performing other image processing may be provided in the image processing unit 18. In FIG. 1, the control unit 11
Is connected to the image sensor 14, the A / D converter 15, the image buffer memory 16, the gradation converter 17, the image processor 18, and the recorder 19.

【0024】撮影光学系12で取得された光学像は、O
LPF13を介して撮像素子14に与えられる。撮像素
子14の出力は、A/D変換部15によって量子化され
て、補間処理の対象となるカラー画像の画像データとし
て画像バッファメモリ16に格納される。画像バッファ
メモリ16に格納された画像データは、画像処理部18
に供給されて補間処理部20によって補間処理が施さ
れ、記録部19を介して記録される。
The optical image acquired by the photographing optical system 12 is O
This is provided to the image sensor 14 via the LPF 13. The output of the image sensor 14 is quantized by the A / D converter 15 and stored in the image buffer memory 16 as image data of a color image to be interpolated. The image data stored in the image buffer memory 16 is stored in an image processing unit 18.
, Is subjected to an interpolation process by an interpolation processing unit 20, and is recorded via a recording unit 19.

【0025】なお、本実施形態では、OLPF13を設
けず、撮影光学系12で取得された光学像が撮像素子1
4に直接与えられても良い。また、本実施形態におい
て、補間処理の対象となる画像データは、画像処理部1
8に供給される前に、階調変換部17によって階調変換
(log化やγ変換等)が行われても良い。図2は、第
1の実施形態における補間処理部20の動作フローチャ
ートである。
In this embodiment, the OLPF 13 is not provided, and the optical image acquired by the photographing optical system 12 is
4 may be given directly. In the present embodiment, the image data to be subjected to the interpolation processing is the image processing unit 1
Before being supplied to 8, gradation conversion (log conversion, γ conversion, etc.) may be performed by the gradation conversion unit 17. FIG. 2 is an operation flowchart of the interpolation processing unit 20 according to the first embodiment.

【0026】図3は、第1の実施形態における補間処理
の対象となる画像データの色情報の配列を示す図であ
る。なお、図3では、色情報が配置される位置を「右方
向を正とする横軸X」と「下方向を正とする縦軸Y」と
で構成される座標系で表し、緑色の色情報をG[X,Y]で表
し、赤色または青色の色情報をRB[X,Y]で表す。
FIG. 3 is a diagram showing an array of color information of image data to be subjected to interpolation processing in the first embodiment. In FIG. 3, the position at which the color information is arranged is represented by a coordinate system composed of “a horizontal axis X having a positive right direction” and a vertical axis Y having a positive downward direction. Information is represented by G [X, Y], and red or blue color information is represented by RB [X, Y].

【0027】すなわち、赤色の色情報をR[X,Y]とし、青
色の色情報をB[X,Y]とすると、任意の座標[i,j]に位置
する画素が赤色の色情報を有する場合、RB[i,j]は、R
[i,j]に相当し、任意の座標[i,j]に位置する画素が青色
の色情報を有する場合、RB[i,j]は、B[i,j]に相当す
る。また、図3において、任意の座標[i,j]について「i
+j=偶数」が成り立つ場合、その座標には緑色の色情報
を有する画素が位置し、「i+j=奇数」が成り立つ場合、
その座標には赤色または青色の色情報を有する画素が位
置することになる。さらに、「i+j=奇数かつi=偶数」が
成り立つ座標に赤色の色情報を有する画素が位置すると
仮定すると、「i+j=奇数かつi=奇数」が成り立つ座標に
は、青色の色情報を有する画素が位置することになる。
That is, assuming that the red color information is R [X, Y] and the blue color information is B [X, Y], the pixel located at an arbitrary coordinate [i, j] is the red color information. If so, RB [i, j] is R
When a pixel corresponding to [i, j] and located at an arbitrary coordinate [i, j] has blue color information, RB [i, j] corresponds to B [i, j]. Also, in FIG. 3, “i
When + j = even number holds, a pixel having green color information is located at the coordinates, and when i + j = odd number holds,
A pixel having red or blue color information is located at the coordinates. Further, assuming that a pixel having red color information is located at a coordinate where “i + j = odd and i = even”, a blue color is provided at a coordinate where “i + j = odd and i = odd”. A pixel having information will be located.

【0028】以下、第1の実施形態の動作を説明する
が、第1の実施形態では、図2を参照して補間処理部2
0の動作(特に、緑色の補間処理)を中心に説明する。
なお、図2において、S1〜S6の処理が緑色の補間処
理に相当する。まず、補間処理部20は、緑色の色情報
が欠落する画素(緑色の補間処理の対象となる補間対象
画素に相当する)について、緑色の補間量の縦方向予測
値Gtおよび横方向予測値Gyを算出する(S1)。
The operation of the first embodiment will be described below. In the first embodiment, the interpolation processing unit 2 will be described with reference to FIG.
The following description focuses on the operation at 0 (particularly, green interpolation processing).
In FIG. 2, the processing of S1 to S6 corresponds to green interpolation processing. First, the interpolation processing unit 20 performs a vertical prediction value Gt and a horizontal prediction value Gy of a green interpolation amount for a pixel in which green color information is missing (corresponding to a pixel to be subjected to green interpolation processing). Is calculated (S1).

【0029】ここで、縦方向予測値とは、縦方向の類似
性が強い場合に補間量として適用される値に相当し、横
方向予測値とは、横方向の類似性が強い場合に補間量と
して適用される値に相当する。例えば、補間処理部20
は、以下に示す<<縦方向予測値の算出処理>>および<<横
方向予測値の算出処理>>によって、緑色の補間量の縦方
向予測値Gtおよび横方向予測値Gyを算出する。
Here, the vertical predicted value corresponds to a value applied as an interpolation amount when the vertical similarity is strong, and the horizontal predicted value is an interpolation value when the horizontal similarity is strong. It corresponds to the value applied as a quantity. For example, the interpolation processing unit 20
Calculates the vertical prediction value Gt and the horizontal prediction value Gy of the green interpolation amount by the following << vertical prediction value calculation processing >> and << horizontal prediction value calculation processing >>.

【0030】<<縦方向予測値の算出処理>>補間処理部2
0は、図3において、緑色の色情報が欠落する画素(赤
色または青色の色情報を有する画素)の座標を[i,j]
(ただし、「i+j=奇数」である)とすると、その画素の
色情報RB[i,j]と、その画素の近傍に位置する画素の色
情報RB[i,j-2],RB[i,j+2],RB[i,j-2],RB[i,j+2]との間
に、 {((RB[i,j]-RB[i,j-2])>th2)∩((RB[i,j]-RB[i,j+2])>th2)} ∪{(RB[i,j]-RB[i,j-2])<-th2)∩(RB[i,j]-RB[i,j+2]<-th2)} …条件1 が成り立つ場合、緑色の補間量の縦方向予測値Gt[i,j]
を Gt[i,j]=(G[i,j-1]+G[i,j+1])/2 +(2・RB[i,j]-RB[i,j-2]-RB[i,j+2])/4 …式1 によって算出する。また、補間処理部20は、上述した
条件1が成り立たない場合、緑色の補間量の縦方向予測
値Gt[i,j]を Gt[i,j]=(G[i,j-1]・t1+G[i,j+1]・t2)/(t1+t2) …式2 によって算出する。
<< Calculation Processing of Vertical Prediction Value >> Interpolation Processing Unit 2
0 indicates the coordinates of a pixel (pixel having red or blue color information) in which green color information is missing in FIG. 3 [i, j].
(Where “i + j = odd”), the color information RB [i, j] of the pixel and the color information RB [i, j-2], RB of the pixel located near the pixel [((RB [i, j] -RB [i, j-2])> between [i, j + 2], RB [i, j-2], RB [i, j + 2] th2) ∩ ((RB [i, j] -RB [i, j + 2])> th2)} ∪ {(RB [i, j] -RB [i, j-2]) <-th2) ∩ ( RB [i, j] -RB [i, j + 2] <-th2)}... If condition 1 is satisfied, the vertical predicted value Gt [i, j] of the green interpolation amount
Gt [i, j] = (G [i, j-1] + G [i, j + 1]) / 2 + (2RB [i, j] -RB [i, j-2] -RB [i, j + 2]) / 4 Calculated by Equation 1. In addition, when the above condition 1 is not satisfied, the interpolation processing unit 20 calculates the vertical predicted value Gt [i, j] of the green interpolation amount as Gt [i, j] = (G [i, j−1] · t1 + G [i, j + 1] · t2) / (t1 + t2) Calculated by Equation 2.

【0031】ただし、条件1において、th2は、閾値で
あり、式2において、t1、t2は、 t1=|RB[i,j]-RB[i,j+2]|+1 …式3 t2=|RB[i,j]-RB[i,j-2]|+1 …式4 を満足する値である。また、条件1および後述する条件
式において、∩はandを示し、∪はorを示す。
However, in condition 1, th2 is a threshold, and in equation 2, t1 and t2 are: t1 = | RB [i, j] -RB [i, j + 2] | +1 ... Equation 3 t2 = | RB [i, j] -RB [i, j-2] | +1..., Which satisfies Expression 4. In Condition 1 and the conditional expressions described below, ∩ indicates and, and ∪ indicates or.

【0032】ところで、式3および式4における「+1」
の項は、式2における除数(t1+t2)が0になることを防
止するために付加した項である。なお、ここでは、色情
報が0以上255以下の範囲で変化することを想定して
いるため、「+1」を付加しているが、このような項の値
は、「+1」に限定されるものではない。<<横方向予測値
の算出処理>>補間処理部20は、図3において、緑色の
色情報が欠落する画素(赤色または青色の色情報を有す
る画素)の座標を[i,j](ただし、「i+j=奇数」であ
る)とすると、その画素の色情報RB[i,j]と、その画素
の近傍に位置する画素の色情報RB[i-2,j],RB[i+2,j],RB
[i-2,j],RB[i+2,j]との間に、 {((RB[i,j]-RB[i-2,j])>th2)∩((RB[i,j]-RB[i+2,j])>th2)} ∪{(RB[i,j]-RB[i-2,j])<-th2)∩((RB[i,j]-RB[i+2,j])<-th2)}] …条件2 が成り立つ場合、緑色の補間量の横方向予測値Gy[i,j]
を Gy[i,j]=(G[i-1,j]+G[i+1,j])/2 +(2・RB[i,j]-RB[i-2,j]-RB[i+2,j])/4 …式5 によって算出する。また、補間処理部20は、上述した
条件2が成り立たない場合、緑色の補間量の横方向予測
値Gy[i,j]を Gy[i,j]=(G[i-1,j]・y1+G[i+1,j]・y2)/(y1+y2) …式6 によって算出する。
By the way, "+1" in equations 3 and 4
Is a term added to prevent the divisor (t1 + t2) in Equation 2 from becoming zero. Here, since it is assumed that the color information changes in the range of 0 or more and 255 or less, “+1” is added, but the value of such a term is limited to “+1”. It is not something to be done. << Process of Calculating Horizontal Predicted Value >> In FIG. 3, the interpolation processing unit 20 sets the coordinates of a pixel (pixel having red or blue color information) where green color information is missing to [i, j] (where , [I + j = odd number]), the color information RB [i, j] of the pixel and the color information RB [i−2, j], RB [i of the pixel located near the pixel + 2, j], RB
[((RB [i, j] -RB [i-2, j])> th2) ∩ ((RB [i, j j] -RB [i + 2, j])> th2)} ∪ {(RB [i, j] -RB [i-2, j]) <-th2) ∩ ((RB [i, j] -RB [i + 2, j]) <-th2)}]... When Condition 2 is satisfied, the predicted value Gy [i, j] of the green interpolation amount in the horizontal direction
Is Gy [i, j] = (G [i-1, j] + G [i + 1, j]) / 2 + (2RB [i, j] -RB [i-2, j] -RB [i + 2, j]) / 4 Calculated by Equation 5. Further, when the above-described condition 2 is not satisfied, the interpolation processing unit 20 calculates the horizontal predicted value Gy [i, j] of the green interpolation amount as Gy [i, j] = (G [i−1, j] · y1 + G [i + 1, j] · y2) / (y1 + y2) ... Calculated by Equation 6.

【0033】ただし、条件2において、th2は、閾値で
あり、式6において、y1、y2は、 y1=|RB[i,j]-RB[i+2,j]|+1 …式7 y2=|RB[i,j]-RB[i-2,j]|+1 …式8 を満足する値である。ところで、式7および式8におけ
る「+1」の項は、式6における除数(y1+y2)が0になる
ことを防止するために付加した項である。なお、ここで
は、色情報が0以上255以下の範囲で変化することを
想定しているため、「+1」を付加しているが、このよう
な項の値は、「+1」に限定されるものではない。
However, in condition 2, th2 is a threshold, and in equation 6, y1 and y2 are: y1 = | RB [i, j] -RB [i + 2, j] | +1 ... Eq. 7 y2 = | RB [i, j] -RB [i-2, j] | +1..., Which satisfies Expression 8. The term “+1” in Equations 7 and 8 is a term added to prevent the divisor (y1 + y2) in Equation 6 from becoming zero. Here, since it is assumed that the color information changes in the range of 0 or more and 255 or less, “+1” is added, but the value of such a term is limited to “+1”. It is not something to be done.

【0034】次に、補間処理部20は、補間処理の対象
となる画像データの空間周波数の低域成分を算出する
(S2)。例えば、補間処理部20は、図3において、
任意の座標[i,j]に位置する画素が緑色の色情報G[i,j]
を有する場合、その画素における空間周波数の低域成分
LG[i,j]を LG[i,j]=(G[i,j]+G[i-1,j-1]+G[i-1,j+1]+G[i+1,j-1]+ G[i+1,j+1]+G[i-2,j]+G[i+2,j]+G[i,j-2]+G[i,j+2])/9 …式9 によって算出し、任意の座標[i,j]に位置する画素が赤
色の色情報R[i,j]を有する場合、その画素における空間
周波数の低域成分LR[i,j]を LR[i,j]=(R[i,j]+R[i-2,j]+R[i+2,j]+R[i,j-2]+R[i,j+2]+ R[i-2,j-2]+R[i+2,j-2]+R[i-2,j+2]+R[i+2,j+2])/9 …式10 によって算出し、任意の座標[i,j]に位置する画素が青
色の色情報B[i,j]を有する場合、その画素における空間
周波数の低域成分LB[i,j]を LB[i,j]=(B[i,j]+B[i-2,j]+B[i+2,j]+B[i,j-2]+B[i,j+2]+ B[i-2,j-2]+B[i+2,j-2]+B[i-2,j+2]+B[i+2,j+2])/9 …式11 によって算出する。
Next, the interpolation processing section 20 calculates a low frequency component of the spatial frequency of the image data to be subjected to the interpolation processing (S2). For example, the interpolation processing unit 20 in FIG.
The pixel located at an arbitrary coordinate [i, j] is green color information G [i, j].
, The low frequency component of the spatial frequency at that pixel
LG [i, j] is replaced by LG [i, j] = (G [i, j] + G [i-1, j-1] + G [i-1, j + 1] + G [i + 1, j-1] + G [i + 1, j + 1] + G [i-2, j] + G [i + 2, j] + G [i, j-2] + G [i, j + 2 ]) / 9... Calculated by Equation 9 and when the pixel located at an arbitrary coordinate [i, j] has red color information R [i, j], the low frequency component LR [i of the spatial frequency at that pixel , j] is LR [i, j] = (R [i, j] + R [i-2, j] + R [i + 2, j] + R [i, j-2] + R [i, j + 2] + R [i-2, j-2] + R [i + 2, j-2] + R [i-2, j + 2] + R [i + 2, j + 2]) / 9... Calculated by Expression 10, and when a pixel located at an arbitrary coordinate [i, j] has blue color information B [i, j], the low frequency component LB [i, j] of the spatial frequency at that pixel LB [i, j] = (B [i, j] + B [i-2, j] + B [i + 2, j] + B [i, j-2] + B [i, j + 2 ] + B [i-2, j-2] + B [i + 2, j-2] + B [i-2, j + 2] + B [i + 2, j + 2]) / 9 ... 11

【0035】なお、空間周波数の低域成分を算出するた
めの演算式としては、上述した式9〜式11に代えて、
以下に示す式12〜式14を用いても良い。 LG[i,j]=(G[i,j]+(G[i-1,j-1]+G[i-1,j+1]+ G[i+1,j-1]+G[i+1,j+1])/4)/2 …式12 LR[i,j]=(R[i,j]+(R[i-2,j]+R[i+2,j]+R[i,j-2]+R[i,j+2])/4)/2 …式13 LB[i,j]=(B[i,j]+(B[i-2,j]+B[i+2,j]+B[i,j-2]+B[i,j+2])/4)/2 …式14 ちなみに、式9〜式11を用いて算出される空間周波数
の低域成分は、比較的広域に位置する画素の色情報が反
映される。そのため、補間処理部20は、式9〜式11
を用いることによって、色情報が激しく変化する部分で
あっても、空間周波数の低域成分を適切に算出すること
ができる。
As an arithmetic expression for calculating the low frequency component of the spatial frequency, instead of the above-mentioned expressions 9 to 11,
Expressions 12 to 14 shown below may be used. LG [i, j] = (G [i, j] + (G [i-1, j-1] + G [i-1, j + 1] + G [i + 1, j-1] + G [i + 1, j + 1]) / 4) / 2 Equation 12 LR [i, j] = (R [i, j] + (R [i-2, j] + R [i + 2, j ] + R [i, j-2] + R [i, j + 2]) / 4) / 2 Equation 13 LB [i, j] = (B [i, j] + (B [i-2, j] + B [i + 2, j] + B [i, j-2] + B [i, j + 2]) / 4) / 2 Equation 14 Incidentally, it is calculated using Equations 9 to 11. The low-frequency component of the spatial frequency reflects color information of a pixel located in a relatively wide area. Therefore, the interpolation processing unit 20 calculates Equations 9 to 11
Is used, it is possible to appropriately calculate the low frequency component of the spatial frequency even in a portion where the color information changes drastically.

【0036】一方、色情報が滑らかに変化する部分にお
ける空間周波数の低域成分は、比較的狭域に位置する画
素の色情報だけを用いても算出することが可能である。
そのため、補間処理部20は、色情報が滑らかに変化す
る部分では、式12〜式14を用いることによって空間
周波数の低域成分を効率良く算出することができる。
On the other hand, the low frequency component of the spatial frequency in the portion where the color information changes smoothly can be calculated by using only the color information of the pixels located in a relatively narrow area.
Therefore, the interpolation processing unit 20 can efficiently calculate the low-frequency component of the spatial frequency in a portion where the color information changes smoothly by using Expressions 12 to 14.

【0037】次に、補間処理部20は、補間処理の対象
となる画像データから空間周波数の低域成分を除去し
て、高域主体画像の色情報を算出する(S3)。例え
ば、補間処理部20は、S2において算出した空間周波
数の低域成分を用い、図3において、任意の座標[i,j]
に位置する画素が緑色の色情報G[i,j]を有する場合、そ
の画素における高域主体画像の色情報DG[i,j]を DG[i,j]=G[i,j]-k・LG[i,j] …式15 によって算出し、任意の座標[i,j]に位置する画素が赤
色の色情報R[i,j]を有する場合、その画素における高域
主体画像の色情報DR[i,j]を DR[i,j]=R[i,j]-k・LR[i,j] …式16 によって算出し、任意の座標[i,j]に位置する画素が青
色の色情報B[i,j]を有する場合、その画素における高域
主体画像の色情報DB[i,j]を DB[i,j]=B[i,j]-k・LB[i,j] …式17 によって算出する。
Next, the interpolation processing section 20 calculates the color information of the high-frequency main image by removing the low frequency component of the spatial frequency from the image data to be subjected to the interpolation processing (S3). For example, the interpolation processing unit 20 uses the low-frequency component of the spatial frequency calculated in S2, and in FIG. 3, arbitrary coordinates [i, j]
, Has green color information G [i, j], the color information DG [i, j] of the high-frequency main image at that pixel is given by DG [i, j] = G [i, j] − k · LG [i, j]... Calculated by Expression 15, and when the pixel located at an arbitrary coordinate [i, j] has red color information R [i, j], the high-frequency main image of the pixel The color information DR [i, j] is calculated by DR [i, j] = R [i, j] -k · LR [i, j]..., And the pixel located at an arbitrary coordinate [i, j] Has blue color information B [i, j], the color information DB [i, j] of the high-frequency main image at the pixel is expressed as DB [i, j] = B [i, j] -k · LB [ i, j] ... Calculated by Expression 17.

【0038】ただし、式15〜式17において、空間周
波数の低域成分の係数kは、「1>k>0.5」を満足する値
である。すなわち、これらの演算式によって算出される
高域主体画像の色情報は、空間周波数の低域成分が半分
以上除去されつつ少量残された値である。なお、以下で
は、説明を簡単にするため、任意の座標[i,j]に位置す
る画素が赤色または青色の色情報を有する場合、その画
素における高域主体画像の色情報をDRB[i,j]によって示
す。すなわち、任意の座標[i,j]に位置する画素が赤色
の色情報を有する場合、DRB[i,j]は、DR[i,j]に相当
し、任意の座標[i,j]に位置する画素が青色の色情報を
有する場合、DRB[i,j]は、DB[i,j]に相当する。
However, in Equations 15 to 17, the coefficient k of the low frequency component of the spatial frequency is a value that satisfies “1>k> 0.5”. That is, the color information of the high-frequency main image calculated by these arithmetic expressions is a value in which a small amount of the low-frequency component of the spatial frequency is removed while a half or more is removed. In the following, in order to simplify the description, when a pixel located at an arbitrary coordinate [i, j] has red or blue color information, the color information of the high-frequency main image at that pixel is converted to DRB [i, j]. j]. That is, when a pixel located at an arbitrary coordinate [i, j] has red color information, DRB [i, j] corresponds to DR [i, j], and DRB [i, j] corresponds to an arbitrary coordinate [i, j]. When the located pixel has blue color information, DRB [i, j] corresponds to DB [i, j].

【0039】次に、補間処理部20は、高域主体画像の
異なる色の色情報を比較することによって、緑色の色情
報が欠落する画素(緑色の補間処理の対象となる補間対
象画素)毎に縦方向の類似度Ctおよび横方向の類似度Cy
を算出する(S4)。
Next, the interpolation processing section 20 compares the color information of different colors of the high-frequency main image, and determines whether or not each pixel lacks green color information (interpolation target pixel to be subjected to green interpolation processing). The vertical similarity Ct and the horizontal similarity Cy
Is calculated (S4).

【0040】例えば、補間処理部20は、図3におい
て、緑色の色情報が欠落する画素(赤色または青色の色
情報を有する画素)の座標を[i,j](ただし、「i+j=奇
数」である)とすると、その画素の縦方向の類似度Ct
[i,j]および横方向の類似度Cy[i,j]を Ct[i,j]=a1・|DG[i,j-1]-DG[i,j+1]| +a2・(|DRB[i,j]-DG[i,j-1]|+|DRB[i,j]-DG[i,j+1]|)/2 …式18 Cy[i,j]=a1・|DG[i-1,j]-DG[i+1,j]| +a2・(|DRB[i,j]-DG[i-1,j]|+|DRB[i,j]-DG[i+1,j]|)/2 …式19 によって算出する。ただし、式18および式19におい
て、a1は正の定数であり、a2は0または正の定数であ
る。
For example, in FIG. 3, the interpolation processing unit 20 sets the coordinates of the pixel lacking green color information (the pixel having red or blue color information) to [i, j] (where “i + j = Odd number ”), the vertical similarity Ct of the pixel
[i, j] and the similarity Cy [i, j] in the horizontal direction are expressed as Ct [i, j] = a1 || DG [i, j-1] -DG [i, j + 1] | + a2 ( | DRB [i, j] -DG [i, j-1] | + | DRB [i, j] -DG [i, j + 1] |) / 2 Equation 18 Cy [i, j] = a1 · | DG [i-1, j] -DG [i + 1, j] | + a2 ・ (| DRB [i, j] -DG [i-1, j] | + | DRB [i, j] -DG [i + 1, j] |) / 2 ... Calculated by Expression 19. However, in Expressions 18 and 19, a1 is a positive constant, and a2 is 0 or a positive constant.

【0041】すなわち、補間処理部20は、赤色の色情
報を有する画素では、高域主体画像の赤色の色情報と高
域主体画像の緑色の色情報の差の絶対値を算出し、青色
の色情報を有する画素では、高域主体画像の青色の色情
報と高域主体画像の緑色の色情報の差の絶対値を算出す
ることによって、高域主体画像の異なる色の色情報の比
較を実現し、補間対象画素の縦方向の類似度Ctと横方向
の類似度Cyとを算出している。
That is, the interpolation processing unit 20 calculates the absolute value of the difference between the red color information of the high-frequency main image and the green color information of the high-frequency main image for the pixel having the red color information, and The pixel having the color information calculates the absolute value of the difference between the blue color information of the high-frequency main image and the green color information of the high-frequency main image, thereby comparing the color information of different colors of the high-frequency main image. It calculates the vertical similarity Ct and the horizontal similarity Cy of the interpolation target pixel.

【0042】なお、縦方向の類似度Ctおよび横方向の類
似度Cyは、値が小さい程、類似性が強いことを意味す
る。次に、補間処理部20は、互いに近接する複数の画
素の縦方向の類似度Ctと横方向の類似度Cyとを用いて、
縦方向の類似性の評価値TCtと横方向の類似性の評価値T
Cyとを算出する(S5)。
The smaller the values of the vertical similarity Ct and the horizontal similarity Cy, the stronger the similarity. Next, the interpolation processing unit 20 uses the vertical similarity Ct and the horizontal similarity Cy of a plurality of pixels adjacent to each other,
Evaluation value TCt of similarity in the vertical direction and evaluation value T of similarity in the horizontal direction
Cy is calculated (S5).

【0043】例えば、補間処理部20は、図3におい
て、緑色の色情報が欠落する画素(赤色または青色の色
情報を有する画素)の座標を[i,j](ただし、「i+j=奇
数」である)とすると、その画素の縦方向の類似性の評
価値TCt[i,j]および横方向の類似性の評価値TCy[i,j]を TCt[i,j]=Ct[i,j]+(Ct[i-1,j-1]+Ct[i-1,j+1]+ Ct[i+1,j-1]+Ct[i+1,j+1])/4 …式20 TCy[i,j]=Cy[i,j]+(Cy[i-1,j-1]+Cy[i-1,j+1]+ Cy[i+1,j-1]+Cy[i+1,j+1])/4 …式21 によって算出する。
For example, in FIG. 3, the interpolation processing unit 20 sets the coordinates of the pixel lacking green color information (the pixel having red or blue color information) to [i, j] (where “i + j = Is odd), the evaluation value TCt [i, j] of the pixel in the vertical direction and the evaluation value TCy [i, j] of the similarity in the horizontal direction are calculated as TCt [i, j] = Ct [ i, j] + (Ct [i-1, j-1] + Ct [i-1, j + 1] + Ct [i + 1, j-1] + Ct [i + 1, j + 1]) /4...Equation 20 TCy [i, j] = Cy [i, j] + (Cy [i-1, j-1] + Cy [i-1, j + 1] + Cy [i + 1, j- 1] + Cy [i + 1, j + 1]) / 4...

【0044】なお、縦方向の類似性の評価値TCtおよび
横方向の類似性の評価値TCyは、値が小さい程、類似性
が強いことを意味する。次に、補間処理部20は、縦方
向の類似性の評価値TCtおよび横方向の類似性の評価値T
Cyに基づいて類似性の強い方向を判定し、その判定の結
果に応じて緑色の補間量を決定する(S6)。
The smaller the value of the vertical similarity evaluation value TCt and the value of the horizontal similarity evaluation value TCy, the stronger the similarity. Next, the interpolation processing unit 20 calculates the vertical similarity evaluation value TCt and the horizontal similarity evaluation value T
A direction with a strong similarity is determined based on Cy, and a green interpolation amount is determined according to the result of the determination (S6).

【0045】例えば、補間処理部20は、図3におい
て、緑色の色情報が欠落する画素(赤色または青色の色
情報を有する画素)の座標を[i,j](ただし、「i+j=奇
数」である)とすると、その画素の縦方向の類似性の評
価値TCt[i,j]と横方向の類似性の評価値TCy[i,j]との間
に、 TCt[i,j]-TCy[i,j]>th0 …条件3 が成り立つ場合には、横類似と判定して、S1において
算出した緑色の補間量の横方向予測値Gy[i,j]を緑色の
補間量G[i,j]とする(G[i,j]=Gy[i,j])。
For example, in FIG. 3, the interpolation processing unit 20 sets the coordinates of the pixel lacking green color information (the pixel having red or blue color information) to [i, j] (where “i + j = If the pixel has an odd number, a value TCt [i, j] between the vertical similarity evaluation value TCt [i, j] and the horizontal similarity evaluation value TCy [i, j] of the pixel is obtained. ] -TCy [i, j]> th0 If condition 3 is satisfied, it is determined that horizontal similarity is obtained, and the horizontal predicted value Gy [i, j] of the green interpolation amount calculated in S1 is replaced with the green interpolation amount. Let G [i, j] (G [i, j] = Gy [i, j]).

【0046】また、補間処理部20は、上述した縦方向
の類似性の評価値TCt[i,j]と横方向の類似性の評価値TC
y[i,j]との間に、 TCy[i,j]-TCt[i,j]>th0 …条件4 が成り立つ場合には、縦類似と判定して、S1において
算出した緑色の補間量の縦方向予測値Gt[i,j]を緑色の
補間量G[i,j]とする(G[i,j]=Gt[i,j])。
The interpolation processing unit 20 also calculates the above-described vertical similarity evaluation value TCt [i, j] and the horizontal similarity evaluation value TCt.
TCy [i, j] -TCt [i, j]> th0... Condition 4 is satisfied between y [i, j] and the vertical interpolation similarity, and the green interpolation amount calculated in S1 Is defined as a green interpolation amount G [i, j] (G [i, j] = Gt [i, j]).

【0047】さらに、補間処理部20は、条件3と条件
4とが共に成り立たない場合には、中間類似と判定し
て、緑色の補間量G[i,j]を G[i,j]=(Gt[i,j]+Gy[i,j])/2 …式22 によって算出する。
Further, when both the condition 3 and the condition 4 do not hold, the interpolation processing unit 20 determines that the similarity is intermediate and sets the green interpolation amount G [i, j] to G [i, j] = (Gt [i, j] + Gy [i, j]) / 2...

【0048】次に、補間処理部20は、赤色の補間処理
および青色の補間処理を行う(S7)。例えば、赤色の
補間処理および青色の補間処理としては、以下に示すよ
うな公知の方法を適用することができる。補間処理部2
0は、赤色の色情報を有する画素に対しては、赤色の色
情報Rと緑色の補間量Gとの差(R−G)を算出し、赤
色の色情報が欠落する画素に対しては、その画素に近接
する複数の画素の(R−G)の平均値を適用することに
よって、全ての画素に対して(R−G)を求める。そし
て、補間処理部20は、このようにして求めた各々の画
素の(R−G)に、その画素のG(緑色の色情報または
緑色の補間量)を加算して赤色の補間量を算出する。
Next, the interpolation processing section 20 performs red interpolation processing and blue interpolation processing (S7). For example, as the red interpolation processing and the blue interpolation processing, the following known methods can be applied. Interpolation processing unit 2
0 calculates the difference (R−G) between the red color information R and the green interpolation amount G for pixels having red color information, and calculates the difference (R−G) for pixels lacking red color information. By applying the average value of (RG) of a plurality of pixels close to the pixel, (RG) is obtained for all the pixels. Then, the interpolation processing unit 20 calculates the red interpolation amount by adding G (green color information or green interpolation amount) of each pixel to (RG) of each pixel thus obtained. I do.

【0049】また、補間処理部20は、青色の補間量に
ついても赤色の補間量と同様に算出する。以上説明した
ように、第1の実施形態では、補間処理の対象となる画
像データ(画像バッファメモリ16を介して補間処理部
20に供給される画像データ)から空間周波数の低域成
分が除去されて高域主体画像が生成され、高域主体画像
の異なる色の色情報を比較することによって類似度が算
出される。すなわち、第1の実施形態では、補間処理の
対象となる画像を無彩色に近く彩度の低いカラー画像
(色合いが似ているカラー画像)に置き換えて、異なる
色の色情報を比較することによって類似性の判定を行う
ことができる。
The interpolation processor 20 calculates the amount of blue interpolation in the same manner as the amount of red interpolation. As described above, in the first embodiment, the low frequency component of the spatial frequency is removed from the image data to be subjected to the interpolation processing (the image data supplied to the interpolation processing unit 20 via the image buffer memory 16). Thus, a high-frequency main image is generated, and similarity is calculated by comparing color information of different colors of the high-frequency main image. That is, in the first embodiment, an image to be subjected to the interpolation processing is replaced with a color image that is close to achromatic and has low saturation (a color image having a similar hue), and color information of different colors is compared. Similarity can be determined.

【0050】そのため、第1の実施形態によれば、色合
いが急変する部分や彩度の高い部分を含むカラー画像に
対しても、精度良く類似性の判定を行うことができる。
また、第1の実施形態では、式15〜式17に示すよう
に、空間周波数の低域成分が半分以上除去されつつ少量
残された高域主体画像を生成することによって、高域主
体画像に原画像の特性を反映されることができる。さら
に、一般的なカラー画像において、互いに近接する複数
の画素では、類似性の強い方向が同一となり、類似性が
連続する傾向にあり、第1の実施形態では、式20およ
び式21に示すように、各々の画素の類似性の評価値と
して近傍に位置する複数の画素の類似度が用いられ、類
似性の連続性が反映されることになる。したがって、類
似性の判定の精度は、一層向上されることになる。
Therefore, according to the first embodiment, the similarity can be determined with high accuracy even for a color image including a portion where the hue changes suddenly or a portion with high saturation.
Further, in the first embodiment, as shown in Expressions 15 to 17, by generating a high-frequency main image in which a low-frequency component of a spatial frequency is removed by half or more and a small amount is left, a high-frequency main image is generated. The characteristics of the original image can be reflected. Furthermore, in a general color image, in a plurality of pixels close to each other, the direction of strong similarity tends to be the same, and the similarity tends to be continuous. In the first embodiment, as shown in Expressions 20 and 21, Then, as the similarity evaluation value of each pixel, the similarity of a plurality of neighboring pixels is used, and the continuity of the similarity is reflected. Therefore, the accuracy of the similarity determination is further improved.

【0051】以下、第2の実施形態の動作を説明する。
なお、第2の実施形態は、請求項1ないし請求項4に記
載の撮像装置の機能を備えた電子カメラに相当する。図
4は、第2の実施形態における補間処理の対象となる画
像データの色情報の配列を示す図である。
The operation of the second embodiment will be described below.
It should be noted that the second embodiment corresponds to an electronic camera having the functions of the imaging device according to claims 1 to 4. FIG. 4 is a diagram illustrating an array of color information of image data to be subjected to an interpolation process in the second embodiment.

【0052】なお、図4では、図3と同様に、色情報が
配置される位置を「右方向を正とする横軸X」と「下方
向を正とする縦軸Y」とで構成される座標系で表し、緑
色の色情報をG[X,Y]で表し、赤色または青色の色情報を
RB[X,Y]で表す。すなわち、赤色の色情報をR[X,Y]と
し、青色の色情報をB[X,Y]とすると、任意の座標[i,j]
に位置する画素が赤色の色情報を有する場合、RB[i,j]
は、R[i,j]に相当し、任意の座標[i,j]に位置する画素
が青色の色情報を有する場合、RB[i,j]は、B[i,j]に相
当する。
In FIG. 4, similarly to FIG. 3, the positions at which the color information is arranged are defined by "a horizontal axis X whose right direction is positive" and "a vertical axis Y whose downward direction is positive". Green coordinate information is represented by G [X, Y], and red or blue color information is represented by
Expressed by RB [X, Y]. That is, assuming that red color information is R [X, Y] and blue color information is B [X, Y], arbitrary coordinates [i, j]
RB [i, j] when the pixel located at
Corresponds to R [i, j], and if the pixel located at an arbitrary coordinate [i, j] has blue color information, RB [i, j] corresponds to B [i, j] .

【0053】また、図4では、同色の色情報を有する画
素が横方向に2つずつ配置される。さらに、図4におい
て、1画素は「横:縦=1:2」の縦長の形状であり、
横方向に並ぶ2つの画素によって正方形が形成される。
すなわち、図4に示す配列は、同色の色情報を有して横
方向に並ぶ2つの画素(例えば、座標[-2,-1]と座標[-
1,-1]とに位置する画素)がペアを成してベイア配列さ
れていることに相当する。なお、図4では、説明を簡単
にするため、このようなペアを成す2つの画素のうち、
左側に位置する画素(以下、左画素と称する)の横軸成
分Xを偶数とし、右側に位置する画素(以下、右画素と
称する)の横軸成分Xを奇数としている。
In FIG. 4, two pixels having the same color information are arranged in the horizontal direction. Further, in FIG. 4, one pixel has a vertically long shape of “horizontal: vertical = 1: 2”,
A square is formed by two pixels arranged in the horizontal direction.
That is, the array shown in FIG. 4 has two pixels (for example, coordinates [-2, -1] and coordinates [-
1, -1]) in a Bayer arrangement. In FIG. 4, for simplicity of description, of two pixels forming such a pair,
The horizontal axis component X of a pixel located on the left side (hereinafter, referred to as a left pixel) is an even number, and the horizontal axis component X of a pixel located on the right side (hereinafter, a right pixel) is an odd number.

【0054】ところで、第2の実施形態と第1の実施形
態との相違点は、補間処理の対象となる画像データの色
情報の配列が異なる点にあり、第2の実施形態のハード
ウエアの構成については、図1に示す第1の実施形態に
対応する電子カメラと同じであるので、ここでは、その
説明を省略する。また、第2の実施形態における補間処
理部20の大まかな動作は、図2に示す第1の実施形態
における補間処理部20の動作と同じであるので、図示
を省略する。
The difference between the second embodiment and the first embodiment is that the arrangement of the color information of the image data to be subjected to the interpolation processing is different, and the hardware of the second embodiment is different from the first embodiment. Since the configuration is the same as that of the electronic camera corresponding to the first embodiment shown in FIG. 1, the description is omitted here. The rough operation of the interpolation processing unit 20 in the second embodiment is the same as the operation of the interpolation processing unit 20 in the first embodiment shown in FIG.

【0055】以下、図2のS1〜S6を参照して、第2
の実施形態における補間処理部20の緑色の補間処理の
動作を説明する。まず、補間処理部20は、緑色の色情
報が欠落する画素について、緑色の補間量の縦方向予測
値Gtおよび横方向予測値Gyを算出する(S1)。例え
ば、図4において、緑色の色情報が欠落する画素の座標
を[i,j]とすると、補間処理部20は、緑色の補間量の
縦方向予測値Gt[i,j]を Gt[i,j]=(G[i,j-1]+G[i,j+1])/2 …式23 によって算出し、「i=偶数」である場合(上述したよう
なペアを成す2つの画素のうち、左画素が補間対象画素
である場合)、緑色の補間量の横方向予測値Gy[i,j]を Gy[i,j]=(G[i-1,j]+G[i+2,j])/2 …式24 によって算出し、「i=奇数」である場合(上述したよう
なペアを成す2つの画素のうち、右画素が補間対象画素
である場合)、緑色の補間量の横方向予測値Gy[i,j]を Gy[i,j]=(G[i-2,j]+G[i+1,j])/2 …式25 によって算出する。
Hereinafter, referring to S1 to S6 of FIG.
The operation of the green interpolation processing of the interpolation processing unit 20 in the embodiment will be described. First, the interpolation processing unit 20 calculates a vertical predicted value Gt and a horizontal predicted value Gy of a green interpolation amount for a pixel in which green color information is missing (S1). For example, in FIG. 4, if the coordinates of the pixel where the green color information is missing are [i, j], the interpolation processing unit 20 calculates the vertical predicted value Gt [i, j] of the green interpolation amount as Gt [i , j] = (G [i, j-1] + G [i, j + 1]) / 2... calculated by Equation 23, and when “i = even number” (the two pairs forming the pair as described above) Of the pixels, when the left pixel is a pixel to be interpolated), the horizontal predicted value Gy [i, j] of the green interpolation amount is calculated as Gy [i, j] = (G [i-1, j] + G [ i + 2, j]) / 2... calculated by Equation 24, when “i = odd number” (when the right pixel is a pixel to be interpolated among two pixels forming a pair as described above), green Is calculated by the following equation 25: Gy [i, j] = (G [i−2, j] + G [i + 1, j]) / 2

【0056】なお、ここでは、補間対象画素の近傍に位
置して緑色の色情報を有する画素のうち、補間対象画素
の縦方向(または、横方向)に位置する2つの画素の色
情報の平均値を緑色の補間量の縦方向予測値(または、
横方向予測値)としているが、緑色の補間量の縦方向予
測値および横方向予測値は、第1の実施形態の<<縦方向
予測値の算出処理>>および<<横方向予測値の算出処理>>
に準じて算出しても良い。
Here, of the pixels having green color information located in the vicinity of the pixel to be interpolated, the average of the color information of two pixels located in the vertical direction (or the horizontal direction) of the pixel to be interpolated. The value is the vertical prediction of the green interpolation amount (or
(Horizontal predicted value), the vertical predicted value and the horizontal predicted value of the green interpolation amount are calculated according to the << vertical predicted value calculation process >> and << horizontal predicted value of the first embodiment. Calculation processing >>
It may be calculated according to the following.

【0057】次に、補間処理部20は、補間処理の対象
となる画像データの空間周波数の低域成分を算出する
(S2)。例えば、補間処理部20は、上述したような
各ペアの色情報の平均値を、そのペアの左画素の色情報
として置き換え、置き換えた色情報を用いて空間周波数
の低域成分を算出する。
Next, the interpolation processing section 20 calculates a low frequency component of the spatial frequency of the image data to be subjected to the interpolation processing (S2). For example, the interpolation processing unit 20 replaces the average value of the color information of each pair as described above as the color information of the left pixel of the pair, and calculates the low frequency component of the spatial frequency using the replaced color information.

【0058】すなわち、左画素の座標を[i,j](ただ
し、「i=偶数」である)とすると、補間処理部20は、
左画素が緑色の色情報G[i,j]を有する場合、その色情報
G[i,j]を G[i,j]=(G[i,j]+G[i+1,j])/2 …式26 によって置き換え、左画素が赤色の色情報R[i,j]を有す
る場合、その色情報R[i,j]を R[i,j]=(R[i,j]+R[i+1,j])/2 …式27 によって置き換え、左画素が青色の色情報B[i,j]を有す
る場合、その色情報B[i,j]を B[i,j]=(B[i,j]+B[i+1,j])/2 …式28 によって置き換える。
That is, assuming that the coordinates of the left pixel are [i, j] (where “i = even number”), the interpolation processing unit 20
If the left pixel has green color information G [i, j], the color information
G [i, j] is replaced by G [i, j] = (G [i, j] + G [i + 1, j]) / 2 Expression 26, and the left pixel has red color information R [i, j], the color information R [i, j] is replaced by R [i, j] = (R [i, j] + R [i + 1, j]) / 2... Has blue color information B [i, j], the color information B [i, j] is expressed as B [i, j] = (B [i, j] + B [i + 1, j]) / 2...

【0059】このようにして、全ての左画素の色情報を
置き換えると、補間処理部20は、左画素が緑色の色情
報G[i,j]を有する場合、その左画素における空間周波数
の低域成分LG[i,j]を LG[i,j]=(G[i,j]+G[i-2,j-1]+G[i-2,j+1]+G[i+2,j-1]+G[i+2,j+1]+ G[i-4,j]+G[i+4,j]+G[i,j-2]+G[i,j+2])/9 …式29 によって算出し、その左画素とペアを成す右画素におけ
る空間周波数の低域成分LG[i+1,j]としてLG[i,j]の値を
代入する。
As described above, when the color information of all the left pixels is replaced, when the left pixel has green color information G [i, j], the interpolation processing unit 20 determines that the spatial frequency of the left pixel is low. Let the domain component LG [i, j] be LG [i, j] = (G [i, j] + G [i-2, j-1] + G [i-2, j + 1] + G [i + 2, j-1] + G [i + 2, j + 1] + G [i-4, j] + G [i + 4, j] + G [i, j-2] + G [i, j +2]) / 9 ... Calculated by Equation 29, and substitute the value of LG [i, j] as the low-frequency component LG [i + 1, j] of the spatial frequency at the right pixel paired with the left pixel.

【0060】また、補間処理部20は、左画素が赤色の
色情報R[i,j]を有する場合、その左画素における空間周
波数の低域成分LR[i,j]を LR[i,j]=(R[i,j]+R[i-4,j]+R[i+4,j]+R[i,j-2]+R[i,j+2]+ R[i-4,j-2]+R[i+4,j-2]+R[i-4,j+2]+R[i+4,j+2])/9 …式30 によって算出すると共に、その左画素とペアを成す右画
素における空間周波数の低域成分LR[i+1,j]をLR[i,j]と
する。
When the left pixel has the red color information R [i, j], the interpolation processing unit 20 converts the low frequency component LR [i, j] of the spatial frequency of the left pixel into LR [i, j]. ] = (R [i, j] + R [i-4, j] + R [i + 4, j] + R [i, j-2] + R [i, j + 2] + R [i- 4, j-2] + R [i + 4, j-2] + R [i-4, j + 2] + R [i + 4, j + 2]) / 9 ... The low frequency component LR [i + 1, j] of the spatial frequency at the right pixel paired with the left pixel is defined as LR [i, j].

【0061】さらに、補間処理部20は、左画素が青色
の色情報R[i,j]を有する場合、その左画素における空間
周波数の低域成分LB[i,j]を LB[i,j]=(B[i,j]+B[i-4,j]+B[i+4,j]+B[i,j-2]+B[i,j+2]+ B[i-4,j-2]+B[i+4,j-2]+B[i-4,j+2]+B[i+4,j+2])/9 …式31 によって算出すると共に、その左画素とペアを成す右画
素における空間周波数の低域成分LB[i+1,j]をLB[i,j]と
する。
Further, when the left pixel has blue color information R [i, j], the interpolation processing unit 20 converts the spatial frequency low-frequency component LB [i, j] of the left pixel into LB [i, j]. ] = (B [i, j] + B [i-4, j] + B [i + 4, j] + B [i, j-2] + B [i, j + 2] + B [i- 4, j-2] + B [i + 4, j-2] + B [i-4, j + 2] + B [i + 4, j + 2]) / 9 ... The low frequency component LB [i + 1, j] of the spatial frequency at the right pixel paired with the left pixel is defined as LB [i, j].

【0062】なお、ここでは、空間周波数の低域成分を
第1の実施形態の式9〜式11に準じて算出している
が、空間周波数の低域成分は、第1の実施形態の式12
〜式14に準じて算出しても良い。次に、補間処理部2
0は、第1の実施形態と同様に、補間処理の対象となる
画像データから空間周波数の低域成分を除去して、高域
主体画像の色情報を算出する(S3)。
Here, the low frequency component of the spatial frequency is calculated according to the equations 9 to 11 of the first embodiment, but the low frequency component of the spatial frequency is calculated by the equation of the first embodiment. 12
14 14 may be calculated. Next, the interpolation processing unit 2
In the case of 0, the color information of the high-frequency main image is calculated by removing the low-frequency component of the spatial frequency from the image data to be subjected to the interpolation processing, as in the first embodiment (S3).

【0063】すなわち、補間処理部20は、第1の実施
形態の式15〜式17を用いて、高域主体画像の色情報
を算出する。次に、補間処理部20は、高域主体画像の
異なる色の色情報を比較することによって、緑色の色情
報が欠落する画素毎に縦方向の類似度Ctおよび横方向の
類似度Cyを算出する(S4)。
That is, the interpolation processing unit 20 calculates the color information of the high-frequency main image by using Expressions 15 to 17 of the first embodiment. Next, the interpolation processing unit 20 calculates the vertical similarity Ct and the horizontal similarity Cy for each pixel where the green color information is missing by comparing the color information of different colors of the high-frequency main image. (S4).

【0064】例えば、図4において、緑色の色情報が欠
落する画素の座標を[i,j]とすると、補間処理部20
は、その画素の縦方向の類似度Ct[i,j]については、第
1の実施形態と同様に、 Ct[i,j]=a1・|DG[i,j-1]-DG[i,j+1]| +a2・(|DRB[i,j]-DG[i,j-1]|+|DRB[i,j]-DG[i,j+1]|)/2 …式18 によって算出する。また、補間処理部20は、「i=偶
数」である場合(左画素が補間対象画素である場合)、
横方向の類似度Ct[i,j]を Cy[i,j]=a1・|DG[i-1,j]-DG[i+2,j]| +a2・(|DRB[i,j]-DG[i-1,j]|+|DRB[i,j]-DG[i+2,j]|)/2 …式32 によって算出し、「i=奇数」である場合(右画素が補間
対象画素である場合)、横方向の類似度Ct[i,j]を Cy[i,j]=a1・|DG[i-2,j]-DG[i+1,j]| +a2・(|DRB[i,j]-DG[i-2,j]|+|DRB[i,j]-DG[i+1,j]|)/2 …式33 によって算出する。ただし、式18、式32、式33に
おいて、a1は正の定数であり、a2は0または正の定数で
ある。
For example, in FIG. 4, if the coordinates of the pixel where the green color information is missing are [i, j], the interpolation processing unit 20
Is similar to the first embodiment with respect to the vertical similarity Ct [i, j] of the pixel, as in the first embodiment: Ct [i, j] = a1 || DG [i, j-1] -DG [i , j + 1] | + a2 ・ (| DRB [i, j] -DG [i, j-1] | + | DRB [i, j] -DG [i, j + 1] |) / 2 ... 18 Further, when “i = even number” (when the left pixel is a pixel to be interpolated),
The horizontal similarity Ct [i, j] is calculated as Cy [i, j] = a1 · | DG [i-1, j] -DG [i + 2, j] | + a2 · (| DRB [i, j ] -DG [i-1, j] | + | DRB [i, j] -DG [i + 2, j] |) / 2 Calculated by Expression 32 and when “i = odd number” (right pixel Is the pixel to be interpolated), the horizontal similarity Ct [i, j] is calculated as Cy [i, j] = a1 || DG [i-2, j] -DG [i + 1, j] | + a2 · (| DRB [i, j] -DG [i-2, j] | + | DRB [i, j] -DG [i + 1, j] |) / 2 Calculated by Expression 33. However, in Expressions 18, 32 and 33, a1 is a positive constant, and a2 is 0 or a positive constant.

【0065】すなわち、補間処理部20は、第1の実施
形態と同様に、高域主体画像の赤色(または、青色)の
色情報と高域主体画像の緑色の色情報の差の絶対値を算
出することによって、高域主体画像の異なる色の色情報
の比較を実現し、縦方向の類似度Ctと横方向の類似度Cy
とを算出することができる。なお、縦方向の類似度Ctお
よび横方向の類似度Cyは、値が小さい程、類似性が強い
ことを意味する。
That is, the interpolation processing unit 20 calculates the absolute value of the difference between the red (or blue) color information of the high-frequency main image and the green color information of the high-frequency main image, as in the first embodiment. By calculating, the color information of different colors of the high-frequency main image is compared, and the vertical similarity Ct and the horizontal similarity Cy are compared.
Can be calculated. The smaller the values of the vertical similarity Ct and the horizontal similarity Cy, the stronger the similarity.

【0066】次に、補間処理部20は、互いに近接する
複数の画素の縦方向の類似度Ctと横方向の類似度Cyとを
用いて、縦方向の類似性の評価値TCtと横方向の類似性
の評価値TCyとを算出する(S5)。例えば、図4にお
いて、緑色の色情報が欠落する画素の座標を[i,j]とす
ると、補間処理部20は、「i=偶数」である場合(左画
素が補間対象画素である場合)、縦方向の類似性の評価
値TCt[i,j]および横方向の類似性の評価値TCy[i,j]を TCt[i,j]=Ct[i,j]+(Ct[i-1,j-1]+Ct[i-1,j+1]+ Ct[i+2,j-1]+Ct[i+2,j+1])/4 …式34 TCy[i,j]=Cy[i,j]+(Cy[i-1,j-1]+Cy[i-1,j+1]+ Cy[i+2,j-1]+Cy[i+2,j+1])/4 …式35 によって算出し、「i=奇数」である場合(右画素が補間
対象画素である場合)、縦方向の類似性の評価値TCt[i,
j]および横方向の類似性の評価値TCy[i,j]を TCt[i,j]=Ct[i,j]+(Ct[i-2,j-1]+Ct[i-2,j+1]+ Ct[i+1,j-1]+Ct[i+1,j+1])/4 …式36 TCy[i,j]=Cy[i,j]+(Cy[i-2,j-1]+Cy[i-2,j+1]+ Cy[i+1,j-1]+Cy[i+1,j+1])/4 …式37 によって算出する。
Next, the interpolation processing unit 20 uses the vertical similarity Ct and the horizontal similarity Cy of a plurality of pixels adjacent to each other to calculate a vertical similarity evaluation value TCt and a horizontal similarity TCt. A similarity evaluation value TCy is calculated (S5). For example, in FIG. 4, assuming that the coordinates of the pixel where the green color information is missing are [i, j], the interpolation processing unit 20 determines that “i = even number” (the case where the left pixel is the interpolation target pixel). , The vertical similarity evaluation value TCt [i, j] and the horizontal similarity evaluation value TCy [i, j] are represented by TCt [i, j] = Ct [i, j] + (Ct [i− 1, j-1] + Ct [i-1, j + 1] + Ct [i + 2, j-1] + Ct [i + 2, j + 1]) / 4 Equation 34 TCy [i, j ] = Cy [i, j] + (Cy [i-1, j-1] + Cy [i-1, j + 1] + Cy [i + 2, j-1] + Cy [i + 2, j +1]) / 4... Calculated by Equation 35, and when “i = odd number” (when the right pixel is the pixel to be interpolated), the evaluation value TCt [i,
j] and the evaluation value TCy [i, j] of the similarity in the horizontal direction are TCt [i, j] = Ct [i, j] + (Ct [i-2, j-1] + Ct [i-2, j + 1] + Ct [i + 1, j-1] + Ct [i + 1, j + 1]) / 4 Equation 36 TCy [i, j] = Cy [i, j] + (Cy [i -2, j-1] + Cy [i-2, j + 1] + Cy [i + 1, j-1] + Cy [i + 1, j + 1]) / 4 ... Calculated by Expression 37.

【0067】なお、縦方向の類似性の評価値TCtおよび
横方向の類似性の評価値TCyは、値が小さい程、類似性
が強いことを意味する。次に、補間処理部20は、第1
の実施形態と同様に、縦方向の類似性の評価値TCtおよ
び横方向の類似性の評価値TCyに基づいて類似性の強い
方向を判定し、その判定の結果に応じて緑色の補間量を
決定する(S6)。
The smaller the value of the vertical similarity evaluation value TCt and the value of the horizontal similarity evaluation value TCy, the stronger the similarity. Next, the interpolation processing unit 20
Similarly to the embodiment, the direction of strong similarity is determined based on the similarity evaluation value TCt in the vertical direction and the similarity evaluation value TCy in the horizontal direction, and a green interpolation amount is determined according to the determination result. It is determined (S6).

【0068】すなわち、補間処理部20は、第1の実施
形態の条件3、条件4および式22に基づき、緑色の補
間量を決定する。以上説明したように、第2の実施形態
では、補間処理の対象となる画像データの色情報が図4
のように配列されている場合であっても、補間処理の対
象となる画像を無彩色に近く彩度の低いカラー画像(色
合いが似ているカラー画像)に置き換えて、第1の実施
形態と同様に、異なる色の色情報を比較することによっ
て類似性の判定を行うことができる。
That is, the interpolation processing unit 20 determines the amount of green interpolation based on the conditions 3, 4 and 22 in the first embodiment. As described above, in the second embodiment, the color information of the image data to be subjected to the interpolation processing is the color information of FIG.
, The image to be subjected to the interpolation processing is replaced with a color image that is close to achromatic and has low saturation (a color image having a similar hue). Similarly, similarity can be determined by comparing color information of different colors.

【0069】そのため、第2の実施形態によれば、第1
の実施形態と同様に、色合いが急変する部分や彩度が高
い部分を含むカラー画像であっても、精度良く類似性の
判定を行うことができる。また、第2の実施形態によれ
ば、第1の実施形態と同様に、高域主体画像に原画像の
特性を反映されることができると共に、各々の画素の類
似性の評価値として近傍に位置する複数の画素の類似度
が用いられて類似性の連続性が反映されることになるた
め、類似性の判定の精度が一層向上される。
Therefore, according to the second embodiment, the first
Similar to the embodiment, similarity determination can be performed with high accuracy even for a color image including a portion where the hue changes suddenly or a portion with high saturation. Further, according to the second embodiment, similarly to the first embodiment, the characteristics of the original image can be reflected in the high-frequency main image, and the similarity evaluation value of each pixel can be set as a value close to the vicinity. Since the continuity of similarity is reflected by using the similarity of a plurality of pixels located, the accuracy of similarity determination is further improved.

【0070】なお、上述した各実施形態では、縦方向の
類似性の評価値(または、横方向の類似性の評価値)
は、互いに近接する複数の画素の縦方向の類似度(また
は、横方向の類似度)を用いて算出されるが、縦方向の
類似性の評価値(または、横方向の類似性の評価値)と
して、単一の画素の縦方向の類似度(または、横方向の
類似度)を適用しても良い。
In each of the above-described embodiments, the evaluation value of the similarity in the vertical direction (or the evaluation value of the similarity in the horizontal direction)
Is calculated using the vertical similarity (or horizontal similarity) of a plurality of pixels adjacent to each other, and the vertical similarity evaluation value (or the horizontal similarity evaluation value) ), The vertical similarity (or horizontal similarity) of a single pixel may be applied.

【0071】また、上述した各実施形態では、S1で緑
色の補間量の縦方向予測値および横方向予測値を算出
し、S6で類似性の強い方向に対応する予測値を補間量
としているが、予測値を算出せず、類似性の強い方向を
判定した後に、その方向に対応する補間量を予測値と同
様の演算によって算出しても良い。ここで、類似性の強
い方向を判定した後に算出される補間量は、高域主体画
像の色情報(DG,DR,DBに相当する)を用いて算出される
補間量(補間量の第1成分と称する)と空間周波数の低
域成分から成る画像の色情報(k・LG,k・LR,k・LBに相当す
る)を用いて算出される補間量(補間量の第2成分と称
する)とを合成することによって算出されても良い。
Further, in each of the above-described embodiments, the vertical predicted value and the horizontal predicted value of the green interpolation amount are calculated in S1, and the predicted value corresponding to the direction with the strong similarity is used as the interpolation amount in S6. Alternatively, after determining a direction having a strong similarity without calculating the predicted value, the interpolation amount corresponding to the direction may be calculated by the same calculation as the predicted value. Here, the interpolation amount calculated after determining the direction of strong similarity is an interpolation amount (first interpolation amount) calculated using the color information (equivalent to DG, DR, DB) of the high-frequency main image. Component) and the color information (equivalent to k · LG, k · LR, k · LB) of the image composed of the low frequency components of the spatial frequency. ) May be calculated by combining

【0072】また、このようにして補間量が算出される
場合、補間量の第1成分と第2成分とは、同一の演算に
よって算出されても良いが、各々の成分に適した異なる
演算によって算出されても良い。例えば、補間量の第1
成分は、類似性の強い方向に関係なく近傍に位置する画
素が有する色情報の平均値とされ、補間量の第2成分
は、類似性が強い方向に位置する画素が有する色情報の
平均値とされても良い。
When the interpolation amount is calculated in this manner, the first component and the second component of the interpolation amount may be calculated by the same operation, but may be calculated by different operations suitable for each component. It may be calculated. For example, the first interpolation amount
The component is an average value of color information of pixels located in the vicinity regardless of the direction of strong similarity, and the second component of the interpolation amount is an average value of color information of pixels located in the direction of strong similarity. It may be.

【0073】さらに、上述した各実施形態では、中間類
似と判定された場合の緑色の補間量は、式22に示すよ
うに縦方向予測値と横方向予測値との平均値であるが、
予測値を算出せずに補間量を算出する際には、近傍に位
置する画素が有する緑色の色情報の平均値としても良
い。以下、第3の実施形態の動作を説明する。
Further, in each of the above-described embodiments, the green interpolation amount when it is determined that the similarity is intermediate is the average value of the vertical predicted value and the horizontal predicted value as shown in Expression 22, but
When calculating the interpolation amount without calculating the predicted value, the average value of the green color information of the neighboring pixels may be used. Hereinafter, the operation of the third embodiment will be described.

【0074】図5は、第3の実施形態の機能ブロック図
である。なお、第3の実施形態は、請求項5に記載の補
間処理プログラムを記録した記録媒体を用いて、パーソ
ナルコンピュータによって補間処理を実行することに相
当する。図5において、機能が図1に示す機能ブロック
図と同じものについては、同じ符号を付与して示し、構
成の説明については省略する。
FIG. 5 is a functional block diagram of the third embodiment. The third embodiment is equivalent to executing an interpolation process by a personal computer using a recording medium on which the interpolation process program according to claim 5 is recorded. 5, components having the same functions as those in the functional block diagram shown in FIG. 1 are denoted by the same reference numerals, and the description of the configuration will be omitted.

【0075】なお、図5に示す電子カメラ30と図1に
示した電子カメラ10との構成の相違点は、制御部31
と画像処理部32とが制御部11と画像処理部18とに
代えて設けられ、インタフェース部33が新たに設けら
れた点である。また、図5において、パーソナルコンピ
ュータ40は、CPU41、インタフェース部42、ハ
ードディスク43およびメモリ44を有し、CPU41
は、バスを介してインタフェース部42、ハードディス
ク43およびメモリ44に接続される。
The difference between the electronic camera 30 shown in FIG. 5 and the electronic camera 10 shown in FIG.
And the image processing unit 32 are provided instead of the control unit 11 and the image processing unit 18, and an interface unit 33 is newly provided. In FIG. 5, the personal computer 40 has a CPU 41, an interface unit 42, a hard disk 43, and a memory 44.
Are connected to the interface unit 42, the hard disk 43, and the memory 44 via a bus.

【0076】なお、パーソナルコンピュータ40には、
CD−ROMなどの記録媒体に記録された補間処理プロ
グラム(第1の実施形態や第2の実施形態の補間処理部
20と同様にして補間処理を実行する補間処理プログラ
ム)が予めインストールされているものとする。すなわ
ち、ハードディスク43には、このような補間処理プロ
グラムが実行可能な状態で格納されている。
The personal computer 40 has
An interpolation processing program (an interpolation processing program for executing the interpolation processing in the same manner as the interpolation processing unit 20 of the first and second embodiments) recorded on a recording medium such as a CD-ROM is installed in advance. Shall be. That is, the hard disk 43 stores such an interpolation processing program in an executable state.

【0077】以下、図5を参照して第3の実施形態の動
作を説明する。まず、電子カメラ30では、図1に示し
た電子カメラ10と同様に生成された画像データが画像
処理部32に供給される。画像処理部32は、画像デー
タに補間処理以外の画像処理を施し、記録部19では、
画像処理が施された画像データが画像ファイルの形式で
記録される。
The operation of the third embodiment will be described below with reference to FIG. First, in the electronic camera 30, image data generated in the same manner as the electronic camera 10 shown in FIG. 1 is supplied to the image processing unit 32. The image processing unit 32 performs image processing other than the interpolation processing on the image data.
Image data subjected to image processing is recorded in the form of an image file.

【0078】このような画像ファイルは、インタフェー
ス部33を介してパーソナルコンピュータ40に供給さ
れる。パーソナルコンピュータ40内のCPU41は、
インタフェース部42を介して画像ファイルを取得する
と、上述した補間処理プログラムを実行する。
The image file is supplied to the personal computer 40 via the interface unit 33. The CPU 41 in the personal computer 40
When the image file is obtained via the interface unit 42, the above-described interpolation processing program is executed.

【0079】すなわち、第3の実施形態では、上述した
各実施形態と同様の補間処理をパーソナルコンピュータ
40によって行うことができる。
That is, in the third embodiment, the same interpolation processing as in the above-described embodiments can be performed by the personal computer 40.

【0080】[0080]

【発明の効果】以上説明したように、請求項1ないし請
求項4に記載の発明では、補間処理の対象となるカラー
画像から空間周波数の低域成分を除去し、無彩色に近く
彩度の低いカラー画像に対し、異なる色の色情報を比較
することによって類似性の判定を行うので、同様の類似
性の判定を空間周波数の低域成分が除去される前のカラ
ー画像に対して行う場合と比べて、類似性の判定の精度
を確実に向上させることができる。
As described above, according to the first to fourth aspects of the present invention, the low frequency components of the spatial frequency are removed from the color image to be subjected to the interpolation processing, so that the color image having a saturation close to an achromatic color is obtained. Since similarity determination is performed by comparing color information of different colors with respect to a low color image, similar similarity determination is performed on a color image before the low frequency component of the spatial frequency is removed. Compared with, the accuracy of similarity determination can be reliably improved.

【0081】特に、請求項2に記載の発明は、空間周波
数の低域成分が半分以上除去された高域主体画像を生成
し、請求項3に記載の発明は、空間周波数の低域成分が
少量残された高域主体画像を生成するので、高域主体画
像に原画像の特性を反映することができる。また、請求
項4に記載の発明は、補間対象画素の類似度だけでな
く、補間対象画素の近傍に位置する画素の類似度を用い
て、類似性の判定を行うので、近接する画素間の類似性
の連続性を反映することができる。
In particular, the invention according to claim 2 generates a high-frequency main image from which at least half of the low-frequency component of the spatial frequency has been removed. Since the high-frequency main image left in a small amount is generated, the characteristics of the original image can be reflected on the high-frequency main image. According to the invention described in claim 4, similarity determination is performed using not only the similarity of the pixel to be interpolated but also the similarity of a pixel located in the vicinity of the pixel to be interpolated. The continuity of similarity can be reflected.

【0082】そのため、請求項2ないし請求項4に記載
の発明によれば、類似性の判定の精度を一層向上させる
ことができる。したがって、請求項1ないし請求4に記
載の発明によれば、カラー画像の特性に影響されること
なく、精度良く類似性の判定が行え、偽色の発生を抑制
することができる。また、請求項5に記載の発明では、
請求項1ないし請求項4の何れか1項に記載の補間処理
装置と同様の機能をコンピュータで実現することができ
る。
Therefore, according to the second to fourth aspects of the present invention, the accuracy of similarity determination can be further improved. Therefore, according to the first to fourth aspects of the present invention, similarity can be accurately determined without being affected by the characteristics of a color image, and generation of a false color can be suppressed. In the invention according to claim 5,
Functions similar to those of the interpolation processing device according to any one of claims 1 to 4 can be realized by a computer.

【図面の簡単な説明】[Brief description of the drawings]

【図1】電子カメラの機能ブロック図である。FIG. 1 is a functional block diagram of an electronic camera.

【図2】補間処理部の動作フローチャートである。FIG. 2 is an operation flowchart of an interpolation processing unit.

【図3】第1の実施形態における補間処理の対象となる
画像データの色情報の配列を示す図である。
FIG. 3 is a diagram illustrating an array of color information of image data to be subjected to an interpolation process in the first embodiment.

【図4】第2の実施形態における補間処理の対象となる
画像データの色情報の配列を示す図である。
FIG. 4 is a diagram illustrating an array of color information of image data to be subjected to an interpolation process according to a second embodiment.

【図5】第3の実施形態の機能ブロック図である。FIG. 5 is a functional block diagram of a third embodiment.

【図6】従来の補間処理を説明する図である。FIG. 6 is a diagram illustrating a conventional interpolation process.

【符号の説明】 10、30 電子カメラ 11、31 制御部 12 撮影光学系 13 OLPF 14 撮像素子 15 A/D変換部 16 画像バッファメモリ 17 階調変換部 18、32 画像処理部 19 記録部 20 補間処理部 33、42 インタフェース部 40 パーソナルコンピュータ 41 CPU 43 ハードディスク 44 メモリDESCRIPTION OF SYMBOLS 10, 30 Electronic camera 11, 31 Control unit 12 Imaging optical system 13 OLPF 14 Image sensor 15 A / D conversion unit 16 Image buffer memory 17 Gradation conversion unit 18, 32 Image processing unit 19 Recording unit 20 Interpolation Processing units 33, 42 Interface unit 40 Personal computer 41 CPU 43 Hard disk 44 Memory

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 予め決められた複数の色の色情報から成
るカラー画像に対して、画素毎に欠落する色の色情報に
相当する補間量を算出する補間処理を行う補間処理装置
において、 前記カラー画像の空間周波数の低域成分を所定量除去
し、該空間周波数の高域成分を主体とする高域主体画像
を生成する高域主体画像生成手段と、 前記高域主体画像生成手段によって生成された高域主体
画像の色情報を参照し、補間処理の対象となる補間対象
画素が有する色情報と該補間対象画素の近傍に位置する
画素が有する色情報とのうち、異なる色の色情報を比較
することによって該補間対象画素における複数の方向に
対する類似性の強弱の判定を行う類似性判定手段と、 前記類似性判定手段による判定の結果に応じて、前記補
間対象画素の補間量を算出する補間量算出手段とを備え
たことを特徴とする補間処理装置。
1. An interpolation processing apparatus for performing an interpolation process for calculating an interpolation amount corresponding to color information of a missing color for each pixel on a color image including color information of a plurality of predetermined colors. A high-frequency main image generating means for removing a predetermined amount of a low-frequency component of the spatial frequency of the color image and generating a high-frequency main image mainly composed of the high-frequency component of the spatial frequency; The color information of the interpolation target pixel to be subjected to the interpolation processing and the color information of the pixels located in the vicinity of the interpolation target pixel by referring to the color information of the high-frequency main image thus obtained. A similarity determining unit that determines the strength of similarity in a plurality of directions in the interpolation target pixel by comparing the interpolation target pixel, and calculates an interpolation amount of the interpolation target pixel according to a determination result by the similarity determination unit. You And an interpolation amount calculating means.
【請求項2】 請求項1に記載の補間処理装置におい
て、 前記高域主体画像生成手段は、 前記カラー画像の空間周波数の低域成分の半分以上を除
去して、高域主体画像を生成することを特徴とする補間
処理装置。
2. The interpolation processing apparatus according to claim 1, wherein the high-frequency main image generating unit generates a high-frequency main image by removing at least half of a low-frequency component of a spatial frequency of the color image. An interpolation processing device characterized by the above-mentioned.
【請求項3】 請求項1または請求項2に記載の補間処
理装置において、 前記高域主体画像生成手段は、 前記カラー画像の空間周波数の低域成分を少量残して、
高域主体画像を生成することを特徴とする補間処理装
置。
3. The interpolation processing device according to claim 1, wherein the high-frequency main image generation unit leaves a small amount of low-frequency components of a spatial frequency of the color image,
An interpolation processing device for generating a high-frequency main image.
【請求項4】 請求項1ないし請求項3の何れか1項に
記載の補間処理装置において、 前記類似性判定手段は、 前記高域主体画像生成手段によって生成された高域主体
画像の色情報を参照し、前記補間対象画素が有する色情
報と該補間対象画素の近傍に位置する画素が有する色情
報とのうち、異なる色の色情報を比較して該補間対象画
素の類似度を算出すると共に、該補間対象画素と同様に
して該補間対象画素の近傍に位置する画素の類似度を算
出し、該補間対象画素の類似度と該補間対象画素の近傍
に位置する複数の画素の類似度とを用いて、該補間対象
画素における複数の方向に対する類似性の強弱の判定を
行うことを特徴とする補間処理装置。
4. The interpolation processing apparatus according to claim 1, wherein the similarity determination unit is configured to output color information of the high-frequency main image generated by the high-frequency main image generation unit. , And calculates the similarity of the interpolation target pixel by comparing color information of different colors among the color information of the interpolation target pixel and the color information of pixels located in the vicinity of the interpolation target pixel. In addition, the similarity of the pixel located near the interpolation target pixel is calculated in the same manner as the interpolation target pixel, and the similarity of the interpolation target pixel and the similarity of a plurality of pixels located near the interpolation target pixel are calculated. An interpolation processing apparatus for determining the degree of similarity of the interpolation target pixel in a plurality of directions using
【請求項5】 コンピュータを請求項1ないし請求項4
の何れか1項に記載の高域主体画像生成手段、類似性判
定手段、補間量算出手段として機能させるための補間処
理プログラムを記録した機械読み取り可能な記録媒体。
5. The computer according to claim 1, wherein
A machine-readable recording medium that records an interpolation processing program for functioning as a high-frequency main image generation unit, a similarity determination unit, and an interpolation amount calculation unit according to any one of the above.
JP11083168A 1999-03-26 1999-03-26 Interpolation processor and recording medium storing interpolation processing program Pending JP2000278702A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11083168A JP2000278702A (en) 1999-03-26 1999-03-26 Interpolation processor and recording medium storing interpolation processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11083168A JP2000278702A (en) 1999-03-26 1999-03-26 Interpolation processor and recording medium storing interpolation processing program

Publications (1)

Publication Number Publication Date
JP2000278702A true JP2000278702A (en) 2000-10-06

Family

ID=13794753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11083168A Pending JP2000278702A (en) 1999-03-26 1999-03-26 Interpolation processor and recording medium storing interpolation processing program

Country Status (1)

Country Link
JP (1) JP2000278702A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7221730B2 (en) 2001-10-24 2007-05-22 Hitachi Medical Corporation Multi-row detector x-ray CT apparatus and method for creating tomogram

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7221730B2 (en) 2001-10-24 2007-05-22 Hitachi Medical Corporation Multi-row detector x-ray CT apparatus and method for creating tomogram

Similar Documents

Publication Publication Date Title
US11244209B2 (en) Image processing device, imaging device, and image processing method
JP4882374B2 (en) Image processing method, image processing program, and image processing apparatus
JP4815807B2 (en) Image processing apparatus, image processing program, and electronic camera for detecting chromatic aberration of magnification from RAW data
JP4054184B2 (en) Defective pixel correction device
JP3706789B2 (en) Signal processing apparatus and signal processing method
JP3946866B2 (en) Image signal processing apparatus and medium storing program
JP3548504B2 (en) Signal processing device, signal processing method, and imaging device
KR20090050460A (en) Image signal processing apparatus and method for the same
JP4321064B2 (en) Image processing apparatus and image processing program
KR20010043961A (en) Interpolation processor and recording medium recording interpolation processing program
JP4702912B2 (en) Signal processing method and signal processing apparatus
JP2000188762A (en) Interpolation processing unit and recording medium stored with interpolation processing program
JP2000341701A (en) Interpolation processor and storage medium recording interpolation processing program
KR100831970B1 (en) Method of detecting Defect Pixel and Apparatus used in the same
JP2002010279A (en) Interpolation processor and recording medium storing interpolation processing program
JP2000278702A (en) Interpolation processor and recording medium storing interpolation processing program
KR101327790B1 (en) Image interpolation method and apparatus
JP2000165892A (en) Pixel interpolation method and image processor
JPH11331858A (en) Picture signal processor and medium recording program
JP4239483B2 (en) Image processing method, image processing program, and image processing apparatus
JP2004173060A (en) Noise elimination method, image pickup device, and noise elimination program
KR20140006751A (en) Image signal processing apparatus and method for the same
JP4239480B2 (en) Image processing method, image processing program, and image processing apparatus
JP2000224603A (en) Interpolation processing unit, image pickup device and recording medium recording interpolation processing program
JP2009206553A (en) Image processing apparatus and program for image processing