JP4730105B2 - Image processing apparatus and method, learning apparatus and method, and program - Google Patents

Image processing apparatus and method, learning apparatus and method, and program Download PDF

Info

Publication number
JP4730105B2
JP4730105B2 JP2006012386A JP2006012386A JP4730105B2 JP 4730105 B2 JP4730105 B2 JP 4730105B2 JP 2006012386 A JP2006012386 A JP 2006012386A JP 2006012386 A JP2006012386 A JP 2006012386A JP 4730105 B2 JP4730105 B2 JP 4730105B2
Authority
JP
Japan
Prior art keywords
component
pixel
value
pixels
tap
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006012386A
Other languages
Japanese (ja)
Other versions
JP2007195023A (en
Inventor
幸司 矢野
健治 高橋
勉 市川
貴志 沢尾
克尚 神明
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006012386A priority Critical patent/JP4730105B2/en
Publication of JP2007195023A publication Critical patent/JP2007195023A/en
Application granted granted Critical
Publication of JP4730105B2 publication Critical patent/JP4730105B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は画像処理装置および方法、学習装置および方法、並びにプログラムに関し、特に、より高精細な画像を得ることができるようにした画像処理装置および方法、学習装置および方法、並びにプログラムに関する。   The present invention relates to an image processing apparatus and method, a learning apparatus and method, and a program, and more particularly, to an image processing apparatus and method, a learning apparatus and method, and a program that can obtain a higher-definition image.

CCD(Charge Coupled Devices)などの撮像素子を利用して画像を撮像する撮像装置においては、撮像装置の小型化を図るために、撮像素子として単板CCDが用いられることが多い。この単板CCDにおいては、各画素はR(赤)、G(緑)、およびB(青)の3原色のうちのいずれかの色のデータのみを出力し、各画素がどの色のデータを出力するかは単板CCDの前面に配置された色フィルタアレイによって定まる。   In an imaging apparatus that captures an image using an imaging element such as a CCD (Charge Coupled Devices), a single-plate CCD is often used as the imaging element in order to reduce the size of the imaging apparatus. In this single-plate CCD, each pixel outputs only data of any one of the three primary colors R (red), G (green), and B (blue), and each pixel outputs data of which color. Whether to output is determined by the color filter array arranged on the front surface of the single-plate CCD.

例えば、Gの色フィルタが配置された画素は、Gの成分のデータを出力するが、Rの成分およびBの成分は出力しない。また、Rの色フィルタが配置された画素は、Rの成分のデータは出力するが、Gの成分およびBの成分は出力しない。同様に、Bの色フィルタが配置された画素は、Bの成分は出力するが、Gの成分およびRの成分は出力しない。   For example, a pixel in which a G color filter is arranged outputs G component data, but does not output an R component and a B component. In addition, the pixel in which the R color filter is arranged outputs the R component data, but does not output the G component and the B component. Similarly, the pixel in which the B color filter is arranged outputs the B component, but does not output the G component and the R component.

ところで、撮像により得られた画像データに対して各種の処理を行う場合、画素毎にRGBの各色成分が必要となる。そこで、従来の撮像装置には、クラス分類適応処理により単板CCDが出力する画像データから、3板CCD出力相当の画像データを求めるものもある(例えば、特許文献1参照)。   By the way, when various processes are performed on image data obtained by imaging, RGB color components are required for each pixel. Therefore, some conventional imaging devices obtain image data equivalent to 3-plate CCD output from image data output by a single-plate CCD by class classification adaptive processing (see, for example, Patent Document 1).

特開2002−64836号公報JP 2002-64836 A

しかしながら、上述した技術においては、3板CCD出力相当の画像の注目している画素の所定の色(の画素値)を予測するために用いる予測タップとして、単板CCDの画像の予測する色とは異なる色の画素を用いた場合、予測する色の画素のダイナミックレンジに対して、異なる色の画素のダイナミックレンジが大きすぎると画像に破綻が生じてしまう。   However, in the above-described technique, as a prediction tap used for predicting a predetermined color (pixel value) of a pixel of interest in an image corresponding to a three-plate CCD output, When pixels of different colors are used, if the dynamic range of pixels of different colors is too large compared to the dynamic range of pixels of the color to be predicted, the image will break down.

例えば、図1に示すように、所定の位置AにおけるR(赤)の画素値を予測するために、予測タップとしてG(緑)の画素を用いると、求められたRの画素値は、周囲の位置のRの画素値と比べて突出した値となってしまう。なお、図中、横軸は撮像された画像における位置を示し、縦軸は各位置における各色の画素値(レベル)を示している。   For example, as shown in FIG. 1, when a G (green) pixel is used as a prediction tap to predict an R (red) pixel value at a predetermined position A, the obtained R pixel value is It becomes a prominent value compared with the pixel value of R at the position. In the figure, the horizontal axis indicates the position in the captured image, and the vertical axis indicates the pixel value (level) of each color at each position.

曲線11は、現実世界の各位置におけるGの値(波形)を示しており、Gの値は位置Aの前後において急峻に増加している。また、曲線12は、現実世界の各位置におけるRの値(波形)を示しており、Rの値は曲線11に示されるGの値と比べると、位置Aの前後においてなだらかに増加している。   A curve 11 shows a value (waveform) of G at each position in the real world, and the value of G increases steeply before and after the position A. The curve 12 shows the R value (waveform) at each position in the real world, and the R value increases gradually before and after the position A as compared with the G value shown in the curve 11. .

さらに、図中、丸および四角形は、それぞれ撮像により得られたGの画素(の画素値)およびRの画素(の画素値)を示している。ここで、図1の左側の図の丸により示される3つのGの画素、および四角形により示される2つのRの画素を予測タップとして用いて、クラス分類適応処理により位置AにおけるRの画素値を予測する場合を考える。   Further, in the drawing, circles and rectangles indicate G pixels (pixel values) and R pixels (pixel values) obtained by imaging, respectively. Here, using the three G pixels indicated by the circles on the left side of FIG. 1 and the two R pixels indicated by the rectangles as prediction taps, the R pixel value at position A is determined by the class classification adaptive processing. Consider the case of prediction.

この場合、予測タップとして用いられるGの画素のダイナミックレンジは、予測タップとして用いられるRの画素のダイナミックレンジと比較して非常に大きく、位置Aの付近においてGの画素値は急激に変化している。ここで、画素のダイナミックレンジとは、予測タップを構成する画素の画素値の最大値と最小値との差をいう。   In this case, the dynamic range of the G pixel used as the prediction tap is very large compared to the dynamic range of the R pixel used as the prediction tap, and the G pixel value changes rapidly in the vicinity of the position A. Yes. Here, the dynamic range of a pixel means the difference between the maximum value and the minimum value of the pixel values of the pixels constituting the prediction tap.

位置Aの付近におけるGの画素値の急激な変化は、位置AのRの画素値の予測にも影響を与え、位置AにおけるRの波形の傾きの大きさが、位置AにおけるGの波形の傾きの大きさと同じ大きさとなるように、位置AにおけるRの画素値が予測される。   The abrupt change in the G pixel value in the vicinity of the position A also affects the prediction of the R pixel value in the position A, and the magnitude of the slope of the R waveform in the position A is equal to the G waveform in the position A. The R pixel value at the position A is predicted so as to be the same as the inclination.

そのため、図1の右側の図の三角形に示すように、予測により得られた位置AのRの画素値は、周囲のGの画素に影響されて過度(過剰)に強調され、周囲のRの画素値と比べて図中、上方向に突出してしまう。したがって、曲線13に示すように、クラス分類適応処理によって得られた画像のRの画素値は、位置Aにおける画素値だけが周囲の画素値に比べて大きくなってしまう。   Therefore, as shown in the right triangle of FIG. 1, the R pixel value at the position A obtained by the prediction is influenced excessively by the surrounding G pixels, and is excessively emphasized. Compared with the pixel value, it protrudes upward in the figure. Therefore, as indicated by the curve 13, only the pixel value at the position A of the R pixel value of the image obtained by the classification adaptation process is larger than the surrounding pixel values.

逆に、3板CCD出力相当の画像の注目している画素の所定の色(の画素値)を予測するために用いる予測タップとして、単板CCDの画像の予測する画素の色とは異なる色の画素を用いた場合、予測する色の画素のダイナミックレンジに対して、異なる色の画素のダイナミックレンジが小さすぎると、その異なる色の画素は、予測する色の画素値に殆ど影響を与えないために、予測する色の画素が充分に強調されず、クラス分類適応処理により得られた3板CCD出力相当の画像は、精細感のないものとなってしまう。   Conversely, as a prediction tap used to predict a predetermined color (pixel value) of a pixel of interest in an image corresponding to a three-plate CCD output, a color different from the color of a pixel predicted in a single-plate CCD image If the dynamic range of a pixel of a different color is too small relative to the dynamic range of the pixel of the color to be predicted, the pixel of the different color has little influence on the pixel value of the color to be predicted. For this reason, the pixels of the color to be predicted are not sufficiently emphasized, and the image corresponding to the three-plate CCD output obtained by the class classification adaptive process has no fineness.

本発明は、このような状況に鑑みてなされたものであり、より精度よく高精細な画像を得ることができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to obtain a high-definition image with higher accuracy.

本発明の第1の側面の画像処理装置は、コンポーネント映像信号の第1の成分の値を有する画素と、第2の成分の値を有する画素とから構成される第1の画像データを、前記第1の成分の値および前記第2の成分の値を有する画素から構成される第2の画像データに変換する画像処理装置であって、前記第2の画像データの注目している画素である注目画素を予測するために用いる複数の画素を、前記第1の画像データから予測タップとして抽出する予測タップ抽出手段と、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第1の画像データからクラスタップとして抽出するクラスタップ抽出手段と、前記クラスタップを用いて、前記注目画素のクラス分類を行うクラス分類手段と、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化する正規化手段と、前記注目画素のクラスについて予め求められているタップ係数と、正規化された前記予測タップとを用いて、前記注目画素の前記第1の成分の値、または前記第2の成分の値を予測演算する予測演算手段とを備える。   An image processing apparatus according to a first aspect of the present invention provides first image data including pixels having a value of a first component of a component video signal and pixels having a value of a second component. An image processing apparatus for converting to second image data composed of pixels having a value of a first component and a value of the second component, the pixel being focused on in the second image data A prediction tap extracting unit that extracts a plurality of pixels used for predicting a target pixel as a prediction tap from the first image data, and a class classification that classifies the target pixel into one of a plurality of classes. Class tap extracting means for extracting a plurality of pixels to be used as class taps from the first image data; class classifying means for classifying the target pixel using the class tap; The prediction tap is normalized so that the dynamic range of the value of the first component of the pixel constituting the prediction tap is equal to the dynamic range of the value of the second component of the pixel constituting the prediction tap. The first component value of the pixel of interest, or the second value using the normalizing means for converting, the tap coefficient obtained in advance for the class of the pixel of interest, and the normalized prediction tap Prediction calculating means for predicting and calculating the value of the component.

前記正規化手段には、前記注目画素の前記第1の成分の値を予測演算する場合、前記第1の成分の値のダイナミックレンジの値を前記第2の成分の値のダイナミックレンジの値で除算して得られる値を、前記予測タップを構成する画素が有する前記第2の成分の値に乗算させることにより前記予測タップを正規化させることができる。   In the normalizing means, when predicting the value of the first component of the pixel of interest, the dynamic range value of the first component value is calculated as the dynamic range value of the second component value. The prediction tap can be normalized by multiplying the value obtained by the division by the value of the second component of the pixels constituting the prediction tap.

前記第1の成分または前記第2の成分は、赤、青、または緑のいずれかの色を表す成分とすることができる。   The first component or the second component may be a component representing any one of red, blue, and green.

前記第1の成分または前記第2の成分は、輝度または色差を表す成分とすることができる。   The first component or the second component may be a component representing luminance or color difference.

本発明の第1の側面の画像処理方法は、コンポーネント映像信号の第1の成分の値を有する画素と、第2の成分の値を有する画素とから構成される第1の画像データを、前記第1の成分の値および前記第2の成分の値を有する画素から構成される第2の画像データに変換する画像処理方法であって、前記第2の画像データの注目している画素である注目画素を予測するために用いる複数の画素を、前記第1の画像データから予測タップとして抽出し、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第1の画像データからクラスタップとして抽出し、前記クラスタップを用いて、前記注目画素のクラス分類を行い、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化し、前記注目画素のクラスについて予め求められているタップ係数と、正規化された前記予測タップとを用いて、前記注目画素の前記第1の成分の値、または前記第2の成分の値を予測演算するステップを含む。   In the image processing method according to the first aspect of the present invention, the first image data including pixels having a value of a first component of a component video signal and pixels having a value of a second component is An image processing method for converting to second image data composed of pixels having a value of a first component and a value of the second component, the pixel being focused on in the second image data A plurality of pixels used for predicting a target pixel are extracted as prediction taps from the first image data, and a plurality of pixels used for class classification that classifies the target pixel into one of a plurality of classes. , Extracting as a class tap from the first image data, classifying the pixel of interest using the class tap, and dynamics of the value of the first component of the pixels constituting the prediction tap Normalizing the prediction tap so that the clean range is equal to the dynamic range of the value of the second component of the pixels constituting the prediction tap, and tap coefficients that are obtained in advance for the class of the pixel of interest; Predicting the value of the first component or the value of the second component of the pixel of interest using the normalized prediction tap.

本発明の第1の側面のプログラムは、コンポーネント映像信号の第1の成分の値を有する画素と、第2の成分の値を有する画素とから構成される第1の画像データを、前記第1の成分の値および前記第2の成分の値を有する画素から構成される第2の画像データに変換する画像処理をコンピュータに実行させるプログラムであって、前記第2の画像データの注目している画素である注目画素を予測するために用いる複数の画素を、前記第1の画像データから予測タップとして抽出し、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第1の画像データからクラスタップとして抽出し、前記クラスタップを用いて、前記注目画素のクラス分類を行い、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化し、前記注目画素のクラスについて予め求められているタップ係数と、正規化された前記予測タップとを用いて、前記注目画素の前記第1の成分の値、または前記第2の成分の値を予測演算するステップを含む。   According to a first aspect of the present invention, there is provided a program for storing first image data including pixels having a value of a first component of a component video signal and pixels having a value of a second component. A program for causing a computer to execute image processing for conversion to second image data composed of pixels having the value of the second component and the value of the second component, and paying attention to the second image data A plurality of pixels used for predicting a pixel of interest that is a pixel are extracted as prediction taps from the first image data, and are used for class classification that classifies the pixel of interest into one of a plurality of classes. Are extracted as class taps from the first image data, and the class tap is used to classify the pixel of interest, and there are pixels constituting the prediction tap. The prediction tap is normalized so that the dynamic range of the value of the first component is equal to the dynamic range of the value of the second component of the pixels constituting the prediction tap, and the class of the target pixel Predicting the value of the first component or the value of the second component of the pixel of interest using a tap coefficient determined in advance and the normalized prediction tap.

本発明の第1の側面においては、コンポーネント映像信号の第1の成分の値を有する画素と、第2の成分の値を有する画素とから構成される第1の画像データが、前記第1の成分の値および前記第2の成分の値を有する画素から構成される第2の画像データに変換される場合、前記第2の画像データの注目している画素である注目画素を予測するために用いる複数の画素が、前記第1の画像データから予測タップとして抽出され、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素が、前記第1の画像データからクラスタップとして抽出され、前記クラスタップが用いられて、前記注目画素のクラス分類が行われ、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップが正規化され、前記注目画素のクラスについて予め求められているタップ係数と、正規化された前記予測タップとが用いられて、前記注目画素の前記第1の成分の値、または前記第2の成分の値が予測演算される。   In the first aspect of the present invention, first image data composed of pixels having a value of a first component of a component video signal and pixels having a value of a second component is the first image data. In order to predict a pixel of interest that is a pixel of interest of the second image data when converted into second image data composed of pixels having a component value and a value of the second component A plurality of pixels to be used are extracted as prediction taps from the first image data, and a plurality of pixels used for class classification that classifies the pixel of interest into one of a plurality of classes are the first image data. As a class tap, the class tap is used to classify the pixel of interest, and the dynamic range of the value of the first component included in the pixels constituting the prediction tap The prediction tap is normalized so that the dynamic range of the value of the second component of the pixels constituting the prediction tap is equal, and the tap coefficient obtained in advance for the class of the target pixel is The predicted prediction tap is used to predict the value of the first component or the value of the second component of the pixel of interest.

本発明の第2の側面の学習装置は、コンポーネント映像信号の第1の成分および第2の成分の値を有する画素から構成される第1の画像データから、注目している画素である注目画素の前記第1の成分の値を抽出する注目画素抽出手段と、前記注目画素を予測するために用いる複数の画素を、前記第1の成分の値を有する画素と、前記第2の成分の値を有する画素とから構成される第2の画像データから予測タップとして抽出する予測タップ抽出手段と、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第2の画像データからクラスタップとして抽出するクラスタップ抽出手段と、前記クラスタップを用いて、前記注目画素のクラス分類を行うクラス分類手段と、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化する正規化手段と、前記注目画素の前記第1の成分の値、および正規化された前記予測タップを用いて、正規化された前記予測タップから前記注目画素の前記第1の成分の値を予測するために用いられる、前記注目画素のクラスに対応するタップ係数を求める演算手段とを備える。   The learning device according to the second aspect of the present invention is a pixel of interest which is a pixel of interest from first image data composed of pixels having values of a first component and a second component of a component video signal. Pixel-of-interest extracting means for extracting the value of the first component, a plurality of pixels used for predicting the pixel of interest, a pixel having the value of the first component, and a value of the second component Prediction tap extracting means for extracting as a prediction tap from second image data composed of pixels having a plurality of pixels, and a plurality of pixels used for class classification to classify the pixel of interest into one of a plurality of classes, A class tap extraction unit that extracts a class tap from the second image data, a class classification unit that classifies the pixel of interest using the class tap, and the prediction tap Normalization that normalizes the prediction tap so that the dynamic range of the value of the first component of the pixel is equal to the dynamic range of the value of the second component of the pixel constituting the prediction tap Using the means, the value of the first component of the pixel of interest, and the normalized prediction tap, to predict the value of the first component of the pixel of interest from the normalized prediction tap And calculating means for obtaining a tap coefficient corresponding to the class of the target pixel.

前記正規化手段には、前記注目画素の前記第1の成分の値を予測するために用いられる前記タップ係数を求める場合、前記第1の成分の値のダイナミックレンジの値を前記第2の成分の値のダイナミックレンジの値で除算して得られる値を、前記予測タップを構成する画素が有する前記第2の成分の値に乗算させることにより前記予測タップを正規化させることができる。   When obtaining the tap coefficient used for predicting the value of the first component of the pixel of interest, the normalizing means uses the dynamic range value of the value of the first component as the second component. The prediction tap can be normalized by multiplying the value obtained by dividing the dynamic range value by the value of the second component of the pixels constituting the prediction tap.

前記第1の成分または前記第2の成分は、赤、青、または緑のいずれかの色を表す成分とすることができる。   The first component or the second component may be a component representing any one of red, blue, and green.

前記第1の成分または前記第2の成分は、輝度または色差を表す成分とすることができる。   The first component or the second component may be a component representing luminance or color difference.

本発明の第2の側面の学習方法またはプログラムは、コンポーネント映像信号の第1の成分および第2の成分の値を有する画素から構成される第1の画像データから、注目している画素である注目画素の前記第1の成分の値を抽出し、前記注目画素を予測するために用いる複数の画素を、前記第1の成分の値を有する画素と、前記第2の成分の値を有する画素とから構成される第2の画像データから予測タップとして抽出し、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第2の画像データからクラスタップとして抽出し、前記クラスタップを用いて、前記注目画素のクラス分類を行い、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化し、前記注目画素の前記第1の成分の値、および正規化された前記予測タップを用いて、正規化された前記予測タップから前記注目画素の前記第1の成分の値を予測するために用いられる、前記注目画素のクラスに対応するタップ係数を求めるステップを含む。   The learning method or program according to the second aspect of the present invention is a pixel of interest from first image data composed of pixels having values of a first component and a second component of a component video signal. A plurality of pixels used for extracting the value of the first component of the target pixel and predicting the target pixel are a pixel having the value of the first component and a pixel having the value of the second component. A plurality of pixels extracted from the second image data configured as a prediction tap and used for class classification to classify the pixel of interest into one of a plurality of classes. Extracting as a tap, classifying the pixel of interest using the class tap, the dynamic range of the value of the first component of the pixels constituting the prediction tap, and the prediction Normalizing the prediction tap so that the dynamic range of the value of the second component of the pixels constituting the pixel is equal to the value of the first component of the pixel of interest, and the normalized prediction Determining a tap coefficient corresponding to the class of the target pixel, which is used to predict the value of the first component of the target pixel from the normalized prediction tap using the tap.

本発明の第2の側面においては、コンポーネント映像信号の第1の成分および第2の成分の値を有する画素から構成される第1の画像データから、注目している画素である注目画素の前記第1の成分の値が抽出され、前記注目画素を予測するために用いる複数の画素が、前記第1の成分の値を有する画素と、前記第2の成分の値を有する画素とから構成される第2の画像データから予測タップとして抽出され、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素が、前記第2の画像データからクラスタップとして抽出され、前記クラスタップが用いられて、前記注目画素のクラス分類が行われ、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップが正規化され、前記注目画素の前記第1の成分の値、および正規化された前記予測タップが用いられて、正規化された前記予測タップから前記注目画素の前記第1の成分の値を予測するために用いられる、前記注目画素のクラスに対応するタップ係数が求められる。   In the second aspect of the present invention, from the first image data composed of pixels having the values of the first component and the second component of the component video signal, the pixel of interest that is the pixel of interest is described above. The value of the first component is extracted, and the plurality of pixels used for predicting the target pixel are composed of pixels having the value of the first component and pixels having the value of the second component. A plurality of pixels that are extracted as prediction taps from the second image data and used for class classification to classify the pixel of interest into one of a plurality of classes, and are extracted from the second image data as class taps. The class tap is used to classify the pixel of interest, the dynamic range of the value of the first component of the pixels constituting the prediction tap, and the prediction tap The prediction tap is normalized so that the dynamic range of the value of the second component included in the constituent pixels is equal, and the value of the first component of the target pixel and the normalized prediction tap are Used to determine the tap coefficient corresponding to the class of the pixel of interest used to predict the value of the first component of the pixel of interest from the normalized prediction tap.

本発明の第1の側面によれば、高精細な画像を得ることができる。特に、本発明の第1の側面によれば、より精度よく高精細な画像を得ることができる。   According to the first aspect of the present invention, a high-definition image can be obtained. In particular, according to the first aspect of the present invention, a high-definition image can be obtained with higher accuracy.

また、本発明の第2の側面によれば、高精細な画像を得ることができる。特に、本発明の第2の側面によれば、より精度よく高精細な画像を得ることができる。   Further, according to the second aspect of the present invention, a high-definition image can be obtained. In particular, according to the second aspect of the present invention, a high-definition image can be obtained with higher accuracy.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. Not something to do.

本発明の第1の側面の画像処理装置は、コンポーネント映像信号の第1の成分の値を有する画素と、第2の成分の値を有する画素とから構成される第1の画像データを、前記第1の成分の値および前記第2の成分の値を有する画素から構成される第2の画像データに変換する画像処理装置(例えば、図3の撮像装置41)であって、前記第2の画像データの注目している画素である注目画素を予測するために用いる複数の画素を、前記第1の画像データから予測タップとして抽出する予測タップ抽出手段(例えば、図5の予測タップブロック化回路114)と、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第1の画像データからクラスタップとして抽出するクラスタップ抽出手段(例えば、図5のADRCブロック化回路111)と、前記クラスタップを用いて、前記注目画素のクラス分類を行うクラス分類手段(例えば、図5のクラス分類回路113)と、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化する正規化手段(例えば、図5の予測タップ正規化部115)と、前記注目画素のクラスについて予め求められているタップ係数と、正規化された前記予測タップとを用いて、前記注目画素の前記第1の成分の値、または前記第2の成分の値を予測演算する予測演算手段(例えば、図5の適応処理回路116)とを備える。   An image processing apparatus according to a first aspect of the present invention provides first image data including pixels having a value of a first component of a component video signal and pixels having a value of a second component. An image processing device (for example, the imaging device 41 in FIG. 3) that converts to second image data composed of pixels having a value of a first component and a value of the second component, Prediction tap extraction means for extracting a plurality of pixels used for predicting a pixel of interest, which is a pixel of interest of image data, as a prediction tap from the first image data (for example, the prediction tap blocking circuit of FIG. 5). 114) and a class tap extracting means for extracting, as class taps, a plurality of pixels used for class classification that classifies the target pixel into any one of a plurality of classes. For example, the ADRC blocking circuit 111 in FIG. 5, class classification means for classifying the pixel of interest using the class tap (for example, the class classification circuit 113 in FIG. 5), and the prediction tap are configured. Normalizing means for normalizing the prediction tap so that the dynamic range of the value of the first component included in the pixel is equal to the dynamic range of the value of the second component included in the pixel constituting the prediction tap. (For example, the prediction tap normalization unit 115 in FIG. 5), the tap coefficient obtained in advance for the class of the target pixel, and the normalized prediction tap, the first of the target pixel. Prediction calculating means (for example, the adaptive processing circuit 116 in FIG. 5) for predicting and calculating the component value or the second component value is provided.

前記正規化手段には、前記注目画素の前記第1の成分の値を予測演算する場合、前記第1の成分の値のダイナミックレンジの値を前記第2の成分の値のダイナミックレンジの値で除算して得られる値を、前記予測タップを構成する画素が有する前記第2の成分の値に乗算させることにより前記予測タップを正規化させる(例えば、図6のステップS49の処理)ことができる。   In the normalizing means, when predicting the value of the first component of the pixel of interest, the dynamic range value of the first component value is calculated as the dynamic range value of the second component value. The prediction tap can be normalized by multiplying the value obtained by the division by the value of the second component of the pixels constituting the prediction tap (for example, the process of step S49 in FIG. 6). .

本発明の第1の側面の画像処理方法は、コンポーネント映像信号の第1の成分の値を有する画素と、第2の成分の値を有する画素とから構成される第1の画像データを、前記第1の成分の値および前記第2の成分の値を有する画素から構成される第2の画像データに変換する画像処理方法であって、前記第2の画像データの注目している画素である注目画素を予測するために用いる複数の画素を、前記第1の画像データから予測タップとして抽出し(例えば、図6のステップS48)、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第1の画像データからクラスタップとして抽出し(例えば、図6のステップS45)、前記クラスタップを用いて、前記注目画素のクラス分類を行い(例えば、図6のステップS47)、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化し(例えば、図6のステップS49)、前記注目画素のクラスについて予め求められているタップ係数と、正規化された前記予測タップとを用いて、前記注目画素の前記第1の成分の値、または前記第2の成分の値を予測演算する(例えば、図6のステップS50)ステップを含む。   In the image processing method according to the first aspect of the present invention, the first image data including pixels having a value of a first component of a component video signal and pixels having a value of a second component is An image processing method for converting to second image data composed of pixels having a value of a first component and a value of the second component, the pixel being focused on in the second image data A plurality of pixels used for predicting the pixel of interest are extracted as prediction taps from the first image data (for example, step S48 in FIG. 6), and the pixel of interest is classified into one of a plurality of classes. A plurality of pixels used for class classification to be extracted as class taps from the first image data (for example, step S45 in FIG. 6), and class classification of the pixel of interest is performed using the class taps ( For example, step S47 in FIG. 6, the dynamic range of the value of the first component included in the pixels constituting the prediction tap, and the dynamic range of the value of the second component included in the pixels constituting the prediction tap, The prediction taps are normalized so as to be equal to each other (for example, step S49 in FIG. 6), and the attention tap is obtained using the tap coefficient obtained in advance for the class of the attention pixel and the normalized prediction tap. A step of predicting and calculating the value of the first component or the value of the second component of the pixel (for example, step S50 in FIG. 6).

なお、本発明の第1の側面のプログラムも、上述した本発明の第1の側面の画像処理方法と基本的に同様の処理であるため、繰り返しになるのでその説明は省略する。   Note that the program according to the first aspect of the present invention is basically the same processing as the image processing method according to the first aspect of the present invention described above, and is therefore repeated, so that the description thereof is omitted.

本発明の第2の側面の学習装置(例えば、図11の学習装置201)は、コンポーネント映像信号の第1の成分および第2の成分の値を有する画素から構成される第1の画像データから、注目している画素である注目画素の前記第1の成分の値を抽出する注目画素抽出手段(例えば、図11の教師画像ブロック化回路217)と、前記注目画素を予測するために用いる複数の画素を、前記第1の成分の値を有する画素と、前記第2の成分の値を有する画素とから構成される第2の画像データから予測タップとして抽出する予測タップ抽出手段(例えば、図11の予測タップブロック化回路215)と、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第2の画像データからクラスタップとして抽出するクラスタップ抽出手段(例えば、図11のADRCブロック化回路212)と、前記クラスタップを用いて、前記注目画素のクラス分類を行うクラス分類手段(例えば、図11のクラス分類回路214)と、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化する正規化手段(例えば、図11の予測タップ正規化部216)と、前記注目画素の前記第1の成分の値、および正規化された前記予測タップを用いて、正規化された前記予測タップから前記注目画素の前記第1の成分の値を予測するために用いられる、前記注目画素のクラスに対応するタップ係数を求める演算手段(例えば、図11の演算回路220)とを備える。   The learning device according to the second aspect of the present invention (for example, the learning device 201 in FIG. 11) is based on first image data composed of pixels having values of the first component and the second component of the component video signal. A pixel-of-interest extracting means (for example, the teacher image blocking circuit 217 in FIG. 11) for extracting the value of the first component of the pixel of interest that is the pixel of interest, and a plurality of pixels used for predicting the pixel of interest Predictive tap extracting means (for example, FIG. 5) extracts a pixel as a prediction tap from second image data composed of a pixel having the value of the first component and a pixel having the value of the second component. 11 prediction tap blocking circuits 215), and a plurality of pixels used for class classification for classifying the pixel of interest into one of a plurality of classes, from the second image data. Class tap extracting means (for example, the ADRC blocking circuit 212 in FIG. 11) and class classifying means for classifying the pixel of interest using the class tap (for example, the class classifying circuit 214 in FIG. 11). ) And the dynamic range of the value of the first component included in the pixels constituting the prediction tap and the dynamic range of the value of the second component included in the pixels constituting the prediction tap are equal to each other. Normalization using normalization means for normalizing the prediction tap (for example, the prediction tap normalization unit 216 in FIG. 11), the value of the first component of the pixel of interest, and the normalized prediction tap An operation for obtaining a tap coefficient corresponding to the class of the target pixel, which is used to predict the value of the first component of the target pixel from the predicted tap that has been performed. And means (e.g., the arithmetic circuit 220 in FIG. 11).

前記正規化手段には、前記注目画素の前記第1の成分の値を予測するために用いられる前記タップ係数を求める場合、前記第1の成分の値のダイナミックレンジの値を前記第2の成分の値のダイナミックレンジの値で除算して得られる値を、前記予測タップを構成する画素が有する前記第2の成分の値に乗算させることにより前記予測タップを正規化させる(例えば、図12のステップS86の処理)ことができる。   When obtaining the tap coefficient used for predicting the value of the first component of the pixel of interest, the normalizing means uses the dynamic range value of the value of the first component as the second component. The prediction tap is normalized by multiplying the value obtained by dividing the value of the dynamic range by the value of the second component of the pixel constituting the prediction tap (for example, FIG. 12). Step S86).

本発明の第2の側面の学習方法またはプログラムは、コンポーネント映像信号の第1の成分および第2の成分の値を有する画素から構成される第1の画像データから、注目している画素である注目画素の前記第1の成分の値を抽出し(例えば、図12のステップS87)、前記注目画素を予測するために用いる複数の画素を、前記第1の成分の値を有する画素と、前記第2の成分の値を有する画素とから構成される第2の画像データから予測タップとして抽出し(例えば、図12のステップS85)、前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第2の画像データからクラスタップとして抽出し(例えば、図12のステップS82)、前記クラスタップを用いて、前記注目画素のクラス分類を行い(例えば、図12のステップS84)、前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化し(例えば、図12のステップS86)、前記注目画素の前記第1の成分の値、および正規化された前記予測タップを用いて、正規化された前記予測タップから前記注目画素の前記第1の成分の値を予測するために用いられる、前記注目画素のクラスに対応するタップ係数を求める(例えば、図12のステップS90)ステップを含む。   The learning method or program according to the second aspect of the present invention is a pixel of interest from first image data composed of pixels having values of a first component and a second component of a component video signal. The value of the first component of the pixel of interest is extracted (for example, step S87 in FIG. 12), and a plurality of pixels used for predicting the pixel of interest are pixels having the value of the first component; Extracted as prediction taps from second image data composed of pixels having the value of the second component (for example, step S85 in FIG. 12), and classifying the pixel of interest into one of a plurality of classes A plurality of pixels used for class classification are extracted as class taps from the second image data (for example, step S82 in FIG. 12), and the class tap is used to select the pixel of interest. Classification (for example, step S84 in FIG. 12), the dynamic range of the value of the first component included in the pixels constituting the prediction tap, and the second component included in the pixel constituting the prediction tap. The prediction tap is normalized so that the dynamic range of the value becomes equal (for example, step S86 in FIG. 12), the value of the first component of the pixel of interest, and the normalized prediction tap are used. Obtaining a tap coefficient corresponding to the class of the target pixel used to predict the value of the first component of the target pixel from the normalized prediction tap (for example, step S90 in FIG. 12); Including.

本発明は、動画像を撮影するデジタルビデオカメラ、静止画像を撮像するデジタルスチルカメラ、カメラ一体型VTR(Video Tape Recorder)等の映像機器、放送業務に用いられる画像処理装置、プリンタ、スキャナなどに適用することができる。   The present invention is applied to a digital video camera for capturing moving images, a digital still camera for capturing still images, video equipment such as a camera-integrated VTR (Video Tape Recorder), an image processing apparatus used in broadcasting services, a printer, a scanner, and the like. Can be applied.

以下、図面を参照して本発明を適用した実施の形態について説明する。   Embodiments to which the present invention is applied will be described below with reference to the drawings.

図2は、本発明を適用した撮像装置が、単板CCDの出力からより高精細な画像データを生成する処理の原理を表している。   FIG. 2 shows the principle of processing in which the imaging apparatus to which the present invention is applied generates higher-definition image data from the output of a single-plate CCD.

図2に示すように、撮像装置においては、n×m(図2では縦6×横8)の単板CCDが出力する画像データから、n×mのR(赤)の画像データ、n×mのG(緑)の画像データ、およびn×mのB(青)の画像データが、それぞれ直接演算により生成される。換言すれば、撮像装置は、単板CCDが出力する画像データを、Rの画像データ、Gの画像データ、およびBの画像データからなる3板CCD出力相当の画像データに変換する。   As shown in FIG. 2, in the imaging apparatus, n × m R (red) image data, n × m (n × m (vertical 6 × horizontal 8 in FIG. 2) image data output) m G (green) image data and n × m B (blue) image data are respectively generated by direct calculation. In other words, the imaging apparatus converts the image data output from the single-plate CCD into image data corresponding to a three-plate CCD output composed of R image data, G image data, and B image data.

撮像装置の単板CCDの前面には色フィルタアレイが配置されており、色フィルタアレイの色配列は、例えば図2の左側に示すように、ベイヤー配列と称される色配列とされる。図2では、Gの色のフィルタが市松状に配置され、残りの部分にRの色のフィルタおよびBの色のフィルタが一行ごとに交互に配置されている。   A color filter array is arranged on the front surface of the single CCD of the imaging apparatus, and the color arrangement of the color filter array is, for example, a color arrangement called a Bayer arrangement as shown on the left side of FIG. In FIG. 2, the G color filters are arranged in a checkered pattern, and the R color filters and the B color filters are alternately arranged for each line in the remaining portion.

このようにして撮像装置は、単板CCDから出力されたRの画素値を有する画素、Gの画素値を有する画素、およびBの画素値を有する画素から構成される画像データを、Rの画素値、Gの画素値、およびBの画素値を有する画素から構成される3板CCD出力相当の画像データに変換する。   In this way, the imaging apparatus converts image data composed of pixels having an R pixel value, pixels having a G pixel value, and pixels having a B pixel value output from a single-plate CCD into R pixels. Is converted into image data equivalent to a three-plate CCD output composed of pixels having a value, a pixel value of G, and a pixel value of B.

図3は、以上のような原理に従って、被写体を撮像して高精細な画像データを生成する撮像装置の構成例を示すブロック図である。   FIG. 3 is a block diagram illustrating a configuration example of an imaging apparatus that captures a subject and generates high-definition image data according to the principle described above.

撮像装置41のレンズ51は被写体からの光を集光し、集光した光を、アイリス52および色フィルタアレイ53を介して単板のCCD54に入射させる。すなわち、レンズ51は入射した光をCCD54上に結像させる。また、色フィルタアレイ53は、1画素ごとに割り当てられた色フィルタから構成され、CCD54の前面(図中、左側)に配置されている。   The lens 51 of the imaging device 41 condenses the light from the subject and makes the collected light enter the single-plate CCD 54 via the iris 52 and the color filter array 53. That is, the lens 51 forms an image of the incident light on the CCD 54. The color filter array 53 is composed of color filters assigned to each pixel, and is arranged on the front surface (the left side in the figure) of the CCD 54.

CCD54は、入射された光を光電変換して、光電変換により得られた電荷を蓄積し、蓄積した電荷をアナログ信号である画像信号としてAGC(Automatic Gain Control)/CDS(Correlated Double Sampling)回路55に供給する。   The CCD 54 photoelectrically converts incident light, accumulates electric charges obtained by the photoelectric conversion, and uses the accumulated electric charges as an image signal that is an analog signal as an AGC (Automatic Gain Control) / CDS (Correlated Double Sampling) circuit 55. To supply.

AGS/CDS回路55は、供給された画像信号の大きさ(レベル)が一定になるようにゲインを調整して出力するとともに、CCD54において発生する1/fノイズを除去する。さらに、AGC/CDS回路55は、メインCPU(Central Processing Unit)59の制御に基づいて、CCD54における電荷の蓄積時間を電気的に変化させる電子シャッタ処理も行う。AGC/CDS回路55から出力された画像信号は、A/D(Analog/Digital)変換部56に入力され、アナログ信号からデジタル信号である画像データに変換された後、画像信号処理回路57に入力される。画像信号処理回路57は、入力された画像データに対して、欠陥補正処理、デジタルクランプ処理、ホワイトバランス調整処理、ガンマ補正処理、クラス分類適応処理を用いた補間処理などの所定の処理を行う。   The AGS / CDS circuit 55 adjusts and outputs the gain so that the magnitude (level) of the supplied image signal is constant, and removes 1 / f noise generated in the CCD 54. Further, the AGC / CDS circuit 55 performs electronic shutter processing for electrically changing the charge accumulation time in the CCD 54 based on the control of a main CPU (Central Processing Unit) 59. The image signal output from the AGC / CDS circuit 55 is input to an A / D (Analog / Digital) conversion unit 56, converted from an analog signal to image data that is a digital signal, and then input to an image signal processing circuit 57. Is done. The image signal processing circuit 57 performs predetermined processing such as defect correction processing, digital clamp processing, white balance adjustment processing, gamma correction processing, and interpolation processing using class classification adaptation processing on the input image data.

タイミングジェネレータ58は、メインCPU59の制御に基づいて、各種のタイミング信号を発生し、CCD54、AGC/CDS回路55、A/D変換部56、メインCPU59などに供給する。   The timing generator 58 generates various timing signals based on the control of the main CPU 59, and supplies them to the CCD 54, the AGC / CDS circuit 55, the A / D converter 56, the main CPU 59, and the like.

モータ60は、メインCPU59の制御に基づいて、アイリス52を駆動し、レンズ51からCCD54に入射される光の量を制御する。モータ61は、メインCPU59により制御され、レンズ51を制御して、レンズ51のCCD54に対するフォーカス状態を制御する。発光部62は、メインCPU59により制御され、撮像時に被写体に対して所定の閃光を照射する。   The motor 60 drives the iris 52 based on the control of the main CPU 59 and controls the amount of light incident on the CCD 54 from the lens 51. The motor 61 is controlled by the main CPU 59 and controls the lens 51 to control the focus state of the lens 51 with respect to the CCD 54. The light emitting unit 62 is controlled by the main CPU 59 and irradiates a predetermined flash to the subject during imaging.

記録媒体インターフェース63は、画像信号処理回路57から出力された画像データを、必要に応じてメモリ64に記憶させ、所定のインターフェース処理を実行した後、記録媒体65に供給して記録させる。記録媒体65は、例えば、不揮発性のフラッシュメモリ、磁気ディスク、光ディスク、光磁気ディスクなどから構成され、撮像装置41に着脱可能とされている。   The recording medium interface 63 stores the image data output from the image signal processing circuit 57 in the memory 64 as necessary, executes a predetermined interface process, and then supplies the image data to the recording medium 65 for recording. The recording medium 65 includes, for example, a non-volatile flash memory, a magnetic disk, an optical disk, a magneto-optical disk, and the like, and is detachable from the imaging device 41.

コントローラ66は、メインCPU59の制御のもと、画像信号処理回路57および記録媒体インターフェース63を制御する。また、メインCPU59には、シャッタボタンやスイッチなどから構成される操作部70から、撮像者の操作に応じて各種の指令が入力される。電源部67は、バッテリ68およびDC/DCコンバータ69を内蔵しており、DC/DCコンバータ69は、バッテリ68からの電力を所定の値の直流電圧に変換し、撮像装置41の各部に供給する。充電可能なバッテリ68は、撮像装置41に着脱可能とされている。   The controller 66 controls the image signal processing circuit 57 and the recording medium interface 63 under the control of the main CPU 59. In addition, various commands are input to the main CPU 59 from the operation unit 70 including shutter buttons, switches, and the like in accordance with the operation of the photographer. The power supply unit 67 includes a battery 68 and a DC / DC converter 69, and the DC / DC converter 69 converts power from the battery 68 into a DC voltage having a predetermined value and supplies it to each unit of the imaging device 41. . The rechargeable battery 68 can be attached to and detached from the imaging device 41.

次に、図4のフローチャートを参照して、撮像装置41が所定の被写体を撮像し、撮像により得られた画像データを記録媒体65に記録させる処理について説明する。   Next, with reference to the flowchart of FIG. 4, a process in which the imaging device 41 images a predetermined subject and causes the recording medium 65 to record image data obtained by the imaging will be described.

ステップS11において、レンズ51は被写体からの光を集光し、集光した光をアイリス52および色フィルタアレイ53を介してCCD54に入射させる。また、メインCPU59は、モータ60を制御してアイリス52を駆動し、CCD54に入射するレンズ51からの光量を所定の値に調整させるとともに、モータ61を制御してレンズ51の位置を調整させ、フォーカス制御を実行する。   In step S <b> 11, the lens 51 condenses the light from the subject, and causes the collected light to enter the CCD 54 via the iris 52 and the color filter array 53. The main CPU 59 controls the motor 60 to drive the iris 52 to adjust the light amount from the lens 51 incident on the CCD 54 to a predetermined value, and also controls the motor 61 to adjust the position of the lens 51. Perform focus control.

ステップS12において、メインCPU59は、撮像者によりシャッタボタンが操作されたか否かを判定する。例えば、撮像者が撮像装置41に設けられた、図示せぬモニタやファインダに表示された画像を見ることで画角を確認し、シャッタボタンとしての操作部70を操作すると、操作部70からメインCPU59には、シャッタボタンが操作された旨の信号が供給される。メインCPU59は、シャッタボタンが操作された旨の信号が供給された場合、シャッタボタンが操作されたと判定する。   In step S12, the main CPU 59 determines whether or not the shutter button has been operated by the photographer. For example, when the imager confirms the angle of view by viewing an image displayed on a monitor or finder (not shown) provided in the imaging device 41 and operates the operation unit 70 as a shutter button, the operation unit 70 performs main operation. The CPU 59 is supplied with a signal indicating that the shutter button has been operated. The main CPU 59 determines that the shutter button has been operated when a signal indicating that the shutter button has been operated is supplied.

ステップS12において、シャッタボタンが操作されていないと判定された場合、処理はステップS11に戻り、それ以降の処理が繰り返される。   If it is determined in step S12 that the shutter button has not been operated, the process returns to step S11, and the subsequent processes are repeated.

これに対して、ステップS12において、シャッタボタンが操作されたと判定された場合、処理はステップS13に進む。また、このとき、メインCPU59は発光部62を駆動して閃光を発生させ、被写体に照射させるとともに、タイミングジェネレータ58を制御して各種のタイミング信号を発生させる。タイミングジェネレータ58は、発生させたタイミング信号をCCD54、AGC/CDS回路55、A/D変換部56、およびメインCPU59に供給する。   On the other hand, if it is determined in step S12 that the shutter button has been operated, the process proceeds to step S13. At this time, the main CPU 59 drives the light emitting unit 62 to generate a flash and irradiate the subject, and controls the timing generator 58 to generate various timing signals. The timing generator 58 supplies the generated timing signal to the CCD 54, the AGC / CDS circuit 55, the A / D converter 56, and the main CPU 59.

ステップS13において、CCD54は、タイミングジェネレータ58からのタイミング信号に同期して、レンズ51から入射した光を光電変換し(電荷に変換し)、これにより得られたアナログ信号を画像信号としてAGC/CDS回路55に供給する。   In step S13, the CCD 54 photoelectrically converts (converts into charges) the light incident from the lens 51 in synchronization with the timing signal from the timing generator 58, and uses the analog signal obtained thereby as an image signal as an AGC / CDS. This is supplied to the circuit 55.

ステップS14において、AGC/CDS回路55は、CCD54から供給された画像信号の1/fノイズ成分を除去する処理を行った後、画像信号の大きさが一定になるようにゲインを調整して画像信号をA/D変換部56に供給する。   In step S14, the AGC / CDS circuit 55 performs processing for removing the 1 / f noise component of the image signal supplied from the CCD 54, and then adjusts the gain so that the magnitude of the image signal is constant, The signal is supplied to the A / D converter 56.

ステップS15において、A/D変換部56は、AGC/CDS回路55から供給された画像信号をアナログ信号からデジタル信号である画像データに変換し、変換により得られた画像データを画像信号処理回路57に供給する。   In step S15, the A / D converter 56 converts the image signal supplied from the AGC / CDS circuit 55 from an analog signal into image data that is a digital signal, and the image data obtained by the conversion is converted into an image signal processing circuit 57. To supply.

ステップS16において、画像信号処理回路57はA/D変換部56から供給された画像データに対して、画像信号処理を施す。その詳細は図6のフローチャートを参照して後述するが、欠陥補正処理、デジタルクランプ処理、ホワイトバランス調整処理、ガンマ補正処理、クラス分類適応処理などの画像信号処理が施される。画像信号処理回路57は、画像信号処理を施した画像データを必要に応じてメモリ64に一時的に記憶させ、記録媒体インターフェース63を介して記録媒体65に供給する。   In step S <b> 16, the image signal processing circuit 57 performs image signal processing on the image data supplied from the A / D conversion unit 56. Although details will be described later with reference to the flowchart of FIG. 6, image signal processing such as defect correction processing, digital clamp processing, white balance adjustment processing, gamma correction processing, class classification adaptation processing, and the like is performed. The image signal processing circuit 57 temporarily stores the image data subjected to the image signal processing in the memory 64 as necessary, and supplies the image data to the recording medium 65 via the recording medium interface 63.

ステップS17において、記録媒体65は、記録媒体インターフェース63から供給された画像データを記録して、撮像処理は終了する。なお、撮像により得られた画像データを記録媒体65に記録せずに、撮像装置41に接続された他の装置に所定の信号フォーマットで出力するようにしてもよい。   In step S17, the recording medium 65 records the image data supplied from the recording medium interface 63, and the imaging process ends. Note that the image data obtained by imaging may be output in a predetermined signal format to another device connected to the imaging device 41 without being recorded on the recording medium 65.

このようにして、撮像装置41は被写体を撮像し、撮像により得られた画像データを記録媒体65に記録する。   In this manner, the imaging device 41 images the subject and records the image data obtained by the imaging on the recording medium 65.

ところで、画像データに対して画像信号処理を施す画像信号処理回路57は、例えば、図5に示すように構成される。   By the way, the image signal processing circuit 57 that performs image signal processing on image data is configured as shown in FIG. 5, for example.

画像信号処理回路57は、欠陥補正回路101、クランプ回路102、ホワイトバランス回路103、ガンマ補正回路104、補間処理部105、補正回路106、およびRGBマトリクス回路107から構成される。   The image signal processing circuit 57 includes a defect correction circuit 101, a clamp circuit 102, a white balance circuit 103, a gamma correction circuit 104, an interpolation processing unit 105, a correction circuit 106, and an RGB matrix circuit 107.

単板のCCD54(図3)から出力された画像信号(画像データ)は、A/D変換部56(図3)を介して欠陥補正回路101に供給される。ここで、欠陥補正回路101に供給される画像データは、例えば、R(赤)、G(緑)、およびB(青)のそれぞれの色を成分とするコンポーネント映像信号とされる。欠陥補正回路101は、CCD54のうち光に反応しない画素に対応する成分、あるいは、常に電荷を保持している画素に対応する成分などの欠陥成分を検出し、検出の結果に基づいてA/D変換部56から供給された画像データを補正する欠陥補正処理を行う。   The image signal (image data) output from the single CCD 54 (FIG. 3) is supplied to the defect correction circuit 101 via the A / D converter 56 (FIG. 3). Here, the image data supplied to the defect correction circuit 101 is, for example, a component video signal whose components are R (red), G (green), and B (blue). The defect correction circuit 101 detects a defect component such as a component corresponding to a pixel that does not react to light in the CCD 54 or a component corresponding to a pixel that always holds a charge, and performs A / D based on the detection result. Defect correction processing for correcting the image data supplied from the conversion unit 56 is performed.

また、画像信号が読み出される場合、画像の各画素の画素値を示す信号が有する値よりも小さい値が検出されると、画像の1ライン分の画像信号の読み出しが終了したと判定される。画素値を示す信号が有する値の最小値は0であるので、負の値が検出されると画像の1ライン分の画像信号の読み出しが終了したと判定されることになる。そこで、A/D変換部56は、画像信号の負の値がカットされるのを防ぐため、信号値を若干正の方向へシフトさせた状態で、アナログ信号である画像信号をデジタル信号である画像データに変換する。クランプ回路102は、欠陥補正回路101から供給された画像データの正の方向へのシフト量を元に戻すクランプ処理を行う。   Further, when an image signal is read, if a value smaller than a value included in a signal indicating a pixel value of each pixel of the image is detected, it is determined that reading of the image signal for one line of the image is completed. Since the minimum value of the signal indicating the pixel value is 0, when a negative value is detected, it is determined that reading of the image signal for one line of the image has been completed. Therefore, the A / D conversion unit 56 is a digital signal that is an analog image signal with the signal value slightly shifted in the positive direction in order to prevent the negative value of the image signal from being cut. Convert to image data. The clamp circuit 102 performs clamp processing for restoring the shift amount in the positive direction of the image data supplied from the defect correction circuit 101.

ホワイトバランス回路103は、クランプ回路102から供給された画像データとしてのR、G、およびBの各色信号のそれぞれのゲインの補正を行う。ガンマ補正回路104は、ホワイトバランス回路103から供給された各色信号の値をガンマ曲線に従って補正する。   The white balance circuit 103 corrects the respective gains of the R, G, and B color signals as image data supplied from the clamp circuit 102. The gamma correction circuit 104 corrects the value of each color signal supplied from the white balance circuit 103 according to the gamma curve.

補間処理部105は、クラス分類適応処理を行うことによって、ガンマ補正回路104から供給された画像データを3板CCD出力相当の画像データに変換する。また、補間処理部105は、変換により得られた画像データを補正回路106に供給する。   The interpolation processing unit 105 converts the image data supplied from the gamma correction circuit 104 into image data corresponding to a three-plate CCD output by performing a class classification adaptive process. Further, the interpolation processing unit 105 supplies the image data obtained by the conversion to the correction circuit 106.

補間処理部105は、ADRC(Adaptive Dynamic Range Control)ブロック化回路111、ADRC処理回路112、クラス分類回路113、予測タップブロック化回路114、予測タップ正規化部115、適応処理回路116、および係数メモリ117から構成される。   The interpolation processing unit 105 includes an ADRC (Adaptive Dynamic Range Control) blocking circuit 111, an ADRC processing circuit 112, a class classification circuit 113, a prediction tap blocking circuit 114, a prediction tap normalization unit 115, an adaptive processing circuit 116, and a coefficient memory. 117.

ADRCブロック化回路111は、単板のCCD54から出力された画像データを変換して得ようとする3板CCD出力相当の画像データ(この3板CCD出力相当の画像データはこれから求めようとする画像データであり、現段階では存在しないため仮想的に想定される)を構成する画素を、順次、注目画素とし、ガンマ補正回路104から供給された画像データを構成する画素のいくつかを、注目画素を複数のクラスのうちのいずれかにクラス分けするためのクラスタップとして抽出する。   The ADRC blocking circuit 111 converts the image data output from the single-plate CCD 54 and obtains image data equivalent to the 3-plate CCD output (the image data equivalent to the 3-plate CCD output is the image to be obtained from now on). Pixels that are data and are virtually assumed because they do not exist at this stage) are sequentially set as target pixels, and some of the pixels that form the image data supplied from the gamma correction circuit 104 are the target pixels. Is extracted as a class tap for classifying into one of a plurality of classes.

また、ADRCブロック化回路111は、抽出したクラスタップをADRC処理回路112に供給する。   Further, the ADRC blocking circuit 111 supplies the extracted class tap to the ADRC processing circuit 112.

ADRC処理回路112は、ADRCブロック化回路111から供給されたクラスタップにADRC処理を施し、ADRC処理が施されたクラスタップをクラス分類回路113に供給する。クラス分類回路113は、ADRC処理回路112からのクラスタップに基づいて(クラスタップを用いて)注目画素をクラス分類し、分類されたクラスを示すクラスコード(クラス番号)を適応処理回路116に供給する。   The ADRC processing circuit 112 performs ADRC processing on the class tap supplied from the ADRC blocking circuit 111 and supplies the class tap subjected to ADRC processing to the class classification circuit 113. The class classification circuit 113 classifies the target pixel based on the class tap from the ADRC processing circuit 112 (using the class tap), and supplies a class code (class number) indicating the classified class to the adaptive processing circuit 116. To do.

予測タップブロック化回路114は、ガンマ補正回路104から供給された画像データを構成する画素のいくつかを、注目画素の画素値を予測するために用いられる予測タップとして抽出し、予測タップ正規化部115に供給する。   The prediction tap blocking circuit 114 extracts some of the pixels constituting the image data supplied from the gamma correction circuit 104 as prediction taps used to predict the pixel value of the target pixel, and a prediction tap normalization unit 115.

予測タップ正規化部115は、予測タップブロック化回路114から供給された予測タップを正規化して、正規化された予測タップを適応処理回路116に供給する。   The prediction tap normalization unit 115 normalizes the prediction tap supplied from the prediction tap blocking circuit 114 and supplies the normalized prediction tap to the adaptive processing circuit 116.

適応処理回路116は、クラス分類回路113から供給されたクラスコードに対応するタップ係数を係数メモリ117から読み出し、タップ係数を予測タップ正規化部115から供給された予測タップを構成する画素の画素値に乗算して、必要な画素値を予測演算する。   The adaptive processing circuit 116 reads the tap coefficient corresponding to the class code supplied from the class classification circuit 113 from the coefficient memory 117, and extracts the tap coefficient from the pixel value of the pixels constituting the prediction tap supplied from the prediction tap normalization unit 115. And a necessary pixel value is predicted and calculated.

係数メモリ117は注目画素の画素値を予測するために用いられるクラスごとのタップ係数(各クラスについて予め求められているタップ係数)を記憶する。例えば、係数メモリ117には、各クラスに分類された注目画素のRの画素値を予測するためのタップ係数、Gの画素値を予測するためのタップ係数、およびBの画素値を予測するためのタップ係数が予め記憶されている。   The coefficient memory 117 stores a tap coefficient for each class used for predicting the pixel value of the target pixel (a tap coefficient determined in advance for each class). For example, the coefficient memory 117 predicts the tap coefficient for predicting the R pixel value of the target pixel classified into each class, the tap coefficient for predicting the G pixel value, and the B pixel value. The tap coefficients are stored in advance.

補正回路106は、補間処理部105の適応処理回路116から供給された画像データに対し、エッジ強調などの画像を視覚的に良く見せるために必要な補正処理を行う。RGBマトリクス回路107は、補正回路106から供給された画像データとしてのR、G、およびBの各色信号をそのまま出力するか、または、各色信号に予め用意されている所定の変換マトリクスを乗算し、YUV方式(輝度Y、色差U、および色差Vを成分とする信号方式)などの所定の信号フォーマットの画像データに変換して出力する。   The correction circuit 106 performs correction processing necessary for visually enhancing the image such as edge enhancement on the image data supplied from the adaptive processing circuit 116 of the interpolation processing unit 105. The RGB matrix circuit 107 outputs the R, G, and B color signals as image data supplied from the correction circuit 106 as they are, or multiplies each color signal by a predetermined conversion matrix, The image data is converted into image data of a predetermined signal format such as YUV method (signal method using luminance Y, color difference U, and color difference V as components) and output.

次に、図6のフローチャートを参照して、図4のステップS16の処理において、画像信号処理回路57により行われる画像信号処理について説明する。   Next, image signal processing performed by the image signal processing circuit 57 in the process of step S16 of FIG. 4 will be described with reference to the flowchart of FIG.

ステップS41において、欠陥補正回路101は、A/D変換部56から供給された画像データに対して、欠陥画素があればこれを補正する欠陥補正処理を施し、欠陥補正処理が施された画像データをクランプ回路102に供給する。例えば、欠陥補正回路101は、光に反応しない画素、または常に電荷を有している画素に対しては、その画素の画素値を隣接する画素の画素値の平均値で置換することにより画像データを補正する。   In step S <b> 41, the defect correction circuit 101 performs defect correction processing for correcting any defective pixels on the image data supplied from the A / D conversion unit 56, and the image data subjected to the defect correction processing. Is supplied to the clamp circuit 102. For example, the defect correction circuit 101 replaces the pixel value of a pixel that does not respond to light, or a pixel that always has a charge with the average value of the pixel values of adjacent pixels, thereby replacing the image data. Correct.

ステップS42において、クランプ回路102は、欠陥補正回路101から供給された画像データに対して、A/D変換部56におけるオフセット値を補正するためのクランプ処理を施し、クランプ処理が施された画像データをホワイトバランス回路103に供給する。   In step S42, the clamp circuit 102 performs a clamp process for correcting the offset value in the A / D conversion unit 56 on the image data supplied from the defect correction circuit 101, and the image data subjected to the clamp process. Is supplied to the white balance circuit 103.

ステップS43において、ホワイトバランス回路103は、クランプ回路102から供給された画像データに対してホワイトバランス調整処理を施し、画像データとしてのR、G、およびBの各色信号のそれぞれのレベルを適正な白が表現できるレベルに調整する。そして、ホワイトバランス回路103は、ホワイトバランス調整処理が施された画像データをガンマ補正回路104に供給する。   In step S43, the white balance circuit 103 performs white balance adjustment processing on the image data supplied from the clamp circuit 102, and sets the levels of the R, G, and B color signals as image data to appropriate white levels. Adjust to a level that can be expressed. Then, the white balance circuit 103 supplies the image data subjected to the white balance adjustment process to the gamma correction circuit 104.

ステップS44において、ガンマ補正回路104は、ホワイトバランス回路103から供給された画像データに対してガンマ補正処理を施し、ガンマ補正処理が施された画像データを補間処理部105のADRCブロック化回路111および予測タップブロック化回路114に供給する。   In step S <b> 44, the gamma correction circuit 104 performs gamma correction processing on the image data supplied from the white balance circuit 103, and the image data subjected to the gamma correction processing is converted into the ADRC blocking circuit 111 of the interpolation processing unit 105 and the image data. This is supplied to the prediction tap blocking circuit 114.

ステップS45において、ADRCブロック化回路111は、ガンマ補正回路104から供給された画像データをp×q個(但し、pおよびqは正の整数)のブロックに分割し、分割された各ブロックからクラスタップを抽出する。ADRCブロック化回路111は、抽出したクラスタップをADRC処理回路112に供給する。   In step S45, the ADRC blocking circuit 111 divides the image data supplied from the gamma correction circuit 104 into p × q blocks (where p and q are positive integers), and classifies each divided block as a class. Extract taps. The ADRC blocking circuit 111 supplies the extracted class tap to the ADRC processing circuit 112.

例えば、図7Aに示すように、注目画素の位置が矢印K11により示されるGの画素に対応する位置である場合、ADRCブロック化回路111は、図中、矢印K11により示されるGの画素の左上、左下、右上、および右下に隣接する4個のGの画素、矢印K11により示されるGの画素から上下方向にRの画素を介して隣接する2個のGの画素、および横方向にBの画素を介して隣接する2個のGの画素、並びに矢印K11により示されるGの画素からなる計9個のGの画素をクラスタップとして抽出する。   For example, as shown in FIG. 7A, when the position of the target pixel is a position corresponding to the G pixel indicated by the arrow K11, the ADRC blocking circuit 111 displays the upper left corner of the G pixel indicated by the arrow K11 in the figure. , Four G pixels adjacent to the lower left, upper right, and lower right, two G pixels adjacent to each other through the R pixel in the vertical direction from the G pixel indicated by the arrow K11, and B in the horizontal direction A total of nine G pixels composed of two G pixels adjacent to each other through the pixel and the G pixel indicated by the arrow K11 are extracted as class taps.

また、例えば、図7Bに示すように、注目画素の位置が矢印K12により示されるGの画素に対応する位置である場合、ADRCブロック化回路111は、図中、矢印K12により示されるGの画素の左上、左下、右上、および右下に隣接する4個のGの画素、矢印K12により示されるGの画素から上下方向にBの画素を介して隣接する2個のGの画素、および横方向にRの画素を介して隣接する2個のGの画素、並びに矢印K12により示されるGの画素からなる計9個のGの画素をクラスタップとして抽出する。   Also, for example, as shown in FIG. 7B, when the position of the target pixel is a position corresponding to the G pixel indicated by the arrow K12, the ADRC blocking circuit 111 displays the G pixel indicated by the arrow K12 in the drawing. 4 G pixels adjacent to the upper left, lower left, upper right, and lower right, two G pixels adjacent to each other via the B pixel in the vertical direction from the G pixel indicated by the arrow K12, and the horizontal direction A total of nine G pixels consisting of two G pixels adjacent to each other through R pixels and a G pixel indicated by an arrow K12 are extracted as class taps.

図6のフローチャートの説明に戻り、クラスタップが抽出されると、ステップS46において、ADRC処理回路112はADRCブロック化回路111から供給されたクラスタップにADRC処理を施し、その結果得られたADRCコードをADRC処理が施されたクラスタップとしてクラス分類回路113に供給する。   Returning to the description of the flowchart of FIG. 6, when class taps are extracted, in step S46, the ADRC processing circuit 112 performs ADRC processing on the class taps supplied from the ADRC blocking circuit 111, and the resulting ADRC code is obtained. Is supplied to the class classification circuit 113 as a class tap subjected to ADRC processing.

例えば、KビットADRC処理においては、ADRC処理回路112は、クラスタップを構成する画素の画素値の最大値MAXおよび最小値MINを検出し、検出された画素値の最大値MAXと最小値MINとの差DR(DR=MAX-MIN)を、クラスタップを構成する画素の集合の局所的なダイナミックレンジとする。ADRC処理回路112はこのダイナミックレンジDRに基づいて、クラスタップを構成する画素(の画素値)をKビットに再量子化する。即ち、ADRC処理回路112は、クラスタップを構成する各画素の画素値から最小値MINを減算し、その減算値をDR/2Kで除算(量子化)する。   For example, in the K-bit ADRC processing, the ADRC processing circuit 112 detects the maximum value MAX and the minimum value MIN of the pixel values constituting the class tap, and detects the maximum value MAX and the minimum value MIN of the detected pixel values. The difference DR (DR = MAX−MIN) is a local dynamic range of a set of pixels constituting the class tap. Based on the dynamic range DR, the ADRC processing circuit 112 requantizes the pixels (the pixel values thereof) constituting the class tap into K bits. That is, the ADRC processing circuit 112 subtracts the minimum value MIN from the pixel value of each pixel constituting the class tap, and divides (quantizes) the subtracted value by DR / 2K.

そして、ADRC処理回路112は、以上のようにして得られるクラスタップを構成するKビットの各画素の画素値を所定の順番で並べたビット列を、ADRCコードとして出力する。したがって、クラスタップが、例えば、1ビットADRC処理された場合には、そのクラスタップを構成する各画素の画素値は、最小値MINが減算された後に最大値MAXと最小値MINとの差の1/2で除算され(小数点以下切り捨て)、これにより、各画素の画素値が1ビットとされる(2値化される)。そして、その1ビットの画素値を所定の順番で並べたビット列がADRCコードとして出力される。   Then, the ADRC processing circuit 112 outputs, as an ADRC code, a bit string in which the pixel values of the K-bit pixels constituting the class tap obtained as described above are arranged in a predetermined order. Therefore, for example, when a class tap is subjected to 1-bit ADRC processing, the pixel value of each pixel constituting the class tap is the difference between the maximum value MAX and the minimum value MIN after the minimum value MIN is subtracted. Divided by 1/2 (rounded down), the pixel value of each pixel is made 1 bit (binarized). A bit string in which the 1-bit pixel values are arranged in a predetermined order is output as an ADRC code.

ステップS47において、クラス分類回路113は、ADRC処理回路112から供給されたADRCコードに基づいてクラス分類を行う。すなわち、クラス分類回路113は、クラスタップをADRC処理して得られたADRCコードに対応するクラスを決定し、そのクラスを示すクラスコードを生成して適応処理回路116に供給する。   In step S47, the class classification circuit 113 performs class classification based on the ADRC code supplied from the ADRC processing circuit 112. That is, the class classification circuit 113 determines a class corresponding to the ADRC code obtained by ADRC processing the class tap, generates a class code indicating the class, and supplies the generated class code to the adaptive processing circuit 116.

ステップS48において、予測タップブロック化回路114は、ガンマ補正回路104から供給された画像データをp×q個(但し、pおよびqは正の整数)のブロックに分割し、分割された各ブロックから予測タップを抽出する。予測タップブロック化回路114は、抽出した予測タップを予測タップ正規化部115に供給する。   In step S48, the prediction tap blocking circuit 114 divides the image data supplied from the gamma correction circuit 104 into p × q blocks (where p and q are positive integers), and from each of the divided blocks. Extract prediction taps. The prediction tap blocking circuit 114 supplies the extracted prediction tap to the prediction tap normalization unit 115.

例えば、図7Aに示したように、矢印K11により示されるGの画素に対応する位置が注目画素の位置である場合、図8Aに示すように、予測タップブロック化回路114は、矢印K11により示されるGの画素を含む、そのGの画素の周囲の5×5個の画素を予測タップとして抽出する。この場合、予測タップの画素には、Rの画素、Gの画素、およびBの画素が含まれている。   For example, when the position corresponding to the G pixel indicated by the arrow K11 is the position of the target pixel as shown in FIG. 7A, the prediction tap blocking circuit 114 is indicated by the arrow K11 as shown in FIG. 8A. 5 × 5 pixels around the G pixel including the G pixel to be extracted are extracted as prediction taps. In this case, the pixel of the prediction tap includes an R pixel, a G pixel, and a B pixel.

また、図7Bに示したように、矢印K12により示されるGの画素に対応する位置が注目画素の位置である場合、図8Bに示すように、予測タップブロック化回路114は、矢印K12により示されるGの画素を含む、そのGの画素の周囲の5×5個の画素を予測タップとして抽出する。この場合も図8Aにおける場合と同様に、予測タップの画素には、Rの画素、Gの画素、およびBの画素が含まれている。   As shown in FIG. 7B, when the position corresponding to the G pixel indicated by the arrow K12 is the position of the target pixel, as shown in FIG. 8B, the prediction tap blocking circuit 114 is indicated by the arrow K12. 5 × 5 pixels around the G pixel including the G pixel to be extracted are extracted as prediction taps. Also in this case, as in the case of FIG. 8A, the pixels of the prediction tap include an R pixel, a G pixel, and a B pixel.

図6のフローチャートの説明に戻り、予測タップが抽出されると、ステップS49において、予測タップ正規化部115は、予測タップブロック化回路114から供給された予測タップを正規化して、正規化された予測タップを適応処理回路116に供給する。   Returning to the description of the flowchart of FIG. 6, when the prediction tap is extracted, the prediction tap normalization unit 115 normalizes the prediction tap supplied from the prediction tap blocking circuit 114 in step S <b> 49. The prediction tap is supplied to the adaptive processing circuit 116.

例えば、図9に示すように、注目画素の位置が画素G33の位置であり、注目画素のRの画素値を予測する場合を考える。なお、図9の1つの四角形は1つの画素を示しており、画素G11乃至画素G55のそれぞれは、Gの画素を表し、画素B12乃至画素B54のそれぞれは、Bの画素を表し、画素R21乃至画素R45のそれぞれは、Rの画素を表している。   For example, as shown in FIG. 9, consider the case where the position of the target pixel is the position of the pixel G33 and the R pixel value of the target pixel is predicted. Note that one square in FIG. 9 represents one pixel, each of the pixels G11 to G55 represents a G pixel, each of the pixels B12 to B54 represents a B pixel, and each of the pixels R21 to R21 Each of the pixels R45 represents an R pixel.

ここで、注目画素に対する予測タップを構成する画素を、画素G33を中心とする5×5個の画素(すなわち、図9に示す全ての画素)とすると、予測タップには、画素G11乃至画素G55の計13個のGの画素、画素B12乃至画素B54の計6個のBの画素、および画素R21乃至画素R45の計6個のRの画素が含まれる。   Here, assuming that the pixels constituting the prediction tap for the target pixel are 5 × 5 pixels centering on the pixel G33 (that is, all the pixels shown in FIG. 9), the prediction taps include pixels G11 to G55. A total of 13 G pixels, a total of 6 B pixels of pixels B12 to B54, and a total of 6 R pixels of pixels R21 to R45 are included.

このように、Rの画素値を予測する場合、予測タップにRとは異なる色のGの画素およびBの画素が含まれているとき、図1を参照して説明したように、Rの画素のダイナミックレンジに対して、Gの画素またはBの画素のダイナミックレンジが大きすぎると画像に破綻が生じてしまう恐れがある。   In this way, when predicting the R pixel value, when the prediction tap includes G pixels and B pixels of colors different from R, as described with reference to FIG. 1, the R pixels If the dynamic range of the G pixel or the B pixel is too large with respect to the dynamic range, the image may be broken.

そこで、予測タップ正規化部115は、予測タップを構成するGの画素のダイナミックレンジ、およびBの画素のダイナミックレンジが、Rの画素のダイナミックレンジと等しくなるように、予測タップを正規化する。   Therefore, the prediction tap normalization unit 115 normalizes the prediction tap so that the dynamic range of the G pixel and the dynamic range of the B pixel that constitute the prediction tap are equal to the dynamic range of the R pixel.

具体的には、まず、予測タップ正規化部115は、式(1)を計算することにより、Rの画素のダイナミックレンジDR(R)を求める。   Specifically, first, the prediction tap normalization unit 115 calculates the dynamic range DR (R) of the R pixel by calculating Expression (1).

DR(R)=Rmax−Rmin ・・・(1)   DR (R) = Rmax−Rmin (1)

ここで、式(1)におけるRmaxおよびRminは、それぞれ予測タップを構成するRの画素の画素値のうちの最大値および最小値を表している。したがって、例えば、図9の例では、予測タップを構成する画素R21乃至画素R45の6個のRの画素の画素値のうちの最大値と最小値とが、それぞれRmaxおよびRminとされ、DR(R)は、その最大値と最小値との差の値とされる。   Here, Rmax and Rmin in Equation (1) represent the maximum value and the minimum value among the pixel values of the R pixels that constitute the prediction tap, respectively. Therefore, for example, in the example of FIG. 9, the maximum value and the minimum value of the pixel values of the six R pixels of the pixels R21 to R45 constituting the prediction tap are Rmax and Rmin, respectively, and DR ( R) is a difference value between the maximum value and the minimum value.

同様に、予測タップ正規化部115は、式(2)および式(3)を計算することにより、予測タップを構成するGの画素のダイナミックレンジDR(G)、およびBの画素のダイナミックレンジDR(B)を求める。   Similarly, the prediction tap normalization unit 115 calculates the dynamic range DR (G) of the G pixel and the dynamic range DR of the B pixel that form the prediction tap by calculating Expressions (2) and (3). (B) is obtained.

DR(G)=Gmax−Gmin ・・・(2)   DR (G) = Gmax−Gmin (2)

DR(B)=Bmax−Bmin ・・・(3)   DR (B) = Bmax−Bmin (3)

ここで、式(2)におけるGmaxおよびGminは、それぞれ予測タップを構成するGの画素の画素値のうちの最大値および最小値を表しており、式(3)におけるBmaxおよびBminは、それぞれ予測タップを構成するBの画素の画素値のうちの最大値および最小値を表している。   Here, Gmax and Gmin in Expression (2) represent the maximum value and minimum value of the pixel values of the G pixels constituting the prediction tap, respectively, and Bmax and Bmin in Expression (3) are respectively predicted. It represents the maximum value and the minimum value among the pixel values of the B pixels constituting the tap.

次に、予測タップ正規化部115は、求められたRの画素およびGの画素のダイナミックレンジDR(R)およびDR(G)を用いて式(4)を計算し、予測タップを構成するGの画素の画素値を正規化する。   Next, the prediction tap normalization unit 115 calculates Equation (4) using the obtained dynamic range DR (R) and DR (G) of the R pixel and the G pixel, and forms G that constitutes the prediction tap. Normalize the pixel values of the pixels.

GNij=Gij×(DR(R)/DR(G)) ・・・(4)   GNij = Gij × (DR (R) / DR (G)) (4)

ここで、Gijは、図9におけるGの画素Gij(但し、1≦i≦5,1≦j≦5)の画素値を示しており、GNijは正規化された画素Gijの画素値を示している。したがって、例えば、予測タップ正規化部115は、式(4)を計算して画素G11乃至画素G55のそれぞれの画素値を正規化する。   Here, Gij represents the pixel value of the G pixel Gij (where 1 ≦ i ≦ 5, 1 ≦ j ≦ 5) in FIG. 9, and GNij represents the normalized pixel value of the pixel Gij. Yes. Therefore, for example, the prediction tap normalization unit 115 normalizes the pixel values of the pixels G11 to G55 by calculating Expression (4).

同様に、予測タップ正規化部115は、求められたRの画素およびBの画素のダイナミックレンジDR(R)およびDR(B)を用いて式(5)を計算し、予測タップを構成するBの画素の画素値を正規化する。   Similarly, the prediction tap normalization unit 115 calculates Equation (5) using the obtained dynamic ranges DR (R) and DR (B) of the R pixel and the B pixel, and forms the prediction tap. Normalize the pixel values of the pixels.

BNij=Bij×(DR(R)/DR(B)) ・・・(5)   BNij = Bij × (DR (R) / DR (B)) (5)

ここで、Bijは、図9におけるBの画素Bij(但し、1≦i≦5,1≦j≦5)の画素値を示しており、BNijは正規化された画素Bijの画素値を示している。   Here, Bij represents the pixel value of the B pixel Bij (where 1 ≦ i ≦ 5, 1 ≦ j ≦ 5) in FIG. 9, and BNij represents the normalized pixel value of the pixel Bij. Yes.

予測タップ正規化部115は、Gの画素の画素値、およびBの画素の画素値を正規化すると、Rの画素の画素値、正規化されたGの画素の画素値、および正規化されたBの画素の画素値を、正規化された予測タップを構成する画素の画素値とする。   When the prediction tap normalization unit 115 normalizes the pixel value of the G pixel and the pixel value of the B pixel, the pixel value of the R pixel, the pixel value of the normalized G pixel, and the normalized pixel value Let the pixel value of the pixel of B be the pixel value of the pixel which comprises the normalized prediction tap.

また、予測タップ正規化部115は、注目画素のBの画素値を予測する場合、予測タップを構成するGの画素の画素値に、Bの画素のダイナミックレンジDR(B)をGの画素のダイナミックレンジDR(G)で除算した値を乗算して、Gの画素の画素値を正規化する。また、予測タップ正規化部115は、Rの画素の画素値に、Bの画素のダイナミックレンジDR(B)をRの画素のダイナミックレンジDR(R)で除算した値を乗算して、Rの画素の画素値を正規化する。そして、予測タップ正規化部115は、正規化されたRの画素の画素値、正規化されたGの画素の画素値、およびBの画素の画素値を、正規化された予測タップを構成する画素の画素値とする。   In addition, when predicting the B pixel value of the target pixel, the prediction tap normalization unit 115 sets the dynamic range DR (B) of the B pixel to the pixel value of the G pixel constituting the prediction tap. The pixel value of the G pixel is normalized by multiplying the value divided by the dynamic range DR (G). Further, the prediction tap normalization unit 115 multiplies the pixel value of the R pixel by the value obtained by dividing the dynamic range DR (B) of the B pixel by the dynamic range DR (R) of the R pixel, and Normalize the pixel value of the pixel. Then, the prediction tap normalization unit 115 configures the normalized prediction tap by using the normalized pixel value of the R pixel, the normalized pixel value of the G pixel, and the pixel value of the B pixel. The pixel value of the pixel.

同様に、予測タップ正規化部115は、注目画素のGの画素値を予測する場合、予測タップを構成するBの画素の画素値に、Gの画素のダイナミックレンジDR(G)をBの画素のダイナミックレンジDR(B)で除算した値を乗算して、Bの画素の画素値を正規化する。また、予測タップ正規化部115は、Rの画素の画素値に、Gの画素のダイナミックレンジDR(G)をRの画素のダイナミックレンジDR(R)で除算した値を乗算して、Rの画素の画素値を正規化する。そして、予測タップ正規化部115は、正規化されたRの画素の画素値、Gの画素の画素値、および正規化されたBの画素の画素値を、正規化された予測タップを構成する画素の画素値とする。   Similarly, when predicting the G pixel value of the target pixel, the prediction tap normalization unit 115 sets the dynamic range DR (G) of the G pixel to the B pixel value as the pixel value of the B pixel constituting the prediction tap. The pixel value of the B pixel is normalized by multiplying the value divided by the dynamic range DR (B). Further, the prediction tap normalization unit 115 multiplies the pixel value of the R pixel by the value obtained by dividing the dynamic range DR (G) of the G pixel by the dynamic range DR (R) of the R pixel, and Normalize the pixel value of the pixel. Then, the prediction tap normalization unit 115 configures the normalized prediction tap with the normalized pixel value of the R pixel, the pixel value of the G pixel, and the normalized pixel value of the B pixel. The pixel value of the pixel.

このように、予測タップを正規化することによって、例えば、図10に示すように所定の位置BにおけるRの画素値を予測するために、予測タップとしてGの画素を用いても、Gの画素のダイナミックレンジを、Rの画素のダイナミックレンジと等しくなるようにすることができる。なお、図中、横軸は撮像された画像における位置を示し、縦軸は各位置における各色の成分の画素値(レベル)を示している。   In this way, by normalizing the prediction tap, for example, as shown in FIG. 10, in order to predict the R pixel value at the predetermined position B, the G pixel may be used even if the G pixel is used as the prediction tap. Can be made equal to the dynamic range of the R pixel. In the figure, the horizontal axis indicates the position in the captured image, and the vertical axis indicates the pixel value (level) of each color component at each position.

曲線141は、現実世界の各位置におけるGの値(波形)を示しており、Gの値は位置Bの前後において急峻に増加している。また、曲線142は、現実世界の各位置におけるRの値(波形)を示しており、Rの値は曲線141により示されるGの値と比べると、位置Bの前後においてなだらかに増加している。   A curve 141 indicates the G value (waveform) at each position in the real world, and the G value increases steeply before and after the position B. A curve 142 indicates the R value (waveform) at each position in the real world, and the R value increases gradually before and after the position B as compared to the G value indicated by the curve 141. .

さらに、図中、丸および四角形は、予測タップを構成するGの画素(の画素値)およびRの画素(の画素値)を示している。ここで、図10の左側の図の丸により示される3つのGの画素、および四角形により示される2つのRの画素を予測タップとして用いて、クラス分類適応処理により位置BにおけるRの画素値を予測する場合を考える。   Further, in the drawing, circles and squares indicate G pixels (pixel values) and R pixels (pixel values) constituting the prediction tap. Here, using the three G pixels indicated by circles in the left side of FIG. 10 and the two R pixels indicated by squares as prediction taps, the pixel value of R at position B is obtained by class classification adaptive processing. Consider the case of prediction.

この場合、予測タップとして用いられるGの画素のダイナミックレンジは、予測タップとして用いられるRの画素のダイナミックレンジと比較して非常に大きく、位置Bの付近においてGの画素値は急激に変化している。   In this case, the dynamic range of the G pixel used as the prediction tap is very large compared to the dynamic range of the R pixel used as the prediction tap, and the G pixel value changes rapidly in the vicinity of the position B. Yes.

そこで、上述したように、Gの画素の画素値を正規化すると、正規化されたGの画素値(波形)は、図10の右側の図の曲線143に示すように、位置Bの前後において曲線142とほぼ同じ傾きを持ち、なだらかに増加する曲線となる。このように、Gの画素値を正規化すると、正規化されたGの画素のダイナミックレンジは、Rの画素のダイナミックレンジと等しくなり、画像に破綻が生じてしまうこともなく、予測された注目画素の画素値は適度に強調された値となる。   Therefore, as described above, when the pixel value of the G pixel is normalized, the normalized G pixel value (waveform) is obtained before and after the position B as shown by the curve 143 in the right diagram of FIG. The curve has almost the same slope as the curve 142 and is a gently increasing curve. As described above, when the G pixel value is normalized, the normalized dynamic range of the G pixel becomes equal to the dynamic range of the R pixel, and the predicted attention is not caused without causing the image to fail. The pixel value of the pixel is a value that is moderately emphasized.

図6のフローチャートの説明に戻り、予測タップが正規化されると、ステップS50において、適応処理回路116は、クラス分類回路113から供給されたクラスコードに対応するタップ係数を係数メモリ117から読み出し、そのタップ係数を予測タップ正規化部115からの正規化された予測タップに乗算することで、注目画素の画素値(例えば、R、G、またはBの画素値)を予測演算する。適応処理回路116は、予測演算により注目画素の画素値を求めて3板CCD出力相当の画像データを生成し、補正回路106に供給する。   Returning to the description of the flowchart of FIG. 6, when the prediction tap is normalized, in step S <b> 50, the adaptive processing circuit 116 reads the tap coefficient corresponding to the class code supplied from the class classification circuit 113 from the coefficient memory 117, By multiplying the normalized prediction tap from the prediction tap normalization unit 115 by the tap coefficient, the pixel value of the target pixel (for example, R, G, or B pixel value) is predicted and calculated. The adaptive processing circuit 116 obtains the pixel value of the pixel of interest by prediction calculation, generates image data corresponding to the three-plate CCD output, and supplies the image data to the correction circuit 106.

ステップS51において、補間処理部105は、全てのブロックについてクラス分類適応処理が終了したか否かを判定する。   In step S51, the interpolation processing unit 105 determines whether or not the class classification adaptation processing has been completed for all blocks.

ステップS51において、全てのブロックについてクラス分類適応処理が終了していないと判定された場合、処理はステップS45に戻り、それ以降の処理が繰り返される。   If it is determined in step S51 that the class classification adaptation process has not been completed for all blocks, the process returns to step S45, and the subsequent processes are repeated.

これに対して、ステップS51において、全てのブロックについてクラス分類適応処理が終了したと判定された場合、処理はステップS52に進み、補正回路106は、適応処理回路116からの画像データに対して画像を視覚的に良く見せるための補正処理(いわゆる画像作り)を施し、補正処理が施された画像データをRGBマトリクス回路107に供給する。   On the other hand, if it is determined in step S51 that the class classification adaptive processing has been completed for all the blocks, the processing proceeds to step S52, and the correction circuit 106 performs image processing on the image data from the adaptive processing circuit 116. Correction processing (so-called image creation) is performed to make the image look good visually, and the image data subjected to the correction processing is supplied to the RGB matrix circuit 107.

ステップS53において、RGBマトリクス回路107は、必要に応じて、補正回路106から供給された画像データとしてのR、G、およびBの各色信号をYUV方式の画像データに変換するなどの色空間の変換処理を行い、変換処理により得られた画像データを記録媒体インターフェース63に供給し、画像信号処理は終了する。   In step S53, the RGB matrix circuit 107 converts the color space such as converting the R, G, and B color signals as image data supplied from the correction circuit 106 into YUV image data as necessary. The image data obtained by the conversion process is supplied to the recording medium interface 63, and the image signal process ends.

このようにして、画像信号処理回路57は、画像データから抽出した予測タップを正規化し、正規化した予測タップを用いてクラス分類適応処理を行う。   In this way, the image signal processing circuit 57 normalizes the prediction tap extracted from the image data, and performs the class classification adaptation process using the normalized prediction tap.

このように、予測タップを正規化してクラス分類適応処理を行うことで、予測タップの各色の画素のダイナミックレンジを等しくすることができ、画像の破綻を抑制することができる。これにより、単板のCCD54から出力された画像データから、より高精細な3板CCD出力相当の画像データをより精度よく生成することができる。   In this way, by performing the classification adaptation process by normalizing the prediction tap, the dynamic range of the pixels of each color of the prediction tap can be made equal, and the failure of the image can be suppressed. As a result, higher-definition image data equivalent to a three-plate CCD output can be generated with higher accuracy from the image data output from the single-plate CCD 54.

しかも、クラス分類適応処理により、3板CCD出力相当の画像データとしてのRの画像データ、Gの画像データ、およびBの画像データを得ることができるので、エッジ部分や細部の鮮鋭度が増して、S/N評価値も向上させることができ、より鮮明な画像を得ることができる。なお、図7および図8に注目画素に対するクラスタップおよび予測タップの一例を示したが、クラスタップまたは予測タップを構成する画素の位置は任意であり、それぞれ最も効率のよいように定められる。   In addition, the class classification adaptive processing can obtain R image data, G image data, and B image data as image data equivalent to a three-plate CCD output, thereby increasing the sharpness of edge portions and details. , The S / N evaluation value can be improved, and a clearer image can be obtained. 7 and 8 show an example of the class tap and the prediction tap for the target pixel. However, the positions of the pixels constituting the class tap or the prediction tap are arbitrary and are determined to be most efficient.

次に、図5の適応処理回路116における予測演算と、係数メモリ117に記憶されたタップ係数の学習について説明する。   Next, prediction calculation in the adaptive processing circuit 116 in FIG. 5 and learning of tap coefficients stored in the coefficient memory 117 will be described.

例えば、クラス分類適応処理として、単板のCCD54から出力された画像データから予測タップを抽出し、その予測タップとタップ係数とを用いて、3板CCD出力相当の画像の画素(以下、適宜、高画質画素と称する)の画素値を所定の予測演算によって求める(予測する)ことを考える。   For example, as the class classification adaptive processing, a prediction tap is extracted from image data output from a single-plate CCD 54, and an image pixel corresponding to a three-plate CCD output (hereinafter, appropriately, using the prediction tap and the tap coefficient). Let us consider obtaining (predicting) a pixel value of a high-quality pixel) by a predetermined prediction calculation.

所定の予測演算として、例えば、線形1次予測演算を採用することとすると、高画質画素の画素値yは、式(6)に示す線形1次式によって求められることになる。   If, for example, a linear primary prediction calculation is adopted as the predetermined prediction calculation, the pixel value y of the high-quality pixel is obtained by a linear primary expression shown in Expression (6).

Figure 0004730105
・・・(6)
Figure 0004730105
... (6)

但し、式(6)において、xiは、高画質画素の画素値yについての予測タップを構成する、i番目の単板のCCD54から出力された画像データの画素(以下、適宜、低画質画素と称する)の画素値を表し、wiは、i番目の低画質画素(の画素値)と乗算されるi番目のタップ係数を表す。なお、式(6)では、予測タップがN個の低画質画素x1,x2,・・・,xNで構成されるものとしてある。 However, in Expression (6), x i is a pixel of the image data output from the i-th single-plate CCD 54 that constitutes a prediction tap for the pixel value y of the high-quality pixel (hereinafter referred to as a low-quality pixel as appropriate). It represents a pixel value of a designated), w i represents the i th i th tap coefficient multiplied with the low-quality pixel (pixel value of). In equation (6), the prediction tap is composed of N low image quality pixels x 1 , x 2 ,..., X N.

ここで、高画質画素の画素値yは、式(6)に示した線形1次式ではなく、2次以上の高次の線形関数の式によって求めるようにすることも可能である。また、線形関数に限らず、非線形関数によって高画質画素の画素値を求めるようにしてもよい。   Here, the pixel value y of the high-quality pixel can be obtained not by the linear primary expression shown in Expression (6) but by an expression of a higher-order linear function of the second or higher order. Further, not only the linear function but also the pixel value of the high image quality pixel may be obtained by a non-linear function.

いま、第sサンプルの高画質画素の画素値の真値をysと表すとともに、式(6)によって得られるその真値ysの予測値をys'と表すと、その予測誤差esは、次式(7)で表される。 Now, when the true value of the pixel value of the high-quality pixel of the s-th sample is expressed as y s and the predicted value of the true value y s obtained by the equation (6) is expressed as y s ′, the prediction error es Is represented by the following equation (7).

s=(ys−ys') ・・・(7) e s = (y s −y s ′) (7)

いま、式(7)の予測値ys'は、式(6)にしたがって求められるため、式(7)のys'を、式(6)にしたがって置き換えると、次式(8)が得られる。 Now, since the predicted value y s ′ of equation (7) is obtained according to equation (6), the following equation (8) is obtained by replacing y s ′ of equation (7) according to equation (6). It is done.

Figure 0004730105
・・・(8)
Figure 0004730105
... (8)

但し、式(8)において、xs,iは、第sサンプルの高画質画素についての予測タップを構成するi番目の低画質画素を表す。 In Equation (8), x s, i represents the i-th low-quality pixel that constitutes the prediction tap for the high-quality pixel of the s-th sample.

式(8)(または式(7))の予測誤差esを0とするタップ係数wiが、高画質画素を予測するのに最適なものとなるが、すべての高画質画素について、そのようなタップ係数wiを求めることは、一般には困難である。 Prediction error e s the tap coefficient w i to 0 in Equation (8) (or formula (7)) is, is the optimal for predicting the high-quality pixel, for all the high-quality pixel, such In general, it is difficult to obtain a large tap coefficient w i .

そこで、タップ係数wiが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適なタップ係数wiは、次式(9)で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, as a standard indicating that the tap coefficient w i is optimum, for example, when the least square method is adopted, the optimum tap coefficient w i is expressed by the square error represented by the following equation (9). It can be obtained by minimizing the sum E.

Figure 0004730105
・・・(9)
Figure 0004730105
... (9)

但し、式(9)において、Sは、高画質画素ysと、その高画質画素ysについての予測タップを構成する低画質画素xs,1,xs,2,・・・,xs,Nとのセットのサンプル数(学習用のサンプルの数)を表す。 However, in the equation (9), S constitutes a high image quality pixel y s, the prediction taps for the high-quality pixel y s low-quality pixels x s, 1, x s, 2, ···, x s , N represents the number of samples (the number of learning samples).

式(9)の自乗誤差の総和Eの最小値(極小値)は、式(10)に示すように、総和Eをタップ係数wiで偏微分したものを0とするwiによって与えられる。 The minimum value (minimum value) of the sum E of square errors in equation (9) is given by w i , which is 0 as a result of partial differentiation of the sum E by the tap coefficient w i as shown in equation (10).

Figure 0004730105
・・・(10)
Figure 0004730105
... (10)

一方、上述の式(8)をタップ係数wiで偏微分すると、次式(11)が得られる。 On the other hand, when the above equation (8) is partially differentiated by the tap coefficient w i , the following equation (11) is obtained.

Figure 0004730105
・・・(11)
Figure 0004730105
(11)

式(10)および式(11)から、次式(12)が得られる。   From the equations (10) and (11), the following equation (12) is obtained.

Figure 0004730105
・・・(12)
Figure 0004730105
(12)

式(12)のesに、式(8)を代入することにより、式(12)は、式(13)に示す正規方程式で表すことができる。 To e s of formula (12), by substituting equation (8), equation (12) can be represented by normal equations shown in equation (13).

Figure 0004730105
・・・(13)
Figure 0004730105
... (13)

また、Xi,j,Yiをそれぞれ式(14)および式(15)により定義すると(但し、1≦i≦N,1≦j≦N)、式(13)は、式(16)により表すことができる。 Further, if X i, j and Y i are respectively defined by Expression (14) and Expression (15) (where 1 ≦ i ≦ N, 1 ≦ j ≦ N), Expression (13) can be expressed by Expression (16). Can be represented.

Figure 0004730105
・・・(14)
Figure 0004730105
(14)

Figure 0004730105
・・・(15)
Figure 0004730105
... (15)

Figure 0004730105
・・・(16)
Figure 0004730105
... (16)

式(16)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、タップ係数wiについて解くことができる。 The normal equation of Expression (16) can be solved for the tap coefficient w i by using, for example, a sweeping method (Gauss-Jordan elimination method) or the like.

式(16)の正規方程式を、クラスごとに立てて解くことにより、最適なタップ係数wi(ここでは、自乗誤差の総和Eを最小にするタップ係数wi)を、クラスごとに求めることができる。 By solving the normal equation of Equation (16) for each class, the optimum tap coefficient w i (here, the tap coefficient w i that minimizes the sum E of square errors) can be obtained for each class. it can.

図5の補間処理部105では、以上のようなクラスごとのタップ係数wiを用いて、式(6)の演算を行うことにより、単板のCCD54から出力された画像データから、3板CCD出力相当の画像データを得ることができる。 In the interpolation processing unit 105 of FIG. 5, by using the tap coefficient w i for each class as described above, the calculation of Expression (6) is performed, so that the three-plate CCD is obtained from the image data output from the single-plate CCD 54. Image data corresponding to the output can be obtained.

次に、図11は、式(16)の正規方程式をクラスごとに立てて解くことによりタップ係数wiを求める学習を行う学習装置の構成例を示している。 Next, FIG. 11 shows a configuration example of a learning apparatus that performs learning for obtaining the tap coefficient w i by solving the normal equation of Expression (16) for each class.

学習装置201は、間引き回路211、ADRCブロック化回路212、ADRC処理回路213、クラス分類回路214、予測タップブロック化回路215、予測タップ正規化部216、教師画像ブロック化回路217、演算回路218、学習データメモリ219、演算回路220、および係数メモリ221から構成される。   The learning device 201 includes a thinning circuit 211, an ADRC blocking circuit 212, an ADRC processing circuit 213, a class classification circuit 214, a prediction tap blocking circuit 215, a prediction tap normalizing unit 216, a teacher image blocking circuit 217, an arithmetic circuit 218, A learning data memory 219, an arithmetic circuit 220, and a coefficient memory 221 are included.

この学習装置201には、タップ係数wiの学習に用いられる3板CCD出力相当の画像データ(以下、教師画像データとも称する)が入力されるようになされている。学習装置201において、教師画像データは間引き回路211および教師画像ブロック化回路217に供給される。 The learning device 201 is input with image data equivalent to a 3-plate CCD output (hereinafter also referred to as teacher image data) used for learning the tap coefficient w i . In the learning device 201, the teacher image data is supplied to the thinning circuit 211 and the teacher image blocking circuit 217.

間引き回路211は、教師画像データから、色フィルタアレイの各色の配置にしたがって画素を間引く間引き処理を行う。この間引き処理は、撮像装置41(図3)のCCD54の前面に配置される色フィルタアレイ53(光学ローパスフィルタ)を想定したフィルタをかけることによって行う。   The thinning circuit 211 performs thinning processing for thinning out pixels from the teacher image data according to the arrangement of each color in the color filter array. This thinning process is performed by applying a filter assuming a color filter array 53 (optical low-pass filter) disposed in front of the CCD 54 of the imaging device 41 (FIG. 3).

また、間引き回路211は、教師画像データに対して間引き処理を施すことによって得られた、単板CCD出力相当の画像データ(以下、生徒画像データとも称する)をADRCブロック化回路212および予測タップブロック化回路215に供給する。   Further, the thinning circuit 211 converts the image data equivalent to the single-plate CCD output (hereinafter also referred to as student image data) obtained by performing the thinning process on the teacher image data into the ADRC blocking circuit 212 and the prediction tap block. Is supplied to the circuit 215.

ADRCブロック化回路212は、教師画像データにおける注目画素との対応をとりながら、間引き回路211から供給された生徒画像データから、生徒画像データを構成する画素のうちの所定の画素をクラスタップとして抽出する。また、ADRCブロック化回路212は、抽出したクラスタップをADRC処理回路213に供給する。   The ADRC blocking circuit 212 extracts a predetermined pixel from the student image data supplied from the thinning circuit 211 as a class tap from the student image data supplied from the thinning circuit 211 while taking correspondence with the target pixel in the teacher image data. To do. Further, the ADRC blocking circuit 212 supplies the extracted class tap to the ADRC processing circuit 213.

ADRC処理回路213は、ADRCブロック化回路212から供給されたクラスタップにADRC処理を施し、ADRC処理が施されたクラスタップをクラス分類回路214に供給する。クラス分類回路214は、ADRC処理回路213からのクラスタップに基づいて注目画素をクラス分類し、分類されたクラスを示すクラスコード(クラス番号)を演算回路218に供給する。   The ADRC processing circuit 213 performs ADRC processing on the class tap supplied from the ADRC blocking circuit 212 and supplies the class tap subjected to ADRC processing to the class classification circuit 214. The class classification circuit 214 classifies the target pixel based on the class tap from the ADRC processing circuit 213 and supplies a class code (class number) indicating the classified class to the arithmetic circuit 218.

予測タップブロック化回路215は、教師画像データにおける注目画素との対応をとりながら、間引き回路211から供給された生徒画像データから、生徒画像データを構成する画素のうちの所定の画素を予測タップとして抽出する。また、予測タップブロック化回路215は、抽出した予測タップを予測タップ正規化部216に供給する。   The prediction tap blocking circuit 215 uses a predetermined pixel among the pixels constituting the student image data as a prediction tap from the student image data supplied from the thinning circuit 211 while taking correspondence with the target pixel in the teacher image data. Extract. Further, the prediction tap blocking circuit 215 supplies the extracted prediction tap to the prediction tap normalization unit 216.

予測タップ正規化部216は、予測タップブロック化回路215から供給された予測タップを正規化して、正規化された予測タップを演算回路218に供給する。   The prediction tap normalization unit 216 normalizes the prediction tap supplied from the prediction tap blocking circuit 215 and supplies the normalized prediction tap to the arithmetic circuit 218.

教師画像ブロック化回路217は、生徒画像データにおけるクラスタップとの対応を取りながら、教師画像データを構成する画素を順次、注目画素とし、教師画像データから注目画素(の画素値)を抽出して演算回路218に供給する。   The teacher image blocking circuit 217 extracts the target pixel (the pixel value) from the teacher image data by sequentially setting the pixel constituting the teacher image data as the target pixel while taking correspondence with the class tap in the student image data. This is supplied to the arithmetic circuit 218.

演算回路218は、教師画像ブロック化回路217から供給された注目画素と、予測タップ正規化部216からの正規化された予測タップとの対応をとりながら、注目画素と予測タップを構成する画素とを対象とした足し込みを、クラス分類回路214からのクラスコードにしたがって行う。   The arithmetic circuit 218 takes the correspondence between the target pixel supplied from the teacher image blocking circuit 217 and the normalized prediction tap from the prediction tap normalization unit 216, and the pixel constituting the target pixel and the prediction tap, Is added according to the class code from the class classification circuit 214.

すなわち、演算回路218には、教師画像データの注目画素の画素値ys、予測タップ(を構成する生徒画像データの画素の画素値)xs,i、注目画素のクラスを表すクラスコードが供給される。 That is, the pixel value y s of the target pixel of the teacher image data, the prediction tap (the pixel value of the pixel of the student image data constituting the pixel) x s, i , and the class code representing the class of the target pixel are supplied to the arithmetic circuit 218 Is done.

そして、演算回路218はクラスコードに対応するクラスごとに、正規化された予測タップ(生徒画像データ)xs,iを用い、式(13)の左辺の行列における生徒画像データどうしの乗算(xs,is,i)、およびその乗算された値の総和の演算に相当する演算を行う。 Then, the arithmetic circuit 218 uses the normalized prediction tap (student image data) x s, i for each class corresponding to the class code, and multiplies the student image data between the matrixes on the left side of Expression (13) (x s, i x s, i ) and a calculation corresponding to the calculation of the sum of the multiplied values.

さらに、演算回路218は、クラスコードに対応するクラスごとに、予測タップ(生徒画像データ)xs,iおよび教師画像データysを用い、式(13)の右辺のベクトルにおける生徒画像データxs,iおよび教師画像データysの乗算(xs,is)、並びにその乗算された値の総和の演算に相当する演算を行う。 Further, the arithmetic circuit 218 uses the prediction tap (student image data) x s, i and the teacher image data y s for each class corresponding to the class code, and uses the student image data x s in the vector on the right side of Expression (13). , i and teacher image data y s (x s, i y s ), and a calculation corresponding to the calculation of the sum of the multiplied values.

すなわち、演算回路218は、前回、注目画素とされた教師画像データについて求められた式(13)における左辺の行列のコンポーネント(Σxs,is,i)と、右辺のベクトルのコンポーネント(Σxs,is)を記憶しており、その行列のコンポーネント(Σxs,is,i)またはベクトルのコンポーネント(Σxs,is)に対して、新たに注目画素とされた教師画像データについて、その教師画像データys+1および生徒データxs+1,iを用いて計算される、対応するコンポーネントxs+1,is+1,iまたはxs+1,is+1を足し込む(式(13)のΣで表される加算を行う)。 That is, the arithmetic circuit 218 lastly calculates the left-side matrix component (Σx s, i x s, i ) and the right-side vector component (Σx s, i y s ), and the newly selected pixel of interest for the matrix component (Σx s, i x s, i ) or vector component (Σx s, i y s ) the image data is calculated using the teacher image data y s + 1 and the student data x s + 1, i, corresponding component x s + 1, i x s + 1, i or x s + 1, i Add y s + 1 (addition represented by Σ in equation (13)).

そして、演算回路218は、教師画像データの全ての画素を注目画素として、上述の足し込みを行うことにより、各クラスについて、式(13)に示した正規方程式を立てる(生成する)と、その正規方程式を学習データメモリ219に供給する。   Then, the arithmetic circuit 218 establishes (generates) the normal equation shown in the equation (13) for each class by performing the above addition using all the pixels of the teacher image data as the target pixel, The normal equation is supplied to the learning data memory 219.

学習データメモリ219は、演算回路218による足し込みによって得られた正規方程式(のマトリクス係数)を逐次読み込んで記憶する。また、学習データメモリ219は、記憶している正規方程式を演算回路220に供給する。   The learning data memory 219 sequentially reads and stores normal equations (matrix coefficients thereof) obtained by addition by the arithmetic circuit 218. The learning data memory 219 supplies the stored normal equation to the arithmetic circuit 220.

演算回路220は、学習データメモリ219から供給される各クラスについての正規方程式を解くことにより、各クラスについて、最適なタップ係数wiを求めて係数メモリ221に供給する。係数メモリ221は、演算回路220から供給された各クラスのタップ係数wiを記憶する。 The arithmetic circuit 220 solves the normal equation for each class supplied from the learning data memory 219 to obtain the optimum tap coefficient w i for each class and supplies it to the coefficient memory 221. The coefficient memory 221 stores the tap coefficient w i of each class supplied from the arithmetic circuit 220.

次に、図12のフローチャートを参照して、学習装置201による学習処理について説明する。この学習処理は、学習装置201の間引き回路211および教師画像ブロック化回路217に、教師画像データとしての3板CCD出力相当の画像データが供給されると開始される。   Next, the learning process by the learning device 201 will be described with reference to the flowchart of FIG. This learning process is started when image data corresponding to a 3-plate CCD output as teacher image data is supplied to the thinning circuit 211 and the teacher image blocking circuit 217 of the learning device 201.

ステップS81において、間引き回路211は、教師画像データから画素を間引き、生徒画像データとしての単板CCD出力相当の画像データを生成し、ADRCブロック化回路212および予測タップブロック化回路215に供給する。   In step S <b> 81, the thinning circuit 211 thins out pixels from the teacher image data, generates image data corresponding to a single-plate CCD output as student image data, and supplies the image data to the ADRC blocking circuit 212 and the prediction tap blocking circuit 215.

ステップS82において、ADRCブロック化回路212は、間引き回路211から供給された生徒画像データをp×q個(但し、pおよびqは正の整数)のブロックに分割し、分割された各ブロックからクラスタップを抽出する。ADRCブロック化回路212は、抽出したクラスタップをADRC処理回路213に供給する。   In step S82, the ADRC blocking circuit 212 divides the student image data supplied from the thinning circuit 211 into p × q blocks (where p and q are positive integers), and classifies each divided block as a class. Extract taps. The ADRC blocking circuit 212 supplies the extracted class tap to the ADRC processing circuit 213.

ステップS83において、ADRC処理回路213は、ADRCブロック化回路212から供給されたクラスタップにADRC処理を施し、その結果得られたADRCコードをADRC処理が施されたクラスタップとしてクラス分類回路214に供給する。   In step S83, the ADRC processing circuit 213 performs ADRC processing on the class tap supplied from the ADRC blocking circuit 212, and supplies the ADRC code obtained as a result to the class classification circuit 214 as a class tap subjected to ADRC processing. To do.

ステップS84において、クラス分類回路214は、ADRC処理回路213からのクラスタップに基づいて注目画素をクラス分類し、分類されたクラスを示すクラスコードを演算回路218に供給する。   In step S 84, the class classification circuit 214 classifies the target pixel based on the class tap from the ADRC processing circuit 213, and supplies a class code indicating the classified class to the arithmetic circuit 218.

ステップS85において、予測タップブロック化回路215は、間引き回路211から供給された生徒画像データをp×q個(但し、pおよびqは正の整数)のブロックに分割し、分割された各ブロックから予測タップを抽出する。予測タップブロック化回路215は、抽出した予測タップを予測タップ正規化部216に供給する。   In step S85, the prediction tap blocking circuit 215 divides the student image data supplied from the thinning-out circuit 211 into p × q blocks (where p and q are positive integers), and from each of the divided blocks. Extract prediction taps. The prediction tap blocking circuit 215 supplies the extracted prediction tap to the prediction tap normalization unit 216.

ステップS86において、予測タップ正規化部216は、予測タップブロック化回路215から供給された予測タップを正規化して、正規化された予測タップを演算回路218に供給する。例えば、予測タップ正規化部216は、図9を参照して説明したように、注目画素のタップ係数を予測する所定の色の画素のダイナミックレンジと、他の色の画素のダイナミックレンジとが等しくなるように予測タップを正規化する。   In step S86, the prediction tap normalization unit 216 normalizes the prediction tap supplied from the prediction tap blocking circuit 215 and supplies the normalized prediction tap to the arithmetic circuit 218. For example, as described with reference to FIG. 9, the prediction tap normalization unit 216 equals the dynamic range of pixels of a predetermined color for predicting the tap coefficient of the target pixel and the dynamic range of pixels of other colors. The prediction tap is normalized so that

ステップS87において、教師画像ブロック化回路217は、生徒画像データにおけるクラスタップとの対応を取りながら、教師画像データを構成する画素を順次、注目画素とし、教師画像データから注目画素(のR、G、およびBの画素値)を抽出して演算回路218に供給する。   In step S87, the teacher image blocking circuit 217 sequentially sets the pixels constituting the teacher image data as the target pixels while taking correspondence with the class taps in the student image data, and from the teacher image data, the target pixels (R, G of , And B pixel values) are extracted and supplied to the arithmetic circuit 218.

ステップS88において、演算回路218は、教師画像ブロック化回路217から供給された注目画素と、予測タップ正規化部216からの正規化された予測タップとの対応をとりながら、注目画素と予測タップを構成する画素とを対象として、クラス分類回路214からのクラスコードに対応するクラスについて立てられた式(13)により示される正規方程式への足し込みを行う。   In step S88, the arithmetic circuit 218 determines the target pixel and the prediction tap while taking the correspondence between the target pixel supplied from the teacher image blocking circuit 217 and the normalized prediction tap from the prediction tap normalization unit 216. For the constituent pixels, addition to the normal equation shown by the equation (13) established for the class corresponding to the class code from the class classification circuit 214 is performed.

ステップS89において、演算回路218は全てのブロックについて足し込みを行ったか否かを判定する。   In step S89, the arithmetic circuit 218 determines whether or not all blocks have been added.

ステップS89において、全てのブロックについて足し込みを行っていないと判定された場合、処理はステップS88に戻り、まだ足し込みが行われていないブロックについて足し込みが行われる。   If it is determined in step S89 that addition has not been performed for all blocks, the process returns to step S88, and addition is performed for blocks that have not yet been added.

これに対して、ステップS89において、全てのブロックについて足し込みを行ったと判定された場合、演算回路218は、各クラスについて立てた正規方程式を学習データメモリ219に供給して記憶させる。そして、学習データメモリ219は、記憶している正規方程式を演算回路220に供給し、処理はステップS90に進む。   On the other hand, if it is determined in step S89 that the addition has been performed for all the blocks, the arithmetic circuit 218 supplies the normal equation established for each class to the learning data memory 219 for storage. Then, the learning data memory 219 supplies the stored normal equation to the arithmetic circuit 220, and the process proceeds to step S90.

ステップS90において、演算回路220は、学習データメモリ219から供給されたクラスごとの正規方程式を、例えば、掃き出し法によって解くことにより各クラスのタップ係数wiを求めて係数メモリ221に供給する。これにより、各クラスのRの画素値、Gの画素値、およびBの画素値のそれぞれを予測するために用いられるタップ係数wiのそれぞれが求められる。 In step S90, the arithmetic circuit 220 obtains the tap coefficient w i of each class by solving the normal equation for each class supplied from the learning data memory 219 by, for example, a sweeping method, and supplies the tap coefficient w i to the coefficient memory 221. Thereby, each of the tap coefficient w i used for predicting each of the R pixel value, the G pixel value, and the B pixel value of each class is obtained.

ステップS91において、演算回路220は、全てのクラスについてタップ係数wiを求めたか否かを判定する。 In step S91, the arithmetic circuit 220 determines whether tap coefficients w i have been obtained for all classes.

ステップS91において、全てのクラスについてタップ係数wiを求めていないと判定された場合、処理はステップS90に戻り、まだタップ係数wiが求められていないクラスの正規方程式が解かれてタップ係数wiが求められる。 If it is determined in step S91 that the tap coefficients w i have not been obtained for all classes, the process returns to step S90, the normal equation of the class for which tap coefficients w i have not yet been obtained is solved, and the tap coefficient w is determined. i is required.

これに対して、ステップS91において、全てのクラスについてタップ係数wiを求めたと判定された場合、処理はステップS92に進み、係数メモリ221は、演算回路220から供給された各クラスのタップ係数wiを記憶し、学習処理は終了する。 On the other hand, if it is determined in step S91 that the tap coefficients w i have been obtained for all classes, the process proceeds to step S92, and the coefficient memory 221 receives the tap coefficient w of each class supplied from the arithmetic circuit 220. i is stored, and the learning process ends.

図5の係数メモリ117には、以上のようにして求められた複数セットのクラスごとのタップ係数wiが記憶されている。 The coefficient memory 117 of FIG. 5 stores tap coefficients w i for each of a plurality of sets of classes obtained as described above.

このようにして、学習装置201は、生徒画像データとしての単板CCD出力相当の画像データから抽出した予測タップを正規化し、正規化した予測タップを用いて、各クラスのタップ係数wiを求める。 In this way, the learning apparatus 201 normalizes the prediction tap extracted from the image data corresponding to the single-plate CCD output as the student image data, and obtains the tap coefficient w i of each class using the normalized prediction tap. .

このように、単板CCD出力相当の画像データから抽出した予測タップを、各色の画素のダイナミックレンジが等しくなるように正規化し、正規化された予測タップを用いて各クラスのタップ係数wiを求めることで、より精度よくクラス分類適応処理を行うためのタップ係数wiを求めることができる。これにより、求められたタップ係数wiを用いてクラス分類適応処理を行った場合、画像の破綻を抑制することができ、単板CCDから出力された画像データから、より高精細な3板CCD出力相当の画像データをより精度よく得ることができる。 In this way, the prediction tap extracted from the image data corresponding to the single-plate CCD output is normalized so that the dynamic ranges of the pixels of each color are equal, and the tap coefficient w i of each class is calculated using the normalized prediction tap. By obtaining the tap coefficient w i for performing the class classification adaptive processing with higher accuracy, the tap coefficient w i can be obtained. As a result, when the class classification adaptive processing is performed using the obtained tap coefficient w i , it is possible to suppress the failure of the image, and from the image data output from the single-plate CCD, a higher-definition three-plate CCD Image data corresponding to output can be obtained with higher accuracy.

なお、以上においては、光の原色(R、G、B)成分を透過させる色フィルタアレイ53の例として、図13Aに示すベイヤー配列を用いるようにしたが、この他、図13Bに示すインタライン配列、図13Cに示すGストライプRB市松配列、図13Dに示すGストライプRB完全市松配列、または図13Eに示す原色色差配列などとすることができる。   In the above description, the Bayer array shown in FIG. 13A is used as an example of the color filter array 53 that transmits the primary color (R, G, B) components of light. In addition, the interline shown in FIG. 13B is used. An arrangement, a G stripe RB checkered arrangement shown in FIG. 13C, a G stripe RB complete checkered arrangement shown in FIG. 13D, a primary color difference arrangement shown in FIG. 13E, or the like.

図13Bに示すインタライン配列では、Gの色のフィルタが市松状に配置され、各行の残りの部分にRの色のフィルタおよびBの色のフィルタが交互に配置されている。   In the interline arrangement shown in FIG. 13B, G color filters are arranged in a checkered pattern, and R color filters and B color filters are alternately arranged in the remaining part of each row.

また、図13Cに示すGストライプRB市松配列では、Gの色のフィルタが一列おきに図中、縦方向に並べられて配置され、残りの列の縦方向にRの色のフィルタおよびBの色のフィルタが交互に配置されている。このとき、各列のRの色のフィルタまたはBの色のフィルタは、横方向にGの色のフィルタを介して同じ色のフィルタと隣接するように配置されている。   Further, in the G stripe RB checkered arrangement shown in FIG. 13C, every other column of G color filters is arranged in the vertical direction in the figure, and the R color filter and B color are arranged in the vertical direction of the remaining columns. Are alternately arranged. At this time, the R color filter or the B color filter in each column is arranged so as to be adjacent to the same color filter in the horizontal direction via the G color filter.

さらに、図13Dに示すGストライプRB完全市松配列では、Gの色のフィルタが一列おきに図中、縦方向に並べられて配置され、残りの列の縦方向にRの色のフィルタおよびBの色のフィルタが交互に配置されている。このとき、各列のRの色のフィルタおよびBの色のフィルタは、横方向にGの色のフィルタを介して、Bの色のフィルタおよびRの色のフィルタと隣接するように配置されている。   Further, in the G stripe RB complete checkered arrangement shown in FIG. 13D, the G color filters are arranged in the vertical direction in every other row in the figure, and the R color filters and the B color filters are arranged in the vertical direction of the remaining columns. Color filters are arranged alternately. At this time, the R color filter and the B color filter in each row are arranged so as to be adjacent to the B color filter and the R color filter through the G color filter in the horizontal direction. Yes.

さらに、また、図13Eに示す原色色差配列では、1行目乃至3行目までは、Gの色のフィルタが一列おきに図中、縦方向に並べられて配置され、残りの列の縦方向にRの色のフィルタおよびBの色のフィルタが交互に配置されている。このとき、各列のRの色のフィルタおよびBの色のフィルタは、横方向にGの色のフィルタを介して同じ色のフィルタと隣接するように配置されている。そして、4行目は、Rの色のフィルタおよびGの色のフィルタが交互に配置されている。   Further, in the primary color difference array shown in FIG. 13E, in the first to third rows, the G color filters are arranged in the vertical direction every other column in the figure, and the vertical direction of the remaining columns. In addition, R color filters and B color filters are alternately arranged. At this time, the R color filter and the B color filter in each column are arranged so as to be adjacent to the same color filter through the G color filter in the horizontal direction. In the fourth row, R color filters and G color filters are alternately arranged.

また、色フィルタアレイ53を原色フィルタではなく、補色フィルタとすることもできる。この場合、撮像により得られた画像データの各画素は、イエロー(Ye)、シアン(Cy)、マゼンダ(Mg)、および緑(G)のうちのいずれか1つの値を有することになる。   Further, the color filter array 53 may be a complementary color filter instead of the primary color filter. In this case, each pixel of the image data obtained by imaging has one value of yellow (Ye), cyan (Cy), magenta (Mg), and green (G).

さらに、以上においては、単板CCD出力相当の画像データから、同じ解像度の3板CCD出力相当の画像データを生成する例について説明したが、単板CCD出力相当の画像データから、n倍の解像度の3板CCD出力相当の画像データを生成することも可能である。   Furthermore, in the above description, an example of generating image data equivalent to a three-plate CCD output having the same resolution from image data equivalent to a single-plate CCD output has been described. It is also possible to generate image data equivalent to the three-plate CCD output.

また、例えば、単板CCD出力相当の画像データから、4倍の解像度の3板CCD出力相当の画像データを生成するためのタップ係数を求める場合、学習装置201には、図14Aに示すような、Rの画像データ、Gの画像データ、およびBの画像データからなる3板CCD出力相当の画像データが入力され、教師画像データとされる。   Further, for example, when obtaining tap coefficients for generating image data equivalent to a three-plate CCD output with a quadruple resolution from image data equivalent to a single-plate CCD output, the learning apparatus 201 has a configuration as shown in FIG. 14A. , R image data, G image data, and B image data corresponding to a three-plate CCD output are input and used as teacher image data.

そして、図14Aに示した3板CCD出力相当の画像データは、間引き回路211においてローパスフィルタにより間引かれて、図14Bに示すように、1/4の解像度の画像データとされる。図14Bに示すRの画像データ、Gの画像データ、およびBの画像データのそれぞれは、図14Aに示すRの画像データ、Gの画像データ、およびBの画像データのそれぞれの1/4の解像度の画像データとなっている。   Then, the image data corresponding to the three-plate CCD output shown in FIG. 14A is thinned out by the low-pass filter in the thinning circuit 211, and becomes image data having a resolution of 1/4 as shown in FIG. 14B. Each of the R image data, the G image data, and the B image data illustrated in FIG. 14B has a resolution that is ¼ of each of the R image data, the G image data, and the B image data illustrated in FIG. 14A. Image data.

さらに、図14Bに示した画像データは、間引き回路211においてさらに間引かれて、図14Cに示すように単板CCD出力相当のベイヤー配列の画像データとされ、この単板CCD出力相当の画像データが生徒画像データとされる。   Further, the image data shown in FIG. 14B is further thinned out by the thinning circuit 211 to form Bayer array image data corresponding to the single-plate CCD output as shown in FIG. 14C. Is student image data.

さらに、図15Aに示すように、単板CCD出力相当の画像データの画素における面積の等しい4つの領域のそれぞれの位置に対応する画素のそれぞれが注目画素とされ、それぞれの注目画素の画素値を求めるためのタップ係数が求められる。   Furthermore, as shown in FIG. 15A, each of the pixels corresponding to the respective positions of the four areas having the same area in the pixel of the image data corresponding to the single-plate CCD output is set as the target pixel, and the pixel value of each target pixel is set as the target pixel. A tap coefficient for obtaining is obtained.

図15Aでは、単板CCD出力相当の画像データの画素のうち、矢印K41により示されるGの画素における面積の等しい4つの領域の位置に対応する画素が、それぞれ注目画素251−1乃至注目画素251−4とされる。また、ここで、注目画素251−1乃至注目画素251−4のそれぞれに対する予測タップは、例えば、矢印K41により示されるGの画素を中心とする3×3個の画素とされている。   In FIG. 15A, among the pixels of the image data corresponding to the single-plate CCD output, the pixels corresponding to the positions of the four regions having the same area in the G pixel indicated by the arrow K41 are the target pixel 251-1 to the target pixel 251 respectively. -4. Here, the prediction taps for each of the target pixel 251-1 to the target pixel 251-4 are, for example, 3 × 3 pixels centered on the G pixel indicated by the arrow K 41.

そして、図15Bに示すように、3板CCD出力相当の画像データの注目画素251−1乃至注目画素251−4のそれぞれのRの画素値、Gの画素値、およびBの画素値と、予測タップとを基に、注目画素251−1乃至注目画素251−4のそれぞれのRの画素値を予測するためのタップ係数のそれぞれ、注目画素251−1乃至注目画素251−4のそれぞれのGの画素値を予測するためのタップ係数のそれぞれ、および注目画素251−1乃至注目画素251−4のそれぞれのBの画素値を予測するためのタップ係数のそれぞれの計12個のタップ係数が求められる。   Then, as shown in FIG. 15B, the R pixel value, the G pixel value, and the B pixel value of each of the target pixels 251-1 to 251-4 of the image data corresponding to the three-plate CCD output, and the prediction Based on the taps, tap coefficients for predicting the R pixel values of the target pixels 251-1 to 251-4, respectively, and the G coefficients of the target pixels 251-1 to 251-4, respectively. A total of 12 tap coefficients are obtained for each of the tap coefficients for predicting the pixel value and for each of the tap coefficients for predicting the B pixel value of each of the target pixel 251-1 to target pixel 251-4. .

この場合、演算回路218は、式(16)に対応する各クラスのR、G、およびBの色成分ごとに式(17)、式(18)、および式(19)に示される正規方程式を立てて足しこみを行う。   In this case, the arithmetic circuit 218 calculates the normal equation represented by the equations (17), (18), and (19) for each color component of R, G, and B corresponding to the equation (16). Stand up and add.

Figure 0004730105
・・・(17)
Figure 0004730105
... (17)

Figure 0004730105
・・・(18)
Figure 0004730105
... (18)

Figure 0004730105
・・・(19)
Figure 0004730105
... (19)

ここで、式(17)におけるwr1,i、wr2,i、wr3,i、およびwr4,iのそれぞれ(但し、1≦i≦N)は、注目画素251−1乃至注目画素251−4のそれぞれのRの画素値のそれぞれを予測するために用いられ、予測タップを構成するi番目の画素(の画素値)と乗算されるi番目のタップ係数のそれぞれを表している。 Here, each of wr1, i , wr2, i , wr3, i , and wr4, i in Equation (17) (where 1 ≦ i ≦ N) is the pixel of interest 251-1 to the pixel of interest 251. -4 represents each i-th tap coefficient that is used to predict each R-pixel value of −4 and is multiplied by (i.e., the pixel value of) the i-th pixel constituting the prediction tap.

また、式(17)におけるR1,i、R2,i、R3,i、およびR4,iのそれぞれ(但し、1≦i≦N)は、式(15)に示したΣxs,isにおける画素値ysを、注目画素251−1乃至注目画素251−4のそれぞれのRの画素値としたものを表している。 In addition, each of R 1, i , R 2, i , R 3, i , and R 4, i in Formula (17) (where 1 ≦ i ≦ N) is Σx s, the pixel value y s in i y s, represent those pixel values of the respective R of the pixel of interest 251-1 to the pixel of interest 251-4.

同様に、式(18)におけるwg1,i、wg2,i、wg3,i、およびwg4,iのそれぞれ(但し、1≦i≦N)は、注目画素251−1乃至注目画素251−4のそれぞれのGの画素値のそれぞれを予測するために用いられ、予測タップを構成するi番目の画素(の画素値)と乗算されるi番目のタップ係数のそれぞれを表している。 Similarly, each of w g1, i , w g2, i , w g3, i , and w g4, i (where 1 ≦ i ≦ N) in Expression (18) is the target pixel 251-1 to the target pixel 251. -4 represents each i-th tap coefficient that is used to predict each G pixel value of −4 and is multiplied by (the pixel value of) the i-th pixel that forms the prediction tap.

また、式(18)におけるG1,i、G2,i、G3,i、およびG4,iのそれぞれ(但し、1≦i≦N)は、式(15)に示したΣxs,isにおける画素値ysを、注目画素251−1乃至注目画素251−4のそれぞれのGの画素値としたものを表している。 In addition, each of G 1, i , G 2, i , G 3, i , and G 4, i in the formula (18) (where 1 ≦ i ≦ N) is Σx s, the pixel value y s in i y s, represent those the pixel value of each of the G pixel of interest 251-1 to the pixel of interest 251-4.

さらに、式(19)におけるwb1,i、wb2,i、wb3,i、およびwb4,iのそれぞれ(但し、1≦i≦N)は、注目画素251−1乃至注目画素251−4のそれぞれのBの画素値のそれぞれを予測するために用いられ、予測タップを構成するi番目の画素(の画素値)と乗算されるi番目のタップ係数のそれぞれを表している。 Furthermore, each of w b1, i , w b2, i , w b3, i , and w b4, i in the equation (19) (where 1 ≦ i ≦ N) is the target pixel 251-1 to the target pixel 251- 4 represents each i-th tap coefficient that is used to predict each of the four B pixel values and is multiplied by (the pixel value of) the i-th pixel constituting the prediction tap.

また、式(19)におけるB1,i、B2,i、B3,i、およびB4,iのそれぞれ(但し、1≦i≦N)は、式(15)に示したΣxs,isにおける画素値ysを、注目画素251−1乃至注目画素251−4のそれぞれのBの画素値としたものを表している。 In addition, each of B 1, i , B 2, i , B 3, i , and B 4, i in equation (19) (where 1 ≦ i ≦ N) is represented by Σx s, the pixel value y s in i y s, represent those the pixel value of each B pixel of interest 251-1 to the pixel of interest 251-4.

演算回路220は、このようにして立てられた式(17)乃至式(19)の正規方程式を解くことにより、注目画素251−1乃至注目画素251−4のそれぞれのRの画素値、Gの画素値、およびBの画素値のそれぞれを予測するための12個のタップ係数を求める。   The arithmetic circuit 220 solves the normal equations of the equations (17) to (19) established in this way, thereby obtaining the R pixel value of each of the target pixels 251-1 to 251-4, Twelve tap coefficients for predicting each of the pixel value and the B pixel value are obtained.

また、これらのタップ係数を用いることにより、適応処理回路116は、単板CCD出力相当の画像データから、4倍の解像度の3板CCD出力相当の画像データ(4倍密の画像データ)を生成することができる。   Further, by using these tap coefficients, the adaptive processing circuit 116 generates image data corresponding to a three-plate CCD output (4 times dense image data) with a quadruple resolution from image data corresponding to a single-plate CCD output. can do.

ところで、以上の実施の形態の効果を評価するため、発明者らは、シミュレーションを行った。3板CCD出力相当の画像から単板CCD出力相当の画像を作成し、上述した学習装置201が行う処理と同じ処理を行うアルゴリズムによりタップ係数を生成した。そして、単板CCD出力相当の画像を3板CCD出力相当の画像に変換する処理を、生成されたタップ係数を用いて、予測タップを正規化するクラス分類適応処理により補間生成した。   By the way, in order to evaluate the effect of the above embodiment, the inventors performed a simulation. An image corresponding to a single-plate CCD output is created from an image corresponding to a three-plate CCD output, and tap coefficients are generated by an algorithm that performs the same processing as the processing performed by the learning device 201 described above. Then, a process for converting an image corresponding to a single-plate CCD output into an image corresponding to a three-plate CCD output is generated by interpolation using a class classification adaptive process that normalizes prediction taps using the generated tap coefficients.

このようなシミュレーションの結果生成された3板CCD出力相当の画像と、従来のクラス分類適応処理を行って生成された3板CCD出力相当の画像とを比較して評価したところ、シミュレーションの結果生成された3板CCD出力相当の画像では、生成された全ての画像において、各色成分のダイナミックレンジの差により生じる画像の破綻が改善されていることが確認された。このことから、予測タップを正規化するクラス分類適応処理を行って3板CCD出力相当の画像を生成する方法は、従来のクラス分類適応処理を行って3板CCD出力相当の画像を生成する方法よりも優位性があるということができる。   An image corresponding to a 3-plate CCD output generated as a result of such a simulation and an image corresponding to a 3-plate CCD output generated by performing the conventional classification adaptation process were evaluated, and the result of the simulation was generated. In the image corresponding to the three-plate CCD output, it was confirmed that the image breakdown caused by the difference in the dynamic range of each color component was improved in all the generated images. Therefore, the method of generating the image corresponding to the 3-plate CCD output by performing the class classification adaptive processing for normalizing the prediction tap is the method of generating the image corresponding to the 3-plate CCD output by performing the conventional class classification adaptive processing. It can be said that there is an advantage.

以上のように、クラス分類適応処理に用いる予測タップを正規化することで、予測タップの各色の画素のダイナミックレンジを等しくすることができ、画像の破綻を抑制することができる。これにより、より高精細な画像データをより精度よく生成することができる。   As described above, by normalizing the prediction taps used for the class classification adaptation process, the dynamic ranges of the pixels of each color of the prediction tap can be made equal, and the failure of the image can be suppressed. Thereby, higher-definition image data can be generated more accurately.

また、各色の画素のダイナミックレンジが等しくなるように予測タップを正規化し、正規化された予測タップを用いて各クラスのタップ係数を求めることで、より精度よくクラス分類適応処理を行うためのタップ係数を求めることができる。これにより、求められたタップ係数を用いてクラス分類適応処理を行った場合、画像の破綻を抑制することができ、より高精細な画像データをより精度よく得ることができる。   Also, taps for performing class classification adaptation processing more accurately by normalizing prediction taps so that the dynamic ranges of pixels of each color are equal and obtaining tap coefficients for each class using the normalized prediction taps A coefficient can be obtained. Thereby, when the class classification adaptive process is performed using the obtained tap coefficient, it is possible to suppress the failure of the image and to obtain higher-definition image data with higher accuracy.

なお、以上においては、抽出されたクラスタップにADRC処理を施すことにより、注目画素が分類されるクラスの数を削減したが、その他、DCT(Discrete Cosine Transform)、VQ(Vector Quantization)(ベクトル量子化)、DPCM(Differential Pulse Code Modulation)、BTC(Block Trancation Coding)、非線形量子化などにより、注目画素が分類されるクラスの数を削減するようにしてもよい。   In the above, the number of classes into which the target pixel is classified is reduced by performing ADRC processing on the extracted class taps. However, DCT (Discrete Cosine Transform), VQ (Vector Quantization) (vector quantum) ), DPCM (Differential Pulse Code Modulation), BTC (Block Trancation Coding), nonlinear quantization, etc., the number of classes into which the pixel of interest is classified may be reduced.

また、画像データが、RGBのそれぞれを成分とするコンポーネント映像信号であるとして説明したが、その他、輝度Y、色差U、および色差Vを成分とするコンポーネント映像信号とするようにしてもよい。さらに、画像データが、イエロー(Ye)、シアン(Cy)、マゼンダ(Mg)、および緑(G)のうちの少なくともいずれか1つの値を各画素の画素値として有するようにしてもよい。   In addition, the image data has been described as component video signals having RGB as components, but other component video signals having luminance Y, color difference U, and color difference V as components may be used. Furthermore, the image data may have at least one value of yellow (Ye), cyan (Cy), magenta (Mg), and green (G) as the pixel value of each pixel.

さらに、撮像素子としてCCDを用いて画像を撮像すると説明したが、画像を撮像する撮像素子として、その他、例えば、CMOS(Complementary Mental Oxide Semiconductor)などを用いることも可能である。   Furthermore, although it has been described that an image is picked up using a CCD as the image pickup device, for example, a CMOS (Complementary Mental Oxide Semiconductor) or the like can be used as the image pickup device for picking up an image.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

図16は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。パーソナルコンピュータ301のCPU311は、ROM(Read Only Memory)312、または記録部318に記録されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)313には、CPU311が実行するプログラムやデータなどが適宜記憶される。これらのCPU311、ROM312、およびRAM313は、バス314により相互に接続されている。   FIG. 16 is a block diagram showing an example of the configuration of a personal computer that executes the above-described series of processing by a program. The CPU 311 of the personal computer 301 executes various processes according to a program recorded in a ROM (Read Only Memory) 312 or a recording unit 318. A RAM (Random Access Memory) 313 appropriately stores programs executed by the CPU 311 and data. The CPU 311, ROM 312, and RAM 313 are connected to each other via a bus 314.

CPU311にはまた、バス314を介して入出力インターフェース315が接続されている。入出力インターフェース315には、キーボード、マウス、マイクロホンなどよりなる入力部316、ディスプレイ、スピーカなどよりなる出力部317が接続されている。CPU311は、入力部316から入力される指令に対応して各種の処理を実行する。そして、CPU311は、処理の結果を出力部317に出力する。   An input / output interface 315 is also connected to the CPU 311 via the bus 314. The input / output interface 315 is connected to an input unit 316 including a keyboard, a mouse, and a microphone, and an output unit 317 including a display and a speaker. The CPU 311 executes various processes in response to commands input from the input unit 316. Then, the CPU 311 outputs the processing result to the output unit 317.

入出力インターフェース315に接続されている記録部318は、例えばハードディスクからなり、CPU311が実行するプログラムや各種のデータを記録する。通信部319は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。   The recording unit 318 connected to the input / output interface 315 includes, for example, a hard disk, and records programs executed by the CPU 311 and various data. The communication unit 319 communicates with an external device via a network such as the Internet or a local area network.

また、通信部319を介してプログラムを取得し、記録部318に記録してもよい。   A program may be acquired via the communication unit 319 and recorded in the recording unit 318.

入出力インターフェース315に接続されているドライブ320は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア331が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部318に転送され、記録される。   The drive 320 connected to the input / output interface 315 drives a removable medium 331 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives the program or data recorded therein. Get etc. The acquired program and data are transferred to the recording unit 318 and recorded as necessary.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図16に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスクを含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア331、または、プログラムが一時的もしくは永続的に格納されるROM312や、記録部318を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部319を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 16, a program recording medium for storing a program that is installed in a computer and can be executed by the computer is a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory), DVD (Digital Versatile Disc) (including magneto-optical disk), or removable media 331 which is a package medium made of semiconductor memory, or ROM 312 in which a program is temporarily or permanently stored, The recording unit 318 is configured by a hard disk and the like. The program is stored in the program recording medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 319 that is an interface such as a router or a modem as necessary. Done.

なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the described order, but is not necessarily performed in time series. Or the process performed separately is also included.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

予測タップとして、異なる色の画素を用いた場合に生じる画像の破綻について説明するための図である。It is a figure for demonstrating the failure of the image which arises when a pixel of a different color is used as a prediction tap. 単板CCDの出力から、3板CCD出力相当の画像データを得る原理を説明する図である。It is a figure explaining the principle which obtains the image data equivalent to a 3 plate CCD output from the output of a single plate CCD. 撮像装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of an imaging device. 撮像処理を説明するフローチャートである。It is a flowchart explaining an imaging process. 画像信号処理回路の構成例を示すブロック図である。It is a block diagram which shows the structural example of an image signal processing circuit. 画像信号処理を説明するフローチャートである。It is a flowchart explaining an image signal process. クラスタップの一例を示す図である。It is a figure which shows an example of a class tap. 予測タップの一例を示す図である。It is a figure which shows an example of a prediction tap. 予測タップの正規化を説明するための図である。It is a figure for demonstrating normalization of a prediction tap. 予測タップの正規化を説明するための図である。It is a figure for demonstrating normalization of a prediction tap. 学習装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a learning apparatus. 学習処理を説明するフローチャートである。It is a flowchart explaining a learning process. 色フィルタアレイの他の配列の例を示す図である。It is a figure which shows the example of the other arrangement | sequence of a color filter array. 単板CCDの出力から、4倍の解像度の3板CCD出力相当の画像データを得るためのタップ係数を求める学習処理の原理を説明する図である。It is a figure explaining the principle of the learning process which calculates | requires the tap coefficient for obtaining the image data equivalent to the 3 plate CCD output of 4 times the resolution from the output of a single plate CCD. 4倍の解像度の画像データを生成するタップ係数を求める場合における注目画素を説明するための図である。It is a figure for demonstrating the attention pixel in the case of calculating | requiring the tap coefficient which produces | generates the image data of 4 times resolution. パーソナルコンピュータの構成例を示すブロック図である。And FIG. 16 is a block diagram illustrating a configuration example of a personal computer.

符号の説明Explanation of symbols

41 撮像装置, 54 CCD, 57 画像信号処理回路, 65 記録媒体, 111 ADRCブロック化回路, 113 クラス分類回路, 114 予測タップブロック化回路, 115 予測タップ正規化部, 116 適応処理回路, 117 係数メモリ, 201 学習装置, 211 間引き回路, 212 ADRCブロック化回路, 214 クラス分類回路, 215 予測タップブロック化回路, 216 予測タップ正規化部, 218 演算回路, 220 演算回路, 301 パーソナルコンピュータ, 311 CPU, 312 ROM, 313 RAM, 318 記録部, 331 リムーバブルメディア   41 imaging device, 54 CCD, 57 image signal processing circuit, 65 recording medium, 111 ADRC blocking circuit, 113 class classification circuit, 114 prediction tap blocking circuit, 115 prediction tap normalization unit, 116 adaptive processing circuit, 117 coefficient memory , 201 learning device, 211 decimation circuit, 212 ADRC blocking circuit, 214 class classification circuit, 215 prediction tap blocking circuit, 216 prediction tap normalization unit, 218 arithmetic circuit, 220 arithmetic circuit, 301 personal computer, 311 CPU, 312 ROM, 313 RAM, 318 recording unit, 331 removable media

Claims (12)

コンポーネント映像信号の第1の成分の値を有する画素と、第2の成分の値を有する画素とから構成される第1の画像データを、前記第1の成分の値および前記第2の成分の値を有する画素から構成される第2の画像データに変換する画像処理装置において、
前記第2の画像データの注目している画素である注目画素を予測するために用いる複数の画素を、前記第1の画像データから予測タップとして抽出する予測タップ抽出手段と、
前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第1の画像データからクラスタップとして抽出するクラスタップ抽出手段と、
前記クラスタップを用いて、前記注目画素のクラス分類を行うクラス分類手段と、
前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化する正規化手段と、
前記注目画素のクラスについて予め求められているタップ係数と、正規化された前記予測タップとを用いて、前記注目画素の前記第1の成分の値、または前記第2の成分の値を予測演算する予測演算手段と
を備える画像処理装置。
First image data composed of pixels having the value of the first component of the component video signal and pixels having the value of the second component is obtained by using the values of the first component and the second component. In an image processing apparatus for converting to second image data composed of pixels having values,
A prediction tap extracting means for extracting a plurality of pixels used for predicting a target pixel which is a target pixel of the second image data as a prediction tap from the first image data;
Class tap extracting means for extracting, as class taps, a plurality of pixels used for class classification that classifies the target pixel into any of a plurality of classes;
Class classification means for classifying the pixel of interest using the class tap;
The prediction tap is set so that the dynamic range of the value of the first component included in the pixels constituting the prediction tap is equal to the dynamic range of the value of the second component included in the pixels constituting the prediction tap. Normalization means for normalization;
Predicting the value of the first component or the value of the second component of the pixel of interest using the tap coefficient previously determined for the class of the pixel of interest and the normalized prediction tap An image processing apparatus comprising:
前記正規化手段は、前記注目画素の前記第1の成分の値を予測演算する場合、前記第1の成分の値のダイナミックレンジの値を前記第2の成分の値のダイナミックレンジの値で除算して得られる値を、前記予測タップを構成する画素が有する前記第2の成分の値に乗算することにより前記予測タップを正規化する
請求項1に記載の画像処理装置。
The normalizing means, when predicting the value of the first component of the pixel of interest, divides the dynamic range value of the first component value by the dynamic range value of the second component value. The image processing apparatus according to claim 1, wherein the prediction tap is normalized by multiplying a value obtained by multiplying a value of the second component of a pixel constituting the prediction tap.
前記第1の成分または前記第2の成分は、赤、青、または緑のいずれかの色を表わす成分である
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the first component or the second component is a component representing any one of red, blue, and green.
前記第1の成分または前記第2の成分は、輝度または色差を表わす成分である
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the first component or the second component is a component representing luminance or color difference.
コンポーネント映像信号の第1の成分の値を有する画素と、第2の成分の値を有する画素とから構成される第1の画像データを、前記第1の成分の値および前記第2の成分の値を有する画素から構成される第2の画像データに変換する画像処理方法において、
前記第2の画像データの注目している画素である注目画素を予測するために用いる複数の画素を、前記第1の画像データから予測タップとして抽出し、
前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第1の画像データからクラスタップとして抽出し、
前記クラスタップを用いて、前記注目画素のクラス分類を行い、
前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化し、
前記注目画素のクラスについて予め求められているタップ係数と、正規化された前記予測タップとを用いて、前記注目画素の前記第1の成分の値、または前記第2の成分の値を予測演算する
ステップを含む画像処理方法。
First image data composed of pixels having the value of the first component of the component video signal and pixels having the value of the second component is obtained by using the values of the first component and the second component. In an image processing method for converting to second image data composed of pixels having values,
Extracting a plurality of pixels used for predicting a target pixel which is a target pixel of the second image data as a prediction tap from the first image data;
Extracting a plurality of pixels used for class classification to classify the target pixel into any one of a plurality of classes as a class tap from the first image data;
Using the class tap, classify the pixel of interest,
The prediction tap is set so that the dynamic range of the value of the first component included in the pixels constituting the prediction tap is equal to the dynamic range of the value of the second component included in the pixels constituting the prediction tap. Normalize,
Predicting the value of the first component or the value of the second component of the pixel of interest using the tap coefficient previously determined for the class of the pixel of interest and the normalized prediction tap An image processing method including a step.
コンポーネント映像信号の第1の成分の値を有する画素と、第2の成分の値を有する画素とから構成される第1の画像データを、前記第1の成分の値および前記第2の成分の値を有する画素から構成される第2の画像データに変換する画像処理をコンピュータに実行させるプログラムにおいて、
前記第2の画像データの注目している画素である注目画素を予測するために用いる複数の画素を、前記第1の画像データから予測タップとして抽出し、
前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第1の画像データからクラスタップとして抽出し、
前記クラスタップを用いて、前記注目画素のクラス分類を行い、
前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化し、
前記注目画素のクラスについて予め求められているタップ係数と、正規化された前記予測タップとを用いて、前記注目画素の前記第1の成分の値、または前記第2の成分の値を予測演算する
ステップを含む処理をコンピュータに実行させるプログラム。
First image data composed of pixels having the value of the first component of the component video signal and pixels having the value of the second component is obtained by using the values of the first component and the second component. In a program for causing a computer to execute image processing for conversion into second image data composed of pixels having values,
Extracting a plurality of pixels used for predicting a target pixel which is a target pixel of the second image data as a prediction tap from the first image data;
Extracting a plurality of pixels used for class classification to classify the target pixel into any one of a plurality of classes as a class tap from the first image data;
Using the class tap, classify the pixel of interest,
The prediction tap is set so that the dynamic range of the value of the first component included in the pixels constituting the prediction tap is equal to the dynamic range of the value of the second component included in the pixels constituting the prediction tap. Normalize,
Predicting the value of the first component or the value of the second component of the pixel of interest using the tap coefficient previously determined for the class of the pixel of interest and the normalized prediction tap A program that causes a computer to execute processing including steps.
コンポーネント映像信号の第1の成分および第2の成分の値を有する画素から構成される第1の画像データから、注目している画素である注目画素の前記第1の成分の値を抽出する注目画素抽出手段と、
前記注目画素を予測するために用いる複数の画素を、前記第1の成分の値を有する画素と、前記第2の成分の値を有する画素とから構成される第2の画像データから予測タップとして抽出する予測タップ抽出手段と、
前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第2の画像データからクラスタップとして抽出するクラスタップ抽出手段と、
前記クラスタップを用いて、前記注目画素のクラス分類を行うクラス分類手段と、
前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化する正規化手段と、
前記注目画素の前記第1の成分の値、および正規化された前記予測タップを用いて、正規化された前記予測タップから前記注目画素の前記第1の成分の値を予測するために用いられる、前記注目画素のクラスに対応するタップ係数を求める演算手段と
を備える学習装置。
Attention to extract the value of the first component of the pixel of interest, which is the pixel of interest, from the first image data composed of pixels having the values of the first component and the second component of the component video signal Pixel extraction means;
A plurality of pixels used for predicting the pixel of interest are predicted taps from second image data composed of pixels having the value of the first component and pixels having the value of the second component. A prediction tap extracting means for extracting;
Class tap extracting means for extracting, as class taps, a plurality of pixels used for class classification for classifying the target pixel into any of a plurality of classes;
Class classification means for classifying the pixel of interest using the class tap;
The prediction tap is set so that the dynamic range of the value of the first component included in the pixels constituting the prediction tap is equal to the dynamic range of the value of the second component included in the pixels constituting the prediction tap. Normalization means for normalization;
Used to predict the value of the first component of the pixel of interest from the normalized prediction tap using the value of the first component of the pixel of interest and the normalized prediction tap A learning device comprising: a calculation means for obtaining a tap coefficient corresponding to the class of the target pixel.
前記正規化手段は、前記注目画素の前記第1の成分の値を予測するために用いられる前記タップ係数を求める場合、前記第1の成分の値のダイナミックレンジの値を前記第2の成分の値のダイナミックレンジの値で除算して得られる値を、前記予測タップを構成する画素が有する前記第2の成分の値に乗算することにより前記予測タップを正規化する
請求項7に記載の学習装置。
When obtaining the tap coefficient used for predicting the value of the first component of the pixel of interest, the normalizing unit obtains a dynamic range value of the value of the first component of the second component. The learning according to claim 7, wherein the prediction tap is normalized by multiplying a value obtained by dividing the value by a dynamic range value by a value of the second component included in a pixel constituting the prediction tap. apparatus.
前記第1の成分または前記第2の成分は、赤、青、または緑のいずれかの色を表わす成分である
請求項7に記載の学習装置。
The learning device according to claim 7, wherein the first component or the second component is a component representing any one of red, blue, and green.
前記第1の成分または前記第2の成分は、輝度または色差を表わす成分である
請求項7に記載の学習装置。
The learning device according to claim 7, wherein the first component or the second component is a component representing luminance or color difference.
コンポーネント映像信号の第1の成分および第2の成分の値を有する画素から構成される第1の画像データから、注目している画素である注目画素の前記第1の成分の値を抽出し、
前記注目画素を予測するために用いる複数の画素を、前記第1の成分の値を有する画素と、前記第2の成分の値を有する画素とから構成される第2の画像データから予測タップとして抽出し、
前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第2の画像データからクラスタップとして抽出し、
前記クラスタップを用いて、前記注目画素のクラス分類を行い、
前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化し、
前記注目画素の前記第1の成分の値、および正規化された前記予測タップを用いて、正規化された前記予測タップから前記注目画素の前記第1の成分の値を予測するために用いられる、前記注目画素のクラスに対応するタップ係数を求める
ステップを含む学習方法。
Extracting the value of the first component of the pixel of interest, which is the pixel of interest, from the first image data composed of pixels having the values of the first component and the second component of the component video signal;
A plurality of pixels used for predicting the pixel of interest are predicted taps from second image data composed of pixels having the value of the first component and pixels having the value of the second component. Extract and
Extracting a plurality of pixels used for class classification to classify the pixel of interest into any of a plurality of classes as a class tap from the second image data;
Using the class tap, classify the pixel of interest,
The prediction tap is set so that the dynamic range of the value of the first component included in the pixels constituting the prediction tap is equal to the dynamic range of the value of the second component included in the pixels constituting the prediction tap. Normalize,
Used to predict the value of the first component of the pixel of interest from the normalized prediction tap using the value of the first component of the pixel of interest and the normalized prediction tap A learning method including a step of obtaining a tap coefficient corresponding to the class of the target pixel.
コンポーネント映像信号の第1の成分および第2の成分の値を有する画素から構成される第1の画像データから、注目している画素である注目画素の前記第1の成分の値を抽出し、
前記注目画素を予測するために用いる複数の画素を、前記第1の成分の値を有する画素と、前記第2の成分の値を有する画素とから構成される第2の画像データから予測タップとして抽出し、
前記注目画素を複数のクラスのうちのいずれかにクラス分けするクラス分類に用いる複数の画素を、前記第2の画像データからクラスタップとして抽出し、
前記クラスタップを用いて、前記注目画素のクラス分類を行い、
前記予測タップを構成する画素が有する前記第1の成分の値のダイナミックレンジと、前記予測タップを構成する画素が有する前記第2の成分の値のダイナミックレンジとが等しくなるように前記予測タップを正規化し、
前記注目画素の前記第1の成分の値、および正規化された前記予測タップを用いて、正規化された前記予測タップから前記注目画素の前記第1の成分の値を予測するために用いられる、前記注目画素のクラスに対応するタップ係数を求める
ステップを含む処理をコンピュータに実行させるプログラム。
Extracting the value of the first component of the pixel of interest, which is the pixel of interest, from the first image data composed of pixels having the values of the first component and the second component of the component video signal;
A plurality of pixels used for predicting the pixel of interest are predicted taps from second image data composed of pixels having the value of the first component and pixels having the value of the second component. Extract and
Extracting a plurality of pixels used for class classification to classify the pixel of interest into any of a plurality of classes as a class tap from the second image data;
Using the class tap, classify the pixel of interest,
The prediction tap is set so that the dynamic range of the value of the first component included in the pixels constituting the prediction tap is equal to the dynamic range of the value of the second component included in the pixels constituting the prediction tap. Normalize,
Used to predict the value of the first component of the pixel of interest from the normalized prediction tap using the value of the first component of the pixel of interest and the normalized prediction tap A program for causing a computer to execute processing including a step of obtaining a tap coefficient corresponding to the class of the target pixel.
JP2006012386A 2006-01-20 2006-01-20 Image processing apparatus and method, learning apparatus and method, and program Expired - Fee Related JP4730105B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006012386A JP4730105B2 (en) 2006-01-20 2006-01-20 Image processing apparatus and method, learning apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006012386A JP4730105B2 (en) 2006-01-20 2006-01-20 Image processing apparatus and method, learning apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2007195023A JP2007195023A (en) 2007-08-02
JP4730105B2 true JP4730105B2 (en) 2011-07-20

Family

ID=38450343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006012386A Expired - Fee Related JP4730105B2 (en) 2006-01-20 2006-01-20 Image processing apparatus and method, learning apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP4730105B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4589464B2 (en) 2008-10-17 2010-12-01 オリンパス株式会社 Image generating apparatus, endoscope system, and image generating method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003111092A (en) * 2001-09-27 2003-04-11 Mega Chips Corp Data conversion circuit
JP2004221839A (en) * 2003-01-14 2004-08-05 Sony Corp Apparatus and method for image processing, recording medium, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4725520B2 (en) * 2004-11-30 2011-07-13 三菱電機株式会社 Image processing device, non-imaging color signal calculation device, and image processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003111092A (en) * 2001-09-27 2003-04-11 Mega Chips Corp Data conversion circuit
JP2004221839A (en) * 2003-01-14 2004-08-05 Sony Corp Apparatus and method for image processing, recording medium, and program

Also Published As

Publication number Publication date
JP2007195023A (en) 2007-08-02

Similar Documents

Publication Publication Date Title
KR100745386B1 (en) Image signal processor, image signal processing method, learning device, learning method, and recorded medium
US9392241B2 (en) Image processing apparatus and image processing method
US7903155B2 (en) Image capturing apparatus and program
US20060050956A1 (en) Signal processing apparatus, signal processing method, and signal processing program
KR20070110797A (en) Imaging apparatus and method, and imaging device
JP2010011072A (en) Imaging system, image processing method and image processing program
JP4730106B2 (en) Image processing apparatus and method, learning apparatus and method, and program
JP4895107B2 (en) Electronic device, information processing method, and program
EP2645702B1 (en) Image capturing apparatus, control method therefor, and program
JP4730105B2 (en) Image processing apparatus and method, learning apparatus and method, and program
JP4057216B2 (en) Solid-state imaging device and pixel defect detection method
JP4687454B2 (en) Image processing apparatus and imaging apparatus
JP4433545B2 (en) Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium
JP4839543B2 (en) Image signal processing apparatus, imaging apparatus, image signal processing method, and recording medium
JP4547757B2 (en) Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium
JP4581199B2 (en) Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium
JP4433546B2 (en) Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium
JP4547758B2 (en) Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium
JP2006279389A (en) Solid-state imaging apparatus and signal processing method thereof
JP2007295260A (en) Image processing method and digital camera
JP4529253B2 (en) Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium
JP4483048B2 (en) Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium
JP4695871B2 (en) Image processing apparatus and image processing method
JP4305744B2 (en) Signal processing apparatus, signal processing method, program, and recording medium
JP5007728B2 (en) Signal processing apparatus, signal processing method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110302

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110404

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees