JP4364657B2 - Pixel interpolation filter generation device and pixel interpolation device - Google Patents

Pixel interpolation filter generation device and pixel interpolation device Download PDF

Info

Publication number
JP4364657B2
JP4364657B2 JP2004019661A JP2004019661A JP4364657B2 JP 4364657 B2 JP4364657 B2 JP 4364657B2 JP 2004019661 A JP2004019661 A JP 2004019661A JP 2004019661 A JP2004019661 A JP 2004019661A JP 4364657 B2 JP4364657 B2 JP 4364657B2
Authority
JP
Japan
Prior art keywords
pixel
color
image
original image
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004019661A
Other languages
Japanese (ja)
Other versions
JP2005217592A (en
Inventor
弘 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2004019661A priority Critical patent/JP4364657B2/en
Publication of JP2005217592A publication Critical patent/JP2005217592A/en
Application granted granted Critical
Publication of JP4364657B2 publication Critical patent/JP4364657B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、画素補間技術に関する。   The present invention relates to a pixel interpolation technique.

CCD等の入力センサは、色フィルタアレイを通して受光した光を光電変換することによって、画像情報を入力する。ここで、単板式のCCDが用いられている場合、各画素について取得することのできる画像情報はいずれか1つの色成分についての情報のみである。たとえば、RGBベイヤ配列の色フィルタアレイが用いられた単板式のCCDの場合、入力センサが取得することのできる情報は、各画素について、R,G,Bのうち、いずれか1つの色成分の情報のみである。   An input sensor such as a CCD inputs image information by photoelectrically converting light received through the color filter array. Here, when a single-plate CCD is used, the image information that can be acquired for each pixel is only information about any one color component. For example, in the case of a single-plate CCD using an RGB Bayer array color filter array, the information that can be acquired by the input sensor is the color component of any one of R, G, and B for each pixel. Information only.

そこで、このような各画素が1つの色成分のみをもつ画像に対しては、画素補間処理が行われる。画素補間処理は、注目画素の周囲の画素から、注目画素の画像情報を推測するものである。例えば、注目画素がG成分の画像情報を持っている場合、注目画素のR成分、B成分の画像情報を周囲の画素から推測するのである。   Therefore, pixel interpolation processing is performed on an image in which each pixel has only one color component. In the pixel interpolation process, image information of a target pixel is estimated from pixels around the target pixel. For example, when the target pixel has G component image information, the R component and B component image information of the target pixel is estimated from surrounding pixels.

ここで、従来、注目画素の画像情報を補間する方法としては、線形フィルタを用いた方法が一般的に行われている。また、非線形フィルタが用いられる場合もあるが、非線形フィルタを用いる場合には、フィルタに用いられる各設定値(係数)を一般化することができないため、各設定値を個別に設定するなど、処理が煩雑であった。   Here, conventionally, as a method of interpolating the image information of the target pixel, a method using a linear filter is generally performed. In addition, a non-linear filter may be used, but when a non-linear filter is used, each set value (coefficient) used for the filter cannot be generalized. Was cumbersome.

特開2003−244715号公報JP 2003-244715 A

本願出願人により出願された上記特許文献1では、画像の局所特性に基づいた補間処理を行うことにより、従来の線形フィルタ等を用いた補間方法の問題点を解決している。しかし、局所特性に依存するため、適切な補間が行われない場合も発生する。   In the above-mentioned patent document 1 filed by the applicant of the present application, the problem of the interpolation method using a conventional linear filter or the like is solved by performing an interpolation process based on the local characteristics of the image. However, depending on the local characteristics, there are cases where appropriate interpolation is not performed.

そこで、本発明は前記問題点に鑑み、非線形フィルタを自動生成することにより、精度の高い補間処理を可能とした技術を提供する。   In view of the above problems, the present invention provides a technique that enables highly accurate interpolation processing by automatically generating a nonlinear filter.

請求項に記載の発明は、各画素が複数の色信号を備えるカラー画像を入力する手段と、前記カラー画像から、注目画素を含むブロック画像を抽出する手段と、前記ブロック画像の各画素について、所定の配列規則に従い、前記複数の色信号の中のいずれか1つの色信号を選択することにより、各画素が1つの色信号を備える擬似原画像を生成する原画像生成手段と、前記擬似原画像を学習信号とし、前記カラー画像において前記注目画素が備える全ての色信号のうち前記擬似原画像に存在しない色信号を教師信号として学習を行い、画素補間フィルタを生成する学習手段と、を備えることを特徴とする。 According to the first aspect of the present invention, means for inputting a color image in which each pixel includes a plurality of color signals, means for extracting a block image including a pixel of interest from the color image, and each pixel of the block image Original image generation means for generating a pseudo original image in which each pixel has one color signal by selecting any one of the plurality of color signals according to a predetermined arrangement rule; Learning means that uses an original image as a learning signal, performs learning using a color signal that does not exist in the pseudo original image among all color signals included in the pixel of interest in the color image as a teacher signal, and generates a pixel interpolation filter; It is characterized by providing.

請求項に記載の発明は、請求項1に記載の画素補間フィルタ生成装置において、前記原画像生成手段は、前記注目画素が備える前記複数の色信号に対応した複数パターンの擬似原画像を生成する手段、を含むことを特徴とする。 According to a second aspect of the present invention , in the pixel interpolation filter generation device according to the first aspect, the original image generation unit generates a plurality of patterns of pseudo original images corresponding to the plurality of color signals included in the target pixel. Means.

請求項に記載の発明は、請求項1または請求項のいずれかに記載の画素補間フィルタ生成装置において、前記学習手段は、誤差逆伝播法を用いたニューラルネットワーク、を含むことを特徴とする。 According to a third aspect of the present invention, in the pixel interpolation filter generation device according to the first or second aspect , the learning unit includes a neural network using an error back propagation method. To do.

請求項に記載の発明は、請求項ないし請求項のいずれかに記載の画素補間フィルタ生成装置において、前記注目画素は、前記擬似原画像の中心画素であることを特徴とする。 According to a fourth aspect of the invention, in the pixel interpolation filter generator according to any one of claims 1 to 3, wherein the pixel of interest is characterized in that the a center pixel of the pseudo original image.

請求項に記載の発明は、請求項ないし請求項のいずれかに記載の画素補間フィルタ生成装置において、前記注目画素は、前記擬似原画像に含まれる複数の画素群であることを特徴とする。 Invention according to claim 5, characterized in that in the pixel interpolating filter generator according to any one of claims 1 to 3, wherein the pixel of interest is a plurality of pixel groups contained in the pseudo original image And

請求項に記載の発明は、各画素が1つの色成分の信号を備える画像について、各画素に存在しない色成分の信号を補間する画素補間装置であって、各画素が1つの色成分の信号を備える原画像を入力する手段と、前記原画像からブロック原画像を抽出する手段と、前記ブロック原画像に対して、請求項ないし請求項のいずれかに記載の画素補間フィルタを作用させることにより、前記原画像の注目画素に存在しない色信号を補間する手段、を備えることを特徴とする。 The invention according to claim 6 is a pixel interpolating apparatus for interpolating a signal of a color component that does not exist in each pixel for an image in which each pixel has a signal of one color component, wherein each pixel has one color component. action means for inputting an original image with a signal, means for extracting the block original image from the original image, with respect to the block original image, a pixel interpolation filter according to any one of claims 1 to 5 Means for interpolating a color signal that does not exist in the target pixel of the original image.

本発明は、1画素が複数の色信号を備えるカラー画像を、学習画像および教師画像として利用することにより、自動的に色補間フィルタを生成することが可能である。これにより、様々な種類の画像を利用して色補間フィルタを自動生成することが可能となり、精度の高い色補間を行うことが可能である。   According to the present invention, it is possible to automatically generate a color interpolation filter by using a color image in which one pixel includes a plurality of color signals as a learning image and a teacher image. This makes it possible to automatically generate a color interpolation filter using various types of images, and to perform highly accurate color interpolation.

以下、図面を参照しつつ本発明の実施の形態について説明する。まず、本明細書で使用する用語の定義を行う。原画像(RAW画像)とは、1画素について1つの色成分の信号のみを備える画像を示す。そして、単板式のCCD等の入力センサから入力した原画像を入力原画像と呼ぶことにする。これに対して、完全画像とは、1画素について複数の色成分の信号を備える画像を示す。たとえば、RGB色空間の画像であれば、1画素についてR,G,Bの3つの色信号を備える画像が完全画像である。そして、逆に、完全画像から生成された原画像を擬似原画像と呼ぶことにする。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, terms used in this specification are defined. An original image (RAW image) indicates an image having only one color component signal for one pixel. An original image input from an input sensor such as a single-plate CCD is referred to as an input original image. On the other hand, a complete image indicates an image having a plurality of color component signals for one pixel. For example, in the case of an image in the RGB color space, an image having three color signals of R, G, and B for one pixel is a complete image. Conversely, the original image generated from the complete image is referred to as a pseudo original image.

{1.画素補間フィルタ生成処理}
図1は、本発明の実施の形態に係る画素補間フィルタ生成装置のブロック図である。画素補間フィルタ装置は、ブロック化手段1、擬似原画像生成手段2、学習手段3、誤差計算手段4を備えている。これら各手段1〜4は、本実施の形態では、ハードウェア回路で構成されているが、これら各手段の一部または全部がソフトウェアで構成されていてもよい。また、ブロック化手段1は、正規化手段10を備えている。
{1. Pixel interpolation filter generation processing}
FIG. 1 is a block diagram of a pixel interpolation filter generation apparatus according to an embodiment of the present invention. The pixel interpolation filter device includes a blocking unit 1, a pseudo original image generation unit 2, a learning unit 3, and an error calculation unit 4. Each of these means 1 to 4 is configured with a hardware circuit in the present embodiment, but a part or all of these means may be configured with software. The blocking unit 1 includes a normalizing unit 10.

まず、ブロック化手段1が、画像を入力する。この画像は、1画素についてR,G,Bの3つの色信号を備えた完全画像である。この完全画像は、非線形フィルタを生成するための学習画像としての役割と、教師信号としての役割とを持つ。したがって、完全画像としては、評価用標準画像を用いることが好ましい。   First, the blocking unit 1 inputs an image. This image is a complete image having three color signals of R, G, and B for one pixel. This complete image has a role as a learning image for generating a nonlinear filter and a role as a teacher signal. Therefore, it is preferable to use a standard image for evaluation as a complete image.

ブロック化手段1に入力された完全画像は、まず、正規化手段10において正規化処理される。完全画像が、たとえば、8ビット画像であれば、1画素の画像は0〜255までの整数で与えられることになるが、正規化手段10では、1画素の画像を0〜1の実数(たとえば、0.1〜0.9の範囲の実数)に正規化する。このような正規化処理を行うのは、後の学習工程において、精度の高い学習を行うためであり、ニューラルネットワークの特性による。   The complete image input to the blocking unit 1 is first normalized by the normalizing unit 10. If the complete image is an 8-bit image, for example, a 1-pixel image is given by an integer from 0 to 255, but the normalizing means 10 converts a 1-pixel image to a real number from 0 to 1 (for example, , A real number in the range of 0.1 to 0.9). Such a normalization process is performed in order to perform highly accurate learning in a later learning process, and depends on the characteristics of the neural network.

次に、正規化された完全画像は、ブロック化手段1において、例えば、図12に示すように中心画素P22を中心とした5×5の領域にブロック化される。図中、Pxyは、xを行番号、yを列番号とした場合に規定されるブロック領域内の各座標位置の画素を示している。したがって、完全画像から抽出されたブロック画像であれば、各画素Pxyは、それぞれR,G,Bの3つの色信号を備えている。 Next, the normalized complete image is blocked by the blocking unit 1 into, for example, a 5 × 5 region centered on the central pixel P 22 as shown in FIG. In the figure, P xy indicates a pixel at each coordinate position in a block area defined when x is a row number and y is a column number. Therefore, in the case of a block image extracted from a complete image, each pixel P xy has three color signals of R, G, and B, respectively.

次に、ブロック化された完全画像は擬似原画像生成手段2に入力され、各画素1つの色信号からなる擬似原画像(RAW画像)に変換される。擬似原画像とは、例えば、図13に示すように4画素(縦2画素×横2画素の領域)ごとにG信号が2つ、R信号、B信号はそれぞれ1つという一定の色配列の規則性を持ったベイヤ配列画像である。ここで、擬似原画像には、中心画素P22の色信号の選択方法によって図14に示すような4つの配列パターンD1〜D4が存在する。この4つの配列パターンD1〜D4からなる擬似原画像それぞれを学習画像と呼ぶことにする。 Next, the blocked complete image is input to the pseudo original image generating means 2 and converted into a pseudo original image (RAW image) composed of one color signal for each pixel. For example, as shown in FIG. 13, the pseudo original image has a fixed color arrangement of two G signals, one R signal, and one B signal for every four pixels (a region of 2 vertical pixels × 2 horizontal pixels). It is a Bayer array image having regularity. Here, the pseudo the original image, there are four array pattern D1~D4 as shown in FIG. 14 by the selection method of the color signal of the central pixel P 22. Each of the pseudo original images including the four arrangement patterns D1 to D4 is referred to as a learning image.

擬似原画像生成手段2において生成された学習画像は、次に、学習手段3に入力される。学習手段3は、図2に示すように、図14で示した4つの学習画像の配列パターンD1〜D4それぞれに対応する4つのニューラルネットワークNN1,NN2,NN3,NN4から構成される。そして、擬似原画像生成手段2から入力される学習画像の配列パターンD1〜D4の種別によってスイッチ31,32が切り替えられ、使用するネットワークが選択される。具体的には、図14で示した配列パターンD1がニューラルネットワークNN1に対応し、配列パターンD2がニューラルネットワークNN2に対応し、同様に、配列パターンD3,D4がニューラルネットワークNN3,NN4に対応している。   The learning image generated by the pseudo original image generation unit 2 is then input to the learning unit 3. As shown in FIG. 2, the learning means 3 includes four neural networks NN1, NN2, NN3, and NN4 corresponding to the four learning image arrangement patterns D1 to D4 shown in FIG. Then, the switches 31 and 32 are switched according to the type of the learning image array patterns D1 to D4 input from the pseudo original image generation means 2, and the network to be used is selected. Specifically, the array pattern D1 shown in FIG. 14 corresponds to the neural network NN1, the array pattern D2 corresponds to the neural network NN2, and similarly, the array patterns D3 and D4 correspond to the neural networks NN3 and NN4. Yes.

ニューラルネットワークNN1〜NN4のそれぞれは図3および図4に示すように、複数のノード33,33,・・・からなる複数の層で構成されている。ここで、ニューラルネットワークNN1〜NN4は、同様の構成であるので、ニューラルネットワークNNnとして共通の図面を用いて説明する。また、本発明では、ニューラルネットワークNNnの出力信号の数として2種類のパターンを想定する。そこで、出力信号が3つの信号であるニューラルネットワークNNnをニューラルネットワークNNnAとして図3に示す。一方、出力信号が2つの信号であるニューラルネットワークNNnをニューラルネットワークNNnBとして図4に示す。   Each of the neural networks NN1 to NN4 includes a plurality of layers including a plurality of nodes 33, 33,... As shown in FIGS. Here, since the neural networks NN1 to NN4 have the same configuration, the neural network NNn will be described with reference to a common drawing. In the present invention, two types of patterns are assumed as the number of output signals of the neural network NNn. Therefore, FIG. 3 shows a neural network NNn having three output signals as a neural network NNnA. On the other hand, a neural network NNn having two output signals is shown as a neural network NNnB in FIG.

ニューラルネットワークNNnAおよびNNnBの階層数、中間層のノード数などは特に限定されるものではなく、経験などに基づいて、回路規模と演算精度のバランスがとられるように構成されればよい。本実施の形態においては、ニューラルネットワークNNnAおよびNNnBは、いずれも4層のニューラルネットワークで構成されている。具体的には、擬似原画像の画素P00〜P44が入力される入力層と、出力信号S0,S1,S2(NNnBでは、S0,S1のみ)が出力される出力層と、入力層と出力層の間に階層される2つの中間層から構成されている。 The number of layers of the neural networks NNnA and NNnB, the number of nodes in the intermediate layer, and the like are not particularly limited, and may be configured to balance the circuit scale and the calculation accuracy based on experience and the like. In the present embodiment, each of the neural networks NNnA and NNnB is a four-layer neural network. Specifically, an input layer to which pixels P 00 to P 44 of the pseudo original image are input, and an output layer to which output signals S 0 , S 1 , S 2 (only S 0 , S 1 in NNnB) are output. And two intermediate layers hierarchized between the input layer and the output layer.

ここで、ニューラルネットワークNNnとしては、図3あるいは図4で示したいずれかを採用することとなるが、ニューラルネットワークNNnAを用いた場合には、出力信号を3つの信号とする場合と、2つの信号とする場合と両方に適用させることが可能である。以下、ニューラルネットワークNNnAおよびNNnBについて、共通の説明は、特に両者を区別せずにニューラルネットワークNNnとして説明する。   Here, as the neural network NNn, either one shown in FIG. 3 or FIG. 4 is adopted. However, when the neural network NNnA is used, there are two cases where the output signal is three signals. It is possible to apply both to the case of making a signal. Hereinafter, the neural network NNnA and NNnB will be described as the neural network NNn without particularly distinguishing both.

以上の構成において、スイッチ31,32の切り替えが行われ、使用するネットワークが選択されると、ニューラルネットワークNNnに、擬似原画像である5×5の学習画像が入力される。入力された学習画像は、ネットワークの入力層に入力される。   In the above configuration, when the switches 31 and 32 are switched and a network to be used is selected, a 5 × 5 learning image that is a pseudo original image is input to the neural network NNn. The input learning image is input to the input layer of the network.

ニューラルネットワークNNnの各ノード33は、図5に示すように、メモリ34と、複数の係数乗算器35,35,・・・、加算器36、ルックアップテーブル回路37を備えている。メモリ34には、画素補間フィルタを規定する重み付け係数w、バイアス値b、および、ノード33の出力信号Soutが格納される。また、後述するバックプロパゲーション(誤差逆伝播法)が実行された際には、修正された重み付け係数w、バイアス値b、および出力信号Soutを逐次更新して格納される。このような係数w,bや出力信号Soutは、各ノード33,33,・・・,33の各メモリ34にそれぞれ固有の値として格納される。そして、各ノード33においては、入力信号に対して、数1式および数2式で示す演算が行われる。 Each node 33 of the neural network NNn includes a memory 34, a plurality of coefficient multipliers 35, 35,..., An adder 36, and a lookup table circuit 37, as shown in FIG. The memory 34 stores a weighting coefficient w that defines a pixel interpolation filter, a bias value b, and an output signal S out of the node 33. In addition, when backpropagation (error back propagation method) described later is executed, the modified weighting coefficient w, bias value b, and output signal Sout are sequentially updated and stored. The coefficients w, b and the output signal S out are stored as unique values in the memories 34 of the nodes 33, 33,. In each node 33, the calculations shown in Equation 1 and Equation 2 are performed on the input signal.

Figure 0004364657
Figure 0004364657

Figure 0004364657
Figure 0004364657

まず、ノード33に、入力信号S1,S2,・・・,Smが入力されると、各入力信号S1,S2,・・・,Smに重み付け係数w1,w2,・・・,wmが乗算される。ここで、入力信号S1,S2,・・・,Smおよび重み付け係数w1,w2,・・・,wmの添え字は、前段の層のノード33,33,・・・33に付けられた番号であり、mは、前段の層のノード数を示している。また、係数w1,w2,・・・,wmは、予めランダムに決定された初期値がメモリ34に格納されている。なお、図3および図4においては、各ノード33のwには2つの添え字を付記している。このうち、後半の添え字は、上記と同様に、前段の層のノードに付けられた番号であり、前半の添え字は、自ノードが所属する層において自ノードに付けられた番号である。 First, the node 33, the input signal S 1, S 2, · · ·, the S m is entered, the input signal S 1, S 2, · · ·, weighting factor S m w 1, w 2, ..., w m is multiplied. Here, the subscripts of the input signals S 1 , S 2 ,..., S m and the weighting coefficients w 1 , w 2 ,..., W m are the nodes 33, 33,. Where m is the number of nodes in the previous layer. The coefficients w 1 , w 2 ,..., W m are stored in the memory 34 with initial values determined in advance at random. 3 and 4, two subscripts are appended to w of each node 33. Of these, the second half subscript is the number assigned to the node in the previous layer, as described above, and the first half subscript is the number assigned to the own node in the layer to which the own node belongs.

次に、各乗算結果の出力が加算器36において加算される。ここまでの計算結果が、数1式におけるΣwi・Siに対応する。さらに、加算器36においては、バイアス値bが加算される。このバイアス値bも初期値が予めランダムに選択されてメモリ34に格納されている。ここまでの計算結果が数1式における(b+Σwi・Si)に対応する。 Next, the output of each multiplication result is added in the adder 36. The calculation results so far correspond to Σw i · S i in Equation (1). Further, the adder 36 adds the bias value b. An initial value of this bias value b is also randomly selected in advance and stored in the memory 34. The calculation results so far correspond to (b + Σw i · S i ) in Equation (1).

次に、LUT回路37において、sigmoid関数に基づく演算が行われる。Sigmoid関数は、数2式に示すような関数であり、図6に示す入出力関係を持つ関数である。このような関数演算を直接実行するようにしてもよいが、ここでは、演算の高速化を図るために、予め入出力関係をテーブル化した情報を用意し、LUT回路37に入力された入力信号に対して、対応する出力信号を出力するようにしている。この計算結果が数1式に対応する。   Next, the LUT circuit 37 performs an operation based on the sigmoid function. The Sigmoid function is a function as shown in Formula 2, and is a function having an input / output relationship shown in FIG. Such a function operation may be directly executed, but here, in order to speed up the operation, information in which input / output relations are tabulated in advance is prepared, and an input signal input to the LUT circuit 37 is prepared. On the other hand, a corresponding output signal is output. This calculation result corresponds to Equation 1.

このようにして計算された各ノード33の出力信号Soutは結合した後段の層のノード33への入力信号となる。このような演算が、2つの中間層、出力層でも同様に実行される。そして、出力層より出力される3つ(あるいは2つ)の出力信号Soutが、ニューラルネットワークNNnの出力信号S0,S1,S2(あるいはS0,S1)である。つまり、ニューラルネットワークNNnAを使用している場合には、出力信号S0,S1,S2が出力される。ニューラルネットワークNNnBを使用している場合には、出力信号S0,S1が出力される。また、各ノード33が出力した出力信号Soutは各ノード33のメモリ34に格納される。 The output signal S out of each node 33 calculated in this way becomes an input signal to the node 33 of the subsequent layer after the combination. Such an operation is similarly executed in the two intermediate layers and the output layer. The three (or two) output signals S out output from the output layer are the output signals S 0 , S 1 , S 2 (or S 0 , S 1 ) of the neural network NNn. That is, when the neural network NNnA is used, output signals S 0 , S 1 , S 2 are output. When the neural network NNnB is used, output signals S 0 and S 1 are output. The output signal S out output from each node 33 is stored in the memory 34 of each node 33.

図1において、ニューラルネットワークNNnの出力層のノード33の出力信号S0,S1,(S2)は誤差計算手段4に入力される。また、誤差計算手段4には、ブロック化手段1が出力した教師信号(R22,G22,B22)が入力される。この教師信号は、完全画像が保持していた注目画素(ここでは中心画素P22)の画像情報であり、R,G,Bの3つの色信号である。そして、学習手段3が出力した出力信号S0,S1,S2(あるいはS0,S1)と、ブロック化手段1の出力である教師信号との間で誤差信号が計算される。 In FIG. 1, output signals S 0 , S 1 , (S 2 ) of the node 33 of the output layer of the neural network NNn are input to the error calculation means 4. The error calculation means 4 receives the teacher signals (R 22 , G 22 , B 22 ) output from the blocking means 1. This teacher signal is image information of the target pixel (here, the central pixel P 22 ) held in the complete image, and is three color signals of R, G, and B. Then, an error signal is calculated between the output signals S 0 , S 1 , S 2 (or S 0 , S 1 ) output from the learning unit 3 and the teacher signal output from the blocking unit 1.

誤差計算手段4において、誤差計算が行われると、誤差信号が学習手段3に出力される。そして、学習手段3では、入力した誤差信号に基づいてバックプロパゲ−ションが行われ、各ノード33の重み付け係数wとバイアス値bの値の修正処理が行われる。つまり、バックプロバケーションを行う際には、各ノード33のメモリ34に格納されている重み付け係数w、バイアス値bおよび出力信号Soutが参照され、修正後の値が更新される。そして、重み付け係数wとバイアス値bの修正後、再度、出力信号S0,S1,(S2)が出力され、誤差計算が行われる。そして、このような処理を繰り返して行い、誤差が収束した場合、あるいは、所定の閾値を下回った場合に処理を終了する。 When the error calculation unit 4 performs error calculation, an error signal is output to the learning unit 3. Then, the learning means 3 performs backpropagation based on the input error signal, and corrects the weighting coefficient w and bias value b of each node 33. That is, when performing back pro vacation, coefficient weighting stored in the memory 34 the nodes 33 w, bias value b and the output signal S out is referred to, the value after correction is updated. Then, after correcting the weighting coefficient w and the bias value b, the output signals S 0 , S 1 , (S 2 ) are output again, and error calculation is performed. Such processing is repeated, and the processing is terminated when the error has converged, or when the error falls below a predetermined threshold.

このようにして、誤差が収束した時点において、各ニューラルネットワークNNnにおけるノード33は、最終的に修正された重み付け係数wとバイアス値bの値をメモリ34に格納しておく。これにより、各ノード33に重み付けwとバイアス値bが設定された画素補間フィルタが自動生成されるのである。   Thus, when the error converges, the node 33 in each neural network NNn stores the finally corrected weighting coefficient w and bias value b in the memory 34. Thereby, a pixel interpolation filter in which the weight w and the bias value b are set for each node 33 is automatically generated.

次に、以上の処理を、具体例を上げて説明する。   Next, the above process will be described with a specific example.

<学習方法1>
入力信号としては、中心画素P22を中心とした5×5のブロック領域のベイヤ配列の擬似原画像を用いる。教師信号としては、中心画素P22が完全画像において保持していたR,G,Bのすべての色信号(R22,G22,B22)を用いる。ニューラルネットワークNNnとしては、3つの出力信号S0,S1,S2を出力するニューラルネットワークNNnAを用いる。つまり、各ニューラルネットワークNN1A〜NN4Aの入力層に必要なノード数は25個であり、出力層に必要なノード数は3個である。
<Learning method 1>
As an input signal, a pseudo original image having a Bayer array of a 5 × 5 block area centered on the center pixel P 22 is used. As the teacher signal, all the R, G, and B color signals (R 22 , G 22 , B 22 ) held in the complete image by the central pixel P 22 are used. As the neural network NNn, a neural network NNnA that outputs three output signals S 0 , S 1 , S 2 is used. That is, the number of nodes required for the input layer of each of the neural networks NN1A to NN4A is 25, and the number of nodes required for the output layer is three.

以上の設定で、バックプロパゲ−ションにより重み付け係数wとバイアス値bの学習を行う。学習手段3からの出力信号S0,S1,S2と教師信号R22,G22,B22の間で誤差を計算し、それぞれの誤差が収束する、あるいは、誤差が所定の閾値を下回るまで繰り返し処理を行い、条件を満たせば学習を終了する。 With the above settings, the weighting coefficient w and the bias value b are learned by backpropagation. An error is calculated between the output signals S 0 , S 1 , S 2 from the learning means 3 and the teacher signals R 22 , G 22 , B 22 , and each error converges or the error falls below a predetermined threshold value. Until the condition is satisfied, the learning is terminated.

このような学習を1つ、あるいは複数の完全画像の一部領域あるいは全領域について複数回繰り返し行い、1回学習セットの学習で得られた誤差信号の累積値が収束したとき学習工程を終了する。   Such learning is repeated one or more times for a partial region or all regions of a plurality of complete images, and the learning process is terminated when the accumulated value of the error signal obtained by learning of one learning set converges. .

<学習方法2>
入力信号として、中心画素P22を中心とした5×5画素ブロック領域のベイヤ配列の擬似原画像を用いる。教師信号としては、中心画素P22が完全画像において保持していたR,G,Bの3色信号(R22,G22,B22)のうち擬似原画像の中心画素P22が備えている色信号以外の信号を採用する。
<Learning method 2>
As an input signal, a pseudo original image having a Bayer array of a 5 × 5 pixel block area centered on the center pixel P 22 is used. The teacher signal, R center pixel P 22 is retained in a fully image, G, the center pixel P 22 of the pseudo original images of the three color signals of B (R 22, G 22, B 22) is provided with Use signals other than color signals.

つまり、
配列パターンがD1のとき、この擬似原画像の中心画素P22はG信号であるので、これ以外のR22,B22を教師信号とし、
配列パターンがD2のとき、この擬似原画像の中心画素P22はR信号であるので、これ以外のG22,B22を教師信号とし、
配列パターンがD3のとき、この擬似原画像の中心画素P22はB信号であるので、これ以外のG22,R22を教師信号とし、
配列パターンがD4のとき、この擬似原画像の中心画素P22はG信号であるので、これ以外のR22,B22を教師信号とする。
In other words,
When the arrangement pattern is D1, since the central pixel P 22 of the pseudo original image is a G signal, the other R 22 and B 22 are used as teacher signals,
When the arrangement pattern is D2, the center pixel P 22 of the pseudo original image since it is the R signal, the G 22, B 22 other than this is a teacher signal,
When the arrangement pattern is D3, the central pixel P 22 of the pseudo original image since it is the B signal, which G 22, R 22 other than the teacher signal,
When the arrangement pattern is D4, the center pixel P 22 of the pseudo original image because the G signal, and the teacher signal R 22, B 22 other than this.

ニューラルネットワークNNnとしては、2つの出力信号S0,S1を出力するニューラルネットワークNNnBを用いる。つまり、各ニューラルネットワークNN1B〜NN4Bの入力層に必要なノード数は25個であり、出力層に必要なノード数は2個である。 As the neural network NNn, a neural network NNnB that outputs two output signals S 0 and S 1 is used. That is, the number of nodes required for the input layer of each neural network NN1B to NN4B is 25, and the number of nodes required for the output layer is two.

以上の設定で、バックプロパゲ−ションにより重み付け係数wとバイアス値bの学習を行う。学習手段3からの出力信号S0,S1と教師信号R22,G22,B22のうちのいずれか2つの信号の間で誤差を計算し、誤差が収束、あるいは所定の閾値を下回るまで繰り返し処理を行い、条件を満たせば学習を終了する。 With the above settings, the weighting coefficient w and the bias value b are learned by backpropagation. An error is calculated between any two of the output signals S 0 , S 1 and the teacher signals R 22 , G 22 , B 22 from the learning means 3 until the error converges or falls below a predetermined threshold value. The process is repeated and learning is completed when the condition is satisfied.

このような学習を1つ、あるいは複数の完全画像の一部領域あるいは全領域について複数回繰り返し行い、1回学習セットの学習で得られた誤差信号の累積値が収束したとき学習工程を終了する。   Such learning is repeated one or more times for a partial region or all regions of a plurality of complete images, and the learning process is terminated when the accumulated value of the error signal obtained by learning of one learning set converges. .

なお、上記学習方法1および学習方法2において、学習に用いる擬似原画像は、一つの中心画素P22について1種類の配列パターンを用いてもよいし、あるいは図14で示した4種類全部の配列パターンを用いるようにしてもよい。この場合には、1つの中心画素P22について4つのニューラルネットワークNN1〜NN4が1回ずつ学習されることになる。 In the learning method 1 and the learning method 2 described above, the pseudo original image used for learning may use one type of arrangement pattern for one central pixel P 22 , or all four types of arrangements shown in FIG. A pattern may be used. In this case, the for one of the center pixel P 22 is four neural networks NN1~NN4 be learned once.

{2.画素補間処理}
次に、上記処理によって生成された非線形フィルタである画素補間フィルタを利用した画素補間処理について説明する。図7は、画素補間装置のブロック図である。画素補間装置は、ブロック化手段5と色補間手段6とを備えている。これら各手段5,6は、本実施の形態では、ハードウェア回路で構成されているが、これら各手段の一部または全部がソフトウェアで構成されていてもよい。また、ブロック化手段5は、正規化手段50を備え、色補間手段6は、逆正規化手段60を備えている。
{2. Pixel interpolation processing}
Next, pixel interpolation processing using a pixel interpolation filter that is a nonlinear filter generated by the above processing will be described. FIG. 7 is a block diagram of the pixel interpolation device. The pixel interpolating apparatus includes a blocking unit 5 and a color interpolating unit 6. Each of these means 5 and 6 is constituted by a hardware circuit in the present embodiment, but a part or all of these means may be constituted by software. The blocking unit 5 includes a normalizing unit 50, and the color interpolation unit 6 includes a denormalizing unit 60.

まず、ブロック化手段5が、画像を入力する。この画像は、1画素についてR,G,Bのうち、いずれか1つの色信号を備えたベイヤ配列の原画像である。この原画像は、例えば、単板式のCCD等の入力センサから出力された原画像であり、上述したように入力原画像と呼ぶ。   First, the blocking unit 5 inputs an image. This image is an original image of a Bayer array that includes any one of R, G, and B color signals for one pixel. This original image is an original image output from an input sensor such as a single-plate CCD, for example, and is referred to as an input original image as described above.

ブロック化手段5に入力された入力原画像は、まず、正規化手段50によって正規化処理が行われる。入力原画像が、たとえば、8ビット画像であれば、1画素の画像は0〜255までの整数で与えられることになるが、正規化手段50では、1画素の画像を0〜1の実数(たとえば、0.1〜0.9の範囲の実数)に正規化する。このような正規化処理を行うのは、学習手段3において用いられた学習画像(正規化された画像)の画像情報に適合させるためである。   The input original image input to the blocking unit 5 is first normalized by the normalizing unit 50. For example, if the input original image is an 8-bit image, one pixel image is given as an integer from 0 to 255, but the normalizing means 50 converts one pixel image to a real number from 0 to 1 ( For example, it is normalized to a real number in the range of 0.1 to 0.9. The reason why such normalization processing is performed is to match the image information of the learning image (normalized image) used in the learning unit 3.

次に、正規化された入力原画像は、ブロック化手段5において、ブロック化される。このブロック領域は、図12に示したものと同様に、中心画素P22を中心とした5×5画素の領域である。ただし、入力原画像から抽出されたブロック画像であるので、各画素Pxyは、R,G,Bのうちいずれか1つの色信号のみを備えている。 Next, the normalized input original image is blocked by the blocking unit 5. This block area is a 5 × 5 pixel area centered on the central pixel P 22 as in the case shown in FIG. However, since it is a block image extracted from the input original image, each pixel P xy includes only one color signal of R, G, and B.

次に、ブロック化された入力原画像は色補間手段6に入力される。そして、ブロック化された入力原画像の注目画素について色補間処理が行われる。ここでは、ブロック画像の中心画像P22を注目画素として色補間処理を行う。 Next, the blocked input original image is input to the color interpolation means 6. Then, color interpolation processing is performed on the target pixel of the input original image that has been blocked. Here, a color interpolation processing as the target pixel centered image P 22 of the block image.

色補間手段6の処理内容について説明する。以下に示すように、色補間手段6として、図8から図11に示す4つの実施の形態を説明する。   The processing contents of the color interpolation means 6 will be described. As shown below, four embodiments shown in FIGS. 8 to 11 will be described as the color interpolation means 6.

<色補間手段6A>
色補間手段6Aは、図8に示すように、学習手段3を備えている。この学習手段3は、上述した学習工程で既に学習が終了し、各ノード33に適切な重み付け係数wとバイアス値bが設定された状態となっている。
<Color interpolation means 6A>
The color interpolation unit 6A includes a learning unit 3 as shown in FIG. The learning means 3 has already been learned in the learning process described above, and is in a state in which an appropriate weighting coefficient w and bias value b are set for each node 33.

ブロック化された入力原画像は、25個の画素列として色補間手段6Aに入力される。そして、25個の画素列とともに、この入力原画像の配列パターンを指定した信号が学習手段3に入力される。配列パターンを指定した信号とは、図14で示した配列パターンD1〜D4のいずれかを指定する信号である。つまり、ブロック化された入力原画像が、どの配列パターンに属するものであるかを指定する信号である。   The blocked input original image is input to the color interpolation means 6A as 25 pixel columns. Then, together with the 25 pixel columns, a signal designating the array pattern of the input original image is input to the learning means 3. The signal designating the arrangement pattern is a signal designating any of the arrangement patterns D1 to D4 shown in FIG. In other words, this is a signal that designates to which array pattern the input original image that has been blocked belongs.

色補間手段6Aの学習手段3では、入力した配列パターン信号に従って、スイッチ31,32が切り替えられ、学習工程と同様に配列パターンに応じたニューラルネットワークNNnが選択接続される。   In the learning means 3 of the color interpolation means 6A, the switches 31 and 32 are switched according to the input array pattern signal, and the neural network NNn corresponding to the array pattern is selectively connected in the same manner as in the learning process.

一方、入力された入力原画像は各層の各ノード33において数1式で表される演算が行われ、ニューラルネットワークNNnの出力層のノード33の出力信号として、入力原画像に存在しない補間された2つの色信号が出力される。つまり、ネットワークとしてニューラルネットワークNNnBを利用することができる。この図8で示した実施の形態では、入力原画像の中心画素P22に対応する色成分については色補間処理は行われず中心画素P22の画素値をそのまま採用する。 On the other hand, the input original image is subjected to the calculation expressed by Equation 1 at each node 33 in each layer, and is interpolated as an output signal of the node 33 in the output layer of the neural network NNn, which does not exist in the input original image. Two color signals are output. That is, the neural network NNnB can be used as the network. In the embodiment shown in FIG. 8, the color component corresponding to the center pixel P 22 of the input original image is not subjected to the color interpolation process, and the pixel value of the center pixel P 22 is used as it is.

つまり、
配列パターンがD1のとき、G22は、入力原画像の中心画素P22の信号値を採用し、R22およびB22は補間された信号値を採用し、
配列パターンがD2のとき、R22は、入力原画像の中心画素P22の信号値を採用し、G22およびB22は補間された信号値を採用し、
配列パターンがD3のとき、B22は、入力原画像の中心画素P22の信号値を採用し、G22およびR22は補間された信号値を採用し、
配列パターンがD4のとき、G22は、入力原画像の中心画素P22の信号値を採用し、R22およびB22は補間された信号値を採用する。
In other words,
When the arrangement pattern is D1, G 22 adopts the signal value of the center pixel P 22 of the input original image, R 22 and B 22 adopt the interpolated signal value,
When the arrangement pattern is D2, R 22 adopts the signal value of the center pixel P 22 of the input original image, G 22 and B 22 adopt the interpolated signal value,
When the arrangement pattern is D3, B 22 adopts the signal value of the center pixel P 22 of the input original image, G 22 and R 22 adopt the interpolated signal value,
When the arrangement pattern is D4, G 22 employs a signal value of the central pixel P 22 of the input original image, R 22 and B 22 employs a signal value interpolated.

このようにして、注目画素について、R,G,Bの3色信号が生成され、色補間処理が行われたことになる。そして、このような補間処理を、全ての画素について実行する。つまり、入力原画像の中で注目画素を移動させつつ、各注目画素について色補間処理を実行するのである。これにより、図15で示したように、入力原画像の全ての画素について、R,G,Bの全ての色信号が補間され、完全画像が生成される。   In this way, R, G, and B color signals are generated for the target pixel, and color interpolation processing is performed. Then, such interpolation processing is executed for all pixels. That is, the color interpolation process is executed for each target pixel while moving the target pixel in the input original image. As a result, as shown in FIG. 15, for all the pixels of the input original image, all the R, G, B color signals are interpolated to generate a complete image.

<色補間手段6B>
色補間手段6Bは、図9に示すように、学習手段3を備えている。色補間手段6Bについては、色補間手段6Aと異なる部分のみ説明する。
<Color interpolation means 6B>
The color interpolation unit 6B includes a learning unit 3 as shown in FIG. As for the color interpolation means 6B, only the parts different from the color interpolation means 6A will be described.

色補間手段6Bでは、ニューラルネットワークNNnの出力層のノード33の出力信号として、R,G,B全ての3つの色信号が出力される。つまり、ネットワークとしてニューラルネットワークNNnAを採用している。この実施の形態では、入力原画像の中心画素P22に対応する色成分についても色補間処理を行い、中心画素P22については、全て色補間後の画素値を採用するのである。つまり、配列パターンの種別によらず、G22、R22およびB22は全て補間された信号値を採用する。 The color interpolation means 6B outputs all three color signals of R, G and B as output signals of the node 33 in the output layer of the neural network NNn. That is, the neural network NNnA is adopted as the network. In this embodiment performs color interpolation processing for the color component corresponding to the central pixel P 22 of the input original image, the center pixel P 22, is to employ the pixel value after all color interpolation. That is, G 22 , R 22 and B 22 all adopt interpolated signal values regardless of the type of array pattern.

そして、同様に、このような補間処理を、全ての画素について実行する。つまり、入力原画像の中で注目画素を移動させつつ、各注目画素について色補間処理を実行するのである。これにより、図15で示したように、入力原画像の全ての画素について、R,G,Bの全ての色信号が補間され、完全画像が生成される。   Similarly, such interpolation processing is executed for all pixels. That is, the color interpolation process is executed for each target pixel while moving the target pixel in the input original image. As a result, as shown in FIG. 15, for all the pixels of the input original image, all the R, G, B color signals are interpolated to generate a complete image.

<色補間手段6C>
色補間手段6Cは、図10に示すように、学習手段3を備えている。色補間手段6Cについても、色補間手段6Aと異なる部分のみ説明する。
<Color interpolation means 6C>
The color interpolation unit 6C includes a learning unit 3 as shown in FIG. Regarding the color interpolation means 6C, only the parts different from the color interpolation means 6A will be described.

色補間手段6Cにおいて、ニューラルネットワークNNnの出力層のノード33からは、出力信号として、R,G,B全ての3つの色信号が出力される。つまり、ネットワークとしてニューラルネットワークNNnAを採用している。また、図に示すように、入力原画像の中心画素P22が保持していた画素値と、学習手段3から出力された中心画素P22と同色画素の画素値とのうち、いずれか一方を出力するためのスイッチ51が設けられている。この実施の形態では、入力原画像の注目画素である中心画素P22があらかじめ保持していた色成分についても色補間処理を行う。そして、中心画素P22が保持していなかった色成分の信号については、色補間後の画素値を採用し、中心画素P22があらかじめ保持していた色成分の信号については、保持していた信号値と補間処理後の信号値のいずれかを採用するようにしているのである。 In the color interpolation means 6C, the three color signals R, G and B are output as output signals from the node 33 in the output layer of the neural network NNn. That is, the neural network NNnA is adopted as the network. Further, as shown in the figure, either one of the pixel value held by the center pixel P 22 of the input original image and the pixel value of the same color pixel as the center pixel P 22 output from the learning means 3 is obtained. A switch 51 for outputting is provided. In this embodiment, the color interpolation process is also performed for the color component held in advance by the center pixel P 22 which is the target pixel of the input original image. For the color component signal that was not held by the center pixel P 22, the pixel value after color interpolation was adopted, and the color component signal that was previously held by the center pixel P 22 was held. Either the signal value or the signal value after the interpolation processing is adopted.

そして、同様に、このような補間処理を、全ての画素について実行する。つまり、入力原画像の中で注目画素を移動させつつ、各注目画素について色補間処理を実行するのである。これにより、入力原画像の全ての画素について、R,G,Bの全ての色信号が補間され、完全画像が生成される。   Similarly, such interpolation processing is executed for all pixels. That is, the color interpolation process is executed for each target pixel while moving the target pixel in the input original image. Thereby, for all the pixels of the input original image, all the color signals of R, G, B are interpolated to generate a complete image.

<色補間手段6D>
色補間手段6Dは、図11に示すように、学習手段3を備えている。色補間手段6Dについても、色補間手段6Aと異なる部分のみ説明する。
<Color interpolation means 6D>
The color interpolation unit 6D includes a learning unit 3 as shown in FIG. Regarding the color interpolation means 6D, only the parts different from the color interpolation means 6A will be described.

色補間手段6Dにおいて、ニューラルネットワークNNnの出力層のノード33からは、出力信号として、R,G,B全ての3つの色信号が出力される。つまり、ネットワークとしてニューラルネットワークNNnAを採用している。   In the color interpolation means 6D, the output layer node 33 of the neural network NNn outputs all three color signals of R, G and B as output signals. That is, the neural network NNnA is adopted as the network.

また、図に示すように、入力原画像の中心画素P22が保持していた画素値と、学習手段3から出力された中心画素P22と同色画素の画素値とを混合するための混合手段52が設けられている。この実施の形態では、入力原画像の注目画素である中心画素P22が保持していた色成分についても色補間処理を行う。そして、中心画素P22が保持していなかった色成分の信号については、色補間後の画素値を採用する。そして、中心画素P22が保持していた色成分の信号については、保持していた信号値と補間処理後の信号値を混合した色信号を採用するのである。たとえば、混合比率kが与えられ、補間処理によって生成された画素値にkを乗算し、入力原画像が備えていた中心画素P22の画素値に1−kを乗算する。そして、これらの乗算値を加算した結果を採用するのである。 Further, as shown in the figure, the mixing means for mixing the pixel value held by the center pixel P 22 of the input original image and the pixel value of the same color pixel as the center pixel P 22 output from the learning means 3. 52 is provided. In this embodiment, the color interpolation processing is also performed on the color component held by the center pixel P 22 which is the target pixel of the input original image. And, for the signal of the color component in which the center pixel P 22 did not hold, to adopt a pixel value after color interpolation. For the color component signal held by the center pixel P 22, a color signal obtained by mixing the held signal value and the signal value after interpolation processing is employed. For example, the mixing ratio k is given, the pixel value generated by the interpolation process is multiplied by k, and the pixel value of the central pixel P 22 included in the input original image is multiplied by 1-k. Then, the result of adding these multiplication values is adopted.

そして、同様に、このような補間処理を、全ての画素について実行する。つまり、入力原画像の中で注目画素を移動させつつ、各注目画素について色補間処理を実行するのである。これにより、入力原画像の全ての画素について、R,G,Bの全ての色信号が補間され、完全画像が生成される。   Similarly, such interpolation processing is executed for all pixels. That is, the color interpolation process is executed for each target pixel while moving the target pixel in the input original image. Thereby, for all the pixels of the input original image, all the color signals of R, G, B are interpolated to generate a complete image.

以上のように、色補間手段6Aから6Dにおいて色補間処理が実行されると、逆正規化手段60において、R,G,Bの各信号値が、所定のビット幅の信号に変換される。たとえば、1画素8ビットの画像を出力するのであれば、各画素値は0〜255の整数に変換される。   As described above, when the color interpolation processing is executed in the color interpolation means 6A to 6D, the R, G, B signal values are converted into signals of a predetermined bit width in the inverse normalization means 60. For example, if an image of 8 bits per pixel is output, each pixel value is converted to an integer from 0 to 255.

{3.変形例}
上記各実施の形態においては、注目画素は1画素である場合を例に説明した。すなわち、完全画像から擬似原画像を生成した後、擬似原画像の中心画素P22を注目画素として学習工程を行った。そして、画素補間工程においても、中心画素P22を注目画素として補間処理を行った。
{3. Modification}
In each of the above embodiments, the case where the target pixel is one pixel has been described as an example. That is, after the pseudo original image is generated from the complete image, the learning process is performed using the central pixel P 22 of the pseudo original image as the target pixel. In the pixel interpolation process, interpolation processing is performed using the center pixel P 22 as a target pixel.

図16で示す変形例は、注目画素が複数の画素で構成される。ここでは、図中の領域S内の9つの画素を注目画素とするものである。この場合にも、上述した実施の形態と同様の処理で、色補間フィルタを生成するとともに、色補間処理を実行することが可能である。なお、図で示す7×7画素のブロックは、擬似原画像として、あるいは、入力原画像として以下の説明で用いる。   In the modification shown in FIG. 16, the target pixel is composed of a plurality of pixels. Here, nine pixels in the region S in the figure are the target pixels. Also in this case, it is possible to generate a color interpolation filter and execute a color interpolation process by the same process as in the above-described embodiment. The 7 × 7 pixel block shown in the figure is used in the following description as a pseudo original image or as an input original image.

図3および図4で示したニューラルネットワークNNnは、出力信号として3個、あるいは、2個の信号を出力可能である。これに対して、図16で示す9個の画素を注目画素とする色補間フィルタを生成するためには、出力信号として27個、あるいは、18個の信号を出力可能なニューラルネットワークNNnを用いればよい。つまり、擬似原画像の領域S内の9個の注目画素が保持している画素値も含めて全ての色成分の信号を教師信号として、色補間フィルタを生成する場合であれば、1画素につき3個の色信号、つまり、27個の出力信号が必要である。色補間処理を行う場合も、同様に、入力原画像の領域S内の9個の注目画素について、全ての色成分の信号値を補間処理後の画素値で置き換える場合には、27個の出力信号を必要とする。あるいは、図10、図11で示したように、原画像の信号値と補間後の信号値の両方を必要とする場合にも、27個の出力信号を必要とする。   The neural network NNn shown in FIG. 3 and FIG. 4 can output three or two signals as output signals. On the other hand, in order to generate the color interpolation filter having the nine pixels shown in FIG. 16 as the target pixel, a neural network NNn capable of outputting 27 or 18 signals as output signals is used. Good. In other words, if a color interpolation filter is to be generated using all the color component signals including the pixel values held by the nine target pixels in the region S of the pseudo-original image as a teacher signal, per pixel. Three color signals, that is, 27 output signals are required. Similarly, in the case of performing color interpolation processing, for the nine target pixels in the area S of the input original image, when the signal values of all the color components are replaced with the pixel values after the interpolation processing, 27 outputs are performed. Requires a signal. Alternatively, as shown in FIGS. 10 and 11, even when both the signal value of the original image and the signal value after interpolation are required, 27 output signals are required.

そして、図で示したように、7×7画素のブロック領域を学習画像とし、27個の出力信号を出力する画素補間フィルタを生成するためには、ニューラルネットワークは、入力層として49個のノード備え、出力層として27個のノードを備えるものを用いればよい。そして、中間層の数、あるいは、中間層のノード数は、補間精度および回路規模のバランスをとりながら最適なものを選択すればよい。   Then, as shown in the figure, in order to generate a pixel interpolation filter that uses a block area of 7 × 7 pixels as a learning image and outputs 27 output signals, the neural network has 49 nodes as input layers. Provided, and an output layer having 27 nodes may be used. The number of intermediate layers or the number of nodes in the intermediate layer may be selected optimally while balancing interpolation accuracy and circuit scale.

これに対して、擬似原画像の領域S内の9個の注目画素が保持している画素値は、そのまま、その画素値を採用し、それ以外の色成分の信号のみを教師信号として、色補間フィルタを生成する場合であれば、1画素につき2個の色信号、つまり、18個の出力信号が必要である。色補間処理を行う場合も、同様に、入力原画像の領域S内の9個の注目画素について、2つの色成分の信号値を補間処理後の画素値で置き換える場合には、18個の出力信号を必要とする。   On the other hand, the pixel values held by the nine target pixels in the area S of the pseudo original image are used as they are, and only the signals of the other color components are used as teacher signals. In the case of generating an interpolation filter, two color signals, that is, 18 output signals are required for each pixel. Similarly, when color interpolation processing is performed, when the signal values of two color components are replaced with pixel values after interpolation processing for nine target pixels in the area S of the input original image, 18 outputs are output. Requires a signal.

そして、7×7画素のブロック領域を学習画像とし、18個の出力信号を出力する画素補間フィルタを生成するためには、ニューラルネットワークは、入力層として49個のノード備え、出力層として18個のノードを備えるものを用いればよい。そして、中間層の数、あるいは、中間層のノード数は、最適なものを選択すればよい。   In order to generate a pixel interpolation filter that uses a block area of 7 × 7 pixels as a learning image and outputs 18 output signals, the neural network includes 49 nodes as an input layer and 18 as an output layer. What has this node may be used. Then, the optimum number of intermediate layers or intermediate nodes may be selected.

{その他}
上記実施の形態では画像(完全画像、原画像等)はRGBの3つの色成分からなるものについての説明を行ったが、本発明の画素補間フィルタ生成装置および画素補間装置は、これに限らず、例えばシアン、マゼンタ、イエロー、グリーンの4つの色成分からなる表色系、あるいはグリーン、レッド、ブルー、エメラルドの4つの色成分からなる表色系、あるいは、他の4つあるいは4つ以上の色成分をもった表色系の画像についても同様に処理可能である。
{Others}
In the above embodiment, description has been made on an image (complete image, original image, etc.) composed of three color components of RGB. However, the pixel interpolation filter generation device and the pixel interpolation device of the present invention are not limited to this. For example, a color system composed of four color components of cyan, magenta, yellow, and green, or a color system composed of four color components of green, red, blue, and emerald, or other four or more than four A color system image having color components can be similarly processed.

また、配列パターンはベイヤ配列方式に限らず、インターライン方式、ストライプ方式あるいはハニカム配列など、一定の規則性をもった配列パターンであればどんな原画像であっても適用可能である。   Further, the arrangement pattern is not limited to the Bayer arrangement method, and any original image can be applied as long as the arrangement pattern has a certain regularity such as an interline method, a stripe method, or a honeycomb arrangement.

また、上記実施例の説明においては学習画像を5×5のブロック化された画素領域、あるいは、7×7のブロック化された画素領域としたが、学習画像はこれに限らず、任意の大きさ、任意の形状をもった領域の画像信号を用いることも可能である。   In the description of the above embodiment, the learning image is a 5 × 5 block pixel area or a 7 × 7 block pixel area. However, the learning image is not limited to this, and the learning image is arbitrarily large. It is also possible to use an image signal of an area having an arbitrary shape.

画素補間フィルタ生成装置のブロック図である。It is a block diagram of a pixel interpolation filter generation device. 学習手段のブロック図である。It is a block diagram of a learning means. ニューラルネットワークのブロック図である。It is a block diagram of a neural network. ニューラルネットワークのブロック図である。It is a block diagram of a neural network. ニューラルネットワークが備える各ノードのブロック図である。It is a block diagram of each node with which a neural network is provided. 各ノードが備えるLUTの入出力関係を示す図である。It is a figure which shows the input / output relationship of LUT with which each node is provided. 色補間装置のブロック図である。It is a block diagram of a color interpolation apparatus. 色補間手段のブロック図である。It is a block diagram of a color interpolation means. 色補間手段のブロック図である。It is a block diagram of a color interpolation means. 色補間手段のブロック図である。It is a block diagram of a color interpolation means. 色補間手段のブロック図である。It is a block diagram of a color interpolation means. ブロック化された画像を示す図である。It is a figure which shows the image made into the block. 完全画像と完全画像から生成された擬似原画像を示す図である。It is a figure which shows the pseudo | simulation original image produced | generated from the complete image and the complete image. 生成される擬似原画像の配列パターンを示す図である。It is a figure which shows the arrangement | sequence pattern of the pseudo | simulation original image produced | generated. 入力原画像から生成された補間画像を示す図である。It is a figure which shows the interpolation image produced | generated from the input original image. 複数の画素を注目画素として補間フィルタを適用させる実施例を示す図である。It is a figure which shows the Example which applies an interpolation filter by making a some pixel into a focused pixel.

符号の説明Explanation of symbols

3 学習手段
6 色補間手段
33 ノード
NNnA,NNnB ニューラルネットワーク
3 learning means 6 color interpolation means 33 nodes NNnA, NNnB neural network

Claims (6)

各画素が複数の色信号を備えるカラー画像を入力する手段と、Means for inputting a color image in which each pixel comprises a plurality of color signals;
前記カラー画像から、注目画素を含むブロック画像を抽出する手段と、  Means for extracting a block image including a target pixel from the color image;
前記ブロック画像の各画素について、所定の配列規則に従い、前記複数の色信号の中のいずれか1つの色信号を選択することにより、各画素が1つの色信号を備える擬似原画像を生成する原画像生成手段と、  For each pixel of the block image, by selecting any one color signal from the plurality of color signals according to a predetermined arrangement rule, an original that generates a pseudo original image in which each pixel has one color signal is generated. Image generating means;
前記擬似原画像を学習信号とし、前記カラー画像において前記注目画素が備える全ての色信号のうち前記擬似原画像に存在しない色信号を教師信号として学習を行い、画素補間フィルタを生成する学習手段と、  Learning means for generating a pixel interpolation filter by using the pseudo original image as a learning signal, learning as a teacher signal a color signal that does not exist in the pseudo original image among all color signals of the target pixel in the color image; ,
を備えることを特徴とする画素補間フィルタ生成装置。A pixel interpolation filter generation device comprising:
請求項1に記載の画素補間フィルタ生成装置において、The pixel interpolation filter generation device according to claim 1,
前記原画像生成手段は、  The original image generation means includes
前記注目画素が備える前記複数の色信号に対応した複数パターンの擬似原画像を生成する手段、  Means for generating a plurality of patterns of pseudo original images corresponding to the plurality of color signals included in the target pixel;
を含むことを特徴とする画素補間フィルタ生成装置。A pixel interpolation filter generation device comprising:
請求項1または請求項2に記載の画素補間フィルタ生成装置において、The pixel interpolation filter generation device according to claim 1 or 2,
前記学習手段は、  The learning means includes
誤差逆伝播法を用いたニューラルネットワーク、  Neural network using back propagation method,
を含むことを特徴とする画素補間フィルタ生成装置。A pixel interpolation filter generation device comprising:
請求項1ないし請求項3のいずれかに記載の画素補間フィルタ生成装置において、The pixel interpolation filter generation device according to any one of claims 1 to 3,
前記注目画素は、前記擬似原画像の中心画素であることを特徴とする画素補間フィルタ生成装置。  The pixel interpolation filter generation device, wherein the target pixel is a central pixel of the pseudo original image.
請求項1ないし請求項3のいずれかに記載の画素補間フィルタ生成装置において、The pixel interpolation filter generation device according to any one of claims 1 to 3,
前記注目画素は、前記擬似原画像に含まれる複数の画素群であることを特徴とする画素補間フィルタ生成装置。  The pixel interpolation filter generation device, wherein the target pixel is a plurality of pixel groups included in the pseudo original image.
各画素が1つの色成分の信号を備える画像について、各画素に存在しない色成分の信号を補間する画素補間装置であって、A pixel interpolation device that interpolates a signal of a color component that does not exist in each pixel for an image in which each pixel has a signal of one color component,
各画素が1つの色成分の信号を備える原画像を入力する手段と、  Means for inputting an original image in which each pixel comprises a signal of one color component;
前記原画像からブロック原画像を抽出する手段と、  Means for extracting a block original image from the original image;
前記ブロック原画像に対して、請求項1ないし請求項5のいずれかに記載の画素補間フィルタを作用させることにより、前記原画像の注目画素に存在しない色信号を補間する手段、  Means for interpolating a color signal that does not exist in a target pixel of the original image by applying the pixel interpolation filter according to any one of claims 1 to 5 to the block original image;
を備えることを特徴とする画素補間装置。A pixel interpolation apparatus comprising:
JP2004019661A 2004-01-28 2004-01-28 Pixel interpolation filter generation device and pixel interpolation device Expired - Fee Related JP4364657B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004019661A JP4364657B2 (en) 2004-01-28 2004-01-28 Pixel interpolation filter generation device and pixel interpolation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004019661A JP4364657B2 (en) 2004-01-28 2004-01-28 Pixel interpolation filter generation device and pixel interpolation device

Publications (2)

Publication Number Publication Date
JP2005217592A JP2005217592A (en) 2005-08-11
JP4364657B2 true JP4364657B2 (en) 2009-11-18

Family

ID=34903818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004019661A Expired - Fee Related JP4364657B2 (en) 2004-01-28 2004-01-28 Pixel interpolation filter generation device and pixel interpolation device

Country Status (1)

Country Link
JP (1) JP4364657B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4692401B2 (en) * 2006-06-09 2011-06-01 日本ビクター株式会社 Image processing apparatus and image processing program
JP7242185B2 (en) * 2018-01-10 2023-03-20 キヤノン株式会社 Image processing method, image processing apparatus, image processing program, and storage medium

Also Published As

Publication number Publication date
JP2005217592A (en) 2005-08-11

Similar Documents

Publication Publication Date Title
US7551214B2 (en) Pixel interpolation method
US9225948B2 (en) Pixel interpolation apparatus, imaging apparatus, pixel interpolation processing method, integrated circuit, and non-transitory computer readable storage medium
JP4610930B2 (en) Image processing apparatus and image processing program
JP4317619B2 (en) Image processing device
JPH09163162A (en) Image processing method and device
US7583303B2 (en) Imaging device element
JP4888113B2 (en) Image processing apparatus, image output apparatus, terminal apparatus, image forming system, and program
KR100768619B1 (en) Pixel signal processing device and method
JP6276580B2 (en) Pixel interpolation processing device, imaging device, program, and integrated circuit
JP4364657B2 (en) Pixel interpolation filter generation device and pixel interpolation device
CN105046631A (en) Image processing apparatus, and image processing method
JP4334488B2 (en) Pixel signal processing apparatus and method
JP6435560B1 (en) Image processing apparatus, image processing method, program, and imaging apparatus
US9892487B1 (en) Method and apparatus for combining pixel values in array including linear pixels and logarithmic pixels
US7492482B2 (en) Image processing apparatus, image processing method and image processing program
JP3911898B2 (en) Color conversion apparatus and method
JP2006311241A (en) Image processor
JP2010129049A (en) Parameter setting method
JP4238660B2 (en) Image processing apparatus, image processing method, and image processing program
JP5434697B2 (en) Image processing method, image processing apparatus, and program
JPH06217143A (en) Gamma correction curve selector and gamma correction curve generator
JP4158652B2 (en) Image processing apparatus, image processing method, and image processing program
JP4496765B2 (en) Image processing apparatus, image processing method, and image processing program
JP2006197411A (en) Halftone screening method and printer
JPH1169182A (en) Color correction method and color correction device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090729

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090818

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090819

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150828

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees