JP4692401B2 - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP4692401B2
JP4692401B2 JP2006161491A JP2006161491A JP4692401B2 JP 4692401 B2 JP4692401 B2 JP 4692401B2 JP 2006161491 A JP2006161491 A JP 2006161491A JP 2006161491 A JP2006161491 A JP 2006161491A JP 4692401 B2 JP4692401 B2 JP 4692401B2
Authority
JP
Japan
Prior art keywords
image processing
pixels
pixel data
neural network
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006161491A
Other languages
Japanese (ja)
Other versions
JP2007328735A (en
Inventor
邦男 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2006161491A priority Critical patent/JP4692401B2/en
Publication of JP2007328735A publication Critical patent/JP2007328735A/en
Application granted granted Critical
Publication of JP4692401B2 publication Critical patent/JP4692401B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像(静止画像又は動画像)の処理を行う画像処理装置及び画像処理プログラムに関し、特に、主に画像の解像度や倍率を変更するための画像補間処理を行う画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program for processing an image (still image or moving image), and in particular, an image processing apparatus and an image processing for performing image interpolation processing mainly for changing the resolution and magnification of an image. Regarding the program.

ニューラルネットワークを用いた画像処理に関して、1980年代から1990年代にかけて多くの研究開発や技術提案がなされている。例えば、下記の特許文献1〜3には、階層型ニューラルネットワークをバックプロパゲーション法によって学習を施したものを用いて処理を行うことにより、インタレースをプログレッシブ化するためのライン補間を行う技術が開示されている。   Regarding image processing using a neural network, many research and development and technical proposals have been made from the 1980s to the 1990s. For example, in Patent Documents 1 to 3 below, there is a technique for performing line interpolation for progressively interlaced by performing processing using a hierarchical neural network that has been learned by the back-propagation method. It is disclosed.

一方、下記の特許文献4〜7には、解像度や滑らかな補間性能の向上を図るために、階層型ニューラルネットワークを用いて解像度や倍率を変更するための補間を行う技術が開示されている。
特開平5−37910号公報 特開平7−240901号公報 特開平8−18926号公報 特開平6−12486号公報 特開平9−51430号公報 特開平9−319866号公報 特開平10−164519号公報
On the other hand, Patent Documents 4 to 7 below disclose techniques for performing interpolation for changing resolution and magnification using a hierarchical neural network in order to improve resolution and smooth interpolation performance.
Japanese Patent Laid-Open No. 5-37910 JP-A-7-240901 JP-A-8-18926 JP-A-6-12486 JP-A-9-51430 JP-A-9-319866 Japanese Patent Laid-Open No. 10-164519

しかしながら、上述の特許文献1〜7に開示されている技術はそれぞれ下記の問題を有している。例えば、特許文献4に開示されている技術では、あらかじめ画像の統計的データを用意する必要があるという問題がある。   However, each of the techniques disclosed in Patent Documents 1 to 7 described above has the following problems. For example, the technique disclosed in Patent Document 4 has a problem that it is necessary to prepare statistical data of an image in advance.

また、特許文献5に開示されている技術は、従来用いられていたフィルタの組み合わせ係数をニューラルネットワークによって制御することで、複雑な論理選択をパターン処理的にニューラルネットワークで代行させるものである。しかしながら、ここでは、原画像に対するフィルタ選択の方法を学習させて他の画像に適用することになるため、学習パターンは事実上限られたものになり、どのような画像であっても対応可能な画像処理機構を構築することは困難であるという問題がある。   The technique disclosed in Patent Document 5 substitutes a complicated logic selection by a neural network in a pattern process by controlling a combination coefficient of a filter used conventionally by a neural network. However, here, since the filter selection method for the original image is learned and applied to other images, the learning pattern is actually limited to an upper limit, and any image can be handled. There is a problem that it is difficult to construct a processing mechanism.

また、特許文献6、7に開示されている技術は、画素値及び画素位置を入力信号とするニューラルネットワークを用いて画像1フレーム(フィールド)の階調曲面を推定して、これを用いて補間するものであるが、1フレーム(フィールド)ごとのニューラルネットワークの荷重の更新が必要な上、ニューラルネットワークで再現が可能な曲面の形態には限界があると考えられるため、高精度の動画の補間処理には不向きであるという問題がある。   Further, the techniques disclosed in Patent Documents 6 and 7 estimate a gradation curved surface of one frame (field) of an image using a neural network having pixel values and pixel positions as input signals, and perform interpolation using this. However, it is necessary to update the load of the neural network for each frame (field), and it is considered that there is a limit to the shape of the curved surface that can be reproduced by the neural network. There is a problem that it is not suitable for processing.

さらに、特許文献1に開示されている技術では、教師信号を実画像とした場合には、学習に用いられた画像以外に対する入力画像に関しては、その性能を十分に発揮できるとは言えない。   Furthermore, in the technique disclosed in Patent Document 1, when the teacher signal is a real image, it cannot be said that the performance of the input image other than the image used for learning can be sufficiently exhibited.

一方、特許文献2、3に開示されている技術では、入出力の双方を含む学習対象となる周辺画素値の組み合わせを人工的に生成させているため、様々なパターンに対して万遍なく学習を行うことが可能になる。しかしながら、この場合においても、学習済みではないパターンが入力された場合には、ニューラルネットワークの汎化能力をもってしても正しい補間が行われず、結果的にノイズ的な補間信号が出力されてしまうことがある。   On the other hand, in the techniques disclosed in Patent Documents 2 and 3, since a combination of peripheral pixel values to be learned including both input and output is artificially generated, it is possible to learn various patterns uniformly. It becomes possible to do. However, even in this case, when a pattern that has not been learned is input, correct interpolation is not performed even with the generalization ability of the neural network, and as a result, a noisy interpolation signal is output. There is.

上記の問題を解決するため、本発明は、ニューラルネットワークを効果的に利用して、画像の処理を行うための画像処理装置及び画像処理プログラムを提供することを目的とする。   In order to solve the above problems, an object of the present invention is to provide an image processing apparatus and an image processing program for processing an image by effectively using a neural network.

上記の目的を達成するため、本発明では、第1のニューラルネットワークを用いた画像処理による結果の適合性を第2のニューラルネットワークによって判断し、この判断結果に基づいて、第1のニューラルネットワークを用いた画像処理による結果と、それ以外の画像処理による結果との混合比を決定して、これらの画像処理による結果を混合したものを画像処理による結果として出力する。   In order to achieve the above object, in the present invention, the suitability of the result of image processing using the first neural network is judged by the second neural network, and the first neural network is determined based on the judgment result. A mixing ratio between the result of the used image processing and the result of the other image processing is determined, and a result of mixing these image processing results is output as a result of the image processing.

すなわち、本発明によれば、複数の画素の画素データを入力値とし、前記複数の画素を補間する補間画素の画素データを出力値とする画像処理装置であって、
前記複数の画素の画素データに対して、前記複数の画素を補間する補間画素の第1画素データを出力する第1ニューラルネットワークで構成される手段であり、前記第1ニューラルネットワークは、あらかじめ生成されている複数の画素の画素データと、前記複数の画素の画素データに対応する補間画素の画素データとの関係が学習されているニューラルネットワークである第1画像処理手段と、
前記第1画像処理手段とは異なる画像処理を実行し、前記複数の画素の画素データに対して、前記複数の画素を補間する補間画素の第2画素データを出力する第2画像処理手段と、
前記複数の画素の画素データに対する前記第1画像処理手段による画像処理の適合性を判断して、前記第1画像処理手段の適合性を示す値を出力する第2ニューラルネットワークで構成される手段であり、前記第2ニューラルネットワークは、前記第1ニューラルネットワークの学習に用いられた前記あらかじめ生成されている複数の画素の画素データと、前記第1ニューラルネットワークが学習済みであることを示す第1の特定値との関係があらかじめ学習されているとともに、ランダムに生成される複数の画素の画素データと、前記第1ニューラルネットワークによって学習済みではないことを示す特定の値との関係が学習されているニューラルネットワークである適合性判断手段と、
前記適合性判断手段から出力される前記第1画像処理手段の適合性を示す値に基づいて、前記第1画像処理手段から出力される前記第1画素データと、前記第2画像処理手段から出力される前記第2画素データとを混合し、前記複数の画素を補間する補間画素の画素データを前記出力値として出力する画素値混合手段とを、
有する画像処理装置が提供される。
That is, according to the present invention, an image processing apparatus having pixel data of a plurality of pixels as an input value and pixel data of an interpolation pixel for interpolating the plurality of pixels as an output value,
The first neural network is a means configured to output first pixel data of interpolated pixels for interpolating the plurality of pixels with respect to pixel data of the plurality of pixels, and the first neural network is generated in advance. A first image processing means that is a neural network in which a relationship between pixel data of a plurality of pixels and pixel data of an interpolation pixel corresponding to the pixel data of the plurality of pixels is learned;
Second image processing means for executing image processing different from the first image processing means and outputting second pixel data of interpolated pixels for interpolating the plurality of pixels with respect to pixel data of the plurality of pixels;
Means configured by a second neural network for determining suitability of image processing by the first image processing means for pixel data of the plurality of pixels and outputting a value indicating suitability of the first image processing means; The second neural network includes first pixel data of the plurality of previously generated pixels used for learning of the first neural network, and first information indicating that the first neural network has been learned. A relationship with a specific value is learned in advance, and a relationship between pixel data of a plurality of randomly generated pixels and a specific value indicating that learning has not been performed by the first neural network is learned. A fitness determination means that is a neural network;
Based on the value indicating the suitability of the first image processing means output from the suitability judging means, the first pixel data outputted from the first image processing means and the output from the second image processing means Pixel value mixing means for mixing the second pixel data and interpolating the plurality of pixels to output pixel data of an interpolation pixel as the output value,
An image processing apparatus is provided.

また、本発明によれば、複数の画素の画素データを入力値とし、前記複数の画素を補間する補間画素の画素データを出力値とする画像処理方法をコンピュータに実行させる画像処理プログラムであって、
前記複数の画素の画素データに対して、前記複数の画素を補間する補間画素の第1画素データを出力する第1ニューラルネットワークで構成される第1画像処理機構を実現する第1画像処理機構実現ステップと、
前記第1画像処理機構が、あらかじめ生成されている複数の画素の画素データと、前記複数の画素の画素データに対応する補間画素の画素データとの関係を学習する第1学習ステップと、
前記第1画像処理手段とは異なる画像処理を実行し、前記複数の画素の画素データに対して、前記複数の画素を補間する補間画素の第2画素データを出力する第2画像処理機構を実現する第2画像処理機構実現ステップと、
前記複数の画素の画素データに対する前記第1画像処理機構による画像処理の適合性を判断して、前記第1画像処理機構の適合性を示す値を出力する第2ニューラルネットワークで構成される適合性判断機構を実現する適合性判断機構実現ステップと、
前記適合性判断機構が、前記第1ニューラルネットワークの学習に用いられた前記あらかじめ生成されている複数の画素の画素データと、前記第1ニューラルネットワークが学習済みであることを示す第1の特定値との関係があらかじめ学習されているとともに、ランダムに生成される複数の画素の画素データと、前記第1ニューラルネットワークが学習済みではないことを示す第2の特定値との関係を学習する第2学習ステップと、
前記適合性判断機構から出力される前記第1画像処理機構の適合性を示す値に基づいて、前記第1画像処理機構から出力される前記第1画素データと、前記第2画像処理機構から出力される前記第2画素データとを混合し、前記複数の画素を補間する補間画素の画素データを前記出力値として出力する画素値混合ステップとを、
有する画像処理方法をコンピュータに実行させる画像処理プログラムが提供される。
According to the present invention, there is provided an image processing program for causing a computer to execute an image processing method using pixel data of a plurality of pixels as an input value and pixel data of an interpolation pixel for interpolating the plurality of pixels as an output value. ,
Realization of a first image processing mechanism that realizes a first image processing mechanism configured by a first neural network that outputs first pixel data of interpolation pixels that interpolate the plurality of pixels with respect to pixel data of the plurality of pixels. Steps,
A first learning step in which the first image processing mechanism learns a relationship between pixel data of a plurality of pixels generated in advance and pixel data of an interpolation pixel corresponding to the pixel data of the plurality of pixels;
A second image processing mechanism that executes image processing different from the first image processing means and outputs second pixel data of interpolated pixels for interpolating the plurality of pixels with respect to pixel data of the plurality of pixels is realized. A second image processing mechanism realizing step,
Consistency constituted by a second neural network that determines the suitability of image processing by the first image processing mechanism for pixel data of the plurality of pixels and outputs a value indicating the suitability of the first image processing mechanism. A compatibility judgment mechanism realization step for realizing the judgment mechanism;
The conformity determination mechanism includes pixel data of the plurality of previously generated pixels used for learning of the first neural network, and a first specific value indicating that the first neural network has been learned. Is learned in advance, and learns a relationship between pixel data of a plurality of randomly generated pixels and a second specific value indicating that the first neural network has not been learned. Learning steps,
The first pixel data output from the first image processing mechanism and the output from the second image processing mechanism based on a value indicating the compatibility of the first image processing mechanism output from the compatibility determination mechanism. A pixel value mixing step of mixing the second pixel data and interpolating the plurality of pixels to output pixel data of an interpolation pixel as the output value,
An image processing program for causing a computer to execute the image processing method is provided.

本発明は、上記の構成を有しており、ニューラルネットワークを用いた画像処理結果が適切か否かの判断を行うことで、ニューラルネットワークを効果的に利用して、自然で高品位な画像を生成するための処理を実現するという効果を有している。   The present invention has the above-described configuration, and by determining whether or not an image processing result using a neural network is appropriate, a natural high-quality image can be obtained by effectively using the neural network. This has the effect of realizing processing for generation.

以下、図面を参照しながら、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

まず、図1を参照しながら、本発明の実施の形態における画像処理装置の構成について説明する。図1は、本発明の実施の形態における画像処理装置の構成の一例を示すブロック図である。なお、以下の説明では、図1に図示されている画像処理装置が、図2に図示されているような4×4の画素を周辺画素(入力画素)として、これらの周辺画素の中心付近に存在する5点の補間画素を求める画像処理を行う場合について説明する。図2において、○(白抜きの丸)が周辺画素、●(黒塗りの丸)が補間画素である。図2に図示されている周辺画素と補間画素の関係によれば、事実上、正方格子状に配列された周辺画素の水平方向・垂直方向(正方格子を形成する垂直な2軸方向)共に、4×4の周辺画素を2倍の画素数にするための解像度変換の処理が行われることに相当する。   First, the configuration of the image processing apparatus according to the embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing an example of the configuration of an image processing apparatus according to an embodiment of the present invention. In the following description, the image processing apparatus illustrated in FIG. 1 uses a 4 × 4 pixel as illustrated in FIG. 2 as a peripheral pixel (input pixel) and is located near the center of these peripheral pixels. A case where image processing for obtaining five existing interpolation pixels is performed will be described. In FIG. 2, ◯ (open circles) are peripheral pixels, and ● (black circles) are interpolation pixels. According to the relationship between the peripheral pixels and the interpolated pixels shown in FIG. 2, the horizontal and vertical directions of the peripheral pixels arranged in a square lattice pattern (vertical two-axis directions forming a square lattice) This is equivalent to performing resolution conversion processing to double the number of 4 × 4 peripheral pixels.

図1において、周辺画素(例えば、図2に図示されている4×4の画素)を入力画素として、周辺画素の画素値が、第1のニューラルネットワーク部(第1のNN部)101、第2のニューラルネットワーク部(第2のNN部)102、バイキュービック補間処理部103に入力される。   In FIG. 1, the peripheral pixels (for example, 4 × 4 pixels shown in FIG. 2) are input pixels, and the pixel values of the peripheral pixels are the first neural network unit (first NN unit) 101, The second neural network unit (second NN unit) 102 and the bicubic interpolation processing unit 103 are input.

第1のニューラルネットワーク部101は、4×4の周辺画素を入力画素とし、ニューラルネットワークを利用して5点の補間画素の画素値(5値のNN補間結果)を出力する機能を有している。なお、第1のニューラルネットワーク部101には、例えば後述の斜め線補間に特化した学習が施される。   The first neural network unit 101 has a function of using 4 × 4 peripheral pixels as input pixels and outputting pixel values of five interpolation pixels (5-value NN interpolation result) using a neural network. Yes. The first neural network unit 101 is subjected to learning specialized for oblique line interpolation, which will be described later, for example.

一方、第2のニューラルネットワーク部102は、4×4の周辺画素を入力画素とし、ニューラルネットワークを利用して第1のニューラルネットワーク部101の適合性の峻別結果(第1のニューラルネットワーク部101によるNN補間結果の妥当性)を出力する機能を有している。なお、第2のニューラルネットワーク部102には、後述のように、第1のニューラルネットワーク部101の適合性を峻別することに特化した学習が施される。すなわち、第2のニューラルネットワーク部102は、第1のニューラルネットワーク部101にとって学習済みの画素パターンが入力画素として入力されたか否かを判断することが可能である。   On the other hand, the second neural network unit 102 uses 4 × 4 peripheral pixels as input pixels, and uses the neural network to distinguish the conformity of the first neural network unit 101 (by the first neural network unit 101). (The validity of the NN interpolation result). The second neural network unit 102 is subjected to learning specialized for distinguishing the suitability of the first neural network unit 101 as will be described later. That is, the second neural network unit 102 can determine whether a pixel pattern learned for the first neural network unit 101 is input as an input pixel.

また、バイキュービック補間処理部103は、4×4の周辺画素を入力画素とし、これらの周辺画素に関する補間画素の画素値(5値のバイキュービック補間結果)を求めるバイキュービック補間法を実行する機能を有している。   The bicubic interpolation processing unit 103 has a function of executing a bicubic interpolation method using 4 × 4 peripheral pixels as input pixels and obtaining pixel values of the interpolated pixels related to these peripheral pixels (5-value bicubic interpolation result). have.

第1のニューラルネットワーク部101によるNN補間結果、及びバイキュービック補間処理部103によるバイキュービック補間結果は共に、図2に図示されているように5値であり、混合比決定部104に供給される。また、第2のニューラルネットワーク部102によって演算される第1のニューラルネットワーク部101の適合性の峻別結果も混合比決定部104に供給される。   Both the NN interpolation result by the first neural network unit 101 and the bicubic interpolation result by the bicubic interpolation processing unit 103 are five values as shown in FIG. 2 and are supplied to the mixture ratio determining unit 104. . Further, the discrimination result of the suitability of the first neural network unit 101 calculated by the second neural network unit 102 is also supplied to the mixture ratio determining unit 104.

そして、混合比決定部104では、NN補間結果の5値及びバイキュービック補間結果の5値のそれぞれに関して、第2ニューラルネットワーク部102の峻別結果に基づく混合比が決定され、決定された混合比に基づいてNN補間結果及びバイキュービック補間結果が混合された5値の補間結果が出力される。すなわち、混合比決定部104では、第1ニューラルネットワーク部101による画像処理の長所をいかすことができる場合に限定して、最終的に出力される補間結果に、第1ニューラルネットワーク部101による画像処理結果が反映されるようにすることが可能となる。   Then, the mixture ratio determination unit 104 determines a mixture ratio based on the distinction result of the second neural network unit 102 for each of the five values of the NN interpolation result and the five values of the bicubic interpolation result. Based on this, a quinary interpolation result obtained by mixing the NN interpolation result and the bicubic interpolation result is output. That is, the mixing ratio determination unit 104 is limited to the case where the advantages of the image processing by the first neural network unit 101 can be exploited, and the image processing by the first neural network unit 101 is added to the final output interpolation result. The result can be reflected.

上記の第1及び第2ニューラルネットワーク部101、102は共に、例えばバックプロパゲーションを学習アルゴリズムとする層状の構造(入力層、中間層、出力層の3層)を有する周知のニューラルネットワークであり、可変の重みで結ばれた多数のユニット(ニューロン)の結合体である。   Both the first and second neural network units 101 and 102 are well-known neural networks having a layered structure (three layers of an input layer, an intermediate layer, and an output layer) using, for example, back propagation as a learning algorithm. It is a combination of many units (neurons) connected by variable weights.

例えば、第1及び第2のニューラルネットワーク部101、102は両方共、周辺画素に対応した16個のユニットの入力層を有している。また、中間層に関しては、例えば、第1のニューラルネットワーク部101では24個のユニット、第2のニューラルネットワーク部102では16個のユニットにより構成されており、出力層に関しては、それぞれ5個のユニット及び1個のユニットにより構成されている。なお、周知のニューラルネットワークと同様に、各ユニットは、非線形の入出力特性を有する変換系であり、各ユニットには、前層からの出力値に独立した重みが乗算されて得られた前層からの総和が入力され、この総和が非線形変換されて後層に出力されるように構成されている。   For example, both the first and second neural network units 101 and 102 have 16 units of input layers corresponding to peripheral pixels. For the intermediate layer, for example, the first neural network unit 101 includes 24 units, and the second neural network unit 102 includes 16 units, and the output layer includes 5 units each. And one unit. As in the known neural network, each unit is a conversion system having nonlinear input / output characteristics, and each unit is obtained by multiplying an output value from the previous layer by an independent weight. The sum is input, and the sum is nonlinearly transformed and output to the subsequent layer.

そして、第1及び第2のニューラルネットワーク部101、102では、後述のように学習用の情報信号(すなわち、補間すべき画素と周辺画素との関係など)を利用して、上記のニューラルネットワークの学習が行われ、ユニット間の重みをあらかじめ定めたニューラルネットワークが学習構築される。すなわち、ニューラルネットワークの出力信号と、学習用の教師信号とを比較して、その差が小さくなるように、例えばバックプロパゲーションの学習アルゴリズムに基づいて、ユニット間の重みが変更されて、各ユニット間の重みが決定される。   Then, the first and second neural network units 101 and 102 use the learning information signal (that is, the relationship between the pixel to be interpolated and the surrounding pixels, etc.) as described later, and Learning is performed, and a neural network in which weights between the units are predetermined is learned and constructed. That is, the output signal of the neural network is compared with the teacher signal for learning, and the weight between the units is changed based on, for example, the back propagation learning algorithm so that the difference is reduced. The weight between is determined.

次に、本発明の実施の形態における第1のニューラルネットワーク部101の学習動作の一例について説明する。なお、以下の説明では、図4に図示されている入出力データを参照しながら、図3に図示されているフローチャートに係る動作について説明する。   Next, an example of the learning operation of the first neural network unit 101 in the embodiment of the present invention will be described. In the following description, operations related to the flowchart shown in FIG. 3 will be described with reference to the input / output data shown in FIG.

図3は、本発明の実施の形態において、第1のニューラルネットワーク部の学習動作の一例を説明するためのフローチャートであり、図4は、本発明の実施の形態において、人工的な生成パターンで分割された領域における入出力データの組み合わせの一例を示す図である。   FIG. 3 is a flowchart for explaining an example of the learning operation of the first neural network unit in the embodiment of the present invention. FIG. 4 shows an artificial generation pattern in the embodiment of the present invention. It is a figure which shows an example of the combination of the input-output data in the area | region divided | segmented.

図3において、第1のニューラルネットワーク部101は、周辺画素i00〜i15が入力された場合、周辺画素i00〜i15と出力すべき補間画素o0〜o4とを含む領域を、ライン(画素配列における水平方向及び垂直方向)に対して斜めの線分で複数の領域に分割する(ステップS301)。   In FIG. 3, when the peripheral pixels i00 to i15 are input, the first neural network unit 101 displays an area including the peripheral pixels i00 to i15 and the interpolation pixels o0 to o4 to be output as lines (horizontal in the pixel array). The image is divided into a plurality of areas by line segments oblique to the direction and the vertical direction (step S301).

すなわち、第1のニューラルネットワーク部101は、図4に示すように、周辺画素i00〜i15と補間画素o0〜o4とを含む領域を、2本の線分で3つの領域(エリア)A、B、Cに分割する。これらの線分は、ライン(水平画素ライン)に対して斜めの線分であり、例えば点線で示す直線y=ax+bを中心とし、両側の幅(距離)tの位置にある線分(直線y=ax+bとの距離がそれぞれt/2の傾きaの線分)である。   That is, as shown in FIG. 4, the first neural network unit 101 divides an area including peripheral pixels i00 to i15 and interpolation pixels o0 to o4 into three areas (areas) A and B with two line segments. , C. These line segments are diagonal lines with respect to the line (horizontal pixel line), for example, a line segment (straight line y) at the position of the width (distance) t on both sides centered on the straight line y = ax + b indicated by the dotted line = Ax + b is a line segment with a slope a of t / 2).

なお、説明のため、図4では、周辺画素i00〜i15と補間画素o0〜o4とを含むフィールド画面を、o0を中心としてx軸及びy軸の座標で表示し、変数a、b、tは、−1.5≦a≦1.5、−2≦b≦2、0≦t≦4の範囲に限定して、周辺画素i00〜i15と補間画素o0〜o4とを含む領域が分割されるものとする。これらの変数a、b、tは、上記の範囲内で、乱数発生させてランダムに生成されたものであり、周辺画素i00〜i15と補間画素o0〜o4とを含む領域は、ランダムに生成された様々な斜めの線分により分割されることになる。なお、上記の変数a、b、tの範囲は一例であり、これらに限定されるものではない。   For the sake of explanation, in FIG. 4, a field screen including peripheral pixels i00 to i15 and interpolation pixels o0 to o4 is displayed with coordinates of x axis and y axis centering on o0, and variables a, b, and t are , -1.5 ≦ a ≦ 1.5, −2 ≦ b ≦ 2, 0 ≦ t ≦ 4, the region including the peripheral pixels i00 to i15 and the interpolation pixels o0 to o4 is divided. Shall. These variables a, b, and t are randomly generated by generating random numbers within the above range, and the region including the peripheral pixels i00 to i15 and the interpolation pixels o0 to o4 is randomly generated. It is divided by various diagonal line segments. Note that the ranges of the variables a, b, and t are examples, and are not limited to these.

また、第1のニューラルネットワーク部101は、垂直方向に近い線分(水平方向に対して傾きの非常に大きな線分)についての学習も実行するために、xとyとを入れ替えたx=ay+bをベースとするパターンについても学習を行う。   The first neural network unit 101 also performs learning on a line segment close to the vertical direction (a line segment having a very large inclination with respect to the horizontal direction), so that x = ay + b in which x and y are interchanged. Also learn about patterns based on.

ステップS301の領域分割の結果、周辺画素i00〜i15及び補間画素o0〜o4は、分割された領域のいずれかに属することになる。例えば、図4に示す例では、領域(エリア)Aには周辺画素i00、i01が属し、領域(エリア)Bには周辺画素i02〜i09と補間画素o00〜o03とが属し、領域(エリア)Cには周辺画素i10〜i15と補間画素o04とが属している。   As a result of the region division in step S301, the peripheral pixels i00 to i15 and the interpolation pixels o0 to o4 belong to one of the divided regions. For example, in the example illustrated in FIG. 4, the peripheral pixels i00 and i01 belong to the region (area) A, and the peripheral pixels i02 to i09 and the interpolation pixels o00 to o03 belong to the region (area) B. Peripheral pixels i10 to i15 and interpolation pixel o04 belong to C.

続いて、第1のニューラルネットワーク部101は、分割された各領域内で共通となるように、各領域における画素データを生成する(ステップS302)。すなわち、画素データが8ビットの輝度レベルで表現される場合には、0から255までのレベル値を乱数発生させ、3つの領域(エリアA〜C)のそれぞれに属する画素レベルとして3つのレベル値を生成する。   Subsequently, the first neural network unit 101 generates pixel data in each region so as to be common in each divided region (step S302). That is, when the pixel data is represented by an 8-bit luminance level, a random value is generated from 0 to 255, and three level values are assigned as pixel levels belonging to each of the three regions (areas A to C). Is generated.

例えば、領域(エリア)Aの画素レベルは「40」、領域(エリア)Bの画素レベルは「55」、領域(エリア)Cの画素レベルは「100」などのように、領域単位で画素レベルがランダムに生成される。上記の場合には、領域(エリア)Aに属する周辺画素i00、i01のレベルは「40」であり、領域(エリア)Bに属する周辺画素i02〜i09、補間画素o00〜o03のレベルは「55」であり、領域(エリア)Cに属する周辺画素i10〜i15、補間画素o04のレベルは「100」であることを意味する。   For example, the pixel level of the area (area) A is “40”, the pixel level of the area (area) B is “55”, the pixel level of the area (area) C is “100”, and the like. Are randomly generated. In the above case, the levels of the peripheral pixels i00 and i01 belonging to the region (area) A are “40”, and the levels of the peripheral pixels i02 to i09 and the interpolation pixels o00 to o03 belonging to the region (area) B are “55”. And the levels of the peripheral pixels i10 to i15 and the interpolation pixel o04 belonging to the region (area) C are “100”.

そして、ステップS302で各領域単位で設定された周辺画素の画素データが、第1のニューラルネットワーク部101内のニューラルネットワークに入力され、その入力値に対応したニューラルネットワークの出力値が出力される。第1のニューラルネットワーク部101に入力された周辺画素の画素データと、ステップS302での補間画素o0〜o4の画素データとの関係に基づいて、ニューラルネットワークの学習が実行されていく(ステップS303)。   Then, the pixel data of the peripheral pixels set for each region in step S302 is input to the neural network in the first neural network unit 101, and the output value of the neural network corresponding to the input value is output. Learning of the neural network is executed based on the relationship between the pixel data of the peripheral pixels input to the first neural network unit 101 and the pixel data of the interpolation pixels o0 to o4 in step S302 (step S303). .

すなわち、領域(エリア)Aに属する周辺画素i00、i01の画素レベルは「40」、領域(エリア)Bに属する周辺画素i02〜i09、補間画素o00〜o03のレベルは「55」、領域(エリア)Cに属する周辺画素i10〜i15、補間画素o04のレベルは「100」となり、第1ニューラルネットワーク部101内のニューラルネットワークから、それまでに設定された重みに基づいて出力値が出力される。そして、補間画素o00〜o03に係る出力値と補間画素o00〜o03の画素レベル「55」との差や、補間画素o04に係る出力値と補間画素o04の画素レベル「100」との差が小さくなるように重みが計算、変更される。   That is, the pixel levels of the peripheral pixels i00 and i01 belonging to the region (area) A are “40”, the levels of the peripheral pixels i02 to i09 and the interpolation pixels o00 to o03 belonging to the region (area) B are “55”, and the region (area) ) The levels of the peripheral pixels i10 to i15 and the interpolation pixel o04 belonging to C are “100”, and an output value is output from the neural network in the first neural network unit 101 based on the weight set so far. The difference between the output value related to the interpolation pixels o00 to o03 and the pixel level “55” of the interpolation pixels o00 to o03, or the difference between the output value related to the interpolation pixel o04 and the pixel level “100” of the interpolation pixel o04 is small. The weight is calculated and changed so that

また、上述のステップS301〜S303の処理による学習は、例えば、図5A〜図5Dに図示されているような様々な分割例に関して繰り返し行われる。その結果、様々な周辺画素の画素データの組み合わせに対して学習が行われる。なお、上述のステップS301〜S303の処理による学習は、例えばあらかじめ定められた所定の学習回数だけ行われ(ステップS304)、第1のニューラルネットワーク部101内のニューラルネットワークが学習によって徐々に構築されていく。   Further, the learning by the processes in steps S301 to S303 described above is repeatedly performed for various division examples as illustrated in FIGS. 5A to 5D, for example. As a result, learning is performed on combinations of pixel data of various peripheral pixels. Note that learning by the above-described steps S301 to S303 is performed, for example, a predetermined number of times of learning (step S304), and the neural network in the first neural network unit 101 is gradually constructed by learning. Go.

以上、説明したように、第1のニューラルネットワーク部101では、斜めの線分によって分割された各領域に関する補間パターンが効率的に学習されて、ニューラルネットワークが構築されるので、水平方向及び垂直方向のそれぞれに対して傾きの小さな斜めの線分のエイリアシングが少ない自然な補間が可能になる。   As described above, the first neural network unit 101 efficiently learns the interpolation pattern for each area divided by the diagonal line segments and constructs the neural network, so that the horizontal direction and the vertical direction Natural interpolation can be performed with little aliasing of the slanted line segment having a small inclination with respect to each of the above.

次に、本発明の実施の形態における第2のニューラルネットワーク部102の学習動作の一例について説明する。図6は、本発明の実施の形態において、第2のニューラルネットワーク部の学習動作の一例を説明するためのフローチャートである。   Next, an example of the learning operation of the second neural network unit 102 in the embodiment of the present invention will be described. FIG. 6 is a flowchart for explaining an example of the learning operation of the second neural network unit in the embodiment of the present invention.

第2のニューラルネットワーク部102は、学習の繰り返し回数を管理するカウンタを有しており、学習動作の開始と共に、まずカウンタkの値をリセット(k=0)する(ステップS401)。   The second neural network unit 102 has a counter for managing the number of learning repetitions, and first resets the value of the counter k (k = 0) with the start of the learning operation (step S401).

第2のニューラルネットワーク部102は、このカウンタkの値に基づいて異なる処理を行う。すなわち、第2のニューラルネットワーク部102は、カウンタkの値の偶奇を判断し、カウンタkが偶数の場合(ただし、ここではk=0は偶数と判断されるものとする)には、上述の第1のニューラルネットワーク部101における処理(図3のステップS301、S302)と同様に、斜めの線分による補間で用いたパターンの信号を生成して設定するとともに(ステップS403、S404)、出力側の教師信号として『1』を与えて、ニューラルネットワークを学習させる(ステップS405)。そして、カウンタkを1つインクリメント(k=k+1)して(ステップS406)、カウンタkが所定の回数に達しているか否かを判断し(ステップS408)、カウンタkが所定の回数に達していない場合には、再びステップS402に戻る。   The second neural network unit 102 performs different processing based on the value of the counter k. That is, the second neural network unit 102 determines whether the value of the counter k is even or odd, and when the counter k is an even number (here, k = 0 is determined to be an even number), Similar to the processing in the first neural network unit 101 (steps S301 and S302 in FIG. 3), the signal of the pattern used in the interpolation by the oblique line segment is generated and set (steps S403 and S404), and the output side "1" is given as a teacher signal for learning the neural network (step S405). Then, the counter k is incremented by 1 (k = k + 1) (step S406), and it is determined whether or not the counter k has reached a predetermined number (step S408), and the counter k has not reached the predetermined number. In that case, the process returns to step S402 again.

一方、カウンタkが奇数の場合には、入力信号(16値)すべてを乱数発生させた0から255までの画素レベルに設定し、出力側の教師信号として『0』を与えて、ニューラルネットワークを学習させる(ステップS409)。そして、カウンタkを1つインクリメント(k=k+1)して(ステップS406)、カウンタkが所定の回数に達しているか否かを判断し(ステップS408)、カウンタkが所定の回数に達していない場合には、再びステップS402に戻る。また、カウンタkが所定の回数に達した場合には、学習動作は終了となる。   On the other hand, when the counter k is an odd number, all input signals (16 values) are set to pixel levels from 0 to 255, which are random numbers generated, and “0” is given as an output teacher signal, Learning is performed (step S409). Then, the counter k is incremented by 1 (k = k + 1) (step S406), and it is determined whether or not the counter k has reached a predetermined number (step S408), and the counter k has not reached the predetermined number. In that case, the process returns to step S402 again. When the counter k reaches a predetermined number of times, the learning operation ends.

このように、第2のニューラルネットワーク部102は、斜めの線分による補間に対して『1』の出力信号を、ランダムパターンに対して『0』の出力信号をニューラルネットワークに交互に学習させることによって、第1のニューラルネットワーク部102による入力信号パターンに対する適合性を判定する峻別能力を持つことが可能になる。すなわち、第2のニューラルネットワーク部102は、第1のニューラルネットワーク部101によるNN補間結果の適合性が高いと判定できる場合には、『1』に近い値の出力信号を出力し、第1のニューラルネットワーク部101によるNN補間結果の適合性が低いと判定できる場合には、『0』に近い値の出力信号を出力する。   In this way, the second neural network unit 102 causes the neural network to alternately learn an output signal of “1” for interpolation by an oblique line segment and an output signal of “0” for a random pattern. Thus, it is possible to have a distinction ability for determining the adaptability to the input signal pattern by the first neural network unit 102. That is, when the second neural network unit 102 can determine that the suitability of the NN interpolation result by the first neural network unit 101 is high, the second neural network unit 102 outputs an output signal having a value close to “1”. When it is determined that the adaptability of the NN interpolation result by the neural network unit 101 is low, an output signal having a value close to “0” is output.

そして、第2のニューラルネットワーク部102からの出力信号は混合比決定部104に供給され、この出力信号に基づいて、混合比決定部104で、NN補間結果とバイキュービック補間結果の混合比が決定される。例えば、混合比決定部104は、第2のニューラルネットワーク部102から出力信号の値『m』(ただし、0≦m≦1)を受けた場合、各補間画素に関して『m』を内分比として用い、(1−m)×{NN補間結果}+m×{バイキュービック補間結果}を補間結果として出力することが可能である。なお、NN補間結果とバイキュービック補間結果との混合は、上記の内分を用いた演算に限定されるものではなく、任意の混合方法を用いることが可能である。   The output signal from the second neural network unit 102 is supplied to the mixing ratio determining unit 104, and the mixing ratio determining unit 104 determines the mixing ratio of the NN interpolation result and the bicubic interpolation result based on this output signal. Is done. For example, when the mixture ratio determination unit 104 receives the value “m” (where 0 ≦ m ≦ 1) of the output signal from the second neural network unit 102, “m” is used as the internal division ratio for each interpolation pixel. It is possible to output (1-m) × {NN interpolation result} + m × {bicubic interpolation result} as an interpolation result. The mixing of the NN interpolation result and the bicubic interpolation result is not limited to the calculation using the above-described internal division, and any mixing method can be used.

以上、説明したように、第2のニューラルネットワーク部102では、第1のニューラルネットワーク部101によるNN補間結果の適合性を判定するニューラルネットワークが構築され、NN補間結果の適合性(峻別結果)が出力されるようになる。その結果、第2のニューラルネットワーク部102からの峻別結果に基づいて、混合比決定部104が、第1のニューラルネットワーク部101によるNN補間結果と、バイキュービック補間処理部103によるバイキュービック補間結果とを適切な混合比で混合することが可能となり、自然で高品位な補間画像を得ることが可能となる。   As described above, in the second neural network unit 102, a neural network for determining the suitability of the NN interpolation result by the first neural network unit 101 is constructed, and the suitability (discrimination result) of the NN interpolation result is obtained. Will be output. As a result, based on the distinction result from the second neural network unit 102, the mixture ratio determining unit 104 determines that the NN interpolation result by the first neural network unit 101, the bicubic interpolation result by the bicubic interpolation processing unit 103, Can be mixed at an appropriate mixing ratio, and a natural and high-quality interpolation image can be obtained.

なお、上述の実施の形態では、混合比決定部104から、第1のニューラルネットワーク部101によるNN補間結果と、バイキュービック補間処理部103によるバイキュービック補間結果とが混合されて出力される場合について説明しているが、第2のニューラルネットワーク部102から出力されるNN補間結果の適合性に基づいて、第1のニューラルネットワーク部101によるNN補間結果、及びバイキュービック補間処理部103によるバイキュービック補間結果のいずれか一方が選択され、補間結果として出力されるようにしてもよい。また、上述の実施の形態では、第1のニューラルネットワーク部101による画像処理方式とは異なる画像処理方式によって補間画素の画素データを計算する画像処理部として、バイキュービック補間法を実行するバイキュービック画像処理部103が設けられているが、必ずしもバイキュービック補間法に限定されるものではなく、他の任意の画像補間方式を実行することが可能な画像処理部が設けられてもよい。   In the above-described embodiment, the mixture ratio determining unit 104 outputs a mixture of the NN interpolation result by the first neural network unit 101 and the bicubic interpolation result by the bicubic interpolation processing unit 103. As described above, based on the suitability of the NN interpolation result output from the second neural network unit 102, the NN interpolation result by the first neural network unit 101 and the bicubic interpolation by the bicubic interpolation processing unit 103 are explained. Either one of the results may be selected and output as an interpolation result. In the above-described embodiment, the bicubic image that executes the bicubic interpolation method is used as the image processing unit that calculates the pixel data of the interpolation pixel by an image processing method different from the image processing method by the first neural network unit 101. Although the processing unit 103 is provided, the processing unit 103 is not necessarily limited to the bicubic interpolation method, and an image processing unit capable of executing any other image interpolation method may be provided.

なお、上述の実施の形態では、本発明に係る画像処理装置の機能がブロックによって図示されているが、これらの各機能はハードウェア及び/又はソフトウェア(プログラム)によって実現可能である。また、上述の説明で用いた各フローチャートの処理は、例えば、CPU(Central Processing Unit:中央演算処理装置)に所定のプログラムを実行させることによって実現することも可能である。また、本発明に係る画像処理装置の機能を実現するプログラムは、記録媒体から読み取られてコンピュータに取り込まれてもよく、また、通信ネットワークを介して伝送されてコンピュータに取り込まれてもよい。   In the above-described embodiment, the functions of the image processing apparatus according to the present invention are illustrated by blocks, but these functions can be realized by hardware and / or software (program). The processing of each flowchart used in the above description can also be realized by causing a CPU (Central Processing Unit) to execute a predetermined program, for example. The program for realizing the functions of the image processing apparatus according to the present invention may be read from a recording medium and loaded into a computer, or may be transmitted via a communication network and loaded into a computer.

本発明は、ニューラルネットワークを効果的に利用して、画像の処理を行うことを可能にするという効果を有しており、画像処理技術(特に、主に画像の解像度や倍率を変更するための画像補間技術)に適用可能である。   The present invention has an effect of making it possible to perform image processing by effectively using a neural network, and image processing technology (especially for mainly changing the resolution and magnification of an image). (Image interpolation technology).

本発明の実施の形態における画像処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image processing apparatus in embodiment of this invention. 本発明の実施の形態における画像処理装置に入力される周辺画素と、同画像処理装置から出力される補間画素の一例を模式的に示す図である。It is a figure which shows typically an example of the surrounding pixel input into the image processing apparatus in embodiment of this invention, and the interpolation pixel output from the image processing apparatus. 本発明の実施の形態において、第1のニューラルネットワーク部の学習動作の一例を説明するためのフローチャートである。5 is a flowchart for explaining an example of a learning operation of a first neural network unit in the embodiment of the present invention. 本発明の実施の形態において、人工的な生成パターンで分割された領域における入出力データの組み合わせの一例を示す図である。In an embodiment of the invention, it is a figure showing an example of a combination of input-output data in a field divided by an artificial generation pattern. 本発明の実施の形態において、入力画素に対する分割例の第1の例を示す図である。In an embodiment of the invention, it is a figure showing the 1st example of the example of division to an input pixel. 本発明の実施の形態において、入力画素に対する分割例の第2の例を示す図である。In an embodiment of the invention, it is a figure showing the 2nd example of the example of division to an input pixel. 本発明の実施の形態において、入力画素に対する分割例の第3の例を示す図である。In an embodiment of the invention, it is a figure showing the 3rd example of the example of division to an input pixel. 本発明の実施の形態において、入力画素に対する分割例の第4の例を示す図である。In an embodiment of the invention, it is a figure showing the 4th example of the example of division to an input pixel. 本発明の実施の形態において、第2のニューラルネットワーク部の学習動作の一例を説明するためのフローチャートである。6 is a flowchart for explaining an example of a learning operation of a second neural network unit in the embodiment of the present invention.

符号の説明Explanation of symbols

101 第1のニューラルネットワーク部(第1のNN部)
102 第2のニューラルネットワーク部(第2のNN部)
103 バイキュービック補間処理部
104 混合比決定部
101 First neural network section (first NN section)
102 Second neural network section (second NN section)
103 Bicubic interpolation processing unit 104 Mixing ratio determining unit

Claims (2)

複数の画素の画素データを入力値とし、前記複数の画素を補間する補間画素の画素データを出力値とする画像処理装置であって、
前記複数の画素の画素データに対して、前記複数の画素を補間する補間画素の第1画素データを出力する第1ニューラルネットワークで構成される手段であり、前記第1ニューラルネットワークは、あらかじめ生成されている複数の画素の画素データと、前記複数の画素の画素データに対応する補間画素の画素データとの関係が学習されているニューラルネットワークである第1画像処理手段と、
前記第1画像処理手段とは異なる画像処理を実行し、前記複数の画素の画素データに対して、前記複数の画素を補間する補間画素の第2画素データを出力する第2画像処理手段と、
前記複数の画素の画素データに対する前記第1画像処理手段による画像処理の適合性を判断して、前記第1画像処理手段の適合性を示す値を出力する第2ニューラルネットワークで構成される手段であり、前記第2ニューラルネットワークは、前記第1ニューラルネットワークの学習に用いられた前記あらかじめ生成されている複数の画素の画素データと、前記第1ニューラルネットワークが学習済みであることを示す第1の特定値との関係があらかじめ学習されているとともに、ランダムに生成される複数の画素の画素データと、前記第1ニューラルネットワークによって学習済みではないことを示す特定の値との関係が学習されているニューラルネットワークである適合性判断手段と、
前記適合性判断手段から出力される前記第1画像処理手段の適合性を示す値に基づいて、前記第1画像処理手段から出力される前記第1画素データと、前記第2画像処理手段から出力される前記第2画素データとを混合し、前記複数の画素を補間する補間画素の画素データを前記出力値として出力する画素値混合手段とを、
有する画像処理装置。
An image processing apparatus having pixel data of a plurality of pixels as an input value and pixel data of an interpolation pixel for interpolating the plurality of pixels as an output value,
The first neural network is a means configured to output first pixel data of interpolated pixels for interpolating the plurality of pixels with respect to pixel data of the plurality of pixels, and the first neural network is generated in advance. A first image processing means that is a neural network in which a relationship between pixel data of a plurality of pixels and pixel data of an interpolation pixel corresponding to the pixel data of the plurality of pixels is learned;
Second image processing means for executing image processing different from the first image processing means and outputting second pixel data of interpolated pixels for interpolating the plurality of pixels with respect to pixel data of the plurality of pixels;
Means configured by a second neural network for determining suitability of image processing by the first image processing means for pixel data of the plurality of pixels and outputting a value indicating suitability of the first image processing means; The second neural network includes first pixel data of the plurality of previously generated pixels used for learning of the first neural network, and first information indicating that the first neural network has been learned. A relationship with a specific value is learned in advance, and a relationship between pixel data of a plurality of randomly generated pixels and a specific value indicating that learning has not been performed by the first neural network is learned. A fitness determination means that is a neural network;
Based on the value indicating the suitability of the first image processing means output from the suitability judging means, the first pixel data outputted from the first image processing means and the output from the second image processing means Pixel value mixing means for mixing the second pixel data and interpolating the plurality of pixels to output pixel data of an interpolation pixel as the output value,
An image processing apparatus.
複数の画素の画素データを入力値とし、前記複数の画素を補間する補間画素の画素データを出力値とする画像処理方法をコンピュータに実行させる画像処理プログラムであって、
前記複数の画素の画素データに対して、前記複数の画素を補間する補間画素の第1画素データを出力する第1ニューラルネットワークで構成される第1画像処理機構を実現する第1画像処理機構実現ステップと、
前記第1画像処理機構が、あらかじめ生成されている複数の画素の画素データと、前記複数の画素の画素データに対応する補間画素の画素データとの関係を学習する第1学習ステップと、
前記第1画像処理手段とは異なる画像処理を実行し、前記複数の画素の画素データに対して、前記複数の画素を補間する補間画素の第2画素データを出力する第2画像処理機構を実現する第2画像処理機構実現ステップと、
前記複数の画素の画素データに対する前記第1画像処理機構による画像処理の適合性を判断して、前記第1画像処理機構の適合性を示す値を出力する第2ニューラルネットワークで構成される適合性判断機構を実現する適合性判断機構実現ステップと、
前記適合性判断機構が、前記第1ニューラルネットワークの学習に用いられた前記あらかじめ生成されている複数の画素の画素データと、前記第1ニューラルネットワークが学習済みであることを示す第1の特定値との関係があらかじめ学習されているとともに、ランダムに生成される複数の画素の画素データと、前記第1ニューラルネットワークが学習済みではないことを示す第2の特定値との関係を学習する第2学習ステップと、
前記適合性判断機構から出力される前記第1画像処理機構の適合性を示す値に基づいて、前記第1画像処理機構から出力される前記第1画素データと、前記第2画像処理機構から出力される前記第2画素データとを混合し、前記複数の画素を補間する補間画素の画素データを前記出力値として出力する画素値混合ステップとを、
有する画像処理方法をコンピュータに実行させる画像処理プログラム。
An image processing program for causing a computer to execute an image processing method having pixel data of a plurality of pixels as input values and pixel data of interpolation pixels for interpolating the plurality of pixels as output values,
Realization of a first image processing mechanism that realizes a first image processing mechanism configured by a first neural network that outputs first pixel data of interpolation pixels that interpolate the plurality of pixels with respect to pixel data of the plurality of pixels. Steps,
A first learning step in which the first image processing mechanism learns a relationship between pixel data of a plurality of pixels generated in advance and pixel data of an interpolation pixel corresponding to the pixel data of the plurality of pixels;
A second image processing mechanism that executes image processing different from the first image processing means and outputs second pixel data of interpolated pixels for interpolating the plurality of pixels with respect to pixel data of the plurality of pixels is realized. A second image processing mechanism realizing step,
Consistency constituted by a second neural network that determines the suitability of image processing by the first image processing mechanism for pixel data of the plurality of pixels and outputs a value indicating the suitability of the first image processing mechanism. A compatibility judgment mechanism realization step for realizing the judgment mechanism;
The conformity determination mechanism includes pixel data of the plurality of previously generated pixels used for learning of the first neural network, and a first specific value indicating that the first neural network has been learned. Is learned in advance, and learns a relationship between pixel data of a plurality of randomly generated pixels and a second specific value indicating that the first neural network has not been learned. Learning steps,
The first pixel data output from the first image processing mechanism and the output from the second image processing mechanism based on a value indicating the compatibility of the first image processing mechanism output from the compatibility determination mechanism. A pixel value mixing step of mixing the second pixel data and interpolating the plurality of pixels to output pixel data of an interpolation pixel as the output value,
An image processing program for causing a computer to execute an image processing method.
JP2006161491A 2006-06-09 2006-06-09 Image processing apparatus and image processing program Active JP4692401B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006161491A JP4692401B2 (en) 2006-06-09 2006-06-09 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006161491A JP4692401B2 (en) 2006-06-09 2006-06-09 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2007328735A JP2007328735A (en) 2007-12-20
JP4692401B2 true JP4692401B2 (en) 2011-06-01

Family

ID=38929133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006161491A Active JP4692401B2 (en) 2006-06-09 2006-06-09 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP4692401B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101070981B1 (en) 2009-11-05 2011-10-06 홍익대학교 산학협력단 Image Enhancement Method Using Neural Network Model Based on Edge Component Classification
WO2018154092A1 (en) * 2017-02-24 2018-08-30 Deepmind Technologies Limited Multiscale image generation
JP6347028B1 (en) * 2017-10-13 2018-06-27 株式会社ツバサファクトリー UPSAMPLE DEVICE, COMPUTER PROGRAM, COMPUTER SYSTEM, DEVICE, AND UPSAMPLE METHOD
CN112348742B (en) * 2020-11-03 2024-03-26 北京信工博特智能科技有限公司 Image nonlinear interpolation acquisition method and system based on deep learning

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0951430A (en) * 1995-08-09 1997-02-18 Fuji Photo Film Co Ltd Image data interpolation arithmetic method and device therefor
JPH09319866A (en) * 1996-05-27 1997-12-12 Sharp Corp Image processing method
JP2002323371A (en) * 2001-04-27 2002-11-08 Toshiba Corp Sound diagnostic device and sound diagnostic method
JP2005217592A (en) * 2004-01-28 2005-08-11 Mega Chips Corp Generator for pixel interpolation filter, and the pixel interpolator

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0951430A (en) * 1995-08-09 1997-02-18 Fuji Photo Film Co Ltd Image data interpolation arithmetic method and device therefor
JPH09319866A (en) * 1996-05-27 1997-12-12 Sharp Corp Image processing method
JP2002323371A (en) * 2001-04-27 2002-11-08 Toshiba Corp Sound diagnostic device and sound diagnostic method
JP2005217592A (en) * 2004-01-28 2005-08-11 Mega Chips Corp Generator for pixel interpolation filter, and the pixel interpolator

Also Published As

Publication number Publication date
JP2007328735A (en) 2007-12-20

Similar Documents

Publication Publication Date Title
JP5685064B2 (en) Image display device, image display device driving method, image display program, and gradation conversion device
JP4692401B2 (en) Image processing apparatus and image processing program
JPH09163162A (en) Image processing method and device
US10997691B2 (en) Method and device for interpolating image
JP5316385B2 (en) Image processing apparatus and image processing program
WO2022124026A1 (en) Trained model generation method and information processing device
US6628427B1 (en) Method and apparatus for image processing which improves performance of gray scale image transformation
JP5203316B2 (en) Display control apparatus and moire elimination method
JP3519186B2 (en) Image halftone processing device
JP4108517B2 (en) Halftoning processing method and halftoning processing system
JPH11261814A (en) Discrimination system for image attribute
JP2863072B2 (en) Image gradation conversion method and image processing device
JP3539533B2 (en) Image data interpolation device
JP3757644B2 (en) Image processing device
JPH07199903A (en) Method and device for generating multi-level thickened data
JP2000115541A (en) Image processing unit
JP6108217B2 (en) Image conversion processing method, program for executing the same, and image conversion processing apparatus
JP4281126B2 (en) Image processing device
JP4965378B2 (en) Image forming method and image forming system
JP3974271B2 (en) Image processing method and image processing apparatus
JP2006050480A (en) Image processing apparatus, image processing method and program thereof
JP2854489B2 (en) Image data conversion apparatus and image data conversion method
JP6108218B2 (en) Image conversion processing method, program for executing the same, and image conversion processing apparatus
JPH0383178A (en) Dither image enlarging system
JPS6226632B2 (en)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4692401

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350