JP2020017229A - Image processing apparatus, image processing method and image processing program - Google Patents

Image processing apparatus, image processing method and image processing program Download PDF

Info

Publication number
JP2020017229A
JP2020017229A JP2018141747A JP2018141747A JP2020017229A JP 2020017229 A JP2020017229 A JP 2020017229A JP 2018141747 A JP2018141747 A JP 2018141747A JP 2018141747 A JP2018141747 A JP 2018141747A JP 2020017229 A JP2020017229 A JP 2020017229A
Authority
JP
Japan
Prior art keywords
image
learning
image processing
input
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018141747A
Other languages
Japanese (ja)
Inventor
山崎 俊彦
Toshihiko Yamazaki
俊彦 山崎
遵介 中村
Shunsuke Nakamura
遵介 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2018141747A priority Critical patent/JP2020017229A/en
Priority to PCT/JP2019/029599 priority patent/WO2020022519A1/en
Publication of JP2020017229A publication Critical patent/JP2020017229A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

To provide a combination technique, in which when a plurality of image processing techniques having different properties are combined to use, advantage of each of these techniques can be brought out.SOLUTION: In an image processing apparatus, a first image generation unit generates a first image from an input image using a first image processing technique. A second image generation unit generates a second image from the input image using a second image processing technique. A synthesis ratio control unit synthesizes the first image and the second image to control an image synthesis unit that generates an output image, and a synthesis ratio for each pixel of the first image and the second image. The synthesis ratio control unit determines the synthesis ratio for each pixel of the first image and the second image on the basis of learning.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理方法及び画像処理プログラムに関する。   The present invention relates to an image processing device, an image processing method, and an image processing program.

単一画像超解像技術で用いられる手法には、フィルタリングベース手法、学習ベース手法、事例ベース手法などがある。   Techniques used in the single image super-resolution technique include a filtering-based technique, a learning-based technique, and a case-based technique.

”Enhanced deep residual networks for single image super−resolution” In CVPR Workshops.Bee Lim、Sanghyun Son、Heewon Kim、Seungjun Nah、and Kyoung Mu Lee.Vol. 1, p. 3, 2017.https://arxiv.org/pdf/1707.02921.pdf"Enhanced deep residual networks for single image super-resolution" In CVPR Workshops. Bee Lim, Sanghyun Son, Heewon Kim, Seungjun Nah, and Kyoung Mu Lee. Vol. 1, p. 3, 2017. https://arxiv.org/pdf/1707.02921.pdf

単一画像超解像技術は、1枚の解像度の低い低画質画像から、より解像度の高い高画質画像を生成する技術である。   The single-image super-resolution technique is a technique for generating a higher-resolution high-quality image from one low-resolution low-quality image.

単一画像超解像技術で用いられる手法には、バイキュービック補間(Bicubic Interpolation)などのフィルタリングベース手法、畳み込みニューラルネット(CNN:Convolutional Neural Networks、以下「CNN」という)などの学習ベース手法、低解像度画像−高解像度画像の多数のペアを用意したデータベスから入力と似た低解像度画像を検索することで高解像度化を行う事例ベース手法などがある。以下に述べる通り、フィルタリングベース手法と学習ベース手法とは、その性質が大きく異なる。   Techniques used in the single image super-resolution technique include filtering-based techniques such as Bicubic Interpolation, learning-based techniques such as Convolutional Neural Networks (CNN), and low learning techniques such as convolutional neural networks (CNN). There is a case-based method for increasing the resolution by retrieving a low-resolution image similar to the input from a database prepared with a number of pairs of a resolution image and a high-resolution image. As described below, the filtering-based method and the learning-based method have significantly different properties.

フィルタリングベース手法は、低画質画像の各ピクセルに関し、所定のルールに基づく補間等を行うことにより、ピクセル数の多い拡大画像を作成する。例えば、フィルタリングベース手法の一つであるバイキュービック補間は、低画質画像の各ピクセルに関し、周辺の4×4ピクセル(16ピクセル)を三次関数で補間することによって、拡大画像を作成する。一般にフィルタリングベース手法は高速計算が可能であり、低周波数領域(画像の一様な部分など)を高精度に推定できるため、従来様々なタイプのものが提案されてきた。反面フィルタリングベース手法には、高周波領域(画像のエッジ部分など)の推定精度が悪いという欠点がある。   The filtering-based method creates an enlarged image having a large number of pixels by performing interpolation or the like based on a predetermined rule for each pixel of the low-quality image. For example, bicubic interpolation, which is one of the filtering-based methods, creates an enlarged image by interpolating surrounding 4 × 4 pixels (16 pixels) with a cubic function for each pixel of a low-quality image. In general, various types of filtering-based methods have been proposed since they can perform high-speed calculations and can estimate a low-frequency region (such as a uniform portion of an image) with high accuracy. On the other hand, the filtering-based method has a drawback that estimation accuracy of a high-frequency region (such as an edge portion of an image) is poor.

一方CNNなどの学習ベース手法では、原画像と、該原画像を劣化させて作成した低品質画像のペアを多数用意し、両者の対応関係をニューラルネットワークによって学習する。学習ベース手法は、こうして学習した対応関係を低画質画像に適用することにより、高画質画像を生成する。学習ベース手法は、高周波領域を非常に高い精度で推定できるという利点がある。しかしその反面、学習ベース手法には、低周波領域に関してはフィルタリングベースより精度が悪い、あるいは高周波領域においても、過度に高周波成分を強調しようとするためにリンギング(エッジ周辺に元来なかったパターンが副次的に発生する現象)が発生する、といった欠点がある。   On the other hand, in a learning-based method such as CNN, a large number of pairs of an original image and a low-quality image created by degrading the original image are prepared, and the correspondence between the two is learned by a neural network. The learning-based method generates a high-quality image by applying the correspondence thus learned to a low-quality image. The learning-based method has an advantage that the high-frequency region can be estimated with extremely high accuracy. On the other hand, however, the learning-based method has lower accuracy in the low-frequency region than the filtering base, or even in the high-frequency region, tries to emphasize the high-frequency component excessively, so that ringing (a pattern that did not originally exist around the edge) Phenomena that occur as a secondary phenomenon).

このように、フィルタリングベース手法と学習ベース手法とは、低周波領域と高周波領域とにおける推定精度に関し、相補的な関係にある。
そこで、より高精度な推定を実現する目的で、フィルタリングベース手法(具体的には、バイキュービック補間)で得られた結果を、学習ベース手法(具体的には、CNN)を用いて補正する技術が提案されている(例えば非特許文献1)。
As described above, the filtering-based method and the learning-based method have a complementary relationship with respect to the estimation accuracy in the low frequency region and the high frequency region.
Therefore, a technique of correcting the result obtained by the filtering-based method (specifically, bicubic interpolation) using a learning-based method (specifically, CNN) for the purpose of realizing more accurate estimation. Has been proposed (for example, Non-Patent Document 1).

非特許文献1に記載の技術(EnhanceNet)は、先ず低品質画像にバイキュービック補間を適用して拡大画像を作成する。その後、この拡大画像と正解データ(Ground Truth)との差分をCNNにより学習する。そして、この学習により得られた差分を先に作成した拡大画像に加算する。これにより、バイキュービック補間の過程で発生した高周波領域における誤差を低減することができる。   The technique (EnhanceNet) described in Non-Patent Document 1 first creates an enlarged image by applying bicubic interpolation to a low-quality image. After that, the difference between the enlarged image and the correct data (ground truth) is learned by the CNN. Then, the difference obtained by this learning is added to the enlarged image created earlier. As a result, it is possible to reduce errors in a high frequency region generated in the process of bicubic interpolation.

しかしながらEnhanceNetには、バイキュービック補間で得られた拡大画像の、低周波領域における品質を逆に劣化させてしまうといった問題がある。これは、EnhanceNetが、単一画像超解像技術にフィルタリング手法と学習ベース手法を組み合わせて適用するにあたり、それぞれの長所が発揮されるような適用の仕方をしていないことに起因すると考えられる。   However, EnhanceNet has a problem in that the quality of the enlarged image obtained by the bicubic interpolation in the low frequency region is adversely deteriorated. It is considered that this is because EnhanceNet does not apply the single image super-resolution technique to the combination of the filtering technique and the learning-based technique so as to exhibit the advantages of each technique.

このようなことから、本発明者らは、異なる種類の画像処理手法を組み合わせて使用する場合、それぞれの手法の長所が発揮できるような仕方で組み合わせることが本分野における重要な課題であることを認識するに至った。   Thus, the present inventors have found that when using different types of image processing techniques in combination, it is an important issue in this field to combine them in such a way that the advantages of each technique can be exhibited. Recognized.

本発明はこうした状況に鑑みてなされたものであり、その目的は、性質が異なる複数の画像処理手法を組み合わせて使用する場合に、これらの手法のそれぞれの長所が発揮されるような組み合わせの仕方を提供することにある。   The present invention has been made in view of such circumstances, and a purpose thereof is to combine a plurality of image processing methods having different properties so that the advantages of each of these methods are exhibited. Is to provide.

上記課題を解決するために、本発明のある態様の画像処理装置は、第1の画像処理手法を用いて、入力画像から第1の画像を生成する第1の画像生成部と、第2の画像処理手法を用いて、入力画像から第2の画像を生成する第2の画像生成部と、第1の画像と第2の画像とを合成して、出力画像を生成する画像合成部と、第1の画像と第2の画像のピクセルごとの合成比率を制御する合成比率制御部と、を備える。合成比率制御部は、学習に基づいて、入力画像に応じて動的に第1の画像と第2の画像のピクセルごとの合成比率を決定する。   In order to solve the above problem, an image processing apparatus according to an aspect of the present invention includes a first image generation unit configured to generate a first image from an input image using a first image processing method, A second image generation unit that generates a second image from the input image using an image processing method, an image synthesis unit that synthesizes the first image and the second image to generate an output image, A combination ratio control unit that controls a combination ratio for each pixel of the first image and the second image. The composition ratio control unit dynamically determines a composition ratio for each pixel of the first image and the second image according to the input image based on the learning.

本発明の別の態様は、画像処理方法である。この方法は、第1の画像処理手法を用いて、入力画像から第1の画像を生成する第1の画像生成ステップと、第2の画像処理手法を用いて、入力画像から第2の画像を生成する第2の画像生成ステップと、第1の画像と第2の画像とを合成して、出力画像を生成する画像合成ステップと、第1の画像と第2の画像のピクセルごとの合成比率を制御する合成比率制御ステップと、を備える。合成比率制御ステップは、学習に基づいて、第1の画像と第2の画像のピクセルごとの合成比率を決定する。   Another embodiment of the present invention relates to an image processing method. The method includes a first image generating step of generating a first image from an input image using a first image processing technique, and a second image from an input image using a second image processing technique. A second image generating step of generating, an image synthesizing step of synthesizing the first image and the second image to generate an output image, and a synthesizing ratio for each pixel of the first image and the second image And controlling the combination ratio. The combining ratio control step determines a combining ratio for each pixel of the first image and the second image based on the learning.

本発明の更に別の態様は、画像処理プログラムである。このプログラムは、第1の画像処理手法を用いて、入力画像から第1の画像を生成する第1の画像生成ステップと、第2の画像処理手法を用いて、入力画像から第2の画像を生成する第2の画像生成ステップと、第1の画像と第2の画像とを合成して、出力画像を生成する画像合成ステップと、第1の画像と第2の画像のピクセルごとの合成比率を制御する合成比率制御ステップと、をコンピュータに実行させる。合成比率制御ステップは、学習に基づいて、第1の画像と第2の画像のピクセルごとの合成比率を決定する。   Still another preferred embodiment according to the present invention relates to an image processing program. The program includes a first image generation step of generating a first image from an input image using a first image processing method, and a second image from an input image using a second image processing method. A second image generating step of generating, an image synthesizing step of synthesizing the first image and the second image to generate an output image, and a synthesizing ratio for each pixel of the first image and the second image And a combining ratio controlling step of controlling the computer. The combining ratio control step determines a combining ratio for each pixel of the first image and the second image based on the learning.

なお、以上の構成要素の任意の組合せ、本発明の表現を装置、方法、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It is to be noted that any combination of the above-described components and any conversion of the expression of the present invention between an apparatus, a method, a system, a recording medium, a computer program, and the like are also effective as embodiments of the present invention.

本発明によれば、性質が異なる複数の画像処理手法を組み合わせて使用する場合に、これらの手法のそれぞれの長所が発揮されるような組み合わせを学習により実現することができる。   According to the present invention, when a plurality of image processing methods having different properties are used in combination, it is possible to realize, by learning, combinations in which the advantages of each of these methods are exhibited.

第1の実施形態に係る画像処理装置の構成を示す図である。FIG. 2 is a diagram illustrating a configuration of the image processing apparatus according to the first embodiment. 図1の画像処理装置に関するそれぞれの画像を示す図である。FIG. 2 is a diagram illustrating respective images related to the image processing apparatus in FIG. 1. 一実施形態に係る画像処理装置の構成を示す図である。FIG. 1 is a diagram illustrating a configuration of an image processing apparatus according to an embodiment.

(実施形態1)
図1に、第1の実施形態に係る画像処理装置10の構成を示す。
画像処理装置10は、第1の画像生成部100と、第2の画像生成部200と、画像合成部300と、合成比率制御部400と、を備える。
(Embodiment 1)
FIG. 1 shows a configuration of an image processing apparatus 10 according to the first embodiment.
The image processing apparatus 10 includes a first image generation unit 100, a second image generation unit 200, an image synthesis unit 300, and a synthesis ratio control unit 400.

第1の画像生成部100は、入力画像1000を入力し、第1の画像処理手法を用いて、入力画像1000から第1の画像1010を生成する。第1の画像生成部100は、生成した第1の画像1010を画像合成部300に出力する。   The first image generation unit 100 receives an input image 1000 and generates a first image 1010 from the input image 1000 using a first image processing method. The first image generation unit 100 outputs the generated first image 1010 to the image synthesis unit 300.

第2の画像生成部200は、入力画像1000を入力し、第2の画像処理手法を用いて、入力画像1000から第2の画像1020を生成する。第2の画像生成部200は、生成した第2の画像1020を画像合成部300に出力する。
典型的には、第1の画像処理手法と第2の画像処理方法とは、性質が異なる。
The second image generation unit 200 receives the input image 1000 and generates a second image 1020 from the input image 1000 using a second image processing method. The second image generator 200 outputs the generated second image 1020 to the image synthesizer 300.
Typically, the first image processing method and the second image processing method have different properties.

画像合成部300は、第1の画像1010と第2の画像1020とを合成して、出力画像1030を生成する。このとき、画像合成部300は、合成比率制御部で決定されたピクセルごとの合成比率4000に基づいて、第1の画像1010と第2の画像1020とを合成する。   The image combining unit 300 combines the first image 1010 and the second image 1020 to generate an output image 1030. At this time, the image synthesis unit 300 synthesizes the first image 1010 and the second image 1020 based on the synthesis ratio 4000 for each pixel determined by the synthesis ratio control unit.

合成比率制御部400は、学習に基づいて、第1の画像1010と第2の画像1020のピクセルごとの合成比率4000を決定する。   The composition ratio control unit 400 determines a composition ratio 4000 for each pixel of the first image 1010 and the second image 1020 based on learning.

以下、合成比率制御部400による、第1の画像1010と第2の画像1020のピクセルごとの合成比率4000の学習(以下、単に「学習」という)の一例を説明する。
学習においては、学習で使用される訓練用画像(以下、「学習用原画像」という)が与えられる。この学習用原画像は、機械学習におけるGround Truthに相当する。学習用原画像は、典型的には、所定の解像度とサイズを持つ多様な(典型的には数10万種類の)サンプル画像のセットである。
Hereinafter, an example of learning (hereinafter, simply referred to as “learning”) of the synthesis ratio 4000 for each pixel of the first image 1010 and the second image 1020 by the synthesis ratio control unit 400 will be described.
In the learning, a training image (hereinafter, referred to as a “learning original image”) used in the learning is provided. This learning original image corresponds to Ground Truth in machine learning. The learning original image is typically a set of various (typically hundreds of thousands) sample images having a predetermined resolution and size.

学習における入力画像1000には、学習用原画像に所定の変換を施して作成された画像(以下、「学習用の入力画像」という)が使用される。すなわち学習においては、第1の画像1010、第2の画像1020および出力画像1030は、学習用の入力画像1000から生成される。学習用の入力画像は、典型的には、学習用原画像のサイズを縮小(例えば、縦および横のサイズをそれぞれ1/4に縮小)したものである。   As the input image 1000 for learning, an image created by applying a predetermined conversion to the learning original image (hereinafter, referred to as “learning input image”) is used. That is, in learning, the first image 1010, the second image 1020, and the output image 1030 are generated from the input image 1000 for learning. Typically, the input image for learning is obtained by reducing the size of the original image for learning (for example, reducing the vertical and horizontal sizes to そ れ ぞ れ each).

学習の開始時に、第1の画像1010と第2の画像1020のピクセルごとの合成比率4000は、所定の初期値に設定される。   At the start of learning, the synthesis ratio 4000 for each pixel of the first image 1010 and the second image 1020 is set to a predetermined initial value.

最初に、1枚目の学習用の入力画像1000が画像処理装置10に入力される。画像合成部300は、この学習用の入力画像1000から生成された第1の画像1010と、学習用の入力画像1000から生成された第2の画像1020とを合成して、出力画像1030を生成する。このとき、画像合成部300は、合成比率制御部400に予め設定されたピクセルごとの合成比率4000の初期値に基づいて、第1の画像1010と第2の画像1020とを合成する。画像合成部300は、生成した出力画像1030を合成比率制御部400に出力する。   First, the first learning input image 1000 is input to the image processing apparatus 10. The image combining unit 300 combines the first image 1010 generated from the learning input image 1000 and the second image 1020 generated from the learning input image 1000 to generate an output image 1030. I do. At this time, the image combining unit 300 combines the first image 1010 and the second image 1020 based on the initial value of the combining ratio 4000 for each pixel preset in the combining ratio control unit 400. The image composition unit 300 outputs the generated output image 1030 to the composition ratio control unit 400.

合成比率制御部400は、出力画像1030と、1枚目の学習用の入力画像1000に対応する学習用原画像とを比較する。この比較は、典型的には、出力画像1030と学習用原画像の各ピクセル値同士の平均二乗誤差を計算することによって実行される。   The composition ratio control unit 400 compares the output image 1030 with the learning original image corresponding to the first learning input image 1000. This comparison is typically performed by calculating the mean square error between each pixel value of the output image 1030 and the original training image.

1枚目の学習用の入力画像に関する比較が完了すると、2枚目の学習用の入力画像1000が画像処理装置10に入力される。合成比率制御部400は、この2枚目の学習用の入力画像1000に関し、上記と同様の処理により、出力画像1030と学習用原画像とを比較する。   When the comparison on the first learning input image is completed, the second learning input image 1000 is input to the image processing apparatus 10. The combining ratio control unit 400 compares the output image 1030 and the learning original image with respect to the second learning input image 1000 by the same processing as described above.

以下同様に、すべての学習用の入力画像1000に関し、出力画像1030と学習用原画像との比較が行われる。   Similarly, the output image 1030 and the original learning image are compared for all the input images 1000 for learning.

すべての学習用の入力画像1000に関する、出力画像1030と学習用原画像との比較が完了すると、合成比率制御部400は、出力画像1030と学習用原画像との比較を最適化する合成比率4000を決定する。   When the comparison between the output image 1030 and the learning original image is completed for all the learning input images 1000, the combining ratio control unit 400 optimizes the comparison between the output image 1030 and the learning original image 4000. To determine.

一例として合成比率4000は、各ピクセルについて式1で定義される損失関数:flossを最小化することにより計算される。ただし、ISR、IHRは、それぞれ出力画像、学習用原画像のピクセル値を、(i,j)は2次元平面上のピクセルの座標を、nは出力画像1030と学習用原画像との比較の枚数を示す。
As an example, the composite ratio 4000 is calculated by minimizing the loss function: f loss defined in Equation 1 for each pixel. Here, I SR and I HR are the pixel values of the output image and the learning original image, respectively, (i, j) are the coordinates of the pixel on the two-dimensional plane, and n is the difference between the output image 1030 and the learning original image. Shows the number of comparisons.

以上のプロセスをすべて実行することにより学習は完了する。
このように、多様な学習用原画像(典型的には数10万種類)を用いて学習を行うことにより、これらの多様な画像に関する最適情報を含むピクセルごとの合成比率4000を生成する計算手法が決定される。換言すれば、多様な画像に関し、第1の画像処理手法と第2の画像処理手法をピクセルごとにどのような割合で適用すればよいかが明らかとなる。
The learning is completed by executing all the above processes.
As described above, by performing learning using various learning original images (typically several hundred thousand types), a calculation method of generating a pixel-by-pixel combination ratio 4000 including optimal information on these various images is performed. Is determined. In other words, for various images, it becomes clear at what ratio the first image processing method and the second image processing method should be applied for each pixel.

前述の学習により、合成比率制御部400は、未知の入力画像1000が画像処理装置10に入力されたときに、当該未知の入力画像1000の種類や特性に応じて、どのような合成比率4000で、ピクセルごとに第1の画像1010と第2の画像1020を合成すればよいかを決定する。そして新たな入力画像1000が画像処理装置10に入力されると、この学習により決定されたピクセルごとの合成比率4000を用いて出力画像1030が生成される。   By the above-described learning, when the unknown input image 1000 is input to the image processing apparatus 10, the combining ratio control unit 400 determines what kind of combining ratio 4000 according to the type and characteristics of the unknown input image 1000. , It is determined whether to combine the first image 1010 and the second image 1020 for each pixel. Then, when a new input image 1000 is input to the image processing apparatus 10, an output image 1030 is generated using the synthesis ratio 4000 for each pixel determined by this learning.

例えば、第1の画像1010の第(i,j)ピクセルをP (i,j)、第2の画像1020の第(i,j)ピクセルをP (i,j)、P (i,j)の合成比率をM(i,j)、P (i,j)の合成比率を1―M(i,j)とすると(ただし、0≦M(i,j)≦1)、合成比率制御部400は、第(i,j)ピクセルP (i,j)が式(2)で表される出力画像1030を生成する。
(i,j)=M(i,j)・P (i,j)+(1−M(i,j))・P (i,j) ・・・(2)
For example, the (i, j) pixel of the first image 1010 is P 1 (i, j) , the (i, j) pixel of the second image 1020 is P 2 (i, j) , P 1 (i , the mixing ratio M of j) (i, j), P 2 (i, 1-M (i , the mixing ratio of j), j) to the (where, 0 ≦ M (i, j ) ≦ 1), The composition ratio control unit 400 generates an output image 1030 in which the (i, j) -th pixel P 3 (i, j) is represented by Expression (2).
P 3 (i, j) = M (i, j) · P 1 (i, j) + (1-M (i, j)) · P 2 (i, j) ··· (2)

同じことを、行列表現を使って説明すると以下のようになる。
第1の画像1010をI、第2の画像1020をI、出力画像1030をISR、Iの合成比率をM、Iの合成比率をJ−Mとすると、ISRは、式(3)のように表現できることが分かる。ただし、I、I、ISR、Mは、各ピクセルに関する値を成分とする行列表現である。またJは全成分が1の行列、○は行列の成分ごとの積を表す。
SR=M○I+(J−M)○I・・・(3)
The same can be explained using a matrix expression as follows.
Assuming that the first image 1010 is I 1 , the second image 1020 is I 2 , the output image 1030 is I SR , the composition ratio of I 1 is M, and the composition ratio of I 2 is JM, I SR is represented by the following equation. It can be seen that it can be expressed as (3). Here, I 1 , I 2 , I SR , and M are matrix expressions each having a value for each pixel as a component. J represents a matrix in which all components are 1, and ○ represents a product of each matrix component.
I SR = M ○ I 1 + (J−M) ○ I 2 (3)

図2に、図1の画像処理装置に関するそれぞれの画像を示す。
これらの画像は、入力画像1000、第1の画像1010、第2の画像1020、出力画像1030を含む。また画像1040は、合成比率4000をピクセルごとに、比率が0のものを白に、比率が1のものを黒に、比率が0と1との間にあるものをそれに相当する濃度のグレーに、それぞれ対応させて表現したものである。このように合成比率4000を画像1040で表現すると、出力画像1030は、第1の画像1010と第2の画像1020とを、画像1040を間に挟んで重ね合わせたものとして表現できる。この意味で、合成比率4000を表現した画像1040は、第1の画像1010と第2の画像1020を重ね合わせるときに使用される「マスク」と解釈することができる。このマスクは、第1の画像処理手法と第2の画像処理手法とを用いて出力画像を生成する装置において、それぞれの手法の長所が発揮されるような合成を実現するものである。
FIG. 2 shows images of the image processing apparatus of FIG.
These images include an input image 1000, a first image 1010, a second image 1020, and an output image 1030. In the image 1040, the composition ratio 4000 is set to white for each pixel, a ratio 0 is set to white, a ratio 1 is set to black, and a ratio between 0 and 1 is set to gray of the corresponding density. , Respectively. When the composition ratio 4000 is represented by the image 1040 in this manner, the output image 1030 can be represented as a superimposition of the first image 1010 and the second image 1020 with the image 1040 interposed therebetween. In this sense, the image 1040 expressing the combination ratio 4000 can be interpreted as a “mask” used when the first image 1010 and the second image 1020 are superimposed. This mask realizes a combination that makes use of the advantages of the respective methods in an apparatus that generates an output image using the first image processing method and the second image processing method.

本実施形態によれば、性質が異なる2種類の画像処理手法を用いて画像を生成し、生成した画像を合成して新たな画像を生成する装置において、それぞれの手法の長所が発揮されるような合成を実現することができる。   According to the present embodiment, an apparatus that generates an image using two types of image processing methods having different properties and combines the generated images to generate a new image can exhibit the advantages of each method. A simple synthesis can be realized.

(実施形態2)
一実施形態では、出力画像は、入力画像より解像度が高くてもよい。
本実施形態は、典型的には、画像処理装置10を単一画像超解像技術に適用したものである。この場合、第1および第2の画像処理手法は、それぞれ第1および第2の単一画像超解像技術に相当する。
(Embodiment 2)
In one embodiment, the output image may have a higher resolution than the input image.
In the present embodiment, typically, the image processing apparatus 10 is applied to a single image super-resolution technique. In this case, the first and second image processing techniques correspond to the first and second single image super-resolution techniques, respectively.

低品質画像である入力画像1000は、性質の異なる2つの単一画像超解像技術を用いて、第1の画像1010および第2の画像1020に変換される。画像合成部300は、2つの単一画像超解像技術の長所が最もよく反映される比率により、第1の画像1010と第2の画像1020とを合成して出力画像1030を生成する。   The input image 1000, which is a low quality image, is converted into a first image 1010 and a second image 1020 using two single image super-resolution techniques having different properties. The image synthesizing unit 300 generates an output image 1030 by synthesizing the first image 1010 and the second image 1020 at a ratio that best reflects the advantages of the two single image super-resolution techniques.

本実施形態によれば、2種類の単一画像超解像技術を組み合わせて高品質画像を生成する装置において、これらの技術の長所が最もよく反映されるように高品質画像を生成することができる。   According to the present embodiment, in an apparatus that generates a high-quality image by combining two types of single image super-resolution techniques, it is possible to generate a high-quality image so that the advantages of these techniques are best reflected. it can.

(実施形態3)
一実施形態では、第1の画像処理手法はフィルタリングベース手法であってよく、第2の画像処理手法は学習ベース手法であってよい。
フィルタリングベース手法の画像処理手法は、前述のバイキュービック補間の他、最近傍補間(Nearest Neighbor Interpolation)、バイリニア補間(Bilinear Interpolation)、ランチョス補間(Lanczos Interpolation)等であってもよい。
(Embodiment 3)
In one embodiment, the first image processing technique may be a filtering based technique and the second image processing technique may be a learning based technique.
The image processing method based on the filtering-based method may be a nearest neighbor interpolation, a bilinear interpolation, a Lanczos interpolation, or the like, in addition to the above-mentioned bicubic interpolation.

図2には、バイキュービック補間により生成された第1の画像1010、CNNにより生成された第2の画像1020が示される。図2から、それぞれの手法の特徴を反映して、第1の画像1010は低周波領域の品質が向上し、第2の画像1020は、高周波領域の品質が向上している様子が読み取れる。マスクの形態を取る合成比率を表現した画像1040を間に挟んで、第1の画像1010と第2の画像1020とを重ね合わせることにより、それぞれの手法の長所が反映された出力画像1030が得られる。   FIG. 2 shows a first image 1010 generated by bicubic interpolation and a second image 1020 generated by CNN. From FIG. 2, it can be seen that the quality of the first image 1010 is improved in the low frequency region and the quality of the second image 1020 is improved in the high frequency region, reflecting the characteristics of each method. By superimposing the first image 1010 and the second image 1020 with an image 1040 expressing a composition ratio in the form of a mask interposed therebetween, an output image 1030 reflecting the advantages of each technique is obtained. Can be

本実施形態では、第2の画像生成部200と合成比率制御部400とは、それぞれニューラルネットワークで構成される。このとき、出力画像1030と学習用原画像との比較よって認識された生成画像のGround Truthからの誤差は、合成比率制御部400にフィードバックされるとともに、第2の画像生成部200にフィードバックされて、第2の画像生成部200の性能向上のために利用されてもよい。合成比率制御部400は、画質向上に対して、第2の画像処理手法(学習ベース手法)の寄与が高ければ高いほど(すなわち「学習ベース手法が得意な画像」ほど)第2の画像1020の合成比率を上げ、第1の画像処理手法(フィルタリングベース手法)の寄与が高ければ高いほど(すなわち「学習ベース手法が苦手な画像」ほど)第2の画像1020の合成比率を下げる。従ってこの合成比率に関する学習結果が第2の画像生成部200にフィードバックされれば、第2の画像生成部200は、「自分の得意な」画像に対してはより積極的に処理を実行し、「自分の苦手な」画像に対してはより消極的に処理を実行する、といったように処理の学習を改善することができる。このように、合成比率制御部400における学習中の学習結果を、第2の画像生成部200にフィードバックすることにより、第2の画像生成部200のニューラルネットワークを改善することができる。   In the present embodiment, the second image generation unit 200 and the composition ratio control unit 400 are each configured by a neural network. At this time, an error from the Ground Truth of the generated image recognized by comparing the output image 1030 with the learning original image is fed back to the combining ratio control unit 400 and is fed back to the second image generating unit 200. , May be used for improving the performance of the second image generation unit 200. The composition ratio control unit 400 increases the contribution of the second image processing method (learning-based method) to image quality improvement (that is, the “image that is better at the learning-based method”). The synthesis ratio is increased, and the higher the contribution of the first image processing method (the filtering-based method) is, the lower the synthesis ratio of the second image 1020 is (i.e., “the image that is not good at the learning-based method”). Therefore, if the learning result related to the combination ratio is fed back to the second image generation unit 200, the second image generation unit 200 executes the process more aggressively for the image that “is good at itself”, The processing learning can be improved, such as performing the processing more passively on an image that is “my weak point”. As described above, by feeding back the learning result during learning in the combination ratio control unit 400 to the second image generation unit 200, the neural network of the second image generation unit 200 can be improved.

本実施形態によれば、フィルタリングベース手法と学習ベース手法とを組み合わせた単一画像超解像技術において、2つの手法の互いの長所が損なわれることなく、これらの長所が最も発揮されるように、高品質画像を生成することができる。   According to the present embodiment, in a single image super-resolution technique that combines a filtering-based technique and a learning-based technique, the two techniques are designed so that the mutual advantages of the two techniques are exhibited most without being impaired. , And can produce high quality images.

(実施形態4)
一実施形態では、第1の画像1010と第2の画像1020のピクセルごとの合成比率4000を決定するための画像比較の回数をn回とし、kを1≦k<nを満たす整数としたとき、合成比率制御部400は、1回目からk回目までの画像比較では、学習用原画像を変換して作成された学習用の入力画像1000から生成された第2の画像1020と、該学習用原画像とを比較し、k+1回目からn回目までの画像比較では、学習用原画像を変換して作成された学習用の入力画像1000から生成された出力画像1030と、該学習用原画像とを比較してもよい。
(Embodiment 4)
In one embodiment, when the number of image comparisons for determining the composition ratio 4000 for each pixel of the first image 1010 and the second image 1020 is n, and k is an integer satisfying 1 ≦ k <n In the first to k-th image comparisons, the combining ratio control unit 400 compares the second image 1020 generated from the learning input image 1000 created by converting the learning original image with the learning In the k + 1-th to n-th image comparisons, the output image 1030 generated from the learning input image 1000 created by converting the learning original image, and the learning original image May be compared.

例えば第1の画像処理手法がバイキュービック補間で、第2の画像処理手法がCNNだった場合、学習の初期段階ではCNNはバイキュービック補間に比べて精度が悪いため、合成比率4000の行列表現Mは、早い段階でM=Jとなってしまい、それ以上学習が進まなくなることがある。そこで最初のk回の画像比較は、バイキュービック補間による画像とCNN補完による画像を合成した画像を改善することに代えて、CNNによる生成画像のみを改善することにより、学習を正しく進行することができる。   For example, if the first image processing method is bicubic interpolation and the second image processing method is CNN, the accuracy of CNN is lower than that of bicubic interpolation in the initial stage of learning. , M = J at an early stage, and learning may not proceed any further. Therefore, in the first k image comparisons, instead of improving the image obtained by combining the image obtained by the bicubic interpolation and the image obtained by the CNN interpolation, only the image generated by the CNN is improved so that the learning can proceed correctly. it can.

本実施形態によれば、フィルタリングベース手法と学習ベース手法を組み合わせた単一画像超解像技術において、得られる画像の品質をより高い確率で向上することができる。   According to the present embodiment, the quality of the obtained image can be improved with a higher probability in the single image super-resolution technique combining the filtering-based technique and the learning-based technique.

(変形例)
以上、本発明を実施例を基に説明した。これらの実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
(Modification)
The present invention has been described based on the embodiments. These embodiments are exemplifications, and it is understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and that such modifications are also within the scope of the present invention. is there.

(変形例1)
画像生成部が中間段階の処理ブロックを含む複数の処理ブロックから構成される場合、合成比率制御部は、中間段階のブロックで生成される情報を学習に用いてもよい。
(Modification 1)
When the image generation unit includes a plurality of processing blocks including an intermediate stage processing block, the composition ratio control unit may use information generated in the intermediate stage block for learning.

図3に一実施形態に係る画像処理装置11の構成を示す。図1の画像処理装置10との
違いは、第2の画像生成部200が、第1の中間処理ブロック210、第2の中間処理ブロック220、最終処理ブロック230を備える点である。
FIG. 3 shows a configuration of the image processing apparatus 11 according to one embodiment. The difference from the image processing apparatus 10 of FIG. 1 is that the second image generation unit 200 includes a first intermediate processing block 210, a second intermediate processing block 220, and a final processing block 230.

第2の画像生成部200は、入力した入力画像1000を、第1の中間処理ブロック210および第2の中間処理ブロック220で処理した後、最終処理ブロック230で第2の画像1020を生成する。すなわち、第2の画像生成部200は、入力画像1000を、第1の中間処理ブロック210、第2の中間処理ブロック220、最終処理ブロック230の順にシーケンシャルに処理する。   The second image generation unit 200 processes the input image 1000 that has been input in the first intermediate processing block 210 and the second intermediate processing block 220, and then generates the second image 1020 in the final processing block 230. That is, the second image generation unit 200 sequentially processes the input image 1000 in the order of the first intermediate processing block 210, the second intermediate processing block 220, and the final processing block 230.

第1の中間処理ブロック210は第1の中間データ5010を生成し、第2の中間処理ブロック220は第2の中間データ5020を生成する。合成比率制御部400は、学習において、出力画像1030と学習用原画像とを比較することに加えて、第1の中間データ5010および第2の中間データ5020も利用する。
画像処理装置11のその他の構成は、画像処理装置10と共通であるため、説明を省略する。
本変形例によれば、出力画像の画質を更に向上することができる。
The first intermediate processing block 210 generates first intermediate data 5010, and the second intermediate processing block 220 generates second intermediate data 5020. In the learning, the combining ratio control unit 400 uses the first intermediate data 5010 and the second intermediate data 5020 in addition to comparing the output image 1030 with the original learning image.
The other configuration of the image processing apparatus 11 is common to the image processing apparatus 10 and thus the description is omitted.
According to this modification, the image quality of the output image can be further improved.

(変形例2)
画像処理手法は、2つであることに代えて、3つ以上あってもよい。
本変形例によれば、画像処理手法の選択の幅を広げることができる。
(Modification 2)
The number of image processing methods may be three or more instead of two.
According to the present modification, the range of selection of the image processing method can be expanded.

(変形例3)
入力画像は、1枚だけ入力することに代えて、向きを代えた複数の画像を入力し、それぞれに関する出力画像を生成した後に、これらの平均値を取ってもよい。例えば、ある画像、この画像を90度、180度、270度回転したもの、およびこれらの左右反転を含む8枚の画像を入力画像としてよい。こうした手法は、例えばgeometric self−ensemblingと呼ばれる、既知の画質向上手法の1つである。この手法を本発明の実施形態に適用することにより、入力画像が1回のみの場合に比べて画質を向上することができる。
このように本発明は、geometric self−ensemblingのような既知の画質向上手法との整合性がよいことが分かる。
(Modification 3)
Instead of inputting only one input image, a plurality of images in different directions may be input, and an output image may be generated for each of the input images. For example, an input image may be a certain image, an image obtained by rotating the image by 90 degrees, 180 degrees, or 270 degrees, and eight images including the left-right inversion. Such a technique is one of known image quality improving techniques called, for example, geometric self-ensembling. By applying this method to the embodiment of the present invention, the image quality can be improved as compared with the case where the input image is only one time.
Thus, it can be seen that the present invention has good compatibility with known image quality improvement methods such as geometric self-ensembling.

(変形例4)
本発明の一態様に係る画像処理方法において、画像を生成するステップは、2つに限定されず、3つ以上あってもよい。すなわち前述の実施形態における、第1の画像処理手法を用いて、入力画像から第1の画像を生成する第1の画像生成ステップと、第2の画像処理手法を用いて、入力画像から第2の画像を生成する第2の画像生成ステップと、に加えて、更なる画像生成ステップを含んでもよい。このとき、更なる画像生成ステップは、第1の画像処理手法又は第2の画像処理手法を用いて画像を生成してもよいし、それ以外の画像処理手法を用いて画像を生成してもよい。
本変形例によれば、画像生成ステップの数を増やすことにより、出力画像の画質を更に向上することができる。
(Modification 4)
In the image processing method according to one embodiment of the present invention, the number of steps for generating an image is not limited to two, and may be three or more. That is, a first image generation step of generating a first image from an input image using the first image processing method in the above-described embodiment, and a second image generation step of generating a second image from the input image using the second image processing method. In addition to the second image generation step of generating the image of the above, an additional image generation step may be included. At this time, in the further image generation step, an image may be generated using the first image processing method or the second image processing method, or an image may be generated using another image processing method. Good.
According to this modification, the image quality of the output image can be further improved by increasing the number of image generation steps.

本発明は、上に挙げた画像の解像度の向上の他、色調補正、画像ノイズ除去、画像ボケ除去、画像欠損修復など様々な画像処理に応用することができる。更に本発明の手法は、画像処理の他にも、音声、テキスト等の様々なデータ処理に適用が可能であり、産業上の利用性が高いものである。   The present invention can be applied to various image processing such as color tone correction, image noise removal, image blur removal, and image defect repair, in addition to the above-described improvement of image resolution. Further, the method of the present invention can be applied to various data processing such as voice and text in addition to image processing, and has high industrial applicability.

10 画像処理装置、 100 第1の画像生成部、 200 第2の画像生成部、 300 画像合成部、 400 合成比率制御部、 1000 入力画像、 1010 第1の画像、 1020 第2の画像、 1030 出力画像、 4000 合成比率   DESCRIPTION OF SYMBOLS 10 Image processing apparatus, 100 1st image generation part, 200 2nd image generation part, 300 image synthesis part, 400 synthesis ratio control part, 1000 input images, 1010 1st image, 1020 2nd image, 1030 output Image, 4000 composition ratio

Claims (7)

第1の画像処理手法を用いて、入力画像から第1の画像を生成する第1の画像生成部と、
第2の画像処理手法を用いて、入力画像から第2の画像を生成する第2の画像生成部と、
前記第1の画像と前記第2の画像とを合成して、出力画像を生成する画像合成部と、
前記第1の画像と前記第2の画像のピクセルごとの合成比率を制御する合成比率制御部と、を備え、
前記合成比率制御部は、学習に基づいて、前記第1の画像と前記第2の画像のピクセルごとの合成比率を決定する
ことを特徴とする、画像処理装置。
A first image generation unit configured to generate a first image from an input image using a first image processing method;
A second image generation unit that generates a second image from the input image using a second image processing method;
An image synthesizing unit that synthesizes the first image and the second image to generate an output image;
A combination ratio control unit that controls a combination ratio for each pixel of the first image and the second image,
The image processing device, wherein the combination ratio control unit determines a combination ratio for each pixel of the first image and the second image based on learning.
前記合成比率制御部は、学習用原画像を変換して作成された学習用の入力画像から生成された出力画像と、該学習用原画像との比較に基づく学習に基づいて、前記第1の画像と前記第2の画像のピクセルごとの合成比率を決定する
ことを特徴とする、請求項1に記載の画像処理装置。
The composition ratio control unit is configured to convert the first image for learning based on learning based on a comparison between an output image generated from an input image for learning generated by converting the original image for learning and the original image for learning. The image processing apparatus according to claim 1, wherein a composition ratio of each pixel of the image and the second image is determined.
出力画像は、入力画像より解像度が高い
ことを特徴とする、請求項1または2に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the output image has a higher resolution than the input image.
前記第1の画像処理手法は、フィルタリングベース手法であり、
前記第2の画像処理手法は、学習ベース手法である
ことを特徴とする、請求項3に記載の画像処理装置。
The first image processing method is a filtering-based method,
The image processing apparatus according to claim 3, wherein the second image processing method is a learning-based method.
前記第1の画像と前記第2の画像のピクセルごとの合成比率を決定するための画像比較の回数をn回とし、kを1≦k<nを満たす整数としたとき、
前記合成比率制御部は、
1回目からk回目までの画像比較では、学習用原画像を変換して作成された学習用の入力画像から生成された第2の画像と、該学習用原画像との比較に基づいて画像比較を実行し、
k+1回目からn回目までの画像比較では、学習用原画像を変換して作成された学習用の入力画像から生成された出力画像と、該学習用原画像との比較に基づいて画像比較を実行する
ことを特徴とする、請求項4に記載の画像処理装置。
When the number of image comparisons for determining the composition ratio of each pixel of the first image and the second image is n, and k is an integer satisfying 1 ≦ k <n,
The combination ratio control unit includes:
In the first to k-th image comparisons, image comparison is performed based on a comparison between a second image generated from a learning input image created by converting the learning original image and the learning original image. Run
In the k + 1-th to n-th image comparisons, image comparison is performed based on a comparison between an output image generated from a learning input image created by converting the learning original image and the learning original image. The image processing apparatus according to claim 4, wherein the image processing is performed.
第1の画像処理手法を用いて、入力画像から第1の画像を生成する第1の画像生成ステップと、
第2の画像処理手法を用いて、入力画像から第2の画像を生成する第2の画像生成ステップと、
前記第1の画像と前記第2の画像とを合成して、出力画像を生成する画像合成ステップ と、
前記第1の画像と前記第2の画像のピクセルごとの合成比率を制御する合成比率制御ステップと、を備え、
前記合成比率制御ステップは、学習に基づいて、前記第1の画像と前記第2の画像のピクセルごとの合成比率を決定する
ことを特徴とする、画像処理方法。
A first image generation step of generating a first image from an input image using a first image processing technique;
A second image generation step of generating a second image from the input image using a second image processing technique;
An image combining step of combining the first image and the second image to generate an output image;
A combination ratio control step of controlling a combination ratio for each pixel of the first image and the second image,
The image processing method, wherein the combining ratio control step determines a combining ratio for each pixel of the first image and the second image based on learning.
第1の画像処理手法を用いて、入力画像から第1の画像を生成する第1の画像生成ステップと、
第2の画像処理手法を用いて、入力画像から第2の画像を生成する第2の画像生成ステップと、
前記第1の画像と前記第2の画像とを合成して、出力画像を生成する画像合成ステップと、
前記第1の画像と前記第2の画像のピクセルごとの合成比率を制御する合成比率制御ステップと、をコンピュータに実行させ、
前記合成比率制御ステップは、学習に基づいて、前記第1の画像と前記第2の画像のピクセルごとの合成比率を決定する
ことを特徴とする、画像処理プログラム。
A first image generation step of generating a first image from an input image using a first image processing technique;
A second image generation step of generating a second image from the input image using a second image processing technique;
An image combining step of combining the first image and the second image to generate an output image;
Causing a computer to execute a combination ratio control step of controlling a combination ratio of each pixel of the first image and the second image.
The image processing program, wherein the combining ratio control step determines a combining ratio for each pixel of the first image and the second image based on learning.
JP2018141747A 2018-07-27 2018-07-27 Image processing apparatus, image processing method and image processing program Pending JP2020017229A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018141747A JP2020017229A (en) 2018-07-27 2018-07-27 Image processing apparatus, image processing method and image processing program
PCT/JP2019/029599 WO2020022519A1 (en) 2018-07-27 2019-07-29 Image processing device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018141747A JP2020017229A (en) 2018-07-27 2018-07-27 Image processing apparatus, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2020017229A true JP2020017229A (en) 2020-01-30

Family

ID=69181720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018141747A Pending JP2020017229A (en) 2018-07-27 2018-07-27 Image processing apparatus, image processing method and image processing program

Country Status (2)

Country Link
JP (1) JP2020017229A (en)
WO (1) WO2020022519A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021176605A1 (en) * 2020-03-04 2021-09-10 オリンパス株式会社 Learning data creation system and learning data creation method
WO2021192133A1 (en) * 2020-03-26 2021-09-30 日本電気株式会社 Object recognition device, object recognition method, and recording medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3166070B1 (en) * 2015-11-09 2021-01-06 InterDigital CE Patent Holdings Method for upscaling noisy images, and apparatus for upscaling noisy images

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021176605A1 (en) * 2020-03-04 2021-09-10 オリンパス株式会社 Learning data creation system and learning data creation method
JPWO2021176605A1 (en) * 2020-03-04 2021-09-10
WO2021192133A1 (en) * 2020-03-26 2021-09-30 日本電気株式会社 Object recognition device, object recognition method, and recording medium
JPWO2021192133A1 (en) * 2020-03-26 2021-09-30
JP7298776B2 (en) 2020-03-26 2023-06-27 日本電気株式会社 OBJECT RECOGNITION DEVICE, OBJECT RECOGNITION METHOD, AND PROGRAM

Also Published As

Publication number Publication date
WO2020022519A1 (en) 2020-01-30

Similar Documents

Publication Publication Date Title
JP4140690B2 (en) Method for generating a super-resolution image from a pixel image
JP2003283811A (en) Image processing apparatus and program
JP2000228715A (en) Method for readjusting pixel in continuous gradation picture data
US20230005114A1 (en) Image restoration method and apparatus
WO2020022519A1 (en) Image processing device, image processing method, and image processing program
JP2006222493A (en) Creation of high resolution image employing a plurality of low resolution images
JP4947351B2 (en) Image processing apparatus and program
KR20210116922A (en) Method and Device for Fast Adaptation through Meta-learning of Super Resolution Model
US8520253B2 (en) Method and system for scaling with dot gain control
JP2006221221A (en) Generation of high resolution image using two or more low resolution image
JP2014222442A (en) Space and gradation super-resolution device and program
US6628427B1 (en) Method and apparatus for image processing which improves performance of gray scale image transformation
JP5198500B2 (en) Signal processing apparatus and program
JPH07105359A (en) Picture processor
JP3539552B2 (en) Image processing device
JP2004304543A (en) Halftoning processing method and halftoning processing system
JP2016115313A (en) Super-resolution device and program
JP2007265055A (en) Resolution conversion processing method of binary image
JP2006202170A (en) Generation of high-resolution image using a plurality of low resolution images
JP2020088449A (en) Image processing apparatus, image processing method, and program
JP2019204167A (en) Image super resolution apparatus and program thereof, and parameter learning device and program thereof
JP4517287B2 (en) Image processing apparatus, image processing method, and program thereof
JP2000115541A (en) Image processing unit
JP2024013652A (en) Image processing method, image processing apparatus, and program
JP6139608B2 (en) Image enhancement based on pseudo-skeleton for document image reproduction