JP2015197818A - Image processing apparatus and method of the same - Google Patents

Image processing apparatus and method of the same Download PDF

Info

Publication number
JP2015197818A
JP2015197818A JP2014075723A JP2014075723A JP2015197818A JP 2015197818 A JP2015197818 A JP 2015197818A JP 2014075723 A JP2014075723 A JP 2014075723A JP 2014075723 A JP2014075723 A JP 2014075723A JP 2015197818 A JP2015197818 A JP 2015197818A
Authority
JP
Japan
Prior art keywords
image
resolution image
unit
resolution
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014075723A
Other languages
Japanese (ja)
Inventor
敦 ▲高▼濱
敦 ▲高▼濱
Atsushi Takahama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014075723A priority Critical patent/JP2015197818A/en
Publication of JP2015197818A publication Critical patent/JP2015197818A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To generate high-resolution image having high sharpness from a low resolution image.SOLUTION: A high-resolution image generation part 104 generates a high-resolution image X from a low resolution image Y through reconfiguration type super-resolution. A high range emphasis part 105 performs high range emphasis of the high-resolution image on the basis of a high-resolution image Xinitially generated by the high-resolution image generation part 104 and the current high-resolution image X.

Description

本発明は、低解像度画像から高解像度画像を生成する画像処理に関する。   The present invention relates to image processing for generating a high resolution image from a low resolution image.

低解像度画像から高解像度画像を生成する手法として超解像技術が知られている。超解像技術には、大きく再構成型超解像(例えば、非特許文献1)と学習型超解像(例えば、非特許文献2)の二つの手法がある。   A super-resolution technique is known as a technique for generating a high-resolution image from a low-resolution image. There are two major super-resolution techniques: reconfiguration-type super-resolution (for example, Non-Patent Document 1) and learning-type super-resolution (for example, Non-Patent Document 2).

再構成型超解像は、まず、補間拡大処理などにより元の低解像度画像から適当な初期高解像度画像を生成し、撮像情報(ブラー、ダウンサンプリング、モーション)を用いて、初期高解像度画像の低解像度画像を生成する。そして、初期高解像度画像から生成した低解像度画像と元の低解像度画像の間の誤差を計算し、その誤差を小さくするように初期高解像度画像を更新する。   In reconstruction super-resolution, first, an appropriate initial high-resolution image is generated from the original low-resolution image by interpolation enlargement processing, etc., and the initial high-resolution image is captured using imaging information (blur, down-sampling, motion). Generate a low resolution image. Then, an error between the low resolution image generated from the initial high resolution image and the original low resolution image is calculated, and the initial high resolution image is updated so as to reduce the error.

再構成型超解像は、入力画像データとして複数のよく似た画像(微小な位置ずれをもつ)のデータが存在すれば、非常に高い効果を発揮する手法である。しかし、入力画像データが一つであったり、入力画像データが複数であっても正確な位置合わせを行うことが難しい、または、帯域などの制約条件を満たさない場合、再構成型超解像は、鮮鋭度の低い画像しか生成することができない。   Reconstruction-type super-resolution is a technique that exhibits a very high effect when there are a plurality of similar image data (having minute positional deviations) as input image data. However, if there is only one input image data, it is difficult to perform accurate alignment even if there are multiple input image data, or if the constraints such as the band are not satisfied, the reconstruction type super-resolution is Only images with low sharpness can be generated.

一方、学習型超解像は事前に生成した学習データを利用して超解像処理を行う。学習データは、例えば低解像度画像と高解像度画像の小領域単位の対応関係によって構成される。学習データは、例えば理想画像(高解像度画像)とシミュレーションなどにより作成した想定入力画像(低解像度画像)を小領域単位に比較した対応関係として生成される。学習型超解像は、一つの低解像度画像から高解像度画像を生成することが可能である。   On the other hand, learning-type super-resolution performs super-resolution processing using learning data generated in advance. The learning data is composed of, for example, a correspondence between small resolution units of a low resolution image and a high resolution image. The learning data is generated as a correspondence relationship in which, for example, an ideal image (high resolution image) and an assumed input image (low resolution image) created by simulation or the like are compared in units of small areas. Learning super-resolution can generate a high-resolution image from one low-resolution image.

学習型超解像によれば、入力画像データが学習データと正確に一致すれば理想的な高解像度画像を生成することができるが、そうでない場合はノイズが発生する。そのため、抽象化を用いて学習を行うが、これにより汎用性が高まる一方、理想的な画像に比べて鮮鋭感の低い高解像度画像が生成される。   According to learning-type super-resolution, an ideal high-resolution image can be generated if the input image data exactly matches the learning data, but noise is generated otherwise. For this reason, learning is performed using abstraction, which increases versatility, while generating a high-resolution image with a lower sharpness than an ideal image.

そこで、一つの画像データからノイズがなく、できるだけ鮮鋭感が高い高解像度画像を生成する技術が提案されている。例えば、特許文献1の技術は、同じ輝度変化が被写体の輪郭に沿って連続することに着目する再構成型超解像処理を提案する。しかし、特許文献1が提案される手法は、被写体の輪郭に沿って同じ輝度変化が空間的に連続する性質を利用するため、効果が得られる画像はエッジ部が多い一部の画像に限られる。   Therefore, a technique has been proposed for generating a high-resolution image that has no noise and is as sharp as possible from one image data. For example, the technique of Patent Document 1 proposes a reconfigurable super-resolution process that focuses on the fact that the same luminance change continues along the contour of the subject. However, since the technique proposed in Patent Document 1 uses the property that the same luminance change is spatially continuous along the contour of the subject, an image that can obtain an effect is limited to a part of images having many edge portions. .

特開2007-310837号公報JP 2007-310837 A

Sung C. P.、Min K. P.「Super-Resolution Image Reconstruction: A Technical Overview」IEEE Signal Proc. Magazine、Vol. 26、No. 3、21-36頁、2003年Sung C. P., Min K. P. `` Super-Resolution Image Reconstruction: A Technical Overview '' IEEE Signal Proc. Magazine, Vol. 26, No. 3, pp. 21-36, 2003 Freeman, W.T.、Jones, T.R.、Pasztor, E.C.「Example-based super-resolution」 Computer Graphics and Applications、IEEE、2002年Freeman, W.T., Jones, T.R., Pasztor, E.C.``Example-based super-resolution '' Computer Graphics and Applications, IEEE, 2002 S. Daly「The Visible Differences Predictor: Analgorithm for the assessment of image fidelity」in A. B. Watson, editor, Digital Image and Human Vision、179-206頁、Cambridge、MA、 MIT Press、1993年S. Daly “The Visible Differences Predictor: Analgorithm for the assessment of image fidelity” in A. B. Watson, editor, Digital Image and Human Vision, 179-206, Cambridge, MA, MIT Press, 1993

本発明は、低解像度画像から鮮鋭感の高い高解像度画像を生成することを目的とする。   An object of the present invention is to generate a high-resolution image with high sharpness from a low-resolution image.

本発明は、前記の目的を達成する一手段として、以下の構成を備える。   The present invention has the following configuration as one means for achieving the above object.

本発明にかかる画像処理は、再構成型超解像により低解像度画像から高解像度画像を生成し、初期に生成された高解像度画像と現在の高解像度画像に基づき、高解像度画像の高域強調を行う。   Image processing according to the present invention generates a high-resolution image from a low-resolution image by reconstruction super-resolution, and based on the initially generated high-resolution image and the current high-resolution image, high-frequency enhancement of the high-resolution image I do.

本発明によれば、低解像度画像から鮮鋭感の高い高解像度画像を生成することができる。   According to the present invention, a high-resolution image with high sharpness can be generated from a low-resolution image.

実施例の画像処理装置の構成例を示すブロック図。1 is a block diagram illustrating a configuration example of an image processing apparatus according to an embodiment. 画像処理部の構成例を示すブロック図。The block diagram which shows the structural example of an image process part. 画像処理部の画像処理を説明するフローチャート。The flowchart explaining the image process of an image process part. 画像処理部の画像処理を説明するフローチャート。The flowchart explaining the image process of an image process part. 行列と低解像度データのサイズの関係を示す図。The figure which shows the relationship between a matrix and the size of low-resolution data. 実施例2の画像処理部の構成例を示すブロック図。FIG. 6 is a block diagram illustrating a configuration example of an image processing unit according to the second embodiment. 画像処理部の画像処理を説明するフローチャート。The flowchart explaining the image process of an image process part. 画像処理部の画像処理を説明するフローチャート。The flowchart explaining the image process of an image process part. 実施例3の画像処理部の構成例を示すブロック図。FIG. 10 is a block diagram illustrating a configuration example of an image processing unit according to the third embodiment. 高域成分算出部の構成例を示すブロック図。The block diagram which shows the structural example of a high region component calculation part. 画像処理部の画像処理を説明するフローチャート。The flowchart explaining the image process of an image process part.

以下、本発明にかかる実施例の画像処理を図面を参照して詳細に説明する。   Hereinafter, image processing according to an embodiment of the present invention will be described in detail with reference to the drawings.

[装置の構成]
図1のブロック図により実施例の画像処理装置の構成例を示す。
[Device configuration]
The block diagram of FIG. 1 shows a configuration example of the image processing apparatus of the embodiment.

画像入力部101は、低解像度画像の画像データ(以下、低解像度データ)を入力する。画像処理部102は、画像入力部101が低画像データから、より解像度が高い画像データ(以下、高解像度データ)を生成する。画像出力部103は、画像処理部102が生成した高解像度データを出力する。   The image input unit 101 inputs image data of a low resolution image (hereinafter, low resolution data). In the image processing unit 102, the image input unit 101 generates image data with higher resolution (hereinafter referred to as high resolution data) from the low image data. The image output unit 103 outputs the high resolution data generated by the image processing unit 102.

低解像度データの供給元は、ディジタルカメラなどの撮像装置、メモリカードなどの記録媒体、有線または無線ネットワークを介して接続されたサーバ装置やユーザデバイスなどである。画像入力部101は、ユーザ指示に従い、指定された供給元から低解像度データを入力する。   The low-resolution data is supplied from an imaging device such as a digital camera, a recording medium such as a memory card, a server device or a user device connected via a wired or wireless network. The image input unit 101 inputs low resolution data from a designated supply source in accordance with a user instruction.

高解像度データの出力先は、液晶パネルなどの表示装置、メモリカードなどの記録媒体、有線または無線ネットワークを介して接続されたサーバ装置やユーザデバイスなどである。画像出力部103は、ユーザ指示に従い、指定された出力先に高解像度データを出力する。   The output destination of the high resolution data is a display device such as a liquid crystal panel, a recording medium such as a memory card, a server device or a user device connected via a wired or wireless network. The image output unit 103 outputs high-resolution data to a specified output destination according to a user instruction.

なお、実施例の画像処理装置は、画像入力部101、画像処理部102、画像出力部103の処理機能を実行するプログラムをパーソナルコンピュータ(PC)などのコンピュータ機器に供給することで実現される。つまり、PCのCPUが、RAMをワークメモリとして、当該プログラムを実行することで画像処理装置が実現される。   The image processing apparatus according to the embodiment is realized by supplying a program for executing the processing functions of the image input unit 101, the image processing unit 102, and the image output unit 103 to a computer device such as a personal computer (PC). That is, the image processing apparatus is realized by the CPU of the PC executing the program using the RAM as a work memory.

[画像処理部]
図2のブロック図により画像処理部102の構成例を示す。
[Image processing unit]
A configuration example of the image processing unit 102 is shown in the block diagram of FIG.

画像入力部101から入力される低解像度データは、メモリ部201に格納されて保持される。初期画像生成部202は、低解像データから高解像度データの初期画像(以下「初期高解像度画像X0」)を生成する。 The low resolution data input from the image input unit 101 is stored and held in the memory unit 201. The initial image generation unit 202 generates an initial image of high resolution data (hereinafter, “initial high resolution image X 0 ”) from the low resolution data.

画像劣化部203は、撮像情報保持部204から与えられる劣化条件に従って高解像度画像Xを劣化させた劣化画像を生成する。劣化条件は、撮像装置における光学系の点像関数(PSF)およびセンサ画素数の制限による劣化過程であるダウンサンプリングである。ダウンサンプリングの劣化条件は、ダウンサンプリング時の縮小倍率(1/Sx, 1/Sy)で与えられる(Sx>0、Sy>0)。劣化条件の詳細は後述するが、劣化条件は予め設定されている。   The image degradation unit 203 generates a degraded image obtained by degrading the high-resolution image X in accordance with the degradation condition given from the imaging information holding unit 204. The deterioration condition is downsampling, which is a deterioration process due to the limitation of the point spread function (PSF) of the optical system and the number of sensor pixels in the imaging apparatus. The deterioration condition of downsampling is given by the reduction ratio (1 / Sx, 1 / Sy) at the time of downsampling (Sx> 0, Sy> 0). Although details of the deterioration condition will be described later, the deterioration condition is preset.

評価値算出部205は、メモリ部201が保持する低解像度データと、画像劣化部203が生成した劣化画像データの差分を評価値Eとして演算する。収束判定部206は、評価値Eに基づき、高解像度画像Xの更新が収束したか否かを判断する。   The evaluation value calculation unit 205 calculates a difference between the low resolution data held by the memory unit 201 and the deteriorated image data generated by the image deterioration unit 203 as an evaluation value E. Based on the evaluation value E, the convergence determination unit 206 determines whether or not the update of the high resolution image X has converged.

更新量算出部207は、再構成型超解像の一種である最大事後確率推定法(maximum a posteriori estimation method)(以下、MAP推定法)によって、現在の高解像度画像Xを修正するための更新量を算出する。高域強調判定部209は、現在の高解像度画像Xに対して高域強調を行うか、画像処理部102の画像処理を終了して現在の高解像度画像Xの画像データ(高解像度データ)を出力するかを判定する。なお、高域強調により画像データの空間周波数が高い成分が強調されて、画像の鮮鋭性が高められる。   The update amount calculation unit 207 is an update for correcting the current high-resolution image X by a maximum a posteriori estimation method (hereinafter referred to as a MAP estimation method), which is a kind of reconstruction type super-resolution. Calculate the amount. The high frequency emphasis determination unit 209 performs high frequency emphasis on the current high resolution image X, or ends the image processing of the image processing unit 102 and obtains the image data (high resolution data) of the current high resolution image X. Determine whether to output. Note that the high-frequency emphasis enhances components having a high spatial frequency of the image data, thereby enhancing the sharpness of the image.

差分算出部210は、高域強調を行うために、現在の高解像度画像Xと初期高解像度画像X0との差分(後述する高域成分)を算出する。画像更新部208は、更新量算出部207が算出した更新量または差分算出部210が算出した差分(高域成分)を現在の高解像度画像Xに加算して更新後の高解像度画像Xを生成する。 The difference calculation unit 210 calculates a difference (a high frequency component described later) between the current high resolution image X and the initial high resolution image X 0 in order to perform high frequency emphasis. The image update unit 208 adds the update amount calculated by the update amount calculation unit 207 or the difference (high frequency component) calculated by the difference calculation unit 210 to the current high resolution image X to generate an updated high resolution image X To do.

このように、初期画像生成部202、画像劣化部203、撮像情報保持部204、評価値算出部205、収束判定部206、更新量算出部207および画像更新部208は、高解像度画像生成部104を構成する。また、高域強調判定部209および差分算出部210は、高域強調部105を構成する。   As described above, the initial image generation unit 202, the image degradation unit 203, the imaging information holding unit 204, the evaluation value calculation unit 205, the convergence determination unit 206, the update amount calculation unit 207, and the image update unit 208 are included in the high resolution image generation unit 104. Configure. The high frequency emphasis determination unit 209 and the difference calculation unit 210 constitute a high frequency emphasis unit 105.

●劣化条件
撮像装置の劣化条件として、撮像装置の光学系のPSFと、センサ画素数の制限による劣化過程であるダウンサンプリングを扱う。撮像される画像(低解像度データ)をYとすると、式(1)で定義するように劣化条件が作用する。
Y = DB・X …(1)
ここで、行列Bは、PSFによる劣化処理を行う正方行列、
行列Dは、ダウンサンプリング処理の画像縮小倍率を反映した行列。
Xは、高解像度データ。
● Degradation conditions As degradation conditions for the imaging device, the PSF of the optical system of the imaging device and downsampling, which is a degradation process due to the limitation on the number of sensor pixels, are handled. Assuming that the captured image (low resolution data) is Y, the degradation condition acts as defined by equation (1).
Y = DB · X (1)
Here, the matrix B is a square matrix that performs degradation processing by PSF,
Matrix D is a matrix reflecting the image reduction magnification of the downsampling process.
X is high resolution data.

図4により行列BとDのサイズが低解像度データのサイズに依存することを示す。低解像度データのサイズを横画素数Wと縦画素数H、ダウンサンプリング時の画像縮小倍率を(1/Sx, 1/Sy)とすると、式(1)に記載する行列のサイズは図4に示すとおりである。   FIG. 4 shows that the sizes of the matrices B and D depend on the size of the low resolution data. Assuming that the size of the low-resolution data is the number of horizontal pixels W and the number of vertical pixels H, and the image reduction ratio during downsampling is (1 / Sx, 1 / Sy), the size of the matrix described in equation (1) is shown in Fig. 4. It is shown.

高解像度データであるXは、ベクトル記述として扱うため、その行列サイズは(H×W)行×1列になる。PSFによる劣化処理を行う行列Bは、(H×W)行×(H×W)列の正方行列になる。ダウンサンプリング処理を表す行列Dのサイズは、(H×1/Sx×W×1/sy)行×(H×W)列になる。   Since X, which is high-resolution data, is handled as a vector description, the matrix size is (H × W) rows × 1 column. The matrix B that performs the degradation process by PSF is a square matrix of (H × W) rows × (H × W) columns. The size of the matrix D representing the downsampling process is (H × 1 / Sx × W × 1 / sy) rows × (H × W) columns.

●超解像処理
実施例の画像処理(超解像処理)は、非特許文献2に開示されているMAP推定法を使う。MAP推定法とは、高解像度データに対する事前情報を利用して、事後確率を最大化する最適化問題として高解像度データを推定する処理である。
Super-resolution processing The image processing (super-resolution processing) of the embodiment uses the MAP estimation method disclosed in Non-Patent Document 2. The MAP estimation method is a process for estimating high resolution data as an optimization problem that maximizes the posterior probability by using prior information on the high resolution data.

MAP推定法によれば、低解像度データと、推定した高解像度データを式(1)により劣化させた劣化画像データの間の二乗誤差に、事前確率または解を一つに定めるための正則化項を付加した評価関数を最小化することで、高解像度データを推定する。実施例では、式(2)に示すように、正則化項を含まない評価関数を最小化して高解像度データを生成する。
X^ = argxmin[||Y - DBX||2] …(2)
ここで、X^は、推定された高解像度データ。
According to the MAP estimation method, a regularization term for determining a priori probability or a solution for the square error between low-resolution data and degraded image data obtained by degrading the estimated high-resolution data using Equation (1). The high resolution data is estimated by minimizing the evaluation function to which is added. In the embodiment, as shown in Expression (2), high-resolution data is generated by minimizing an evaluation function that does not include a regularization term.
X ^ = arg x min [|| Y-DBX || 2 ]… (2)
Where X ^ is the estimated high resolution data.

式(2)の右辺における[||Y-DBX||2]は、低解像度データYと劣化過程を経て推定された画像との絶対差分値を演算する項であり、式(3)は式(2)の右辺部を抽出して、画像処理時の評価関数として用いる数式である。
E = ||Y - DBX||2 …(3)
[|| Y-DBX || 2 ] on the right side of the equation (2) is a term for calculating an absolute difference value between the low resolution data Y and the image estimated through the deterioration process, and the equation (3) is an equation. This is a mathematical formula that extracts the right side of (2) and uses it as an evaluation function during image processing.
E = || Y-DBX || 2 … (3)

図3Aおよび図3Bのフローチャートにより画像処理部102の画像処理を説明する。   The image processing of the image processing unit 102 will be described with reference to the flowcharts of FIGS. 3A and 3B.

初期画像生成部202は、一つの低解像度データYを入力し(S301)、MAP推定に必要な初期高解像度画像X0を作成する(S302)。つまり、初期画像生成部202は、入力した低解像度データYに補間処理を施して、画像の横サイズをSx倍、縦サイズをSy倍に拡大した初期高解像度画像X0を作成する。補間処理には例えばバイキュービック法を用いるが、他の補間処理を使用しても差し支えない。 Initial image generation unit 202 inputs the one low-resolution data Y (S301), creates an initial high resolution image X 0 required MAP estimation (S302). That is, the initial image generation unit 202 performs an interpolation process on the input low resolution data Y to create an initial high resolution image X 0 in which the horizontal size of the image is enlarged by Sx times and the vertical size is enlarged by Sy times. For example, a bicubic method is used for the interpolation processing, but other interpolation processing may be used.

次に、高域強調判定部209は初期の評価値Eoldを設定し(S303)、画像劣化部203は撮像情報保持部204から劣化条件を取得する(S304)。前述したように、本実施例において扱う劣化条件はPSFとダウンサンプリングである。続いて、画像劣化部203は、劣化条件に基づき、高解像度画像Xから低解像度データYに対応する劣化画像Y'を作成する(S305)。劣化画像Y'は、式(1)に基づく次式の計算により作成される。
Y' = DB・X …(4)
Next, the high frequency emphasis determination unit 209 sets an initial evaluation value Eold (S303), and the image degradation unit 203 acquires degradation conditions from the imaging information holding unit 204 (S304). As described above, the degradation conditions handled in this embodiment are PSF and downsampling. Subsequently, the image degradation unit 203 creates a degraded image Y ′ corresponding to the low resolution data Y from the high resolution image X based on the degradation condition (S305). The deteriorated image Y ′ is created by calculating the following equation based on the equation (1).
Y '= DB · X (4)

次に、評価値算出部205は式(3)を用いて評価値Eを算出し(S306)、収束判定部206は高解像度画像Xの更新が収束したか否か、言い替えれば、MAP推定処理を終了するか否かを判定する(S307)。MAP推定処理の終了判定は、予め設定された閾値Th1と評価値Eの比較により行われ、評価値が閾値未満(E<Th1)の場合はMAP推定処理を終了する。また、評価値が閾値以上(E≧Th1)の場合はMAP推定処理を継続する。   Next, the evaluation value calculation unit 205 calculates the evaluation value E using Equation (3) (S306), and the convergence determination unit 206 determines whether or not the update of the high resolution image X has converged, in other words, the MAP estimation process It is determined whether or not to end (S307). The end determination of the MAP estimation process is performed by comparing a preset threshold value Th1 and the evaluation value E. If the evaluation value is less than the threshold value (E <Th1), the MAP estimation process is ended. If the evaluation value is equal to or greater than the threshold (E ≧ Th1), the MAP estimation process is continued.

E≧Th1の場合、更新量算出部207は、式(3)に示す差分値を減少させるために必要な更新量ΔXを次式によって評価値Eと現在の高解像度画像Xから計算する(S308)。
ΔX = ∂E/∂X = -(DB)T[Y - DB・X^] …(5)
When E ≧ Th1, the update amount calculation unit 207 calculates the update amount ΔX necessary for reducing the difference value shown in Expression (3) from the evaluation value E and the current high-resolution image X using the following expression (S308). ).
ΔX = ∂E / ∂X =-(DB) T [Y-DB ・ X ^]… (5)

次に、画像更新部208は、次式を用いて、更新量ΔXにより高解像度画像Xを更新し(S309)、処理をステップS305に戻す。
X = X + ηΔX …(6)
ここで、ηは更新の幅を決定するパラメータ。
Next, the image update unit 208 updates the high resolution image X with the update amount ΔX using the following equation (S309), and returns the process to step S305.
X = X + ηΔX (6)
Here, η is a parameter that determines the width of the update.

このように、初期高解像度画像X0を高解像度画像XとしてMAP推定処理を開始し、ステップS307の判定条件E<Th1が満されるまで高解像度画像Xを更新して処理を繰り返す。なお、ステップS304からS309の処理がMAP推定処理に相当する。 Thus, initial high resolution image X 0 the MAP estimation process starts as a high-resolution image X, the determination condition E <Th1 in step S307 is repeated Update processing high resolution image X until fully. Note that the processing from step S304 to S309 corresponds to the MAP estimation processing.

一方、ステップS307において判定条件E<Th1が満されると、高域強調判定部209は、次式により現在の評価値Eと評価値Eold(前回の評価値)を比較して、高解像度データを出力するか否かを判定する(S310)。
E/Eold < Th2 …(7)
ここで、Th2は所定の閾値。
On the other hand, when the determination condition E <Th1 is satisfied in step S307, the high frequency emphasis determination unit 209 compares the current evaluation value E with the evaluation value Eold (previous evaluation value) according to the following equation to obtain high resolution data Is determined whether or not to be output (S310).
E / Eold <Th2 (7)
Here, Th2 is a predetermined threshold value.

式(7)に示すように、高域強調判定部209は、現在の評価値と前回の評価値の比率E/Eoldが閾値未満になると、現在の高解像度画像Xの画像データ(高解像度データ)を出力して(S314)、画像処理部102の画像処理を終了する。   As shown in Expression (7), when the ratio E / Eold between the current evaluation value and the previous evaluation value is less than the threshold, the high frequency emphasis determination unit 209 determines whether the current high resolution image X image data (high resolution data ) Is output (S314), and the image processing of the image processing unit 102 is terminated.

他方、式(7)が満たされない場合、高域強調判定部209は、評価値Eoldを現在の評価値Eで更新する(S311)。続いて、差分算出部210は、高域強調判定部209から入力される現在の高解像度画像Xと初期高解像度画像の間の差分dを算出する(S312)。差分dは、MAP推定処理によって回復された高域成分に相当する。   On the other hand, when Expression (7) is not satisfied, the high frequency emphasis determination unit 209 updates the evaluation value Eold with the current evaluation value E (S311). Subsequently, the difference calculation unit 210 calculates a difference d between the current high resolution image X input from the high frequency emphasis determination unit 209 and the initial high resolution image (S312). The difference d corresponds to the high frequency component recovered by the MAP estimation process.

画像更新部208は、高域成分(差分d)に基づき現在の高解像度画像Xを修正して高域成分を強調した高解像度画像Xを次式により生成し(S313)、処理をステップ304に戻す。なお、ステップS311からS313の処理を「高域強調処理」と呼ぶことにする。
X = X + d …(8)
The image update unit 208 corrects the current high-resolution image X based on the high-frequency component (difference d) to generate a high-resolution image X that emphasizes the high-frequency component (S313), and the process proceeds to step 304. return. Note that the processing from steps S311 to S313 is referred to as “high frequency emphasis processing”.
X = X + d (8)

このように、MAP推定処理によって回復された高域成分を強調して、再びMAP推定処理を行う。この処理より、高域成分がより強調された解を得ることができ、高鮮鋭な高解像度データを生成することができる。   In this way, the high frequency component recovered by the MAP estimation process is emphasized, and the MAP estimation process is performed again. By this processing, a solution in which high frequency components are more emphasized can be obtained, and high-definition high-resolution data can be generated.

なお、上記では、MAP法を用いて高解像度データを生成する例を示したが、他の高解像度画像の生成手法を使用しても構わない。例えば、凸射影(projection onto convex sets: POCS)法、POCS-最大尤度(POCS-maximum likelihood: POCS-ML)法、逆射影(back projection)法などの評価値収束化方法が挙げられる。   In the above, an example in which high-resolution data is generated using the MAP method has been described, but other high-resolution image generation methods may be used. For example, evaluation value convergence methods such as a projection onto convex sets (POCS) method, a POCS-maximum likelihood (POCS-ML) method, and a back projection method are included.

以下、本発明にかかる実施例2の画像処理を説明する。なお、実施例2において、実施例1と略同様の構成については、同一符号を付して、その詳細説明を省略する。   The image processing according to the second embodiment of the present invention will be described below. Note that the same reference numerals in the second embodiment denote the same parts as in the first embodiment, and a detailed description thereof will be omitted.

実施例1において、評価値Eを基にMAP推定処理の収束と高域強調処理の判定を行う例を説明した。実施例2では、劣化画像Y'の生成から高解像度画像Xの更新までの一連の処理の繰り返し回数を基に、MAP推定処理の収束と高域強調処理の判定を行う例を説明する。   In the first embodiment, the example in which the convergence of the MAP estimation process and the determination of the high frequency emphasis process are performed based on the evaluation value E has been described. In the second embodiment, an example in which the convergence of the MAP estimation process and the determination of the high frequency enhancement process are performed based on the number of repetitions of a series of processes from the generation of the deteriorated image Y ′ to the update of the high resolution image X will be described.

図5のブロック図により実施例2の画像処理部102の構成例を示す。実施例2の画像処理部102において、図2に示す実施例1の画像処理部102の構成と異なるのは、評価値算出部205をMAP推定処理のイタレーション回数をカウントするカウンタ部211に置き換えた点である。つまり、実施例2の画像処理部102は、カウンタ部211がカウントしたイタレーション回数に基づきMAP推定処理の収束と高域強調処理の判定を行う。なお、MAP推定処理のイタレーション回数をNとすると高解像度画像Xの更新回数はN-1であり、カウンタ部211が高解像度画像Xの更新回数をカウントし、更新回数に基づきMAP推定処理の収束を判定してもよい。   A block diagram of FIG. 5 shows a configuration example of the image processing unit 102 of the second embodiment. In the image processing unit 102 of the second embodiment, the difference from the configuration of the image processing unit 102 of the first embodiment shown in FIG. 2 is that the evaluation value calculation unit 205 is replaced with a counter unit 211 that counts the number of iterations of the MAP estimation process. It is a point. That is, the image processing unit 102 according to the second embodiment determines the convergence of the MAP estimation process and the high frequency enhancement process based on the number of iterations counted by the counter unit 211. If the number of iterations of the MAP estimation process is N, the number of updates of the high-resolution image X is N-1, and the counter unit 211 counts the number of updates of the high-resolution image X, and the MAP estimation process is performed based on the number of updates. Convergence may be determined.

なお、高解像度画像生成部104は、初期画像生成部202、画像劣化部203、撮像情報保持部204、収束判定部206、更新量算出部207、画像更新部208およびカウンタ部211によって構成される。また、高域強調部105は、高域強調判定部209、差分算出部210およびカウンタ部211によって構成される。   The high-resolution image generation unit 104 includes an initial image generation unit 202, an image degradation unit 203, an imaging information holding unit 204, a convergence determination unit 206, an update amount calculation unit 207, an image update unit 208, and a counter unit 211. . The high frequency emphasizing unit 105 includes a high frequency emphasizing determining unit 209, a difference calculating unit 210, and a counter unit 211.

図6Aおよび図6Bのフローチャートにより画像処理部102の画像処理を説明する。なお、実施例1の処理と略同様の処理には同一符号を付し、その詳細説明を省略する。   Image processing of the image processing unit 102 will be described with reference to the flowcharts of FIGS. 6A and 6B. Note that the same reference numerals are given to processes that are substantially the same as the processes of the first embodiment, and detailed description thereof is omitted.

初期画像生成部202による初期高解像度画像の生成(S302)と画像劣化部203による劣化条件の取得(S304)が終了すると、カウンタ部211は二つのカウンタを初期化する(S601)。カウンタの一つはMAP推定処理の回数をカウントする第一のカウンタ(カウント値t1)であり、もう一つのカウンタは高域強調処理の回数をカウントする第二のカウンタ(カウント値t2)であり、ともにゼロ(t1=0、t2=0)に初期化される。   When the initial high-resolution image generation by the initial image generation unit 202 (S302) and the acquisition of the deterioration condition by the image deterioration unit 203 (S304) are completed, the counter unit 211 initializes two counters (S601). One counter is a first counter (count value t1) that counts the number of MAP estimation processes, and the other counter is a second counter (count value t2) that counts the number of high-frequency emphasis processes. , Both are initialized to zero (t1 = 0, t2 = 0).

次に、収束判定部206は、第一のカウンタのカウント値t1と所定の閾値Th3を比較して、MAP推定処理を終了するか否かを判定する(S602)。t1>Th3の場合はMAP推定処理を終了し、t1≦Th3の場合はMAP推定処理を継続する。   Next, the convergence determination unit 206 compares the count value t1 of the first counter with a predetermined threshold value Th3, and determines whether or not to end the MAP estimation process (S602). If t1> Th3, the MAP estimation process is terminated, and if t1 ≦ Th3, the MAP estimation process is continued.

t1≦Th3の場合はMAP推定処理(S305、S308、S309)が実行された後、カウンタ部211は第一のカウンタをカウントアップ(t1++)し(S603)、処理はステップ602に戻る。また、t1>Th3の場合はMAP推定処理が終了され、高域強調判定部209は第二のカウンタのカウント値t2と所定の閾値Th4を比較して、高解像度データを出力するか否かを判定する(S604)。   When t1 ≦ Th3, after the MAP estimation processing (S305, S308, S309) is executed, the counter unit 211 counts up the first counter (t1 ++) (S603), and the processing returns to step 602. If t1> Th3, the MAP estimation process is terminated, and the high frequency emphasis determination unit 209 compares the count value t2 of the second counter with a predetermined threshold Th4 to determine whether to output high resolution data. Determination is made (S604).

t2>Th4の場合、高域強調判定部209は、現在の高解像度画像Xの画像データ(高解像度データ)を出力して(S314)、画像処理部102の画像処理を終了する。また、t2≦Th4の場合、カウンタ部211は、第二のカウンタをカウントアップ(t2++)し、第一のカウンタのカウント値を初期化(t1=0)する(S605)。その後、高域強調処理(S311とS312)が行われ、処理はステップS602に戻る。   When t2> Th4, the high frequency emphasis determination unit 209 outputs the image data (high resolution data) of the current high resolution image X (S314), and ends the image processing of the image processing unit 102. When t2 ≦ Th4, the counter unit 211 counts up the second counter (t2 ++) and initializes the count value of the first counter (t1 = 0) (S605). Thereafter, high frequency emphasis processing (S311 and S312) is performed, and the processing returns to step S602.

このように、予め設定した二つの閾値によってMAP推定処理と高域強調処理の回数を制御することができる。従って画像処理装置の計算資源に応じた最適な高解像度画像の生成が可能になる。   In this way, the number of MAP estimation processing and high frequency enhancement processing can be controlled by two preset threshold values. Therefore, it is possible to generate an optimal high-resolution image according to the calculation resource of the image processing apparatus.

以下、本発明にかかる実施例3の画像処理を説明する。なお、実施例3において、実施例1、2と略同様の構成については、同一符号を付して、その詳細説明を省略する。   Hereinafter, image processing according to the third embodiment of the present invention will be described. Note that the same reference numerals in the third embodiment denote the same parts as in the first and second embodiments, and a detailed description thereof will be omitted.

実施例1、2では、差分算出部210において、現在の高解像度画像Xと初期高解像度画像X0の差分を高域成分として算出する例を説明した。実施例3では、高域成分の算出に事前に用意したデータベース(DB)を用いる例を説明する。 In Examples 1 and 2, the difference calculation unit 210, an example was described of calculating the current high-resolution image X and the difference of the initial high-resolution image X 0 as a high-frequency component. In the third embodiment, an example will be described in which a database (DB) prepared in advance is used for calculating the high frequency component.

図7のブロック図により実施例3の画像処理部102の構成例を示す。実施例3の画像処理部102において、図2に示す実施例1の画像処理部102の構成と異なるのは、差分算出部210を高域成分算出部212に置き換えた点である。   A configuration example of the image processing unit 102 according to the third embodiment is shown in the block diagram of FIG. The difference between the image processing unit 102 of the third embodiment and the configuration of the image processing unit 102 of the first embodiment shown in FIG. 2 is that the difference calculation unit 210 is replaced with a high frequency component calculation unit 212.

なお、高解像度画像生成部104は、初期画像生成部202、画像劣化部203、評価値算出部205、撮像情報保持部204、収束判定部206、更新量算出部207および画像更新部208によって構成される。また、高域強調部105は、高域強調判定部209および高域成分算出部210によって構成される。   The high-resolution image generation unit 104 includes an initial image generation unit 202, an image degradation unit 203, an evaluation value calculation unit 205, an imaging information holding unit 204, a convergence determination unit 206, an update amount calculation unit 207, and an image update unit 208. Is done. The high frequency emphasis unit 105 includes a high frequency emphasis determination unit 209 and a high frequency component calculation unit 210.

図8のブロック図により高域成分算出部212の構成例を示す。   The block diagram of FIG. 8 shows a configuration example of the high frequency component calculation unit 212.

高域推定部801は、高域特徴判定部209から現在の高解像度画像Xを入力し、初期画像生成部202から初期高解像度画像X0を入力し、事前に用意された高域成分DB806を用いて高域成分を推定する。つまり、画像特徴量抽出部804は、高域成分に対応する特徴量(例えば中域成分)を抽出する。特徴量は、初期高解像度画像X0または現在の高解像度画像Xから抽出してもよいし、あるいは、両方の画像から抽出してもよい。高域成分探索部805は、高域成分DB806から、画像特徴量抽出部804が抽出した特徴量と最も近い特徴量を探索し、検出した特徴量に対応付けられた高域成分を取得する。 The high frequency estimation unit 801 receives the current high resolution image X from the high frequency characteristic determination unit 209, receives the initial high resolution image X 0 from the initial image generation unit 202, and stores the high frequency component DB 806 prepared in advance. To estimate high-frequency components. That is, the image feature amount extraction unit 804 extracts a feature amount (for example, a mid-range component) corresponding to the high-frequency component. Feature amount may be extracted from the initial high-resolution image X 0 or current high-resolution image X, or may be extracted from both images. The high frequency component search unit 805 searches the high frequency component DB 806 for a feature value closest to the feature value extracted by the image feature value extraction unit 804, and acquires a high frequency component associated with the detected feature value.

上記の方法により取得される高域成分には、高域成分DB806の構築が不充分な場合、あるいは、高域成分探索部805による探索が不正確な場合、ノイズが含まれる。ノイズが少ない良好な高解像度画像を得るために、ノイズ感算出部802と補正処理部803は、高域推定部801が推定した高域成分からノイズ成分を低減する処理を行う。   The high frequency component acquired by the above method includes noise when the high frequency component DB 806 is insufficiently constructed or when the search by the high frequency component searching unit 805 is inaccurate. In order to obtain a good high-resolution image with less noise, the noise sensation calculation unit 802 and the correction processing unit 803 perform processing to reduce the noise component from the high frequency component estimated by the high frequency estimation unit 801.

ノイズ感算出部802は、現在の高解像度画像Xおよび高域推定部801が推定した高域成分を入力して、例えば非特許文献3に記載された方法を用いて高域成分のノイズ感を算出する。ノイズ感算出部802によって算出されるノイズ感は、マスキング効果を考慮して画像間の視覚的な相違をマップ化したものである。これにより、現在の高解像度画像Xに高域成分算出部211が算出した高域成分を加算した場合、どの領域にどれだけのノイズ成分(ノイズ感)があるのかを知ることができる。   The noise sensation calculation unit 802 inputs the current high resolution image X and the high frequency component estimated by the high frequency estimation unit 801, and uses, for example, the method described in Non-Patent Document 3 to sense the high frequency component noise sensation. calculate. The noise feeling calculated by the noise feeling calculation unit 802 is a map of visual differences between images in consideration of the masking effect. Thereby, when the high frequency component calculated by the high frequency component calculation unit 211 is added to the current high resolution image X, it is possible to know how much noise component (noise feeling) exists in which region.

補正処理部803は、ノイズ感算出部802が算出したノイズ感に基づき、高域推定部部801が推定した高域成分のノイズ成分を抑制する補正処理を施す。この補正処理は、高域成分に対して、ノイズ感の大きさに反比例する補正係数を乗算してもよいし、ノイズ感の多い高域成分のみカットするようなゲイン調整でもよい。   The correction processing unit 803 performs correction processing for suppressing the noise component of the high frequency component estimated by the high frequency estimating unit 801 based on the noise sense calculated by the noise sense calculating unit 802. This correction process may be performed by multiplying a high frequency component by a correction coefficient that is inversely proportional to the magnitude of the noise feeling, or may be a gain adjustment that cuts only a high frequency component with a large noise feeling.

図9のフローチャートにより画像処理部102の画像処理を説明する。なお、ステップS301からS311、S313、S314の処理は実施例1の処理と同様であり、その詳細説明を省略する。つまり、実施例1において高域成分dを算出する処理(S312)の代わりに、ステップS901からS903の処理が行われる。   The image processing of the image processing unit 102 will be described with reference to the flowchart of FIG. Note that the processing in steps S301 to S311, S313, and S314 is the same as the processing in the first embodiment, and detailed description thereof is omitted. That is, instead of the process (S312) of calculating the high frequency component d in the first embodiment, the processes of steps S901 to S903 are performed.

評価値Eoldの更新(S311)が終了すると、高域推定部801による高域成分の推定(S901)、ノイズ感算出部802によるノイズ感の算出(S902)、補正処理部803によるノイズ感に基づく補正処理(S903)が行われる。その後、実施例1と同様に、画像更新部208による高解像度画像の修正(S313)が行われ、処理はステップS305に戻る。   When the update of the evaluation value Eold (S311) is completed, based on the high frequency component estimation by the high frequency estimation unit 801 (S901), the noise calculation by the noise calculation unit 802 (S902), and the noise processing by the correction processing unit 803 Correction processing (S903) is performed. Thereafter, as in the first embodiment, the image update unit 208 corrects the high resolution image (S313), and the process returns to step S305.

実施例3では、高域成分の算出に事前に用意した高域成分DB806を用いる。通常の学習型超解像においては、そのようなDBから得られた高域成分をそのまま加算した結果を出力するため、高域成分がなるべくノイズを含まないように、一般に、鮮鋭性の向上効果を犠牲にして抽象化した学習を行う。実施例3では、高域推定部801が推定した高域成分に対し、ノイズ感算出部802と補正処理部803によってノイズ感のある成分を除去する処理を行う。さらに、画像更新部208による高域成分の加算によって得られた高解像度画像に対して、再び行われるMAP推定処理によってもノイズが低減され、高域成分DB806が理想的ではない場合も良好な高解像度データを生成可能である。   In the third embodiment, the high frequency component DB 806 prepared in advance for the calculation of the high frequency component is used. In normal learning-type super-resolution, the result of adding the high-frequency components obtained from such DBs is output as it is, so that the high-frequency components generally contain as little noise as possible. Abstract learning at the expense of In the third embodiment, the high frequency component estimated by the high frequency estimation unit 801 is subjected to processing for removing a noise-sensitive component by the noise calculation unit 802 and the correction processing unit 803. Furthermore, the high-resolution image obtained by the addition of the high-frequency component by the image update unit 208 is also reduced in noise by the MAP estimation process performed again, and the high-frequency component DB 806 is not ideal. Resolution data can be generated.

このように、高域成分DB806の構築が不充分な場合も、高鮮鋭でノイズ感が少ない高解像度画像を生成することができる。勿論、入力される低解像度データに適した高域成分DB806が存在すれば、理想的な高解像度画像を復元することができる。従って、任意の入力画像(低解像度データ)に対して、鮮鋭感の高い高解像度画像(高解像度データ)を生成することができる。   As described above, even when the high-frequency component DB 806 is insufficiently constructed, a high-resolution image with high sharpness and little noise can be generated. Of course, if there is a high-frequency component DB 806 suitable for input low-resolution data, an ideal high-resolution image can be restored. Therefore, it is possible to generate a high-resolution image (high resolution data) with a high sharpness for an arbitrary input image (low-resolution data).

[変形例]
画像特徴量抽出部804で得られる特徴量と高域成分DB806に存在する最も近い特徴量の間の一致度などに応じて、高域推定部801による高域成分の推定と、差分算出部210による高域成分の算出を切り替えてもよい。つまり、一致度が高ければ高域成分を推定し、一致度が低ければ高域成分を算出する構成にする。また、当然ながら、実施例2における差分算出部210を高域成分算出部211に置き換えることも可能である。
[Modification]
Depending on the degree of coincidence between the feature quantity obtained by the image feature quantity extraction unit 804 and the closest feature quantity existing in the high-frequency component DB 806, the high-frequency component estimation by the high-frequency estimation unit 801 and the difference calculation unit 210 The calculation of the high frequency component by may be switched. In other words, the high frequency component is estimated if the matching degree is high, and the high frequency component is calculated if the matching degree is low. Naturally, the difference calculation unit 210 in the second embodiment can be replaced with a high frequency component calculation unit 211.

[その他の実施例]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステムあるいは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other Examples]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

102 … 画像処理部、104 … 高解像度画像生成部、105 … 高域強調部 102 ... Image processing unit, 104 ... High resolution image generation unit, 105 ... High frequency enhancement unit

Claims (16)

再構成型超解像により低解像度画像から高解像度画像を生成する生成手段と、
前記生成手段が初期に生成した高解像度画像と現在の高解像度画像に基づき、高解像度画像の高域強調を行う強調手段とを有する画像処理装置。
Generating means for generating a high-resolution image from a low-resolution image by reconstruction type super-resolution;
An image processing apparatus comprising: an enhancement unit that performs high-frequency enhancement of a high-resolution image based on a high-resolution image initially generated by the generation unit and a current high-resolution image.
前記生成手段は、前記再構成型超解像における高解像度画像の更新が収束したか否かを判定する第一の判定手段を有し、
前記強調手段は、前記更新が収束したと判定されると、前記高域強調を行うか否かを判定する第二の判定手段を有する請求項1に記載された画像処理装置。
The generation means includes first determination means for determining whether or not the update of the high-resolution image in the reconstruction type super-resolution has converged,
2. The image processing apparatus according to claim 1, wherein the enhancement unit includes a second determination unit that determines whether to perform the high-frequency enhancement when it is determined that the update has converged.
前記生成手段は、
低解像度画像から高解像度画像を生成する第一の生成手段と、
前記高解像度画像を劣化させた劣化画像を生成する第二の生成手段と、
前記低解像度画像に基づき前記劣化画像の評価値を算出する評価手段と、
前記高解像度画像の更新量を算出する第一の算出手段と、
前記更新量に基づき前記高解像度画像を更新する更新手段とを有し、
前記第一の判定手段は前記評価値に基づき前記更新が収束したか否かを判定し、前記更新が収束したと判定されるまで前記第二の生成手段、前記評価手段、前記第一の算出手段、および、前記更新手段の処理が繰り返される請求項2に記載された画像処理装置。
The generating means includes
First generation means for generating a high resolution image from a low resolution image;
Second generation means for generating a degraded image obtained by degrading the high-resolution image;
Evaluation means for calculating an evaluation value of the deteriorated image based on the low resolution image;
First calculating means for calculating an update amount of the high-resolution image;
Updating means for updating the high-resolution image based on the update amount;
The first determination unit determines whether the update has converged based on the evaluation value, and the second generation unit, the evaluation unit, and the first calculation until it is determined that the update has converged. 3. The image processing apparatus according to claim 2, wherein the processing of the means and the updating means is repeated.
前記評価手段は、前記低解像度画像と前記劣化画像の差分を前記評価値として算出する請求項3に記載された画像処理装置。   4. The image processing apparatus according to claim 3, wherein the evaluation unit calculates a difference between the low resolution image and the deteriorated image as the evaluation value. 前記第一の算出手段は、前記評価値と現在の高解像度画像から前記更新量を算出する請求項4に記載された画像処理装置。   5. The image processing apparatus according to claim 4, wherein the first calculation unit calculates the update amount from the evaluation value and a current high resolution image. 前記第一の判定手段は、前記評価値が第一の閾値未満になると前記更新が収束したと判定する請求項3から請求項5の何れか一項に記載された画像処理装置。   6. The image processing apparatus according to claim 3, wherein the first determination unit determines that the update has converged when the evaluation value becomes less than a first threshold value. 前記強調手段は、前記高解像度画像の高域成分を算出する第二の算出手段を有し、
前記第二の判定手段は前記評価値に基づき前記高域強調を行うか否かを判定し、
前記高域強調を行うと判定された場合、前記更新手段は前記高域成分に基づき現在の高解像度画像を更新し、前記高域強調を行わないと判定されるまで前記生成手段の処理が繰り返される請求項3から請求項6の何れか一項に記載された画像処理装置。
The enhancement means includes second calculation means for calculating a high frequency component of the high resolution image,
The second determination means determines whether to perform the high frequency emphasis based on the evaluation value,
When it is determined that the high frequency emphasis is performed, the updating unit updates the current high resolution image based on the high frequency component, and the processing of the generating unit is repeated until it is determined that the high frequency emphasis is not performed. 7. The image processing apparatus according to any one of claims 3 to 6, wherein
前記第二の判定手段は、前回の判定における前記評価値を前回の評価値として保持し、現在の評価値と前記前回の評価値に基づき前記判定を行う請求項7に記載された画像処理装置。   8. The image processing apparatus according to claim 7, wherein the second determination unit holds the evaluation value in the previous determination as the previous evaluation value, and performs the determination based on the current evaluation value and the previous evaluation value. . 前記第二の判定手段は、前記現在の評価値と前記前回の評価値の比率が第二の閾値未満になると前記高域強調を行わないと判定し、現在の高解像度画像を、前記低解像度画像に対応する高解像度画像として出力する請求項8に記載された画像処理装置。   The second determination means determines that the high-frequency emphasis is not performed when a ratio between the current evaluation value and the previous evaluation value is less than a second threshold, and the current high-resolution image is determined as the low-resolution image. 9. The image processing apparatus according to claim 8, wherein the image processing apparatus outputs a high-resolution image corresponding to the image. 前記第二の算出手段は、前記第一の生成手段が生成した高解像度画像と現在の高解像度画像の間の差分を前記高域成分として算出する請求項7から請求項9の何れか一項に記載された画像処理装置。   10. The second calculation unit according to claim 7, wherein the second calculation unit calculates a difference between the high-resolution image generated by the first generation unit and the current high-resolution image as the high-frequency component. The image processing apparatus described in 1. 前記第二の算出手段は、
前記第一の生成手段が生成した高解像度画像および/または現在の高解像度画像から特徴量を抽出する手段と、
データベースを参照して、前記特徴量に対応する高域成分を探索する手段と、
前記現在の高解像度画像および前記探索によって得られた高域成分からノイズ成分を算出する手段と、
前記ノイズ成分に基づき前記高域成分を補正する手段とを有する請求項7から請求項9の何れか一項に記載された画像処理装置。
The second calculating means includes
Means for extracting feature quantities from the high resolution image generated by the first generation means and / or the current high resolution image;
Means for searching for a high frequency component corresponding to the feature amount with reference to a database;
Means for calculating a noise component from the current high resolution image and the high frequency component obtained by the search;
10. The image processing apparatus according to claim 7, further comprising a unit that corrects the high frequency component based on the noise component.
前記更新手段は、現在の高解像度画像に前記更新量または前記高域成分を加算して更新後の高解像度画像を生成する請求項7から請求項11の何れか一項に記載された画像処理装置。   12. The image processing according to claim 7, wherein the updating unit generates the updated high-resolution image by adding the update amount or the high-frequency component to a current high-resolution image. apparatus. 前記第一の判定手段は前記高解像度画像の更新回数に基づき前記判定を行い、前記第二の判定手段は前記高域強調の回数に基づき前記判定を行う請求項2に記載された画像処理装置。   3. The image processing apparatus according to claim 2, wherein the first determination unit performs the determination based on the number of times the high-resolution image is updated, and the second determination unit performs the determination based on the number of times of high-frequency emphasis. . 再構成型超解像により低解像度画像から高解像度画像を生成し、
初期に生成された高解像度画像と現在の高解像度画像に基づき、高解像度画像の高域強調を行う画像処理方法。
Generate a high-resolution image from a low-resolution image by reconstruction super-resolution,
An image processing method for performing high-frequency emphasis on a high-resolution image based on the initially generated high-resolution image and the current high-resolution image.
コンピュータを請求項1から請求項13の何れか一項に記載された画像処理装置の各手段として機能させるためのプログラム。   14. A program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 13. 請求項15に記載されたプログラムが記録されたコンピュータが読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 15 is recorded.
JP2014075723A 2014-04-01 2014-04-01 Image processing apparatus and method of the same Pending JP2015197818A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014075723A JP2015197818A (en) 2014-04-01 2014-04-01 Image processing apparatus and method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014075723A JP2015197818A (en) 2014-04-01 2014-04-01 Image processing apparatus and method of the same

Publications (1)

Publication Number Publication Date
JP2015197818A true JP2015197818A (en) 2015-11-09

Family

ID=54547451

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014075723A Pending JP2015197818A (en) 2014-04-01 2014-04-01 Image processing apparatus and method of the same

Country Status (1)

Country Link
JP (1) JP2015197818A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107133921A (en) * 2016-02-26 2017-09-05 北京大学 The image super-resolution rebuilding method and system being embedded in based on multi-level neighborhood
JP2021528775A (en) * 2018-07-03 2021-10-21 ナノトロニクス イメージング インコーポレイテッドNanotronics Imaging,Inc. Systems, devices, and methods for providing feedback on the accuracy of super-resolution imaging and improving that accuracy.
KR20220092771A (en) * 2020-12-25 2022-07-04 베이징 시아오미 파인콘 일렉트로닉스 컴퍼니 리미티드 Photographing method, photographing device, terminal, and storage medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107133921A (en) * 2016-02-26 2017-09-05 北京大学 The image super-resolution rebuilding method and system being embedded in based on multi-level neighborhood
CN107133921B (en) * 2016-02-26 2020-03-06 北京大学 Image super-resolution reconstruction method and system based on multilevel neighborhood embedding
JP2021528775A (en) * 2018-07-03 2021-10-21 ナノトロニクス イメージング インコーポレイテッドNanotronics Imaging,Inc. Systems, devices, and methods for providing feedback on the accuracy of super-resolution imaging and improving that accuracy.
JP7011866B2 (en) 2018-07-03 2022-01-27 ナノトロニクス イメージング インコーポレイテッド Systems, devices, and methods for providing feedback on the accuracy of super-resolution imaging and improving its accuracy.
US11748846B2 (en) 2018-07-03 2023-09-05 Nanotronics Imaging, Inc. Systems, devices, and methods for providing feedback on and improving the accuracy of super-resolution imaging
US11948270B2 (en) 2018-07-03 2024-04-02 Nanotronics Imaging , Inc. Systems, devices, and methods for providing feedback on and improving the accuracy of super-resolution imaging
KR20220092771A (en) * 2020-12-25 2022-07-04 베이징 시아오미 파인콘 일렉트로닉스 컴퍼니 리미티드 Photographing method, photographing device, terminal, and storage medium
KR102525293B1 (en) * 2020-12-25 2023-04-25 베이징 시아오미 파인콘 일렉트로닉스 컴퍼니 리미티드 Photographing method, photographing device, terminal, and storage medium
US11847769B2 (en) 2020-12-25 2023-12-19 Beijing Xiaomi Pinecone Electronics Co., Ltd. Photographing method, terminal, and storage medium

Similar Documents

Publication Publication Date Title
US10970600B2 (en) Method and apparatus for training neural network model used for image processing, and storage medium
US10860929B2 (en) Machine-learning based video compression
US8594464B2 (en) Adaptive super resolution for video enhancement
US10846836B2 (en) View synthesis using deep convolutional neural networks
JP2007000205A (en) Image processing apparatus, image processing method, and image processing program
CN113994366A (en) Multi-stage multi-reference bootstrapping for video super-resolution
CN104134196A (en) Split Bregman weight iteration image blind restoration method based on non-convex higher-order total variation model
CN103985085A (en) Image super-resolution amplifying method and device
US11348207B2 (en) Image processing method and apparatus, computer-readable medium, and electronic device
Gal et al. Progress in the restoration of image sequences degraded by atmospheric turbulence
Dai et al. Dictionary-based multiple frame video super-resolution
WO2018113224A1 (en) Picture reduction method and device
Jeong et al. Multi-frame example-based super-resolution using locally directional self-similarity
JP2015197818A (en) Image processing apparatus and method of the same
KR101341617B1 (en) Apparatus and method for super-resolution based on error model of single image
CN110689486A (en) Image processing method, device, equipment and computer storage medium
JP2008113292A (en) Motion estimation method and device, program thereof and recording medium thereof
Zefreh et al. Super-resolution of license plate images using algebraic reconstruction technique
JP2017098604A (en) Video quality estimation device, video quality estimation method and program
JP2016224629A (en) Image processing device, image processing method, and program
JP2013069012A (en) Multi-lens imaging apparatus
JP6854629B2 (en) Image processing device, image processing method
JP2009225253A (en) Image processing apparatus and its method
Balure et al. A Survey--Super Resolution Techniques for Multiple, Single, and Stereo Images
JP5085589B2 (en) Image processing apparatus and method