JP5705391B1 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP5705391B1
JP5705391B1 JP2014558339A JP2014558339A JP5705391B1 JP 5705391 B1 JP5705391 B1 JP 5705391B1 JP 2014558339 A JP2014558339 A JP 2014558339A JP 2014558339 A JP2014558339 A JP 2014558339A JP 5705391 B1 JP5705391 B1 JP 5705391B1
Authority
JP
Japan
Prior art keywords
resolution
image
pixel
super
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014558339A
Other languages
Japanese (ja)
Other versions
JPWO2015198368A1 (en
Inventor
康平 栗原
康平 栗原
善隆 豊田
善隆 豊田
正太郎 守谷
正太郎 守谷
大祐 鈴木
大祐 鈴木
的場 成浩
成浩 的場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2014558339A priority Critical patent/JP5705391B1/en
Priority claimed from PCT/JP2014/004998 external-priority patent/WO2015198368A1/en
Application granted granted Critical
Publication of JP5705391B1 publication Critical patent/JP5705391B1/en
Publication of JPWO2015198368A1 publication Critical patent/JPWO2015198368A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

回路規模及びメモリ容量を抑えた構成で、エッジ成分を保存しながらも超解像処理により増幅されたノイズを低減することが可能な画像処理装置及び画像処理方法を提供する。本発明画像処理装置において、勾配方向検出部302は、第1の画像D101の画素毎に周辺に存在する画素のうち勾配の小さな方向の画素を微小勾配画素位置D302として出力し、平滑化部303は、第2の画像D102の各画素を注目画素として、該注目画素の周辺に存在する画素から、微小勾配画素位置D302を使って平滑化処理を行うことにより出力画像DOUTの各画素値を得る。Provided are an image processing apparatus and an image processing method capable of reducing noise amplified by super-resolution processing while preserving edge components with a configuration in which circuit scale and memory capacity are suppressed. In the image processing apparatus of the present invention, the gradient direction detection unit 302 outputs a pixel in the direction with a small gradient among the pixels existing in the periphery for each pixel of the first image D101 as the minute gradient pixel position D302, and the smoothing unit 303. Takes each pixel of the second image D102 as a target pixel, and obtains each pixel value of the output image DOUT from a pixel existing around the target pixel by performing smoothing processing using the minute gradient pixel position D302. .

Description

本発明は、超解像処理した画像のノイズを低減する画像処理装置及び画像処理方法に関するものである。  The present invention relates to an image processing apparatus and an image processing method for reducing noise in an image subjected to super-resolution processing.

撮像画像の中から所望の範囲の画像のみを切り出し、拡大することにより電子的にズームを行う機能(デジタルズーム機能)を備えた撮像装置がある。一般的なデジタルズームでは、バイリニア法やバイキュービック法等を用いて画像の拡大処理が行われるが、近年、より解像感の高いデジタルズーム画像を生成することを目的として、入力画像に存在しない高解像度の情報を生成できる超解像処理と呼ばれる手法が用いられるようになってきている。  There is an imaging apparatus provided with a function (digital zoom function) for electronically zooming by cutting out and enlarging only a desired range of images from a captured image. In general digital zoom, image enlargement processing is performed using the bilinear method, bicubic method, etc., but in recent years, with the aim of generating a digital zoom image with higher resolution, high resolution that does not exist in the input image A technique called super-resolution processing that can generate the above information has been used.

このような超解像処理において、1枚ごとの入力画像から更なる高品質な高解像度化を行なう手法として、学習データベースを用いた超解像処理が知られている。この手法は、例えば、補間された画像において分割されたパッチ毎に、高解像度画像と低解像度画像の対応関係の事例を学習したデータベースを参照するものである。このことにより、入力画像に存在しない高解像度の情報を予測し、高解像度化を行うものである(例えば、特許文献1参照)。なお、「パッチ」とは、複数の画素から成る矩形の領域である。  In such super-resolution processing, super-resolution processing using a learning database is known as a technique for further increasing the quality and resolution of each input image. This method refers to, for example, a database in which an example of a correspondence relationship between a high resolution image and a low resolution image is learned for each patch divided in an interpolated image. In this way, high resolution information that does not exist in the input image is predicted, and the resolution is increased (see, for example, Patent Document 1). The “patch” is a rectangular area composed of a plurality of pixels.

このような学習データベースを用いた超解像処理の課題として、ノイズへの耐性が低いことがある。すなわち、注目パッチにノイズが混入した場合には、そのノイズをもデータベースに用いてしまうので、ノイズを画像特徴として鮮鋭化(強調)してしまう。  As a problem of super-resolution processing using such a learning database, there is a low resistance to noise. That is, when noise is mixed in the patch of interest, the noise is also used in the database, so that the noise is sharpened (emphasized) as an image feature.

そこで、ノイズの影響を抑制する方法として、画像の部分領域ごとにノイズ量を測定し、ノイズ量に応じて超解像処理画像とフィルタ処理画像とを選択する手法がある(例えば、特許文献2参照)。高周波領域でかつノイズ量が小さい場合に超解像処理画像を、高周波領域でかつノイズ量が大きい場合にフィルタ処理画像を選択し、出力する。  Therefore, as a method for suppressing the influence of noise, there is a method of measuring the amount of noise for each partial region of an image and selecting a super-resolution processed image and a filtered image according to the amount of noise (for example, Patent Document 2). reference). A super-resolution processed image is selected when the noise amount is small in the high frequency region, and a filtered image is selected and output when the noise amount is large in the high frequency region.

特開2003−018398号公報(第4ページ、第1図)JP 2003-018398 A (page 4, FIG. 1) WO2012/176367公報(第3ページ、第1図)WO2012 / 176367 (3rd page, Fig. 1)

特許文献2のような超解像処理を行った場合、ノイズ量が大きい場合には、フィルタ処理によってエッジなどの高解像度の情報が生成されず超解像の効果が低減してしまう。  When super-resolution processing as in Patent Document 2 is performed, if the amount of noise is large, high-resolution information such as edges is not generated by the filter processing, and the effect of super-resolution is reduced.

本発明は上記のような問題点を解決するためになされたものであり、エッジ成分を保存しながらも超解像処理により増幅されたノイズを低減することが可能な画像処理装置及び画像処理方法を提供するものである。  The present invention has been made to solve the above-described problems, and an image processing apparatus and an image processing method capable of reducing noise amplified by super-resolution processing while preserving edge components. Is to provide.

本発明に係る画像処理装置は、入力画像の画素間を補間し初期補間拡大画像を生成する画像拡大部と、前記初期補間拡大画像から、前記初期補間拡大画像に含まれる高周波数成分を推定し、前記初期補間拡大画像と前記高周波数成分とを合成することで超解像処理画像を生成する超解像処理部と、前記初期補間拡大画像を入力し、前記初期補間拡大画像において注目画素と周辺に存在する画素との間の変動量が小さな方向の画素の位置情報を参照して前記超解像処理画像に対して平滑化処理を行うフィルタ処理部とを備えるものである。 An image processing apparatus according to the present invention estimates an high-frequency component included in the initial interpolation enlarged image from the image enlargement unit that generates an initial interpolation enlarged image by interpolating between pixels of the input image, and the initial interpolation enlarged image. A super-resolution processing unit that generates a super-resolution processing image by synthesizing the initial interpolation enlarged image and the high-frequency component; and the initial interpolation enlarged image is input, and a pixel of interest in the initial interpolation enlarged image And a filter processing unit that performs a smoothing process on the super-resolution processing image with reference to position information of pixels in a direction in which a fluctuation amount between pixels in the vicinity is small.

本発明によれば、補間拡大画像の画素毎に、周辺に存在する画素のうち、勾配の小さな方向の画素の位置情報を参照して勾配の小さな方向の画素を使った平滑化処理を行うという方式により、エッジ成分を保存しながらも超解像処理の予測誤差によって増幅されたノイズを低減することが可能になる。  According to the present invention, for each pixel of the interpolated enlarged image, the smoothing process using the pixels in the direction with the small gradient is performed with reference to the position information of the pixels in the direction with the small gradient among the pixels existing in the vicinity. By this method, it is possible to reduce noise amplified by a prediction error of super-resolution processing while preserving edge components.

実施の形態1に係る画像処理装置を示すブロック図である。1 is a block diagram illustrating an image processing apparatus according to Embodiment 1. FIG. 実施の形態1に係る超解像処理部の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a super-resolution processing unit according to Embodiment 1. FIG. 入力画像及び入力画像の拡大により得られる低解像度拡大画像を示す図である。It is a figure which shows the low-resolution enlarged image obtained by the expansion of an input image and an input image. 初期補間拡大画像におけるパッチの配列及び各パッチに含まれる画素を示す図である。It is a figure which shows the arrangement | sequence of the patch in the initial interpolation expansion image, and the pixel contained in each patch. 初期補間拡大画像の各パッチにおける画素の配列と、各画素についての差分値(dl1〜dl25)による列ベクトルの構成要素との対応関係を示す図である。It is a figure which shows the correspondence of the arrangement | sequence of the pixel in each patch of an initial stage interpolation expansion image, and the component of the column vector by the difference value ( dl1- dl25 ) about each pixel. 超解像処理画像におけるパッチの配列及び各パッチに含まれる画素を示す図である。It is a figure which shows the arrangement | sequence of the patch in a super-resolution process image, and the pixel contained in each patch. 変換により得られた超解像処理画像の特徴量(dh1〜dh9)による列ベクトルの構成要素に対応する超解像処理画像の画素の配列を示す図である。It is a figure which shows the arrangement | sequence of the pixel of the super-resolution process image corresponding to the component of a column vector by the feature-value ( dh1- dh9 ) of the super-resolution process image obtained by conversion. 実施の形態1に係る超解像処理部の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a super-resolution processing unit according to Embodiment 1. FIG. 実施の形態1に係るフィルタ処理部の構成例1を示すブロック図である。3 is a block diagram illustrating a configuration example 1 of a filter processing unit according to Embodiment 1. FIG. 実施の形態1に係る勾配方向検出部の構成例を示すブロック図である。4 is a block diagram illustrating a configuration example of a gradient direction detection unit according to Embodiment 1. FIG. 実施の形態1に係るフィルタ処理部の構成例2を示すブロック図である。6 is a block diagram illustrating a configuration example 2 of the filter processing unit according to Embodiment 1. FIG. 実施の形態2に係る画像処理装置における処理の手順を示すフロー図である。FIG. 10 is a flowchart illustrating a processing procedure in the image processing apparatus according to the second embodiment. 実施の形態2に係る画像処理装置における超解像処理ステップの処理の一例の手順を示すフロー図である。FIG. 10 is a flowchart illustrating a procedure of an example of a super-resolution processing step in the image processing apparatus according to the second embodiment.

図1は、本発明の実施の形態1に係る画像処理装置100を示すブロック図である。実施の形態1に係る画像処理装置100は、入力画像Dinを拡大し初期補間拡大画像D101を生成する画像拡大部101と、初期補間拡大画像D101から、前記初期補間拡大画像D101には含まれない高周波数成分を推定し合成することにより超解像処理画像D102を生成する超解像処理部102と、初期補間拡大画像D101を参照して超解像処理画像D102の平滑化を行うフィルタ処理部103とを備えている。画像拡大部101は、超解像処理部102及びフィルタ処理部103に初期補間拡大画像D101を出力する。超解像処理部102は、フィルタ処理部103に超解像処理画像D102を出力する。フィルタ処理部103は、出力画像Doutを出力する。 FIG. 1 is a block diagram showing an image processing apparatus 100 according to Embodiment 1 of the present invention. The image processing apparatus 100 according to the first embodiment includes an image enlargement unit 101 that generates an enlarged input image D in the initial interpolation enlarged image D101, from the initial interpolation enlarged image D101, included in the initial interpolation enlarged image D101 A super-resolution processing unit 102 that generates a super-resolution processing image D102 by estimating and synthesizing a high-frequency component that is not present, and a filter process that smoothes the super-resolution processing image D102 with reference to the initial interpolation enlarged image D101 Part 103. The image enlargement unit 101 outputs the initial interpolation enlarged image D101 to the super-resolution processing unit 102 and the filter processing unit 103. The super-resolution processing unit 102 outputs the super-resolution processing image D102 to the filter processing unit 103. The filter processing unit 103 outputs the output image Dout .

画像拡大部101は、入力画像Dinを、バイリニア法又はバイキュービック法などの線形フィルタ演算により画素間を補間し拡大するものである。画像拡大部101は、デジタルズームなどの拡大によって得られた初期補間拡大画像D101を出力する。 Image enlarging unit 101, an input image D in, and expands interpolating between pixels by a linear filter operation, such as a bilinear method or bicubic method. The image enlargement unit 101 outputs an initial interpolation enlarged image D101 obtained by enlargement such as digital zoom.

超解像処理部102は、入力画像Dinを用いて超解像処理を行うものである。超解像処理部102は、超解像処理を行って得られた超解像処理画像D102を出力する。超解像処理部102の構成の一例を以下に述べる。 The super-resolution processing unit 102 performs super-resolution processing using the input image D in . The super-resolution processing unit 102 outputs a super-resolution processed image D102 obtained by performing the super-resolution processing. An example of the configuration of the super-resolution processing unit 102 will be described below.

図2は、超解像処理部102を示すブロック図である。超解像処理部102は、初期補間拡大画像D101を矩形の領域であるパッチごとに低解像度の特徴成分D201Hと非特徴成分D201Lとに分離する特徴成分分離部201と、低解像度の特徴成分D201Hを高解像度の特徴成分D202Hに変換する高解像度化変換部202と、高解像度の特徴成分D202Hと非特徴成分D201Lを合成して高解像度パッチD203を生成する特徴成分合成部203と、各画素について1つ以上の高解像度パッチの値を平均化することで超解像処理画像D102を生成するパッチ平均化部204と、複数の互いに異なるパターンにそれぞれ対応する複数組の係数データD205を記憶する係数データ記憶部205とを備えている。また、高解像度化変換部202は、係数データ記憶部205から選択した係数データD205を用いて、低解像度の特徴成分D201Hを高解像度の特徴成分D202Hに変換する。特徴成分分離部201は、高解像度化変換部202に低解像度の特徴成分D201Hを出力する。また、特徴成分分離部201は、特徴成分合成部203に非特徴成分D201Lを出力する。係数データ記憶部205は、高解像度化変換部202に係数データD205を出力する。高解像度化変換部202は、特徴成分合成部203に高解像度の特徴成分D202Hを出力する。特徴成分合成部203は、パッチ平均化部204に高解像度パッチD203を出力する。パッチ平均化部204は、超解像処理画像D102を出力する。  FIG. 2 is a block diagram showing the super-resolution processing unit 102. The super-resolution processing unit 102 separates the initial interpolation enlarged image D101 into a low-resolution feature component D201H and a non-feature component D201L for each patch that is a rectangular region, and a low-resolution feature component D201H. A high-resolution conversion unit 202 that converts a high-resolution feature component D202H, a feature-component synthesis unit 203 that generates a high-resolution patch D203 by synthesizing the high-resolution feature component D202H and the non-feature component D201L, A coefficient that stores a plurality of sets of coefficient data D205 respectively corresponding to a plurality of different patterns, and a patch averaging unit 204 that generates a super-resolution processed image D102 by averaging the values of one or more high-resolution patches And a data storage unit 205. Further, the high resolution conversion unit 202 uses the coefficient data D205 selected from the coefficient data storage unit 205 to convert the low resolution feature component D201H into the high resolution feature component D202H. The feature component separation unit 201 outputs the low-resolution feature component D201H to the high-resolution conversion unit 202. Also, the feature component separation unit 201 outputs the non-feature component D201L to the feature component synthesis unit 203. The coefficient data storage unit 205 outputs the coefficient data D205 to the high resolution conversion unit 202. The high resolution conversion unit 202 outputs the high resolution feature component D202H to the feature component synthesis unit 203. The feature component synthesis unit 203 outputs the high resolution patch D203 to the patch averaging unit 204. The patch averaging unit 204 outputs a super-resolution processed image D102.

以下、各部の処理をより詳細に説明する。
画像拡大部101は、例えば図3(a)に示される入力画像Dinを拡大し、図3(b)に示される初期補間拡大画像D101を生成する。図3(a)及び(b)において、丸印の各々が1つの画素を表す。画像の拡大は、例えば、バイキュービック法により行う。拡大率は水平方向及び垂直方向の各々について例えば2である。図3(b)の初期補間拡大画像D101の画素のうち、黒丸で示される画素は、図3(a)に示される入力画像Dinの画素と同じ位置にある画素である。
Hereinafter, the process of each part is demonstrated in detail.
Image enlarging unit 101 may expand the input image D in shown in FIG. 3 (a), generates an initial interpolated enlarged image D101 shown in FIG. 3 (b). 3A and 3B, each of the circles represents one pixel. For example, the image is enlarged by the bicubic method. The enlargement ratio is, for example, 2 for each of the horizontal direction and the vertical direction. Of the pixels of the initial interpolation enlarged image D101 in FIG. 3B, the pixels indicated by black circles are the pixels at the same position as the pixels of the input image D in shown in FIG.

特徴成分分離部201は、初期補間拡大画像D101(図3(b))をその矩形の領域であるパッチの画素群ごとに低解像度の特徴成分D201Hと非特徴成分D201Lとに分離する。  The feature component separation unit 201 separates the initial interpolation enlarged image D101 (FIG. 3B) into a low-resolution feature component D201H and a non-feature component D201L for each pixel group of the patch that is the rectangular region.

初期補間拡大画像D101におけるパッチは、互いに重なり合うように形成される。例えば、図4に示すように、各パッチLPc1,LPc2,LPc3,LPc4は、NL×NL個の画素から成る矩形の領域である。図4においては、NLは5である。この場合、パッチのピッチ(パッチの中心とパッチの中心との間の距離)は水平方向、垂直方向ともに、2画素である。それによって、水平方向に隣接し合うパッチ間には水平方向に3画素が重なる。また、垂直方向に隣接し合うパッチ間には垂直方向に3画素が重なる。
水平方向及び垂直方向におけるパッチのピッチLPPh、LPPvは、ともに2である。これによって、パッチの中心に位置する画素は、1行おきに、かつ1列おきに配置される。
The patches in the initial interpolation enlarged image D101 are formed so as to overlap each other. For example, as shown in FIG. 4, each patch LPc1, LPc2, LPc3, LPc4 is a rectangular area composed of NL × NL pixels. In FIG. 4, NL is 5. In this case, the pitch of the patch (the distance between the center of the patch and the center of the patch) is 2 pixels in both the horizontal direction and the vertical direction. Thereby, three pixels overlap in the horizontal direction between patches adjacent in the horizontal direction. In addition, three pixels overlap in the vertical direction between patches adjacent in the vertical direction.
The patch pitches LPPh and LPPv in the horizontal direction and the vertical direction are both 2. As a result, the pixels located at the center of the patch are arranged every other row and every other column.

特徴成分分離部201は、初期補間拡大画像D101のNL×NL個の画素から成るパッチLPc1,LPc2,LPc3,LPc4の各々について、NL×NL個の画素の平均値lMeanを求める。また、特徴成分分離部201は、求めた平均値lMeanを非特徴成分D201Lとして出力する。さらに、特徴成分分離部201は、各々の画素の画素値から上記平均値lMeanを減算することで得られるNL×NL個の差分値を特徴量とする。また、特徴成分分離部201は、この特徴量を予め定められた順番で並べることで得られる列ベクトルを、特徴成分D201Hとして出力する。  The feature component separation unit 201 obtains an average value lMean of NL × NL pixels for each of the patches LPc1, LPc2, LPc3, LPc4 composed of NL × NL pixels of the initial interpolation enlarged image D101. Further, the feature component separation unit 201 outputs the obtained average value lMean as the non-feature component D201L. Further, the feature component separation unit 201 uses NL × NL difference values obtained by subtracting the average value lMean from the pixel value of each pixel as a feature amount. Further, the feature component separation unit 201 outputs a column vector obtained by arranging the feature amounts in a predetermined order as a feature component D201H.

例えば、列ベクトルの形成は以下のとおりである。図5(a)に示すような、画素P(1)〜P(25)を、その番号(括弧内の数値)で示す順序で取り出す。そして、取り出した画素の差分値dl1〜dl25を特徴量とする。特徴量は、図5(b)に示すように、上から順に並べる。
特徴成分D201Hは、上記の通り、各画素の画素値から平均値を減算することで得られる。よって、特徴成分D201Hは、当該パッチの高周波数成分であると言える。また、非特徴成分D201Lは当該パッチの低周波成分であると言える。
For example, the formation of a column vector is as follows. As shown in FIG. 5A, the pixels P (1) to P (25) are taken out in the order indicated by their numbers (numerical values in parentheses). Then, the extracted pixel difference values dl 1 to dl 25 are used as feature amounts. As shown in FIG. 5B, the feature amounts are arranged in order from the top.
As described above, the characteristic component D201H is obtained by subtracting the average value from the pixel value of each pixel. Therefore, it can be said that the feature component D201H is a high-frequency component of the patch. Further, it can be said that the non-feature component D201L is a low-frequency component of the patch.

特徴成分分離部201は、初期補間拡大画像D101の画像成分のうち、高解像度化変換部202での予測に用いられる特徴成分(高周波数成分)のみを分離または抽出する。このように、特徴成分分離部201は、高解像度化変換部202に対する入力信号を正規化する。  The feature component separation unit 201 separates or extracts only the feature component (high frequency component) used for prediction in the high resolution conversion unit 202 from the image components of the initial interpolation enlarged image D101. Thus, the feature component separation unit 201 normalizes the input signal to the high resolution conversion unit 202.

高解像度化変換部202は、低解像度の特徴成分D201Hを高解像度の特徴成分D202Hに変換する。特徴成分D202Hへの変換には、係数データ記憶部205から選択された係数データD205が用いられる。この変換は、低解像度画像のパッチの特徴成分から、超解像処理画像の対応するパッチの特徴成分への変換である。ここで「位置」に関して「対応する」とは、高解像度画像のパッチの中心の画素位置が、初期補間拡大画像のパッチの中心の画素位置と同じであることを意味する。このことを言い換えると、高解像度画像を初期補間拡大画像に重ねた場合に位置が一致することを意味する。互いに対応する位置に中心を有する初期補間拡大画像のパッチと高解像度画像のパッチとでパッチペアが構成される。  The high resolution conversion unit 202 converts the low resolution feature component D201H into the high resolution feature component D202H. The coefficient data D205 selected from the coefficient data storage unit 205 is used for the conversion to the feature component D202H. This conversion is a conversion from the feature component of the patch of the low-resolution image to the feature component of the corresponding patch of the super-resolution processed image. Here, “corresponding” with respect to “position” means that the pixel position at the center of the patch of the high-resolution image is the same as the pixel position at the center of the patch of the initial interpolation enlarged image. In other words, it means that the positions match when the high-resolution image is superimposed on the initial interpolation enlarged image. A patch pair is composed of a patch of an initial interpolation enlarged image and a patch of a high resolution image having centers at positions corresponding to each other.

解像処理画像D2におけるパッチも初期補間拡大画像D101におけるパッチと同様に互いに重なり合うように形成される。
例えば、図6に示すように、各パッチHPc1,HPc2,HPc3,HPc4は、例えばNH×NH個の画素から成る矩形の領域である。図6においては、NHは3である。この場合、水平方向におけるパッチのピッチHPPh及び垂直方向におけるパッチのピッチHPPvはともに2画素である。それによって、水平方向に隣接し合うパッチ間には水平方向に1画素が重なる。また、垂直方向に隣接し合うパッチ間には垂直方向に1画素が重なる。
Patches definitive super resolution processing image D 1 0 2 is also formed as well as overlap each other and the patch in the initial interpolation enlarged image D101.
For example, as shown in FIG. 6, each patch HPc1, HPc2, HPc3, HPc4 is a rectangular area composed of, for example, NH × NH pixels. In FIG. 6, NH is 3. In this case, the patch pitch HPPh in the horizontal direction and the patch pitch HPPv in the vertical direction are both two pixels. Thereby, one pixel overlaps in the horizontal direction between patches adjacent in the horizontal direction. In addition, one pixel overlaps in the vertical direction between patches adjacent in the vertical direction.

図6に示す例では、解像処理画像D2におけるパッチHPc1,HPc2,HPc3,HPc4の中心に位置する画素は、1行おきにかつ1列おきに配置されている点で、初期補間拡大画像D101におけるパッチLPc1,LPc2,LPc3,LPc4と同じである。また、解像処理画像D2におけるパッチHPc1,HPc2,HPc3,HPc4の中心は、初期補間拡大画像D101におけるパッチLPc1,LPc2,LPc3,LPc4の中心と一致している。 In the example shown in FIG. 6, the pixels situated super resolution processing image D 1 0 2 to definitive patch HPc1, HPc2, HPc3, HPc4 center, in that it is arranged in and every other column in every other row, This is the same as the patches LPc1, LPc2, LPc3, LPc4 in the initial interpolation enlarged image D101. Also, patch HPc1 the definitive super resolution processing image D 1 0 2, HPc2, HPc3 , the center of HPc4 coincides with the center of the patch LPC1, LPC2, LPC3, LPC4 in the initial interpolation enlarged image D101.

係数データD205は高解像度画像と低解像度画像の各パッチと、高解像画像の対応するパッチの関係を与えるものであり、係数データ記憶部205から供給される。  The coefficient data D205 gives the relationship between each patch of the high resolution image and the low resolution image and the corresponding patch of the high resolution image, and is supplied from the coefficient data storage unit 205.

ここで、初期補間拡大画像の各パッチの特徴成分D201Hを、列ベクトルnlp、列ベクトルnhp及び係数データD205である行列Mで定義すると、高解像度化変換部202による変換は式(1)で表される。なお、列ベクトルnlpは、(NL×NL)個の値をもち、初期補間拡大画像の各パッチを構成する画素の特徴成分値は、dl1〜dl(NL×NL)である。また、列ベクトルnhpは、(NH×NH)個の値をもち、高解像度画像の対応するパッチを構成する画素の特徴成分値は、dh1〜dh(NH×NH)である。
行列Mは、(NH×NH)行(NL×NL)列の成分からなる。
Here, if the feature component D201H of each patch of the initial interpolation enlarged image is defined by a matrix M that is a column vector nlp, a column vector nhp, and coefficient data D205, the conversion by the high resolution conversion unit 202 is expressed by Expression (1). Is done. Note that the column vector nlp has (NL × NL) values, and the feature component values of the pixels constituting each patch of the initial interpolation enlarged image are dl1 to dl (NL × NL). The column vector nhp has (NH × NH) values, and the characteristic component values of the pixels constituting the corresponding patch of the high resolution image are dh1 to dh (NH × NH).
The matrix M is composed of (NH × NH) rows (NL × NL) columns of components.

Figure 0005705391
NL=5、NH=3の場合について式(1)を、行列を用いて書き直すと式(2)のようになる。列ベクトルnlpは、25個の値をもち、初期補間拡大画像の各パッチを構成する画素の特徴成分値は、dl1〜dl25である。また、列ベクトルnhpは、9個の値をもち、高解像度画像の対応するパッチを構成する画素の特徴成分値は、dh1〜dh9である。
Figure 0005705391
When NL = 5 and NH = 3, equation (1) can be rewritten using a matrix as equation (2). The column vector nlp has 25 values, and the characteristic component values of the pixels constituting each patch of the initial interpolation enlarged image are dl1 to dl25. The column vector nhp has nine values, and the characteristic component values of the pixels constituting the corresponding patch of the high resolution image are dh1 to dh9.

Figure 0005705391
Figure 0005705391

式(2)の左辺は、例えば、図7に示される画素Q(1)〜Q(9)を、その番号(括弧内の数値)で示す順序で取り出して、それらの差分値dh1〜dh9を上から順に並べたものである。但し、図7に示される画素Q(1)〜Q(9)は、それぞれ、図5(a)に示される画素のうち、中央の3×3の位置、即ち、P(7),P(8),P(9),P(12),P(13),P(14),P(17),P(18),P(19)に対応する位置にあるものである。  For example, the left side of the expression (2) is obtained by taking out the pixels Q (1) to Q (9) shown in FIG. 7 in the order indicated by the numbers (numerical values in parentheses) and calculating their difference values dh1 to dh9. They are arranged in order from the top. However, each of the pixels Q (1) to Q (9) shown in FIG. 7 is a center 3 × 3 position among the pixels shown in FIG. 5A, that is, P (7), P ( 8), P (9), P (12), P (13), P (14), P (17), P (18), and P (19).

式(1)及び式(2)は、高解像度の特徴成分D202Hの各画素の値が、低解像度の特徴成分D201Hの(NL×NL)個の全ての画素に対する重み付け加算により与えられることを示している。
行列Mは、係数データ記憶部205から選択された係数データD205で構成される行列である。係数データ記憶部205は、記憶された複数組の係数データD205から1組の係数データを選択して、高解像度化変換部202に供給する。係数データ記憶部205に記憶されている複数組の係数データの各々は、教師画像から生成された低解像度画像の特徴成分D201Hと高解像度画像の特徴成分D202Hのペアの関係を近似する線形回帰モデルであり、予め学習を行うことで得られる。
Equations (1) and (2) indicate that the value of each pixel of the high-resolution feature component D202H is given by weighted addition to all (NL × NL) pixels of the low-resolution feature component D201H. ing.
The matrix M is a matrix composed of the coefficient data D205 selected from the coefficient data storage unit 205. The coefficient data storage unit 205 selects one set of coefficient data from the plurality of sets of stored coefficient data D205 and supplies the selected coefficient data to the high resolution conversion unit 202. Each of a plurality of sets of coefficient data stored in the coefficient data storage unit 205 is a linear regression model that approximates the relationship between a pair of a low resolution image feature component D201H and a high resolution image feature component D202H generated from a teacher image. And obtained by performing learning in advance.

なお、低解像度の特徴成分D201Hから高解像度の特徴成分D202Hへの変換は非線形であってもよい。その場合、係数データD205としては非線形関数の係数を与えるものを用いる。  Note that the conversion from the low-resolution feature component D201H to the high-resolution feature component D202H may be nonlinear. In that case, as the coefficient data D205, data giving a coefficient of a nonlinear function is used.

特徴成分合成部203は、高解像度の特徴成分D202Hと非特徴成分D201Lとを合成して高解像度パッチD203を生成する。  The feature component synthesis unit 203 synthesizes the high resolution feature component D202H and the non-feature component D201L to generate a high resolution patch D203.

特徴成分合成部203は、例えば、初期補間拡大画像のパッチの(NL×NL)個の画素の平均値lMean(=D201L)を、高解像度の特徴成分D202Hの各成分(各画素についての値)dh1〜dh9に加算する。
特徴成分合成部203は、特徴成分分離部201で分離した非特徴成分(低周波成分)lMeanを高解像度の特徴成分に加算することで、特徴成分分離部201で行った正規化を解除する役割をもつ。
For example, the feature component synthesis unit 203 uses the average value lMean (= D201L) of (NL × NL) pixels of the patch of the initial interpolation enlarged image as each component (value for each pixel) of the high-resolution feature component D202H. Add to dh1 to dh9.
The feature component synthesizer 203 cancels the normalization performed by the feature component separator 201 by adding the non-feature component (low frequency component) lMean separated by the feature component separator 201 to the high-resolution feature component. It has.

特徴成分合成部203による合成は、式(3)により表される。  The synthesis by the feature component synthesis unit 203 is expressed by Expression (3).

Figure 0005705391
式(3)におけるhpは、高解像度パッチD203を構成する画素の画素値を表すNH×NH個の値h1〜h(NH×NH)をもつ列ベクトルである。また、式(3)におけるnhpは、高解像度パッチの特徴成分D202Hを構成するNH×NH個の画素の特徴成分値dh1〜dh(NH×NH)をもつ列ベクトルである。さらに、式(3)におけるlMeanは、非特徴成分D201Lを表すスカラー値である。また、式(3)におけるは、高解像度の特徴成分(高周波数成分)に対するゲインを調整するスカラー値(定数)である。
NH=3の場合について、式(3)を、行列を用いて書き直すと式(4)のようになる。
Figure 0005705391
In Expression (3), hp is a column vector having NH × NH values h1 to h (NH × NH) representing pixel values of the pixels constituting the high resolution patch D203. In addition, nhp in Equation (3) is a column vector having feature component values dh1 to dh (NH × NH) of NH × NH pixels constituting the feature component D202H of the high resolution patch. Furthermore, lMean in Equation (3) is a scalar value representing the non-feature component D201L. In Expression (3), c is a scalar value (constant) for adjusting the gain for the high-resolution feature component (high frequency component).
When NH = 3, when Equation (3) is rewritten using a matrix, Equation (4) is obtained.

Figure 0005705391
Figure 0005705391

式(3)又は(4)において、=1とすることによって学習通りの推定結果を得ることができる。
>1とすることによって、高解像度の特徴成分(高周波数成分)を意図的に強調(エンハンス)して出力画像の解像感を高めることができる。
式(3)又は式(4)による演算は、高解像度パッチの各々について行われる。
In Equation (3) or (4), the estimated result as learned can be obtained by setting c = 1.
By setting c > 1, it is possible to intentionally enhance (enhance) the high-resolution feature component (high frequency component) and enhance the resolution of the output image.
The calculation according to Equation (3) or Equation (4) is performed for each of the high resolution patches.

先にも述べたように、パッチは互いに重なりあうように形成されるので、画素の中には複数のパッチに属するものがある。図6の例では、高解像度画像の画素のうち、各パッチの中心に位置する画素Pxcは、1つのパッチHPc1に属する。中心画素Pxcに対し水平方向に隣接する画素Pxaは、2つのパッチHPc1,HPc2に属する。中心画素Pxcに対し垂直方向に隣接する画素Pxbは、2つのパッチHPc1,HPc3に属する。中心画素Pxcに対し斜め方向に隣接する画素Pxdは4つのパッチHPc1,HPc2,HPc3,HPc4に属する。
2つのパッチに属する画素については、式(3)又は式(4)による演算の結果(各パッチについて求められた特徴成分hpを構成する、当該画素についての画素値)が2つ得られ、4つのパッチに属する画素については、式(3)又は式(4)による演算の結果が4つ得られる。1つのパッチにのみ属する画素については、式(3)又は式(4)による演算の結果が1つだけ得られる。
As described above, since the patches are formed so as to overlap each other, some pixels belong to a plurality of patches. In the example of FIG. 6, the pixel Pxc located at the center of each patch among the pixels of the high resolution image belongs to one patch HPc1. A pixel Pxa adjacent in the horizontal direction to the center pixel Pxc belongs to two patches HPc1 and HPc2. A pixel Pxb adjacent in the vertical direction to the center pixel Pxc belongs to two patches HPc1 and HPc3. A pixel Pxd that is adjacent to the central pixel Pxc in an oblique direction belongs to four patches HPc1, HPc2, HPc3, and HPc4.
For the pixels belonging to two patches, two calculation results (pixel values for the pixels constituting the characteristic component hp obtained for each patch) are obtained according to Equation (3) or Equation (4). For the pixels belonging to one patch, four calculation results are obtained according to Equation (3) or Equation (4). For a pixel belonging to only one patch, only one calculation result according to Expression (3) or Expression (4) is obtained.

パッチ平均化部204は、高解像度画像の各画素について1つ以上の高解像度パッチの値(各パッチについて求められた特徴成分hpを構成する、当該画素についての画素値)を平均化することで超解像処理画像D102を生成する。即ち、2つのパッチに属する画素については、2つのパッチの値を平均化し、4つのパッチに属する画素については、4つのパッチの値を平均化し、1つのパッチにしか属さない画素については1つのパッチの値をそのまま出力する。 The patch averaging unit 204 averages the values of one or more high-resolution patches (pixel values for the pixels constituting the characteristic component hp determined for each patch) for each pixel of the high-resolution image. A super-resolution processed image D102 is generated. That is, for pixels belonging to two patches, the values of two patches are averaged, for pixels belonging to four patches, the values of four patches are averaged, and for pixels belonging to only one patch, one The patch value is output as it is.

式(3)又は式(4)による演算は、超解像処理画像D102の各画素について1又は2以上の高解像度パッチによる画素値候補の推定であると言える。1つ以上の高解像度パッチの値の平均化は、1又は2以上の画素値候補の平均(単純平均または加重平均)を求める処理であると言える。この平均化により、最終的な出力画素値が得られる。  It can be said that the calculation according to Expression (3) or Expression (4) is estimation of pixel value candidates using one or more high-resolution patches for each pixel of the super-resolution processed image D102. It can be said that the averaging of the values of one or more high-resolution patches is a process for obtaining an average (simple average or weighted average) of one or more pixel value candidates. By this averaging, a final output pixel value is obtained.

係数データ記憶部205は、高解像度画像と低解像度画像との対応関係を与える係数データをパターン別に複数記憶する。ここで言うパターンとは、画像内の各部における画素値の変化のパターンである。  The coefficient data storage unit 205 stores a plurality of coefficient data for each pattern that gives the correspondence between the high resolution image and the low resolution image. The pattern referred to here is a pattern of change in pixel value in each part in the image.

ここで超解像処理部102における高解像度変換部202にノイズの混入した低解像度の特徴成分D201Hが入力された場合、混入されたノイズは特徴成分の一部となる。その結果、本来参照したい係数データと異なる係数データが参照されてしまい、ノイズが増幅される。増幅されたノイズは、画像劣化として認識される。 In the case where the low resolution features Ingredient D 201H entrained noise in high resolution conversion unit 202 in the super-resolution processing section 102 is inputted, mixed noise becomes part of the feature components. As a result, coefficient data different from the coefficient data originally desired to be referenced is referred to, and noise is amplified. The amplified noise is recognized as image degradation.

また、超解像処理部102における係数データ記憶部205に記憶されるデータは、低解像度画像の特徴成分と高解像度画像の特徴成分のペアの関係を線形回帰モデルによって近似したものである。学習量の少ない特徴成分などを高解像度化する場合は、近似値である係数データとの演算によって、係数データに含まれる誤差から予測誤差が生じ、ノイズやリンギングが発生する事がある。 Further, data stored in the coefficient data storage section 205 in the super-resolution processing section 102 is obtained by the relationship between the characteristic components of the pair of characteristic components and a high-resolution image images of the low-resolution image is approximated by a linear regression model. When a feature component having a small learning amount is increased in resolution, a prediction error may be generated from an error included in the coefficient data due to calculation with the coefficient data that is an approximate value, and noise and ringing may occur.

なお、図2の超解像処理部102においては、高解像度の特徴成分D202Hと非特徴成分D201Lとを合成して高解像度パッチD203を生成している。非特徴成分D201Lは、初期補間拡大画像D101に対して、低解像度の特徴成分D201Hのデータ量が減じられているため、データ量が少なく回路規模またはデータの転送速度などの面で有利である。しかし、解像感を高めるという効果に関しては、図8の超解像処理部102Bのように高解像度の特徴成分D202Hと初期補間拡大画像D101とを合成して高解像度パッチD203を生成してもよい。図8の超解像処理部102Bにおける特徴成分分離部201、高解像度化変換部202、特徴成分合成部203、パッチ平均化部204及び係数データ記憶部205は、図2の超解像処理部102における対応するブロックと同様の動作をするものである。  2 superimposes the high-resolution feature component D202H and the non-feature component D201L to generate a high-resolution patch D203. The non-feature component D201L is advantageous in terms of circuit scale or data transfer speed because the data amount of the low-resolution feature component D201H is reduced with respect to the initial interpolation enlarged image D101. However, with respect to the effect of enhancing the sense of resolution, the high-resolution patch D203 is generated by synthesizing the high-resolution feature component D202H and the initial interpolation enlarged image D101 as in the super-resolution processing unit 102B of FIG. Good. The feature component separation unit 201, the resolution enhancement conversion unit 202, the feature component synthesis unit 203, the patch averaging unit 204, and the coefficient data storage unit 205 in the super resolution processing unit 102B in FIG. The same operation as the corresponding block in 102 is performed.

次に、画像処理装置100におけるフィルタ処理部103を説明する。フィルタ処理部103は、初期補間拡大画像D101を参照して超解像処理画像D102の平滑化を行う。図9は、フィルタ処理部103の構成例を表すブロック図である。フィルタ処理部103は、勾配方向検出部302と平滑化部303とを備える。勾配方向検出部302は、初期補間拡大画像D101を入力し、平滑化部303に勾配の小さな方向の画素の位置情報である微小勾配画素位置D302を出力する。平滑化部303は、さらに超解像処理画像D102を入力し、出力画像Doutを出力する。
勾配方向検出部302は、初期補間拡大画像D101の各画素の周辺に存在する画素のうち勾配の小さな画素の位置を検出し微小勾配画素位置として出力する。平滑化部303は、前記初期補間拡大画像D101の各画素から、前記勾配方向検出部302により決定された微小勾配画素位置D302にある所定数の画素を選択し重み付け加算することにより平滑化を行う。
Next, the filter processing unit 103 in the image processing apparatus 100 will be described. The filter processing unit 103 refers to the initial interpolation enlarged image D101 to smooth the super-resolution processed image D102. FIG. 9 is a block diagram illustrating a configuration example of the filter processing unit 103. The filter processing unit 103 includes a gradient direction detection unit 302 and a smoothing unit 303. The gradient direction detection unit 302 receives the initial interpolation enlarged image D101, and outputs to the smoothing unit 303 a minute gradient pixel position D302 that is position information of pixels in a direction with a small gradient. Smoothing unit 303 may further enter the super-resolution processing image D102, and outputs the output image D out.
The gradient direction detection unit 302 detects the position of a pixel with a small gradient among the pixels existing around each pixel of the initial interpolation enlarged image D101 and outputs it as a minute gradient pixel position. The smoothing unit 303 performs smoothing by selecting a predetermined number of pixels at the minute gradient pixel position D302 determined by the gradient direction detection unit 302 from each pixel of the initial interpolation enlarged image D101 and performing weighted addition. .

勾配方向検出部の構成の一例を以下に述べる。図10は、勾配方向検出部302の構成例を表すブロック図である。勾配方向検出部302は、差分絶対値算出部401と画素抽出部402とを備える。差分絶対値算出部401は、初期補間拡大画像D101を入力し、画素抽出部402に差分絶対値D401を出力する。画素抽出部402は、微小勾配画素位置D302を出力する。
差分絶対値算出部401は、初期補間拡大画像D101の各画素を第一の注目画素として、該第一の注目画素の周辺に存在する画素について、注目画素との差分絶対値D401を算出する。
画素抽出部402は、前記差分絶対値D401が小さい画素から順に所定数の画素を抽出し、その画素位置を前記微小勾配画素位置D302として出力する。
An example of the configuration of the gradient direction detection unit will be described below. FIG. 10 is a block diagram illustrating a configuration example of the gradient direction detection unit 302. The gradient direction detection unit 302 includes a difference absolute value calculation unit 401 and a pixel extraction unit 402. The difference absolute value calculation unit 401 receives the initial interpolation enlarged image D101 and outputs the difference absolute value D401 to the pixel extraction unit 402. The pixel extraction unit 402 outputs a minute gradient pixel position D302.
The difference absolute value calculation unit 401 calculates each pixel of the initial interpolation enlarged image D101 as a first pixel of interest, and calculates a difference absolute value D401 from the pixel of interest for pixels existing around the first pixel of interest.
The pixel extraction unit 402 extracts a predetermined number of pixels in order from the pixel having the smallest difference absolute value D401, and outputs the pixel position as the minute gradient pixel position D302.

差分絶対値算出部401は、初期補間拡大画像D101の各画素(X,Y)を注目画素として差分絶対値D401を算出する。なお、差分絶対値D401は、画素の輝度データの差分値を絶対値化したものである。差分絶対値D401は、注目画素の周辺に存在する画素と注目画素との差分絶対値ABS1〜ABS8として算出される。差分絶対値D401は、言い換えれば注目画素からの勾配である。また差分絶対値D401を求める演算の例を、式(5)に示す。  The difference absolute value calculation unit 401 calculates the difference absolute value D401 using each pixel (X, Y) of the initial interpolation enlarged image D101 as a target pixel. The difference absolute value D401 is an absolute value of the difference value of pixel luminance data. The difference absolute value D401 is calculated as the difference absolute values ABS1 to ABS8 between the pixel existing around the pixel of interest and the pixel of interest. In other words, the difference absolute value D401 is a gradient from the target pixel. An example of the calculation for obtaining the difference absolute value D401 is shown in Expression (5).

Figure 0005705391
ここで、IMBC(X,Y)は、(X,Y)における初期補間拡大画像D101の画素値であり、ここでは例えば輝度データの値である。
Figure 0005705391
Here, IMBC (X, Y) is a pixel value of the initial interpolation enlarged image D101 at (X, Y), and here is, for example, a value of luminance data.

画素抽出部402は、初期補間拡大画像D101の画素(X,Y)毎に周辺に存在する画素のうち、前記差分絶対値D401が小さい画素、言い換えれば注目画素からの勾配が小さい画素から順にN個の微小勾配画素(X1st,Y1st)〜(XNth,YNth)を求める。Nは、例えば2である。Nが2のときの微小勾配画素は、(X1st,Y1s ),(X2nd,Y2nd)となる。微小勾配画素(X1st,Y1st),(X2n ,Y2nd)は、上式(5)において、ABS1からABS8を昇順でソートしたとき、ABS1からABS8の中で一番目と二番目に小さい値を与える座標である。The pixel extraction unit 402 includes N pixels in order from a pixel having a small difference absolute value D401 among pixels existing in the periphery for each pixel (X, Y) of the initial interpolation enlarged image D101, in other words, a pixel having a small gradient from the target pixel. The small gradient pixels (X 1st , Y 1st ) to (X Nth , Y Nth ) are obtained. N is, for example, 2. Minute gradient pixel when N is 2, the (X 1st, Y 1s t) , (X 2nd, Y 2nd). Minute gradient pixel (X 1st, Y 1st), (X 2n d, Y 2nd) , in the above equation (5), when the sort ABS8 from ABS1 in ascending order, to a first and second in the ABS1 the ABS8 A coordinate giving a small value.

この微小勾配画素は、注目画素(X,Y)が画像内のエッジ上に存在する場合には、エッジ方向に存在する画素が選択される。そのため、後工程には画像内のエッジ情報が伝えられる。このソート処理により、エッジ方向の検出を少ない演算量で実現することができる。
画素抽出部402は、微小勾配画素の座標を微小勾配画素位置D302として出力する。
As the minute gradient pixel, when the target pixel (X, Y) exists on the edge in the image, the pixel existing in the edge direction is selected. Therefore, the edge information in the image is transmitted to the subsequent process. By this sort processing, the edge direction can be detected with a small amount of calculation.
The pixel extraction unit 402 outputs the coordinates of the minute gradient pixel as the minute gradient pixel position D302.

微小勾配画素位置の検出は上記のように差分絶対値をソートすることに限定されるものではない。初期補間拡大画像D101の各画素の周辺に存在する画素のうち、所定数N番目までの勾配の小さな画素の位置を微小勾配画素位置として検出すればよい。  The detection of the minute gradient pixel position is not limited to sorting the absolute difference values as described above. Of the pixels present around each pixel of the initial interpolation enlarged image D101, the positions of pixels having a small gradient up to a predetermined number N may be detected as minute gradient pixel positions.

平滑化部303は、超解像処理画像D102内に含まれる、超解像処理部102により誤って強調されたノイズを低減する処理を行う。超解像処理部102により誤って強調されたノイズとは、超解像処理の予測誤差である。平滑化部303は、勾配方向検出部302から得られた微小勾配画素位置D302を利用して、式()に示すソート順位に基づいた平滑化フィルタ処理を超解像処理画像D102に対しておこなう。つまり、平滑化部303は、超解像処理画像D102の各画素を第二の注目画素として、第二の注目画素の周辺に存在する画素から、画素抽出部402により決定された画素位置にある所定数の画素を選択し重み付け加算する。この動作により、平滑化部303は、超解像処理画像D102内に含まれるノイズをエッジ方向に拡散させ、出力画像Doutを算出する。 The smoothing unit 303 performs a process of reducing noise included in the super-resolution processing image D102 and erroneously emphasized by the super-resolution processing unit 102. The noise erroneously emphasized by the super-resolution processing unit 102 is a prediction error of the super-resolution process. The smoothing unit 303 uses the minute gradient pixel position D302 obtained from the gradient direction detection unit 302 to perform the smoothing filter processing based on the sort order shown in Expression ( 6 ) on the super-resolution processing image D102. Do it. That is, the smoothing unit 303 uses each pixel of the super-resolution processed image D102 as the second target pixel, and is located at the pixel position determined by the pixel extraction unit 402 from the pixels existing around the second target pixel. A predetermined number of pixels are selected and weighted. By this operation, the smoothing unit 303 calculates the output image Dout by diffusing noise included in the super-resolution processed image D102 in the edge direction.

Figure 0005705391
ここで、imSR(X,Y)は、(X,Y)における超解像処理画像D102の画素値を表す。また、imLPF(X,Y)は、(X,Y)における出力画像Doutの画素値を表す。平滑化部303では、定数LPFSTRによって平滑化の強度を変化させることができる。なお、定数LPFSTRは、0以上で2以下の実数である。
Figure 0005705391
Here, imSR (X, Y) represents the pixel value of the super-resolution processed image D102 at (X, Y). Further, imLPF (X, Y) represents the pixel value of the output image D out in (X, Y). In the smoothing unit 303, the smoothing intensity can be changed by a constant LPFSTR. The constant LPFSTR is a real number not less than 0 and not more than 2.

以上が、実施の形態1に係る画像処理装置100の動作の説明である。
次に実施の形態1の画像処理装置100による効果を説明する。
実施の形態1の画像処理装置では、超解像処理後の超解像処理画像に対して行うフィルタ処理部103において、勾配方向検出部302がソート処理を行い、超解像処理画像D102に存在するエッジの方向を検出できるようにした。
The above is the description of the operation of the image processing apparatus 100 according to the first embodiment.
Next, effects of the image processing apparatus 100 according to the first embodiment will be described.
In the image processing apparatus according to the first embodiment, in the filter processing unit 103 that performs the super-resolution processing image after the super-resolution processing, the gradient direction detection unit 302 performs sorting processing and exists in the super-resolution processing image D102. The direction of the edge to be detected can be detected.

これにより、平滑化部303でエッジ方向へのLPF処理が行えるため、従来のLPF処理のように超解像処理部により予測された超解像処理画像のエッジ成分が拡散する事を防ぐ、言い換えれば超解像の効果低減を防ぐことができる。  As a result, since the smoothing unit 303 can perform the LPF process in the edge direction, the edge component of the super-resolution processing image predicted by the super-resolution processing unit as in the conventional LPF processing is prevented from being diffused. Therefore, it is possible to prevent the super-resolution effect from being reduced.

また前記ソート処理は、少ない演算量でエッジ方向の検出を実現できるため、ハードウェア化に際して回路規模やメモリ容量を抑えることができる。  In addition, since the sort process can detect the edge direction with a small amount of calculation, the circuit scale and the memory capacity can be suppressed in the hardware implementation.

また、フィルタ処理部103において、初期補間拡大画像を参照してエッジ方向を検出することで、画像内混入ノイズによる超解像処理部102の予測誤差の影響を受けることなくエッジ方向を検出する事が出来る。  Also, the edge direction is detected without being affected by the prediction error of the super-resolution processing unit 102 due to noise mixed in the image by detecting the edge direction with reference to the initial interpolation enlarged image in the filter processing unit 103. I can do it.

また、公知のLPF処理方法(例えばメディアンフィルタ)で行う平滑化の場合、平滑化の方法として画像内の高周波数成分を一律に拡散させるため、高周波数成分に含まれるエッジ成分も拡散してしまい、結果として超解像の効果が低減するが、実施の形態1ではエッジ方向にLPF処理を行うことで、ノイズを拡散させつつもエッジ成分を保存することを可能としている。  In addition, in the case of smoothing performed by a known LPF processing method (for example, a median filter), the high frequency components in the image are uniformly diffused as a smoothing method, so that edge components included in the high frequency components are also diffused. As a result, although the effect of super-resolution is reduced, the first embodiment makes it possible to preserve the edge component while diffusing noise by performing LPF processing in the edge direction.

また、勾配方向検出部302は微分処理(例えばラプラシアンフィルタ)によりエッジ成分画像を導出し、そこから勾配方向を検出してもよい。  The gradient direction detection unit 302 may derive an edge component image by differential processing (for example, a Laplacian filter) and detect the gradient direction therefrom.

また平滑化部303は式(6)の処理に限らず、補間拡大画像で微小勾配画素位置D302に対応する画素を使って平滑化処理を行っていればよい。  In addition, the smoothing unit 303 is not limited to the process of Expression (6), and it is only necessary to perform the smoothing process using the pixel corresponding to the minute gradient pixel position D302 in the interpolation enlarged image.

なおフィルタ処理部103の構成に関して、初期補間拡大画像D101の成分へLPF処理がかかる事を防ぐための処理として、
超解像処理画像D102と初期補間拡大画像D101の差分から差分画像D01を求める減算部301と、
初期補間拡大画像D101の各画素の値に、平滑化部の出力画像の同じ位置の画素の値を加算することにより出力画像Doutを得る加算部304と、をフィルタ処理部103の前段と後段に追加してもよい。追加時の構成例を図11に示す。図11におけるフィルタ処理部103は、減算部301、勾配方向検出部302、平滑化部303及び加算部304を備える。減算部301は、初期補間拡大画像D101及び超解像処理画像D102を入力し、平滑化部303に減算結果D301を出力する。勾配方向検出部302は、初期補間拡大画像D101を入力し、平滑化部303に微小勾配画素位置D302を出力する。平滑化部303は、加算部304に平滑化結果D303を出力する。加算部304は、さらに初期補間拡大画像D101を入力し、出力画像Doutを出力する。
Regarding the configuration of the filter processing unit 103, as a process for preventing the LPF process from being applied to the component of the initial interpolation enlarged image D101,
A subtraction unit 301 for obtaining the difference image D 3 01 from a difference between the super-resolution processing image D102 and the initial interpolation enlarged image D101,
An adder 304 that obtains an output image Dout by adding the value of a pixel at the same position of the output image of the smoothing unit to the value of each pixel of the initial interpolation enlarged image D101; May be added to A configuration example at the time of addition is shown in FIG. The filter processing unit 103 in FIG. 11 includes a subtraction unit 301, a gradient direction detection unit 302, a smoothing unit 303, and an addition unit 304. The subtraction unit 301 receives the initial interpolation enlarged image D101 and the super-resolution processed image D102, and outputs the subtraction result D301 to the smoothing unit 303. The gradient direction detection unit 302 receives the initial interpolation enlarged image D101 and outputs the minute gradient pixel position D302 to the smoothing unit 303. The smoothing unit 303 outputs the smoothing result D303 to the adding unit 304. Adding section 304 further inputs the initial interpolation enlarged image D101, and outputs the output image D out.

続いて、実施の形態2に係る画像処理方法の動作を説明する。
図12は、実施の形態2に係る画像処理方法における処理の手順を表す。実施の形態2の画像処理方法の動作としては、まず、画像拡大ステップS11にて、入力画像Dinを画像拡大部101により拡大し、初期補間拡大画像D101を生成する。
Subsequently, the operation of the image processing method according to the second embodiment will be described.
FIG. 12 illustrates a processing procedure in the image processing method according to the second embodiment. The operation of the image processing method of the second embodiment, first, in the image enlarging step S11, the input image D in expanded by the image expansion section 101 generates an initial interpolated enlarged image D101.

次に超解像処理ステップS12において初期補間拡大画像D101から、初期補間拡大画像に含まれる周波数成分よりも高い周波数成分を推定することで高周波数成分である超解像処理画像(または超解像拡大画像を生成する。 Next, in the super-resolution processing step S12, a super-resolution processing image (or super-resolution) that is a high frequency component is estimated from the initial interpolation enlarged image D101 by estimating a frequency component higher than the frequency component included in the initial interpolation enlarged image. (Enlarged image ) is generated.

最後にフィルタ処理ステップS13において、初期補間拡大画像D101を参照し、超解像処理画像D102の平滑化処理を行う。  Finally, in the filter processing step S13, the initial interpolated enlarged image D101 is referred to and the super-resolution processed image D102 is smoothed.

また図13に超解像処理ステップS12における処理の手順の一例を示す。パッチ選択ステップS21において初期補間拡大画像D101からパッチを一つ選択する。パッチの選択は例えばラスター順に、例えば画像を左上から右下へ(上から下へ、かつ同じ高さ位置においては左から右へ)と言う順に行われる。パッチの選択とともに、入力画像Din中の対応する局所領域を選択する。 FIG. 13 shows an example of a processing procedure in the super-resolution processing step S12. In the patch selection step S21, one patch is selected from the initial interpolation enlarged image D101. The selection of patches is performed in raster order, for example, in the order of images from top left to bottom right (from top to bottom, and from left to right at the same height position). Along with the selection of the patch, the corresponding local region in the input image D in is selected.

次に、ステップS22からステップS25において、初期補間拡大画像D101のパッチ毎に、特徴成分分離部201、係数データ記憶部205、高解像度化変換部202、及び特徴成分合成部203による処理を行う。  Next, in step S22 to step S25, processing by the feature component separation unit 201, the coefficient data storage unit 205, the high resolution conversion unit 202, and the feature component synthesis unit 203 is performed for each patch of the initial interpolation enlarged image D101.

パッチ毎の処理(ステップS22からステップS25)においては、まず、特徴成分分離ステップS22にて、各パッチを低解像度の特徴成分D201Hと非特徴成分D201Lとに分離する。
これと並行して、係数データ選択ステップS2において、各パッチに対応する係数データを係数データ記憶部205から選択して出力する。
In the processing for each patch (from step S22 to step S25), first, in the feature component separation step S22, each patch is separated into a low-resolution feature component D201H and a non-feature component D201L.
In parallel with this, in the coefficient data selection step S2 3, selects and outputs the coefficient data corresponding to each patch from the coefficient data memory unit 205.

ステップS22及びステップS23の次に、高解像度化変換ステップS24において、ステップS22で得られた低解像拡大画像の各パッチの特徴成分D201Hに対して、ステップS23で選択した係数データD205を用いて演算を行い、低解像度の特徴成分D201Hから高解像度の特徴成分D202Hへの変換を行う。
次に、ステップS25において、ステップS22で分離した非特徴成分D201Lを、ステップS25の出力である高解像度の特徴成分D202Hと合成して、高解像度パッチを生成する。
After step S22 and step S23, in the high resolution conversion step S24, the coefficient data D205 selected in step S23 is used for the feature component D201H of each patch of the low resolution enlarged image obtained in step S22. An operation is performed to convert the low-resolution feature component D201H to the high-resolution feature component D202H.
Next, in step S25, the non-feature component D201L separated in step S22 is combined with the high-resolution feature component D202H that is the output of step S25 to generate a high-resolution patch.

次に判定ステップS26において、画像中のすべてのパッチについてのステップS21〜S25の処理が行われたか否かの判定を行う。まだ処理されていないパッチがあれば(ステップS26におけるNOの場合)、ステップS21に戻り、次のパッチを選択する。  Next, in determination step S26, it is determined whether or not the processing in steps S21 to S25 has been performed for all patches in the image. If there is a patch that has not yet been processed (NO in step S26), the process returns to step S21 to select the next patch.

ステップS26ですべてのパッチについての処理が終わっていれば、パッチ平均化ステップS27に進み、各画素についてパッチ毎の処理で得られた高解像度パッチの値をパッチ平均化部204により平均化し超解像処理画像D102を生成する。  If the processing for all the patches has been completed in step S26, the process proceeds to patch averaging step S27, where the high-resolution patch values obtained by the processing for each patch for each pixel are averaged by the patch averaging unit 204, and the super solution is obtained. An image processed image D102 is generated.

なお、画像内のすべてのパッチが終わらなくても、各画素についてそれが属するパッチについての処理が終わったら、直ちに当該画素についてステップS27の処理を行うようにしても良い。この場合、ステップS21〜S27の処理と、ステップS27の処理とが並行して行われることになる。  Even if all the patches in the image are not finished, the processing of step S27 may be performed on the pixel immediately after the processing on the patch to which the pixel belongs is completed. In this case, the process of steps S21 to S27 and the process of step S27 are performed in parallel.

上記の画像処理装置を構成する要素の一部又は全部、或いは上記画像処理方法における処理の一部又は全部は、ソフトウェアにより、即ちプログラムされたコンピュータによって実現することができる。  Part or all of the elements constituting the image processing apparatus or part or all of the processing in the image processing method can be realized by software, that is, by a programmed computer.

以上で説明したように、本発明によれば、回路規模及びメモリ容量を抑えつつ、ハードウェア化に適した構成で、エッジ成分を保存しながらも超解像処理部により増幅された平滑化が可能な超解像による、高画質化を利用することができる。  As described above, according to the present invention, smoothing amplified by the super-resolution processing unit can be performed while preserving the edge component with a configuration suitable for hardware while suppressing the circuit scale and memory capacity. High image quality due to possible super-resolution can be used.

また、以上のように本発明の実施の形態について説明したが、本発明はこれらの実施の形態に限るものではない。  Moreover, although the embodiments of the present invention have been described above, the present invention is not limited to these embodiments.

100 画像処理装置、 101 画像拡大部、 102 超解像処理部、 103 フィルタ処理部、201 特徴成分分離部、 202 高解像度化変換部、 203 特徴成分合成部、 204 パッチ平均化部、 205 係数データ記憶部、 301 減算部、 302 勾配方向検出部、 303 平滑化部、 304 加算部、 401 差分絶対値検出部、402 画素抽出部。  DESCRIPTION OF SYMBOLS 100 Image processing apparatus, 101 Image expansion part, 102 Super-resolution processing part, 103 Filter processing part, 201 Feature component separation part, 202 High resolution conversion part, 203 Feature component synthesis part, 204 Patch averaging part, 205 Coefficient data Storage unit, 301 subtraction unit, 302 gradient direction detection unit, 303 smoothing unit, 304 addition unit, 401 difference absolute value detection unit, 402 pixel extraction unit.

Claims (9)

入力画像の画素間を補間し初期補間拡大画像を生成する画像拡大部と、
前記初期補間拡大画像から、前記初期補間拡大画像に含まれる高周波数成分を推定し、前記初期補間拡大画像と前記高周波数成分とを合成することで超解像処理画像を生成する超解像処理部と、
前記初期補間拡大画像を入力し、前記初期補間拡大画像において注目画素と周辺に存在する画素との間の変動量が小さな方向の画素の位置情報を参照して前記超解像処理画像に対して平滑化処理を行うフィルタ処理部とを
備えることを特徴とする画像処理装置。
An image enlargement unit that interpolates between pixels of the input image and generates an initial interpolation enlarged image;
Super-resolution processing for estimating a high-frequency component included in the initial interpolation enlarged image from the initial interpolation enlarged image and generating a super-resolution processing image by combining the initial interpolation enlarged image and the high-frequency component And
The initial interpolation enlarged image is input, and the super-resolution processing image is referred to with reference to the position information of the pixel in the direction in which the amount of variation between the target pixel and the neighboring pixels in the initial interpolation enlarged image is small. An image processing apparatus comprising: a filter processing unit that performs a smoothing process.
前記変動量は、前記注目画素の画素データと前記注目画素の周辺に存在する画素の画素データとの差分の絶対値であり、
前記フィルタ処理部は、
前記変動量を勾配として、前記初期補間拡大画像の画素毎に周辺に存在する画素のうち、前記勾配の小さな方向の画素の位置を微小勾配画素位置として検出する勾配方向検出部と、
前記超解像処理画像の画素毎に前記微小勾配画素位置の画素を使った平滑化処理を行う平滑化部とを有する
ことを特徴とする請求項1に記載の画像処理装置。
The variation amount is an absolute value of a difference between pixel data of the target pixel and pixel data of pixels existing around the target pixel,
The filter processing unit
A gradient direction detection unit that detects, as the gradient, a position of a pixel in a small gradient direction as a minute gradient pixel position among pixels existing around each pixel of the initial interpolation enlarged image with the variation amount as a gradient;
The image processing apparatus according to claim 1, further comprising: a smoothing unit that performs a smoothing process using a pixel at the minute gradient pixel position for each pixel of the super-resolution processing image.
前記勾配方向検出部は、
前記初期補間拡大画像の各画素を第一の注目画素として、前記第一の注目画素の周辺に存在する画素と前記第一の注目画素との差分絶対値を算出する差分絶対値算出部と、
前記差分絶対値が小さい画素から順に所定数の画素を抽出し、その画素位置を前記微小勾配画素位置として出力する画素抽出部とを有し、
前記平滑化部は、
前記超解像処理画像の各画素を第二の注目画素として、前記第二の注目画素の周辺に存在する画素から、前記画素抽出部により決定された画素位置にある前記所定数の画素を選択し重み付け加算することにより平滑化を行う
ことを特徴とする請求項2に記載の画像処理装置。
The gradient direction detector
A difference absolute value calculation unit that calculates a difference absolute value between a pixel existing around the first pixel of interest and the first pixel of interest using each pixel of the initial interpolation enlarged image as a first pixel of interest;
A pixel extraction unit that extracts a predetermined number of pixels in order from the pixel having the smallest difference absolute value and outputs the pixel position as the minute gradient pixel position;
The smoothing unit
Using each pixel of the super-resolution processed image as a second pixel of interest, selecting the predetermined number of pixels at the pixel position determined by the pixel extraction unit from pixels existing around the second pixel of interest The image processing apparatus according to claim 2, wherein smoothing is performed by weighted addition.
前記超解像処理部は、予め学習された低解像度画像と高解像度画像との対応関係に基づいて像処理を行い、超解像処理画像を得る
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
The super-resolution processing unit performs super Zosho management based on the correspondence relationship between the low-resolution image and a high resolution image which has previously been learned from claim 1, characterized in that to obtain a super-resolution processing image 4. The image processing apparatus according to any one of items 3.
前記超解像処理部は、
低解像度の特徴成分と高解像度の特徴成分との対応関係の事例を予め学習することにより得た係数データを記憶する係数データ記憶部と、
前記係数データを用いて、前記低解像度の特徴成分を前記高解像度の特徴成分に変換する高解像度変換部を有する
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
The super-resolution processor
A coefficient data storage unit that stores coefficient data obtained by previously learning an example of a correspondence relationship between a low-resolution feature component and a high-resolution feature component;
Using said coefficient data, the image processing according the any one of claims 1 to 3, the characteristic components of low resolution and having a high resolution converter for converting the feature components of the high resolution apparatus.
前記超解像処理部は、入力された画像を複数の画素から成る矩形の領域であるパッチごとに、予め学習された低解像度画像と高解像度画像との対応関係に基づいて像処理を行い、得られた高解像度パッチを平均化する事で超解像処理画像を得る
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
The super-resolution processing unit, for each a rectangular area comprising the input image from a plurality of pixels patches, super Zosho management based on the correspondence between the low-resolution image and a high resolution image which has previously been learned 4. The image processing apparatus according to claim 1, wherein a super-resolution processed image is obtained by averaging the obtained high-resolution patches. 5.
前記超解像処理部は、
前記初期補間拡大画像をそのパッチごとに低解像度の特徴成分と非特徴成分とに分離する特徴成分分離部と、
前記低解像度の特徴成分を高解像度の特徴成分に変換する高解像度化変換部と、
前記高解像度の特徴成分と前記低解像度の非特徴成分または前記初期補間拡大画像とを合成して高解像度パッチを生成する特徴成分合成部と、
各画素について1つ以上の前記高解像度パッチの値を平均化することで超解像処理画像を生成するパッチ平均化部とを有する
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
The super-resolution processor
A feature component separation unit that separates the initial interpolation enlarged image into low-resolution feature components and non-feature components for each patch;
A high-resolution conversion unit that converts the low-resolution feature component into a high-resolution feature component;
A feature component synthesis unit that synthesizes the high resolution feature component and the low resolution non-feature component or the initial interpolation enlarged image to generate a high resolution patch;
4. The patch averaging unit according to claim 1, further comprising: a patch averaging unit that generates a super-resolution processing image by averaging values of one or more high-resolution patches for each pixel. 5. The image processing apparatus described.
前記超解像処理部は、
前記初期補間拡大画像をそのパッチごとに低解像度の特徴成分を分離する特徴成分分離部と、
前記低解像度の特徴成分を高解像度の特徴成分に変換する高解像度化変換部と、
前記高解像度の特徴成分と前記初期補間拡大画像とを合成して高解像度パッチを生成する特徴成分合成部と、
各画素について1つ以上の前記高解像度パッチの値を平均化することで超解像処理画像を生成するパッチ平均化部と、
前記低解像度の特徴成分と前記高解像度の特徴成分と対応関係の事例を予め学習することにより得た係数データを記憶する係数データ記憶部とを有し、
前記高解像度変換部は、前記係数データ記憶部に記憶された係数データを用いて、前記低解像度の特徴成分を前記高解像度の特徴成分に変換する
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
The super-resolution processor
A feature component separation unit that separates low resolution feature components for each patch of the initial interpolation enlarged image;
A high-resolution conversion unit that converts the low-resolution feature component into a high-resolution feature component;
A feature component synthesis unit that synthesizes the high resolution feature component and the initial interpolation enlarged image to generate a high resolution patch;
A patch averaging unit that generates a super-resolution image by averaging the values of one or more high-resolution patches for each pixel;
A coefficient data storage unit for storing coefficient data obtained by learning in advance an example of a correspondence relationship between the low-resolution feature component and the high-resolution feature component;
It said high resolution conversion unit uses the coefficient data stored in the coefficient data storage unit, the low-resolution characteristic component from claim 1, characterized in that converting the feature components of the high resolution of the 3 The image processing apparatus according to any one of the above.
入力画像の画素間を補間し初期補間拡大画像を生成する画像拡大ステップと、
前記初期補間拡大画像から、前記初期補間拡大画像に含まれる高周波数成分を推定し、前記初期補間拡大画像と前記高周波数成分とを合成することで超解像処理画像を生成する超解像処理ステップと、
前記初期補間拡大画像を入力し、前記初期補間拡大画像において注目画素と周辺に存在する画素との間の変動量が小さな方向の画素の位置情報を参照して前記超解像処理画像に対して平滑化処理を行うフィルタ処理ステップとを
備えることを特徴とする画像処理方法。
An image enlargement step of interpolating between pixels of the input image to generate an initial interpolation enlarged image;
Super-resolution processing for estimating a high-frequency component included in the initial interpolation enlarged image from the initial interpolation enlarged image and generating a super-resolution processing image by combining the initial interpolation enlarged image and the high-frequency component Steps,
The initial interpolation enlarged image is input, and the super-resolution processing image is referred to with reference to the position information of the pixel in the direction in which the amount of variation between the target pixel and the neighboring pixels in the initial interpolation enlarged image is small. An image processing method comprising: a filter processing step for performing a smoothing process.
JP2014558339A 2014-06-24 2014-09-30 Image processing apparatus and image processing method Active JP5705391B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014558339A JP5705391B1 (en) 2014-06-24 2014-09-30 Image processing apparatus and image processing method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2014128911 2014-06-24
JP2014128911 2014-06-24
JP2014558339A JP5705391B1 (en) 2014-06-24 2014-09-30 Image processing apparatus and image processing method
PCT/JP2014/004998 WO2015198368A1 (en) 2014-06-24 2014-09-30 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP5705391B1 true JP5705391B1 (en) 2015-04-22
JPWO2015198368A1 JPWO2015198368A1 (en) 2017-04-20

Family

ID=52986016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014558339A Active JP5705391B1 (en) 2014-06-24 2014-09-30 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5705391B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10699385B2 (en) 2017-05-24 2020-06-30 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
CN111754405A (en) * 2020-06-22 2020-10-09 北京大学深圳研究生院 Image resolution reduction and restoration method, equipment and readable storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233794A (en) * 1992-02-20 1993-09-10 Hitachi Ltd Method and device for expanding multilevel natural picture digital picture
WO2011111819A1 (en) * 2010-03-12 2011-09-15 国立大学法人名古屋工業大学 Image processing device, image processing program, and method for generating images
JP2013235594A (en) * 2012-05-10 2013-11-21 Thomson Licensing Method and device for generating super-resolution version of low resolution input data structure

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233794A (en) * 1992-02-20 1993-09-10 Hitachi Ltd Method and device for expanding multilevel natural picture digital picture
WO2011111819A1 (en) * 2010-03-12 2011-09-15 国立大学法人名古屋工業大学 Image processing device, image processing program, and method for generating images
JP2013235594A (en) * 2012-05-10 2013-11-21 Thomson Licensing Method and device for generating super-resolution version of low resolution input data structure

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200401924009; 佐藤 秀則、外2名: '"学習画像を用いた中間視点画像改善手法の検討"' Visual Computing グラフィクスとCAD 合同シンポジウム2003 予稿集 , 20030619, p.49-54, 画像電子学会、社団法人情報処理学会 *
CSNJ201010045041; 吉川 明博、外3名: '"Total Variation正則化フィルタリングを用いた画像拡大高速化に関する一検討"' 電子情報通信学会2010年総合大会講演論文集 情報・システム2 , 20100302, p.41, 社団法人電子情報通信学会 *
JPN6014045357; 吉川 明博、外3名: '"Total Variation正則化フィルタリングを用いた画像拡大高速化に関する一検討"' 電子情報通信学会2010年総合大会講演論文集 情報・システム2 , 20100302, p.41, 社団法人電子情報通信学会 *
JPN6014045359; 佐藤 秀則、外2名: '"学習画像を用いた中間視点画像改善手法の検討"' Visual Computing グラフィクスとCAD 合同シンポジウム2003 予稿集 , 20030619, p.49-54, 画像電子学会、社団法人情報処理学会 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10699385B2 (en) 2017-05-24 2020-06-30 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
CN111754405A (en) * 2020-06-22 2020-10-09 北京大学深圳研究生院 Image resolution reduction and restoration method, equipment and readable storage medium
CN111754405B (en) * 2020-06-22 2023-08-08 北京大学深圳研究生院 Image resolution reduction and restoration method, device and readable storage medium

Also Published As

Publication number Publication date
JPWO2015198368A1 (en) 2017-04-20

Similar Documents

Publication Publication Date Title
US9076234B2 (en) Super-resolution method and apparatus for video image
JP5645052B2 (en) Image processing device
JP5645051B2 (en) Image processing device
US8712182B2 (en) Image processing device, image processing method, and program
WO2015083396A1 (en) Image processing device and image processing method
WO2015198368A1 (en) Image processing device and image processing method
US9355434B2 (en) Method and device for reconstructing super-resolution images
JP2007000205A (en) Image processing apparatus, image processing method, and image processing program
US11145032B2 (en) Image processing apparatus, method and storage medium for reducing color noise and false color
CN106447607A (en) Image stitching method and apparatus
CN108961260B (en) Image binarization method and device and computer storage medium
US8948502B2 (en) Image processing method, and image processor
Jeong et al. Multi-frame example-based super-resolution using locally directional self-similarity
US20220261955A1 (en) Image processing apparatus, image capturing apparatus, image processing method, and medium
JP5705391B1 (en) Image processing apparatus and image processing method
RU2583725C1 (en) Method and system for image processing
JP2016164709A (en) Image processing device, imaging apparatus, and image processing program
JP5928465B2 (en) Degradation restoration system, degradation restoration method and program
KR102470242B1 (en) Image processing device, image processing method and program
US9008463B2 (en) Image expansion apparatus for performing interpolation processing on input image data, and image expansion method thereof
JP4453202B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP5701467B1 (en) Image processing apparatus and image processing method
JP7005168B2 (en) Image processing equipment, image processing methods and programs
JP5400655B2 (en) Image processing apparatus, image processing method, image processing program, and electronic apparatus
JP6440305B2 (en) Super-resolution apparatus and program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150123

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150224

R150 Certificate of patent or registration of utility model

Ref document number: 5705391

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250