JP2011049696A - Image processing device, and image processing method - Google Patents

Image processing device, and image processing method Download PDF

Info

Publication number
JP2011049696A
JP2011049696A JP2009194728A JP2009194728A JP2011049696A JP 2011049696 A JP2011049696 A JP 2011049696A JP 2009194728 A JP2009194728 A JP 2009194728A JP 2009194728 A JP2009194728 A JP 2009194728A JP 2011049696 A JP2011049696 A JP 2011049696A
Authority
JP
Japan
Prior art keywords
image
edge
enlargement
enlarged
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009194728A
Other languages
Japanese (ja)
Inventor
Kei Tamagawa
慶 玉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009194728A priority Critical patent/JP2011049696A/en
Publication of JP2011049696A publication Critical patent/JP2011049696A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent blur of an edge and achieve smooth gradation. <P>SOLUTION: A device is provided with: a resolution means which decomposes an original image into an edge preserving low frequency image which consists of smoothing components which preserve the edge, and a difference image between the original image and the edge preserving low frequency image; a first image enlargement means which applies a first image enlargement technique to the edge preserving low frequency image obtained by the resolution means, and creates a first enlarged image; a second image enlargement means which applies a second image enlargement technique to the difference image obtained by the resolution means, and creates a second enlarged image; and an image composition means which composes the first enlarged image and the second enlarged image. It is possible to prevent blur of the edge part and obtain also smooth gradation by applying the image enlargement technique which preserves the edge to the first image enlargement means, and applying the smoothing enlargement technique to the second image enlargement means. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は画像処理装置及び画像処理方法に関し、特に、画像を拡大するために用いて好適な技術に関する。   The present invention relates to an image processing apparatus and an image processing method, and more particularly to a technique suitable for use in enlarging an image.

所定の解像度の画像を、それより解像度の大きいデバイスで再現する際には、画像の拡大処理が必要となってくる。例えば、デジタルカメラで取得した画像をディスプレイで表示する場合や、プリンタで印刷する場合には、元画像と再現先のデバイスの解像度が、多くの場合一致しないため、画像を拡大しなければならない。   When an image having a predetermined resolution is reproduced on a device having a higher resolution, an image enlargement process is required. For example, when an image acquired by a digital camera is displayed on a display or printed by a printer, the resolution of the original image and the reproduction destination device often do not match, so the image must be enlarged.

画像を拡大する技術としては、例えば、ニアレストネイバー法やバイリニア法等が用いられている。また、特許文献1に開示されるように、画像を空間周波数領域に変換し、該領域で不足画素を補い、再び実空間領域に変換することで、画像を拡大する方法が知られている。また、特許文献2にて公開された技術では、元画像と、元画像の高周波成分を抽出した画像の2つの画像に画素補間の画像拡大を施した後に両画像を加算する。   As a technique for enlarging an image, for example, a nearest neighbor method or a bilinear method is used. Also, as disclosed in Patent Document 1, there is known a method of enlarging an image by converting the image to a spatial frequency domain, compensating for insufficient pixels in the area, and converting the image to a real space area again. In the technique disclosed in Patent Document 2, pixel interpolation is performed on two images, an original image and an image obtained by extracting high-frequency components of the original image, and then both images are added.

特許第2522357号公報Japanese Patent No. 2522357 特開2003-37733号公報JP 2003-37733 A

しかしながら、前述した拡大方法には次のような課題がそれぞれある。すなわち、図9(a)に示すニアレストネイバー法では、拡大部分の画素を隣接画素からコピーして作成する。このため、エッジ部分はくっきりと拡大することができるが、元画像の滑らかなグラデーション部分は拡大されることによって、図9(a)において符号91で示すように、バンディングのような筋が発生することがある。これに対して、バイリニア法では、拡大部分の画素を隣接する4画素の平均によって算出する。このため、グラデーションは滑らかに拡大できるものの、エッジ部分は線形補間されてしまうので、図9(b)において符号92で示すように、元画像の急峻な立ち上がりがなまってしまう。   However, the enlargement method described above has the following problems. That is, in the nearest neighbor method shown in FIG. 9A, the enlarged pixel is copied from the adjacent pixel. For this reason, the edge portion can be clearly enlarged, but the smooth gradation portion of the original image is enlarged, and as shown by reference numeral 91 in FIG. Sometimes. On the other hand, in the bilinear method, the pixels in the enlarged portion are calculated by averaging four adjacent pixels. For this reason, although the gradation can be smoothly enlarged, the edge portion is linearly interpolated, so that the steep rise of the original image is lost as indicated by reference numeral 92 in FIG. 9B.

また、特許文献1では、元画像を空間周波数領域に変換し、該領域でサイズを拡大して、拡大した領域、つまり、高周波数領域を0で埋めて実空間領域に逆変換することで、画像拡大を行うようにしている。この方法では、サイズ拡大により値がわからない高周波数領域を0で埋めるため、エッジ情報が欠落してしまい、実空間領域に逆変換するとエッジ部分がぼけてしまう問題点があった。
特許文献2では、元画像を画素補間によって拡大するため、エッジ部分における輝度の急峻な立ち上がりを保存することができない。このため、拡大画像において、エッジ部分がぼけてしまう問題点があった。
本発明は問題点に鑑み、画像の拡大処理において、エッジがぼけないようにし、且つ、滑らかなグラデーションを再現できるようにすることを目的とするものである。
In Patent Document 1, the original image is converted into a spatial frequency domain, the size is enlarged in the area, the enlarged area, that is, the high frequency area is filled with 0, and is inversely transformed into the real space area, The image is enlarged. In this method, since the high frequency region whose value is not known due to the size expansion is filled with 0, edge information is lost, and there is a problem that the edge portion is blurred when inversely transformed into the real space region.
In Patent Document 2, since the original image is enlarged by pixel interpolation, a sharp rise in luminance at the edge portion cannot be stored. For this reason, there is a problem that the edge portion is blurred in the enlarged image.
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is an object of the present invention to prevent edges from being blurred and to reproduce a smooth gradation in image enlargement processing.

本発明の画像処理装置は、画像を拡大する画像処理装置において、元画像を、エッジを保存した平滑化成分で構成されるエッジ保存低周波画像と、元画像とエッジ保存低周波画像との差分画像に分解する分解手段と、前記分解手段で得られたエッジ保存低周波画像に第1の画像拡大手法を適用して第1の拡大画像を生成する第1画像拡大手段と、前記分解手段で得られた差分画像に第2の画像拡大手法を適用して第2の拡大画像を生成する第2画像拡大手段と、前記第1の拡大画像と前記第2の拡大画像とを合成する画像合成手段とを有することを特徴とする。   The image processing apparatus according to the present invention is an image processing apparatus for enlarging an image, wherein an original image is an edge-preserving low-frequency image composed of a smoothed component storing edges, and a difference between the original image and the edge-preserving low-frequency image Decomposition means for decomposing into images, first image enlargement means for generating a first enlarged image by applying a first image enlargement method to the edge-preserving low-frequency image obtained by the decomposition means, and the decomposition means A second image enlargement unit that generates a second enlarged image by applying the second image enlargement method to the obtained difference image, and an image composition that combines the first enlarged image and the second enlarged image. Means.

本発明によれば、画像の拡大処理において、エッジのぼけを抑制し、且つ、滑らかなグラデーションを再現するこがきる。   According to the present invention, edge blurring can be suppressed and a smooth gradation can be reproduced in an image enlargement process.

第1の実施形態に係る画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment. 画像処理装置における処理の流れを示す図である。It is a figure which shows the flow of a process in an image processing apparatus. R、G、Bカラー画像のデータ構成を示す図である。It is a figure which shows the data structure of a R, G, B color image. サンプル画像に適用した際の処理結果を示す図である。It is a figure which shows the processing result at the time of applying to a sample image. 第2の実施形態に係るUI、及び処理の流れを説明する図である。It is a figure explaining UI which concerns on 2nd Embodiment, and the flow of a process. 第3の実施形態に係るUI、及び処理の流れを説明する図である。It is a figure explaining UI which concerns on 3rd Embodiment, and the flow of a process. 第1の背景技術を説明する図である。It is a figure explaining the 1st background art. 第2の背景技術を説明する図である。It is a figure explaining the 2nd background art. ニアレストネイバー法及びバイリニア法による処理結果を示す図である。It is a figure which shows the processing result by the nearest neighbor method and the bilinear method.

最初に、本発明の背景技術を説明する。
図7は、本発明の第1の背景技術を説明する図である。図7(a)は元画像を示す図であり、図7(b)は元画像にフーリエ変換を施して得られる空間周波数情報を示す図である。図7(b)において左上が低周波成分、右下が高周波成分を示している。また、図7(b)における輝度は、強度を示す。図7(c)は、空間周波数領域で画像のサイズを拡大し、高周波領域を零で埋めたデータを示す。図7(b)と同様に、図7(c)の左上が低周波成分、右下が高周波成分を示している。図7(d)は、図7(c)のデータを実領域に逆変換した画像である。この逆変換画像では、図7(c)において高周波成分が零で近似されるため、本来のエッジ情報は保存されず、エッジがなまってしまう。
First, the background art of the present invention will be described.
FIG. 7 is a diagram for explaining the first background art of the present invention. FIG. 7A is a diagram showing an original image, and FIG. 7B is a diagram showing spatial frequency information obtained by subjecting the original image to Fourier transform. In FIG. 7B, the upper left indicates a low frequency component and the lower right indicates a high frequency component. Moreover, the brightness | luminance in FIG.7 (b) shows intensity | strength. FIG. 7C shows data in which the image size is enlarged in the spatial frequency domain and the high frequency domain is filled with zeros. Similarly to FIG. 7B, the upper left of FIG. 7C shows the low frequency component and the lower right shows the high frequency component. FIG. 7D is an image obtained by inversely converting the data in FIG. 7C into a real region. In this inversely transformed image, since the high frequency component is approximated to zero in FIG. 7C, the original edge information is not stored, and the edge is blurred.

図8は、第2の背景技術を説明する図である。図8に示すように元画像と、元画像の高周波成分を抽出した画像の2つの画像に画素補間の画像拡大を施した後に両画像を加算する。例えば、図8(a)のような輝度信号(横軸が画素位置、縦軸が輝度の強度を示す)が元画像に含まれていた場合、元信号は画素補間による画像拡大によって、図8(b)に示すように横軸方向に引き伸ばされる。   FIG. 8 is a diagram for explaining the second background art. As shown in FIG. 8, the two images are added after subjecting the original image and the image obtained by extracting the high-frequency component of the original image to image expansion by pixel interpolation. For example, when a luminance signal (a horizontal axis indicates a pixel position and a vertical axis indicates luminance intensity) as illustrated in FIG. 8A is included in the original image, the original signal is expanded by image interpolation by pixel interpolation. As shown in (b), it is stretched in the horizontal axis direction.

また、ハイパスフィルタによって、元信号から図8(c)に示すような高周波成分が抽出される。そして、前記の画素補間による画像拡大によって、抽出した高周波成分が引き伸ばされ、図8(d)に示すような高周波成分となる。その後、係数の乗算および定数の加算による補正処理が行われた後、さらに図8(e)に示すような高周波成分の推定値が算出される。この推定値と図8(b)に示す信号を足し合わせることで、図8(f)に示すような最終的な拡大後の信号が得られる。しかしながら、この方法では、元画像を画素補間によって拡大するため、図8(f)において丸で囲った部分のように、エッジ部分における輝度の急峻な立ち上がりを保存することができない。このため、拡大画像においてエッジ部分がぼけてしまう不都合があった。   Further, a high-frequency component as shown in FIG. 8C is extracted from the original signal by the high-pass filter. Then, the extracted high-frequency component is stretched by the image enlargement by the pixel interpolation, and becomes a high-frequency component as shown in FIG. Thereafter, correction processing by multiplication of coefficients and addition of constants is performed, and then an estimated value of the high frequency component as shown in FIG. 8E is calculated. By adding the estimated value and the signal shown in FIG. 8B, a final enlarged signal as shown in FIG. 8F is obtained. However, in this method, since the original image is enlarged by pixel interpolation, a sharp rise in luminance at the edge portion cannot be preserved as in the portion surrounded by a circle in FIG. For this reason, there is a disadvantage that the edge portion is blurred in the enlarged image.

(第1の実施形態)
次に、背景技術で説明した不都合を解消することが可能な本発明の第1の実施形態を説明する。
図1は、本発明の第1の実施形態の画像処理装置を実現するハードウエア構成を示すブロック図である。図1において、1は画像処理装置である。また、101は、元画像11に、エッジを保存した平滑化フィルタを施して、エッジを保存した平滑化成分で構成されるエッジ保存低周波画像12を生成するエッジ保存平滑化部である。102は、元画像11からエッジ保存低周波画像12を減算して差分画像13を生成する差分画像生成部である。
(First embodiment)
Next, a first embodiment of the present invention that can eliminate the disadvantages described in the background art will be described.
FIG. 1 is a block diagram showing a hardware configuration for realizing the image processing apparatus according to the first embodiment of the present invention. In FIG. 1, reference numeral 1 denotes an image processing apparatus. Reference numeral 101 denotes an edge-preserving smoothing unit that applies a smoothing filter that preserves edges to the original image 11 to generate an edge-preserving low-frequency image 12 composed of smoothing components that preserve edges. Reference numeral 102 denotes a difference image generation unit that generates a difference image 13 by subtracting the edge-preserving low-frequency image 12 from the original image 11.

103は、エッジ保存平滑化部101で生成したエッジ保存低周波画像12に対して第1の画像拡大手法を適用し、第1の拡大画像14を生成する第1画像拡大部である。第1画像拡大部103において行う、エッジを保存する画像拡大手法は、バイラテラルフィルタ、トリラテラルフィルタ、スーザンフィルタを用いて実現することができる。   Reference numeral 103 denotes a first image enlarging unit that applies the first image enlarging method to the edge-preserving low-frequency image 12 generated by the edge preserving / smoothing unit 101 and generates a first enlarged image 14. The image enlarging method for preserving edges performed in the first image enlarging unit 103 can be realized using a bilateral filter, a trilateral filter, or a Susan filter.

104は、差分画像生成部102で生成した差分画像13に対して第2の画像拡大手法を適用し、第2の拡大画像15を生成する第2画像拡大部である。本実施形態においては、第2の画像拡大手法として、拡大部分の画素を隣接する画素の平均値により算出するバイリニア法を用いる。なお、第2の画像拡大手法としては、隣接する画素から補間して求める方法であれば、トリリニア法などの他の方法を用いても構わない。   A second image enlargement unit 104 generates the second enlarged image 15 by applying the second image enlargement method to the difference image 13 generated by the difference image generation unit 102. In the present embodiment, as the second image enlargement method, a bilinear method is used in which the pixels in the enlarged portion are calculated based on the average value of adjacent pixels. In addition, as a 2nd image expansion method, as long as it is the method of calculating | requiring by interpolating from an adjacent pixel, you may use other methods, such as a trilinear method.

105は、第1画像拡大部103で生成した第1の拡大画像14と、第2画像拡大部104で生成した第2の拡大画像15とを加算し、最終的な拡大画像16を生成する画像合成部である。106は、演算に必要なデータを保持するデータ保持部、107は、演算途中の各データを一時的に保持するためのバッファメモリである。また、108は画像処理装置1の全体動作を制御する制御部である。   An image 105 generates the final enlarged image 16 by adding the first enlarged image 14 generated by the first image enlargement unit 103 and the second enlarged image 15 generated by the second image enlargement unit 104. It is a synthesis unit. Reference numeral 106 denotes a data holding unit for holding data necessary for calculation, and 107 denotes a buffer memory for temporarily holding data being calculated. Reference numeral 108 denotes a control unit that controls the overall operation of the image processing apparatus 1.

<画像処理装置1における動作>
次に、画像処理装置1における動作について、図2を用いて説明する。
図2は、本発明の第1の実施形態の画像処理装置1における動作を説明するフローチャートである。以下の説明では、説明を簡略にするため、元画像11を1チャンネル8ビットのグレイスケール画像として説明する。図3に、横Nx画素、縦Ny画素のグレイスケール画像のデータ形式を示す。図3において、各升目は1画素を表し、1画素につき8ビットを割り当てるものとする。なお、本手法が、1チャンネル8ビット画像以外の画像、例えば、1チャンネル16ビット画像や3チャンネル24ビット画像、或いは4チャンネル32ビット画像にも適用することができる。
<Operation in Image Processing Apparatus 1>
Next, the operation of the image processing apparatus 1 will be described with reference to FIG.
FIG. 2 is a flowchart for explaining the operation of the image processing apparatus 1 according to the first embodiment of the present invention. In the following description, in order to simplify the description, the original image 11 will be described as a 1-channel 8-bit grayscale image. FIG. 3 shows a data format of a gray scale image of horizontal Nx pixels and vertical Ny pixels. In FIG. 3, each cell represents one pixel, and 8 bits are assigned to each pixel. Note that this method can also be applied to images other than 1-channel 8-bit images, such as 1-channel 16-bit images, 3-channel 24-bit images, or 4-channel 32-bit images.

S1において、エッジ保存平滑化部101は、元画像11に、エッジ保存の平滑化フィルタ処理を施し、エッジ保存低周波画像12を生成する。なお、本実施形態においては、エッジ保存の平滑化フィルタにバイラテラルフィルタを用いる。バイラテラルフィルタは、画素位置と画素間輝度差に応じて重みが変化するガウス型のフィルタである。式(1)〜(4)にバイラテラルフィルタの式を示す。   In S <b> 1, the edge preserving smoothing unit 101 performs edge preserving smoothing filter processing on the original image 11 to generate an edge preserving low-frequency image 12. In this embodiment, a bilateral filter is used as the edge preserving smoothing filter. The bilateral filter is a Gaussian filter whose weight changes according to the pixel position and the luminance difference between pixels. Expressions of the bilateral filter are shown in Expressions (1) to (4).

Figure 2011049696
Figure 2011049696

ここで、xjは画素jの位置、djは画素jにおける輝度をそれぞれ表す。
次に、S2において、差分画像生成部102は、元画像11からエッジ保存低周波画像12を減算することで、差分画像13を生成する。元画像11の位置i,jにおける輝度をd(i,j)、エッジ保存低周波画像12の位置i,jにおける輝度をe(i,j)とすると、差分画像13の位置i,jにおける輝度f(i,j)は式(5)で表される。
Here, x j represents the position of the pixel j, and d j represents the luminance at the pixel j.
Next, in S <b> 2, the difference image generation unit 102 generates a difference image 13 by subtracting the edge-preserving low-frequency image 12 from the original image 11. If the luminance at the position i, j of the original image 11 is d (i, j) and the luminance at the position i, j of the edge-preserving low-frequency image 12 is e (i, j), the luminance at the position i, j of the difference image 13 is The luminance f (i, j) is expressed by equation (5).

Figure 2011049696
Figure 2011049696

次に、S3において、第1画像拡大部103は、S1で生成したエッジ保存低周波画像12に対して第1の画像拡大手法を用いて第1の拡大画像14を生成する。本実施形態においては、第1の画像拡大手法にニアレストネイバー法を用いる。ニアレストネイバー法の処理としては、例えば、拡大率が2倍の場合には、処理前画像の位置i,jにおける輝度をP(i,j)、処理後画像の位置i,jにおける輝度Q(i,j)は、式(6)で表される。   Next, in S3, the first image enlargement unit 103 generates the first enlarged image 14 by using the first image enlargement method for the edge-preserving low-frequency image 12 generated in S1. In the present embodiment, the nearest neighbor method is used as the first image enlargement method. As the processing of the nearest neighbor method, for example, when the enlargement ratio is double, the luminance at the position i, j of the image before processing is P (i, j), and the luminance Q at the position i, j of the image after processing is (i, j) is expressed by equation (6).

Figure 2011049696
Figure 2011049696

ここで、int(・)は、小数部分を切り捨てる演算である。
次に、S4において、第2画像拡大部104は、S2で生成した差分画像13に対して第2の画像拡大手法を用いて第2の拡大画像15を生成する。本実施形態においては、第2の画像拡大手法にバイリニア法を用いる。
次に、S5において、画像合成部105は、S3、及びS4で生成した2つの拡大画像を加算して最終的な拡大画像16を生成する。
Here, int (•) is an operation for truncating the decimal part.
Next, in S <b> 4, the second image enlargement unit 104 generates a second enlarged image 15 using the second image enlargement method for the difference image 13 generated in S <b> 2. In the present embodiment, the bilinear method is used as the second image enlargement method.
Next, in S5, the image composition unit 105 adds the two enlarged images generated in S3 and S4 to generate a final enlarged image 16.

本手法をサンプル画像に適用した際の変換の様子を図4に示す。
図4(a)は、元画像11であり、その輝度の分布は、左辺から右側へ行くに従い徐々に低下し、画像中心でステップ状に立ち上がり再び右へ行くに従って低下する。
FIG. 4 shows the state of conversion when this method is applied to a sample image.
FIG. 4A shows the original image 11, and its luminance distribution gradually decreases as it goes from the left side to the right side, rises stepwise at the center of the image, and decreases as it goes right again.

また、図4(b)は、S1において、元画像11にバイラテラルフィルタ処理を施すことで生成されるエッジ保存低周波画像12である。図4(c)は、S2において、元画像11からエッジ保存低周波画像12を減算することで生成される差分画像13である。図4(d)は、S3において、エッジ保存低周波画像12にニアレストネイバー法による処理を施すことで生成される第1の拡大画像14である。図4(e)は、S4において、差分画像13にバイリニア法による処理を施すことで生成される第2の拡大画像15である。図4(f)は、S5において、第1の拡大画像14と第2の拡大画像15とを加算することで生成される合成画像、つまり、最終的な拡大画像16である。   FIG. 4B is an edge-preserving low-frequency image 12 generated by performing bilateral filter processing on the original image 11 in S1. FIG. 4C is a difference image 13 generated by subtracting the edge-preserving low-frequency image 12 from the original image 11 in S2. FIG. 4D is a first enlarged image 14 generated by performing processing by the nearest neighbor method on the edge-preserving low-frequency image 12 in S3. FIG. 4E shows a second enlarged image 15 that is generated by performing processing by the bilinear method on the difference image 13 in S4. FIG. 4F is a composite image generated by adding the first enlarged image 14 and the second enlarged image 15 in S5, that is, the final enlarged image 16.

以上、説明した技術によれば、元画像11から拡大画像15を生成する際に、元画像11を、エッジ保存低周波画像12と差分画像13とに分解し、それぞれの画像に対して、適切な画像拡大手法による処理を施す。その後で両画像を合成することで、エッジがぼけず、且つ、滑らかなグラデーションを実現する拡大画像16を生成することができる。   As described above, according to the technology described above, when the enlarged image 15 is generated from the original image 11, the original image 11 is decomposed into the edge-preserving low-frequency image 12 and the difference image 13, and appropriate for each image. Processing by a simple image enlargement method. Thereafter, by combining the two images, it is possible to generate an enlarged image 16 that does not blur the edge and realizes a smooth gradation.

(第2の実施形態)
以下、本発明の第2の実施形態の画像処理装置について図面を用いて詳細に説明する。なお、第2の実施形態の画像処理装置を実現するハードウエア構成は、前述した第1の実施形態の画像処理装置1と同様であるので、装置構成を説明するブロック図、及び構成の説明を省略する。
図5(a)において、201はユーザに、画像拡大に関するパラメータを選択させるためのユーザインターフェース(以下、UIと略す)である。202は、予め準備したいくつかのエッジ保存平滑化フィルタから、ユーザに所望のフィルタを選択させるメニューである。203は、202で選択したフィルタの形状を制御する第1パラメータである。パラメータの種類としては、例えば、フィルタにバイラテラルフィルタが選択された場合には、距離方向の平滑化度合いを制御するパラメータを入力させる。
(Second Embodiment)
Hereinafter, an image processing apparatus according to a second embodiment of the present invention will be described in detail with reference to the drawings. The hardware configuration for realizing the image processing apparatus according to the second embodiment is the same as that of the image processing apparatus 1 according to the first embodiment described above. Omitted.
In FIG. 5A, reference numeral 201 denotes a user interface (hereinafter abbreviated as UI) for allowing the user to select parameters relating to image enlargement. A menu 202 allows the user to select a desired filter from several edge-preserving smoothing filters prepared in advance. Reference numeral 203 denotes a first parameter that controls the shape of the filter selected in 202. As a parameter type, for example, when a bilateral filter is selected as a filter, a parameter for controlling the degree of smoothing in the distance direction is input.

204は、202で選択したフィルタの形状を制御する第2パラメータである。パラメータの種類としては、例えば、フィルタにバイラテラルフィルタが選択された場合には、エッジとして認識する輝度差(R、G、Bであればレベル差)を制御するパラメータを入力させる。   Reference numeral 204 denotes a second parameter that controls the shape of the filter selected in 202. As a parameter type, for example, when a bilateral filter is selected as a filter, a parameter for controlling a luminance difference recognized as an edge (level difference for R, G, and B) is input.

205は、予め準備したいくつかの、エッジ保存の画像拡大手法から、ユーザに所望の画像拡大手法を選択させるメニューである。206は、予め準備したいくつかの、平滑化画像拡大手法から、ユーザに所望の画像拡大手法を選択させるメニューである。207は、202から206までの各項目が設定された後、その設定を画像拡大処理の際に適用するためのOKボタンである。このOKボタン207をユーザがクリックすることで、画像拡大処理が開始する。208は、設定項目をキャンセルするためのボタンである。   Reference numeral 205 denotes a menu that allows the user to select a desired image enlargement method from several edge-preserved image enlargement methods. Reference numeral 206 denotes a menu that allows the user to select a desired image enlargement method from several smoothed image enlargement methods prepared in advance. Reference numeral 207 denotes an OK button for applying the settings at the time of image enlargement processing after each item from 202 to 206 is set. When the user clicks this OK button 207, the image enlargement process starts. Reference numeral 208 denotes a button for canceling the setting item.

次に、本実施形態の画像処理装置における動作について、図5(b)を用いて説明する。
図5(b)は、第2の実施形態の画像処理装置における動作を示すフローチャートである。
S21において、UI201からエッジ保存平滑化フィルタ、第1パラメータ、第2パラメータ、第1の拡大手法、第2の拡大手法に関する情報を取得する、パラメータ取得処理が行われる。このパラメータ取得処理は、図1の画像処理装置1で説明した制御部108により行われる。エッジ保存平滑化フィルタに関する情報としては、例えば、何種類かの処理手順を関数として予め用意しておき、その中からどの関数を選択したかという情報を示す。
Next, the operation of the image processing apparatus according to the present embodiment will be described with reference to FIG.
FIG. 5B is a flowchart illustrating the operation of the image processing apparatus according to the second embodiment.
In S <b> 21, parameter acquisition processing is performed for acquiring information related to the edge preserving smoothing filter, the first parameter, the second parameter, the first expansion method, and the second expansion method from the UI 201. This parameter acquisition process is performed by the control unit 108 described in the image processing apparatus 1 of FIG. As the information related to the edge-preserving smoothing filter, for example, several types of processing procedures are prepared in advance as functions, and information indicating which function is selected from them is shown.

つまり、いくつかの処理手順を関数でプログラミングしておき、ユーザが選択した関数への(メモリ上の)アドレス情報を示す。また、第1パラメータ203及び第2パラメータ204の内容としては、選択されたエッジ保存平滑化フィルタの特性を制御する1つ、ないし2つのパラメータの値を示す。なお、エッジ保存平滑化フィルタのパラメータが存在しないか、もしくは、1つしか存在しない場合には、ユーザの入力は受け付けないものとする。   That is, some processing procedures are programmed with functions, and address information (on the memory) for the function selected by the user is shown. The contents of the first parameter 203 and the second parameter 204 indicate the values of one or two parameters that control the characteristics of the selected edge-preserving smoothing filter. It should be noted that if there is no edge-preserving smoothing filter parameter or if there is only one parameter, no user input is accepted.

また、関数の特性として、3つ以上のパラメータが存在する場合には、パラメータ入力欄を追加してもよいし、3つ以上は受け付けないようにしてもよい。また、第1の画像拡大手法及び第2の画像拡大手法に関する情報は、前述のエッジ保存平滑化フィルタに関する情報と同様に、拡大手順を関数化し、そのアドレス情報を示せばよい。   Further, when there are three or more parameters as function characteristics, a parameter input field may be added, or three or more parameters may not be accepted. Further, the information relating to the first image enlargement technique and the second image enlargement technique may be obtained by converting the enlargement procedure into a function and indicating the address information thereof, similarly to the information relating to the edge preserving smoothing filter described above.

S21のパラメータ取得処理を終了したら、S1に進み、第1の実施形態において、図2で説明した処理を順次に行う。S1〜S5で行われる処理は前述したので、詳細な説明及び図示を省略する。
以上、説明した第2の実施形態によれば、ユーザがUI201で画像拡大に関するパラメータを選択、及び入力するだけの簡単な操作で、所望の拡大画像を容易に得ることができる。
When the parameter acquisition process of S21 is completed, the process proceeds to S1, and the process described with reference to FIG. 2 is sequentially performed in the first embodiment. Since the processing performed in S1 to S5 has been described above, detailed description and illustration are omitted.
As described above, according to the second embodiment described above, a user can easily obtain a desired enlarged image by a simple operation in which the user selects and inputs a parameter related to image enlargement with the UI 201.

(第3の実施形態)
以下、本発明の第3の実施形態について図面を用いて詳細に説明する。なお、第3の実施形態の画像処理装置を実現するハードウエア構成は、前述した第1の実施形態の画像処理装置1と同様であるので、装置構成を説明するブロック図、及び構成の説明を省略する。
図6(a)において、301はユーザに、画像拡大に関するパラメータを選択させ、そのパラメータで画像を変換した場合のプレビューを確認させるためのUIである。202、203、及び204は、第2の実施形態で説明したものと同じであるので、説明を省略する。
(Third embodiment)
Hereinafter, a third embodiment of the present invention will be described in detail with reference to the drawings. The hardware configuration for realizing the image processing apparatus according to the third embodiment is the same as that of the image processing apparatus 1 according to the first embodiment described above. Omitted.
In FIG. 6A, reference numeral 301 denotes a UI for allowing the user to select a parameter related to image enlargement and confirming a preview when the image is converted using the parameter. Since 202, 203, and 204 are the same as those described in the second embodiment, description thereof is omitted.

302は、元画像(元画像11)を表示するための元画像表示部である。303は、ユーザが選択した選択領域である。304は、プレビューボタンである。305は、プレビュー表示部である。ユーザは、マウスやタッチパネルなどのポインティングデバイスを用いて、元画像表示部302上で選択領域303で示すように元画像の一部を選択する。その後、プレビューボタン304を押すと、選択領域303の拡大画像をプレビュー表示部305で確認することができる。   Reference numeral 302 denotes an original image display unit for displaying the original image (original image 11). Reference numeral 303 denotes a selection area selected by the user. Reference numeral 304 denotes a preview button. Reference numeral 305 denotes a preview display unit. The user selects a part of the original image as indicated by a selection area 303 on the original image display unit 302 using a pointing device such as a mouse or a touch panel. Thereafter, when a preview button 304 is pressed, an enlarged image of the selection area 303 can be confirmed on the preview display unit 305.

306は、ユーザが選択、及び、入力した設定を画像拡大処理の際に適用するためのOKボタンである。このOKボタン306をユーザがクリックすることで、画像拡大処理が開始する。307は、設定項目をキャンセルするためのボタンである。   Reference numeral 306 denotes an OK button for applying the settings selected and input by the user during image enlargement processing. When the user clicks the OK button 306, the image enlargement process starts. Reference numeral 307 denotes a button for canceling the setting item.

次に、本実施形態の画像処理装置における動作について、図6(b)を用いて説明する。
図6(b)は、本実施形態の画像処理装置における動作を示すフローチャートである。
S31において、UI301からエッジ保存平滑化フィルタ、第1パラメータ、第2パラメータに関する情報を取得する、パラメータ取得処理が行われる。このパラメータ取得処理は、図1の画像処理装置1で説明した制御部108により行われる。
Next, the operation of the image processing apparatus according to the present embodiment will be described with reference to FIG.
FIG. 6B is a flowchart showing the operation in the image processing apparatus of the present embodiment.
In S <b> 31, a parameter acquisition process for acquiring information related to the edge preserving smoothing filter, the first parameter, and the second parameter from the UI 301 is performed. This parameter acquisition process is performed by the control unit 108 described in the image processing apparatus 1 of FIG.

エッジ保存平滑化フィルタに関する情報としては、前述した第2の実施形態で説明した通りである。ユーザによって、前記パラメータが選択、及び入力された後、プレビューボタン304が押されると、その情報を用いて、選択領域303の画像に対して、画像拡大処理が実行される。その結果、拡大画像はプレビュー表示部305に表示される。   The information regarding the edge preserving smoothing filter is as described in the second embodiment. When the preview button 304 is pressed after the parameter is selected and input by the user, an image enlargement process is performed on the image in the selection area 303 using the information. As a result, the enlarged image is displayed on the preview display unit 305.

そして、ユーザがプレビュー画像を確認し、選択、あるいは、入力した値でよいと判断しOKボタン306を押すと、元画像に対して画像拡大処理が施される。このような構成にすることによって、元画像の一部分にのみ画像拡大処理を施すことができるため、容易にパラメータを変更して、その結果を確認することができる。このため、画像に最適なパラメータを早く探し出すことができる。   When the user confirms the preview image, determines that the selected or input value is acceptable, and presses an OK button 306, image enlargement processing is performed on the original image. With such a configuration, the image enlargement process can be performed only on a part of the original image. Therefore, the parameters can be easily changed and the result can be confirmed. For this reason, it is possible to quickly find the optimum parameter for the image.

S31のパラメータ取得処理を終了したら、S1に進み、第1の実施形態において、図2で説明した処理を順次に行う。S1〜S5で行われる処理は前述したので、詳細な説明及び図示を省略する。
以上、説明した技術によれば、ユーザがUIで画像拡大に関するパラメータを選択したり、入力したりすることにより行われた設定での拡大画像のプレビューを予め確認することができる。また、ユーザが選択した領域だけに拡大処理を施すため、元画像に対して拡大処理を施すよりもプレビュー画像を高速に生成することができるので、ユーザは所望の拡大画像を容易に得ることができる。
When the parameter acquisition process of S31 ends, the process proceeds to S1, and the process described with reference to FIG. 2 is sequentially performed in the first embodiment. Since the processing performed in S1 to S5 has been described above, detailed description and illustration are omitted.
As described above, according to the technology described above, it is possible to confirm in advance a preview of an enlarged image with settings made by the user selecting or inputting a parameter related to image enlargement on the UI. In addition, since the enlargement process is performed only on the area selected by the user, a preview image can be generated at a higher speed than when the enlargement process is performed on the original image. Therefore, the user can easily obtain a desired enlarged image. it can.

(その他の実施形態)
また、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムによっても達成される。具体的には、図1の各構成、図2の各ステップ、図5および図6の各ステップに対応したコンピュータプログラムを、そのシステム或いは装置のコンピュータが読み出して実行することによっても達成される場合も本発明に含まれる。
(Other embodiments)
The present invention is also achieved by a software program that implements the functions of the above-described embodiments. Specifically, when the computer of the system or apparatus reads and executes the computer program corresponding to each configuration in FIG. 1, each step in FIG. 2, each step in FIG. 5 and FIG. Are also included in the present invention.

Claims (11)

画像を拡大する画像処理装置において、
元画像を、エッジを保存した平滑化成分で構成されるエッジ保存低周波画像と、元画像とエッジ保存低周波画像との差分画像に分解する分解手段と、
前記分解手段で得られたエッジ保存低周波画像に第1の画像拡大手法を適用して第1の拡大画像を生成する第1画像拡大手段と、
前記分解手段で得られた差分画像に第2の画像拡大手法を適用して第2の拡大画像を生成する第2画像拡大手段と、
前記第1の拡大画像と前記第2の拡大画像とを合成する画像合成手段と、
を有することを特徴とする画像処理装置。
In an image processing apparatus for enlarging an image,
Decomposing means for decomposing the original image into an edge-preserving low-frequency image composed of a smoothing component that preserves edges, and a difference image between the original image and the edge-preserving low-frequency image;
First image enlarging means for applying the first image enlarging method to the edge-preserving low-frequency image obtained by the decomposing means to generate a first enlarged image;
A second image enlarging unit that applies a second image enlarging method to the difference image obtained by the decomposing unit to generate a second enlarged image;
Image synthesizing means for synthesizing the first enlarged image and the second enlarged image;
An image processing apparatus comprising:
前記分解手段は、元画像にエッジを保存する平滑化フィルタを施すエッジ保存平滑化部と、元画像から前記エッジ保存低周波画像を減算する差分画像生成部とからなることを特徴とする請求項1に記載の画像処理装置。   The decomposition means includes an edge preserving smoothing unit that applies a smoothing filter that preserves edges in the original image, and a difference image generating unit that subtracts the edge preserving low frequency image from the original image. The image processing apparatus according to 1. 前記第1画像拡大手段は、エッジを保存する画像拡大手法を適用することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the first image enlarging unit applies an image enlarging method that preserves edges. 前記第2画像拡大手段は、バイリニア法を適用することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the second image enlargement unit applies a bilinear method. 前記エッジを保存する画像拡大手法とは、バイラテラルフィルタ、トリラテラルフィルタ、スーザンフィルタのいずれかであることを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the image enlarging method for storing the edge is any one of a bilateral filter, a trilateral filter, and a Susan filter. 画像を拡大する画像処理方法において、
元画像を、エッジを保存した平滑化成分で構成されるエッジ保存低周波画像と、元画像とエッジ保存低周波画像との差分画像に分解する分解工程と、
前記分解工程において得られたエッジ保存低周波画像に第1の画像拡大手法を適用して第1の拡大画像を生成する第1画像拡大工程と、
前記分解工程において得られた差分画像に第2の画像拡大手法を適用して第2の拡大画像を生成する第2画像拡大工程と、
前記第1の拡大画像と前記第2の拡大画像とを合成する画像合成工程と、
を有することを特徴とする画像処理方法。
In an image processing method for enlarging an image,
A decomposing step of decomposing the original image into an edge-preserving low-frequency image composed of smoothing components that preserve edges, and a difference image between the original image and the edge-preserving low-frequency image;
A first image enlargement step of generating a first enlarged image by applying a first image enlargement method to the edge-preserving low-frequency image obtained in the decomposition step;
A second image enlargement step of generating a second enlarged image by applying a second image enlargement method to the difference image obtained in the decomposition step;
An image synthesis step of synthesizing the first enlarged image and the second enlarged image;
An image processing method comprising:
前記分解工程は、元画像にエッジを保存する平滑化フィルタを施すエッジ保存平滑化工程と、元画像から前記エッジ保存低周波画像を減算する差分画像生成工程とからなることを特徴とする請求項6に記載の画像処理方法。   The decomposing step comprises an edge preserving smoothing step for applying a smoothing filter for preserving edges to the original image, and a difference image generating step for subtracting the edge preserving low frequency image from the original image. 6. The image processing method according to 6. 前記第1画像拡大工程は、エッジを保存する画像拡大手法を適用することを特徴とする請求項6に記載の画像処理方法。   The image processing method according to claim 6, wherein the first image enlargement step applies an image enlargement method that preserves edges. 前記第2画像拡大工程は、バイリニア法を適用することを特徴とする請求項6に記載の画像処理方法。   The image processing method according to claim 6, wherein a bilinear method is applied in the second image enlargement step. 前記エッジを保存する画像拡大手法とは、バイラテラルフィルタ、トリラテラルフィルタ、スーザンフィルタの何れかであることを特徴とする請求項8に記載の画像処理方法。   The image processing method according to claim 8, wherein the image enlargement method for storing the edge is any one of a bilateral filter, a trilateral filter, and a Susan filter. 画像を拡大する画像処理方法をコンピュータに実行させるコンピュータプログラムにおいて、
元画像を、エッジを保存した平滑化成分で構成されるエッジ保存低周波画像と、元画像とエッジ保存低周波画像との差分画像に分解する分解工程と、
前記分解工程において得られたエッジ保存低周波画像に第1の画像拡大手法を適用して第1の拡大画像を生成する第1画像拡大工程と、
前記分解工程において得られた差分画像に第2の画像拡大手法を適用して第2の拡大画像を生成する第2画像拡大工程と、
前記第1の拡大画像と前記第2の拡大画像とを合成する画像合成工程と、
をコンピュータに実行させることを特徴とするコンピュータプログラム。
In a computer program for causing a computer to execute an image processing method for enlarging an image,
A decomposing step of decomposing the original image into an edge-preserving low-frequency image composed of smoothing components that preserve edges, and a difference image between the original image and the edge-preserving low-frequency image;
A first image enlargement step of generating a first enlarged image by applying a first image enlargement method to the edge-preserving low-frequency image obtained in the decomposition step;
A second image enlargement step of generating a second enlarged image by applying a second image enlargement method to the difference image obtained in the decomposition step;
An image synthesis step of synthesizing the first enlarged image and the second enlarged image;
A computer program for causing a computer to execute.
JP2009194728A 2009-08-25 2009-08-25 Image processing device, and image processing method Pending JP2011049696A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009194728A JP2011049696A (en) 2009-08-25 2009-08-25 Image processing device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009194728A JP2011049696A (en) 2009-08-25 2009-08-25 Image processing device, and image processing method

Publications (1)

Publication Number Publication Date
JP2011049696A true JP2011049696A (en) 2011-03-10

Family

ID=43835615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009194728A Pending JP2011049696A (en) 2009-08-25 2009-08-25 Image processing device, and image processing method

Country Status (1)

Country Link
JP (1) JP2011049696A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9129357B2 (en) 2011-12-28 2015-09-08 Nk Works Co., Ltd. Image processing apparatus, method of image processing, and recording medium storing image processing program
US9390479B2 (en) 2013-11-20 2016-07-12 Ricoh Company, Ltd. Image processing device and image processing method
WO2022190249A1 (en) * 2021-03-10 2022-09-15 日本電信電話株式会社 Signal processing device, signal processing method, and signal processing program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9129357B2 (en) 2011-12-28 2015-09-08 Nk Works Co., Ltd. Image processing apparatus, method of image processing, and recording medium storing image processing program
US9390479B2 (en) 2013-11-20 2016-07-12 Ricoh Company, Ltd. Image processing device and image processing method
WO2022190249A1 (en) * 2021-03-10 2022-09-15 日本電信電話株式会社 Signal processing device, signal processing method, and signal processing program

Similar Documents

Publication Publication Date Title
JP4534594B2 (en) Image processing apparatus, image processing method, program for image processing method, and recording medium recording program for image processing method
JP4517872B2 (en) Image processing apparatus, image processing method, program for image processing method, and recording medium recording program for image processing method
JP4556276B2 (en) Image processing circuit and image processing method
JP4319620B2 (en) Local color correction
JP4523926B2 (en) Image processing apparatus, image processing program, and image processing method
JP5669513B2 (en) Image processing apparatus, image processing program, and image processing method
JP2003283811A (en) Image processing apparatus and program
JP2008060760A (en) Image processing program and image processing apparatus
JP2010055410A (en) Image processing device, image processing method, and image processing program
JP2007180851A (en) Gray scale transformation device, program and method for raw image, and electronic camera
JP3738791B2 (en) Image processing method and apparatus
US20090180707A1 (en) Image processing apparatus and image processing method
JP2011049696A (en) Image processing device, and image processing method
JP4851196B2 (en) Image processing method and apparatus, and image processing program
JP2008211840A (en) Image processing apparatus
JPH1063838A (en) Method for processing picture and device therefor
JP2004172726A (en) Image processing apparatus and method
WO2011087083A1 (en) Data processing method, data processing device and data processing program
JP2007151094A (en) Tone-conversion device for image, program, electronic camera, and tone-conversion method
JP5247633B2 (en) Image processing apparatus and method, and image display apparatus and method
JP4632100B2 (en) Image processing apparatus, image processing method, recording medium, and program
JP4892010B2 (en) Image generation program, image generation apparatus, and image generation method
JP2011024051A (en) Image processing apparatus and method
JP3964238B2 (en) Image processing method, apparatus, and program
JP2003132344A (en) Image processing method, image processor, program, recording medium, and image formation device