JP4716255B2 - Image processing apparatus, image processing method, and program thereof - Google Patents

Image processing apparatus, image processing method, and program thereof Download PDF

Info

Publication number
JP4716255B2
JP4716255B2 JP2005169011A JP2005169011A JP4716255B2 JP 4716255 B2 JP4716255 B2 JP 4716255B2 JP 2005169011 A JP2005169011 A JP 2005169011A JP 2005169011 A JP2005169011 A JP 2005169011A JP 4716255 B2 JP4716255 B2 JP 4716255B2
Authority
JP
Japan
Prior art keywords
image
edge
region
enlarged image
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005169011A
Other languages
Japanese (ja)
Other versions
JP2006344002A (en
Inventor
聡 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2005169011A priority Critical patent/JP4716255B2/en
Publication of JP2006344002A publication Critical patent/JP2006344002A/en
Application granted granted Critical
Publication of JP4716255B2 publication Critical patent/JP4716255B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、画像を拡大する画像処理装置に関する。   The present invention relates to an image processing apparatus that enlarges an image.

画像の拡大処理は、画像の編集やファイリング、表示、印刷などを行うシステムにとって、基本的な処理の一つである。また近年、インターネットのホームページ上の画像やデジタルビデオなどのディスプレイ解像度での表示を主目的とした画像データなどの普及により、これらの低解像度画像を高解像度のプリンタなどで印刷することも頻繁に行われている。このプリンタによる印刷の際に、高画質の出力結果を得ることが望まれており、高画質の拡大処理に対する重要度が高まっている。   The image enlargement process is one of the basic processes for a system that performs image editing, filing, display, printing, and the like. In recent years, with the widespread use of image data mainly for display at display resolutions such as images on the Internet homepage and digital video, these low-resolution images are frequently printed by high-resolution printers. It has been broken. At the time of printing with this printer, it is desired to obtain a high-quality output result, and the importance of the high-quality enlargement process is increasing.

カラーを含む多階調で表現された画像(以下では、これを多値画像と称する)を拡大処理する既存の代表的な手法としては、最近傍法や線形補間法、キュービック・コンボリューション法などがある。最近傍法は、拡大後の各画素値として、その画素を原画像上に逆写像した際に最も距離が近い画素の画素値を使う方法である。この方法は、演算量が少ないため、高速に処理することができる。しかし、原画像の1画素がそのまま矩形形状に拡大されるため、隣り合う画素の画素値の差が小さい場合は、画質劣化の程度は小さくほとんど影響はないが、逆に大きい場合などは、斜線部やエッジ部のジャギーが目立ったり、倍率が大きい場合には、画像がモザイク状になるなど、画質劣化の程度は大きい。   Typical existing methods for enlarging images expressed in multi-tones including color (hereinafter referred to as multi-valued images) include nearest neighbor method, linear interpolation method, cubic convolution method, etc. There is. The nearest neighbor method is a method in which the pixel value of the pixel having the closest distance is used as each enlarged pixel value when the pixel is reversely mapped on the original image. Since this method has a small amount of calculation, it can be processed at high speed. However, since one pixel of the original image is directly expanded into a rectangular shape, if the difference between the pixel values of adjacent pixels is small, the degree of image quality degradation is small and has almost no effect. When the jagged edges and edge portions are conspicuous or the magnification is large, the degree of image quality deterioration is large, such as a mosaic image.

線形補間法は、画素間の画素値が直線的に変化していると仮定し、拡大後の画素を逆写像した点の近傍4画素の画素値を線形に補間して画素値を求める方法である。この方法では、最近傍法よりも処理は重いが、演算量は比較的少なく、ジャギーなども発生しにくい。その一方で、直線的に変化しているという仮定に当てはまらないエッジ部分を中心に、画像全体がボケ気味になるという欠点がある。   In the linear interpolation method, it is assumed that pixel values between pixels change linearly, and pixel values of four pixels in the vicinity of a point obtained by inversely mapping the enlarged pixel are linearly interpolated to obtain a pixel value. is there. Although this method is heavier than the nearest neighbor method, the amount of calculation is relatively small and jaggies are not easily generated. On the other hand, there is a drawback that the entire image becomes blurred, centering on the edge portion that does not apply to the assumption that it changes linearly.

キュービック・コンボリューション法は、標本化定理に基づいてsinc関数(sin(x)/x)を近似した補間関数を定義し、拡大後の画素を逆写像した点の近傍16画素(X、Y方向それぞれ4画素)と前記の近似補間関数との畳み込み演算により、拡大後の画素値を求める方法である。この方法では、前記2つの手法に比べて画質は比較的良いが、参照範囲が大きく、演算量が多いという欠点がある。また、高域が強調気味となる特性を持つため、エッジ部分で軽いジャギーが発生したり、ノイズ成分が強調されてしまうなどの欠点もある。   The cubic convolution method defines an interpolation function that approximates a sinc function (sin (x) / x) based on the sampling theorem, and 16 pixels in the vicinity of a point obtained by inversely mapping the enlarged pixel (X and Y directions) This is a method for obtaining an enlarged pixel value by a convolution operation of each of 4 pixels) and the approximate interpolation function. This method has relatively good image quality compared to the above two methods, but has a drawback that the reference range is large and the amount of calculation is large. In addition, since the high frequency band is emphasized, there are disadvantages such as light jaggies occurring at the edge and noise components being emphasized.

これら拡大画像の画質問題を解決する試みとして、例えば、特許文献1、特許文献2などの新規方式が提案されている。
特許文献1に記載されている技術は、原画像の変化度合いの検出法として、エッジ検出フィルタによるエッジ検出を行い、そのエッジ検出結果に基づいてエッジ画素を定義する。そして、この方法は、エッジ画素と判断された場合には、キュービック・コンボリューション法の3次関数形状を調整したM−キュービック法で拡大を行い、そうでない場合には、最近傍法で拡大する。しかし、変化度合いの大きいエッジ部分を、キュービック・コンボリューション法の3次関数形状よりもエッジを強調するように調整したM−キュービック法で行うので、エッジ部でジャギーが発生したり、エッジ部周辺のオーバーシュートあるいはアンダーシュートが増大するという欠点がある。
As an attempt to solve the image quality problem of these enlarged images, for example, new systems such as Patent Document 1 and Patent Document 2 have been proposed.
The technique described in Patent Document 1 performs edge detection using an edge detection filter as a method for detecting the degree of change in an original image, and defines edge pixels based on the edge detection result. When this method is determined to be an edge pixel, enlargement is performed by the M-cubic method in which the cubic function shape of the cubic convolution method is adjusted. Otherwise, enlargement is performed by the nearest neighbor method. . However, since the edge portion having a large degree of change is performed by the M-cubic method adjusted so that the edge is emphasized rather than the cubic function shape of the cubic convolution method, jaggies are generated at the edge portion or the periphery of the edge portion. There is a disadvantage that the overshoot or undershoot increases.

特許文献2に記載されている技術は、DCTの正変換、逆変換を繰り返し行いながら高周波成分を復元して拡大する手法である。さらに、この手法は、平坦部分に生じるリンギングを抑制するために、平坦部分領域においては、原画像をバイリニア法やキュービック法で補間拡大した画像を参照画像とし、参照画像の対応する領域との誤差を許容偏差に制限する処理を行う。しかし、本特許は、DCTの正変換、逆変換を繰り返し行う反復法を基本としており、画像中の大部分を占める平坦部のリンギングを抑制するための参照処理など、演算量が非常に多い。   The technique described in Patent Document 2 is a technique for restoring and enlarging high-frequency components while repeatedly performing DCT forward and reverse transformations. Furthermore, in this method, in order to suppress ringing that occurs in the flat part, in the flat part region, an image obtained by interpolation enlargement of the original image by the bilinear method or cubic method is used as a reference image, and an error from the corresponding region of the reference image is detected. Is performed to limit the deviation to an allowable deviation. However, this patent is based on an iterative method of repeatedly performing DCT forward and reverse transformations, and has a large amount of computation such as a reference process for suppressing ringing in a flat portion that occupies most of the image.

また、画像のエッジ部分のアンダーシュート、オーバーシュートを抑制する試みとして、特許文献3の方式が提案されている。特許文献3に記載されている技術は、エッジ部を示す指標として分散値を用いて、分散値がある閾値より大きいエッジ部では、強調係数がより小さくなるように補正して高域強調処理を行うことにより、過度の強調(アンダーシュートやオーバーシュートの発生)を抑制する。しかし、この手法を画像の拡大処理に用いた場合、オーバーシュート、アンダーシュートはある程度抑制されうるが、エッジ部分がボケることは防がれない。   Further, as an attempt to suppress undershoot and overshoot at the edge portion of the image, the method of Patent Document 3 has been proposed. The technique described in Patent Document 3 uses the variance value as an index indicating the edge portion, and corrects the enhancement coefficient so that the enhancement coefficient becomes smaller at the edge portion where the variance value is larger than a certain threshold value. By doing so, excessive emphasis (occurrence of undershoot and overshoot) is suppressed. However, when this method is used for image enlargement processing, overshoot and undershoot can be suppressed to some extent, but blurring of the edge portion cannot be prevented.

特開2000−188681号公報JP 2000-188681 A 特許第3404138号Japanese Patent No. 3404138 特開平9−93439号公報Japanese Patent Laid-Open No. 9-93439

本発明は、上述した背景からなされたものであり、画像を高画質に拡大する画像処理装置を提供することを目的とする。   The present invention has been made from the above-described background, and an object thereof is to provide an image processing apparatus that enlarges an image with high image quality.

上記目的を達成するために、本発明にかかる画像処理装置は、入力画像の拡大処理を行う画像処理装置であって、注目画素を含む所定の大きさの画像領域の特徴量を算出する領域特徴量算出手段と、前記領域特徴量算出手段により算出された画像領域の特徴量に基づいて、この画像領域に対応する拡大画像領域を生成する拡大画像領域生成手段と、前記拡大画像領域生成手段とは異なる拡大手法を適用して、入力画像の拡大画像を生成する拡大処理手段と、前記領域特徴量算出手段により算出された特徴量が所定の条件を満たす画像領域が重畳する場合、その重畳する度合いに基づいて、前記拡大画像領域生成手段により生成された拡大画像領域の生成値を補正し、この拡大画像領域と、前記拡大処理手段により生成された拡大画像とに基づいて、入力画像に対する拡大画像を生成する拡大画像生成手段とを有する。   In order to achieve the above object, an image processing apparatus according to the present invention is an image processing apparatus that performs an enlargement process of an input image, and calculates a feature amount of an image area having a predetermined size including a target pixel. An enlarged image area generating means for generating an enlarged image area corresponding to the image area based on the feature quantity of the image area calculated by the area feature quantity calculating means, and the enlarged image area generating means; Applies a different enlargement technique to generate an enlarged image of the input image, and an image region that satisfies a predetermined condition for the feature amount calculated by the region feature amount calculation unit is superimposed. Based on the degree, the generation value of the enlarged image area generated by the enlarged image area generation unit is corrected, and based on the enlarged image area and the enlarged image generated by the enlargement processing unit. Te, and an enlarged image generating means for generating an enlarged image for the input image.

好適には、前記領域特徴量算出手段は、画像領域内の各画素値に基づいて、画像領域における階調変化量を算出し、この階調変化量を画像領域の特徴量とする。
好適には、前記領域特徴量算出手段は、画像領域内の各画素値に基づいて、画像領域における階調変化方向を算出し、この階調変化方向を画像領域の特徴量とする。
Preferably, the region feature amount calculating means calculates a gradation change amount in the image region based on each pixel value in the image region, and sets the gradation change amount as a feature amount of the image region.
Preferably, the region feature amount calculating means calculates a gradation change direction in the image region based on each pixel value in the image region, and sets the gradation change direction as a feature amount of the image region.

好適には、前記領域特徴量算出手段は、画像領域内の各画素値に基づいて、画像領域における階調変化を算出し、この階調変化が既定の画素値パターンに対応する場合に、この画素値パターンを画像領域の特徴量として選択する。
好適には、前記領域特徴量算出手段は、色空間における色成分それぞれについて特徴量を算出し、算出された特徴量に基づいて1つの色成分を選択し、この色成分について算出された特徴量を画像領域の特徴量とする。
Preferably, the area feature quantity calculating means calculates a gradation change in the image area based on each pixel value in the image area, and when the gradation change corresponds to a predetermined pixel value pattern, A pixel value pattern is selected as a feature amount of the image area.
Preferably, the area feature value calculating unit calculates a feature value for each color component in the color space, selects one color component based on the calculated feature value, and calculates the feature value calculated for the color component. Is the feature quantity of the image area.

好適には、前記拡大画像領域生成手段は、前記領域特徴量算出手段により算出された画像領域の特徴量が所定の条件を満たす場合に、画像領域の特徴量と、この画像領域の近傍領域の特徴量と、この近傍領域内の画素値とを用いて、拡大画像領域を生成する。
好適には、前記拡大画像領域生成手段は、階調変化を強調するエッジ強調処理を拡大率に応じて行って、画像領域内の画素値を補正し、補正された画素値を用いて拡大画像領域を生成する。
Preferably, the enlarged image region generation unit is configured to detect the feature amount of the image region and the neighborhood region of the image region when the feature amount of the image region calculated by the region feature amount calculation unit satisfies a predetermined condition. An enlarged image area is generated by using the feature amount and the pixel value in the neighboring area.
Preferably, the enlarged image area generation unit performs edge enhancement processing for enhancing gradation change according to the enlargement ratio, corrects the pixel value in the image area, and uses the corrected pixel value to enlarge the enlarged image. Create a region.

好適には、前記拡大画像領域生成手段は、前記領域特徴量算出手段により算出された階調変化方向に応じて、画像領域の近傍領域内の画素値を選択し、選択された画素値を用いて拡大画像領域を生成する。
好適には、前記拡大画像領域生成手段は、前記領域特徴量算出手段により算出された特徴量に対応する既定の演算式を用いて、拡大画像領域を生成する。
Preferably, the enlarged image region generation unit selects a pixel value in a neighborhood region of the image region according to the gradation change direction calculated by the region feature amount calculation unit, and uses the selected pixel value. To generate an enlarged image area.
Preferably, the enlarged image region generating unit generates an enlarged image region using a predetermined arithmetic expression corresponding to the feature amount calculated by the region feature amount calculating unit.

好適には、前記拡大処理手段は、少なくとも最近傍補間法に基づいた拡大手法を適用する。
好適には、前記拡大処理手段は、少なくとも線形補間法に基づいた拡大手法を適用する。
好適には、前記拡大処理手段は、入力画像毎あるいは入力画像中の数ライン毎に、拡大画像を生成する。
Preferably, the enlargement processing unit applies an enlargement method based on at least a nearest neighbor interpolation method.
Preferably, the enlargement processing unit applies an enlargement method based on at least a linear interpolation method.
Preferably, the enlargement processing unit generates an enlarged image for each input image or for every several lines in the input image.

好適には、前記拡大画像生成手段は、前記拡大画像領域生成手段により生成された拡大画像領域を、前記拡大処理手段により生成された拡大画像上の対応する位置に配置する。
好適には、前記拡大画像生成手段は、前記拡大画像領域生成手段により生成された前記拡大画像領域の生成値を、前記拡大処理手段により生成された拡大画像上の対応する位置の画素値を用いて補正する。
Preferably, the enlarged image generation unit arranges the enlarged image region generated by the enlarged image region generation unit at a corresponding position on the enlarged image generated by the enlargement processing unit.
Preferably, the enlarged image generation unit uses a pixel value at a corresponding position on the enlarged image generated by the enlargement processing unit, using the generation value of the enlarged image region generated by the enlarged image region generation unit. To correct.

好適には、前記拡大画像生成手段は、前記拡大画像領域生成手段により生成された拡大画像領域の生成値と、前記拡大処理手段により生成された拡大画像上の対応する位置の画素値とを、所定の割合で線形和した値を用いて、この画素値を補正する。
好適には、前記拡大画像生成手段は、複数の画像領域において前記領域特徴量算出手段により算出された画像領域の特徴量が所定の条件を満たし、これらの画像領域が互いに重畳する場合、これらの画像領域が重畳する度合いに基づいて、線形和の割合を決定する。
Preferably, the enlarged image generation unit includes a generation value of the enlarged image region generated by the enlarged image region generation unit and a pixel value at a corresponding position on the enlarged image generated by the enlargement processing unit. This pixel value is corrected using a value obtained by linearly summing at a predetermined ratio.
Preferably, the enlarged image generation means, when the feature amounts of the image areas calculated by the area feature quantity calculation means satisfy a predetermined condition in a plurality of image areas, and these image areas overlap each other, The ratio of the linear sum is determined based on the degree of overlapping of the image areas.

好適には、前記拡大画像生成手段は、前記領域特徴量算出手段により算出された画像領域の特徴量と、この画像領域と重畳する画像領域の特徴量とに基づいて、入力画像のエッジ部及びエッジ周辺部を判定する。
好適には、前記拡大画像生成手段は、複数の画像領域において前記領域特徴量算出手段により算出された画像領域の特徴量が所定の条件を満たし、これらの画像領域が互いに重畳する場合、これらの画像領域が重畳する度合いが所定値以上である画像部分を、エッジ部と判定する。
好適には、前記拡大画像生成手段は、複数の画像領域において前記領域特徴量算出手段により算出された画像領域の特徴量が所定の条件を満たし、これらの画像領域が互いに重畳する場合、これらの画像領域が重畳する度合いが所定値以下である画像部分を、エッジ周辺部と判定する。
Preferably, the enlarged image generation unit is configured to select an edge portion of the input image based on the feature amount of the image region calculated by the region feature amount calculation unit and the feature amount of the image region superimposed on the image region. Edge periphery is determined.
Preferably, the enlarged image generation means, when the feature amounts of the image areas calculated by the area feature quantity calculation means satisfy a predetermined condition in a plurality of image areas, and these image areas overlap each other, An image portion in which the degree of image region superposition is equal to or greater than a predetermined value is determined as an edge portion.
Preferably, the enlarged image generation means, when the feature amounts of the image areas calculated by the area feature quantity calculation means satisfy a predetermined condition in a plurality of image areas, and these image areas overlap each other, An image portion in which the degree of image region superposition is equal to or less than a predetermined value is determined as an edge peripheral portion.

また、好適には、前記拡大画像生成手段は、前記拡大画像領域生成手段により生成された拡大画像領域で、エッジ部に対応する画像部分の生成値を、前記拡大処理手段により生成された拡大画像の対応する位置に配置する。
また、好適には、前記拡大画像生成手段は、前記拡大画像領域生成手段により生成された拡大画像領域で、エッジ周辺部に対応する画像部分の生成値と、前記拡大処理手段により生成された拡大画像の対応する位置の画素値とを用いて、この画素値を補正する。
さらに、好適には、前記拡大画像生成手段は、前記拡大画像領域生成手段により生成された拡大画像領域で、エッジ部及びエッジ周辺部のいずれにも対応しない画像部分には、前記拡大処理手段により生成された拡大画像上の対応する位置の画素値を用いる。
Preferably, the enlarged image generation means generates the generated value of the image portion corresponding to the edge portion in the enlarged image area generated by the enlarged image area generation means, and the enlarged image generated by the enlargement processing means. Placed in the corresponding position.
Preferably, the enlarged image generation means is an enlarged image area generated by the enlarged image area generation means, and a generation value of an image portion corresponding to an edge peripheral portion and an enlargement generated by the enlargement processing means. This pixel value is corrected using the pixel value at the corresponding position in the image.
Further preferably, the enlarged image generating means is an enlarged image area generated by the enlarged image area generating means, and an image portion that does not correspond to either an edge portion or an edge peripheral portion is processed by the enlargement processing means. The pixel value at the corresponding position on the generated enlarged image is used.

また、本発明にかかるエッジ検出措置は、入力画像のエッジを検出するエッジ検出装置であって、注目画素を含む所定の大きさの画像領域の特徴量を算出する領域特徴量算出手段と、前記領域特徴量算出手段により算出された画像領域の特徴量と、この画像領域と重畳する画像領域の特徴量とに基づいて、入力画像のエッジ部及びエッジ周辺部を判定する判定手段とを有する。   Further, the edge detection measure according to the present invention is an edge detection device that detects an edge of an input image, and includes a region feature amount calculation unit that calculates a feature amount of an image region having a predetermined size including a target pixel, And determining means for determining an edge portion and an edge peripheral portion of the input image based on the feature amount of the image region calculated by the region feature amount calculating unit and the feature amount of the image region superimposed on the image region.

好適には、前記判定手段は、複数の画像領域において前記領域特徴量算出手段により算出された画像領域の特徴量が所定の条件を満たし、これらの画像領域が互いに重畳する場合、これらの画像領域が重畳する度合いが所定値以上である画像部分を、エッジ部と判定する。
好適には、前記判定手段は、複数の画像領域において前記領域特徴量算出手段により算出された画像領域の特徴量が所定の条件を満たし、これらの画像領域が互いに重畳する場合、これらの画像領域が重畳する度合いが所定値以下である画像部分を、エッジ周辺部と判定する。
Preferably, the determination unit includes a plurality of image regions in which the feature amounts of the image regions calculated by the region feature amount calculation unit satisfy a predetermined condition and these image regions overlap each other. An image part in which the degree of superimposing is equal to or greater than a predetermined value is determined as an edge part.
Preferably, the determination unit includes a plurality of image regions in which the feature amounts of the image regions calculated by the region feature amount calculation unit satisfy a predetermined condition and these image regions overlap each other. An image portion in which the degree of superimposing is equal to or less than a predetermined value is determined as an edge peripheral portion.

また、本発明にかかる画像処理方法は、入力画像の拡大処理を行う画像処理方法であって、注目画素を含む所定の大きさの画像領域の特徴量を算出し、前記算出された画像領域の特徴量に基づいて、この画像領域に対応する拡大画像領域を生成し、前記生成とは異なる拡大手法を適用して、入力画像の拡大画像を生成し、前記算出された特徴量が所定の条件を満たす画像領域が重畳する場合、その重畳する度合いに基づいて、前記生成された拡大画像領域の生成値を補正し、この拡大画像領域と、前記生成された拡大画像とに基づいて、入力画像に対する拡大画像を生成する。   An image processing method according to the present invention is an image processing method that performs an enlargement process of an input image, calculates a feature amount of an image area having a predetermined size including a target pixel, and calculates the calculated image area. Based on the feature amount, an enlarged image region corresponding to the image region is generated, an enlarged method different from the generation is applied to generate an enlarged image of the input image, and the calculated feature amount is a predetermined condition. When an image area that satisfies the condition is superimposed, the generation value of the generated enlarged image area is corrected based on the degree of superimposition, and the input image is corrected based on the enlarged image area and the generated enlarged image. An enlarged image is generated for.

また、本発明にかかるエッジ検出方法は、入力画像のエッジを検出するエッジ検出方法であって、注目画素を含む所定の大きさの画像領域の特徴量を算出し、前記算出された画像領域の特徴量と、この画像領域と重畳する画像領域の特徴量とに基づいて、入力画像のエッジ部及びエッジ周辺部を判定する。   An edge detection method according to the present invention is an edge detection method for detecting an edge of an input image, wherein a feature amount of an image area having a predetermined size including a target pixel is calculated, and the calculated image area Based on the feature amount and the feature amount of the image region superimposed on the image region, the edge portion and the edge peripheral portion of the input image are determined.

また、本発明にかかる第1のプログラムは、コンピュータを含み、入力画像の拡大処理を行う画像処理装置において、注目画素を含む所定の大きさの画像領域の特徴量を算出する領域特徴量算出ステップと、前記算出された画像領域の特徴量に基づいて、この画像領域に対応する拡大画像領域を生成する拡大画像領域生成ステップと、前記生成とは異なる拡大手法を適用して、入力画像の拡大画像を生成する拡大処理ステップと、前記算出された特徴量が所定の条件を満たす画像領域が重畳する場合、その重畳する度合いに基づいて、前記生成された拡大画像領域の生成値を補正し、この拡大画像領域と、前記生成された拡大画像とに基づいて、入力画像に対する拡大画像を生成する拡大画像生成ステップとを前記画像処理装置のコンピュータに実行させる。   A first program according to the present invention includes an area feature amount calculating step of calculating a feature amount of an image area having a predetermined size including a target pixel in an image processing apparatus that includes a computer and performs an enlargement process of an input image. An enlarged image region generating step for generating an enlarged image region corresponding to the calculated image region based on the calculated feature amount of the image region, and applying an enlargement method different from the generation to enlarge the input image When an enlargement processing step for generating an image and an image region where the calculated feature amount satisfies a predetermined condition are superimposed, the generation value of the generated enlarged image region is corrected based on the degree of overlap, An enlarged image generating step for generating an enlarged image for the input image based on the enlarged image area and the generated enlarged image is performed by the computer of the image processing apparatus. To be executed in.

さらに、本発明にかかる第2のプログラムは、コンピュータを含む入力画像のエッジを検出するエッジ検出装置でおいて、注目画素を含む所定の大きさの画像領域の特徴量を算出する領域特徴量算出ステップと、前記算出された画像領域の特徴量と、この画像領域と重畳する画像領域の特徴量とに基づいて、入力画像のエッジ部及びエッジ周辺部を判定する判定ステップとを前記エッジ検出装置のコンピュータに実行させる。   Furthermore, a second program according to the present invention is a region feature amount calculation for calculating a feature amount of an image region having a predetermined size including a target pixel in an edge detection apparatus that detects an edge of an input image including a computer. The edge detecting device comprising: a step of determining an edge portion and an edge peripheral portion of the input image based on the calculated feature amount of the image region and the feature amount of the image region superimposed on the image region. To run on a computer.

本発明の画像処理装置によれば、軽い処理負荷で、高画質な拡大画像を高速に得ることができる。   According to the image processing apparatus of the present invention, a high-quality enlarged image can be obtained at high speed with a light processing load.

[ハードウェア構成]
本実施形態における画像処理装置2のハードウェア構成を説明する。
図1は、本発明にかかる画像処理方法が適応される画像処理装置2のハードウェア構成を、制御装置20を中心に例示する図である。
図1に例示するように、画像処理装置2は、CPU202及びメモリ204などを含む制御装置20、通信装置22、HDD・CD装置などの記憶装置24、並びに、LCD表示装置あるいはCRT表示装置及びキーボード・タッチパネルなどを含むユーザインターフェース装置(UI装置)26を有する。
画像処理装置2は、例えば、画像拡大プログラム4(図2を参照して後述)がインストールされた汎用コンピュータであり、通信装置22又は記憶装置24などを介して画像データを取得し、取得された画像データを出力解像度に応じて拡大する。例えば、画像処理装置2は、プリンタ装置10に対して画像データを出力する場合には、600dpi又は2400dpiなどの解像度に変換し、UI装置26に対して画像データを出力する場合には、75dpiなどの解像度に変換する。
[Hardware configuration]
A hardware configuration of the image processing apparatus 2 in the present embodiment will be described.
FIG. 1 is a diagram illustrating a hardware configuration of an image processing apparatus 2 to which an image processing method according to the present invention is applied, centering on a control apparatus 20.
As illustrated in FIG. 1, the image processing apparatus 2 includes a control device 20 including a CPU 202 and a memory 204, a communication device 22, a storage device 24 such as an HDD / CD device, an LCD display device or a CRT display device, and a keyboard. A user interface device (UI device) 26 including a touch panel and the like is included.
The image processing apparatus 2 is, for example, a general-purpose computer in which an image enlargement program 4 (described later with reference to FIG. 2) is installed. The image processing apparatus 2 acquires image data via the communication device 22 or the storage device 24. Enlarge the image data according to the output resolution. For example, the image processing apparatus 2 converts the resolution to 600 dpi or 2400 dpi when outputting image data to the printer apparatus 10, and 75 dpi or the like when outputting image data to the UI apparatus 26. Convert to the resolution.

[画像拡大プログラム]
図2は、制御装置20(図1)により実行され、本発明にかかる画像処理方法を実現する画像拡大プログラム4の機能構成を示す図である。
図2に示すように、画像拡大プログラム4は、記憶部400、画像ブロック設定部410、画像ブロック特徴量算出部420、高画質画像ブロック生成部430、高速拡大処理部440及び拡大画像生成部450を有する。また、画像ブロック特徴量算出部420は、エッジ強度算出部422、エッジ方向推定部424及びエッジパターン選択部426を有し、拡大画像生成部450は、ブロック重畳度判定部452及び出力値補正部454を有する。
なお、画像拡大プログラム4の全部又は一部は、ASICなどのハードウェアにより実現されてもよい。
[Image enlargement program]
FIG. 2 is a diagram showing a functional configuration of the image enlargement program 4 which is executed by the control device 20 (FIG. 1) and realizes the image processing method according to the present invention.
As illustrated in FIG. 2, the image enlargement program 4 includes a storage unit 400, an image block setting unit 410, an image block feature amount calculation unit 420, a high-quality image block generation unit 430, a high-speed enlargement processing unit 440, and an enlarged image generation unit 450. Have The image block feature amount calculation unit 420 includes an edge strength calculation unit 422, an edge direction estimation unit 424, and an edge pattern selection unit 426. The enlarged image generation unit 450 includes a block superimposition degree determination unit 452 and an output value correction unit. 454.
Note that all or part of the image enlargement program 4 may be realized by hardware such as an ASIC.

記憶部400は、画像データが拡大処理されるまで画像データを一時的に記憶し、解像度変換又は拡大処理された拡大画像データが出力装置(不図示)に出力されるまで一時的に記憶する。なお、画像データは、画像処理装置2により処理可能である画像フォーマット(例えば、BMP、TIFF、PNGなど)で記述されたデータであり、デジタルカメラ(不図示)又はスキャナ(不図示)などにより取り込まれた画像データ、又は、パーソナルコンピュータ(画像処理装置2など)等において作成又は編集等を行うアプリケーションプログラムにより作成された画像データ等である。拡大画像データ(拡大された後の画像データ)もまた、同様の画像フォーマットのデータである。   The storage unit 400 temporarily stores image data until the image data is enlarged, and temporarily stores the enlarged image data that has undergone resolution conversion or enlargement processing until it is output to an output device (not shown). The image data is data described in an image format (for example, BMP, TIFF, PNG, etc.) that can be processed by the image processing apparatus 2, and is captured by a digital camera (not shown) or a scanner (not shown). Or image data created by an application program that is created or edited in a personal computer (image processing apparatus 2 or the like). Enlarged image data (image data after being enlarged) is also data in the same image format.

画像ブロック設定部410は、画像ブロック特徴量算出部420及び高画質画像ブロック生成部430の処理において必要とされる既定の画像ブロックサイズをそれぞれ設定する。また、画像ブロック設定部410は、記憶部400により記憶されている入力画像データから、設定されたブロックサイズの画像ブロックを順次(例えばラスタスキャン順に)切り出し、このブロックサイズの画像ブロックそれぞれを、画像ブロック特徴量算出部420及び高画質画像ブロック生成部430それぞれに対して出力する。   The image block setting unit 410 sets a predetermined image block size required in the processing of the image block feature amount calculation unit 420 and the high quality image block generation unit 430, respectively. In addition, the image block setting unit 410 sequentially cuts out image blocks having a set block size from the input image data stored in the storage unit 400 (for example, in raster scan order), and converts each image block having the block size into an image. The block feature value calculation unit 420 and the high-quality image block generation unit 430 are each output.

画像ブロック特徴量算出部420は、画像ブロック設定部410から順次入力される画像ブロックの少なくとも一部である注目領域における画像特徴量を、注目領域又はこの注目領域の周辺部を含む画像ブロック内の各画素値に基づいて算出する。画像特徴量は、例えば、注目領域のエッジ強度(階調変化量)又はエッジ角度(階調変化の方向)である。しかし、画像特徴量はこれらに限られない。画像ブロック特徴量算出部420は、例えば、注目領域の各画素値の平均値を算出し、この平均値に対する注目領域の各画素値のばらつきを表す値(例えば標準偏差又は分散)を画像特徴量として算出してもよい。   The image block feature amount calculation unit 420 calculates the image feature amount in the attention area, which is at least a part of the image blocks sequentially input from the image block setting section 410, in the image block including the attention area or the peripheral portion of the attention area. Calculation is performed based on each pixel value. The image feature amount is, for example, edge strength (gradation change amount) or edge angle (direction of gradation change) of the attention area. However, the image feature amount is not limited to these. For example, the image block feature amount calculation unit 420 calculates an average value of each pixel value of the attention area, and uses a value (for example, standard deviation or variance) representing a variation of each pixel value of the attention area with respect to the average value as the image feature amount. May be calculated as

また、画像ブロック特徴量算出部420は、それぞれの注目領域について算出された画像特徴量と基準値とを比較し、注目領域の切り分けを行う。注目領域の切り分けにより、特徴のある画像ブロック(例えば、エッジを含んだ画像ブロックなど)と、特徴の少ない画像ブロック(例えば、画素値変化の少ない画像ブロックなど)とが切り分けられる。より具体的には、画像ブロック特徴量算出部420は、算出された画像特徴量が基準値以上である画像ブロックを特徴ブロックと判定し、算出された画像特徴量が基準値未満である画像ブロックを非特徴ブロックと判定する。
本例では、画像ブロック特徴量算出部420は、画像特徴量の1つとして画像ブロックのエッジ強度(数値)を算出し、算出されたエッジ強度が基準値以上である画像ブロックを特徴ブロックであると判定し、エッジ強度が基準値未満である画像ブロックを非特徴ブロックであると判定する。なお、特徴ブロックの切り分けに用いられる特徴量は、エッジ強度に限られず、例えば注目領域の平均値に対する注目領域の各画素値のばらつきを表す値である標準偏差、分散又はその他の特徴量であってもよい。
In addition, the image block feature quantity calculation unit 420 compares the image feature quantity calculated for each attention area and the reference value, and performs the attention area separation. By distinguishing the attention area, an image block having a characteristic (for example, an image block including an edge) and an image block having a small feature (for example, an image block having a small change in pixel value) are separated. More specifically, the image block feature value calculation unit 420 determines an image block whose calculated image feature value is equal to or greater than a reference value as a feature block, and an image block whose calculated image feature value is less than the reference value. Are determined as non-characteristic blocks.
In this example, the image block feature amount calculation unit 420 calculates the edge strength (numerical value) of an image block as one of the image feature amounts, and an image block whose calculated edge strength is a reference value or more is a feature block. The image block having the edge strength less than the reference value is determined to be a non-feature block. Note that the feature quantity used for dividing the feature block is not limited to the edge strength, and is, for example, a standard deviation, a variance, or other feature quantity that is a value representing variation of each pixel value of the attention area with respect to the average value of the attention area. May be.

高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により算出された画像特徴量を用いて、注目領域に対応する拡大画像ブロックを生成する。高画質画像ブロック生成部430における拡大処理には、注目領域に含まれる特徴を保持する拡大手法が適用されることが望ましい。また、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により算出された特徴量が基準値以上である画像ブロック(すなわち、特徴ブロック)についてのみ、拡大処理を行う。   The high image quality image block generation unit 430 generates an enlarged image block corresponding to the attention area using the image feature amount calculated by the image block feature amount calculation unit 420. For the enlargement processing in the high-quality image block generation unit 430, it is desirable to apply an enlargement method that retains the features included in the region of interest. In addition, the high-quality image block generation unit 430 performs the enlargement process only on the image block (that is, the feature block) in which the feature amount calculated by the image block feature amount calculation unit 420 is greater than or equal to the reference value.

高速拡大処理部440は、記憶部400により記憶されている入力画像データを拡大する。高速拡大処理部440は、高画質画像ブロック生成部430による拡大処理よりも処理負荷の小さい拡大アルゴリズムを適用する。具体的には、高速拡大処理部440は、例えば、最近傍補間拡大法や線形補間拡大法などを適用して、入力画像データを拡大する。また、高速拡大処理部440は、画像ブロック毎の処理ではなく、入力画像単位又は入力画像の数ライン単位で拡大処理を行う。   The high-speed enlargement processing unit 440 enlarges the input image data stored in the storage unit 400. The high-speed enlargement processing unit 440 applies an enlargement algorithm that has a smaller processing load than the enlargement process performed by the high-quality image block generation unit 430. Specifically, the high-speed enlargement processing unit 440 enlarges the input image data by applying, for example, a nearest neighbor interpolation enlargement method or a linear interpolation enlargement method. Also, the high-speed enlargement processing unit 440 performs enlargement processing in units of input images or in units of several lines of input images, rather than processing for each image block.

拡大画像生成部450は、高画質画像ブロック生成部430により拡大された拡大画像ブロックと、高速拡大処理部440により拡大された拡大画像とを用いて、原画像に対する拡大画像を生成する。より具体的には、拡大画像生成部450は、画像ブロック特徴量算出部420により算出された画像特徴量が基準値以上である画像ブロック(特徴ブロック)が重なり合う場合には、その重なり数に従い、高画質画像ブロック生成部430により拡大された拡大画像ブロックの各々の画素値を、高速拡大処理部440により拡大された拡大画像の相当する位置の画素値に基づいて補正することにより、拡大画像を生成する。   The enlarged image generation unit 450 uses the enlarged image block enlarged by the high-quality image block generation unit 430 and the enlarged image enlarged by the high-speed enlargement processing unit 440 to generate an enlarged image for the original image. More specifically, when the image block (feature block) in which the image feature amount calculated by the image block feature amount calculation unit 420 is equal to or greater than the reference value overlaps, the enlarged image generation unit 450 follows the number of overlaps. By correcting the pixel value of each of the enlarged image blocks enlarged by the high-quality image block generation unit 430 based on the pixel value at the position corresponding to the enlarged image enlarged by the high-speed enlargement processing unit 440, the enlarged image is Generate.

[画像ブロック特徴量算出部]
次に、画像ブロック特徴量算出部420を、より詳細に説明する。なお、注目領域が2×2画素サイズブロックであり、注目領域を含む周辺領域が4×4画素サイズブロックである場合を具体例として説明する。
エッジ強度算出部422は、画像ブロック設定部410により切り出された画像ブロックの中の注目領域のエッジ強度Gを、次の式(1)により算出する。
[Image block feature value calculation unit]
Next, the image block feature value calculation unit 420 will be described in more detail. A case where the attention area is a 2 × 2 pixel size block and the peripheral area including the attention area is a 4 × 4 pixel size block will be described as a specific example.
The edge strength calculation unit 422 calculates the edge strength G of the attention area in the image block cut out by the image block setting unit 410 using the following equation (1).

gx=(a+c−b−d)/2
gy=(a+b−c−d)/2
G=gx×gx+gy×gy・・・(1)
gx = (a + c−b−d) / 2
gy = (a + b−c−d) / 2
G = gx × gx + gy × gy (1)

式(1)において、a、b、c及びdは、図6に例示するように、注目領域にある各画素の画素値である。gxは、主走査方向(図6の左右方向)の画素値の変化量を示し、gyは、副走査方向(図6の上下方向)の画素値の変化量を示す。
なお、エッジ強度は、上記式(1)のみにより算出される値でなく、以下の式(2)などにより算出されてもよい。
G=|gx|+|gy|・・・(2)
すなわち、エッジ強度Gは、gxの絶対値と、gyの絶対値との和として算出されてもよい。
In Expression (1), a, b, c, and d are pixel values of each pixel in the attention area as illustrated in FIG. gx represents the amount of change in the pixel value in the main scanning direction (left and right direction in FIG. 6), and gy represents the amount of change in the pixel value in the sub scanning direction (up and down direction in FIG. 6).
Note that the edge strength may be calculated by the following formula (2) or the like instead of the value calculated by the above formula (1) alone.
G = | gx | + | gy | (2)
That is, the edge strength G may be calculated as the sum of the absolute value of gx and the absolute value of gy.

また、エッジ強度算出部422は、算出されたエッジ強度Gと基準値(既定のしきい値Th)との比較を行い、注目領域が特徴ブロック又は非特徴ブロックのいずれであるかを判定し、判定結果を高画質画像ブロック生成部430等に対して出力する。
なお、注目領域のエッジ強度Gがしきい値Thよりも小さい場合は、エッジ方向推定部424及びエッジパターン選択部426は、この注目領域について処理を行わない。
Further, the edge strength calculation unit 422 compares the calculated edge strength G with a reference value (predetermined threshold value Th) to determine whether the attention area is a feature block or a non-feature block, The determination result is output to the high-quality image block generation unit 430 and the like.
When the edge strength G of the attention area is smaller than the threshold Th, the edge direction estimation unit 424 and the edge pattern selection unit 426 do not perform processing on the attention area.

図3は、エッジ強度算出部422において、エッジ強度Gと基準値との比較により特徴ブロックと判定された領域を例示する。
図4は、互いに重なり合う特徴ブロックを例示する。
図3に例示するように、特徴ブロックは、原画像中のエッジ付近に集中する。さらに、画像ブロック特徴量算出部420が、注目領域の画像特徴量を、1画素づつ主走査方向及び副走査方向にずらしながら算出すると、図4に例示するように、原画像中のエッジ付近においては、特徴ブロックは互いに重なり合う。
FIG. 3 illustrates an area determined as a feature block by the edge strength calculation unit 422 by comparing the edge strength G with a reference value.
FIG. 4 illustrates feature blocks that overlap one another.
As illustrated in FIG. 3, the feature blocks are concentrated near the edges in the original image. Further, when the image block feature amount calculation unit 420 calculates the image feature amount of the attention area while shifting the pixel feature amount by one pixel in the main scanning direction and the sub scanning direction, as illustrated in FIG. 4, in the vicinity of the edge in the original image. The feature blocks overlap each other.

図5は、特徴ブロック同士の重なり数(ブロック重畳度)を例示する。
図5に例示するように、ブロック重畳度の範囲は、例えば1〜4であり、エッジ強度算出部422は、このブロック重畳度も算出し、算出結果を高画質画像ブロック生成部430及び拡大画像生成部450に対して出力する。
ブロック重畳度が算出されると、原画像中のエッジ付近において、エッジ領域とエッジ周辺領域とが区別される。より具体的には、ブロック重畳度が小さい領域は、エッジ周辺領域であると区別され、ブロック重畳度が大きい領域は、エッジ領域であると区別される。
FIG. 5 illustrates the number of overlapping feature blocks (block superposition degree).
As illustrated in FIG. 5, the range of the block superimposition degree is, for example, 1 to 4, and the edge strength calculation unit 422 also calculates the block superposition degree, and the calculation result is displayed as the high-quality image block generation unit 430 and the enlarged image. The data is output to the generation unit 450.
When the block superposition degree is calculated, the edge region and the edge peripheral region are distinguished in the vicinity of the edge in the original image. More specifically, a region with a low block superposition degree is distinguished from an edge peripheral region, and a region with a high block superposition degree is distinguished as an edge region.

エッジ方向推定部424について説明する。
図6は、注目領域及び周辺領域の具体例と、注目領域のエッジ方向の一例の説明図であり、図6(A)は、注目領域及び周辺領域を例示し、図6(B)は、この注目領域について推定されるエッジ方向を例示する図である。
図6(A)に例示するように、注目領域(画像領域)は、2×2の矩形領域(主走査方向及び副走査方向にそれぞれ2つ)を有し、周辺領域は、4×4の矩形領域(主走査方向及び副走査方向にそれぞれ4つ)を有する。各矩形は、それぞれ画素に相当し、矩形内の各数字はそれぞれの画素値を示している。すなわち、注目領域は、中心部近傍の画素{a,b,c,d}={15,104,86,203}である。
以下、この図6(A)で例示する注目領域を具体例として、エッジ方向推定部424によるエッジ方向推定処理を説明する。
The edge direction estimation unit 424 will be described.
FIG. 6 is an explanatory diagram of a specific example of the attention area and the peripheral area, and an example of the edge direction of the attention area. FIG. 6A illustrates the attention area and the peripheral area, and FIG. It is a figure which illustrates the edge direction estimated about this attention area.
As illustrated in FIG. 6A, the attention area (image area) has a 2 × 2 rectangular area (two in the main scanning direction and two in the sub scanning direction), and the peripheral area is 4 × 4. It has rectangular areas (four each in the main scanning direction and the sub-scanning direction). Each rectangle corresponds to a pixel, and each numeral in the rectangle indicates a pixel value. That is, the attention area is the pixel {a, b, c, d} = {15, 104, 86, 203} near the center.
Hereinafter, the edge direction estimation processing by the edge direction estimation unit 424 will be described using the attention area illustrated in FIG. 6A as a specific example.

図7は、エッジ方向推定部424によるエッジ方向推定処理(S10)を示すフローチャートである。
図8は、エッジ方向推定処理(S10)のS102の処理において選択される参照領域を例示する図である。なお、図8におけるハッチングされた部分は、図6に示した注目領域に相当する。
図7に示すように、ステップ100(S100)において、エッジ方向推定部424は、図6(A)に例示した注目領域のエッジ角度Θを、次の式(3)で計算する。
Θ=arctan(gy/gx)・・・(3)
図6(A)では、注目領域の画素値は、{a,b,c,d}={15,104,86,203}であり、式(1)より、
gx=−103
gy=−85
となり、これらを式(3)に代入すると、
Θ=−140.5°
となる。
このエッジ角度Θの方向は、図6(B)に示された破線方向に相当する。
FIG. 7 is a flowchart showing edge direction estimation processing (S10) by the edge direction estimation unit 424.
FIG. 8 is a diagram illustrating a reference region selected in the process of S102 of the edge direction estimation process (S10). The hatched portion in FIG. 8 corresponds to the region of interest shown in FIG.
As shown in FIG. 7, in step 100 (S100), the edge direction estimation unit 424 calculates the edge angle Θ of the attention area exemplified in FIG. 6A by the following equation (3).
Θ = arctan (gy / gx) (3)
In FIG. 6 (A), the pixel value of the attention area is {a, b, c, d} = {15, 104, 86, 203}.
gx = −103
gy = −85
And substituting these into equation (3),
Θ = -140.5 °
It becomes.
The direction of the edge angle Θ corresponds to the direction of the broken line shown in FIG.

さらに、エッジ方向推定部424は、算出されたエッジ角度Θが22.5°ごとに区分された方向(8方向)の角度範囲のいずれに含まれるかを判定する。本例では、エッジ角度Θが0°又は±180°を中心とした角度範囲を「方向0」とし、22.5°又は−157.5°を中心とした角度範囲を「方向1」とし、45°又は−135°を中心とした角度範囲を「方向2」とし、67.5°又は−112.5°を中心とした角度範囲を「方向3」とし、90°又は−90°を中心とした角度範囲を「方向4」とし、112.5°又は−67.5°を中心とした角度範囲を「方向5」とし、135°又は−45°を中心とした角度範囲を「方向6」とし、157.5°又は−22.5°を中心とした角度範囲を「方向7」する。これらの角度範囲は、それぞれの中心から±11.25°の範囲である。上述の具体例におけるエッジ角度Θ(=−140.5°)は、−135°±11.25°の範囲内に含まれるので、エッジ角度は「方向2」となる。   Further, the edge direction estimation unit 424 determines which of the angle ranges in the directions (eight directions) divided every 22.5 ° is the calculated edge angle Θ. In this example, the angle range around the edge angle Θ of 0 ° or ± 180 ° is “direction 0”, the angle range around 22.5 ° or −157.5 ° is “direction 1”, An angle range centered on 45 ° or −135 ° is “direction 2”, an angle range centered on 67.5 ° or −112.5 ° is “direction 3”, and centered on 90 ° or −90 °. An angle range centered on 112.5 ° or −67.5 ° is “direction 5”, and an angle range centered on 135 ° or −45 ° is “direction 6”. ", And an angle range centered on 157.5 ° or -22.5 ° is" direction 7 ". These angle ranges are ± 11.25 ° from their respective centers. Since the edge angle Θ (= −140.5 °) in the above specific example is included in the range of −135 ° ± 11.25 °, the edge angle is “direction 2”.

ステップ102(S102)において、エッジ方向推定部424は、算出された注目領域のエッジ角度Θに応じて、図6(A)に示した周辺領域(太線枠外の領域)の中からエッジ方向の推定に用いる参照領域を選択する。より具体的には、エッジ方向推定部424は、算出されたエッジ角度Θの方向で注目領域と隣接する可能性のある画素を含むように、参照領域を選択する。
例えば、エッジ方向推定部424は、注目領域について算出されたエッジ角度が「方向0」に含まれる場合に、図8(A)に例示する参照領域(太線で囲まれた2つの領域)を選択し、算出されたエッジ角度が「方向4」に含まれる場合に、図8(B)に例示する参照領域(太線で囲まれた2つの領域)を選択し、算出されたエッジ角度が上記以外の方向(方向1〜3、方向5〜7)に含まれる場合に、図8(C)に例示する参照領域(太線で囲まれた4つの領域)を選択する。図6に示した具体例では、エッジ角度の方向は「方向2」であるので、図8(C)に示した4つの参照領域が選択の候補となる。
なお、参照領域は、図8に例示した領域に限定されず、例えば図8(C)の場合には、参照領域数は8であったり、それぞれの方向に応じて設定されてもよい。
In step 102 (S102), the edge direction estimation unit 424 estimates the edge direction from the peripheral area (outside the thick line frame) shown in FIG. 6A according to the calculated edge angle Θ of the attention area. Select the reference area to be used for. More specifically, the edge direction estimation unit 424 selects the reference area so as to include a pixel that may be adjacent to the attention area in the direction of the calculated edge angle Θ.
For example, the edge direction estimation unit 424 selects the reference area (two areas surrounded by a thick line) illustrated in FIG. 8A when the edge angle calculated for the attention area is included in “direction 0”. When the calculated edge angle is included in “direction 4”, the reference area (two areas surrounded by a thick line) illustrated in FIG. 8B is selected, and the calculated edge angle is other than the above. Are included in the directions (directions 1 to 3 and directions 5 to 7), reference areas (four areas surrounded by thick lines) illustrated in FIG. 8C are selected. In the specific example shown in FIG. 6, since the direction of the edge angle is “direction 2”, the four reference areas shown in FIG. 8C are candidates for selection.
Note that the reference region is not limited to the region illustrated in FIG. 8. For example, in the case of FIG. 8C, the number of reference regions may be eight or may be set according to each direction.

ステップ104(S104)において、エッジ方向推定部424は、選択された参照領域それぞれに対して、S100の処理と同様に、式(1)及び式(3)に従って、エッジ角度Θを計算する。
ステップ106(S106)において、エッジ方向推定部424は、それぞれの参照領域について算出されたエッジ角度と、注目領域について算出されたエッジ角度とを比較して、これらの差分が予め設定されている閾値Θthより小さいか否かを判断する。エッジ方向推定部424は、エッジ角度の差分が閾値Θthより小さい場合には、この参照領域のエッジ角度を適正なエッジ角度として判定してS108の処理に移行し、エッジ角度の差分が閾値Θth以上である場合には、この参照領域のエッジ角度を適正なエッジ角度ではないと判定してS110の処理に移行する。
In step 104 (S104), the edge direction estimation unit 424 calculates the edge angle Θ for each of the selected reference regions according to the equations (1) and (3), as in the process of S100.
In step 106 (S106), the edge direction estimation unit 424 compares the edge angle calculated for each reference area with the edge angle calculated for the attention area, and the difference between these is set in advance. It is determined whether it is smaller than Θth. If the edge angle difference is smaller than the threshold Θth, the edge direction estimation unit 424 determines that the edge angle of the reference region is an appropriate edge angle, and proceeds to the processing of S108. The edge angle difference is equal to or greater than the threshold Θth. If it is, it is determined that the edge angle of the reference region is not an appropriate edge angle, and the process proceeds to S110.

ステップ108(S108)において、エッジ方向推定部424は、角度参照数をインクリメントする。すなわち、エッジ方向推定部424は、参照領域について算出されたエッジ角度が適正なエッジ角度であると判断された場合にのみ、角度参照数をインクリメントする。
なお、角度参照数は、エッジ角度の参照数をカウントするための変数であり、注目領域ごとに「角度参照数1」に初期化される。
In step 108 (S108), the edge direction estimation unit 424 increments the angle reference number. That is, the edge direction estimation unit 424 increments the angle reference number only when it is determined that the edge angle calculated for the reference region is an appropriate edge angle.
The angle reference number is a variable for counting the reference number of the edge angle, and is initialized to “angle reference number 1” for each region of interest.

ステップ110(S110)において、エッジ方向推定部424は、選択した全ての参照領域についてエッジ角度を算出したか否かを判断し、全ての参照領域についてエッジ角度が算出された場合には、S112の処理に移行し、これ以外の場合には、S104の処理に戻って次の参照領域についてエッジ角度を算出する。
ステップ112(S112)において、エッジ方向推定部424は、注目領域のエッジ角度と、適正なエッジ角度として判定された参照領域のエッジ角度との総和を計算し、算出されたエッジ角度の総和を角度参照数で割った平均エッジ角度を注目領域の推定エッジ方向とする。
In step 110 (S110), the edge direction estimation unit 424 determines whether or not the edge angles have been calculated for all the selected reference areas. In other cases, the process returns to S104 to calculate the edge angle for the next reference area.
In step 112 (S112), the edge direction estimation unit 424 calculates the sum of the edge angle of the attention area and the edge angle of the reference area determined as an appropriate edge angle, and calculates the sum of the calculated edge angles as an angle. The average edge angle divided by the reference number is set as the estimated edge direction of the attention area.

なお、図6に示した具体例では、エッジ角度ΘUは、上部の参照領域{86,203,171,211}からΘU=−149.4°となり、エッジ角度ΘLは、左部の参照領域{10,15,20,86}からΘL=−131.2°となり、エッジ角度ΘDは、下部の参照領域{1,102,15,104}からΘD=−175.2°となり、エッジ角度ΘRは、右部の参照領域{104,215,203,219}からΘR=−141.0°となる。注目領域のエッジ角度Θ=−140.5°とそれぞれの参照領域のエッジ角度とが比較され、その差分が閾値Θthより小さい参照領域の数が、角度参照数としてカウントされる。   In the specific example shown in FIG. 6, the edge angle ΘU is ΘU = -149.4 ° from the upper reference region {86, 203, 171, 211}, and the edge angle ΘL is the left reference region { ΘL = −131.2 ° from 10, 15, 20, 86}, and the edge angle ΘD becomes ΘD = −175.2 ° from the lower reference region {1,102,15,104}, and the edge angle ΘR is From the reference region {104, 215, 203, 219} on the right side, ΘR = −141.0 °. The edge angle Θ = −140.5 ° of the attention area is compared with the edge angle of each reference area, and the number of reference areas whose difference is smaller than the threshold Θth is counted as the angle reference number.

図9は、図6に示した注目領域における推定エッジ方向の一例の説明図である。例えば上述の具体例において、すべての参照領域について注目領域のエッジ角度との差分が閾値Θthより小さいとすれば、注目領域及び4つの参照領域から求められたエッジ角度の総和は−737.3°となり、角度参照数5で割ることによって、平均エッジ角度は−147.5°と求められる。この場合においても、エッジ方向推定部434は、上述の注目領域のエッジ方向と同様に、平均エッジ角度が例えば8方向のいずれかに含まれるかを判定する。本例では、平均エッジ角度が−147.5°であるため「方向1」に含まれ、「方向1」が推定エッジ方向となる。   FIG. 9 is an explanatory diagram of an example of the estimated edge direction in the region of interest shown in FIG. For example, in the above-described specific example, if the difference between the edge angle of the attention area for all the reference areas is smaller than the threshold Θth, the sum of the edge angles obtained from the attention area and the four reference areas is −737.3 °. By dividing by the angle reference number 5, the average edge angle is determined to be -147.5 °. Also in this case, the edge direction estimation unit 434 determines whether the average edge angle is included in any of the eight directions, for example, in the same manner as the edge direction of the region of interest described above. In this example, since the average edge angle is −147.5 °, it is included in “direction 1”, and “direction 1” is the estimated edge direction.

なお、本実施形態では、1画素につき1色要素であるグレースケール画像を具体例として説明しているが、これに限定されるわけではない。例えば、1画素につき3色要素のRGB色空間のカラー画像が入力される場合には、各々の色成分のデータにおけるエッジ強度Gr、Gg、Gbの強さにより選択された色空間データにより、上記のエッジ方向推定処理が行われればよい。より具体的には、画像ブロック特徴量算出部420は、それぞれの色成分についてエッジ強度を算出し、算出されたエッジ強度Gr、Gg、Gbが最大となる色成分を選択して、選択された色成分についてのみ特徴量を算出する。このようにして、カラー画像における拡大画像データのエッジ部の色ずれなど、画質低下が抑えられることが可能となる。
また、本例では、注目領域及び参照領域について、式(1)により算出されたエッジ角度は、8方向のいずれかに分類されたが、分類は8方向に限定されず、より精度の高いエッジ方向が必要であれば、分類は、12方向(15.0°ごと)、16方向(12.25°ごと)など、さらに多数の角度領域を対象としてなされてもよい。
In the present embodiment, a grayscale image that is one color element per pixel is described as a specific example, but the present invention is not limited to this. For example, when a color image in the RGB color space of three color elements per pixel is input, the color space data selected by the strength of the edge strength Gr, Gg, Gb in the data of each color component The edge direction estimation process may be performed. More specifically, the image block feature value calculation unit 420 calculates the edge strength for each color component, selects the color component that maximizes the calculated edge strengths Gr, Gg, and Gb. The feature amount is calculated only for the color component. In this way, it is possible to suppress deterioration in image quality such as color shift at the edge of enlarged image data in a color image.
In this example, for the attention area and the reference area, the edge angle calculated by the expression (1) is classified into any one of the eight directions, but the classification is not limited to the eight directions, and the edge has higher accuracy. If a direction is required, the classification may be done for a larger number of angular regions, such as 12 directions (every 15.0 °), 16 directions (every 12.25 °).

エッジパターン選択部426について説明する。
図10は、エッジパターン選択部426により用いられるエッジパターンテーブルを例示する図である。
図10に例示するように、エッジパターン選択部426は、推定エッジ方向とエッジパターンとを互いに対応付けたエッジパターンテーブルを有する。エッジパターンテーブルには、エッジパターンが、注目領域のパターンサイズに対応して、推定エッジ方向(例えば8方向)ごとに1つ以上登録されている。
エッジパターン選択部426は、このエッジパターンテーブルを参照して、エッジ方向推定部424によりそれぞれの注目領域について推定された推定エッジ方向に対応するエッジパターンを選択する。
本例では、図9に例示するように、注目領域に対する推定エッジ方向が、エッジ方向推定部424により「方向1」であると推定されているため、エッジパターン選択部426は、この推定エッジ方向(方向1)に従い、図10に示すエッジパターンテーブルの中から、方向1に対応する「パターン0」から「パターン3」までの4つのエッジパターンを選択し、これらをこの注目領域に対するエッジパターンの候補とする。
The edge pattern selection unit 426 will be described.
FIG. 10 is a diagram illustrating an edge pattern table used by the edge pattern selection unit 426.
As illustrated in FIG. 10, the edge pattern selection unit 426 includes an edge pattern table in which the estimated edge direction and the edge pattern are associated with each other. In the edge pattern table, one or more edge patterns are registered for each estimated edge direction (for example, eight directions) corresponding to the pattern size of the region of interest.
The edge pattern selection unit 426 refers to the edge pattern table and selects an edge pattern corresponding to the estimated edge direction estimated for each region of interest by the edge direction estimation unit 424.
In this example, as illustrated in FIG. 9, since the estimated edge direction with respect to the region of interest is estimated to be “direction 1” by the edge direction estimating unit 424, the edge pattern selecting unit 426 According to (direction 1), four edge patterns from “pattern 0” to “pattern 3” corresponding to direction 1 are selected from the edge pattern table shown in FIG. Candidate.

エッジパターン選択部426は、注目領域の画素値に基づいて、エッジパターンの候補となった1つ以上のエッジパターンの中から、1つのエッジパターンを選択する。エッジパターンの具体的な選択方法について、図11を参照しながら説明する。
図11は、図10に示した注目領域に対応するエッジパターンの選択方法を説明する図である。
本例では、推定エッジ方向が「方向1」であったため、図11(A)に例示するように、エッジパターンの候補として、「パターン0」から「パターン3」までの4つのエッジパターンが選択されている。これらのエッジパターンは、図11(B)に例示するように、ビットパターンとして表現される。具体的には、エッジパターンは、白部分を0、それ以外を1としてビットパターン化され、「ビットパターン0」から「ビットパターン3」までのビットパターンが生成される。なお、これらのビットパターンは、図10に示すエッジパターンテーブルにビットテーブルとして予め登録されていてもよい。
The edge pattern selection unit 426 selects one edge pattern from one or more edge patterns that are edge pattern candidates based on the pixel value of the region of interest. A specific method for selecting an edge pattern will be described with reference to FIG.
FIG. 11 is a diagram for explaining a method of selecting an edge pattern corresponding to the attention area shown in FIG.
In this example, since the estimated edge direction is “direction 1”, four edge patterns from “pattern 0” to “pattern 3” are selected as the edge pattern candidates as illustrated in FIG. 11A. Has been. These edge patterns are expressed as bit patterns as illustrated in FIG. Specifically, the edge pattern is formed into a bit pattern with the white portion being 0 and the others being 1, and bit patterns from “bit pattern 0” to “bit pattern 3” are generated. Note that these bit patterns may be registered in advance in the edge pattern table shown in FIG. 10 as bit tables.

エッジパターン選択部426は、注目領域に相当するビットパターンを判定する。具体的には、エッジパターン選択部426は、以下に示す式(4)に従い、注目領域中の平均画素値を計算し、注目領域内の各々の画素値から平均値を引き、その符号を以て注目領域の画素値パターンとする。   The edge pattern selection unit 426 determines a bit pattern corresponding to the attention area. Specifically, the edge pattern selection unit 426 calculates an average pixel value in the attention area according to the following equation (4), subtracts the average value from each pixel value in the attention area, and uses the sign to pay attention. The pixel value pattern of the region is used.

Mean=(a+b+c+d)/4
a_sign=a−Mean
b_sign=b−Mean
c_sign=c−Mean
d_sign=d−Mean・・・(4)
Mean = (a + b + c + d) / 4
a_sign = a-Mean
b_sign = b-Mean
c_sign = c-Mean
d_sign = d-Mean (4)

なお、本例では、図11(C)に示すように、Mean=(15+104+86+203)/4=102であり、a_sign=−87、b_sign=2、c_sign=−16、d_sign=101となる。よって、エッジパターン選択部426は、これらの正負符号を判定して、図11(C)に示すように、注目領域のビットパターン(1010)を生成する。
エッジパターン選択部426は、図11(B)に例示するエッジパターン候補に対応するビットパターンと、図11(C)に例示する注目領域のビットパターンとのパターンマッチングを行い、最も類似するエッジパターンを選択パターンとして決定する。選択されたエッジパターンは、後述する高画質画像ブロック生成部430における拡大画像ブロック生成処理に適用される。
In this example, as shown in FIG. 11C, Mean = (15 + 104 + 86 + 203) / 4 = 102, a_sign = −87, b_sign = 2, c_sign = −16, and d_sign = 101. Therefore, the edge pattern selection unit 426 determines these positive and negative signs, and generates a bit pattern (1010) of the region of interest as shown in FIG.
The edge pattern selection unit 426 performs pattern matching between the bit pattern corresponding to the edge pattern candidate illustrated in FIG. 11B and the bit pattern of the attention area illustrated in FIG. Is determined as the selection pattern. The selected edge pattern is applied to enlarged image block generation processing in a high-quality image block generation unit 430 described later.

なお、エッジパターンは、図10に示したエッジパターンに限定されず、例えば、エッジパターン選択部426は、入力画像データの種類に応じて、エッジパターンテーブルを切り替えて、異なるエッジパターンを適用してもよい。また、エッジパターン選択部426は、各角度におけるエッジパターン候補数を増減させてもよい。   Note that the edge pattern is not limited to the edge pattern illustrated in FIG. 10. For example, the edge pattern selection unit 426 switches the edge pattern table according to the type of input image data and applies a different edge pattern. Also good. The edge pattern selection unit 426 may increase or decrease the number of edge pattern candidates at each angle.

[高画質画像ブロック生成部]
次に、高画質画像ブロック生成部430をより詳細に説明する。
高画質画像ブロック生成部430は、画像ブロック特徴量算出部420において、特徴ブロックであると判定された注目領域に対して、画像ブロック特徴量算出部420により得られた注目領域に対するエッジパターン及び推定エッジ方向に基づいて、拡大画像ブロック生成処理を行う。
高画質画像ブロック生成部430は、まず、拡大処理の拡大倍率に応じたサイズ及び係数の強調カーネルを用いて、画像ブロック設定部410により切り出された画像ブロック中の注目領域およびその周辺領域の画像データのコントラストを強調する。
[High-quality image block generator]
Next, the high-quality image block generation unit 430 will be described in more detail.
The high-quality image block generation unit 430 performs the edge pattern and estimation for the attention area obtained by the image block feature amount calculation unit 420 with respect to the attention area determined by the image block feature amount calculation unit 420 as the feature block. Enlarged image block generation processing is performed based on the edge direction.
First, the high-quality image block generation unit 430 uses the size and coefficient emphasis kernel according to the enlargement magnification of the enlargement process, and the image of the attention area and the surrounding area in the image block cut out by the image block setting unit 410 Emphasize the contrast of data.

図12は、高画質画像ブロック生成部430により用いられる強調カーネル432(エッジ強調カーネル)を例示する図である。
図12に例示するように、第1の強調カーネル432aは、重み付け係数「1.60」及び「−0.15」を用いてコントラストを強調し、第2の強調カーネル432bは、重み付け係数「1.20」及び「−0.05」を用いてコントラストを強調する。これらの強調カーネルは、対象画像に対して既になされた拡大処理の拡大倍率に対応付けられており、互いに異なる重み付け係数を用いて、互いに異なる位置の画素値を参照する。
FIG. 12 is a diagram illustrating an enhancement kernel 432 (edge enhancement kernel) used by the high-quality image block generation unit 430.
As illustrated in FIG. 12, the first enhancement kernel 432a enhances contrast using the weighting factors “1.60” and “−0.15”, and the second enhancement kernel 432b includes the weighting factor “1”. .20 ”and“ −0.05 ”to enhance contrast. These enhancement kernels are associated with the enlargement magnification of the enlargement process already performed on the target image, and refer to pixel values at different positions using different weighting coefficients.

第1の強調カーネル432aは、図12(A)に例示するように、注目画素Pの直下画素a、直右画素b、直上画素c及び直左画素dを参照して、これらの画素の画素値にそれぞれ重み付け係数(−0.15)を掛け合わせ、重み付け係数(1.60)が掛けられた注目画素Pの画素値と合算し、合算された値を注目画素Pの画素値とする。
第2の強調カーネル432bは、第1の強調カーネル432aよりも拡大倍率の大きな画像に対して適用され、図12(B)に例示するように、注目画素Pから1画素分離間した下画素a、右画素b、上画素c及び左画素dを参照して、これらの画素の画素値にそれぞれ重み付け係数(−0.05)を掛け合わせ、重み付け係数(1.20)が掛けられた注目画素Pの画素値と合算し、合算された値を注目画素Pの画素値とする。
例えば、第1の強調カーネル432aを適用する場合に、以下の式(5)に従って、コントラスト強調後の画素値P’が算出される。
画素値P’=1.60×P−0.15×(a+b+c+d)・・・(5)
As illustrated in FIG. 12A, the first enhancement kernel 432a refers to the pixel a, the right pixel b, the pixel c, and the pixel d of the pixel of interest P by referring to the pixels of these pixels. Each value is multiplied by a weighting coefficient (−0.15) and added to the pixel value of the pixel of interest P multiplied by the weighting coefficient (1.60), and the sum is set as the pixel value of the pixel of interest P.
The second enhancement kernel 432b is applied to an image having a larger magnification than the first enhancement kernel 432a, and as illustrated in FIG. 12B, the lower pixel a that is separated by one pixel from the target pixel P. , The right pixel b, the upper pixel c, and the left pixel d, the pixel value of these pixels is multiplied by a weighting coefficient (−0.05), and the pixel of interest multiplied by the weighting coefficient (1.20) The pixel value of P is added together, and the added value is set as the pixel value of the target pixel P.
For example, when applying the first enhancement kernel 432a, the pixel value P ′ after contrast enhancement is calculated according to the following equation (5).
Pixel value P ′ = 1.60 × P−0.15 × (a + b + c + d) (5)

このように、強調カーネルは、既になされた拡大処理の拡大倍率に応じて異なるので、画像が、4倍、8倍と順に拡大されると、原画像の特徴を有している画素は、2画素、4画像離れた位置の画素となる。そのため、高画質画像ブロック生成部430は、図12に例示するように、拡大倍率が高いほど離れた画素を参照して強調処理を行う。例えば、高画質画像ブロック生成部430は、2倍拡大処理を2回連続して適用することにより4倍拡大が実現される場合に、最初の2倍拡大処理において第1の強調カーネル432a(図12(A))を適用し、2回目の2倍拡大処理において第2の強調カーネル432b(図12(B))を適用する。なお、8倍、16倍以降の倍率においても同様である。
また、参照する画素の位置は、図12に示すような上下左右に限られない。例えば、高画質画像ブロック生成部430は、斜め方向の画素を参照してコントラスト強調を行ったり、さらに離れた画素を参照してコントラスト強調を行ったり、又は、処理対象画像データの種類及びサイズなどにより適用する強調カーネルを切り替えたりしてもよい。
As described above, the enhancement kernel differs depending on the enlargement magnification of the enlargement processing that has already been performed. Therefore, when the image is enlarged in order of 4 times and 8 times, the pixels having the characteristics of the original image are 2 The pixel is a pixel at a position distant from four images. Therefore, as illustrated in FIG. 12, the high-quality image block generation unit 430 performs enhancement processing with reference to pixels that are further away as the enlargement magnification is higher. For example, the high-quality image block generation unit 430 applies the first enhancement kernel 432a (see FIG. 5) in the first double enlargement process when the double enlargement process is applied twice in succession to realize the quadruple enlargement. 12 (A)) and the second enhancement kernel 432b (FIG. 12B) is applied in the second double enlargement process. The same applies to magnifications of 8 times, 16 times and later.
Further, the position of the pixel to be referred to is not limited to the vertical and horizontal directions as shown in FIG. For example, the high-quality image block generation unit 430 performs contrast enhancement with reference to pixels in an oblique direction, performs contrast enhancement with reference to further distant pixels, or the type and size of the processing target image data The emphasis kernel to be applied may be switched by.

次に、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により得られた注目領域に対するエッジパターン及び推定エッジ方向と、前述したようにコントラスト強調処理が行われた注目領域とその周辺領域との画素値とを用いて、注目領域に対する拡大画像ブロックを生成する。   Next, the high-quality image block generation unit 430 generates the edge pattern and the estimated edge direction with respect to the region of interest obtained by the image block feature amount calculation unit 420, the region of interest subjected to the contrast enhancement processing as described above, and its surroundings. An enlarged image block for the region of interest is generated using the pixel value of the region.

図13は、高画質画像ブロック生成部430における拡大画像ブロックの生成処理の具体例の説明図である。まず、高画質画像ブロック生成部430は、注目領域のエッジパターン及び推定エッジ方向基づき、コントラスト強調処理を施された画素値を用いて、3×3画像ブロックに相当する画素値を算出する。図13(A)は、図6(A)に示した注目領域及び周辺領域の一例を示す。前述したように画像ブロック特徴量算出部420において、この注目領域はエッジパターン1010に対応し、推定エッジ方向は「方向1」であると求められている。高画質画像ブロック生成部430は、(エッジパターン1010)−(推定エッジ方向「1」)の組み合わせの場合、図13(B)に示すように、3×3画像ブロックに相当するそれぞれの画素をp0〜p8とすると、図13(A)に示した注目領域の画素値{a,b,c,d}をもとに、p0〜p8の画素値を次の式によって計算する。なお、エッジパターンと推定エッジ方向との組み合わせは、「(エッジパターン)−(推定エッジ方向)」と表される。   FIG. 13 is an explanatory diagram of a specific example of enlarged image block generation processing in the high-quality image block generation unit 430. First, the high-quality image block generation unit 430 calculates a pixel value corresponding to a 3 × 3 image block using a pixel value subjected to contrast enhancement processing based on the edge pattern of the region of interest and the estimated edge direction. FIG. 13A illustrates an example of the attention area and the peripheral area illustrated in FIG. As described above, in the image block feature value calculation unit 420, this attention area corresponds to the edge pattern 1010 and the estimated edge direction is determined to be “direction 1”. In the case of the combination of (edge pattern 1010) − (estimated edge direction “1”), the high-quality image block generation unit 430 calculates each pixel corresponding to the 3 × 3 image block as shown in FIG. Assuming p0 to p8, the pixel values of p0 to p8 are calculated by the following formula based on the pixel values {a, b, c, d} of the attention area shown in FIG. The combination of the edge pattern and the estimated edge direction is expressed as “(edge pattern) − (estimated edge direction)”.

p0=a
p1=(a+b)/2
p2=b
p3=(a+c)/2
p4=(b+c)/2
p5=(b+d)/2
p6=c
p7=(b+b)/2
p8=d
p0 = a
p1 = (a + b) / 2
p2 = b
p3 = (a + c) / 2
p4 = (b + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (b + b) / 2
p8 = d

これらの計算式は、(エッジパターン)−(推定エッジ方向)の組み合わせにより一意に決定され、3×3画像ブロック相当の画素値が計算される。   These calculation formulas are uniquely determined by a combination of (edge pattern) − (estimated edge direction), and pixel values corresponding to 3 × 3 image blocks are calculated.

図14は、他の(エッジパターン)−(推定エッジ方向)の組み合わせの場合に用いられる計算式の一例の説明図である。
図14(A)は、(エッジパターン1000)−(推定エッジ方向「1」)の場合に用いられる計算式を示し、3×3画像ブロック相当の画素値は、次の式によって計算される。
FIG. 14 is an explanatory diagram of an example of a calculation formula used in the case of another (edge pattern)-(estimated edge direction) combination.
FIG. 14A shows a calculation formula used in the case of (edge pattern 1000) − (estimated edge direction “1”), and pixel values corresponding to 3 × 3 image blocks are calculated by the following formula.

p0=a
p2=b
p3=a
p4=(b+c)/2
p5=(b+d)/2
p6=c
p7=(c+d)/2
p8=d
p1=(p4+c)/2
p0 = a
p2 = b
p3 = a
p4 = (b + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
p1 = (p4 + c) / 2

図14(B)は(エッジパターン1100)−(推定エッジ方向「5」)の場合に用いられる計算式を示し、3×3画像ブロック相当の画素値は、次の式によって計算される。   FIG. 14B shows a calculation formula used in the case of (edge pattern 1100) − (estimated edge direction “5”), and pixel values corresponding to 3 × 3 image blocks are calculated by the following formula.

p0=a
p1=(a+b)/2
p2=b
p4=(a+d)/2
p6=c
p7=(c+d)/2
p8=d
p3=(p4+c)/2
p5=(p4+b)/2
p0 = a
p1 = (a + b) / 2
p2 = b
p4 = (a + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
p3 = (p4 + c) / 2
p5 = (p4 + b) / 2

図14(C)は(エッジパターン1100)−(推定エッジ方向「2」)の場合に用いられる計算式を示し、3×3画像ブロック相当の画素値は、次の式によって計算される。   FIG. 14C shows a calculation formula used in the case of (edge pattern 1100) − (estimated edge direction “2”), and a pixel value corresponding to a 3 × 3 image block is calculated by the following formula.

p0=a
p1=a
p2=b
p3=a
p4=(b+c)/2
p5=(b+d)/2
p6=c
p7=(c+d)/2
p8=d
p0 = a
p1 = a
p2 = b
p3 = a
p4 = (b + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d

図14(D)は(エッジパターン0101)−(推定エッジ方向「7」)の場合に用いられる計算式を示し、3×3画像ブロック相当の画素値は、次の式によって計算される。   FIG. 14D shows a calculation formula used in the case of (edge pattern 0101) − (estimated edge direction “7”), and a pixel value corresponding to a 3 × 3 image block is calculated by the following formula.

p0=a
p2=b
p3=(a+c)/2
p4=(a+d)/2
p5=(b+d)/2
p6=c
p8=d
p1=(p4+b)/2
p7=(p4+c)/2
p0 = a
p2 = b
p3 = (a + c) / 2
p4 = (a + d) / 2
p5 = (b + d) / 2
p6 = c
p8 = d
p1 = (p4 + b) / 2
p7 = (p4 + c) / 2

なお、他のエッジパターンの場合にも、同様にそれぞれのエッジパターンに対応した計算式に従って計算を行うことによって、3×3画像ブロック相当の画素値が計算されることができる。   In the case of other edge patterns as well, pixel values corresponding to 3 × 3 image blocks can be calculated by performing calculation according to the calculation formula corresponding to each edge pattern.

次に、高画質画像ブロック生成部430は、前述のように計算された3×3画像ブロック相当の画素値と、注目領域の推定エッジ方向に基づいて選択された周辺領域内の複数の参照画素とを用いて4×4画像ブロックを生成する。   Next, the high-quality image block generation unit 430 generates a plurality of reference pixels in the peripheral area selected based on the pixel value equivalent to the 3 × 3 image block calculated as described above and the estimated edge direction of the attention area. Are used to generate 4 × 4 image blocks.

図15は、注目領域における推定エッジ方向に基づく参照画素r0〜r13の選択方法の説明図である。注目領域の推定エッジ方向が方向1(22.5°)から方向3(67.5°)の場合には、図15(A)に示したように、参照画素r0〜r5は、図15(A)に太線枠で囲んだように左上から下へ3画素と右下から上へ3画素となるように選択される。また、注目領域の推定エッジ方向が方向5(112.5°)から方向7(157.5°)の場合には、図15(B)に示したように、参照画素r0〜r5は、左下から上へ3画素と右上から下へ3画素となるように選択される。参照画素r6〜r13は、推定エッジ方向に拠らず、図15(A)及び図15(B)に示すように、上下それぞれ4画素を選択される。このように、参照画素は、注目領域における推定エッジ方向に基づいて選択される。もちろん、参照画素の選択は、図15に示すように2パターンからの選択に限定されず、推定エッジ方向に従い、より多くの参照画素選択パターンが用意されてもよい。また、選択する参照画素は、推定エッジ方向に応じて変更されてもよい。   FIG. 15 is an explanatory diagram of a method of selecting the reference pixels r0 to r13 based on the estimated edge direction in the attention area. When the estimated edge direction of the attention area is from direction 1 (22.5 °) to direction 3 (67.5 °), as shown in FIG. 15A, the reference pixels r0 to r5 are shown in FIG. A) is selected so that there are 3 pixels from the upper left to the lower and 3 pixels from the lower right to the upper as surrounded by a thick line frame. Further, when the estimated edge direction of the attention area is from the direction 5 (112.5 °) to the direction 7 (157.5 °), as shown in FIG. 3 pixels from the top to the top and 3 pixels from the top right to the bottom. For the reference pixels r6 to r13, four pixels are selected on the upper and lower sides, respectively, as shown in FIGS. 15A and 15B, regardless of the estimated edge direction. In this way, the reference pixel is selected based on the estimated edge direction in the attention area. Of course, the selection of reference pixels is not limited to the selection from two patterns as shown in FIG. 15, and more reference pixel selection patterns may be prepared according to the estimated edge direction. The reference pixel to be selected may be changed according to the estimated edge direction.

図16は、4×4画素の拡大画像ブロックの生成処理の具体例の説明図である。図16に示すように、計算された3×3画像ブロック相当の画素値p0〜p8、及び注目領域における推定エッジ方向に基づいて選択された参照画素r0〜r13を用いて、次の計算式に従って、4×4画素の拡大画像ブロックに相当する画素値(s0〜s15)が計算されて、4x4拡大画像ブロックが生成される。   FIG. 16 is an explanatory diagram of a specific example of generation processing of a 4 × 4 pixel enlarged image block. As shown in FIG. 16, using the calculated pixel values p0 to p8 corresponding to the 3 × 3 image block and the reference pixels r0 to r13 selected based on the estimated edge direction in the region of interest, according to the following calculation formula: Pixel values (s0 to s15) corresponding to the 4 × 4 pixel enlarged image block are calculated to generate a 4 × 4 enlarged image block.

s0=0.2×r6+0.16×r0+0.64×p0
s1=0.2×r7+0.32×p0+0.48×p1
s2=0.2×r8+0.48×p1+0.32×p2
s3=0.2×r9+0.64×p2+0.16×r1
s4=0.08×r0+0.32×p0+0.12×r2+0.48×p3
s5=0.16×p0+0.24×p1+0.24×p3+0.36×p4
s6=0.24×p1+0.16×p2+0.36×p4+0.24×p5
s7=0.32×p2+0.08×r1+0.48×p5+0.12×r3
s8=0.12×r2+0.48×p3+0.08×r4+0.32×p6
s9=0.24×p3+0.36×p4+0.16×p6+0.24×p7
s10=0.36×p4+0.24×p5+0.24×p7+0.16×p8
s11=0.48×p5+0.12×r3+0.32×p8+0.08×r5
s12=0.16×r4+0.64×p6+0.2×r10
s13=0.32×p6+0.48×p7+0.2×r11
s14=0.48×p7+0.32×p8+0.2×r12
s15=0.64×p8+0.16×r5+0.2×r13
s0 = 0.2 × r6 + 0.16 × r0 + 0.64 × p0
s1 = 0.2 × r7 + 0.32 × p0 + 0.48 × p1
s2 = 0.2 × r8 + 0.48 × p1 + 0.32 × p2
s3 = 0.2 × r9 + 0.64 × p2 + 0.16 × r1
s4 = 0.08 * r0 + 0.32 * p0 + 0.12 * r2 + 0.48 * p3
s5 = 0.16 × p0 + 0.24 × p1 + 0.24 × p3 + 0.36 × p4
s6 = 0.24 × p1 + 0.16 × p2 + 0.36 × p4 + 0.24 × p5
s7 = 0.32 × p2 + 0.08 × r1 + 0.48 × p5 + 0.12 × r3
s8 = 0.12 * r2 + 0.48 * p3 + 0.08 * r4 + 0.32 * p6
s9 = 0.24 × p3 + 0.36 × p4 + 0.16 × p6 + 0.24 × p7
s10 = 0.36 × p4 + 0.24 × p5 + 0.24 × p7 + 0.16 × p8
s11 = 0.48 × p5 + 0.12 × r3 + 0.32 × p8 + 0.08 × r5
s12 = 0.16 × r4 + 0.64 × p6 + 0.2 × r10
s13 = 0.32 × p6 + 0.48 × p7 + 0.2 × r11
s14 = 0.48 × p7 + 0.32 × p8 + 0.2 × r12
s15 = 0.64 × p8 + 0.16 × r5 + 0.2 × r13

このようにして、4×4画素の拡大画像ブロック(s0〜s15)は、画像ブロック特徴量算出部420により特徴ブロックと判断された注目領域に対して生成される。   In this way, 4 × 4 pixel enlarged image blocks (s0 to s15) are generated for the attention area determined as the feature block by the image block feature amount calculation unit 420.

以上説明したように、高画質画像ブロック生成部430が、画像ブロック特徴量算出部420により算出された画像特徴量に従って、拡大画像ブロック生成処理を行うことにより、ジャギーを抑えた高画質な拡大処理ができる。   As described above, the high-quality image block generation unit 430 performs the enlarged image block generation process in accordance with the image feature amount calculated by the image block feature amount calculation unit 420, whereby high-quality enlargement processing with reduced jaggies is performed. Can do.

[拡大画像生成部]
次に、拡大画像生成部450をより詳細に説明する。
拡大画像生成部450は、高画質画像ブロック生成部430により生成された注目領域に対する拡大画像ブロックと、高速拡大処理部440から出力された拡大画像とを用いて、原画像に対する拡大画像を生成する。
[Enlarged image generator]
Next, the enlarged image generation unit 450 will be described in more detail.
The enlarged image generation unit 450 generates an enlarged image for the original image using the enlarged image block for the region of interest generated by the high-quality image block generation unit 430 and the enlarged image output from the high-speed enlargement processing unit 440. .

拡大画像生成部450において、ブロック重畳度判定部452は、エッジ強度算出部422により算出された特徴ブロックのブロック重畳度に基づいて、画像中のエッジ部分と判定された領域に対して、エッジ周辺領域(エッジ周辺部)であるのか最も確からしいエッジ領域(エッジ部)であるのかを判定する。つまり、ブロック重畳度が小さい領域は、画像中において非特徴ブロック(平坦部分)と特徴ブロック(エッジ部分)との境界領域と考えられ、エッジ周辺領域と判定される。また、ブロック重畳度が大きい領域は、周辺領域の多くが特徴ブロックであり、最も確からしいエッジ領域と判定される。例えば、ブロック重畳度1及び2の領域は、エッジ周辺領域と判定され、ブロック重畳度3及び4の領域は、最も確からしいエッジ領域と判定される。判定基準は、先述の例に限られず、例えば、ブロック重畳度の各レベル(レベル1〜レベル4)に対して、より細かくエッジを分類する判定基準が設けられてもよい。   In the enlarged image generation unit 450, the block superimposition degree determination unit 452 performs edge peripheral processing on an area determined as an edge portion in the image based on the block superposition degree of the feature block calculated by the edge strength calculation unit 422. It is determined whether the region (edge peripheral portion) is the most probable edge region (edge portion). That is, an area having a small block superposition degree is considered as a boundary area between a non-feature block (flat part) and a feature block (edge part) in the image, and is determined as an edge peripheral area. In addition, an area having a high degree of block superposition is determined to be the most probable edge area because most of the surrounding areas are feature blocks. For example, areas with block superimposition degrees 1 and 2 are determined as edge peripheral areas, and areas with block superimposition degrees 3 and 4 are determined as the most probable edge areas. The determination criterion is not limited to the above-described example, and for example, a determination criterion for classifying the edge more finely for each level (level 1 to level 4) of the block superimposition degree may be provided.

出力値補正部454は、ブロック重畳度判定部452によるブロック重畳度に基づいた判定結果に従って、高画質画像ブロック生成部430により生成された注目領域に対する拡大画像ブロック内の画素値を補正する。
図17は、ブロック重畳度に基づいた判定結果に従う拡大画像ブロック内の画素値補正を具体的に説明する図である。
図17は、ブロック重畳度判定部452における判定の具体例として、ブロック重畳度1及び2の領域はエッジ周辺領域と判定され、ブロック重畳度3及び4の領域は最も確からしいエッジ領域と判定される例を示している。
図17に示すように、ブロック重畳度判定部452において、最も確からしいエッジ領域と判定された領域に相当する、高画質画像ブロック生成部430により生成された拡大画像ブロック内の画素値は、そのまま出力される。一方、ブロック重畳度判定部452において、エッジ周辺領域と判定された領域に相当する拡大画像ブロック内の画素値は、補正されて出力される。
The output value correction unit 454 corrects the pixel value in the enlarged image block for the attention area generated by the high-quality image block generation unit 430 according to the determination result based on the block superposition degree by the block superposition degree determination unit 452.
FIG. 17 is a diagram for specifically explaining pixel value correction in an enlarged image block according to a determination result based on the block superposition degree.
In FIG. 17, as a specific example of the determination in the block superimposition degree determination unit 452, the areas with the block superimposition degrees 1 and 2 are determined as edge peripheral areas, and the areas with the block superimposition degrees 3 and 4 are determined as the most probable edge areas. An example is shown.
As illustrated in FIG. 17, the pixel value in the enlarged image block generated by the high-quality image block generation unit 430 corresponding to the region determined as the most probable edge region by the block superimposition degree determination unit 452 is used as it is. Is output. On the other hand, the pixel value in the enlarged image block corresponding to the area determined as the edge peripheral area in the block superimposition degree determination unit 452 is corrected and output.

図18は、画素値補正を具体的に説明した図である。
図18に示すように、エッジ周辺領域と判定された領域相当する拡大画像ブロック内の画素値は、高速拡大処理部440から出力された拡大画像上の対応する位置の画素値を用いて以下の式(6)により補正される。
補正値=α×s+(1‐α)×v ・・・(6)
ここで、sは、拡大画像ブロック内の画素値、vは、高速拡大処理部440から出力された拡大画像上の画素値、αは、変数(0≦α≦1)である。ここで、変数αは、ある所定の値であってもよいし、ブロック重畳度に基づいて可変であってもよい。
FIG. 18 is a diagram specifically explaining the pixel value correction.
As shown in FIG. 18, the pixel values in the enlarged image block corresponding to the area determined as the edge peripheral area are expressed as follows using the pixel values at the corresponding positions on the enlarged image output from the high-speed enlargement processing unit 440. Correction is performed by equation (6).
Correction value = α × s + (1−α) × v (6)
Here, s is a pixel value in the enlarged image block, v is a pixel value on the enlarged image output from the high-speed enlargement processing unit 440, and α is a variable (0 ≦ α ≦ 1). Here, the variable α may be a predetermined value, or may be variable based on the block superposition degree.

このように、画像拡大プログラム4は、ブロック重畳度に基づいて、画像中のエッジ部分を、エッジ周辺領域及び最も確からしいエッジ領域のように分類し、最も確からしいエッジ領域では、高画質画像ブロック生成部430により生成された拡大画像ブロックの画素値をそのまま出力し、エッジ周辺領域に対しては、高画質画像ブロック生成部430により生成された拡大画像ブロックの画素値を、高速拡大処理部440による拡大画像の画素値で補正することにより、エッジの鮮鋭度や滑らかさを保持しながら、エッジ周辺領域のアンダーシュートやオーバーシュートといった画質劣化の原因を抑制することが可能となる。   As described above, the image enlargement program 4 classifies the edge portion in the image as the edge peripheral region and the most probable edge region based on the degree of block superposition, and the most probable edge region has a high-quality image block. The pixel value of the enlarged image block generated by the generation unit 430 is output as it is, and the pixel value of the enlarged image block generated by the high-quality image block generation unit 430 is output to the edge peripheral region as the high-speed enlargement processing unit 440. By correcting with the pixel value of the enlarged image, the cause of image quality deterioration such as undershoot and overshoot in the edge peripheral region can be suppressed while maintaining the sharpness and smoothness of the edge.

[全体動作]
画像処理装置2の全体動作(画像拡大処理)を説明する。
図19は、画像処理装置2の全体動作を示すフローチャート(S20)である。
図19に示すように、ステップ200(S200)において、画像ブロック設定部410は、画像ブロック特徴量算出部420及び高画質画像ブロック生成部430における処理で必要とされる既定の画像ブロックのサイズをそれぞれ設定し、記憶部400に記憶されている処理対象画像データから、設定されたブロックサイズの画像ブロックを順次(例えばラスタスキャン順に)切り出し、切り出された各画像ブロックを、画像ブロック特徴量算出部420及び高画質画像ブロック生成部430にそれぞれ出力する。
[Overall operation]
The overall operation (image enlargement process) of the image processing apparatus 2 will be described.
FIG. 19 is a flowchart (S20) showing the overall operation of the image processing apparatus 2.
As shown in FIG. 19, in step 200 (S200), the image block setting unit 410 sets the default image block size required for the processing in the image block feature value calculation unit 420 and the high-quality image block generation unit 430. An image block having a set block size is cut out sequentially (for example, in raster scan order) from the processing target image data stored in the storage unit 400 and set, and each cut out image block is converted into an image block feature amount calculation unit. 420 and the high-quality image block generation unit 430, respectively.

ステップ202(S202)において、画像ブロック特徴量算出部420は、入力された画像ブロック中の注目領域のエッジ強度Gを、式(1)を用いて算出する。
なお、{a,b,c,d}は、図6に例示するように注目領域内の各画素値である。入力画像データがグレースケール画像でなく、例えばRGB色空間のカラー画像である場合には、画像ブロック特徴量算出部420は、注目領域に関してR,G,Bの各色空間の色成分毎の画像ブロックそれぞれについて、式(1)を用いてエッジ強度Gr、Gg、Gbを計算し、Gr、Gg、Gbの中で最大のエッジ強度である色成分の画像ブロックを選択し、そのエッジ強度を注目領域の(すべての色成分に共通の)エッジ強度とする。
In step 202 (S202), the image block feature value calculation unit 420 calculates the edge strength G of the attention area in the input image block using Expression (1).
In addition, {a, b, c, d} is each pixel value in the attention area as illustrated in FIG. When the input image data is not a grayscale image but a color image in, for example, an RGB color space, the image block feature value calculation unit 420 performs an image block for each color component in each of the R, G, and B color spaces with respect to the region of interest. For each, the edge strengths Gr, Gg, and Gb are calculated using the formula (1), and the image component of the color component that is the maximum edge strength among the Gr, Gg, and Gb is selected, and the edge strength is selected as the attention area Edge strength (common to all color components).

ステップ204(S204)において、画像ブロック特徴量算出部420は、注目領域のエッジ強度Gに基づいて、この注目領域が特徴ブロックであるか非特徴ブロックであるかを判定する。具体的には、画像ブロック特徴量算出部420は、算出されたエッジ強度Gが既定の閾値Th以上である場合(すなわち、注目領域内の階調変化量が大きい場合)に、この注目領域を特徴ブロックとし、算出されたエッジ強度Gが既定の閾値Th未満である場合(すなわち、注目領域内の階調変化量が小さい場合)に、この注目領域を非特徴ブロックとする。
画像処理装置2は、注目領域が特徴ブロックであると判定された場合に、この注目領域の画像特徴を保存するような拡大処理行うべくS206の処理に移行し、注目領域が非特徴ブロックであると判定された場合に、S200の処理に戻り、次の画像ブロックを処理する。
In step 204 (S204), the image block feature amount calculation unit 420 determines whether the attention area is a feature block or a non-feature block based on the edge strength G of the attention area. Specifically, the image block feature amount calculation unit 420 calculates the attention area when the calculated edge strength G is equal to or larger than a predetermined threshold Th (that is, when the gradation change amount in the attention area is large). When the calculated edge strength G is less than a predetermined threshold Th (that is, when the gradation change amount in the attention area is small), the attention area is determined as a non-feature block.
When it is determined that the attention area is a feature block, the image processing apparatus 2 proceeds to the process of S206 to perform an enlargement process for storing the image feature of the attention area, and the attention area is a non-feature block. If it is determined, the process returns to S200 and the next image block is processed.

ステップ206(S206)において、画像ブロック特徴量算出部420は、特徴ブロックと判定された画像領域に対して、その特徴ブロックが既に特徴ブロックであると判定された画像領域と重なり合う場合は、ブロック重畳度を算出する。   In step 206 (S206), if the image block feature amount calculation unit 420 overlaps an image region determined to be a feature block with an image region that has already been determined to be a feature block, block superimposition is performed. Calculate the degree.

ステップ208(S208)において、画像ブロック特徴量算出部420は、注目領域(特徴ブロック)及びその注目領域を含む1乃至複数の周辺領域中の参照領域のエッジ角度Θを、式(3)を用いて計算する。
なお、gx、gyは、式(1)において各々算出される値である。そして、画像ブロック特徴量算出部420は、算出された複数のエッジ角度Θから注目領域のエッジ方向θを推定する。例えば、画像ブロック特徴量算出部420は、得られた複数のエッジ角度Θの平均値を算出し、算出された平均値を推定エッジ方向θとする。
In step 208 (S208), the image block feature value calculation unit 420 uses the expression (3) for the attention area (feature block) and the edge angle Θ of the reference area in one or more peripheral areas including the attention area. To calculate.
Note that gx and gy are values calculated in the equation (1). Then, the image block feature quantity calculation unit 420 estimates the edge direction θ of the region of interest from the calculated plurality of edge angles Θ. For example, the image block feature quantity calculation unit 420 calculates the average value of the obtained plurality of edge angles Θ, and sets the calculated average value as the estimated edge direction θ.

ステップ210(S210)において、画像ブロック特徴量算出部420は、推定されたエッジ方向θ及び注目領域(特徴ブロック)の画素分布パターンを用いて、エッジパターンを選択する。エッジパターンは、エッジ方向及び画素分布パターンに応じて、予め用意されたパターンテーブル(図10)の中から選択される。   In step 210 (S210), the image block feature quantity calculation unit 420 selects an edge pattern using the estimated edge direction θ and the pixel distribution pattern of the region of interest (feature block). The edge pattern is selected from a pattern table (FIG. 10) prepared in advance according to the edge direction and the pixel distribution pattern.

ステップ212(S212)において、高画質画像ブロック生成部430は、拡大率に応じてサイズ及び重み付け係数が設定された強調カーネル432(図12)を用いて、画像ブロック設定部410により切り出された画像ブロック中の注目領域(特徴ブロック)及びその周辺領域の画像データに対して、コントラスト強調処理を施す。   In step 212 (S212), the high-quality image block generation unit 430 uses the enhancement kernel 432 (FIG. 12) in which the size and the weighting coefficient are set according to the enlargement ratio, and the image cut out by the image block setting unit 410 Contrast emphasis processing is performed on the image data of the attention area (feature block) and its peripheral area in the block.

ステップ214(S214)において、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により得られた注目領域のエッジパターン及び前記注目領域の推定エッジ方向θと、S212においてコントラスト強調が施された注目領域及び周辺領域内の画素値を用いて、エッジパターンと推定エッジ方向θとに対応する算出式(図13、図14)により、3×3画像ブロックに相当する画素値(p0〜p8)を生成する。さらに、高画質画像ブロック生成部430は、生成された画素値(p0〜p8)と推定エッジ方向θとに基づいて選択された参照画素(r0〜r13)を用いて、図16に示す算出式により、注目領域に対する拡大画像ブロックを生成する。   In step 214 (S214), the high-quality image block generation unit 430 performs contrast enhancement in S212, and the edge pattern of the attention area and the estimated edge direction θ of the attention area obtained by the image block feature amount calculation section 420. The pixel values (p0 to p8) corresponding to the 3 × 3 image block are calculated using the calculation formulas (FIGS. 13 and 14) corresponding to the edge pattern and the estimated edge direction θ using the pixel values in the attention area and the peripheral area. ) Is generated. Furthermore, the high-quality image block generation unit 430 uses the reference pixels (r0 to r13) selected based on the generated pixel values (p0 to p8) and the estimated edge direction θ, and the calculation formula illustrated in FIG. Thus, an enlarged image block for the attention area is generated.

ステップ216(S216)において、画像処理装置2は、全ての入力画像データについて、S200からS214までの処理が完了したか否かを判定し、処理が完了していないと判定された場合に、S200の処理に戻り、次の画素ブロックに対する処理を行い、全ての入力画像データについて処理が完了していると判定された場合に、S218の処理に移行する。   In step 216 (S216), the image processing apparatus 2 determines whether or not the processing from S200 to S214 has been completed for all input image data, and if it is determined that the processing has not been completed, S200. Returning to the process, the process for the next pixel block is performed, and if it is determined that the process has been completed for all the input image data, the process proceeds to S218.

ステップ218(S218)において、高速拡大処理部440は、記憶部400に記憶されている入力画像データを、画像毎または数ライン毎に入力し、最近傍補間法により拡大処理を行う。
なお、本例においては、高速拡大処理部440は、高画質画像ブロック生成部430による拡大処理(S200〜S214までの処理)が終了した後に拡大処理を行っているが、高画質画像ブロック生成部430による拡大処理と並行して拡大処理を行ってもよいし、高画質画像ブロック生成部430による拡大処理の前に拡大処理を行ってもよい。
In step 218 (S218), the high-speed enlargement processing unit 440 inputs the input image data stored in the storage unit 400 for each image or every several lines, and performs enlargement processing by the nearest neighbor interpolation method.
In this example, the high-speed enlargement processing unit 440 performs the enlargement process after the enlargement process (the processes from S200 to S214) by the high-quality image block generation unit 430 is completed. The enlargement process may be performed in parallel with the enlargement process by 430, or the enlargement process may be performed before the enlargement process by the high-quality image block generation unit 430.

ステップ220(S220)において、拡大画像生成部450は、S206において算出されたブロック重畳度に基づき、高画質画像ブロック生成部430により生成された拡大画像と、高速拡大処理部440により拡大された拡大画像を統合する。
拡大画像生成部450は、拡大画素の統合方法として、ブロック重畳度が大きい領域に対しては、高画質画像ブロック生成部430により生成された拡大画像の値を出力値とし、ブロック重畳度が小さい領域に対しては、高画質画像ブロック生成部430により生成された拡大画像と高速拡大処理部440により生成された拡大画像とを用いて、式(6)により算出される値を出力値とする。
In step 220 (S220), the enlarged image generation unit 450 uses the enlarged image generated by the high-quality image block generation unit 430 and the enlargement enlarged by the high-speed enlargement processing unit 440 based on the block superimposition degree calculated in S206. Merge images.
As an enlargement pixel integration method, the enlarged image generation unit 450 outputs the value of the enlarged image generated by the high-quality image block generation unit 430 as an output value for an area where the block superposition degree is large, and the block superposition degree is small. For the region, the value calculated by Expression (6) is used as the output value using the enlarged image generated by the high-quality image block generation unit 430 and the enlarged image generated by the high-speed enlargement processing unit 440. .

以上説明したように、本実施形態における画像処理装置2は、注目画素を含む所定の大きさの画像領域の特徴量を算出し、算出された特徴量が所定の条件を満たす画像領域に対して拡大画像領域を生成し、さらに、異なる拡大手法により入力画像の拡大画像を生成し、算出された特徴量が所定の条件を満たす画像領域が重なり合う場合、その重なり数に基づいて、生成された拡大画像領域の生成値を補正し、補正された拡大画像領域と、異なる拡大手法により生成された拡大画像とに基づいて、入力画像に対する拡大画像を生成する。   As described above, the image processing apparatus 2 according to the present embodiment calculates the feature amount of an image region having a predetermined size including the target pixel, and the calculated feature amount satisfies the predetermined condition. When an enlarged image area is generated, and an enlarged image of the input image is generated by a different enlargement method, and image areas where the calculated feature amount satisfies a predetermined condition are overlapped, the generated enlargement is performed based on the number of overlaps. The generation value of the image area is corrected, and an enlarged image for the input image is generated based on the corrected enlarged image area and the enlarged images generated by different enlargement methods.

このような拡大処理によって、本実施形態における画像処理装置2は、高画質拡大処理を特徴的な部分(特徴ブロック)にのみ適用することにより、全体としての処理負荷を抑え、かつ、特徴的な部分について高画質拡大処理を適用するので、特徴的な部分の特徴量を保存して、ボケやジャギーなどの画質欠陥を抑制した高画質な拡大画像を高速に得ることができる。また、本実施形態における画像処理装置2は、エッジの鮮鋭度や滑らかさを保持しながら、エッジ部周辺のアンダーシュートやオーバーシュートといった画質欠陥を抑制することができる。   Through such enlargement processing, the image processing apparatus 2 according to the present embodiment applies the high-quality enlargement processing only to characteristic portions (feature blocks), thereby suppressing the overall processing load and Since the high-quality enlargement process is applied to the portion, the feature amount of the characteristic portion can be stored, and a high-quality enlarged image in which image quality defects such as blur and jaggy are suppressed can be obtained at high speed. Further, the image processing apparatus 2 according to the present embodiment can suppress image quality defects such as undershoot and overshoot around the edge portion while maintaining the sharpness and smoothness of the edge.

本発明にかかる画像処理方法が適応される画像処理装置2のハードウェア構成を、制御装置20を中心に例示する図である。It is a figure which illustrates the hardware constitutions of the image processing apparatus 2 with which the image processing method concerning this invention is applied centering on the control apparatus 20. FIG. 制御装置20により実行され、本発明にかかる画像処理方法を実現する画像拡大プログラム4の機能構成を示す図である。It is a figure which shows the function structure of the image expansion program 4 which is performed by the control apparatus 20 and implement | achieves the image processing method concerning this invention. エッジ強度算出部422において、エッジ強度Gと基準値との比較により特徴ブロックと判定された領域を例示する。The edge strength calculation unit 422 exemplifies a region determined as a feature block by comparing the edge strength G with a reference value. 互いに重なり合う特徴ブロックを例示する。The feature block which mutually overlaps is illustrated. 特徴ブロック同士の重なり数(ブロック重畳度)を例示する。The number of overlaps between feature blocks (block superposition degree) is illustrated. 注目領域及び周辺領域の具体例と、注目領域のエッジ方向の一例の説明図であり、図6(A)は、注目領域及び周辺領域を例示し、図6(B)は、この注目領域について推定されるエッジ方向を例示する図である。FIG. 6A is an explanatory diagram of a specific example of a region of interest and a peripheral region, and an example of an edge direction of the region of interest. FIG. 6A illustrates the region of interest and the peripheral region, and FIG. It is a figure which illustrates the estimated edge direction. エッジ方向推定部424によるエッジ方向推定処理(S10)を示すフローチャートである。It is a flowchart which shows the edge direction estimation process (S10) by the edge direction estimation part 424. FIG. エッジ方向推定処理(S10)のS102の処理において選択される参照領域を例示する図である。It is a figure which illustrates the reference field selected in processing of S102 of edge direction presumption processing (S10). 図6に示した注目領域における推定エッジ方向の一例の説明図である。It is explanatory drawing of an example of the estimated edge direction in the attention area | region shown in FIG. エッジパターン選択部426により用いられるエッジパターンテーブルを例示する図である。It is a figure which illustrates the edge pattern table used by the edge pattern selection part 426. 図10に示した注目領域に対応するエッジパターンの選択方法を説明する図である。It is a figure explaining the selection method of the edge pattern corresponding to the attention area shown in FIG. 高画質画像ブロック生成部430により用いられる強調カーネル432(エッジ強調カーネル)を例示する図である。It is a figure which illustrates the emphasis kernel 432 (edge emphasis kernel) used by the high quality image block generation part 430. 高画質画像ブロック生成部430における拡大画像ブロックの生成処理の具体例の説明図である。It is explanatory drawing of the specific example of the production | generation process of the enlarged image block in the high quality image block production | generation part 430. エッジパターンと推定エッジ方向との組み合わせの場合に用いられる計算式の一例の説明図である。It is explanatory drawing of an example of the calculation formula used in the case of the combination of an edge pattern and an estimated edge direction. 注目領域における推定エッジ方向に基づく参照画素r0〜r13の選択方法の説明図である。It is explanatory drawing of the selection method of the reference pixels r0-r13 based on the estimated edge direction in an attention area. 4×4画素の拡大画像ブロックの生成処理の具体例の説明図である。It is explanatory drawing of the specific example of a production | generation process of the enlarged image block of 4x4 pixel. ブロック重畳度に基づいた判定結果に従う拡大画像ブロック内の画素値補正を具体的に説明する図である。It is a figure which demonstrates concretely pixel value correction | amendment in the enlarged image block according to the determination result based on a block superimposition degree. 画素値補正を具体的に説明した図である。It is a figure explaining pixel value correction concretely. 画像処理装置2の全体動作を示すフローチャート(S20)である。It is a flowchart (S20) which shows the whole operation | movement of the image processing apparatus 2.

符号の説明Explanation of symbols

2・・・画像処理装置
10・・・プリンタ装置
20・・・制御装置
202・・・CPU
204・・・メモリ
22・・・通信装置
24・・・記憶装置
26・・・UI装置
4・・・画像拡大プログラム
400・・・記憶部
410・・・画像ブロック設定部
420・・・画像ブロック特徴量算出部
422・・・エッジ強度算出部
424・・・エッジ方向推定部
426・・・エッジパターン選択部
430・・・高画質画像ブロック生成部
432a、432b・・・強調カーネル
434・・・エッジ方向推定部
440・・・高速拡大処理部
450・・・拡大画像生成部
452・・・ブロック重畳度判定部
454・・・出力値補正部
2 ... Image processing device 10 ... Printer device 20 ... Control device 202 ... CPU
204 ... Memory 22 ... Communication device 24 ... Storage device 26 ... UI device 4 ... Image enlargement program 400 ... Storage unit 410 ... Image block setting unit 420 ... Image block Feature amount calculation unit 422 ... Edge strength calculation unit 424 ... Edge direction estimation unit 426 ... Edge pattern selection unit 430 ... High quality image block generation unit 432a, 432b ... Enhancement kernel 434 ... Edge direction estimation unit 440 ... high-speed enlargement processing unit 450 ... enlarged image generation unit 452 ... block superposition degree determination unit 454 ... output value correction unit

Claims (14)

入力画像の拡大処理を行う画像処理装置であって、
設定される注目領域が他の注目領域と重畳するように、入力画像に対する既定の大きさの注目領域を順次設定する領域設定手段と、
前記領域設定手段により設定された注目領域の特徴量として、注目領域内の画素値の変化量からエッジ強度を算出する領域特徴量算出手段と、
前記領域設定手段による注目領域の設定において重畳した部分について、該重畳した部分を含む注目領域のうち前記領域特徴量算出手段により算出されたエッジ強度が基準値以上である注目領域の数が、2以上である既定値以上である場合は該重畳した部分をエッジ部と判定し、該注目領域の数が1以上かつ既定値未満である場合は該重畳した部分をエッジ周辺部と判定する判定手段と、
前記領域特徴量算出手段により算出されたエッジ強度が基準値以上の注目領域に対して、該注目領域に対応する拡大画像領域を、該注目領域のエッジを保つ拡大手法を用いて生成する拡大画像領域生成手段と、
前記拡大画像領域生成手段で用いる拡大手法よりも処理負荷の小さい別の拡大手法を適用して、入力画像の拡大画像を生成する拡大処理手段と、
前記判定手段によりエッジ周辺部と判定された部分については、前記拡大処理手段により生成された該部分に対応する生成値である第1の生成値を用いて、前記拡大画像領域生成手段により生成された拡大画像領域の該部分に対応する生成値である第2の生成値を補正して、該第1の生成値と補正前の第2の生成値との間の値となるようにする補正手段と、
前記補正手段により補正がなされた拡大画像領域と、前記判定手段によりエッジ部と判定された部分の前記拡大画像領域生成手段により生成された拡大画像領域と、前記拡大処理手段により生成された拡大画像と、を統合して、入力画像に対する拡大画像を生成する拡大画像生成手段と
を有する画像処理装置。
An image processing apparatus for enlarging an input image,
An area setting means for sequentially setting an attention area of a predetermined size for the input image so that the attention area to be set overlaps with other attention areas;
Area feature amount calculating means for calculating edge strength from the amount of change in the pixel value in the attention area as the feature amount of the attention area set by the area setting means ;
Regarding the overlapped portion in the setting of the attention region by the region setting means, the number of attention regions whose edge intensity calculated by the region feature amount calculation means is equal to or greater than a reference value among the attention regions including the overlapped portion is 2 A determination means for determining the overlapped portion as an edge portion when the value is equal to or greater than the predetermined value, and determining the overlapped portion as an edge peripheral portion when the number of the attention regions is 1 or more and less than the predetermined value When,
An enlarged image that generates an enlarged image region corresponding to the region of interest for the region of interest whose edge intensity calculated by the region feature quantity calculating means is equal to or greater than a reference value by using an enlargement method that maintains the edge of the region of interest. Region generation means;
Applying another enlargement method having a smaller processing load than the enlargement method used in the enlarged image region generation unit , and generating an enlarged image of the input image;
The portion determined as the edge peripheral portion by the determination unit is generated by the enlarged image region generation unit using a first generation value that is a generation value corresponding to the portion generated by the enlargement processing unit. Correction that corrects the second generation value, which is the generation value corresponding to the portion of the enlarged image region, to be a value between the first generation value and the second generation value before correction Means,
The enlarged image region corrected by the correcting unit, the enlarged image region generated by the enlarged image region generating unit at the portion determined as the edge by the determining unit, and the enlarged image generated by the expanding processing unit And an enlarged image generating means for generating an enlarged image for the input image.
前記拡大画像領域生成手段は、注目領域の階調変化方向と、該注目領域の近傍領域の階調変化方向と、既定の画素値パターンと、該近傍領域内の画素値とを用いて、拡大画像領域を生成する
請求項1に記載の画像処理装置。
The enlarged image area generation means uses the gradation change direction of the region of interest, the gradation change direction in the vicinity region of the noted region, and the default pixel value pattern, and a pixel value of the neighboring region, expanding The image processing device according to claim 1, wherein an image region is generated.
前記拡大画像領域生成手段は、階調変化を強調するエッジ強調処理を拡大率に応じて行って、画像領域内の画素値を補正し、補正された画素値を用いて拡大画像領域を生成する
請求項1に記載の画像処理装置。
The enlarged image area generating means performs edge enhancement processing for enhancing gradation changes in accordance with an enlargement ratio, corrects pixel values in the image area, and generates an enlarged image area using the corrected pixel values. The image processing apparatus according to claim 1.
前記拡大画像領域生成手段は、注目領域の階調変化方向に応じて、注目領域の近傍領域内の画素値を選択し、選択された画素値を用いて拡大画像領域を生成する
請求項に記載の画像処理装置。
The enlarged image area generation unit in accordance with the gradation change direction of the target region, selects the pixel value of the neighboring region of the region of interest, to claim 1 for generating an enlarged image area by using the selected pixel values The image processing apparatus described.
前記拡大画像領域生成手段は、注目領域の階調変化方向と既定の画素値パターンとの組み合わせから一意に決定される計算式を適用し、拡大画像領域を生成する
請求項1に記載の画像処理装置。
2. The image processing according to claim 1, wherein the enlarged image area generation unit generates an enlarged image area by applying a calculation formula uniquely determined from a combination of a gradation change direction of a region of interest and a predetermined pixel value pattern. apparatus.
前記拡大処理手段は、少なくとも最近傍補間法に基づいた拡大手法を適用する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the enlargement processing unit applies an enlargement method based on at least a nearest neighbor interpolation method.
前記拡大処理手段は、少なくとも線形補間法に基づいた拡大手法を適用する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the enlargement processing unit applies an enlargement method based on at least a linear interpolation method.
前記拡大処理手段は、入力画像毎あるいは入力画像中の数ライン毎に、拡大画像を生成する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the enlargement processing unit generates an enlarged image for each input image or for every several lines in the input image.
前記拡大画像生成手段は、拡大画像領域を、前記拡大処理手段により生成された拡大画像上の対応する位置に配置して統合する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the enlarged image generation unit arranges and integrates the enlarged image region at a corresponding position on the enlarged image generated by the enlargement processing unit.
前記補正手段は、前記第1の生成値と、補正前の前記第2の生成値とを、所定の割合で線形和した値を用いて補正する
請求項に記載の画像処理装置。
It said correction means, wherein a first generation values before correction of the a second generation value, the image processing apparatus according to claim 1 which is corrected using a value obtained by linear sum in a predetermined ratio.
前記判定手段によりエッジ周辺部と判定された部分にて重畳する注目領域のうち前記領域特徴量算出手段により算出されたエッジ強度が基準値以上である注目領域の数に応じて、線形和の割合を決定する
請求項10に記載の画像処理装置。
The ratio of the linear sum according to the number of regions of interest whose edge strength calculated by the region feature amount calculation unit is equal to or greater than a reference value among the regions of interest to be overlapped in the portion determined as the edge peripheral portion by the determination unit The image processing apparatus according to claim 10 .
前記拡大画像生成手段は、前記拡大画像領域生成手段により生成された拡大画像領域で、エッジ部及びエッジ周辺部のいずれにも対応しない画像部分には、前記拡大処理手段により生成された拡大画像上の対応する位置の画素値を用いる
請求項に記載の画像処理装置。
The enlarged image generating means includes an enlarged image area generated by the enlarged image area generating means, and an image portion that does not correspond to either an edge portion or an edge peripheral portion on the enlarged image generated by the enlargement processing means. The image processing apparatus according to claim 1 , wherein a pixel value at a position corresponding to is used.
入力画像の拡大処理を行う画像処理方法であって、
設定される注目領域が他の注目領域と重畳するように、入力画像に対する既定の大きさの注目領域を順次設定し、
設定された注目領域の特徴量として、注目領域内の画素値の変化量からエッジ強度を算出し、
注目領域の設定において重畳した部分について、該重畳した部分を含む注目領域のうち算出されたエッジ強度が基準値以上である注目領域の数が、2以上である既定値以上である場合は該重畳した部分をエッジ部と判定し、該注目領域の数が1以上かつ既定値未満である場合は該重畳した部分をエッジ周辺部と判定し、
算出されたエッジ強度が基準値以上の注目領域に対して、該注目領域に対応する拡大画像領域を、該注目領域のエッジを保つ拡大手法を用いて生成し、
拡大画像領域の生成で用いる拡大手法よりも処理負荷の小さい別の拡大手法を適用して、入力画像の拡大画像を生成し、
エッジ周辺部と判定された部分については、生成された拡大画像における該部分に対応する生成値である第1の生成値を用いて、生成された拡大画像領域の該部分に対応する生成値である第2の生成値を補正して、該第1の生成値と補正前の第2の生成値との間の値となるようにし、
補正がなされた拡大画像領域と、エッジ部と判定された部分の生成された拡大画像領域と、生成された拡大画像と、を統合して、入力画像に対する拡大画像を生成する
画像処理方法。
An image processing method for enlarging an input image,
Set attention areas of default size for the input image sequentially so that the attention area to be set overlaps with other attention areas,
The edge strength is calculated from the amount of change of the pixel value in the attention area as the feature amount of the attention area that has been set,
For the overlapped part in the attention area setting, if the number of attention areas whose calculated edge strength is equal to or greater than a reference value among the attention areas including the overlapped part is equal to or greater than a predetermined value that is equal to or greater than 2, the overlap is performed. The determined portion is determined as an edge portion, and when the number of the attention areas is 1 or more and less than a predetermined value, the overlapped portion is determined as an edge peripheral portion,
For an attention area whose calculated edge strength is equal to or greater than a reference value, an enlarged image area corresponding to the attention area is generated using an enlargement method that keeps an edge of the attention area ,
Applying another enlargement method that has a lower processing load than the enlargement method used to generate the enlarged image region, generates an enlarged image of the input image,
The determination portion and the edge peripheral portion, using the first generation value is generated values corresponding to partial in the generated enlarged image, the generated values corresponding to the partial of the generated enlarged image area A certain second generation value is corrected so as to be a value between the first generation value and the second generation value before correction;
An image processing method for generating an enlarged image for an input image by integrating a corrected enlarged image region, an enlarged image region in which a portion determined to be an edge portion is generated, and the generated enlarged image.
コンピュータを含み、入力画像の拡大処理を行う画像処理装置において、
設定される注目領域が他の注目領域と重畳するように、入力画像に対する既定の大きさの注目領域を順次設定する領域設定ステップと、
設定された注目領域の特徴量として、注目領域内の画素値の変化量からエッジ強度を算出する領域特徴量算出ステップと、
注目領域の設定において重畳した部分について、該重畳した部分を含む注目領域のうち算出されたエッジ強度が基準値以上である注目領域の数が、2以上である既定値以上である場合は該重畳した部分をエッジ部と判定し、該注目領域の数が1以上かつ既定値未満である場合は該重畳した部分をエッジ周辺部と判定する判定ステップと、
算出されたエッジ強度が基準値以上の注目領域に対して、該注目領域に対応する拡大画像領域を、該注目領域のエッジを保つ拡大手法を用いて生成する拡大画像領域生成ステップと、
拡大画像領域の生成で用いる拡大手法よりも処理負荷の小さい別の拡大手法を適用して、入力画像の拡大画像を生成する拡大処理ステップと、
エッジ周辺部と判定された部分については、生成された拡大画像における該部分に対応する生成値である第1の生成値を用いて、生成された拡大画像領域の該部分に対応する生成値である第2の生成値を補正して、該第1の生成値と補正前の第2の生成値との間の値となるようにする補正ステップと、
補正がなされた拡大画像領域と、エッジ部と判定された部分の生成された拡大画像領域と、生成された拡大画像と、を統合して、入力画像に対する拡大画像を生成する拡大画像生成ステップと
を前記画像処理装置のコンピュータに実行させるプログラム。
In an image processing apparatus that includes a computer and performs an enlargement process of an input image,
An area setting step for sequentially setting an attention area of a predetermined size for the input image so that the attention area to be set overlaps with other attention areas;
As the feature quantity of the set region of interest, the region feature calculation step of calculating an edge strength from the amount of change in pixel value in the target region,
For the overlapped part in the attention area setting, if the number of attention areas whose calculated edge strength is equal to or greater than a reference value among the attention areas including the overlapped part is equal to or greater than a predetermined value that is equal to or greater than 2, the overlap is performed. A determination step of determining the overlapped portion as an edge portion, and determining the overlapped portion as an edge peripheral portion when the number of the attention regions is 1 or more and less than a predetermined value;
An enlarged image region generation step for generating an enlarged image region corresponding to the attention region with respect to the attention region whose calculated edge strength is equal to or greater than a reference value , using an enlargement method that keeps the edge of the attention region ;
Applying another enlargement method that has a smaller processing load than the enlargement method used for generating the enlarged image region, and generating an enlarged image of the input image; and
The determination portion and the edge peripheral portion, using the first generation value is generated values corresponding to partial in the generated enlarged image, the generated values corresponding to the partial of the generated enlarged image area A correction step of correcting a second generated value to be a value between the first generated value and the second generated value before correction;
An enlarged image generation step of integrating the corrected enlarged image area, the enlarged image area in which the portion determined to be an edge portion is generated, and the generated enlarged image to generate an enlarged image for the input image; For causing the computer of the image processing apparatus to execute.
JP2005169011A 2005-06-09 2005-06-09 Image processing apparatus, image processing method, and program thereof Expired - Fee Related JP4716255B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005169011A JP4716255B2 (en) 2005-06-09 2005-06-09 Image processing apparatus, image processing method, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005169011A JP4716255B2 (en) 2005-06-09 2005-06-09 Image processing apparatus, image processing method, and program thereof

Publications (2)

Publication Number Publication Date
JP2006344002A JP2006344002A (en) 2006-12-21
JP4716255B2 true JP4716255B2 (en) 2011-07-06

Family

ID=37640929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005169011A Expired - Fee Related JP4716255B2 (en) 2005-06-09 2005-06-09 Image processing apparatus, image processing method, and program thereof

Country Status (1)

Country Link
JP (1) JP4716255B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4510069B2 (en) * 2007-12-10 2010-07-21 シャープ株式会社 Image processing apparatus, image display apparatus, image forming apparatus, image processing method, computer program, and storage medium
JP4698709B2 (en) * 2008-08-28 2011-06-08 シャープ株式会社 Data creation device, data creation method, data creation program, drawing device, drawing method, drawing program, and computer-readable recording medium
JP4703695B2 (en) * 2008-08-28 2011-06-15 シャープ株式会社 Data creation device, data creation method, data creation program, drawing device, drawing method, and drawing program
JP2010257179A (en) 2009-04-24 2010-11-11 Fuji Xerox Co Ltd Image processing apparatus and image processing program
KR101595547B1 (en) * 2010-11-20 2016-02-18 주식회사 고영테크놀러지 Inspection method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005123813A (en) * 2003-10-15 2005-05-12 Fuji Xerox Co Ltd Image processing apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005123813A (en) * 2003-10-15 2005-05-12 Fuji Xerox Co Ltd Image processing apparatus

Also Published As

Publication number Publication date
JP2006344002A (en) 2006-12-21

Similar Documents

Publication Publication Date Title
JP3915563B2 (en) Image processing apparatus and image processing program
EP2138975B1 (en) Apparatus, method and computer-readable recording medium for pixel interpolation
JP4716255B2 (en) Image processing apparatus, image processing method, and program thereof
JP4507279B2 (en) Image processing apparatus, image processing method, and program thereof
CN109993693B (en) Method and apparatus for interpolating an image
JP2000339449A (en) Picture processor and picture processing method
JP4126541B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
JP4730525B2 (en) Image processing apparatus and program thereof
JP4857975B2 (en) Image processing system and image processing program
JP2006050481A (en) Image processing apparatus, image processing method and program thereof
JP4265363B2 (en) Image processing device
JP6444049B2 (en) Image processing apparatus, method, and program
JP2006252108A (en) Image processing device, image processing method, and its program
US9584699B2 (en) Image processing apparatus, image processing method and computer-readable storage medium with improved character display
JP5013243B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium recording the same
KR100587979B1 (en) Interpolation method for image enlargement based on edge and corner
JP4736121B2 (en) Image analysis apparatus, image processing apparatus, image analysis method, image analysis program, and recording medium recording the same
JP3491829B2 (en) Image processing apparatus and image processing method
JP2006050480A (en) Image processing apparatus, image processing method and program thereof
JP4879084B2 (en) Image processing device
JP4517288B2 (en) Image processing apparatus, image processing method, and program thereof
JP2006252107A (en) Image processing device, image processing method, and its program
JP3624153B2 (en) Image processing apparatus and image processing method
JP4517287B2 (en) Image processing apparatus, image processing method, and program thereof
JP2015106318A (en) Image processor and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110307

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110320

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140408

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees