JP4730525B2 - Image processing apparatus and program thereof - Google Patents

Image processing apparatus and program thereof Download PDF

Info

Publication number
JP4730525B2
JP4730525B2 JP2005172039A JP2005172039A JP4730525B2 JP 4730525 B2 JP4730525 B2 JP 4730525B2 JP 2005172039 A JP2005172039 A JP 2005172039A JP 2005172039 A JP2005172039 A JP 2005172039A JP 4730525 B2 JP4730525 B2 JP 4730525B2
Authority
JP
Japan
Prior art keywords
image
image area
enlarged
enlarged image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005172039A
Other languages
Japanese (ja)
Other versions
JP2006350413A (en
Inventor
聡 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2005172039A priority Critical patent/JP4730525B2/en
Publication of JP2006350413A publication Critical patent/JP2006350413A/en
Application granted granted Critical
Publication of JP4730525B2 publication Critical patent/JP4730525B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Record Information Processing For Printing (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Description

本発明は、カラーを含む多階調で表現された画像を拡大する画像処理装置に関する。   The present invention relates to an image processing apparatus for enlarging an image expressed in multiple gradations including color.

画像の拡大処理は、画像の編集やファイリング、表示、印刷などを行うシステムにとって、基本的な処理の一つである。また近年、インターネットのホームページ上の画像やデジタルビデオなどのディスプレイ解像度での表示を主目的とした画像データなどの普及により、これらの低解像度画像を高解像度のプリンタなどで印刷することも頻繁に行われている。このプリンタによる印刷の際に、高画質の出力結果を得ることが望まれており、高画質の拡大処理に対する重要度が高まっている。   The image enlargement process is one of the basic processes for a system that performs image editing, filing, display, printing, and the like. In recent years, with the widespread use of image data mainly for display at display resolutions such as images on the Internet homepage and digital video, these low-resolution images are frequently printed by high-resolution printers. It has been broken. At the time of printing with this printer, it is desired to obtain a high-quality output result, and the importance of the high-quality enlargement process is increasing.

カラーを含む多階調で表現された画像(以下では、これを多値画像と称する)を拡大処理する既存の代表的な手法としては、最近傍法や線形補間法、キュービック・コンボリューション法などがある。最近傍法は、拡大後の各画素値として、その画素を原画像上に逆写像した際に最も距離が近い画素の画素値を使う方法である。この方法は、演算量が少ないため、高速に処理することができる。しかし、原画像の1画素がそのまま矩形形状に拡大されるため、隣り合う画素の画素値の差が小さい場合は、画質劣化の程度は小さくほとんど影響はないが、逆に大きい場合などは、斜線部やエッジ部のジャギーが目立ったり、倍率が大きい場合には、画像がモザイク状になるなど、画質劣化の程度は大きい。   Typical existing methods for enlarging images expressed in multi-tones including color (hereinafter referred to as multi-valued images) include nearest neighbor method, linear interpolation method, cubic convolution method, etc. There is. The nearest neighbor method is a method in which the pixel value of the pixel having the closest distance is used as each enlarged pixel value when the pixel is reversely mapped on the original image. Since this method has a small amount of calculation, it can be processed at high speed. However, since one pixel of the original image is directly expanded into a rectangular shape, if the difference between the pixel values of adjacent pixels is small, the degree of image quality degradation is small and has almost no effect. When the jagged edges and edge portions are conspicuous or the magnification is large, the degree of image quality deterioration is large, such as a mosaic image.

線形補間法は、画素間の画素値が直線的に変化していると仮定し、拡大後の画素を逆写像した点の近傍4画素の画素値を線形に補間して画素値を求める方法である。この方法では、最近傍法よりも処理は重いが、演算量は比較的少なく、ジャギーなども発生しにくい。その一方で、直線的に変化しているという仮定に当てはまらないエッジ部分を中心に、画像全体がボケ気味になるという欠点がある。   In the linear interpolation method, it is assumed that pixel values between pixels change linearly, and pixel values of four pixels in the vicinity of a point obtained by inversely mapping the enlarged pixel are linearly interpolated to obtain a pixel value. is there. Although this method is heavier than the nearest neighbor method, the amount of calculation is relatively small and jaggies are not easily generated. On the other hand, there is a drawback that the entire image becomes blurred, centering on the edge portion that does not apply to the assumption that it changes linearly.

キュービック・コンボリューション法は、標本化定理に基づいてsinc関数(sin(x)/x)を近似した補間関数を定義し、拡大後の画素を逆写像した点の近傍16画素(X、Y方向それぞれ4画素)と前記の近似補間関数との畳み込み演算により、拡大後の画素値を求める方法である。この方法では、前記2つの手法に比べて画質は比較的良いが、参照範囲が大きく、演算量が多いという欠点がある。また、高域が強調気味となる特性を持つため、エッジ部分で軽いジャギーが発生したり、ノイズ成分が強調されてしまうなどの欠点もある。   The cubic convolution method defines an interpolation function that approximates a sinc function (sin (x) / x) based on the sampling theorem, and 16 pixels in the vicinity of a point obtained by inversely mapping the enlarged pixel (X and Y directions) This is a method for obtaining an enlarged pixel value by a convolution operation of each of 4 pixels) and the approximate interpolation function. This method has relatively good image quality compared to the above two methods, but has a drawback that the reference range is large and the amount of calculation is large. In addition, since the high frequency band is emphasized, there are disadvantages such as light jaggies occurring at the edge and noise components being emphasized.

これら拡大画像の画質問題を解決する試みとして、例えば、特許文献1、特許文献2などの新規方式が提案されている。
特許文献1に記載されている技術は、原画像の変化度合いの検出法として、エッジ検出フィルタによるエッジ検出を行い、そのエッジ検出結果に基づいてエッジ画素を定義する。そして、この方法は、エッジ画素と判断された場合には、キュービック・コンボリューション法の3次関数形状を調整したM−キュービック法で拡大を行い、そうでない場合には、最近傍法で拡大する。しかし、変化度合いの大きいエッジ部分を、キュービック・コンボリューション法の3次関数形状よりもエッジを強調するように調整したM−キュービック法で行うので、エッジ部でジャギーが発生したり、エッジ部周辺のオーバーシュートあるいはアンダーシュートが増大するという欠点がある。
As an attempt to solve the image quality problem of these enlarged images, for example, new systems such as Patent Document 1 and Patent Document 2 have been proposed.
The technique described in Patent Document 1 performs edge detection using an edge detection filter as a method for detecting the degree of change in an original image, and defines edge pixels based on the edge detection result. When this method is determined to be an edge pixel, enlargement is performed by the M-cubic method in which the cubic function shape of the cubic convolution method is adjusted. Otherwise, enlargement is performed by the nearest neighbor method. . However, since the edge portion having a large degree of change is performed by the M-cubic method adjusted so that the edge is emphasized rather than the cubic function shape of the cubic convolution method, jaggies are generated at the edge portion or the periphery of the edge portion. There is a disadvantage that the overshoot or undershoot increases.

特許文献2に記載されている技術は、人物の肌や、風景における空など、シャープネス強度を上げるとザラツキが目立つ部分に関しては、バイリニア補間を、その他のシャープネスが必要な部分にはM-キュービック補間を用いて、画像を拡大する。しかし、特許文献2に記載されている技術もまた、シャープネスが必要な部分に対して、上述した特許文献1と同様に、M-キュービック法で補間を行うので、エッジ部のジャギーの発生や、さらにエッジ部周辺のオーバーシュート、アンダーシュートが発生すると考えられる。   The technique described in Patent Document 2 uses bilinear interpolation for areas where roughness is noticeable when the sharpness intensity is increased, such as human skin or the sky in a landscape, and M-cubic interpolation for other areas where sharpness is required. Use to enlarge the image. However, since the technique described in Patent Document 2 also performs interpolation using the M-cubic method for the portion that requires sharpness in the same manner as Patent Document 1 described above, Furthermore, it is considered that overshoot and undershoot around the edge portion occur.

特開2000−188681号公報JP 2000-188681 A 特許第2000−151990号公報Japanese Patent No. 2000-151990

本発明は、上述した背景からなされたものであり、カラーを含む多階調で表現された画像を、高画質に、かつ軽い処理負荷で高速に拡大する画像処理装置を提供することを目的とする。   The present invention has been made from the above-described background, and an object thereof is to provide an image processing apparatus that enlarges an image expressed in multiple gradations including color with high image quality and at a high speed with a light processing load. To do.

上記目的を達成するために、本発明にかかる画像処理装置は、入力画像の拡大処理を行う画像処理装置であって、注目画素を含む所定の大きさの画像領域について算出した特徴量が既定の基準値以上である画像領域について、該画像領域内の各画素が有する色要素間の関係が同じである場合は該画像領域を同色ブロックと判定し、該画像領域内の各画素が有する色要素間の関係が異なる場合は該画像領域を境界ブロックと判定する画像領域判定手段と、前記画像領域判定手段により同色ブロックと判定された画像領域について、該画像領域内の階調変化方向および既定の画素値パターンに対応する第1の演算式を適用して画素値を算出することにより、該画像領域に対応する拡大画像領域を生成する第1の拡大画像領域生成手段と、前記第1の拡大画像領域生成手段で用いる拡大手法よりも画像領域のエッジを際立たせるように、前記画像領域判定手段により境界ブロックと判定された画像領域について、該画像領域内の階調変化方向及び既定の画素値パターンに応じた画素位置について前記第1の演算式を変更した第2の演算式を適用して画素値を算出することにより、該画像領域に対応する拡大画像領域を生成する第2の拡大画像領域生成手段とを有する。
In order to achieve the above object, an image processing apparatus according to the present invention is an image processing apparatus that performs an enlargement process of an input image, and a feature amount calculated for an image region of a predetermined size including a target pixel is a predetermined amount For an image area that is equal to or greater than a reference value, if the relationship between the color elements of each pixel in the image area is the same, the image area is determined to be the same color block, and the color element that each pixel in the image area has If the relationship is different to the image area and the boundary block and determining an image area determination means between, with the image area determined as the same color block by the image area determination unit, the gradation change direction and default of the image area A first enlarged image region generating means for generating an enlarged image region corresponding to the image region by calculating a pixel value by applying a first arithmetic expression corresponding to the pixel value pattern ; In order to make the edge of the image area stand out from the enlargement method used in the enlarged image area generation means, the gradation change direction and the predetermined pixels in the image area are determined for the image area determined as the boundary block by the image area determination means. A second enlargement that generates an enlarged image area corresponding to the image area by calculating a pixel value by applying a second arithmetic expression obtained by changing the first arithmetic expression for the pixel position according to the value pattern Image region generating means.

好適には、前記画像領域判定手段は、画像領域内の各画素値に基づいて算出された画像領域における階調変化量を画像領域の特徴量として、該特徴量が既定の基準値以上である画像領域を判定の対象とする
好適には、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段は、画像領域内の各画素値から算出された画像領域における階調変化方向に基づいて拡大画像領域を生成する
Preferably, the image area determination means uses a gradation change amount in the image area calculated based on each pixel value in the image area as a feature quantity of the image area, and the feature quantity is equal to or greater than a predetermined reference value. The image area is the object of determination .
Preferably, the first enlarged image area generation unit and the second enlarged image area generation unit generate an enlarged image area based on a gradation change direction in the image area calculated from each pixel value in the image area. Generate .

好適には、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段は、画像領域内の各画素値から算出された画像領域における階調変化に対応する既定の画素値パターンに基づいて拡大画像領域を生成する
好適には、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段は、色空間における複数の色成分のうち、該色成分それぞれについて算出した特徴量に基づき選択された1つの色成分からさらに算出した特徴量に基づいて拡大画像領域を生成する
Preferably, the first enlarged image region generating unit and the second enlarged image region generating unit are configured to use a predetermined pixel value pattern corresponding to a gradation change in the image region calculated from each pixel value in the image region. An enlarged image area is generated based on
Preferably, the first enlarged image area generation unit and said second enlarged image area generation unit, among the plurality of color components in a color space, based-out is selected in the feature amount calculated for each of the color components An enlarged image region is generated based on the feature amount further calculated from the one color component.

好適には、前記画像領域判定手段は、画像領域内の各画素の色成分値それぞれの大小関係により、画像領域を判定する。
Preferably, the image area determination means determines the image area based on the magnitude relationship between the color component values of each pixel in the image area.

好適には、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段は、画像領域の特徴量と、画像領域の近傍領域の特徴量と、近傍領域内の画素値とを用いて、拡大画像領域を生成する。
好適には、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段は、階調変化を強調するエッジ強調処理を拡大率に応じて行って、画像領域内の画素値を補正し、補正された画素値を用いて拡大画像領域を生成する。
好適には、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段は、階調変化方向に応じて、画像領域の近傍領域内の画素値を選択し、選択された画素値を用いて拡大画像領域を生成する。
Preferably, the first enlarged image area generation unit and said second enlarged image area generation means, the feature amount of the image area, and the characteristic quantity of the neighborhood area of the image area, the pixel values of the neighboring region Are used to generate an enlarged image region.
Preferably, the first enlarged image region generating unit and the second enlarged image region generating unit perform edge enhancement processing for emphasizing a change in gradation according to an enlargement ratio, and calculate a pixel value in the image region. Correction is performed, and an enlarged image region is generated using the corrected pixel value.
Preferably, the first enlarged image region generation unit and the second enlarged image region generation unit select a pixel value in the vicinity region of the image region according to a gradation change direction, and the selected pixel An enlarged image area is generated using the value.

好適には、前記第2の拡大画像領域生成手段は、画像領域について算出された特徴量に基づいて、拡大画像領域内の画素を選択し、既定の演算法を用いて、選択された画素の画素値を補正する。
Preferably, the second enlarged image region generation unit selects a pixel in the enlarged image region based on the feature amount calculated for the image region, and uses a predetermined calculation method to select the selected pixel. Correct the pixel value.

好適には、前記拡大処理手段は、少なくとも最近傍補間法に基づいた拡大手法を適用する。
好適には、前記拡大処理手段は、少なくとも線形補間法に基づいた拡大手法を適用する。
好適には、前記拡大処理手段は、入力画像毎あるいは入力画像中の数ライン毎に、拡大画像を生成する。
Preferably, the enlargement processing unit applies an enlargement method based on at least a nearest neighbor interpolation method.
Preferably, the enlargement processing unit applies an enlargement method based on at least a linear interpolation method.
Preferably, the enlargement processing unit generates an enlarged image for each input image or for every several lines in the input image.

また、好適には、前記拡大画像生成手段は、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段により生成された拡大画像領域を、前記拡大処理手段により生成された拡大画像の対応する位置に配置する。
また、好適には、前記拡大画像生成手段は、前記拡大処理手段により生成された拡大画像上の各画素値を、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段により生成された拡大画像領域の各画素値に置換する。
さらに、好適には、前記拡大画像生成手段は、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段により生成される複数の拡大画像領域が互いに重なり合う場合に、これらの拡大画像領域の重畳部分について、同一画素に対応する複数の画素値の平均値を算出する。
Preferably, the enlarged image generating means generates the enlarged image area generated by the first enlarged image area generating means and the second enlarged image area generating means by the enlarged processing means. Place it at the corresponding position in the image.
Preferably, the enlarged image generating means converts each pixel value on the enlarged image generated by the enlargement processing means to the first enlarged image area generating means and the second enlarged image area generating means. Replace with each pixel value of the generated enlarged image area.
Furthermore, it is preferable that the enlarged image generation unit enlarges the enlarged image regions generated by the first enlarged image region generation unit and the second enlarged image region generation unit when they overlap each other. An average value of a plurality of pixel values corresponding to the same pixel is calculated for the overlapping portion of the image area.

また、本発明にかかるプログラムは、コンピュータを含み、入力画像の拡大処理を行う画像処理装置において、注目画素を含む所定の大きさの画像領域について算出した特徴量が既定の基準値以上である画像領域について、該画像領域内の各画素が有する色要素間の関係が同じである場合は該画像領域を同色ブロックと判定し、該画像領域内の各画素が有する色要素間の関係が異なる場合は該画像領域を境界ブロックと判定する画像領域判定ステップと、同色ブロックと判定された画像領域について、該画像領域内の階調変化方向および既定の画素値パターンに対応する第1の演算式を適用して画素値を算出することにより、該画像領域に対応する拡大画像領域を生成する第1の拡大画像領域生成ステップと、前記第1の拡大画像領域生成ステップで用いる拡大手法よりも画像領域のエッジを際立たせるように、境界ブロックと判定された画像領域について、該画像領域内の階調変化方向及び既定の画素値パターンに応じた画素位置について前記第1の演算式を変更した第2の演算式を適用して画素値を算出することにより、該画像領域に対応する拡大画像領域を生成する第2の拡大画像領域生成ステップとを前記画像処理装置のコンピュータに実行させる。


In addition, the program according to the present invention includes an image processing apparatus that includes a computer and performs an enlargement process of an input image. When the relationship between the color elements possessed by each pixel in the image region is the same for the region, the image region is determined as the same color block, and the relationship between the color elements possessed by each pixel in the image region is different an image area determining step of determining the boundary block the image area with the image area determined as the same color block, a first operational expression corresponding to the gradation change direction and default pixel value pattern of the image areas To calculate a pixel value, thereby generating a first enlarged image region generating step for generating an enlarged image region corresponding to the image region, and the first enlarged image region generating step. In order to make the edge of the image area stand out more than the enlargement method used in the image area, for the image area determined as the boundary block, the pixel position corresponding to the gradation change direction in the image area and the predetermined pixel value pattern A second enlarged image region generating step of generating an enlarged image region corresponding to the image region by calculating a pixel value by applying a second arithmetic equation obtained by changing the first arithmetic equation; Let the computer of the device execute.


本発明の画像処理装置によれば、カラーを含む多階調で表現された画像を、高画質に、かつ軽い処理負荷で高速に拡大できる。   According to the image processing apparatus of the present invention, an image expressed in multiple gradations including color can be enlarged at high speed with high image quality and a light processing load.

[ハードウェア構成]
本実施形態における画像処理装置2のハードウェア構成を説明する。
図1は、本発明にかかる画像処理方法が適応される画像処理装置2のハードウェア構成を、制御装置20を中心に例示する図である。
図1に例示するように、画像処理装置2は、CPU202及びメモリ204などを含む制御装置20、通信装置22、HDD・CD装置などの記憶装置24、並びに、LCD表示装置あるいはCRT表示装置及びキーボード・タッチパネルなどを含むユーザインターフェース装置(UI装置)26を有する。
画像処理装置2は、例えば、画像拡大プログラム4(図2を参照して後述)がインストールされた汎用コンピュータであり、通信装置22又は記憶装置24などを介して画像データを取得し、取得された画像データを出力解像度に応じて拡大する。例えば、画像処理装置2は、プリンタ装置10に対して画像データを出力する場合には、600dpi又は2400dpiなどの解像度に変換し、UI装置26に対して画像データを出力する場合には、75dpiなどの解像度に変換する。
[Hardware configuration]
A hardware configuration of the image processing apparatus 2 in the present embodiment will be described.
FIG. 1 is a diagram illustrating a hardware configuration of an image processing apparatus 2 to which an image processing method according to the present invention is applied, centering on a control apparatus 20.
As illustrated in FIG. 1, the image processing apparatus 2 includes a control device 20 including a CPU 202 and a memory 204, a communication device 22, a storage device 24 such as an HDD / CD device, an LCD display device or a CRT display device, and a keyboard. A user interface device (UI device) 26 including a touch panel and the like is included.
The image processing apparatus 2 is, for example, a general-purpose computer in which an image enlargement program 4 (described later with reference to FIG. 2) is installed. The image processing apparatus 2 acquires image data via the communication device 22 or the storage device 24. Enlarge the image data according to the output resolution. For example, the image processing apparatus 2 converts the resolution to 600 dpi or 2400 dpi when outputting image data to the printer apparatus 10, and 75 dpi or the like when outputting image data to the UI apparatus 26. Convert to the resolution.

[画像拡大プログラム]
図2は、制御装置20(図1)により実行され、本発明にかかる画像処理方法を実現する画像拡大プログラム4の機能構成を示す図である。
図2に示すように、画像拡大プログラム4は、記憶部400、画像ブロック設定部410、画像ブロック特徴量算出部420、高画質画像ブロック生成部430、高速拡大処理部440及び拡大画像生成部450を有する。また、画像ブロック特徴量算出部420は、エッジ強度算出部422、境界ブロック判定部424(画像領域判定手段)、エッジ方向推定部426及びエッジパターン選択部428を有し、高画質画像ブロック生成部430は、境界ブロック処理部432を有する。
なお、画像拡大プログラム4の全部又は一部は、ASICなどのハードウェアにより実現されてもよい。
[Image enlargement program]
FIG. 2 is a diagram showing a functional configuration of the image enlargement program 4 which is executed by the control device 20 (FIG. 1) and realizes the image processing method according to the present invention.
As illustrated in FIG. 2, the image enlargement program 4 includes a storage unit 400, an image block setting unit 410, an image block feature amount calculation unit 420, a high-quality image block generation unit 430, a high-speed enlargement processing unit 440, and an enlarged image generation unit 450. Have The image block feature quantity calculation unit 420 includes an edge strength calculation unit 422, a boundary block determination unit 424 (image area determination unit), an edge direction estimation unit 426, and an edge pattern selection unit 428, and includes a high quality image block generation unit. 430 includes a boundary block processing unit 432.
Note that all or part of the image enlargement program 4 may be realized by hardware such as an ASIC.

記憶部400は、画像データが拡大処理されるまで画像データを一時的に記憶し、解像度変換又は拡大処理された拡大画像データが出力装置(不図示)に出力されるまで一時的に記憶する。なお、画像データは、画像処理装置2により処理可能である画像フォーマット(例えば、BMP、TIFF、PNGなど)で記述されたデータであり、デジタルカメラ(不図示)又はスキャナ(不図示)などにより取り込まれた画像データ、又は、パーソナルコンピュータ(画像処理装置2など)等において作成又は編集等を行うアプリケーションプログラムにより作成された画像データ等である。拡大画像データ(拡大された後の画像データ)もまた、同様の画像フォーマットのデータである。   The storage unit 400 temporarily stores image data until the image data is enlarged, and temporarily stores the enlarged image data that has undergone resolution conversion or enlargement processing until it is output to an output device (not shown). The image data is data described in an image format (for example, BMP, TIFF, PNG, etc.) that can be processed by the image processing apparatus 2, and is captured by a digital camera (not shown) or a scanner (not shown). Or image data created by an application program that is created or edited in a personal computer (image processing apparatus 2 or the like). Enlarged image data (image data after being enlarged) is also data in the same image format.

画像ブロック設定部410は、画像ブロック特徴量算出部420及び高画質画像ブロック生成部430の処理において必要とされる既定の画像ブロックサイズをそれぞれ設定する。また、画像ブロック設定部410は、記憶部400により記憶されている入力画像データから、設定されたブロックサイズの画像ブロックを順次(例えばラスタスキャン順に)切り出し、このブロックサイズの画像ブロックそれぞれを、画像ブロック特徴量算出部420及び高画質画像ブロック生成部430それぞれに対して出力する。   The image block setting unit 410 sets a predetermined image block size required in the processing of the image block feature amount calculation unit 420 and the high quality image block generation unit 430, respectively. In addition, the image block setting unit 410 sequentially cuts out image blocks having a set block size from the input image data stored in the storage unit 400 (for example, in raster scan order), and converts each image block having the block size into an image. The block feature value calculation unit 420 and the high-quality image block generation unit 430 are each output.

画像ブロック特徴量算出部420は、画像ブロック設定部410から順次入力される画像ブロックの少なくとも一部である注目領域における画像特徴量を、注目領域又はこの注目領域の周辺部を含む画像ブロック内の各画素値に基づいて算出する。画像特徴量は、例えば、注目領域のエッジ強度(階調変化量)、エッジ角度(階調変化の方向)又は色情報である。しかし、画像特徴量はこれらに限られない。画像ブロック特徴量算出部420は、例えば、注目領域の各画素値の平均値を算出し、この平均値に対する注目領域の各画素値のばらつきを表す値(例えば標準偏差又は分散)を画像特徴量として算出してもよい。   The image block feature amount calculation unit 420 calculates the image feature amount in the attention area, which is at least a part of the image blocks sequentially input from the image block setting section 410, in the image block including the attention area or the peripheral portion of the attention area Calculation is performed based on each pixel value. The image feature amount is, for example, edge strength (gradation change amount), edge angle (gradation change direction), or color information of the region of interest. However, the image feature amount is not limited to these. For example, the image block feature value calculation unit 420 calculates an average value of each pixel value of the attention area, and uses a value (for example, standard deviation or variance) representing a variation of each pixel value of the attention area with respect to the average value as the image feature value. May be calculated as

また、画像ブロック特徴量算出部420は、それぞれの注目領域について算出された画像特徴量と基準値とを比較し、注目領域の切り分けを行う。注目領域の切り分けにより、特徴のある画像ブロック(例えば、エッジを含んだ画像ブロックなど)と、特徴の少ない画像ブロック(例えば、画素値変化の少ない画像ブロックなど)とが切り分けられる。より具体的には、画像ブロック特徴量算出部420は、算出された画像特徴量が基準値以上である画像ブロックを特徴ブロックと判定し、算出された画像特徴量が基準値未満である画像ブロックを非特徴ブロックと判定する。   In addition, the image block feature quantity calculation unit 420 compares the image feature quantity calculated for each attention area and the reference value, and performs the attention area separation. By distinguishing the attention area, an image block having a characteristic (for example, an image block including an edge) and an image block having a small feature (for example, an image block having a small change in pixel value) are separated. More specifically, the image block feature value calculation unit 420 determines an image block whose calculated image feature value is equal to or greater than a reference value as a feature block, and an image block whose calculated image feature value is less than the reference value. Are determined as non-characteristic blocks.

本例では、画像ブロック特徴量算出部420は、画像特徴量の1つとして画像ブロックのエッジ強度(数値)を算出し、算出されたエッジ強度が基準値以上である画像ブロックを特徴ブロックであると判定し、エッジ強度が基準値未満である画像ブロックを非特徴ブロックであると判定する。なお、特徴ブロックの切り分けに用いられる特徴量は、エッジ強度に限られず、上述の色情報、標準偏差、分散又はその他の特徴量であってもよい。   In this example, the image block feature amount calculation unit 420 calculates the edge strength (numerical value) of an image block as one of the image feature amounts, and an image block whose calculated edge strength is a reference value or more is a feature block. The image block having the edge strength less than the reference value is determined to be a non-feature block. Note that the feature quantity used for the feature block segmentation is not limited to the edge strength, and may be the above-described color information, standard deviation, variance, or other feature quantities.

さらに、画像ブロック特徴量算出部420は、特徴ブロックと判定されたブロックについて、ブロック内の各画素の色調情報を算出し、ブロック内全ての画素が同じ色調であるブロックか、異なる色調を持つ画素を含むブロックかを判定し、後者の場合、境界ブロックであると判定する。   Further, the image block feature amount calculation unit 420 calculates the color tone information of each pixel in the block for the block determined as the feature block, and all the pixels in the block have the same color tone or pixels having different color tones. In the latter case, it is determined that the block is a boundary block.

高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により算出された画像特徴量を用いて、注目領域に対応する拡大画像ブロックを生成する。高画質画像ブロック生成部430における拡大処理には、注目領域に含まれる特徴を保持する拡大手法が適用されることが望ましい。また、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により算出された特徴量が基準値以上である画像ブロック(すなわち、特徴ブロック)についてのみ、拡大処理を行う。
また、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により同色ブロックと判定された特徴ブロックと、境界ブロックと判定された特徴ブロックとに対して、異なる手法を適用して、拡大画像ブロックを生成する。
The high image quality image block generation unit 430 generates an enlarged image block corresponding to the attention area using the image feature amount calculated by the image block feature amount calculation unit 420. For the enlargement processing in the high-quality image block generation unit 430, it is desirable to apply an enlargement method that retains the features included in the region of interest. In addition, the high-quality image block generation unit 430 performs the enlargement process only on the image block (that is, the feature block) in which the feature amount calculated by the image block feature amount calculation unit 420 is greater than or equal to the reference value.
Also, the high-quality image block generation unit 430 applies different methods to the feature blocks determined to be the same color block by the image block feature value calculation unit 420 and the feature blocks determined to be the boundary block, and enlarges them. Generate an image block.

高速拡大処理部440は、記憶部400により記憶されている入力画像データを拡大する。高速拡大処理部440は、高画質画像ブロック生成部430による拡大処理よりも処理負荷の小さい拡大アルゴリズムを適用する。具体的には、高速拡大処理部440は、例えば、最近傍補間拡大法や線形補間拡大法などを適用して、入力画像データを拡大する。また、高速拡大処理部440は、画像ブロック毎の処理ではなく、入力画像単位又は入力画像の数ライン単位で拡大処理を行う。   The high-speed enlargement processing unit 440 enlarges the input image data stored in the storage unit 400. The high-speed enlargement processing unit 440 applies an enlargement algorithm that has a smaller processing load than the enlargement process performed by the high-quality image block generation unit 430. Specifically, the high-speed enlargement processing unit 440 enlarges the input image data by applying, for example, a nearest neighbor interpolation enlargement method or a linear interpolation enlargement method. Also, the high-speed enlargement processing unit 440 performs enlargement processing in units of input images or in units of several lines of input images, rather than processing for each image block.

拡大画像生成部450は、高画質画像ブロック生成部430により拡大された拡大画像ブロックと、高速拡大処理部440により拡大された拡大画像とを用いて、原画像に対する拡大画像を生成する。より具体的には、拡大画像生成部450は、画像ブロック特徴量算出部420により算出された画像特徴量が、基準値以上である画像ブロック(特徴ブロック)についてのみ、高画質画像ブロック生成部430により拡大された拡大画像を適用し、算出された画像特徴量が基準値未満である画像ブロック(非特徴ブロック)については、高速拡大処理部440により拡大された拡大画像を適用して、1つの拡大画像を生成する。   The enlarged image generation unit 450 uses the enlarged image block enlarged by the high-quality image block generation unit 430 and the enlarged image enlarged by the high-speed enlargement processing unit 440 to generate an enlarged image for the original image. More specifically, the enlarged image generation unit 450 has a high-quality image block generation unit 430 only for image blocks (feature blocks) in which the image feature amount calculated by the image block feature amount calculation unit 420 is greater than or equal to a reference value. For the image block (non-feature block) in which the calculated image feature amount is less than the reference value, the enlarged image enlarged by the high-speed enlargement processing unit 440 is applied to the Generate an enlarged image.

[画像ブロック特徴量算出部]
次に、画像ブロック特徴量算出部420を、より詳細に説明する。なお、注目領域が2×2画素サイズブロックであり、注目領域を含む周辺領域が4×4画素サイズブロックである場合を具体例として説明する。
エッジ強度算出部422は、画像ブロック設定部410により切り出された画像ブロックの中の注目領域のエッジ強度Gを、次の式(1)により算出する。
[Image block feature value calculation unit]
Next, the image block feature value calculation unit 420 will be described in more detail. A case where the attention area is a 2 × 2 pixel size block and the peripheral area including the attention area is a 4 × 4 pixel size block will be described as a specific example.
The edge strength calculation unit 422 calculates the edge strength G of the attention area in the image block cut out by the image block setting unit 410 using the following equation (1).

gx=(a+c−b−d)/2
gy=(a+b−c−d)/2
G=gx×gx+gy×gy・・・(1)
gx = (a + c−b−d) / 2
gy = (a + b−c−d) / 2
G = gx × gx + gy × gy (1)

式(1)において、a、b、c及びdは、図5に例示するように、注目領域にある各画素の画素値である。gxは、主走査方向(図5の左右方向)の画素値の変化量を示し、gyは、副走査方向(図5の上下方向)の画素値の変化量を示す。
なお、エッジ強度は、上記式(1)のみにより算出される値でなく、以下の式(2)などにより算出されてもよい。
G=|gx|+|gy|・・・(2)
すなわち、エッジ強度Gは、gxの絶対値と、gyの絶対値との和として算出されてもよい。
In Expression (1), a, b, c, and d are pixel values of each pixel in the region of interest as illustrated in FIG. gx represents the amount of change in the pixel value in the main scanning direction (left and right direction in FIG. 5), and gy represents the amount of change in the pixel value in the sub scanning direction (up and down direction in FIG. 5).
Note that the edge strength may be calculated by the following formula (2) or the like instead of the value calculated by the above formula (1) alone.
G = | gx | + | gy | (2)
That is, the edge strength G may be calculated as the sum of the absolute value of gx and the absolute value of gy.

また、エッジ強度算出部422は、算出されたエッジ強度Gと基準値(既定のしきい値Th)との比較を行い、注目領域が特徴ブロック又は非特徴ブロックのいずれであるかを判定し、判定結果を高画質画像ブロック生成部430等に対して出力する。
なお、注目領域のエッジ強度Gがしきい値Thよりも小さい場合は、エッジ方向推定部426及びエッジパターン選択部428は、この注目領域について処理を行わない。
Further, the edge strength calculation unit 422 compares the calculated edge strength G with a reference value (predetermined threshold value Th) to determine whether the attention area is a feature block or a non-feature block, The determination result is output to the high-quality image block generation unit 430 and the like.
When the edge strength G of the attention area is smaller than the threshold value Th, the edge direction estimation unit 426 and the edge pattern selection unit 428 do not process the attention area.

図3は、エッジ強度算出部422において、エッジ強度Gと基準値との比較により特徴ブロックと判定された領域を例示する。
図3に例示するように、特徴ブロックは、原画像中のエッジ付近に集中する。
図4は、画像中のエッジ部分、特徴ブロック及びこの特徴ブロックの画素値を例示する図であって、図4(A)は、画像中のエッジ部分を例示する図であり、図4(B)は、図4(A)に例示された画像中で特徴ブロック(特徴ブロック1、特徴ブロック2及び特徴ブロック3)と判定された画像領域を例示し、図4(C)は、前記特徴ブロックそれぞれの画素値を例示する図である。
FIG. 3 illustrates an area determined as a feature block by the edge strength calculation unit 422 by comparing the edge strength G with a reference value.
As illustrated in FIG. 3, the feature blocks are concentrated near the edges in the original image.
4 is a diagram illustrating edge portions, feature blocks, and pixel values of the feature blocks in the image. FIG. 4A is a diagram illustrating edge portions in the image, and FIG. ) Exemplifies image regions determined as feature blocks (feature block 1, feature block 2 and feature block 3) in the image exemplified in FIG. 4A, and FIG. 4C illustrates the feature block. It is a figure which illustrates each pixel value.

境界ブロック判定部424は、エッジ強度算出部422において特徴ブロックと判定された画像ブロック(図4(B)に例示された特徴ブロック1、特徴ブロック2及び特徴ブロック3)に対して、ブロック内の各画素の色要素(例えばR、G、B)の画素値の大小関係を判定する。より具体的には、境界ブロック判定部424は、図4(C)に例示された各画素のR、G、Bそれぞれの画素値の大小関係を判定する。例えば図4(B)の特徴ブロック1では、各画素のR、G、Bの大小関係が全ての画素につきR≧G≧Bであるので、境界ブロック判定部424は、このような特徴ブロックを同色ブロックと判定する。   The boundary block determination unit 424 performs the processing in the block on the image block (the feature block 1, the feature block 2 and the feature block 3 illustrated in FIG. 4B) determined as the feature block by the edge strength calculation unit 422. The magnitude relationship of pixel values of color elements (for example, R, G, B) of each pixel is determined. More specifically, the boundary block determination unit 424 determines the magnitude relationship between the R, G, and B pixel values of each pixel illustrated in FIG. For example, in the feature block 1 in FIG. 4B, since the magnitude relationship of R, G, and B of each pixel is R ≧ G ≧ B for all pixels, the boundary block determination unit 424 selects such a feature block. It is determined as the same color block.

それに対して、図4(B)の特徴ブロック2及び特徴ブロック3では、図4(C)の枠で囲まれた画素のR、G、Bの大小関係が、他の画素と異なる。即ち、特徴ブロック2では、大小関係は、枠で囲まれた画素においては、G≧R≧Bであるのに対して、他の3画素においては、R≧G≧Bである。また、特徴ブロック3では、大小関係は、枠で囲まれた画素においては、R≧G≧Bであるのに対して、他の3画素においては、G≧R≧Bである。境界ブロック判定部424は、前述したようなブロック中に異なるRGB大小関係を持つ画素が含まれる特徴ブロックを、境界ブロックと判定する。   On the other hand, in the feature block 2 and the feature block 3 in FIG. 4B, the magnitude relationship of R, G, and B of the pixels surrounded by the frame in FIG. 4C is different from the other pixels. That is, in the feature block 2, the magnitude relationship is G ≧ R ≧ B in the pixels surrounded by the frame, while R ≧ G ≧ B in the other three pixels. In the feature block 3, the magnitude relationship is R ≧ G ≧ B in the pixels surrounded by the frame, while G ≧ R ≧ B in the other three pixels. The boundary block determination unit 424 determines a feature block including pixels having different RGB magnitude relationships in the block as described above as a boundary block.

境界ブロック判定部424は、同色ブロック及び境界ブロックの判定結果を、高画質画像ブロック生成部430等に出力する。
なお、同色ブロック及び境界ブロックを判定する方法は、上述した方法に限られず、色相変化を算出できる手法であればどのような手法であってもよい。さらに、図4に示した本具体例では、特徴ブロック2及び特徴ブロック3が、境界ブロックとして判定されているが、例えば、「同色ブロックから境界ブロックへと変化する特徴ブロックを境界ブロックと判定する」として、特徴ブロック2を境界ブロックと判定するなどの判定手法が、境界ブロックの判定基準として用いられてもよい。
このようにして、境界ブロック判定部424は、入力画像のエッジ部分を検出することができる。
The boundary block determination unit 424 outputs the determination result of the same color block and the boundary block to the high quality image block generation unit 430 and the like.
The method for determining the same color block and the boundary block is not limited to the above-described method, and any method may be used as long as the method can calculate the hue change. Furthermore, in the specific example shown in FIG. 4, the feature block 2 and the feature block 3 are determined as boundary blocks. For example, “a feature block that changes from a same color block to a boundary block is determined as a boundary block. The determination method such as determining the feature block 2 as a boundary block may be used as a determination criterion for the boundary block.
In this way, the boundary block determination unit 424 can detect the edge portion of the input image.

次に、エッジ方向推定部426について説明する。
図5は、注目領域及び周辺領域の具体例と、注目領域のエッジ方向の一例の説明図であり、図5(A)は、注目領域及び周辺領域を例示し、図5(B)は、この注目領域について推定されるエッジ方向を例示する図である。
図5(A)に例示するように、注目領域(画像領域)は、2×2の矩形領域(主走査方向及び副走査方向にそれぞれ2つ)を有し、周辺領域は、4×4の矩形領域(主走査方向及び副走査方向にそれぞれ4つ)を有する。各矩形は、それぞれ画素に相当し、矩形内の各数字はそれぞれの画素値を示している。すなわち、注目領域は、中心部近傍の画素{a,b,c,d}={15,104,86,203}である。
以下、この図5(A)で例示する注目領域を具体例として、エッジ方向推定部426によるエッジ方向推定処理を説明する。
Next, the edge direction estimation unit 426 will be described.
FIG. 5 is an explanatory diagram of a specific example of the attention area and the peripheral area, and an example of the edge direction of the attention area. FIG. 5A illustrates the attention area and the peripheral area, and FIG. It is a figure which illustrates the edge direction estimated about this attention area.
As illustrated in FIG. 5A, the region of interest (image region) has a 2 × 2 rectangular region (two each in the main scanning direction and the sub-scanning direction), and the peripheral region is 4 × 4. It has rectangular areas (four each in the main scanning direction and the sub-scanning direction). Each rectangle corresponds to a pixel, and each numeral in the rectangle indicates a pixel value. That is, the attention area is the pixel {a, b, c, d} = {15, 104, 86, 203} near the center.
Hereinafter, the edge direction estimation processing by the edge direction estimation unit 426 will be described using the attention area illustrated in FIG. 5A as a specific example.

図6は、エッジ方向推定部426によるエッジ方向推定処理(S10)を示すフローチャートである。
図7は、エッジ方向推定処理(S10)のS102の処理において選択される参照領域を例示する図である。なお、図7におけるハッチングされた部分は、図5に示した注目領域に相当する。
図6に示すように、ステップ100(S100)において、エッジ方向推定部426は、図5(A)に例示した注目領域のエッジ角度Θを、次の式(3)で計算する。
Θ=arctan(gy/gx)・・・(3)
図5(A)では、注目領域の画素値は、{a,b,c,d}={15,104,86,203}であり、式(1)より、
gx=−103
gy=−85
となり、これらを式(3)に代入すると、
Θ=−140.5°
となる。
このエッジ角度Θの方向は、図5(B)に示された破線方向に相当する。
FIG. 6 is a flowchart showing edge direction estimation processing (S10) by the edge direction estimation unit 426.
FIG. 7 is a diagram illustrating a reference region selected in the process of S102 of the edge direction estimation process (S10). The hatched portion in FIG. 7 corresponds to the region of interest shown in FIG.
As shown in FIG. 6, in step 100 (S100), the edge direction estimation unit 426 calculates the edge angle Θ of the attention area exemplified in FIG. 5A by the following equation (3).
Θ = arctan (gy / gx) (3)
In FIG. 5A, the pixel value of the attention area is {a, b, c, d} = {15, 104, 86, 203}, and from the equation (1),
gx = −103
gy = −85
And substituting these into equation (3),
Θ = -140.5 °
It becomes.
The direction of the edge angle Θ corresponds to the broken line direction shown in FIG.

さらに、エッジ方向推定部426は、算出されたエッジ角度Θが22.5°ごとに区分された方向(8方向)の角度範囲のいずれに含まれるかを判定する。本例では、エッジ角度Θが0°又は±180°を中心とした角度範囲を「方向0」とし、22.5°又は−157.5°を中心とした角度範囲を「方向1」とし、45°又は−135°を中心とした角度範囲を「方向2」とし、67.5°又は−112.5°を中心とした角度範囲を「方向3」とし、90°又は−90°を中心とした角度範囲を「方向4」とし、112.5°又は−67.5°を中心とした角度範囲を「方向5」とし、135°又は−45°を中心とした角度範囲を「方向6」とし、157.5°又は−22.5°を中心とした角度範囲を「方向7」する。これらの角度範囲は、それぞれの中心から±11.25°の範囲である。上述の具体例におけるエッジ角度Θ(=−140.5°)は、−135°±11.25°の範囲内に含まれるので、エッジ角度は「方向2」となる。   Furthermore, the edge direction estimation unit 426 determines which of the angle ranges in the directions (eight directions) divided every 22.5 ° is the calculated edge angle Θ. In this example, the angle range around the edge angle Θ of 0 ° or ± 180 ° is “direction 0”, the angle range around 22.5 ° or −157.5 ° is “direction 1”, An angle range centered on 45 ° or −135 ° is “direction 2”, an angle range centered on 67.5 ° or −112.5 ° is “direction 3”, and centered on 90 ° or −90 °. An angle range centered on 112.5 ° or −67.5 ° is “direction 5”, and an angle range centered on 135 ° or −45 ° is “direction 6”. ", And an angle range centered on 157.5 ° or -22.5 ° is" direction 7 ". These angle ranges are ± 11.25 ° from their respective centers. Since the edge angle Θ (= −140.5 °) in the above specific example is included in the range of −135 ° ± 11.25 °, the edge angle is “direction 2”.

ステップ102(S102)において、エッジ方向推定部426は、算出された注目領域のエッジ角度Θに応じて、図5(A)に示した周辺領域(太線枠外の領域)の中からエッジ方向の推定に用いる参照領域を選択する。より具体的には、エッジ方向推定部426は、算出されたエッジ角度Θの方向で注目領域と隣接する可能性のある画素を含むように、参照領域を選択する。
例えば、エッジ方向推定部426は、注目領域について算出されたエッジ角度が「方向0」に含まれる場合に、図7(A)に例示する参照領域(太線で囲まれた2つの領域)を選択し、算出されたエッジ角度が「方向4」に含まれる場合に、図7(B)に例示する参照領域(太線で囲まれた2つの領域)を選択し、算出されたエッジ角度が上記以外の方向(方向1〜3、方向5〜7)に含まれる場合に、図7(C)に例示する参照領域(太線で囲まれた4つの領域)を選択する。図5に示した具体例では、エッジ角度の方向は「方向2」であるので、図7(C)に示した4つの参照領域が選択の候補となる。
なお、参照領域は、図7に例示した領域に限定されず、例えば図7(C)の場合には、参照領域数は8であったり、それぞれの方向に応じて設定されてもよい。
In step 102 (S102), the edge direction estimation unit 426 estimates the edge direction from the peripheral area (outside the thick line frame) shown in FIG. 5A according to the calculated edge angle Θ of the attention area. Select the reference area to be used for. More specifically, the edge direction estimation unit 426 selects the reference region so as to include a pixel that may be adjacent to the attention region in the direction of the calculated edge angle Θ.
For example, the edge direction estimation unit 426 selects the reference areas (two areas surrounded by a thick line) illustrated in FIG. 7A when the edge angle calculated for the attention area is included in “direction 0”. When the calculated edge angle is included in “direction 4”, the reference area (two areas surrounded by a thick line) illustrated in FIG. 7B is selected, and the calculated edge angle is other than the above. 7 (directions 1 to 3 and directions 5 to 7) are selected, the reference areas (four areas surrounded by thick lines) illustrated in FIG. 7C are selected. In the specific example shown in FIG. 5, since the direction of the edge angle is “direction 2”, the four reference areas shown in FIG. 7C are candidates for selection.
Note that the reference area is not limited to the area illustrated in FIG. 7. For example, in the case of FIG. 7C, the number of reference areas may be 8 or may be set according to each direction.

ステップ104(S104)において、エッジ方向推定部426は、選択された参照領域それぞれに対して、S100の処理と同様に、式(1)及び式(3)に従って、エッジ角度Θを計算する。
ステップ106(S106)において、エッジ方向推定部426は、それぞれの参照領域について算出されたエッジ角度と、注目領域について算出されたエッジ角度とを比較して、これらの差分が予め設定されている閾値Θthより小さいか否かを判断する。エッジ方向推定部426は、エッジ角度の差分が閾値Θthより小さい場合には、この参照領域のエッジ角度を適正なエッジ角度として判定してS108の処理に移行し、エッジ角度の差分が閾値Θth以上である場合には、この参照領域のエッジ角度を適正なエッジ角度ではないと判定してS110の処理に移行する。
In step 104 (S104), the edge direction estimation unit 426 calculates the edge angle Θ for each of the selected reference areas in accordance with the equations (1) and (3) as in the processing of S100.
In step 106 (S106), the edge direction estimation unit 426 compares the edge angle calculated for each reference area with the edge angle calculated for the attention area, and the difference between these is set in advance. It is determined whether it is smaller than Θth. If the edge angle difference is smaller than the threshold value Θth, the edge direction estimation unit 426 determines that the edge angle of the reference region is an appropriate edge angle and proceeds to the processing of S108, and the edge angle difference is equal to or greater than the threshold value Θth. If it is, it is determined that the edge angle of the reference region is not an appropriate edge angle, and the process proceeds to S110.

ステップ108(S108)において、エッジ方向推定部426は、角度参照数をインクリメントする。すなわち、エッジ方向推定部426は、参照領域について算出されたエッジ角度が適正なエッジ角度であると判断された場合にのみ、角度参照数をインクリメントする。
なお、角度参照数は、エッジ角度の参照数をカウントするための変数であり、注目領域ごとに「角度参照数1」に初期化される。
In step 108 (S108), the edge direction estimation unit 426 increments the angle reference number. That is, the edge direction estimation unit 426 increments the angle reference number only when it is determined that the edge angle calculated for the reference region is an appropriate edge angle.
The angle reference number is a variable for counting the reference number of the edge angle, and is initialized to “angle reference number 1” for each region of interest.

ステップ110(S110)において、エッジ方向推定部426は、選択した全ての参照領域についてエッジ角度を算出したか否かを判断し、全ての参照領域についてエッジ角度が算出された場合には、S112の処理に移行し、これ以外の場合には、S104の処理に戻って次の参照領域についてエッジ角度を算出する。
ステップ112(S112)において、エッジ方向推定部426は、注目領域のエッジ角度と、適正なエッジ角度として判定された参照領域のエッジ角度との総和を計算し、算出されたエッジ角度の総和を角度参照数で割った平均エッジ角度を注目領域の推定エッジ方向とする。
In step 110 (S110), the edge direction estimation unit 426 determines whether or not the edge angle has been calculated for all the selected reference areas, and when the edge angle has been calculated for all the reference areas, the edge direction is calculated in S112. In other cases, the process returns to S104 to calculate the edge angle for the next reference area.
In step 112 (S112), the edge direction estimation unit 426 calculates the sum of the edge angle of the attention area and the edge angle of the reference area determined as an appropriate edge angle, and calculates the sum of the calculated edge angles as an angle. The average edge angle divided by the reference number is set as the estimated edge direction of the attention area.

なお、図5に示した具体例では、エッジ角度ΘUは、上部の参照領域{86,203,171,211}からΘU=−149.4°となり、エッジ角度ΘLは、左部の参照領域{10,15,20,86}からΘL=−131.2°となり、エッジ角度ΘDは、下部の参照領域{1,102,15,104}からΘD=−175.2°となり、エッジ角度ΘRは、右部の参照領域{104,215,203,219}からΘR=−141.0°となる。注目領域のエッジ角度Θ=−140.5°とそれぞれの参照領域のエッジ角度とが比較され、その差分が閾値Θthより小さい参照領域の数が、角度参照数としてカウントされる。   In the specific example shown in FIG. 5, the edge angle ΘU is ΘU = -149.4 ° from the upper reference region {86, 203, 171, 211}, and the edge angle ΘL is the left reference region { ΘL = −131.2 ° from 10, 15, 20, 86}, and the edge angle ΘD becomes ΘD = −175.2 ° from the lower reference region {1,102,15,104}, and the edge angle ΘR is From the reference region {104, 215, 203, 219} on the right side, ΘR = −141.0 °. The edge angle Θ = −140.5 ° of the attention area is compared with the edge angle of each reference area, and the number of reference areas whose difference is smaller than the threshold Θth is counted as the angle reference number.

図8は、図5に示した注目領域における推定エッジ方向の一例の説明図である。例えば上述の具体例において、すべての参照領域について注目領域のエッジ角度との差分が閾値Θthより小さいとすれば、注目領域及び4つの参照領域から求められたエッジ角度の総和は−737.3°となり、角度参照数5で割ることによって、平均エッジ角度は−147.5°と求められる。この場合においても、エッジ方向推定部426は、上述の注目領域のエッジ方向と同様に、平均エッジ角度が例えば8方向のいずれかに含まれるかを判定する。本例では、平均エッジ角度が−147.5°であるため「方向1」に含まれ、「方向1」が推定エッジ方向となる。   FIG. 8 is an explanatory diagram of an example of the estimated edge direction in the region of interest shown in FIG. For example, in the above-described specific example, if the difference between the edge angle of the attention area for all the reference areas is smaller than the threshold Θth, the sum of the edge angles obtained from the attention area and the four reference areas is −737.3 °. By dividing by the angle reference number 5, the average edge angle is determined to be -147.5 °. Also in this case, the edge direction estimation unit 426 determines whether the average edge angle is included in any of the eight directions, for example, in the same manner as the edge direction of the region of interest described above. In this example, since the average edge angle is −147.5 °, it is included in “direction 1”, and “direction 1” is the estimated edge direction.

なお、図8においては、1画素につき1色要素であるグレースケール画像を具体例として説明しているが、これに限定されるわけではない。例えば、1画素につき3色要素のRGB色空間のカラー画像が入力される場合には、各々の色成分のデータにおけるエッジ強度Gr、Gg、Gbの強さにより選択された色空間データにより、上記のエッジ方向推定処理が行われればよい。より具体的には、画像ブロック特徴量算出部420は、それぞれの色成分についてエッジ強度を算出し、算出されたエッジ強度Gr、Gg、Gbが最大となる色成分を選択して、選択された色成分についてのみ特徴量を算出する。このようにして、カラー画像における拡大画像データのエッジ部の色ずれなど、画質低下が抑えられることが可能となる。
また、本例では、注目領域及び参照領域について、式(1)により算出されたエッジ角度は、8方向のいずれかに分類されたが、分類は8方向に限定されず、より精度の高いエッジ方向が必要であれば、分類は、12方向(15.0°ごと)、16方向(12.25°ごと)など、さらに多数の角度領域を対象としてなされてもよい。
In FIG. 8, a gray scale image that is one color element per pixel is described as a specific example, but the present invention is not limited to this. For example, when a color image in the RGB color space of three color elements per pixel is input, the color space data selected by the strength of the edge strength Gr, Gg, Gb in the data of each color component The edge direction estimation process may be performed. More specifically, the image block feature value calculation unit 420 calculates the edge strength for each color component, selects the color component that maximizes the calculated edge strengths Gr, Gg, and Gb. The feature amount is calculated only for the color component. In this way, it is possible to suppress deterioration in image quality such as color shift at the edge of enlarged image data in a color image.
In this example, for the attention area and the reference area, the edge angle calculated by the expression (1) is classified into any one of the eight directions, but the classification is not limited to the eight directions, and the edge has higher accuracy. If a direction is required, the classification may be done for a larger number of angular regions, such as 12 directions (every 15.0 °), 16 directions (every 12.25 °).

エッジパターン選択部428について説明する。
図9は、エッジパターン選択部428により用いられるエッジパターンテーブルを例示する図である。
図9に例示するように、エッジパターン選択部428は、推定エッジ方向とエッジパターンとを互いに対応付けたエッジパターンテーブルを有する。エッジパターンテーブルには、エッジパターンが、注目領域のパターンサイズに対応して、推定エッジ方向(例えば8方向)ごとに1つ以上登録されている。
エッジパターン選択部428は、このエッジパターンテーブルを参照して、エッジ方向推定部426によりそれぞれの注目領域について推定された推定エッジ方向に対応するエッジパターンを選択する。
本例では、図8に例示するように、注目領域に対する推定エッジ方向が、エッジ方向推定部426により「方向1」であると推定されているため、エッジパターン選択部428は、この推定エッジ方向(方向1)に従い、図9に示すエッジパターンテーブルの中から、方向1に対応する「パターン0」から「パターン3」までの4つのエッジパターンを選択し、これらをこの注目領域に対するエッジパターンの候補とする。
The edge pattern selection unit 428 will be described.
FIG. 9 is a diagram illustrating an edge pattern table used by the edge pattern selection unit 428.
As illustrated in FIG. 9, the edge pattern selection unit 428 has an edge pattern table in which the estimated edge direction and the edge pattern are associated with each other. In the edge pattern table, one or more edge patterns are registered for each estimated edge direction (for example, eight directions) corresponding to the pattern size of the region of interest.
The edge pattern selection unit 428 refers to the edge pattern table and selects an edge pattern corresponding to the estimated edge direction estimated for each region of interest by the edge direction estimation unit 426.
In this example, as illustrated in FIG. 8, since the estimated edge direction with respect to the region of interest is estimated to be “direction 1” by the edge direction estimating unit 426, the edge pattern selecting unit 428 performs this estimated edge direction. According to (direction 1), four edge patterns from “pattern 0” to “pattern 3” corresponding to direction 1 are selected from the edge pattern table shown in FIG. Candidate.

エッジパターン選択部428は、注目領域の画素値に基づいて、エッジパターンの候補となった1つ以上のエッジパターンの中から、1つのエッジパターンを選択する。エッジパターンの具体的な選択方法について、図10を参照しながら説明する。
図10は、図9に示した注目領域に対応するエッジパターンの選択方法を説明する図である。
本例では、推定エッジ方向が「方向1」であったため、図10(A)に例示するように、エッジパターンの候補として、「パターン0」から「パターン3」までの4つのエッジパターンが選択されている。これらのエッジパターンは、図10(B)に例示するように、ビットパターンとして表現される。具体的には、エッジパターンは、白部分を0、それ以外を1としてビットパターン化され、「ビットパターン0」から「ビットパターン3」までのビットパターンが生成される。なお、これらのビットパターンは、図9に示すエッジパターンテーブルにビットテーブルとして予め登録されていてもよい。
The edge pattern selection unit 428 selects one edge pattern from one or more edge patterns that are edge pattern candidates based on the pixel value of the region of interest. A specific method for selecting an edge pattern will be described with reference to FIG.
FIG. 10 is a diagram for explaining a method of selecting an edge pattern corresponding to the attention area shown in FIG.
In this example, since the estimated edge direction is “direction 1”, four edge patterns from “pattern 0” to “pattern 3” are selected as the edge pattern candidates as illustrated in FIG. 10A. Has been. These edge patterns are expressed as bit patterns as illustrated in FIG. Specifically, the edge pattern is formed into a bit pattern with the white portion being 0 and the others being 1, and bit patterns from “bit pattern 0” to “bit pattern 3” are generated. Note that these bit patterns may be registered in advance as a bit table in the edge pattern table shown in FIG.

エッジパターン選択部428は、注目領域に相当するビットパターンを判定する。具体的には、エッジパターン選択部428は、以下に示す式(4)に従い、注目領域中の平均画素値を計算し、注目領域内の各々の画素値から平均値を引き、その符号を以て注目領域の画素値パターンとする。   The edge pattern selection unit 428 determines a bit pattern corresponding to the attention area. Specifically, the edge pattern selection unit 428 calculates an average pixel value in the attention area according to the following equation (4), subtracts the average value from each pixel value in the attention area, and uses the sign as the attention. The pixel value pattern of the region is used.

Mean=(a+b+c+d)/4
a_sign=a−Mean
b_sign=b−Mean
c_sign=c−Mean
d_sign=d−Mean・・・(4)
Mean = (a + b + c + d) / 4
a_sign = a-Mean
b_sign = b-Mean
c_sign = c-Mean
d_sign = d-Mean (4)

なお、本例では、図10(C)に示すように、Mean=(15+104+86+203)/4=102であり、a_sign=−87、b_sign=2、c_sign=−16、d_sign=101となる。よって、エッジパターン選択部428は、これらの正負符号を判定して、図10(C)に示すように、注目領域のビットパターン(1010)を生成する。
エッジパターン選択部428は、図10(B)に例示するエッジパターン候補に対応するビットパターンと、図10(C)に例示する注目領域のビットパターンとのパターンマッチングを行い、最も類似するエッジパターンを選択パターンとして決定する。選択されたエッジパターンは、後述する高画質画像ブロック生成部430における拡大画像ブロック生成処理に適用される。
In this example, as shown in FIG. 10C, Mean = (15 + 104 + 86 + 203) / 4 = 102, and a_sign = −87, b_sign = 2, c_sign = −16, and d_sign = 101. Therefore, the edge pattern selection unit 428 determines these positive and negative signs, and generates a bit pattern (1010) of the region of interest as shown in FIG.
The edge pattern selection unit 428 performs pattern matching between the bit pattern corresponding to the edge pattern candidate illustrated in FIG. 10B and the bit pattern of the region of interest illustrated in FIG. Is determined as the selection pattern. The selected edge pattern is applied to enlarged image block generation processing in a high-quality image block generation unit 430 described later.

なお、エッジパターンは、図9に示したエッジパターンに限定されず、例えば、エッジパターン選択部428は、入力画像データの種類に応じて、エッジパターンテーブルを切り替えて、異なるエッジパターンを適用してもよい。また、エッジパターン選択部428は、各角度におけるエッジパターン候補数を増減させてもよい。   Note that the edge pattern is not limited to the edge pattern shown in FIG. 9. For example, the edge pattern selection unit 428 switches the edge pattern table according to the type of input image data and applies a different edge pattern. Also good. Further, the edge pattern selection unit 428 may increase or decrease the number of edge pattern candidates at each angle.

[高画質画像ブロック生成部]
次に、高画質画像ブロック生成部430をより詳細に説明する。
高画質画像ブロック生成部430は、画像ブロック特徴量算出部420において、特徴ブロックかつ同色ブロックであると判定された注目領域に対して、画像ブロック特徴量算出部420により得られた注目領域に対するエッジパターン及び推定エッジ方向に基づいて、拡大画像ブロック生成処理を行う。また、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420において、特徴ブロックかつ境界ブロックと判定された注目領域に対しては、境界ブロック処理部432を介して、上述した手法とは異なる手法を適用して、拡大画像ブロックを生成し、生成された画素のうち、所定の画素の画素値を補正する。
[High-quality image block generator]
Next, the high-quality image block generation unit 430 will be described in more detail.
The high-quality image block generation unit 430 generates an edge for the attention area obtained by the image block feature value calculation unit 420 with respect to the attention area determined by the image block feature value calculation unit 420 as the feature block and the same color block. An enlarged image block generation process is performed based on the pattern and the estimated edge direction. In addition, the high-quality image block generation unit 430 applies the above-described method to the attention area determined as the feature block and the boundary block by the image block feature amount calculation unit 420 via the boundary block processing unit 432. A different method is applied to generate an enlarged image block, and a pixel value of a predetermined pixel among the generated pixels is corrected.

以下に、同色ブロックと判定された注目領域に対する拡大画像ブロック生成処理について説明する。
高画質画像ブロック生成部430は、まず、拡大処理の拡大倍率に応じたサイズ及び係数の強調カーネルを用いて、画像ブロック設定部410により切り出された画像ブロック中の注目領域およびその周辺領域の画像データのコントラストを強調する。
図11は、高画質画像ブロック生成部430により用いられる強調カーネル434(エッジ強調カーネル)を例示する図である。
図11に例示するように、第1の強調カーネル434aは、重み付け係数「1.60」及び「−0.15」を用いてコントラストを強調し、第2の強調カーネル434bは、重み付け係数「1.20」及び「−0.05」を用いてコントラストを強調する。これらの強調カーネルは、対象画像に対して既になされた拡大処理の拡大倍率に対応付けられており、互いに異なる重み付け係数を用いて、互いに異なる位置の画素値を参照する。
Hereinafter, the enlarged image block generation process for the attention area determined to be the same color block will be described.
First, the high-quality image block generation unit 430 uses the size and coefficient emphasis kernel according to the enlargement magnification of the enlargement process, and the image of the attention area and the surrounding area in the image block cut out by the image block setting unit 410 Emphasize the contrast of data.
FIG. 11 is a diagram illustrating an enhancement kernel 434 (edge enhancement kernel) used by the high-quality image block generation unit 430.
As illustrated in FIG. 11, the first enhancement kernel 434 a enhances contrast using weighting factors “1.60” and “−0.15”, and the second enhancement kernel 434 b includes a weighting factor “1”. .20 ”and“ −0.05 ”to enhance contrast. These enhancement kernels are associated with the enlargement magnification of the enlargement process already performed on the target image, and refer to pixel values at different positions using different weighting coefficients.

第1の強調カーネル434aは、図11(A)に例示するように、注目画素Pの直下画素a、直右画素b、直上画素c及び直左画素dを参照して、これらの画素の画素値にそれぞれ重み付け係数(−0.15)を掛け合わせ、重み付け係数(1.60)が掛けられた注目画素Pの画素値と合算し、合算された値を注目画素Pの画素値とする。
第2の強調カーネル434bは、第1の強調カーネル434aよりも拡大倍率の大きな画像に対して適用され、図11(B)に例示するように、注目画素Pから1画素分離間した下画素a、右画素b、上画素c及び左画素dを参照して、これらの画素の画素値にそれぞれ重み付け係数(−0.05)を掛け合わせ、重み付け係数(1.20)が掛けられた注目画素Pの画素値と合算し、合算された値を注目画素Pの画素値とする。
例えば、第1の強調カーネル434aを適用する場合に、以下の式(5)に従って、コントラスト強調後の画素値P’が算出される。
画素値P’=1.60×P−0.15×(a+b+c+d)・・・(5)
As illustrated in FIG. 11A, the first enhancement kernel 434a refers to the pixel a, the right pixel b, the pixel c, and the pixel d of the pixel of interest P with reference to the pixels of these pixels. Each value is multiplied by a weighting coefficient (−0.15) and added to the pixel value of the pixel of interest P multiplied by the weighting coefficient (1.60), and the sum is set as the pixel value of the pixel of interest P.
The second enhancement kernel 434b is applied to an image having a larger magnification than the first enhancement kernel 434a, and, as illustrated in FIG. 11B, the lower pixel a that is separated by one pixel from the target pixel P. , The right pixel b, the upper pixel c, and the left pixel d, the pixel value of these pixels is multiplied by a weighting coefficient (−0.05), and the pixel of interest multiplied by the weighting coefficient (1.20) The pixel value of P is added together, and the added value is set as the pixel value of the target pixel P.
For example, when applying the first enhancement kernel 434a, the pixel value P ′ after contrast enhancement is calculated according to the following equation (5).
Pixel value P ′ = 1.60 × P−0.15 × (a + b + c + d) (5)

このように、強調カーネルは、既になされた拡大処理の拡大倍率に応じて異なるので、画像が、4倍、8倍と順に拡大されると、原画像の特徴を有している画素は、2画素、4画像離れた位置の画素となる。そのため、高画質画像ブロック生成部430は、図11に例示するように、拡大倍率が高いほど離れた画素を参照して強調処理を行う。例えば、高画質画像ブロック生成部430は、2倍拡大処理を2回連続して適用することにより4倍拡大が実現される場合に、最初の2倍拡大処理において第1の強調カーネル434a(図11(A))を適用し、2回目の2倍拡大処理において第2の強調カーネル434b(図11(B))を適用する。なお、8倍、16倍以降の倍率においても同様である。
また、参照する画素の位置は、図11に示すような上下左右に限られない。例えば、高画質画像ブロック生成部430は、斜め方向の画素を参照してコントラスト強調を行ったり、さらに離れた画素を参照してコントラスト強調を行ったり、又は、処理対象画像データの種類及びサイズなどにより適用する強調カーネルを切り替えたりしてもよい。
As described above, the enhancement kernel differs depending on the enlargement magnification of the enlargement processing that has already been performed. Therefore, when the image is enlarged in order of 4 times and 8 times, the pixels having the characteristics of the original image are 2 The pixel is a pixel at a position distant from four images. Therefore, as illustrated in FIG. 11, the high-quality image block generation unit 430 performs enhancement processing with reference to pixels that are further away as the enlargement magnification is higher. For example, the high-quality image block generation unit 430 applies the first enhancement kernel 434a (see FIG. 5) in the first double enlargement process when the double enlargement process is applied twice in succession to realize the quadruple enlargement. 11 (A)) and the second enhancement kernel 434b (FIG. 11B) is applied in the second double enlargement process. The same applies to magnifications of 8 times, 16 times and later.
Further, the position of the pixel to be referred to is not limited to the vertical and horizontal directions as shown in FIG. For example, the high-quality image block generation unit 430 performs contrast enhancement with reference to pixels in an oblique direction, performs contrast enhancement with reference to further distant pixels, or the type and size of the processing target image data The emphasis kernel to be applied may be switched by.

次に、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により得られた注目領域に対するエッジパターン及び推定エッジ方向と、前述したようにコントラスト強調処理が行われた注目領域とその周辺領域との画素値とを用いて、注目領域に対する拡大画像ブロックを生成する。   Next, the high-quality image block generation unit 430 generates the edge pattern and the estimated edge direction with respect to the region of interest obtained by the image block feature amount calculation unit 420, the region of interest subjected to the contrast enhancement processing as described above, and its surroundings. An enlarged image block for the region of interest is generated using the pixel value of the region.

図12は、高画質画像ブロック生成部430における拡大画像ブロックの生成処理の具体例の説明図である。まず、高画質画像ブロック生成部430は、注目領域のエッジパターン及び推定エッジ方向基づき、コントラスト強調処理を施された画素値を用いて、3×3画像ブロックに相当する画素値を算出する。図12(A)は、図5(A)に示した注目領域及び周辺領域の一例を示す。前述したように画像ブロック特徴量算出部420において、この注目領域はエッジパターン1010に対応し、推定エッジ方向は「方向1」であると求められている。高画質画像ブロック生成部430は、(エッジパターン1010)−(推定エッジ方向「1」)の組み合わせの場合、図12(B)に示すように、3×3画像ブロックに相当するそれぞれの画素をp0〜p8とすると、図12(A)に示した注目領域の画素値{a,b,c,d}をもとに、p0〜p8の画素値を次の式によって計算する。なお、エッジパターンと推定エッジ方向との組み合わせは、「(エッジパターン)−(推定エッジ方向)」と表される。   FIG. 12 is an explanatory diagram of a specific example of enlarged image block generation processing in the high-quality image block generation unit 430. First, the high-quality image block generation unit 430 calculates a pixel value corresponding to a 3 × 3 image block using a pixel value subjected to contrast enhancement processing based on the edge pattern of the region of interest and the estimated edge direction. FIG. 12A illustrates an example of the attention area and the peripheral area illustrated in FIG. As described above, in the image block feature value calculation unit 420, this attention area corresponds to the edge pattern 1010 and the estimated edge direction is determined to be “direction 1”. In the case of the combination of (edge pattern 1010) − (estimated edge direction “1”), the high-quality image block generation unit 430 calculates each pixel corresponding to the 3 × 3 image block as shown in FIG. Assuming p0 to p8, the pixel values of p0 to p8 are calculated by the following formula based on the pixel values {a, b, c, d} of the attention area shown in FIG. The combination of the edge pattern and the estimated edge direction is expressed as “(edge pattern) − (estimated edge direction)”.

p0=a
p1=(a+b)/2
p2=b
p3=(a+c)/2
p4=(b+c)/2
p5=(b+d)/2
p6=c
p7=(b+b)/2
p8=d
p0 = a
p1 = (a + b) / 2
p2 = b
p3 = (a + c) / 2
p4 = (b + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (b + b) / 2
p8 = d

これらの計算式は、(エッジパターン)−(推定エッジ方向)の組み合わせにより一意に決定され、3×3画像ブロック相当の画素値が計算される。   These calculation formulas are uniquely determined by a combination of (edge pattern) − (estimated edge direction), and pixel values corresponding to 3 × 3 image blocks are calculated.

図13は、他の(エッジパターン)−(推定エッジ方向)の組み合わせの場合に用いられる計算式の一例の説明図である。
図13(A)は、(エッジパターン1000)−(推定エッジ方向「1」)の場合に用いられる計算式を示し、3×3画像ブロック相当の画素値は、次の式によって計算される。
FIG. 13 is an explanatory diagram of an example of a calculation formula used in the case of another (edge pattern)-(estimated edge direction) combination.
FIG. 13A shows a calculation formula used in the case of (edge pattern 1000) − (estimated edge direction “1”), and pixel values corresponding to 3 × 3 image blocks are calculated by the following formula.

p0=a
p2=b
p3=a
p4=(b+c)/2
p5=(b+d)/2
p6=c
p7=(c+d)/2
p8=d
p1=(p4+c)/2
p0 = a
p2 = b
p3 = a
p4 = (b + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
p1 = (p4 + c) / 2

図13(B)は(エッジパターン1100)−(推定エッジ方向「5」)の場合に用いられる計算式を示し、3×3画像ブロック相当の画素値は、次の式によって計算される。   FIG. 13B shows a calculation formula used in the case of (edge pattern 1100) − (estimated edge direction “5”), and pixel values corresponding to 3 × 3 image blocks are calculated by the following formula.

p0=a
p1=(a+b)/2
p2=b
p4=(a+d)/2
p6=c
p7=(c+d)/2
p8=d
p3=(p4+c)/2
p5=(p4+b)/2
p0 = a
p1 = (a + b) / 2
p2 = b
p4 = (a + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
p3 = (p4 + c) / 2
p5 = (p4 + b) / 2

図13(C)は(エッジパターン1100)−(推定エッジ方向「2」)の場合に用いられる計算式を示し、3×3画像ブロック相当の画素値は、次の式によって計算される。   FIG. 13C shows a calculation formula used in the case of (edge pattern 1100) − (estimated edge direction “2”), and pixel values corresponding to 3 × 3 image blocks are calculated by the following formula.

p0=a
p1=a
p2=b
p3=a
p4=(b+c)/2
p5=(b+d)/2
p6=c
p7=(c+d)/2
p8=d
p0 = a
p1 = a
p2 = b
p3 = a
p4 = (b + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d

図13(D)は(エッジパターン0101)−(推定エッジ方向「7」)の場合に用いられる計算式を示し、3×3画像ブロック相当の画素値は、次の式によって計算される。   FIG. 13D shows a calculation formula used in the case of (edge pattern 0101) − (estimated edge direction “7”), and a pixel value corresponding to a 3 × 3 image block is calculated by the following formula.

p0=a
p2=b
p3=(a+c)/2
p4=(a+d)/2
p5=(b+d)/2
p6=c
p8=d
p1=(p4+b)/2
p7=(p4+c)/2
p0 = a
p2 = b
p3 = (a + c) / 2
p4 = (a + d) / 2
p5 = (b + d) / 2
p6 = c
p8 = d
p1 = (p4 + b) / 2
p7 = (p4 + c) / 2

なお、他のエッジパターンの場合にも、同様にそれぞれのエッジパターンに対応した計算式に従って計算を行うことによって、3×3画像ブロック相当の画素値が計算されることができる。   In the case of other edge patterns as well, pixel values corresponding to 3 × 3 image blocks can be calculated by performing calculation according to the calculation formula corresponding to each edge pattern.

次に、高画質画像ブロック生成部430は、前述のように計算された3×3画像ブロック相当の画素値と、注目領域の推定エッジ方向に基づいて選択された周辺領域内の複数の参照画素とを用いて4×4画像ブロックを生成する。   Next, the high-quality image block generation unit 430 generates a plurality of reference pixels in the peripheral area selected based on the pixel value equivalent to the 3 × 3 image block calculated as described above and the estimated edge direction of the attention area. Are used to generate 4 × 4 image blocks.

図14は、注目領域における推定エッジ方向に基づく参照画素r0〜r13の選択方法の説明図である。注目領域の推定エッジ方向が方向1(22.5°)から方向3(67.5°)の場合には、図14(A)に示したように、参照画素r0〜r5は、図14(A)に太線枠で囲んだように左上から下へ3画素と右下から上へ3画素となるように選択される。また、注目領域の推定エッジ方向が方向5(112.5°)から方向7(157.5°)の場合には、図14(B)に示したように、参照画素r0〜r5は、左下から上へ3画素と右上から下へ3画素となるように選択される。参照画素r6〜r13は、推定エッジ方向に拠らず、図14(A)及び図14(B)に示すように、上下それぞれ4画素を選択される。このように、参照画素は、注目領域における推定エッジ方向に基づいて選択される。もちろん、参照画素の選択は、図14に示すように2パターンからの選択に限定されず、推定エッジ方向に従い、より多くの参照画素選択パターンが用意されてもよい。また、選択する参照画素は、推定エッジ方向に応じて変更されてもよい。   FIG. 14 is an explanatory diagram of a method of selecting the reference pixels r0 to r13 based on the estimated edge direction in the attention area. When the estimated edge direction of the attention area is from direction 1 (22.5 °) to direction 3 (67.5 °), as shown in FIG. 14A, reference pixels r0 to r5 are shown in FIG. A) is selected so that there are 3 pixels from the upper left to the lower and 3 pixels from the lower right to the upper as surrounded by a thick line frame. Further, when the estimated edge direction of the attention area is from the direction 5 (112.5 °) to the direction 7 (157.5 °), as shown in FIG. 3 pixels from the top to the top and 3 pixels from the top right to the bottom. As shown in FIGS. 14A and 14B, four reference pixels r6 to r13 are selected, regardless of the estimated edge direction. In this way, the reference pixel is selected based on the estimated edge direction in the attention area. Of course, the selection of reference pixels is not limited to selection from two patterns as shown in FIG. 14, and more reference pixel selection patterns may be prepared according to the estimated edge direction. The reference pixel to be selected may be changed according to the estimated edge direction.

図15は、4×4画素の拡大画像ブロックの生成処理の具体例の説明図である。図15に示すように、計算された3×3画像ブロック相当の画素値p0〜p8、及び注目領域における推定エッジ方向に基づいて選択された参照画素r0〜r13を用いて、次の計算式に従って、4×4画素の拡大画像ブロックに相当する画素値(s0〜s15)が計算されて、4x4拡大画像ブロックが生成される。   FIG. 15 is an explanatory diagram of a specific example of generation processing of a 4 × 4 pixel enlarged image block. As shown in FIG. 15, using the calculated pixel values p0 to p8 corresponding to 3 × 3 image blocks and the reference pixels r0 to r13 selected based on the estimated edge direction in the region of interest, according to the following calculation formula: Pixel values (s0 to s15) corresponding to the 4 × 4 pixel enlarged image block are calculated to generate a 4 × 4 enlarged image block.

s0=0.2×r6+0.16×r0+0.64×p0
s1=0.2×r7+0.32×p0+0.48×p1
s2=0.2×r8+0.48×p1+0.32×p2
s3=0.2×r9+0.64×p2+0.16×r1
s4=0.08×r0+0.32×p0+0.12×r2+0.48×p3
s5=0.16×p0+0.24×p1+0.24×p3+0.36×p4
s6=0.24×p1+0.16×p2+0.36×p4+0.24×p5
s7=0.32×p2+0.08×r1+0.48×p5+0.12×r3
s8=0.12×r2+0.48×p3+0.08×r4+0.32×p6
s9=0.24×p3+0.36×p4+0.16×p6+0.24×p7
s10=0.36×p4+0.24×p5+0.24×p7+0.16×p8
s11=0.48×p5+0.12×r3+0.32×p8+0.08×r5
s12=0.16×r4+0.64×p6+0.2×r10
s13=0.32×p6+0.48×p7+0.2×r11
s14=0.48×p7+0.32×p8+0.2×r12
s15=0.64×p8+0.16×r5+0.2×r13
s0 = 0.2 × r6 + 0.16 × r0 + 0.64 × p0
s1 = 0.2 × r7 + 0.32 × p0 + 0.48 × p1
s2 = 0.2 × r8 + 0.48 × p1 + 0.32 × p2
s3 = 0.2 × r9 + 0.64 × p2 + 0.16 × r1
s4 = 0.08 * r0 + 0.32 * p0 + 0.12 * r2 + 0.48 * p3
s5 = 0.16 × p0 + 0.24 × p1 + 0.24 × p3 + 0.36 × p4
s6 = 0.24 × p1 + 0.16 × p2 + 0.36 × p4 + 0.24 × p5
s7 = 0.32 × p2 + 0.08 × r1 + 0.48 × p5 + 0.12 × r3
s8 = 0.12 * r2 + 0.48 * p3 + 0.08 * r4 + 0.32 * p6
s9 = 0.24 × p3 + 0.36 × p4 + 0.16 × p6 + 0.24 × p7
s10 = 0.36 × p4 + 0.24 × p5 + 0.24 × p7 + 0.16 × p8
s11 = 0.48 × p5 + 0.12 × r3 + 0.32 × p8 + 0.08 × r5
s12 = 0.16 × r4 + 0.64 × p6 + 0.2 × r10
s13 = 0.32 × p6 + 0.48 × p7 + 0.2 × r11
s14 = 0.48 × p7 + 0.32 × p8 + 0.2 × r12
s15 = 0.64 × p8 + 0.16 × r5 + 0.2 × r13

このようにして、4×4画素の拡大画像ブロック(s0〜s15)は、画像ブロック特徴量算出部420により特徴ブロックかつ同色ブロックと判断された注目領域に対して生成される。
以上説明したように、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により算出された画像特徴量に従って、拡大画像ブロック生成処理を行うことにより、ジャギーを抑えた高画質な拡大処理をすることができる。
In this way, 4 × 4 pixel enlarged image blocks (s0 to s15) are generated for the attention area determined as the feature block and the same color block by the image block feature amount calculation unit 420.
As described above, the high-quality image block generation unit 430 performs the enlarged image block generation process according to the image feature amount calculated by the image block feature amount calculation unit 420, thereby achieving high-quality enlargement processing with reduced jaggies. Can do.

また、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により特徴ブロックかつ境界ブロックと判断された注目領域に対しては、境界ブロック処理部432を介して、拡大画像ブロックを生成する。
以下に、境界ブロック処理部432について説明する。
境界ブロック処理部432は、画像ブロック特徴量算出部420において、特徴ブロックであり境界ブロックであると判定された注目領域に対して、図12及び図13で示した3×3拡大画像ブロックの算出式とは異なる算出式を用いて、拡大画像ブロックを生成する。さらに、境界ブロック処理部432は、図15で示した算出式を用いて生成された4×4画素の拡大画像ブロックに相当する画素値(s0〜s15)から、注目領域のエッジパターン及び推定エッジ方向に基づいて1つ以上の画素を選択し、その画素値を補正する。
Further, the high-quality image block generation unit 430 generates an enlarged image block via the boundary block processing unit 432 for the attention area determined as the feature block and the boundary block by the image block feature amount calculation unit 420. .
The boundary block processing unit 432 will be described below.
The boundary block processing unit 432 calculates the 3 × 3 enlarged image block shown in FIG. 12 and FIG. 13 for the attention area that is determined as the boundary block by the image block feature amount calculation unit 420. An enlarged image block is generated using a calculation formula different from the formula. Further, the boundary block processing unit 432 calculates the edge pattern and the estimated edge of the attention area from the pixel values (s0 to s15) corresponding to the enlarged image block of 4 × 4 pixels generated using the calculation formula illustrated in FIG. One or more pixels are selected based on the direction and the pixel values are corrected.

図16は、境界ブロック処理部432における拡大画像ブロックの生成処理と、画素値補正処理の具体例の説明図である。図16(A)は、図12で示された、特徴ブロックであるが境界ブロックではない注目領域の(エッジパターン1010)−(推定エッジ方向「1」)の組み合わせの場合における3×3拡大画像ブロックの算出式を示す。図16(B)は、注目領域が境界ブロックである場合、図16(A)と同様の組み合わせ(エッジパターン1010)−(推定エッジ方向「1」)における算出式を示す。
図16(B)に示すように、境界ブロック処理部432は、注目領域が境界ブロックである場合には、図16(A)に示される算出式とは異なる次の算出式を用いて、p0〜p8の画素値を計算する。なお、図16(B)においては、図16(A)の算出式と異なる算出式は、点線で囲まれて示されている。
FIG. 16 is an explanatory diagram of a specific example of enlarged image block generation processing and pixel value correction processing in the boundary block processing unit 432. FIG. 16A shows a 3 × 3 enlarged image in the case of the combination of (edge pattern 1010) − (estimated edge direction “1”) of a region of interest that is a feature block but not a boundary block, as shown in FIG. The calculation formula of a block is shown. FIG. 16B shows a calculation formula for a combination (edge pattern 1010) − (estimated edge direction “1”) similar to FIG. 16A when the region of interest is a boundary block.
As shown in FIG. 16B, when the region of interest is a boundary block, the boundary block processing unit 432 uses the following calculation formula different from the calculation formula shown in FIG. Calculate the pixel value of ~ p8. Note that in FIG. 16B, a calculation formula different from the calculation formula of FIG. 16A is surrounded by a dotted line.

p0=a
p1=(a+b)/2
p2=b
p3=(a+c)/2
p4=(b+c)/2
p5=d
p6=c
p7=d
p8=d
p0 = a
p1 = (a + b) / 2
p2 = b
p3 = (a + c) / 2
p4 = (b + c) / 2
p5 = d
p6 = c
p7 = d
p8 = d

また、図16(C)に示すように、境界ブロック処理部432は、(エッジパターン1010)−(推定エッジ方向「1」)の組み合わせの場合には、図15の算出式を用いて生成された4×4画素の拡大画像ブロックに相当する画素値(s0〜s15)から、例えば6つの補正画素(s1、s4、s7、s8、s11、s14)を選択し、図15の算出式を用いて得られた各々の画素値を補正する。
境界ブロック処理部432は、以下の算出式を用いて、補正値を計算する。
As shown in FIG. 16C, the boundary block processing unit 432 is generated using the calculation formula of FIG. 15 in the case of the combination of (edge pattern 1010) − (estimated edge direction “1”). For example, six correction pixels (s1, s4, s7, s8, s11, s14) are selected from the pixel values (s0 to s15) corresponding to the enlarged image block of 4 × 4 pixels, and the calculation formula of FIG. 15 is used. Each pixel value obtained in this way is corrected.
The boundary block processing unit 432 calculates a correction value using the following calculation formula.

s1´ = s1−α×s1
s4´ = s4−α×s4
s7´ = s7+α×s7
s8´ = s8−α×s8
s11´=s11+α×s11
s14´=s14+α×s14
s1 ′ = s1−α × s1
s4 ′ = s4-α × s4
s7 ′ = s7 + α × s7
s8 ′ = s8−α × s8
s11 ′ = s11 + α × s11
s14 ′ = s14 + α × s14

ここで、αは、拡大画像ブロックのエッジ鮮鋭度を調整するパラメータであり、所望のエッジ鮮鋭度を得るために可変であってもよいし、予め既定値とされてもよい。   Here, α is a parameter for adjusting the edge sharpness of the enlarged image block, and may be variable to obtain a desired edge sharpness, or may be a predetermined value in advance.

上述の具体例では、「(エッジパターン1010)−(推定エッジ方向「1」)」の組み合わせの場合について、3×3拡大画像ブロックの算出式の変更、補正画素の選択及び補正値の計算の例を述べたが、例えば図13に示した他の「(エッジパターン)−(推定エッジ方向)」の場合についても、境界ブロック処理部432では、エッジパターン及び推定エッジ方向に基づいて、同色ブロックのための算出式等とは異なる変更算出式、補正画素の選択及び補正値の計算式が、一意に定められている。   In the specific example described above, for the combination of “(edge pattern 1010) − (estimated edge direction“ 1 ”)”, the calculation formula of the 3 × 3 enlarged image block is changed, the correction pixel is selected, and the correction value is calculated. For example, in the case of “(edge pattern) − (estimated edge direction)” shown in FIG. 13 for example, the boundary block processing unit 432 also uses the same color block based on the edge pattern and the estimated edge direction. A change calculation formula, a correction pixel selection, and a correction value calculation formula that are different from the calculation formula for calculating the correction value are uniquely determined.

以上説明したように、境界ブロック処理部432における拡大画像ブロック生成の算出式の変更及び生成画素値の選択並びに補正は、境界ブロックと判定された注目領域に対する拡大画像ブロックの特徴(本例ではエッジ)をより際立たせるようになされる。
従って、上記で説明した算出式の変更方法、補正画素の選択及び補正計算方法は、上述した方法等に限られず、注目領域の特徴量をより際立たせるための、算出式の変更方法、画素の選択、補正計算方法であれば、どのような方法等でもよい。
As described above, the change of the calculation formula for generating the enlarged image block and the selection and correction of the generated pixel value in the boundary block processing unit 432 are the characteristics of the enlarged image block with respect to the attention area determined as the boundary block (in this example, the edge ) Is made more prominent.
Therefore, the calculation formula changing method and the correction pixel selection and correction calculation method described above are not limited to the above-described methods and the like, and the calculation formula changing method and the pixel Any method may be used as long as it is a selection and correction calculation method.

[拡大画像生成部]
次に、拡大画像生成部450をより詳細に説明する。
拡大画像生成部450は、高画質画像ブロック生成部430により生成された注目領域に対する拡大画像ブロックと、高速拡大処理部440から出力された拡大画像とを統合する。
図17は、高画質画像ブロック生成部430により生成された4×4画素の拡大画像ブロックと、高速拡大処理部440から出力された拡大画像とを統合する具体例の説明図である。
図17に示すように、拡大画像生成部450は、順次生成された拡大画像ブロック0及び拡大画像ブロック1を、高速拡大処理部440から出力された拡大画像上の対応する位置に、順次配置するようにして統合する。このとき、拡大画像生成部450は、拡大画像上の各画素値を、拡大ブロックの各画素値(S0〜S15)で置き換えるように配置してもよいし、拡大画像上の各画素値と拡大ブロックの各画素値(S0〜S15)とを重畳するように配置してもよい。
[Enlarged image generator]
Next, the enlarged image generation unit 450 will be described in more detail.
The enlarged image generation unit 450 integrates the enlarged image block for the region of interest generated by the high-quality image block generation unit 430 and the enlarged image output from the high-speed enlargement processing unit 440.
FIG. 17 is an explanatory diagram of a specific example in which the enlarged image block of 4 × 4 pixels generated by the high-quality image block generation unit 430 and the enlarged image output from the high-speed enlargement processing unit 440 are integrated.
As illustrated in FIG. 17, the enlarged image generation unit 450 sequentially arranges the sequentially generated enlarged image block 0 and enlarged image block 1 at corresponding positions on the enlarged image output from the high-speed enlargement processing unit 440. To integrate. At this time, the magnified image generation unit 450 may be arranged to replace each pixel value on the magnified image with each pixel value (S0 to S15) of the magnified block, or each pixel value on the magnified image and the magnified image. You may arrange | position so that each pixel value (S0-S15) of a block may overlap.

拡大画像ブロック同士(図17における拡大画像ブロック0及び拡大画像ブロック1)の拡大画像上の対応位置がオーバーラップする場合には、拡大画像生成部450は、各拡大画像ブロックのオーバーラップする画素の画素値の平均値を、この画素の画素値とする。また、拡大画像生成部450は、オーバーラップする画素の総和を計算し、前記画素値の総和をオーバーラップした数で割ることにより、各画素値を算出してもよい。   When the corresponding positions on the enlarged image of the enlarged image blocks (enlarged image block 0 and enlarged image block 1 in FIG. 17) overlap, the enlarged image generation unit 450 sets the overlapping pixels of the enlarged image blocks. The average value of the pixel values is set as the pixel value of this pixel. The enlarged image generation unit 450 may calculate each pixel value by calculating the sum of the overlapping pixels and dividing the sum of the pixel values by the number of overlaps.

[全体動作]
画像処理装置2の全体動作(画像拡大処理)を説明する。
図18は、画像処理装置2の全体動作を示すフローチャート(S20)である。
図18に示すように、ステップ200(S200)において、画像ブロック設定部410は、画像ブロック特徴量算出部420及び高画質画像ブロック生成部430における処理で必要とされる既定の画像ブロックのサイズをそれぞれ設定し、記憶部400に記憶されている処理対象画像データから、設定されたブロックサイズの画像ブロックを順次(例えばラスタスキャン順に)切り出し、切り出された各画像ブロックを、画像ブロック特徴量算出部420及び高画質画像ブロック生成部430にそれぞれ出力する。
[Overall operation]
The overall operation (image enlargement process) of the image processing apparatus 2 will be described.
FIG. 18 is a flowchart (S20) showing the overall operation of the image processing apparatus 2.
As shown in FIG. 18, in step 200 (S200), the image block setting unit 410 sets the default image block size required for the processing in the image block feature amount calculation unit 420 and the high-quality image block generation unit 430. An image block having a set block size is cut out sequentially (for example, in raster scan order) from the processing target image data stored in the storage unit 400 and set, and each cut out image block is converted into an image block feature amount calculation unit. 420 and the high-quality image block generation unit 430, respectively.

ステップ202(S202)において、画像ブロック特徴量算出部420は、入力された画像ブロック中の注目領域のエッジ強度Gを、式(1)を用いて算出する。
なお、{a,b,c,d}は、図5に例示するように注目領域内の各画素値である。入力画像データがグレースケール画像でなく、例えばRGB色空間のカラー画像である場合には、画像ブロック特徴量算出部420は、注目領域に関してR,G,Bの各色空間の色成分毎の画像ブロックそれぞれについて、式(1)を用いてエッジ強度Gr、Gg、Gbを計算し、Gr、Gg、Gbの中で最大のエッジ強度である色成分の画像ブロックを選択し、そのエッジ強度を注目領域の(すべての色成分に共通の)エッジ強度とする。
In step 202 (S202), the image block feature value calculation unit 420 calculates the edge strength G of the attention area in the input image block using Expression (1).
In addition, {a, b, c, d} is each pixel value in the attention area as illustrated in FIG. When the input image data is not a grayscale image but a color image in, for example, an RGB color space, the image block feature value calculation unit 420 performs an image block for each color component in each of the R, G, and B color spaces with respect to the region of interest. For each, the edge strengths Gr, Gg, and Gb are calculated using the formula (1), and the image component of the color component that is the maximum edge strength among the Gr, Gg, and Gb is selected, and the edge strength is selected as the region of interest. Edge strength (common to all color components).

ステップ204(S204)において、画像ブロック特徴量算出部420は、注目領域のエッジ強度Gに基づいて、この注目領域が特徴ブロックであるか非特徴ブロックであるかを判定する。具体的には、画像ブロック特徴量算出部420は、算出されたエッジ強度Gが既定の閾値Th以上である場合(すなわち、注目領域内の階調変化量が大きい場合)に、この注目領域を特徴ブロックとし、算出されたエッジ強度Gが既定の閾値Th未満である場合(すなわち、注目領域内の階調変化量が小さい場合)に、この注目領域を非特徴ブロックとする。
画像処理装置2は、注目領域が特徴ブロックであると判定された場合に、この注目領域の画像特徴を保存するような拡大処理行うべくS206の処理に移行し、注目領域が非特徴ブロックであると判定された場合に、S200の処理に戻り、次の画像ブロックを処理する。
In step 204 (S204), the image block feature amount calculation unit 420 determines whether the attention area is a feature block or a non-feature block based on the edge strength G of the attention area. Specifically, the image block feature amount calculation unit 420 calculates the attention area when the calculated edge strength G is equal to or larger than a predetermined threshold Th (that is, when the gradation change amount in the attention area is large). When the calculated edge strength G is less than a predetermined threshold Th (that is, when the gradation change amount in the attention area is small), the attention area is determined as a non-feature block.
When it is determined that the attention area is a feature block, the image processing apparatus 2 proceeds to the process of S206 to perform an enlargement process for storing the image feature of the attention area, and the attention area is a non-feature block. If it is determined, the process returns to S200 and the next image block is processed.

ステップ206(S206)において、画像ブロック特徴量算出部420は、特徴ブロックと判定された注目領域について、ブロック内の各画素の色要素の画素値の大小関係を判定し、特徴ブロックが同色ブロックであるか境界ブロックであるかを判定する。   In step 206 (S206), the image block feature quantity calculation unit 420 determines the magnitude relationship between the pixel values of the color elements of each pixel in the block for the attention area determined as the feature block, and the feature block is the same color block. Determine whether it is a boundary block or not.

ステップ208(S208)において、画像ブロック特徴量算出部420は、注目領域(特徴ブロック)及びその注目領域を含む1乃至複数の周辺領域中の参照領域のエッジ角度Θを、式(3)を用いて計算する。
なお、gx、gyは、式(1)において各々算出される値である。そして、画像ブロック特徴量算出部420は、算出された複数のエッジ角度Θから注目領域のエッジ方向θを推定する。例えば、画像ブロック特徴量算出部420は、得られた複数のエッジ角度Θの平均値を算出し、算出された平均値を推定エッジ方向θとする。
In step 208 (S208), the image block feature value calculation unit 420 uses the expression (3) for the attention area (feature block) and the edge angle Θ of the reference area in one or more peripheral areas including the attention area. To calculate.
Note that gx and gy are values calculated in the equation (1). Then, the image block feature quantity calculation unit 420 estimates the edge direction θ of the region of interest from the calculated plurality of edge angles Θ. For example, the image block feature quantity calculation unit 420 calculates the average value of the obtained plurality of edge angles Θ, and sets the calculated average value as the estimated edge direction θ.

ステップ210(S210)において、画像ブロック特徴量算出部420は、推定されたエッジ方向θ及び注目領域(特徴ブロック)の画素分布パターンを用いて、エッジパターンを選択する。エッジパターンは、エッジ方向及び画素分布パターンに応じて、予め用意されたパターンテーブル(図9)の中から選択される。   In step 210 (S210), the image block feature quantity calculation unit 420 selects an edge pattern using the estimated edge direction θ and the pixel distribution pattern of the region of interest (feature block). The edge pattern is selected from a pattern table (FIG. 9) prepared in advance according to the edge direction and the pixel distribution pattern.

ステップ212(S212)において、高画質画像ブロック生成部430は、拡大率に応じてサイズ及び重み付け係数が設定された強調カーネル434(図11)を用いて、画像ブロック設定部410により切り出された画像ブロック中の注目領域(特徴ブロック)及びその周辺領域の画像データに対して、コントラスト強調処理を施す。   In step 212 (S212), the high-quality image block generation unit 430 uses the enhancement kernel 434 (FIG. 11) in which the size and the weighting coefficient are set according to the enlargement ratio, and the image cut out by the image block setting unit 410 Contrast emphasis processing is performed on the image data of the attention area (feature block) and its peripheral area in the block.

ステップ214(S214)において、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により判定された同色ブロックについて、画像ブロック特徴量算出部420により得られた注目領域のエッジパターン及び前記注目領域の推定エッジ方向θと、S212においてコントラスト強調が施された注目領域及び周辺領域内の画素値を用いて、エッジパターンと推定エッジ方向θとに対応する算出式(図12、図13)により、3×3画像ブロックに相当する画素値(p0〜p8)を生成する。さらに、高画質画像ブロック生成部430は、生成された画素値(p0〜p8)と推定エッジ方向θとに基づいて選択された参照画素(r0〜r13)を用いて、図15に示す算出式により、注目領域に対する拡大画像ブロックを生成する。   In step 214 (S214), the high-quality image block generation unit 430, for the same color block determined by the image block feature quantity calculation unit 420, the edge pattern of the attention area obtained by the image block feature quantity calculation unit 420 and the attention pattern. Using the estimated edge direction θ of the region and the pixel values in the attention region and the peripheral region subjected to contrast enhancement in S212, the calculation formulas (FIGS. 12 and 13) corresponding to the edge pattern and the estimated edge direction θ are used. Pixel values (p0 to p8) corresponding to 3 × 3 image blocks are generated. Further, the high-quality image block generation unit 430 uses the reference pixels (r0 to r13) selected based on the generated pixel values (p0 to p8) and the estimated edge direction θ, and the calculation formula illustrated in FIG. Thus, an enlarged image block for the attention area is generated.

ステップ216(S216)において、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により判定された境界ブロックについて、同色ブロックに対する算出式(図12、図13)とは異なる算出式(図16(B))により、3×3画像ブロックに相当する画素値を生成する。さらに、高画質画像ブロック生成部430は、図15に示す算出式を用いて拡大画像ブロックを生成し、1つ以上の画素の画素値を補正する。   In step 216 (S216), the high-quality image block generation unit 430 calculates a calculation formula (FIG. 12) different from the calculation formula (FIG. 12, FIG. 13) for the same color block for the boundary block determined by the image block feature value calculation unit 420. 16 (B)), pixel values corresponding to 3 × 3 image blocks are generated. Further, the high-quality image block generation unit 430 generates an enlarged image block using the calculation formula shown in FIG. 15 and corrects the pixel values of one or more pixels.

ステップ218(S218)において、画像拡大プログラム4は、全ての入力画像データについて、S200からS216までの処理が完了したか否かを判定し、処理が完了していないと判定された場合に、S200の処理に戻り、次の画素ブロックに対する処理を行い、全ての入力画像データについて処理が完了していると判定された場合に、S220の処理に移行する。   In step 218 (S218), the image enlargement program 4 determines whether or not the processing from S200 to S216 has been completed for all input image data, and if it is determined that the processing has not been completed, S200 Returning to the process, the process for the next pixel block is performed, and if it is determined that the process has been completed for all input image data, the process proceeds to S220.

ステップ220(S220)において、高速拡大処理部440は、記憶部400に記憶されている入力画像データを、画像毎または数ライン毎に入力し、最近傍補間法により拡大処理を行う。
なお、本例においては、高速拡大処理部440は、高画質画像ブロック生成部430による拡大処理(S200〜S216までの処理)が終了した後に拡大処理を行っているが、高画質画像ブロック生成部430による拡大処理と並行して拡大処理を行ってもよいし、高画質画像ブロック生成部430による拡大処理の前に拡大処理を行ってもよい。
ステップ222(S222)において、拡大画像生成部450は、高画質画像ブロック生成部430により生成された拡大画像ブロックと、高速拡大処理部440により拡大された拡大画像を統合する。
In step 220 (S220), the high-speed enlargement processing unit 440 inputs the input image data stored in the storage unit 400 for each image or every several lines, and performs enlargement processing by the nearest neighbor interpolation method.
In this example, the high-speed enlargement processing unit 440 performs the enlargement process after the enlargement process (the processes from S200 to S216) by the high-quality image block generation unit 430 is completed. The enlargement process may be performed in parallel with the enlargement process by 430, or the enlargement process may be performed before the enlargement process by the high-quality image block generation unit 430.
In step 222 (S222), the enlarged image generation unit 450 integrates the enlarged image block generated by the high-quality image block generation unit 430 and the enlarged image enlarged by the high-speed enlargement processing unit 440.

以上説明したように、本実施形態における画像処理装置2は、注目画素を含む所定の大きさの画像領域の特徴量を算出し、算出された画像領域の特徴量が所定の条件を満たす場合に、この画像領域内の各画素の色情報に基づいて画像領域を判定し、算出された画像領域の特徴量と、画像領域に対する判定結果とに基づいて、この画像領域に対応する拡大画像領域を生成し、この生成とは異なる拡大手法を適用して、入力画像の拡大画像を生成し、生成された拡大画像領域と、生成された拡大画像とに基づいて、入力画像に対する拡大画像を生成する。   As described above, the image processing apparatus 2 according to the present embodiment calculates the feature amount of an image area having a predetermined size including the target pixel, and the calculated feature amount of the image area satisfies a predetermined condition. The image area is determined based on the color information of each pixel in the image area, and the enlarged image area corresponding to the image area is determined based on the calculated feature value of the image area and the determination result for the image area. And generating an enlarged image of the input image by applying an enlargement method different from this generation, and generating an enlarged image for the input image based on the generated enlarged image region and the generated enlarged image .

このような拡大処理によって、本実施形態における画像処理装置2は、高画質拡大処理を特徴的な部分(特徴ブロック)にのみ適用することにより、全体としての処理負荷を抑え、かつ、特徴的な部分について高画質拡大処理を適用するので、特徴的な部分の特徴量を保存して、ボケやジャギーなどの画質欠陥を抑制した高画質な拡大画像を高速に得ることができる。また、本実施形態における画像処理装置2は、エッジの鮮鋭度や滑らかさを保持しながら、エッジ部周辺のアンダーシュートやオーバーシュートといった画質欠陥を抑制することができる。   Through such enlargement processing, the image processing apparatus 2 according to the present embodiment applies the high-quality enlargement processing only to characteristic portions (feature blocks), thereby suppressing the overall processing load and Since the high-quality enlargement process is applied to the portion, the feature amount of the characteristic portion can be stored, and a high-quality enlarged image in which image quality defects such as blur and jaggy are suppressed can be obtained at high speed. Further, the image processing apparatus 2 according to the present embodiment can suppress image quality defects such as undershoot and overshoot around the edge portion while maintaining the sharpness and smoothness of the edge.

本発明にかかる画像処理方法が適応される画像処理装置2のハードウェア構成を、制御装置20を中心に例示する図である。It is a figure which illustrates the hardware constitutions of the image processing apparatus 2 with which the image processing method concerning this invention is applied centering on the control apparatus 20. FIG. 制御装置20により実行され、本発明にかかる画像処理方法を実現する画像拡大プログラム4の機能構成を示す図である。It is a figure which shows the function structure of the image expansion program 4 which is performed by the control apparatus 20 and implement | achieves the image processing method concerning this invention. エッジ強度算出部422において、エッジ強度Gと基準値との比較により特徴ブロックと判定された領域を例示する。The edge strength calculation unit 422 exemplifies a region determined as a feature block by comparing the edge strength G with a reference value. 画像中のエッジ部分、特徴ブロック及びこの特徴ブロックの画素値を例示する図であって、図4(A)は、画像中のエッジ部分を例示する図であり、図4(B)は、図4(A)に例示された画像中で特徴ブロック(特徴ブロック1、特徴ブロック2及び特徴ブロック3)と判定された画像領域を例示し、図4(C)は、前記特徴ブロックそれぞれの画素値を例示する図である。FIG. 4A is a diagram illustrating an edge portion in an image, a feature block, and pixel values of the feature block. FIG. 4A is a diagram illustrating an edge portion in the image, and FIG. 4A illustrates an image area determined as a feature block (feature block 1, feature block 2, and feature block 3) in the image illustrated in FIG. 4A, and FIG. 4C illustrates pixel values of the feature blocks. FIG. 注目領域及び周辺領域の具体例と、注目領域のエッジ方向の一例の説明図であり、図5(A)は、注目領域及び周辺領域を例示し、図5(B)は、この注目領域について推定されるエッジ方向を例示する図である。FIG. 5A is a diagram illustrating a specific example of a region of interest and a peripheral region and an example of an edge direction of the region of interest. FIG. 5A illustrates the region of interest and the peripheral region, and FIG. It is a figure which illustrates the estimated edge direction. エッジ方向推定部426によるエッジ方向推定処理(S10)を示すフローチャートである。It is a flowchart which shows the edge direction estimation process (S10) by the edge direction estimation part 426. エッジ方向推定処理(S10)のS102の処理において選択される参照領域を例示する図である。It is a figure which illustrates the reference field selected in processing of S102 of edge direction presumption processing (S10). 図5に示した注目領域における推定エッジ方向の一例の説明図である。It is explanatory drawing of an example of the estimated edge direction in the attention area | region shown in FIG. エッジパターン選択部428により用いられるエッジパターンテーブルを例示する図である。It is a figure which illustrates the edge pattern table used by the edge pattern selection part 428. 図9に示した注目領域に対応するエッジパターンの選択方法を説明する図である。It is a figure explaining the selection method of the edge pattern corresponding to the attention area | region shown in FIG. 高画質画像ブロック生成部430により用いられる強調カーネル434(エッジ強調カーネル)を例示する図である。It is a figure which illustrates the emphasis kernel 434 (edge emphasis kernel) used by the high quality image block generation part 430. 高画質画像ブロック生成部430における拡大画像ブロックの生成処理の具体例の説明図である。It is explanatory drawing of the specific example of the production | generation process of the enlarged image block in the high quality image block production | generation part 430. エッジパターンと推定エッジ方向との組み合わせの場合に用いられる計算式の一例の説明図である。It is explanatory drawing of an example of the calculation formula used in the case of the combination of an edge pattern and an estimated edge direction. 注目領域における推定エッジ方向に基づく参照画素r0〜r13の選択方法の説明図である。It is explanatory drawing of the selection method of the reference pixels r0-r13 based on the estimated edge direction in an attention area. 4×4画素の拡大画像ブロックの生成処理の具体例の説明図である。It is explanatory drawing of the specific example of a production | generation process of the enlarged image block of 4x4 pixel. 境界ブロック処理部432における拡大画像ブロックの生成処理と、画素値補正処理の具体例の説明図である。It is explanatory drawing of the specific example of the production | generation process of the enlarged image block in the boundary block process part 432, and a pixel value correction process. 高画質画像ブロック生成部430により生成された4×4画素の拡大画像ブロックと、高速拡大処理部440から出力された拡大画像とを統合する具体例の説明図である。4 is an explanatory diagram of a specific example in which an enlarged image block of 4 × 4 pixels generated by a high-quality image block generation unit 430 and an enlarged image output from a high-speed enlargement processing unit 440 are integrated. FIG. 画像処理装置2の全体動作を示すフローチャート(S20)である。It is a flowchart (S20) which shows the whole operation | movement of the image processing apparatus 2.

符号の説明Explanation of symbols

2・・・画像処理装置
10・・・プリンタ装置
20・・・制御装置
202・・・CPU
204・・・メモリ
22・・・通信装置
24・・・記憶装置
26・・・UI装置
4・・・画像拡大プログラム
400・・・記憶部
410・・・画像ブロック設定部
420・・・画像ブロック特徴量算出部
422・・・エッジ強度算出部
424・・・境界ブロック判定部
426・・・エッジ方向推定部
428・・・エッジパターン選択部
430・・・高画質画像ブロック生成部
432・・・境界ブロック処理部
434a、434b・・・強調カーネル
440・・・高速拡大処理部
450・・・拡大画像生成部
2 ... Image processing device 10 ... Printer device 20 ... Control device 202 ... CPU
204 ... Memory 22 ... Communication device 24 ... Storage device 26 ... UI device 4 ... Image enlargement program 400 ... Storage unit 410 ... Image block setting unit 420 ... Image block Feature amount calculation unit 422 ... Edge strength calculation unit 424 ... Boundary block determination unit 426 ... Edge direction estimation unit 428 ... Edge pattern selection unit 430 ... High quality image block generation unit 432 ... Boundary block processing units 434a, 434b ... enhancement kernel 440 ... high-speed enlargement processing unit 450 ... enlarged image generation unit

Claims (18)

入力画像の拡大処理を行う画像処理装置であって、
注目画素を含む所定の大きさの画像領域について算出した特徴量が既定の基準値以上である画像領域について、該画像領域内の各画素が有する色要素間の関係が同じである場合は該画像領域を同色ブロックと判定し、該画像領域内の各画素が有する色要素間の関係が異なる場合は該画像領域を境界ブロックと判定する画像領域判定手段と、
前記画像領域判定手段により同色ブロックと判定された画像領域について、該画像領域内の階調変化方向および既定の画素値パターンに対応する第1の演算式を適用して画素値を算出することにより、該画像領域に対応する拡大画像領域を生成する第1の拡大画像領域生成手段と、
前記第1の拡大画像領域生成手段で用いる拡大手法よりも画像領域のエッジを際立たせるように、前記画像領域判定手段により境界ブロックと判定された画像領域について、該画像領域内の階調変化方向及び既定の画素値パターンに応じた画素位置について前記第1の演算式を変更した第2の演算式を適用して画素値を算出することにより、該画像領域に対応する拡大画像領域を生成する第2の拡大画像領域生成手段と
を有する画像処理装置。
An image processing apparatus for enlarging an input image,
For an image area in which the feature amount calculated for an image area of a predetermined size including the target pixel is equal to or greater than a predetermined reference value, the relationship between the color elements of each pixel in the image area is the same An image area determination unit that determines an area as the same color block, and determines that the image area is a boundary block when the relationship between the color elements of each pixel in the image area is different;
For the image area determined as the same color block by the image area determination unit, to calculate the pixel values by applying a first operational expression corresponding to the gradation change direction and default pixel value pattern of the image areas A first enlarged image area generating means for generating an enlarged image area corresponding to the image area;
The gradation change direction in the image area for the image area determined as the boundary block by the image area determination means so that the edge of the image area stands out from the enlargement method used in the first enlarged image area generation means And applying a second arithmetic expression obtained by changing the first arithmetic expression to a pixel position corresponding to a predetermined pixel value pattern, thereby generating a magnified image area corresponding to the image area An image processing apparatus comprising: a second enlarged image region generation unit.
前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段で用いる拡大手法よりも処理負荷の小さい拡大手法を適用して、入力画像の拡大画像を生成する拡大処理手段と、
前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段により生成された拡大画像領域と、前記拡大処理手段により生成された拡大画像とに基づいて、入力画像に対する拡大画像を生成する拡大画像生成手段と
をさらに有する請求項1に記載の画像処理装置。
An enlargement processing unit that generates an enlarged image of an input image by applying an enlargement method that has a smaller processing load than the enlargement method used in the first enlarged image region generation unit and the second enlarged image region generation unit;
Generating an enlarged image for the input image based on the enlarged image region generated by the first enlarged image region generating unit and the second enlarged image region generating unit and the enlarged image generated by the enlargement processing unit The image processing apparatus according to claim 1, further comprising:
前記画像領域判定手段は、画像領域内の各画素値に基づいて算出された画像領域における階調変化量を画像領域の特徴量として、該特徴量が既定の基準値以上である画像領域を判定の対象とする
請求項1に記載の画像処理装置。
The image area determination means determines an image area having a feature amount equal to or greater than a predetermined reference value, using the gradation change amount in the image area calculated based on each pixel value in the image area as a feature amount of the image area. The image processing apparatus according to claim 1.
前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段は、画像領域内の各画素値から算出された画像領域における階調変化方向に基づいて拡大画像領域を生成する
請求項1に記載の画像処理装置。
The first enlarged image region generating unit and the second enlarged image region generating unit generate an enlarged image region based on a gradation change direction in the image region calculated from each pixel value in the image region. The image processing apparatus according to 1.
前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段は、画像領域内の各画素値から算出された画像領域における階調変化に対応する既定の画素値パターンに基づいて拡大画像領域を生成する
請求項1に記載の画像処理装置。
The first enlarged image area generating means and the second enlarged image area generating means are enlarged based on a predetermined pixel value pattern corresponding to a gradation change in the image area calculated from each pixel value in the image area. The image processing device according to claim 1, wherein an image region is generated.
前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段は、色空間における複数の色成分のうち、該色成分それぞれについて算出した特徴量に基づき選択された1つの色成分からさらに算出した特徴量に基づいて拡大画像領域を生成する
請求項1に記載の画像処理装置。
The first enlarged image region generating unit and the second enlarged image region generating unit are configured to select one color component selected from a plurality of color components in a color space based on a feature amount calculated for each color component. The image processing apparatus according to claim 1, further generating an enlarged image area based on the calculated feature amount.
前記画像領域判定手段は、画像領域内の各画素の色成分値それぞれの大小関係により、画像領域を判定する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the image area determination unit determines the image area based on a magnitude relationship between color component values of pixels in the image area.
前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段は、画像領域の特徴量と、該画像領域の近傍領域の特徴量と、該近傍領域内の画素値とを用いて、拡大画像領域を生成する
請求項1に記載の画像処理装置。
The first enlarged image region generation unit and the second enlarged image region generation unit use the feature amount of the image region, the feature amount of the neighborhood region of the image region, and the pixel value in the neighborhood region. The image processing apparatus according to claim 1, wherein an enlarged image region is generated.
前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段は、階調変化を強調するエッジ強調処理を拡大率に応じて行って、画像領域内の画素値を補正し、補正された画素値を用いて拡大画像領域を生成する
請求項1に記載の画像処理装置。
The first enlarged image area generating unit and the second enlarged image area generating unit perform edge enhancement processing for emphasizing a change in gradation according to an enlargement ratio to correct a pixel value in the image area and perform correction. The image processing apparatus according to claim 1, wherein an enlarged image region is generated using the pixel values that have been set.
前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段は、階調変化方向に応じて、画像領域の近傍領域内の画素値を選択し、選択された画素値を用いて拡大画像領域を生成する
請求項4に記載の画像処理装置。
The first enlarged image region generation unit and the second enlarged image region generation unit select a pixel value in the vicinity region of the image region according to the gradation change direction, and use the selected pixel value. The image processing apparatus according to claim 4, wherein an enlarged image area is generated.
前記第2の拡大画像領域生成手段は、画像領域について算出された特徴量に基づいて、拡大画像領域内の画素を選択し、既定の演算法を用いて、選択された画素の画素値を補正する
請求項1に記載の画像処理装置。
The second enlarged image area generation unit selects a pixel in the enlarged image area based on the feature amount calculated for the image area, and corrects the pixel value of the selected pixel using a predetermined calculation method. The image processing apparatus according to claim 1.
前記拡大処理手段は、少なくとも最近傍補間法に基づいた拡大手法を適用する
請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the enlargement processing unit applies an enlargement method based on at least a nearest neighbor interpolation method.
前記拡大処理手段は、少なくとも線形補間法に基づいた拡大手法を適用する
請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the enlargement processing unit applies an enlargement method based on at least a linear interpolation method.
前記拡大処理手段は、入力画像毎あるいは入力画像中の数ライン毎に、拡大画像を生成する
請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the enlargement processing unit generates an enlarged image for each input image or for every several lines in the input image.
前記拡大画像生成手段は、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段により生成された拡大画像領域を、前記拡大処理手段により生成された拡大画像の対応する位置に配置する
請求項2に記載の画像処理装置。
The magnified image generating means sets the magnified image area generated by the first magnified image area generating means and the second magnified image area generating means to a position corresponding to the magnified image generated by the magnification processing means. The image processing apparatus according to claim 2.
前記拡大画像生成手段は、前記拡大処理手段により生成された拡大画像上の各画素値を、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段により生成された拡大画像領域の各画素値に置換する
請求項15に記載の画像処理装置。
The enlarged image generation means converts each pixel value on the enlarged image generated by the enlargement processing means to an enlarged image area generated by the first enlarged image area generation means and the second enlarged image area generation means. The image processing apparatus according to claim 15 , wherein the pixel value is replaced with each pixel value.
前記拡大画像生成手段は、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段により生成される複数の拡大画像領域が互いに重なり合う場合に、これらの拡大画像領域の重畳部分について、同一画素に対応する複数の画素値の平均値を算出する
請求項2に記載の画像処理装置。
The enlarged image generating unit is configured to detect a plurality of enlarged image regions generated by the first enlarged image region generating unit and the second enlarged image region generating unit when overlapping portions of the enlarged image regions. The image processing apparatus according to claim 2, wherein an average value of a plurality of pixel values corresponding to the same pixel is calculated.
コンピュータを含み、入力画像の拡大処理を行う画像処理装置において、
注目画素を含む所定の大きさの画像領域について算出した特徴量が既定の基準値以上である画像領域について、該画像領域内の各画素が有する色要素間の関係が同じである場合は該画像領域を同色ブロックと判定し、該画像領域内の各画素が有する色要素間の関係が異なる場合は該画像領域を境界ブロックと判定する画像領域判定ステップと、
同色ブロックと判定された画像領域について、該画像領域内の階調変化方向および既定の画素値パターンに対応する第1の演算式を適用して画素値を算出することにより、該画像領域に対応する拡大画像領域を生成する第1の拡大画像領域生成ステップと、
前記第1の拡大画像領域生成ステップで用いる拡大手法よりも画像領域のエッジを際立たせるように、境界ブロックと判定された画像領域について、該画像領域内の階調変化方向及び既定の画素値パターンに応じた画素位置について前記第1の演算式を変更した第2の演算式を適用して画素値を算出することにより、該画像領域に対応する拡大画像領域を生成する第2の拡大画像領域生成ステップと
を前記画像処理装置のコンピュータに実行させるプログラム。
In an image processing apparatus that includes a computer and performs an enlargement process of an input image,
For an image area in which the feature amount calculated for an image area of a predetermined size including the target pixel is equal to or greater than a predetermined reference value, the relationship between the color elements of each pixel in the image area is the same An image area determination step for determining an area as the same color block, and determining that the image area is a boundary block if the relationship between the color elements of each pixel in the image area is different;
For the determined image areas with the same color block, by calculating the pixel values by applying a first operational expression corresponding to the gradation change direction and default pixel value pattern of the image area, to the image area A first enlarged image region generating step for generating a corresponding enlarged image region;
The gradation change direction in the image area and the predetermined pixel value pattern for the image area determined to be a boundary block so as to make the edge of the image area stand out from the enlargement method used in the first enlarged image area generation step. A second enlarged image area that generates an enlarged image area corresponding to the image area by calculating a pixel value by applying a second arithmetic expression obtained by changing the first arithmetic expression for a pixel position corresponding to A program for causing a computer of the image processing apparatus to execute the generating step.
JP2005172039A 2005-06-13 2005-06-13 Image processing apparatus and program thereof Expired - Fee Related JP4730525B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005172039A JP4730525B2 (en) 2005-06-13 2005-06-13 Image processing apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005172039A JP4730525B2 (en) 2005-06-13 2005-06-13 Image processing apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2006350413A JP2006350413A (en) 2006-12-28
JP4730525B2 true JP4730525B2 (en) 2011-07-20

Family

ID=37646224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005172039A Expired - Fee Related JP4730525B2 (en) 2005-06-13 2005-06-13 Image processing apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP4730525B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252862A (en) * 2007-03-05 2008-10-16 Ricoh Co Ltd Image processing apparatus, image processing method, and image processing program
JP7274867B2 (en) * 2019-01-07 2023-05-17 株式会社デンソーテン Attached matter detection device and attached matter detection method

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0239275A (en) * 1988-07-28 1990-02-08 Agency Of Ind Science & Technol Obstacle detecting device
JPH04351169A (en) * 1991-05-29 1992-12-04 Canon Inc Method and device for processing picture
JPH05250471A (en) * 1992-03-09 1993-09-28 Fujitsu Ltd Picture processor with contour extraction function
JPH1188712A (en) * 1997-09-12 1999-03-30 Konica Corp Image processing method and image processor
JP2000149031A (en) * 1998-11-09 2000-05-30 Canon Inc Image processing device and method and storage medium
JP2001155173A (en) * 1999-11-25 2001-06-08 Tokushima Ken Method of processing color image
JP2001268378A (en) * 2000-03-23 2001-09-28 Riso Kagaku Corp Method and apparatus for processing image
JP2003174557A (en) * 2001-12-07 2003-06-20 Sharp Corp Interpolation processing method, image processor, image forming device, image processing program and recording medium recorded with the same
JP2003274157A (en) * 2002-03-19 2003-09-26 Fuji Xerox Co Ltd Image processor, image processing method, image processing program, and computer readable recording medium with image processing program recorded
JP2003319189A (en) * 2002-04-19 2003-11-07 Sharp Corp Image reading apparatus
JP2004180171A (en) * 2002-11-28 2004-06-24 Fuji Xerox Co Ltd Device, method and program for processing image, and storage medium
JP2005123813A (en) * 2003-10-15 2005-05-12 Fuji Xerox Co Ltd Image processing apparatus

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0239275A (en) * 1988-07-28 1990-02-08 Agency Of Ind Science & Technol Obstacle detecting device
JPH04351169A (en) * 1991-05-29 1992-12-04 Canon Inc Method and device for processing picture
JPH05250471A (en) * 1992-03-09 1993-09-28 Fujitsu Ltd Picture processor with contour extraction function
JPH1188712A (en) * 1997-09-12 1999-03-30 Konica Corp Image processing method and image processor
JP2000149031A (en) * 1998-11-09 2000-05-30 Canon Inc Image processing device and method and storage medium
JP2001155173A (en) * 1999-11-25 2001-06-08 Tokushima Ken Method of processing color image
JP2001268378A (en) * 2000-03-23 2001-09-28 Riso Kagaku Corp Method and apparatus for processing image
JP2003174557A (en) * 2001-12-07 2003-06-20 Sharp Corp Interpolation processing method, image processor, image forming device, image processing program and recording medium recorded with the same
JP2003274157A (en) * 2002-03-19 2003-09-26 Fuji Xerox Co Ltd Image processor, image processing method, image processing program, and computer readable recording medium with image processing program recorded
JP2003319189A (en) * 2002-04-19 2003-11-07 Sharp Corp Image reading apparatus
JP2004180171A (en) * 2002-11-28 2004-06-24 Fuji Xerox Co Ltd Device, method and program for processing image, and storage medium
JP2005123813A (en) * 2003-10-15 2005-05-12 Fuji Xerox Co Ltd Image processing apparatus

Also Published As

Publication number Publication date
JP2006350413A (en) 2006-12-28

Similar Documents

Publication Publication Date Title
JP3915563B2 (en) Image processing apparatus and image processing program
US6075926A (en) Computerized method for improving data resolution
EP2138975B1 (en) Apparatus, method and computer-readable recording medium for pixel interpolation
JP3167120B2 (en) Image processing apparatus and method
US7885486B2 (en) Image processing system, method for processing image and computer readable medium
JP4716255B2 (en) Image processing apparatus, image processing method, and program thereof
JPH07131634A (en) Image processor
JP4507279B2 (en) Image processing apparatus, image processing method, and program thereof
TW200535786A (en) Image processing device, image processing program, and computer-readable recording medium
JP4126541B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
JP4730525B2 (en) Image processing apparatus and program thereof
JP4857975B2 (en) Image processing system and image processing program
JP2006050481A (en) Image processing apparatus, image processing method and program thereof
JP4265363B2 (en) Image processing device
JP2006252108A (en) Image processing device, image processing method, and its program
JP2000115526A (en) Picture processor and edge processing method
JP5013243B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium recording the same
KR100587979B1 (en) Interpolation method for image enlargement based on edge and corner
JP4736121B2 (en) Image analysis apparatus, image processing apparatus, image analysis method, image analysis program, and recording medium recording the same
JP2004133592A (en) Image processor, image processing method and image processing program for magnifying image
JP3491829B2 (en) Image processing apparatus and image processing method
JP5287581B2 (en) Image processing apparatus and image processing method
JP2006050480A (en) Image processing apparatus, image processing method and program thereof
JP4265362B2 (en) Image processing device
JP3262425B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110405

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees