JP4517288B2 - Image processing apparatus, image processing method, and program thereof - Google Patents

Image processing apparatus, image processing method, and program thereof Download PDF

Info

Publication number
JP4517288B2
JP4517288B2 JP2004366499A JP2004366499A JP4517288B2 JP 4517288 B2 JP4517288 B2 JP 4517288B2 JP 2004366499 A JP2004366499 A JP 2004366499A JP 2004366499 A JP2004366499 A JP 2004366499A JP 4517288 B2 JP4517288 B2 JP 4517288B2
Authority
JP
Japan
Prior art keywords
image
pixel value
enlarged image
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004366499A
Other languages
Japanese (ja)
Other versions
JP2006174285A (en
Inventor
聡 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2004366499A priority Critical patent/JP4517288B2/en
Publication of JP2006174285A publication Critical patent/JP2006174285A/en
Application granted granted Critical
Publication of JP4517288B2 publication Critical patent/JP4517288B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、画像を拡大する画像処理装置に関する。   The present invention relates to an image processing apparatus that enlarges an image.

二値画像の拡大処理は、ディジタル複写機や複合機、プリンタ、FAX、スキャナなどの編集やファイリング、表示、印刷などを行うシステムにとって基本的な処理の一つである。また近年、高解像度のディジタル複写機や複合機、プリンタの普及に伴い、印刷出力の際に高画質の出力結果を得ることが望まれており、高画質拡大処理に対する重要度が高まっている。
二値画像を拡大処理する既存の代表的な手法としては、最近傍法や線形補間法がある。最近傍法は、拡大後の画素値として、その画素を原画像上に逆写像した際に最も距離が近い画素の画素値を使うという方法である。この方法は、演算量が少ないため高速に処理することができる。しかし、原画像の1画素がそのまま矩形形状に拡大されるため、二値画像においては斜線部やエッジ部のジャギーが目立ち、倍率が大きい場合には画質劣化の程度は非常に大きい。
これらの問題を解決する試みとして、例えば特許文献1、特許文献2などの新規方式が提案されている。
特許文献1に記載されている技術では、着目画素を中心とする所定領域毎に予め用意されたテンプレートとマッチングをとり、マッチングパターンに対応するスムージング拡大パターンにより拡大し、前記拡大パターンを拡大率に応じて1つ以上の画素に分割し、その各画素毎に平滑化処理を施して着目画素を拡大および多値化する。またパターンは予め複数のパターン群に分け、マッチングをとる優先順位を予め決めることによりパターンの誤検出を防止している。しかし、本技術は、基本的に、テンプレートマッチングと平滑化処理のみによる2値画像の拡大であり、非常に多くのテンプレートを必要とし、用意されないパターンのエッジに関してはスムージング拡大処理を行うことができない。
特許文献2に記載されている技術では、まず原画像を2値化し、その2値画像から原画像に含まれる斜め成分の方向を、方向毎に予め用意した2次元パターン(行列データ)と一致判定することにより求め、求められた方向の斜線と画素位置を格子点と見なした場合の交点とその交点における画素値を求める事により補間処理を行う。しかし、本技術は、求められた方向により補正がされてはいるが基本的には線形補間(内挿)法による補間処理であり、十分なジャギーの低減は行えない。
特開平7−221976号公報 特開2000−228723号公報
The binary image enlargement process is one of the basic processes for a system that performs editing, filing, display, printing, and the like of a digital copying machine, a multifunction machine, a printer, a FAX, a scanner, and the like. In recent years, with the widespread use of high-resolution digital copiers, multifunction peripherals, and printers, it has been desired to obtain high-quality output results at the time of print output, and the importance of high-quality enlargement processing has increased.
Typical existing methods for enlarging a binary image include a nearest neighbor method and a linear interpolation method. The nearest neighbor method is a method of using the pixel value of the pixel having the closest distance when the pixel is inversely mapped on the original image as the pixel value after enlargement. Since this method has a small amount of calculation, it can be processed at high speed. However, since one pixel of the original image is directly expanded into a rectangular shape, in a binary image, jaggy in the hatched portion and the edge portion is conspicuous, and the degree of image quality deterioration is very large when the magnification is large.
As an attempt to solve these problems, new methods such as Patent Document 1 and Patent Document 2 have been proposed.
In the technique described in Patent Document 1, matching is performed with a template prepared in advance for each predetermined region centered on the pixel of interest, and enlargement is performed using a smoothing enlargement pattern corresponding to the matching pattern. Accordingly, the pixel is divided into one or more pixels, and a smoothing process is performed for each pixel to enlarge and multivalue the pixel of interest. In addition, patterns are divided into a plurality of pattern groups in advance, and the priority of matching is determined in advance to prevent erroneous pattern detection. However, the present technology basically enlarges a binary image only by template matching and smoothing processing, requires a very large number of templates, and cannot perform smoothing enlargement processing on edges of patterns that are not prepared. .
In the technique described in Patent Document 2, the original image is first binarized, and the direction of the diagonal component included in the original image from the binary image matches the two-dimensional pattern (matrix data) prepared in advance for each direction. Interpolation processing is performed by obtaining intersection points and pixel values at the intersection points when the diagonal lines and pixel positions in the obtained direction are regarded as grid points. However, although this technique is corrected according to the obtained direction, it is basically an interpolation process by a linear interpolation (interpolation) method, and cannot sufficiently reduce jaggy.
JP-A-7-221976 JP 2000-228723 A

本発明は、上述した背景からなされたものであり、画像を高画質に拡大する画像処理装置を提供することを目的とする。   The present invention has been made from the above-described background, and an object thereof is to provide an image processing apparatus that enlarges an image with high image quality.

[画像処理装置]
上記目的を達成するために、本発明にかかる画像処理装置は、入力画像の拡大処理を行う画像処理装置であって、入力画像に含まれる注目画素について、この注目画素を含む既定の大きさの画像領域の特徴を抽出する領域特徴抽出手段と、前記領域特徴抽出手段により抽出された特徴に基づいて、少なくともこの画像領域内の画素値を変換する画素値変換手段と、前記領域特徴抽出手段により抽出された特徴が既定の条件を満たす画像領域の注目画素に対して、前記画素値変換手段により画素値が変換された画像領域に基づいて、この画像領域に含まれる注目画素に対応する拡大画像領域を生成する拡大画像領域生成手段と、前記拡大画像領域生成手段とは異なる拡大処理方法を適用して、入力画像の拡大画像を生成する拡大画像生成手段と、前記拡大画像領域生成手段により生成された拡大画像領域と、前記拡大画像生成手段により生成された拡大画像とを統合する画像統合手段とを有する。
[Image processing device]
In order to achieve the above object, an image processing apparatus according to the present invention is an image processing apparatus that performs an enlargement process of an input image, and for a target pixel included in the input image, a predetermined size including the target pixel is provided. An area feature extracting unit for extracting an image area feature, a pixel value converting unit for converting at least a pixel value in the image area based on the feature extracted by the area feature extracting unit, and the area feature extracting unit An enlarged image corresponding to the target pixel included in the image area based on the image area in which the pixel value is converted by the pixel value conversion unit with respect to the target pixel of the image area in which the extracted feature satisfies a predetermined condition An enlarged image area generating means for generating an area, and an enlarged image generating means for generating an enlarged image of the input image by applying an enlargement processing method different from the enlarged image area generating means; And an image integration means for integrating the the enlarged image region generated by the enlarged image area generation unit, and an enlarged image generated by the enlarged image generating means.

好適には、前記画素値変換手段は、前記画像領域内の画素値と、この画像領域の近傍領域内の画素値とを変換する。   Preferably, the pixel value conversion means converts a pixel value in the image region and a pixel value in a neighborhood region of the image region.

好適には、前記領域特徴抽出手段は、前記画像領域の画素値が既定の条件を満たしている場合に、この画像領域の画素値パターンをこの画像領域の特徴として抽出する。   Preferably, the area feature extraction unit extracts a pixel value pattern of the image area as a feature of the image area when the pixel value of the image area satisfies a predetermined condition.

好適には、前記領域特徴抽出手段は、抽出された画素値パターンが既定のパターンである場合に、この画素値パターンを補正する。   Preferably, the area feature extraction unit corrects the pixel value pattern when the extracted pixel value pattern is a predetermined pattern.

好適には、前記領域特徴抽出手段は、前記画像領域における画素値パターンに基づいて、階調変化に関する複数の角度を算出し、算出された複数の角度に基づいて、この画像領域における階調変化の変化方向を、前記特徴として抽出し、前記画素値変換手段は、前記領域特徴抽出手段により抽出された変化方向に応じて、前記画像領域内の画素値を変換する。   Preferably, the area feature extraction unit calculates a plurality of angles related to a gradation change based on a pixel value pattern in the image area, and the gradation change in the image area based on the calculated plurality of angles. The change direction is extracted as the feature, and the pixel value conversion unit converts the pixel value in the image region according to the change direction extracted by the region feature extraction unit.

好適には、前記画素値変換手段は、前記領域特徴抽出手段により抽出された変化方向に応じた位置の画素群を参照して、平滑化処理を行う。   Preferably, the pixel value conversion unit performs a smoothing process with reference to a pixel group at a position corresponding to the change direction extracted by the region feature extraction unit.

好適には、前記画素値変換手段は、前記平滑化処理がなされた複数の画素値を用いて、階調変化を強調するエッジ強調処理を行う。   Preferably, the pixel value conversion means performs an edge emphasis process for emphasizing a gradation change by using the plurality of pixel values subjected to the smoothing process.

好適には、前記画素値変換手段は、前記領域特徴抽出手段により抽出された特徴に基づいて、前記画像領域内の画素値と、この画像領域の近傍領域内の画素値とを変換し、前記拡大画像領域生成手段は、前記領域特徴抽出手段により抽出された特徴が既定の条件を満たす画像領域の注目画素に対して、この画像領域の特徴、前記画素値変換手段により変換された画像領域の画素値、及び、前記画素値変換手段により変換された近傍領域の画素値に基づいて、注目画素に対応する拡大画像領域を生成する。   Preferably, the pixel value conversion unit converts a pixel value in the image region and a pixel value in a neighborhood region of the image region based on the feature extracted by the region feature extraction unit, and The enlarged image area generation unit is configured to detect the feature of the image area and the image area converted by the pixel value conversion unit for the target pixel of the image area in which the feature extracted by the area feature extraction unit satisfies a predetermined condition. Based on the pixel value and the pixel value of the neighboring region converted by the pixel value conversion means, an enlarged image region corresponding to the target pixel is generated.

好適には、前記拡大画像生成手段は、前記拡大画像領域生成手段による拡大処理よりも処理負荷の小さい拡大手法を適用して、入力画像の拡大画像を生成する。   Preferably, the enlarged image generation unit generates an enlarged image of the input image by applying an enlargement method that has a smaller processing load than the enlargement process performed by the enlarged image region generation unit.

好適には、前記拡大画像生成手段は、入力画像毎、又は、入力画像中の複数のライン毎に、拡大画像を生成する。   Preferably, the enlarged image generating unit generates an enlarged image for each input image or for each of a plurality of lines in the input image.

好適には、前記画像統合手段は、前記拡大画像領域生成手段により生成される複数の拡大画像領域が拡大後の画像において互いに重なり合う場合に、これらの拡大画像領域に基づいて、この重複部分の画素値を決定する。   Preferably, when the plurality of enlarged image regions generated by the enlarged image region generating unit overlap each other in the enlarged image, the image integration unit is configured to use the pixels of the overlapping portion based on the enlarged image regions. Determine the value.

好適には、前記画像統合手段は、前記拡大画像領域生成手段により生成される複数の拡大画像領域が拡大後の画像において互いに重なり合う場合に、これら拡大画像領域の重複部分について、同一画素に対応する複数の画素値の平均値を算出する。   Preferably, when the plurality of enlarged image regions generated by the enlarged image region generating unit overlap each other in the enlarged image, the image integration unit corresponds to the same pixel with respect to an overlapping portion of the enlarged image regions. An average value of a plurality of pixel values is calculated.

好適には、前記画像統合手段は、前記拡大画像生成手段により生成された拡大画像の少なくとも一部を、前記拡大画像領域生成手段により生成された拡大画像領域で置換する。   Preferably, the image integration unit replaces at least a part of the enlarged image generated by the enlarged image generation unit with the enlarged image region generated by the enlarged image region generation unit.

[画像処理方法]
また、本発明にかかる画像処理方法は、入力画像の拡大処理を行う画像処理方法であって、入力画像に含まれる注目画素について、この注目画素を含む既定の大きさの画像領域の特徴を抽出し、抽出された特徴に基づいて、少なくともこの画像領域内の画素値を変換し、抽出された特徴が既定の条件を満たす画像領域の注目画素に対して、画素値が変換された画像領域に基づいて、この画像領域に含まれる注目画素に対応する拡大画像領域を生成し、前記拡大画像領域の生成処理とは異なる拡大処理方法を適用して、入力画像の拡大画像を生成し、生成された拡大画像領域と、生成された拡大画像とを統合する。
[Image processing method]
The image processing method according to the present invention is an image processing method for performing an enlargement process of an input image, and for a target pixel included in the input image, a feature of an image region having a predetermined size including the target pixel is extracted. Then, based on the extracted feature, at least the pixel value in the image region is converted, and the extracted feature is converted into the image region in which the pixel value is converted with respect to the target pixel of the image region that satisfies the predetermined condition. Based on this, an enlarged image region corresponding to the target pixel included in the image region is generated, and an enlarged image method of the input image is generated by applying an enlargement processing method different from the generation processing of the enlarged image region. The enlarged image area and the generated enlarged image are integrated.

[プログラム]
また、本発明にかかるプログラムは、入力画像の拡大処理を行う画像処理装置において、入力画像に含まれる注目画素について、この注目画素を含む既定の大きさの画像領域の特徴を抽出するステップと、抽出された特徴に基づいて、少なくともこの画像領域内の画素値を変換するステップと、抽出された特徴が既定の条件を満たす画像領域の注目画素に対して、画素値が変換された画像領域に基づいて、この画像領域に含まれる注目画素に対応する拡大画像領域を生成するステップと、前記拡大画像領域の生成処理とは異なる拡大処理方法を適用して、入力画像の拡大画像を生成するステップと、生成された拡大画像領域と、生成された拡大画像とを統合するステップとを前記画像処理装置に実行させる。
[program]
In addition, the program according to the present invention includes a step of extracting a feature of an image area having a predetermined size including a target pixel for the target pixel included in the input image in an image processing apparatus that performs an enlargement process of the input image; Based on the extracted feature, at least a step of converting a pixel value in the image region, and for the target pixel of the image region in which the extracted feature satisfies a predetermined condition, the pixel value is converted into the image region. And generating a magnified image of the input image by applying a magnified image processing method different from the magnified image region generating process, and generating a magnified image region corresponding to the target pixel included in the image region. And causing the image processing apparatus to execute a step of integrating the generated enlarged image region and the generated enlarged image.

本発明の画像処理装置によれば、比較的軽い処理負荷で、高画質な拡大画像を得ることができる。   According to the image processing apparatus of the present invention, a high-quality enlarged image can be obtained with a relatively light processing load.

[ハードウェア構成]
まず、本実施形態における画像処理装置2のハードウェア構成を説明する。
図1は、本発明にかかる画像処理方法が適応される画像処理装置2のハードウェア構成を、制御装置20を中心に例示する図である。
図1に例示するように、画像処理装置2は、CPU202及びメモリ204などを含む制御装置20、通信装置22、HDD・CD装置などの記録装置24、並びに、LCD表示装置あるいはCRT表示装置及びキーボード・タッチパネルなどを含むユーザインターフェース装置(UI装置)26から構成される。
画像処理装置2は、例えば、画像拡大プログラム5(後述)がインストールされた汎用コンピュータであり、通信装置22又は記録装置24などを介して画像データを取得し、取得された画像データを出力解像度に応じて拡大する。例えば、画像処理装置2は、プリンタ装置10に対して画像データを出力する場合には、600dpi又は2400dpiなどの解像度に変換し、UI装置26に対して画像データを出力する場合には、75dpiなどの解像度に変換する。
[Hardware configuration]
First, the hardware configuration of the image processing apparatus 2 in the present embodiment will be described.
FIG. 1 is a diagram illustrating a hardware configuration of an image processing apparatus 2 to which an image processing method according to the present invention is applied, centering on a control apparatus 20.
As illustrated in FIG. 1, the image processing apparatus 2 includes a control device 20 including a CPU 202 and a memory 204, a communication device 22, a recording device 24 such as an HDD / CD device, an LCD display device or a CRT display device, and a keyboard. A user interface device (UI device) 26 including a touch panel and the like is included.
The image processing apparatus 2 is, for example, a general-purpose computer in which an image enlargement program 5 (described later) is installed. The image processing apparatus 2 acquires image data via the communication device 22 or the recording device 24 and converts the acquired image data to an output resolution. Enlarge accordingly. For example, the image processing apparatus 2 converts the resolution to 600 dpi or 2400 dpi when outputting image data to the printer apparatus 10, and 75 dpi or the like when outputting image data to the UI apparatus 26. Convert to the resolution.

[画像拡大プログラム]
図2は、制御装置20(図1)により実行され、本発明にかかる画像処理方法を実現する画像拡大プログラム5の機能構成を例示する図である。
図2に例示するように、画像拡大プログラム5は、拡大処理部500、画像データ格納部570、多値変換部580、及び二値変換部590を有する。また、拡大処理部500は、画像ブロック設定部510、画像ブロック特徴抽出部520、画素値変換部530、拡大画像ブロック生成部540、単純拡大画像生成部550、及び画像ブロック配置部560を有し、この画素値変換部530は、平滑化部532及び強調部534を含む。
なお、画像拡大プログラム5の全部又は一部をASICなどのハードウェアで実現してもよい。
[Image enlargement program]
FIG. 2 is a diagram illustrating a functional configuration of the image enlargement program 5 which is executed by the control device 20 (FIG. 1) and implements the image processing method according to the present invention.
As illustrated in FIG. 2, the image enlargement program 5 includes an enlargement processing unit 500, an image data storage unit 570, a multi-value conversion unit 580, and a binary conversion unit 590. The enlargement processing unit 500 includes an image block setting unit 510, an image block feature extraction unit 520, a pixel value conversion unit 530, an enlarged image block generation unit 540, a simple enlarged image generation unit 550, and an image block arrangement unit 560. The pixel value conversion unit 530 includes a smoothing unit 532 and an enhancement unit 534.
Note that all or part of the image enlargement program 5 may be realized by hardware such as an ASIC.

画像データ格納部570は、メモリ204(図1)又は記録装置24(図1)を制御して、画像データが拡大処理部500で拡大処理されるまで一時的に記憶する機能、及び、解像度変換または拡大処理された拡大画像データが出力装置(不図示)に出力されるまで一時的に記憶する機能などを実現する。なお、画像データは、画像処理装置2で処理可能な画像フォーマット(例えば、BMP、TIFF、PNGなど)で記述されたデータであり、FAX(不図示)又はスキャナ(不図示)などによって取り込まれた画像データ、又は、パーソナルコンピュータ(画像処理装置2など)において作成又は編集等を処理するアプリケーションプログラムで作成された画像データ等である。拡大画像データ(拡大された後の画像データ)も、同様の画像フォーマットのデータである。   The image data storage unit 570 controls the memory 204 (FIG. 1) or the recording device 24 (FIG. 1), temporarily stores the image data until it is enlarged by the enlargement processing unit 500, and resolution conversion. Alternatively, a function of temporarily storing the enlarged image data subjected to the enlargement process until it is output to an output device (not shown) is realized. The image data is data described in an image format that can be processed by the image processing apparatus 2 (for example, BMP, TIFF, PNG, etc.), and is captured by a FAX (not shown) or a scanner (not shown). Image data or image data created by an application program for processing creation or editing in a personal computer (image processing apparatus 2 or the like). Enlarged image data (image data after enlargement) is also data in the same image format.

多値変換部580は、二値で表現された画像データを、多値で表現された画像データに変換し、拡大処理部500に出力する。例えば、多値変換部580は、入力された二値画像データが0又は1の1ビットで表現されている場合に、0又は255の8ビット表現に変換する。
なお、入力された2値画像データが予め8ビット表現の状態で画像データ格納部570に格納されている場合には、他と変換部580は、この画像データ(8ビット表現)をそのまま拡大処理部500に出力する。
The multi-value conversion unit 580 converts the image data expressed in binary into image data expressed in multi-value, and outputs the image data to the enlargement processing unit 500. For example, when the input binary image data is represented by 1 bit of 0 or 1, the multi-value conversion unit 580 converts the binary image data into an 8-bit representation of 0 or 255.
If the input binary image data is stored in the image data storage unit 570 in an 8-bit representation in advance, the conversion unit 580 and the other conversion unit 580 enlarge the image data (8-bit representation) as it is. To the unit 500.

二値変換部590は、拡大処理部500から出力された多値の拡大画像データを二値化処理して画像データ格納部570に出力する。二値変換部590は、例えば、閾値処理によって二値化処理を行う。本例の二値変換部590は、閾値tを予めt=128とし、拡大画像データの画素値がt未満である場合に、0を出力し、画素値がt以上である場合に、1を出力する。なお、閾値tは、前述のように予め設定してもよいし、例えば入力画像データの濃度分布などから動的に設定してもよい。   The binary conversion unit 590 binarizes the multi-value enlarged image data output from the enlargement processing unit 500 and outputs the binarized image data to the image data storage unit 570. The binary conversion unit 590 performs binarization processing by threshold processing, for example. The binary conversion unit 590 of this example sets the threshold t to t = 128 in advance, outputs 0 when the pixel value of the enlarged image data is less than t, and 1 when the pixel value is greater than or equal to t. Output. Note that the threshold t may be set in advance as described above, or may be dynamically set based on, for example, the density distribution of input image data.

拡大処理部500は、画像ブロック設定部510、画像ブロック特徴抽出部520、画素値変換部530、拡大画像ブロック生成部540(拡大画像領域生成手段)、単純拡大画像生成部550(拡大画像生成手段)、及び画像ブロック配置部560(画像統合手段)を含んで構成されており、多値変換部580から、拡大処理の対象となる画像データを取得し、拡大処理によって生成された拡大画像データを二値変換部590に出力する。   The enlargement processing unit 500 includes an image block setting unit 510, an image block feature extraction unit 520, a pixel value conversion unit 530, an enlarged image block generation unit 540 (enlarged image region generation unit), and a simple enlarged image generation unit 550 (enlarged image generation unit). ), And an image block arrangement unit 560 (image integration unit). The image data to be enlarged is acquired from the multi-value conversion unit 580, and the enlarged image data generated by the enlargement processing is obtained. The data is output to the binary conversion unit 590.

画像ブロック設定部510は、画像ブロック特徴抽出部520及び拡大画像ブロック生成部540における処理で必要とされる所定のブロックサイズをそれぞれ設定し、多値変換部580から入力された入力画像データ(多値表現)から注目画素を含むそれぞれのブロックサイズの画像ブロックを順次切り出し、画像ブロック特徴抽出部520に出力する。   The image block setting unit 510 sets predetermined block sizes required for the processing in the image block feature extraction unit 520 and the enlarged image block generation unit 540, respectively, and the input image data (multi-value conversion unit 580) The image blocks having the respective block sizes including the target pixel are sequentially cut out from the value expression and output to the image block feature extraction unit 520.

画像ブロック特徴抽出部520は、画像ブロック設定部510から順次入力される画像ブロックの少なくとも一部(例えば中心部近傍の矩形部分)を注目領域とし、注目領域における画像特徴量を、注目領域あるいは注目領域の周辺部を含む画像ブロックを参照して抽出あるいは算出する。抽出あるいは算出される画像特徴量は、例えば、エッジパターン、エッジ方向、画像ブロック内の白(又は黒)画素の画素数、あるいは、画像ブロック内の白(又は黒)画素の比率などである。
また、画像ブロック特徴抽出部520は、さらに、抽出あるいは算出した画像特徴量に基づいて、注目領域の切り分けを行う。ここで、注目領域の切り分けとは、例えば、注目領域がエッジを含む領域(以下、エッジ領域)と、白(又は黒)のみの領域(以下、平坦領域)とを切り分けることである。
The image block feature extraction unit 520 sets at least a part of the image blocks sequentially input from the image block setting unit 510 (for example, a rectangular portion near the center) as the attention area, and determines the image feature amount in the attention area as the attention area or attention. Extraction or calculation is performed with reference to an image block including a peripheral portion of the region. The extracted or calculated image feature amount is, for example, an edge pattern, an edge direction, the number of white (or black) pixels in the image block, or the ratio of white (or black) pixels in the image block.
Further, the image block feature extraction unit 520 further performs the region-of-interest segmentation based on the extracted or calculated image feature amount. Here, the attention area is divided, for example, by dividing an area where the attention area includes an edge (hereinafter referred to as an edge area) and an area including only white (or black) (hereinafter referred to as a flat area).

画素値変換部530は、画像ブロック特徴抽出部520による注目領域の切り分けの結果に基づいてエッジ領域であると判断された注目領域と、その周辺部を含む画像ブロック内の画素値を変換する。画素値変換部530により変換された画像ブロック内の画素値は、後述する拡大画像ブロック生成部540における拡大画像ブロック生成に用いられる。
より具体的には、画素値変換部530は、平滑化部532及び強調部534を含み、この平滑化部532は、画像ブロック特徴抽出部520により算出された注目領域におけるエッジ方向に基づいて、画像ブロック内の画素値を平滑化する。また、強調部534は、平滑化部532によりエッジ方向に基づいて平滑化された画像ブロック内の画素値のコントラストを強調する。
The pixel value conversion unit 530 converts a pixel value in an image block including an attention region determined to be an edge region based on the result of segmentation of the attention region by the image block feature extraction unit 520 and its peripheral portion. The pixel value in the image block converted by the pixel value conversion unit 530 is used for enlarged image block generation in the enlarged image block generation unit 540 described later.
More specifically, the pixel value conversion unit 530 includes a smoothing unit 532 and an enhancement unit 534, and the smoothing unit 532 is based on the edge direction in the attention area calculated by the image block feature extraction unit 520. Smooth the pixel values in the image block. The enhancement unit 534 enhances the contrast of the pixel values in the image block that has been smoothed based on the edge direction by the smoothing unit 532.

拡大画像ブロック生成部540は、画像ブロック特徴抽出部520により抽出あるいは算出された画像特徴量に応じて、エッジ領域と判断された注目領域に対応する拡大画像ブロックを生成する。拡大画像ブロック生成部540における拡大画像ブロック生成処理は、後に詳述するが、注目領域に対してジャギーの発生を抑えた、より画質を優先した処理が行われる。   The enlarged image block generation unit 540 generates an enlarged image block corresponding to the attention area determined as the edge area according to the image feature amount extracted or calculated by the image block feature extraction unit 520. The enlarged image block generation processing in the enlarged image block generation unit 540 will be described in detail later, but processing with higher priority on image quality is performed while suppressing the occurrence of jaggies for the region of interest.

単純拡大画像生成部550は、画像データ格納部570に格納され、多値変換部580により多値化された入力画像データを拡大し、この拡大画像を画像ブロック配置分560に出力する。単純拡大画像生成部550における拡大処理は、拡大画像ブロック生成部540における拡大処理とは異なり、拡大画像ブロック生成部540による拡大処理よりも処理負荷の小さい拡大処理、例えば最近傍補間拡大などを行う。さらに、単純拡大画像生成部550による拡大処理は、画像ブロック毎の処理ではなく、入力画像単位あるいは入力画像数ライン単位で処理することが可能である。   The simple enlarged image generation unit 550 enlarges the input image data stored in the image data storage unit 570 and multi-valued by the multi-value conversion unit 580, and outputs this enlarged image to the image block arrangement portion 560. The enlargement process in the simple enlargement image generation unit 550 is different from the enlargement process in the enlargement image block generation unit 540, and performs an enlargement process with a smaller processing load than the enlargement process by the enlargement image block generation unit 540, such as nearest neighbor interpolation enlargement. . Furthermore, the enlargement process by the simple enlarged image generation unit 550 can be performed not in units of image blocks but in units of input images or units of lines of input images.

画像ブロック配置部560は、画像ブロック特徴抽出部520により抽出あるいは算出された画像特徴量に応じて、拡大画像ブロック生成部540により生成された拡大画像ブロック、または、単純拡大画像生成部550により拡大された画像データを適用して、拡大画像データを生成する。より具体的には、画像ブロック配置部560は、画像ブロック特徴抽出部520により抽出あるいは算出された画像特徴量に基づいて、エッジ領域と判断された注目領域に対し、拡大画像ブロック生成部540により生成された拡大画像ブロックを、単純拡大画像生成部550から出力された拡大画像上の対応する位置に順次配置して、解像度変換あるいは拡大された拡大画像データを生成し、生成された拡大画像データを二値変換部590に出力する。
画像ブロック配置部560は、拡大画像ブロックを単純拡大画像生成部550から出力された拡大画像上の対応する位置に順次配置する場合に、拡大画像ブロックの各画素値で置き換えるように配置してもよいし、または単純拡大画像生成部550から出力された拡大画像の対応する位置の各画素値と重畳するように配置してもよい。なお、画像ブロック配置分560は、隣接する複数の拡大画像ブロックを互いにオーバーラップするように配置し、オーバーラップする画素の総和を計算し、画素値の総和をオーバーラップした数で割ることにより各画素の画素値を算出する。
The image block arrangement unit 560 is an enlarged image block generated by the enlarged image block generation unit 540 or enlarged by the simple enlarged image generation unit 550 in accordance with the image feature amount extracted or calculated by the image block feature extraction unit 520. The enlarged image data is generated by applying the processed image data. More specifically, the image block arrangement unit 560 uses the enlarged image block generation unit 540 to perform the attention region determined as the edge region based on the image feature amount extracted or calculated by the image block feature extraction unit 520. The generated enlarged image blocks are sequentially arranged at corresponding positions on the enlarged image output from the simple enlarged image generation unit 550 to generate resolution-converted or enlarged enlarged image data, and the generated enlarged image data Is output to the binary conversion unit 590.
The image block arrangement unit 560 may be arranged to replace the enlarged image block with each pixel value of the enlarged image block when sequentially arranging the enlarged image block at the corresponding position on the enlarged image output from the simple enlarged image generation unit 550. Alternatively, it may be arranged so as to be superimposed on each pixel value at a corresponding position of the enlarged image output from the simple enlarged image generation unit 550. The image block arrangement portion 560 is arranged so that a plurality of adjacent enlarged image blocks overlap each other, calculates the sum of overlapping pixels, and divides the sum of pixel values by the number of overlaps. The pixel value of the pixel is calculated.

次に、画像ブロック特徴抽出部520、画素値変換部530、及び、拡大画像ブロック生成部540について、より詳しく説明する。
まず、画像ブロック特徴抽出部520の詳細について説明する。なお、注目領域が2×2画素サイズブロック(互いに直交する方向が2画素である正方領域)であり、注目領域を含む周辺領域が4×4画素サイズブロック(互いに直交する方向が4画素である正方領域)である場合を具体例として説明する。
Next, the image block feature extraction unit 520, the pixel value conversion unit 530, and the enlarged image block generation unit 540 will be described in more detail.
First, details of the image block feature extraction unit 520 will be described. Note that the region of interest is a 2 × 2 pixel size block (a square region in which the direction orthogonal to each other is 2 pixels), and the peripheral region including the region of interest is a 4 × 4 pixel size block (the direction orthogonal to each other is 4 pixels). A case of a square area) will be described as a specific example.

図3は、本実施例における画像ブロック特徴抽出部520の機能構成を示すブロック図である。
図3に示すように、画像ブロック特徴抽出部520は、エッジパターン選択部522と、エッジ方向推定部524とを含む。
エッジパターン選択部522は、注目領域である2×2画像ブロックのエッジパターンを選択し、選択されたエッジパターンに基づき、注目領域がエッジ領域であるか、白(または黒)のみの平坦領域であるかを判断する。
また、エッジパターン選択部522は、注目領域がエッジ領域である場合に、そのエッジパターンに相当するエッジ角度を注目領域の初期エッジ角度として決定する。
FIG. 3 is a block diagram illustrating a functional configuration of the image block feature extraction unit 520 in the present embodiment.
As shown in FIG. 3, the image block feature extraction unit 520 includes an edge pattern selection unit 522 and an edge direction estimation unit 524.
The edge pattern selection unit 522 selects the edge pattern of the 2 × 2 image block that is the attention area, and based on the selected edge pattern, the attention area is the edge area or is a flat area that is only white (or black). Determine if there is.
In addition, when the attention area is an edge area, the edge pattern selection unit 522 determines an edge angle corresponding to the edge pattern as an initial edge angle of the attention area.

図4は、2×2画像ブロックにおけるパターンとそのエッジ角度を例示する図である。
図4に例示するように、各エッジパターンには、それぞれ相当するエッジ角度が設定されており、エッジパターン選択部522は、注目領域がどのエッジパターンであるかによって初期エッジ角度を決定する。
また注目領域が平坦パターンである場合には、この注目領域は平坦領域として切り分けられる。
ただし、注目領域が図4の太枠で示されたエッジパターン(市松エッジパターン)である場合、注目領域のエッジパターンのみでは一意にその初期角度を決定できない。つまり初期エッジ角度を45°とするのか135°とするのかを決定できない。その理由は、図4に例示した太枠内の上方の市松エッジパターンaを例にとると、二値画像では、注目領域がこの市松エッジパターンaであったときには、45°方向に黒画素が続いている領域の一部分である場合と、135°方向に白画素が続いている領域の一部分である場合とのどちらの場合も考えられ、2×2画像ブロックの注目領域単体のみでは判断できないからである。
FIG. 4 is a diagram illustrating patterns and edge angles in a 2 × 2 image block.
As illustrated in FIG. 4, corresponding edge angles are set for the respective edge patterns, and the edge pattern selection unit 522 determines the initial edge angle depending on which edge pattern is the region of interest.
When the attention area is a flat pattern, the attention area is cut as a flat area.
However, when the attention area is an edge pattern (checkered edge pattern) indicated by a thick frame in FIG. 4, the initial angle cannot be uniquely determined only by the edge pattern of the attention area. That is, it cannot be determined whether the initial edge angle is 45 ° or 135 °. The reason for this is that taking the upper checkered edge pattern a in the thick frame illustrated in FIG. 4 as an example, in a binary image, when the region of interest is this checkered edge pattern a, black pixels appear in the 45 ° direction. Both the case of a part of the continuing area and the case of a part of the area where white pixels continue in the 135 ° direction are conceivable, and it cannot be determined only by the attention area alone of the 2 × 2 image block. It is.

そこで、本実施例におけるエッジパターン選択部522は、図5に示すように、注目領域(図5中の市松エッジパターン領域)の一部を含む、ラスタスキャン順における一つ手前の2×2画像ブロック領域(図5において太枠で囲まれた領域)のエッジパターンに基づいて、市松エッジパターンである注目領域の初期エッジ角度を決定する。
図6は、市松エッジパターンと一つ手前(スキャン方向の上流側)の2×2画像ブロック領域のエッジパターンとの考えられる全ての組み合わせと、その組み合わせによって決定される初期エッジ角度の1例を示した図である。
図6に示したように、注目領域が市松エッジパターンである場合に、エッジパターン選択部522は、一つ手前の画像ブロックのエッジパターンを参照して、45°又は135°のどちらの角度を初期エッジ角度とするのかを決定する。
なお、本例では、市松エッジパターンと一つ手前の画像ブロックのエッジパターンとの2つのブロックの組み合わせにより初期エッジ角度を決定したが、これに限定されるわけではない。例えば、エッジパターン選択部522は、注目領域のエッジパターンと、一つ先の画像ブロックのエッジパターンとの組み合わせで初期エッジ角度を決定してもよいし、また1つ手前と一つ先との3ブロックのエッジパターンの組み合わせなどで、市松エッジパターンにおける初期エッジ角度を決定してもよく、市松エッジパターンの初期エッジ角度決定のために組み合わせる画像ブロックの数や位置は要求される処理速度や画質に応じて可変である。
Therefore, the edge pattern selection unit 522 in the present embodiment, as shown in FIG. 5, includes a part of the attention area (checkered edge pattern area in FIG. 5) and the 2 × 2 image immediately before in the raster scan order. Based on the edge pattern of the block area (area surrounded by a thick frame in FIG. 5), the initial edge angle of the attention area which is a checkered edge pattern is determined.
FIG. 6 shows an example of all possible combinations of the checkered edge pattern and the edge pattern of the previous 2 × 2 image block area (upstream in the scanning direction) and an initial edge angle determined by the combination. FIG.
As shown in FIG. 6, when the region of interest is a checkered edge pattern, the edge pattern selection unit 522 refers to the edge pattern of the previous image block and determines either 45 ° or 135 °. Decide whether to use the initial edge angle.
In this example, the initial edge angle is determined based on the combination of the two blocks of the checkered edge pattern and the edge pattern of the previous image block. However, the present invention is not limited to this. For example, the edge pattern selection unit 522 may determine the initial edge angle based on the combination of the edge pattern of the region of interest and the edge pattern of the next image block, and the previous edge and the next edge. The initial edge angle in the checkered edge pattern may be determined by a combination of edge patterns of three blocks, and the number and position of image blocks to be combined for determining the initial edge angle of the checkered edge pattern depends on the required processing speed and image quality. It is variable according to.

また、エッジパターン選択部522は、ある特定パターンを抽出し、抽出された特定パターンを既定のパターンに強制的に補正するため、関連する画像ブロックの初期エッジ角度およびエッジパターンを補正する。
図7は、特定パターンの抽出の一例として、補正される特定パターンを含む画像の一部分を例示する。
図7に例示するように、図中の点線で囲まれた画像の凹凸パターンは、1画素だけ飛び出した(あるいは凹んだ)パターンで、例えば原稿をFAXやスキャナなどで電子文書として取り込む場合に解像度などに起因して生じるパターンであり、本来の画像を構成する意味のある特徴パターンではない。このような凹凸パターンは、拡大処理後のジャギーの原因となり画質に大きく影響する。
Further, the edge pattern selection unit 522 extracts a specific pattern and corrects the initial edge angle and the edge pattern of the related image block in order to forcibly correct the extracted specific pattern to a predetermined pattern.
FIG. 7 illustrates a part of an image including a specific pattern to be corrected as an example of extraction of the specific pattern.
As illustrated in FIG. 7, the uneven pattern of the image surrounded by the dotted line in the figure is a pattern that protrudes (or is recessed) by one pixel. For example, the resolution is obtained when a document is captured as an electronic document by a FAX or a scanner. This is a pattern generated due to the above, and is not a meaningful feature pattern constituting an original image. Such a concavo-convex pattern causes jaggies after enlarging processing and greatly affects image quality.

図8は、凹凸パターン(1画素だけ飛び出した、あるいは凹んだもの)の抽出および補正を具体的に例示する図である。なお、本図において、太枠で囲まれた領域が注目領域である。
図8(A)に示すように、太枠の注目領域(図8(A)に示された第4の領域)とその一部分を含む複数の周辺領域(図8(A)に示された第1〜3の領域)のエッジパターンは、黒画素を1、白画素を0としてビットパターン化されると、第1の領域は「1110」、第2の領域は「1000」、第3の領域は「1011」、第4の領域(すなわち注目領域)は「0010」となる。したがって、エッジパターン選択部522は、図8(A)で示すように、第1〜4の各領域のエッジパターン列が「1110」、「1000」、「1011」、「0010」であると判断した場合に、凹凸パターン(本例では、右に突出した凸のパターン)が存在すると判断し、この凹凸パターンを抽出する。
FIG. 8 is a diagram specifically illustrating the extraction and correction of the concave / convex pattern (projecting or recessed by one pixel). In this figure, a region surrounded by a thick frame is a region of interest.
As shown in FIG. 8 (A), a thick frame region of interest (fourth region shown in FIG. 8 (A)) and a plurality of peripheral regions including a part thereof (the first region shown in FIG. 8 (A)). 1 to 3), the first area is “1110”, the second area is “1000”, and the third area is a bit pattern. Is “1011”, and the fourth area (ie, the attention area) is “0010”. Accordingly, as shown in FIG. 8A, the edge pattern selection unit 522 determines that the edge pattern sequences in the first to fourth areas are “1110”, “1000”, “1011”, and “0010”. In this case, it is determined that there is a concavo-convex pattern (in this example, a convex pattern protruding to the right), and this concavo-convex pattern is extracted.

エッジパターン選択部522は、前述のように抽出された凹凸パターン(本例では、右に凸のパターン)を補正するため、第1〜4の各領域のエッジパターンおよび初期エッジ角度を図8(B)で示すように変更する。つまり、エッジパターン選択部522は、第1の領域を、エッジパターン「1010」かつ初期エッジ角度0°に変更し、第2の領域を、平坦パターン(ビットパターン「0000」)に変更し、第3の領域を、エッジパターン「1010」かつ初期エッジ角度0°に変更し、第4の領域(注目領域)を平坦パターン「0000」に変更する。
このように、エッジパターン選択部522は、注目領域および周辺領域のエッジパターンおよび初期エッジ角度を変更することにより、凹凸パターン(本例では、右に凸パターン)を補正することが可能となる。
The edge pattern selection unit 522 corrects the concavo-convex pattern extracted as described above (in this example, a pattern convex to the right), and the edge pattern and initial edge angle of each of the first to fourth regions are corrected as shown in FIG. Change as shown in B). That is, the edge pattern selection unit 522 changes the first area to the edge pattern “1010” and the initial edge angle of 0 °, changes the second area to the flat pattern (bit pattern “0000”), The region 3 is changed to the edge pattern “1010” and the initial edge angle 0 °, and the fourth region (region of interest) is changed to the flat pattern “0000”.
As described above, the edge pattern selection unit 522 can correct the uneven pattern (in this example, the convex pattern to the right) by changing the edge pattern and the initial edge angle of the attention area and the peripheral area.

図9は、図8に示した例とは異なる場合の凹凸パターン補正の具体例を示した図である。このように1画素だけ突出した、あるいは凹んだ凹凸パターンを補正することにより、図7に例示した画像は、図10で示すように凹凸パターンが補正される。なお、本実施例では上述のように凹凸パターンの抽出および補正に限定して説明を行ったが、これに限ったものではなく、入力画像データの種類、要求される画質、又は処理速度に応じて、凹凸パターンとは異なる特定パターン(例えば、1画素だけ孤立した孤立点パターンなど)の抽出および補正を行ってもよい。   FIG. 9 is a diagram showing a specific example of the uneven pattern correction in a case different from the example shown in FIG. By correcting the uneven pattern that protrudes or is recessed by one pixel in this way, the uneven pattern is corrected in the image illustrated in FIG. 7 as shown in FIG. In the present embodiment, as described above, the description is limited to the extraction and correction of the concavo-convex pattern. However, the present invention is not limited to this, and depends on the type of input image data, the required image quality, or the processing speed. Thus, extraction and correction of a specific pattern different from the concave / convex pattern (for example, an isolated point pattern isolated by one pixel) may be performed.

次に、エッジ方向推定部524の処理の詳細を説明する。
図11は、注目領域および周辺領域の具体例と注目領域のエッジ方向の一例の説明図である。図11(A)は、注目領域(図11中の太枠内領域)および周辺領域の一例を示している。図11に示す例を用いて、エッジ方向推定部524によるエッジ方向推定処理の流れについて説明する。
図12は、エッジ方向推定部22によるエッジ方向推定処理(S10)の一例を示すフローチャート図である。
Next, details of the processing of the edge direction estimation unit 524 will be described.
FIG. 11 is an explanatory diagram of a specific example of the attention area and the peripheral area and an example of the edge direction of the attention area. FIG. 11A shows an example of the attention area (the area within the thick frame in FIG. 11) and the peripheral area. The flow of edge direction estimation processing by the edge direction estimation unit 524 will be described using the example shown in FIG.
FIG. 12 is a flowchart illustrating an example of edge direction estimation processing (S10) by the edge direction estimation unit 22.

ステップ110(S110)において、エッジ方向推定部524は、注目領域および参照領域のエッジ角度の総和を表す変数(エッジ角度総和)に、すでにエッジパターン選択部522により設定されている注目領域の初期エッジ角度を代入する。
また、エッジ方向推定部524は、エッジ角度の参照数をカウントするための変数としての角度参照数を「1」に初期化しておく。
In step 110 (S110), the edge direction estimation unit 524 sets the initial edge of the region of interest that has already been set by the edge pattern selection unit 522 as a variable (total edge angle) that represents the sum of the edge angles of the region of interest and the reference region. Substitute the angle.
The edge direction estimation unit 524 initializes the angle reference number as a variable for counting the reference number of the edge angle to “1”.

ステップ120(S120)において、エッジ方向推定部524は、エッジパターン選択部522により設定された注目領域の初期エッジ角度に応じて、図11(A)に示した周辺領域(太線枠外の領域)中からエッジ方向の推定に用いる参照領域を選択する。
図13は、エッジ方向の推定に用いる参照領域を例示する図である。図中の太線枠で示した2×2画素が参照領域である。図13(A)は、エッジパターン選択部522により設定された初期エッジ角度が「角度0°」である場合の参照領域を例示し、図13(B)は、初期エッジ角度が「角度90°」である場合の参照領域を例示し、図13(C)は、初期エッジ角度が「角度0°又は90°」以外の角度である場合の参照領域を例示している。なお、図13(A)及び(B)に示す角度0°及び角度90°の場合の参照領域の数は2であり、図13(C)に示す角度0°、90°以外の角度の場合の参照領域の数は4である。
図11に示した具体例では、注目領域の初期エッジ角度は「角度45°」であるため、図14(C)に例示した4つの参照領域が選択の候補となる。なお、参照領域の選択は、図13に示したものに限定されるわけではなく、例えば図13(C)の場合などは、参照領域数を8としたり、それぞれの角度に応じた参照領域を設定してもよい。
In step 120 (S120), the edge direction estimation unit 524 determines whether the edge direction estimation unit 524 is in the peripheral region (region outside the bold frame) shown in FIG. 11A according to the initial edge angle of the region of interest set by the edge pattern selection unit 522. To select a reference region to be used for estimating the edge direction.
FIG. 13 is a diagram illustrating a reference region used for estimating the edge direction. A 2 × 2 pixel indicated by a bold frame in the drawing is a reference area. FIG. 13A illustrates a reference region when the initial edge angle set by the edge pattern selection unit 522 is “angle 0 °”, and FIG. 13B illustrates that the initial edge angle is “angle 90 °”. ”Is illustrated, and FIG. 13C illustrates the reference region when the initial edge angle is an angle other than“ angle 0 ° or 90 ° ”. Note that the number of reference regions in the case of the angle 0 ° and the angle 90 ° illustrated in FIGS. 13A and 13B is 2, and the angle other than the angles 0 ° and 90 ° illustrated in FIG. The number of reference areas is four.
In the specific example shown in FIG. 11, since the initial edge angle of the attention area is “angle 45 °”, the four reference areas illustrated in FIG. 14C are candidates for selection. The selection of the reference area is not limited to that shown in FIG. 13. For example, in the case of FIG. 13C, the number of reference areas is set to 8, or the reference area corresponding to each angle is selected. It may be set.

ステップ130(S130)において、エッジ方向推定部524は、S120において選択された参照領域の1つに対して、エッジ方向推定に適したエッジパターンであるか否かを判断する。例えば、エッジ方向推定部524は、図11(A)に例示した注目領域に対して、参照領域として右隣の参照領域を例にとると、図14(B)に示すように3種類のエッジパターンを候補とする。そして、エッジ方向推定部524は、S130において、図14(C)に示すように注目領域における初期エッジ角度(この例においては45°)と大きく異なる第3のエッジパターン(初期エッジ角度135°)を、図14(A)に示す注目領域のエッジ方向推定に適さないエッジパターンであると判断する。
図11に示した具体例の場合では、注目領域に対する右隣の参照領域のエッジパターンは、図14(B)で示した第1のエッジパターンであるので、エッジ方向推定部524は、エッジ方向推定に適するエッジパターンであると判断する。
エッジ方向推定部524は、この判断の結果、本注目領域におけるエッジ方向推定に適した参照領域である場合には、S140の処理に移行し、これ以外である場合には、S150の処理に移行する。
In step 130 (S130), the edge direction estimation unit 524 determines whether one of the reference regions selected in S120 is an edge pattern suitable for edge direction estimation. For example, the edge direction estimation unit 524 takes three types of edges as shown in FIG. 14B when the reference area on the right side is taken as an example of the reference area with respect to the attention area illustrated in FIG. A pattern is a candidate. Then, in S130, the edge direction estimation unit 524 generates a third edge pattern (initial edge angle 135 °) that is significantly different from the initial edge angle (45 ° in this example) in the region of interest as shown in FIG. Is determined to be an edge pattern that is not suitable for the edge direction estimation of the region of interest shown in FIG.
In the case of the specific example shown in FIG. 11, the edge pattern of the reference area on the right side with respect to the attention area is the first edge pattern shown in FIG. It is determined that the edge pattern is suitable for estimation.
As a result of this determination, the edge direction estimation unit 524 proceeds to the process of S140 when the reference area is suitable for the edge direction estimation in the target area of interest, and proceeds to the process of S150 otherwise. To do.

ステップ140(S140)において、エッジ方向推定部524は、エッジ角度総和に参照領域の初期エッジ角度を加え、角度参照数をインクリメントする。   In step 140 (S140), the edge direction estimation unit 524 adds the initial edge angle of the reference region to the total edge angle, and increments the angle reference number.

ステップ150(S150)において、エッジ方向推定部524は、全ての選択可能な参照領域の処理が終了したか否かを判断し、終了したと判断した場合に、S160の処理に移行し、終了していないと判断した場合に、S130の処理に戻って、次の参照領域について処理を行う。   In step 150 (S150), the edge direction estimation unit 524 determines whether or not all selectable reference areas have been processed. If it is determined that the processing has been completed, the process proceeds to S160 and ends. If it is determined that it is not, the process returns to S130 and the next reference area is processed.

ステップ160(S160)において、エッジ方向推定部524は、注目領域の初期エッジ角度と、S130においてエッジ方向推定に適したと判断された参照領域の初期エッジ角度との総和(エッジ角度総和)を角度参照数で割った平均エッジ角度を注目領域の推定エッジ角度として、処理を終了する。   In step 160 (S160), the edge direction estimation unit 524 refers to the sum of the initial edge angle of the region of interest and the initial edge angle of the reference region determined to be suitable for the edge direction estimation in S130 (edge angle sum). The average edge angle divided by the number is set as the estimated edge angle of the region of interest, and the process ends.

図11に示した具体例では、図11(B)に示すように、上部の参照領域の初期エッジ角度0°、左部の参照領域の初期エッジ角度0°、下部の参照領域の初期エッジ角度45°、右部の参照領域の初期エッジ角度45°となり、注目領域の初期エッジ角度45°との総和は135°になる。エッジ方向推定部524は、この総和135°を角度参照数5で割ることによって平均エッジ角度27°を求める。この平均エッジ角度が、図11に示した注目領域に対する推定エッジ角度となる。
さらに、エッジ方向推定部524は、求められた注目領域に対する推定エッジ角度Θを、22.5°ごとに区分された方向(8方向)の角度範囲(方向0〜7)に分類する。本例の場合、0°あるいは±180°を中心とした角度範囲を「方向0」、22.5°あるいは−157.5°を中心とした角度範囲を「方向1」、45°あるいは−135°を中心とした角度範囲を「方向2」、67.5°あるいは−112.5°を中心とした角度範囲を「方向3」、90°あるいは−90°を中心とした角度範囲を「方向4」、112.5°あるいは−67.5°を中心とした角度範囲を「方向5」、135°あるいは−45°を中心とした角度範囲を「方向6」、157.5°あるいは−22.5°を中心とした角度範囲を「方向7」とし、エッジ方向推定部524は、推定エッジ角度Θをいずれかの角度範囲(上記各中心角度から±11.25°の範囲)に分類する。上述の図11の具体例における推定エッジ角度Θ(=27°)は22.5°±11.25°の範囲内に含まれるので、エッジ方向推定部524は、図11に示した注目領域に対する最終的な推定エッジ方向を「方向1」であると判定する(図11(B)の矢印線分方向)。
なお、本例では推定エッジ角度Θを計算した後に8方向のいずれかに正規化(分類)したが、これに限定されるわけではなく、さらに精度の高いエッジ方向が必要であれば12方向(15.0°ごと)、16方向(12.25°ごと)など、さらに多数の方向に正規化してもよい。
In the specific example shown in FIG. 11, as shown in FIG. 11B, the initial edge angle of the upper reference area is 0 °, the initial edge angle of the left reference area is 0 °, and the initial edge angle of the lower reference area. 45 °, the initial edge angle of the right reference region is 45 °, and the sum of the initial edge angle of the attention region of 45 ° is 135 °. The edge direction estimation unit 524 obtains an average edge angle of 27 ° by dividing the total 135 ° by the angle reference number of 5. This average edge angle is the estimated edge angle with respect to the region of interest shown in FIG.
Further, the edge direction estimation unit 524 classifies the estimated edge angle Θ with respect to the obtained attention area into angle ranges (directions 0 to 7) in directions (8 directions) divided every 22.5 °. In this example, an angle range centered on 0 ° or ± 180 ° is “direction 0”, and an angle range centered on 22.5 ° or −157.5 ° is “direction 1”, 45 ° or −135. The angle range centered on ° is “direction 2”, the angle range centered on 67.5 ° or −112.5 ° is “direction 3”, and the angle range centered on 90 ° or −90 ° is “direction”. 4 ”, an angle range centered on 112.5 ° or −67.5 ° is“ direction 5 ”, and an angle range centered on 135 ° or −45 ° is“ direction 6 ”, 157.5 ° or −22. An angle range centered at .5 ° is defined as “direction 7”, and the edge direction estimation unit 524 classifies the estimated edge angle Θ into any angle range (range of ± 11.25 ° from each of the above center angles). . Since the estimated edge angle Θ (= 27 °) in the specific example of FIG. 11 described above is included in the range of 22.5 ° ± 11.25 °, the edge direction estimation unit 524 performs the processing for the attention area shown in FIG. The final estimated edge direction is determined to be “direction 1” (the direction of the arrow line in FIG. 11B).
In this example, the estimated edge angle Θ is calculated and then normalized (classified) in any of the eight directions. However, the present invention is not limited to this. If a more accurate edge direction is required, twelve directions ( You may normalize in more directions, such as 1 direction (every 15.0 degrees) and 16 directions (every 12.25 degrees).

次に、画素値変換部530について説明する。
画素値変換部530は、図2に例示するように、平滑化部532と強調部534とで構成される。
平滑化部532は、画像ブロック特徴抽出部520によって推定された注目領域の推定エッジ方向に応じた画素値平滑化処理を、注目領域と注目領域を含む周辺領域内の画素に対して施す。
図15は、推定エッジ方向に対応する平滑化カーネルを例示する図である。なお、図中に示された平滑化カーネル内の数字は、画素値に乗ずる重み付けの係数である。
例えば注目領域の推定エッジ方向が「方向3」である場合に、平滑化部532は、この「方向3」に応じて、図15中の第3の平滑化カーネルを用いて平滑化処理を行う。この場合、平滑化部532は、図16に示すように、例えば中心の画素Pの平滑化処理を行う場合には、画素a及び画素bを用いて、平滑化画素値P'を次の式(1)に従って計算する。
Next, the pixel value conversion unit 530 will be described.
As illustrated in FIG. 2, the pixel value conversion unit 530 includes a smoothing unit 532 and an enhancement unit 534.
The smoothing unit 532 performs pixel value smoothing processing corresponding to the estimated edge direction of the attention area estimated by the image block feature extraction unit 520 on the pixels in the attention area and the peripheral area including the attention area.
FIG. 15 is a diagram illustrating a smoothing kernel corresponding to the estimated edge direction. It should be noted that the numbers in the smoothing kernel shown in the figure are weighting coefficients by which the pixel values are multiplied.
For example, when the estimated edge direction of the attention area is “direction 3”, the smoothing unit 532 performs a smoothing process using the third smoothing kernel in FIG. 15 according to this “direction 3”. . In this case, as shown in FIG. 16, for example, when the smoothing process of the center pixel P is performed, the smoothing unit 532 uses the pixel a and the pixel b to calculate the smoothed pixel value P ′ as follows: Calculate according to (1).

注目画素値P'=(2.0×P+1.0×(a+b))/4.0・・・(1)   Pixel value of interest P ′ = (2.0 × P + 1.0 × (a + b)) / 4.0 (1)

なお、平滑化部532により用いられる平滑化カーネルは、図15に示したものに限定されるわけではなく、入力画像データの種類、又は、要求される平滑化の程度などにより異なるものであってもよい。   Note that the smoothing kernel used by the smoothing unit 532 is not limited to that shown in FIG. 15, and is different depending on the type of input image data or the required degree of smoothing. Also good.

強調部534は、平滑化部532によって平滑化処理(注目領域の推定エッジ方向に対応する平滑化カーネルを用いた平滑化処理)がなされた注目領域とこれを含む周辺領域内の画素に対して、コントラスト強調処理を施す。
図17は、強調部534により適用される強調カーネルの具体例を表す図である。
図17に示す「1.60」の値は、図17(A)に示す強調カーネルの中心の画素値に対応する重み係数を表し、「0.15」の値は、中心画素の上下左右に配置された画素値に対応する重み係数を表している。
また、図17(B)は、図17(A)に示す強調カーネルで画素Pを強調する場合の説明図である。図17(B)に示すように、強調部534は、例えば、中心の参照画素Pの強調処理を行う場合に、その上下左右に存在する画素a、b、c、dを参照し、また重みとして中心の注目画素については「1.60」を、周辺の参照画素に対しては「0.15」をそれぞれ用いる。このように、強調部534は、画素Pの画素値P'を次の式(2)に従って計算する。
The emphasizing unit 534 performs processing on the attention area that has been subjected to the smoothing process (smoothing processing using the smoothing kernel corresponding to the estimated edge direction of the attention area) by the smoothing unit 532 and the pixels in the peripheral area including the attention area. Then, contrast enhancement processing is performed.
FIG. 17 is a diagram illustrating a specific example of the enhancement kernel applied by the enhancement unit 534.
The value of “1.60” shown in FIG. 17 represents a weighting factor corresponding to the pixel value at the center of the enhancement kernel shown in FIG. 17A, and the value of “0.15” is above, below, left, and right of the center pixel. The weighting coefficient corresponding to the arranged pixel value is represented.
FIG. 17B is an explanatory diagram when the pixel P is emphasized by the enhancement kernel shown in FIG. As shown in FIG. 17B, the emphasis unit 534 refers to the pixels a, b, c, and d that exist at the top, bottom, left, and right, for example, when performing the emphasis processing of the center reference pixel P, and also performs weighting. For example, “1.60” is used for the pixel of interest at the center, and “0.15” is used for the peripheral reference pixels. Thus, the enhancement unit 534 calculates the pixel value P ′ of the pixel P according to the following equation (2).

注目画素値P'=1.60×P‐0.15×(a+b+c+d)・・・(2)     Pixel value of interest P ′ = 1.60 × P−0.15 × (a + b + c + d) (2)

上記のように、平滑化部532および強調部534の処理を経て、画素値変換部530は、後述する拡大画像ブロック生成部540で用いるため、注目領域とその周辺領域の画素値を変換する。   As described above, through the processing of the smoothing unit 532 and the emphasizing unit 534, the pixel value conversion unit 530 converts the pixel values of the attention area and the surrounding area for use in the enlarged image block generation unit 540 described later.

次に、拡大画像ブロック生成部540について詳細に説明する。
拡大画像ブロック生成部540は、画像ブロック特徴抽出部520により得られた注目領域に対するエッジパターンおよび推定エッジ方向と、画素値変換部530により変換された注目領域とその周辺領域との画素値を用いて、注目領域に対する拡大画像ブロックを生成する。
Next, the enlarged image block generation unit 540 will be described in detail.
The enlarged image block generation unit 540 uses the edge pattern and the estimated edge direction for the region of interest obtained by the image block feature extraction unit 520, and the pixel values of the region of interest and its surrounding region converted by the pixel value conversion unit 530. Thus, an enlarged image block for the attention area is generated.

図18は、拡大画像ブロック生成部540による拡大画像ブロックの生成処理を説明する図である。
まず、拡大画像ブロック生成部540は、注目領域のエッジパターンおよび推定エッジ方向に基づき、画素値変換部530により変換された画素値を用いて3×3画像ブロックに相当する画素値を算出する。
図18(A)には、図11(A)に例示した注目領域及び周辺領域が示されている。この注目領域に関しては、上記のように画像ブロック特徴抽出部520によって、エッジパターン「1110」、及び、推定エッジ方向「方向1」が求められている。
拡大画像ブロック生成部540は、特徴量の組合せが(エッジパターン1110)及び(推定エッジ方向「方向1」)である場合、図18(B)に示すように、3×3画像ブロックに相当するそれぞれの画素をp0〜p8とすると、図18(A)に示した注目領域の画素値{a,b,c,d}をもとに、p0〜p8の画素値を次の式によって計算する。
FIG. 18 is a diagram for explaining enlarged image block generation processing by the enlarged image block generation unit 540.
First, the enlarged image block generation unit 540 calculates a pixel value corresponding to a 3 × 3 image block using the pixel value converted by the pixel value conversion unit 530 based on the edge pattern and the estimated edge direction of the region of interest.
FIG. 18A shows the attention area and the peripheral area exemplified in FIG. As for the region of interest, the edge pattern “1110” and the estimated edge direction “direction 1” are obtained by the image block feature extraction unit 520 as described above.
When the combination of feature amounts is (edge pattern 1110) and (estimated edge direction “direction 1”), the enlarged image block generation unit 540 corresponds to a 3 × 3 image block as shown in FIG. Assuming that the respective pixels are p0 to p8, the pixel values of p0 to p8 are calculated by the following formula based on the pixel values {a, b, c, d} of the attention area shown in FIG. .

p0=a
p1=(a+b)/2
p2=b
p3=(a+c)/2
p4=(b+c)/2
p5=d
p6=c
p7=(p4+b)/2
p8=d
p0 = a
p1 = (a + b) / 2
p2 = b
p3 = (a + c) / 2
p4 = (b + c) / 2
p5 = d
p6 = c
p7 = (p4 + b) / 2
p8 = d

拡大画像ブロック生成部540は、これらの計算式を、(エッジパターン)と(推定エッジ方向)との組合せ(特徴量の組合せ)に基づいて一意に決定し、決定した計算式を用いて3×3画像ブロック相当の画素値を計算する。   The enlarged image block generation unit 540 uniquely determines these calculation formulas based on a combination of (edge pattern) and (estimated edge direction) (a combination of feature amounts), and 3 × using the determined calculation formula Pixel values corresponding to three image blocks are calculated.

図19は、特徴量の他の組合せ(エッジパターンと推定エッジ方向との組合せ)に対応する計算式を例示する図である。
図19(A)は、エッジパターン「1000」と推定エッジ方向「方向1」との組合せに対応する計算式を例示する。
p0=a
p2=b
p3=a
p4=(b+c)/2
p5=(b+d)/2
p6=c
p7=(c+d)/2
p8=d
p1=(p4+c)/2
拡大画像ブロック生成部540は、特徴量の組合せがエッジパターン「1000」及び推定エッジ方向「方向1」である場合に、上記の計算式を用いて3×3画像ブロック相当の画素値を計算する。
FIG. 19 is a diagram illustrating calculation formulas corresponding to other combinations of feature quantities (combination of edge patterns and estimated edge directions).
FIG. 19A illustrates a calculation formula corresponding to the combination of the edge pattern “1000” and the estimated edge direction “direction 1”.
p0 = a
p2 = b
p3 = a
p4 = (b + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
p1 = (p4 + c) / 2
The enlarged image block generation unit 540 calculates a pixel value corresponding to a 3 × 3 image block using the above formula when the combination of feature amounts is the edge pattern “1000” and the estimated edge direction “direction 1”. .

図19(B)は、エッジパターン「1100」と推定エッジ方向「方向5」との組合せに対応する計算式を例示する。
p0=a
p1=(a+b)/2
p2=b
p4=(a+d)/2
p6=c
p7=(c+d)/2
p8=d
p3=(p4+c)/2
p5=(p4+b)/2
拡大画像ブロック生成部540は、特徴量の組合せがエッジパターン「1100」及び推定エッジ方向「方向5」である場合に、上記の計算式を用いて3×3画像ブロック相当の画素値を計算する。
FIG. 19B illustrates a calculation formula corresponding to the combination of the edge pattern “1100” and the estimated edge direction “direction 5”.
p0 = a
p1 = (a + b) / 2
p2 = b
p4 = (a + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
p3 = (p4 + c) / 2
p5 = (p4 + b) / 2
The enlarged image block generation unit 540 calculates a pixel value corresponding to a 3 × 3 image block using the above formula when the combination of feature amounts is the edge pattern “1100” and the estimated edge direction “direction 5”. .

図19(C)は、エッジパターン「1100」と推定エッジ方向「方向2」との組合せに対応する計算式を例示する。
p0=a
p1=a
p2=b
p3=a
p4=(b+c)/2
p5=(b+d)/2
p6=c
p7=(c+d)/2
p8=d
拡大画像ブロック生成部540は、特徴量の組合せがエッジパターン「1100」及び推定エッジ方向「方向2」である場合に、上記の計算式を用いて3×3画像ブロック相当の画素値を計算する。
FIG. 19C illustrates a calculation formula corresponding to the combination of the edge pattern “1100” and the estimated edge direction “direction 2”.
p0 = a
p1 = a
p2 = b
p3 = a
p4 = (b + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
When the combination of feature amounts is the edge pattern “1100” and the estimated edge direction “direction 2”, the enlarged image block generation unit 540 calculates a pixel value corresponding to a 3 × 3 image block using the above calculation formula. .

図19(D)は、エッジパターン「0101」と推定エッジ方向「方向7」との組合せに対応する計算式を例示する。
p0=a
p2=b
p3=(a+c)/2
p4=(a+d)/2
p5=(b+d)/2
p6=c
p8=d
p1=(p4+b)/2
p7=(p4+c)/2
拡大画像ブロック生成部540は、特徴量の組合せがエッジパターン「0101」及び推定エッジ方向「方向7」である場合に、上記の計算式を用いて3×3画像ブロック相当の画素値を計算する。
FIG. 19D illustrates a calculation formula corresponding to the combination of the edge pattern “0101” and the estimated edge direction “direction 7”.
p0 = a
p2 = b
p3 = (a + c) / 2
p4 = (a + d) / 2
p5 = (b + d) / 2
p6 = c
p8 = d
p1 = (p4 + b) / 2
p7 = (p4 + c) / 2
The enlarged image block generation unit 540 calculates a pixel value corresponding to a 3 × 3 image block using the above formula when the combination of feature amounts is the edge pattern “0101” and the estimated edge direction “direction 7”. .

なお、他の組合せ(エッジパターン及び推定エッジ方向)の場合にも、拡大画像ブロック生成部540は、同様にそれぞれのエッジパターン及び推定エッジ方向に対応した計算式に従って計算を行うことにより、3×3画像ブロック相当の画素値を計算する。   In the case of other combinations (edge pattern and estimated edge direction), the enlarged image block generation unit 540 similarly performs calculation according to the calculation formula corresponding to each edge pattern and estimated edge direction to obtain 3 × Pixel values corresponding to three image blocks are calculated.

次に、拡大画像ブロック生成部540は、上記のように計算された3×3画像ブロック相当の画素値と、注目領域の推定エッジ方向に基づいて選択された周辺領域内の複数の参照画素とを用いて、4×4画像ブロックを生成する。   Next, the enlarged image block generation unit 540 calculates the pixel value corresponding to the 3 × 3 image block calculated as described above, and a plurality of reference pixels in the peripheral area selected based on the estimated edge direction of the attention area. Is used to generate a 4 × 4 image block.

図20は、推定エッジ方向に基づく参照画素r0〜r13の選択方法を説明する図である。
拡大画像ブロック生成部540は、注目領域の推定エッジ方向が方向1(22.5°)から方向3(67.5°)である場合に、図20(A)に太線枠で囲んだように、参照画素r0〜r5を左上から下へ3画素と右下から上へ3画素となるように選択する。
また、拡大画像ブロック生成部540は、注目領域の推定エッジ方向が方向5(112.5°)から方向7(157.5°)である場合に、図20(B)に太線枠で示したように、参照画素r0〜r5を左下から上へ3画素と右上から下へ3画素となるように選択する。
また、拡大画像ブロック生成部540は、参照画素r6〜r13として、推定エッジ方向に拠らず、図20(A)(B)に示すように、上下それぞれ4画素を選択する。
このように、拡大画像ブロック生成部540は、注目領域における推定エッジ方向に基づいて、参照画素を選択する。なお、参照画素の選択は図20に例示する2パターンからの選択に限定されるわけではなく、推定エッジ方向に従い、より多くの参照画素選択パターンを用意してもよい。また、選択する参照画素についても、推定エッジ方向によって変更してもよい。
FIG. 20 is a diagram illustrating a method of selecting reference pixels r0 to r13 based on the estimated edge direction.
When the estimated edge direction of the attention area is from direction 1 (22.5 °) to direction 3 (67.5 °), the enlarged image block generation unit 540 is surrounded by a thick line frame in FIG. The reference pixels r0 to r5 are selected so as to be 3 pixels from the upper left to the lower and 3 pixels from the lower right to the upper.
The enlarged image block generation unit 540 is indicated by a thick frame in FIG. 20B when the estimated edge direction of the attention area is from the direction 5 (112.5 °) to the direction 7 (157.5 °). In this way, the reference pixels r0 to r5 are selected so that there are 3 pixels from the lower left to the upper and 3 pixels from the upper right to the lower.
In addition, the enlarged image block generation unit 540 selects four upper and lower pixels as the reference pixels r6 to r13, as shown in FIGS. 20A and 20B, regardless of the estimated edge direction.
As described above, the enlarged image block generation unit 540 selects the reference pixel based on the estimated edge direction in the attention area. Note that the selection of reference pixels is not limited to the selection from the two patterns illustrated in FIG. 20, and more reference pixel selection patterns may be prepared according to the estimated edge direction. Also, the reference pixel to be selected may be changed according to the estimated edge direction.

図21は、4×4画素の拡大画像ブロックの生成処理を説明する図である。
図21に示すように、拡大画像ブロック生成部540は、計算された3×3画像ブロック相当の画素値p0〜p8と、注目領域における推定エッジ方向に基づいて選択された参照画素r0〜r13とを用いて、以下のような計算式に従って4×4画素の拡大画像ブロックに相当する画素値(s0〜s15)を計算し、4x4拡大画像ブロックを生成する。
FIG. 21 is a diagram illustrating a process of generating a 4 × 4 pixel enlarged image block.
As illustrated in FIG. 21, the enlarged image block generation unit 540 includes the calculated pixel values p0 to p8 corresponding to 3 × 3 image blocks, and reference pixels r0 to r13 selected based on the estimated edge direction in the attention area. Are used to calculate pixel values (s0 to s15) corresponding to the enlarged image block of 4 × 4 pixels according to the following calculation formula to generate a 4 × 4 enlarged image block.

s0=0.2×r6+0.16×r0+0.64×p0
s1=0.2×r7+0.32×p0+0.48×p1
s2=0.2×r8+0.48×p1+0.32×p2
s3=0.2×r9+0.64×p2+0.16×r1
s4=0.08×r0+0.32×p0+0.12×r2+0.48×p3
s5=0.16×p0+0.24×p1+0.24×p3+0.36×p4
s6=0.24×p1+0.16×p2+0.36×p4+0.24×p5
s7=0.32×p2+0.08×r1+0.48×p5+0.12×r3
s8=0.12×r2+0.48×p3+0.08×r4+0.32×p6
s9=0.24×p3+0.36×p4+0.16×p6+0.24×p7
s10=0.36×p4+0.24×p5+0.24×p7+0.16×p8
s11=0.48×p5+0.12×r3+0.32×p8+0.08×r5
s12=0.16×r4+0.64×p6+0.2×r10
s13=0.32×p6+0.48×p7+0.2×r11
s14=0.48×p7+0.32×p8+0.2×r12
s15=0.64×p8+0.16×r5+0.2×r13
s0 = 0.2 × r6 + 0.16 × r0 + 0.64 × p0
s1 = 0.2 × r7 + 0.32 × p0 + 0.48 × p1
s2 = 0.2 × r8 + 0.48 × p1 + 0.32 × p2
s3 = 0.2 × r9 + 0.64 × p2 + 0.16 × r1
s4 = 0.08 * r0 + 0.32 * p0 + 0.12 * r2 + 0.48 * p3
s5 = 0.16 × p0 + 0.24 × p1 + 0.24 × p3 + 0.36 × p4
s6 = 0.24 × p1 + 0.16 × p2 + 0.36 × p4 + 0.24 × p5
s7 = 0.32 × p2 + 0.08 × r1 + 0.48 × p5 + 0.12 × r3
s8 = 0.12 * r2 + 0.48 * p3 + 0.08 * r4 + 0.32 * p6
s9 = 0.24 × p3 + 0.36 × p4 + 0.16 × p6 + 0.24 × p7
s10 = 0.36 × p4 + 0.24 × p5 + 0.24 × p7 + 0.16 × p8
s11 = 0.48 × p5 + 0.12 × r3 + 0.32 × p8 + 0.08 × r5
s12 = 0.16 × r4 + 0.64 × p6 + 0.2 × r10
s13 = 0.32 × p6 + 0.48 × p7 + 0.2 × r11
s14 = 0.48 × p7 + 0.32 × p8 + 0.2 × r12
s15 = 0.64 × p8 + 0.16 × r5 + 0.2 × r13

以上のように処理を行うことにより、画像ブロック特徴抽出部520によってエッジ領域であると判断された注目領域に対応する4×4画素の拡大画像ブロック(s0〜s15)が生成される。   By performing the processing as described above, 4 × 4 pixel enlarged image blocks (s0 to s15) corresponding to the attention area determined as the edge area by the image block feature extraction unit 520 are generated.

以上説明したように、拡大画像ブロック生成部540は、画像ブロック特徴抽出部540により抽出または算出された画像特徴量に従って、エッジ領域と判断された画像ブロックに対して上述したように拡大ブロック生成処理を行う。これにより、ジャギーを抑えた滑らかなエッジの拡大画像ブロックを生成することができる。   As described above, the enlarged image block generation unit 540 performs the enlarged block generation process on the image block determined as the edge region according to the image feature amount extracted or calculated by the image block feature extraction unit 540 as described above. I do. As a result, it is possible to generate an enlarged image block having smooth edges with reduced jaggy.

次に、画像ブロック配置部560について説明する。
画像ブロック配置部560は、拡大画像ブロック生成部540により生成された注目領域に対応する拡大画像ブロックを、単純拡大画像生成部550から出力された拡大画像上の対応する位置に所定の方法により順次配置する。
Next, the image block arrangement unit 560 will be described.
The image block placement unit 560 sequentially places the enlarged image block corresponding to the attention area generated by the enlarged image block generation unit 540 at a corresponding position on the enlarged image output from the simple enlarged image generation unit 550 by a predetermined method. Deploy.

図22は、拡大画像ブロック生成部540により生成された4×4画素の拡大画像ブロックを、単純拡大画像生成部550から出力された拡大画像上に配置する具体例を説明する図である。
図22に示すように、拡大画像ブロック生成部540により順次生成された拡大画像ブロックbk0および拡大画像ブロックbk1は、単純拡大画像生成部550から出力された拡大画像上の対応する位置に順次配置される。このとき、画像ブロック配置部560は、拡大画像上の各画素値を拡大ブロックの各画素値(S0〜S15)で置き換えるように配置してもよいし、拡大画像上の各画素値と拡大ブロックの各画素値(S0〜S15)とを重畳するように配置してもよい。
また、拡大画像ブロック生成部540は、図22に示すように、拡大画像ブロック同士(図中の拡大画像ブロックbk0と拡大画像ブロックbk1)の拡大画像上の対応位置がオーバーラップする(重なり合う)場合は、各拡大画像ブロックのオーバーラップする画素の各々平均値を算出する。または、画像ブロック配置部560は、オーバーラップする画素の総和を計算し、この画素値の総和をオーバーラップした数で割ることにより各画素値を算出するようにしてもよい。なお、4×4画素の拡大画像ブロックは、画像ブロック特徴抽出部520によりエッジ領域と判断された注目領域に対して、拡大画像ブロック生成部540で生成されるため、入力画像データ中のエッジ部分で集中して生成される。このため、エッジ部分では、上述の拡大画像ブロック同士のオーバーラップは頻繁に発生する。このオーバーラップによる拡大画像ブロックの各画素値の平均化処理は、エッジをさらに滑らかにする効果があり、ジャギの発生を抑えることができる。
FIG. 22 is a diagram illustrating a specific example in which the 4 × 4 pixel enlarged image block generated by the enlarged image block generation unit 540 is arranged on the enlarged image output from the simple enlarged image generation unit 550.
As shown in FIG. 22, the enlarged image block bk0 and the enlarged image block bk1 sequentially generated by the enlarged image block generation unit 540 are sequentially arranged at corresponding positions on the enlarged image output from the simple enlarged image generation unit 550. The At this time, the image block arrangement unit 560 may arrange the pixel values on the enlarged image so as to replace the pixel values (S0 to S15) of the enlarged block, or each pixel value on the enlarged image and the enlarged block. These pixel values (S0 to S15) may be superposed.
In addition, as illustrated in FIG. 22, the enlarged image block generation unit 540 overlaps the overlapping positions of the enlarged image blocks (the enlarged image block bk0 and the enlarged image block bk1 in the figure) on the enlarged image. Calculates the average value of the overlapping pixels of each enlarged image block. Alternatively, the image block arrangement unit 560 may calculate each pixel value by calculating the sum of the overlapping pixels and dividing the sum of the pixel values by the number of overlaps. Note that the enlarged image block of 4 × 4 pixels is generated by the enlarged image block generation unit 540 with respect to the attention area determined as the edge area by the image block feature extraction unit 520, and therefore, an edge portion in the input image data Is generated in a concentrated manner. For this reason, the overlap of the above-mentioned enlarged image blocks frequently occurs at the edge portion. The averaging process of the pixel values of the enlarged image block by the overlap has an effect of further smoothing the edge, and can suppress the occurrence of jaggies.

次に、拡大処理部500の全体動作を説明する。
図23は、拡大処理部500による画像拡大処理(S20)を説明するフローチャートである。
ステップ210(S210)において、画像ブロック設定部510は、画像ブロック特徴抽出部520および拡大画像ブロック生成部540における処理で必要とされる所定の画像ブロックのサイズをそれぞれ設定し、設定されたブロックサイズの画像ブロックを順次(例えばラスタスキャン順に)切り出し、各ブロックサイズの画像ブロックを画像ブロック特徴抽出部520に出力する。
Next, the overall operation of the enlargement processing unit 500 will be described.
FIG. 23 is a flowchart illustrating the image enlargement process (S20) by the enlargement processing unit 500.
In step 210 (S210), the image block setting unit 510 sets predetermined image block sizes required for processing in the image block feature extraction unit 520 and the enlarged image block generation unit 540, and the set block size. Are sequentially cut out (for example, in the raster scan order), and image blocks of each block size are output to the image block feature extraction unit 520.

ステップ220(S220)において、画像ブロック特徴抽出部520は、入力された画像ブロック中の注目領域がエッジ領域であるのか平坦領域であるのかを判断する。
画像ブロック特徴抽出部520は、注目領域がエッジ領域である場合に、注目領域のエッジパターンと、エッジパターンに相当するエッジ角度を初期エッジ角度として設定し、ある特定エッジパターンの抽出および補正を行い、ジャギーを低減するような拡大画像ブロック生成処理を行うべく、S230の処理に移行する。
また、画像ブロック特徴抽出部520は、注目領域が平坦領域である場合に、S230〜S280の処理を行わず、S210の処理に戻って、次の画像ブロックの処理に移行する。
In step 220 (S220), the image block feature extraction unit 520 determines whether the attention area in the input image block is an edge area or a flat area.
When the attention area is an edge area, the image block feature extraction unit 520 sets an edge pattern of the attention area and an edge angle corresponding to the edge pattern as an initial edge angle, and performs extraction and correction of a specific edge pattern. In order to perform an enlarged image block generation process that reduces jaggy, the process proceeds to S230.
Further, when the attention area is a flat area, the image block feature extraction unit 520 returns to the process of S210 without performing the processes of S230 to S280, and proceeds to the process of the next image block.

ステップ230(S230)において、画像ブロック特徴抽出部520は、エッジ領域と判断された注目領域およびその注目領域を含む1ないし複数の周辺領域中の参照領域の初期エッジ角度Θから注目領域のエッジ方向θを推定する。例えば、画像ブロック特徴抽出部520は、得られた複数のエッジ角度Θの平均値を算出し、この平均値をエッジ方向θとする。なお、エッジ方向は、エッジ角度の平均値に限られるものではない。   In step 230 (S230), the image block feature extraction unit 520 determines the edge direction of the attention area from the initial edge angle Θ of the attention area determined as the edge area and the reference area in one or more peripheral areas including the attention area. Estimate θ. For example, the image block feature extraction unit 520 calculates an average value of the obtained plurality of edge angles Θ, and sets the average value as the edge direction θ. The edge direction is not limited to the average edge angle.

ステップ240(S240)において、画素値変換部530(平滑化部532)は、画像ブロック特徴抽出部520により得られた推定エッジ方向θに応じた平滑化カーネルを用いて、注目領域およびその周辺領域内画素の平滑化処理を行う。
さらに、画素値変換部530(強調部534)は、平滑化処理が施された注目領域およびその周辺領域内画素に対して、コントラスト強調処理を施す。
In step 240 (S240), the pixel value conversion unit 530 (smoothing unit 532) uses the smoothing kernel corresponding to the estimated edge direction θ obtained by the image block feature extraction unit 520, and uses the smoothed kernel and its surrounding region. The inner pixel is smoothed.
Further, the pixel value conversion unit 530 (enhancement unit 534) performs contrast enhancement processing on the attention area and the pixels in the surrounding area on which the smoothing process has been performed.

ステップ250(S250)において、拡大画像ブロック生成部540は、画像ブロック特徴抽出部520により得られた注目領域のエッジパターンおよびこの注目領域の推定エッジ方向θと、S240において画素値変換部530により画素値変換処理が施された注目領域および周辺領域内の画素値とを用いて、注目領域に対する拡大画像ブロックを生成する。
このように、S220においてエッジ領域であると判断された場合に、そのようなエッジ部分のジャギーを抑えるような拡大画像ブロックが生成される。これによって、エッジ部分などについてジャギーの少ない高画質の拡大画像ブロックの生成を行うことができる。
In step 250 (S250), the enlarged image block generation unit 540 uses the edge pattern of the attention area obtained by the image block feature extraction section 520 and the estimated edge direction θ of the attention area, and the pixel value conversion section 530 performs pixel detection in S240. An enlarged image block for the region of interest is generated using the region of interest subjected to the value conversion process and the pixel values in the peripheral region.
As described above, when it is determined in S220 that the region is an edge region, an enlarged image block that suppresses jaggies of such an edge portion is generated. Thereby, it is possible to generate a high-quality enlarged image block with less jaggy for the edge portion and the like.

ステップ260(S260)において、単純拡大画像生成部550は、多値変換部580により多値化された入力画像データ(画像データ格納部570に記憶されていた入力画像データ)を画像毎または数ライン毎に取得し、最近傍補間拡大処理を施して、画像ブロック配置部560に出力する。
すなわち、単純拡大画像生成部550は、S210からS250までの処理と並行して、あるいは前後して、最近傍補間拡大処理等を行い拡大画像を生成する。
In step 260 (S260), the simple enlarged image generation unit 550 converts the input image data multi-valued by the multi-value conversion unit 580 (input image data stored in the image data storage unit 570) for each image or several lines. Each image is acquired, subjected to nearest neighbor enlargement processing, and output to the image block placement unit 560.
That is, the simple enlarged image generation unit 550 generates an enlarged image by performing nearest neighbor interpolation enlargement processing or the like in parallel with or before or after the processing from S210 to S250.

ステップ270(S270)において、画像ブロック配置部560は、拡大画像ブロック生成部540により生成された注目領域に対する拡大画像ブロックを、単純拡大画像生成部550により生成した拡大画像上の対応する位置に順次配置する。
また、画像ブロック配置部560は、拡大画像ブロックがオーバーラップして配置される場合に、上述のような平均化処理を行う。
これらの処理をすべて終えた拡大画像ブロックあるいはライン単位の拡大画像は、二値化処理部590に出力され、二値化処理の後、画像データ格納部570に出力され格納される。
In step 270 (S270), the image block placement unit 560 sequentially places the enlarged image blocks for the region of interest generated by the enlarged image block generation unit 540 at corresponding positions on the enlarged image generated by the simple enlarged image generation unit 550. Deploy.
Further, the image block arrangement unit 560 performs the averaging process as described above when the enlarged image blocks are arranged in an overlapping manner.
The enlarged image block or the enlarged image in units of lines after all these processes are output to the binarization processing unit 590, and after the binarization processing, are output to the image data storage unit 570 and stored therein.

ステップ280(S280)において、拡大処理部500は、すべての入力画像データについて処理が完了したか否かを調べ、完了していない場合に、S210の処理に戻って処理を続け、完了している場合に、拡大画像データを所定の出力先に出力して拡大処理を終了する。   In step 280 (S280), the enlargement processing unit 500 checks whether or not the processing has been completed for all the input image data. If not, the processing returns to the processing of S210 to continue the processing. In this case, the enlarged image data is output to a predetermined output destination, and the enlargement process is terminated.

以上説明したように、本実施形態における画像処理装置2は、注目画素を含む所定の大きさの画像領域の特徴を抽出し、抽出された特徴に基づいて、この画像領域内およびこの画像領域の近傍領域内の画素値を変換し、抽出された特徴が所定の条件を満たす画像領域に対して拡大画像領域を生成し、さらに入力画像をこの画像領域の拡大手法とは異なる拡大手法で拡大して拡大画像を生成し、この拡大画像領域を拡大画像上の対応する位置に配置して、拡大された出力画像を生成する。このような拡大処理によって、例えば、入力画像中のエッジ部分に関しては、エッジを滑らかにする拡大手法が適用され、またこのような処理負荷の重い画像領域毎の拡大手法をエッジ部分のような特徴的な部分だけに限定することができる。つまり、エッジ部分のジャギーを抑制した高画質な拡大処理を行うとともに、処理負荷を抑えて高速に拡大処理を行うことができる。   As described above, the image processing apparatus 2 in the present embodiment extracts features of an image region having a predetermined size including the pixel of interest, and based on the extracted features, the image processing device 2 extracts the features of the image region. The pixel values in the neighboring area are converted, an enlarged image area is generated for the image area in which the extracted features satisfy a predetermined condition, and the input image is enlarged by an enlargement method different from the enlargement method of the image area. An enlarged image is generated, and the enlarged image region is arranged at a corresponding position on the enlarged image to generate an enlarged output image. By such enlargement processing, for example, with respect to the edge portion in the input image, an enlargement method for smoothing the edge is applied, and such an enlargement method for each image area with a heavy processing load is characterized as an edge portion. It can be limited to only a specific part. That is, it is possible to perform high-quality enlargement processing that suppresses jaggies in the edge portion, and to perform enlargement processing at high speed while suppressing the processing load.

本発明にかかる画像処理方法が適応される画像処理装置2のハードウェア構成を、制御装置20を中心に例示する図である。It is a figure which illustrates the hardware constitutions of the image processing apparatus 2 with which the image processing method concerning this invention is applied centering on the control apparatus 20. FIG. 制御装置20(図1)により実行され、本発明にかかる画像処理方法を実現する画像拡大プログラム5の機能構成を例示する図である。It is a figure which illustrates the functional structure of the image expansion program 5 which is performed by the control apparatus 20 (FIG. 1) and implement | achieves the image processing method concerning this invention. 画像ブロック特徴抽出部520の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image block feature extraction part 520. FIG. 2×2画像ブロックにおけるパターンとそのエッジ角度を例示する図である。It is a figure which illustrates the pattern and its edge angle in a 2x2 image block. 注目領域が市松エッジパターンである場合に、注目領域の初期エッジ角度を決定するために参照される領域を例示する図である。It is a figure which illustrates the field referred in order to determine the initial edge angle of the attention field, when the attention field is a checkered edge pattern. 市松エッジパターンとの組み合わせによって決定される初期エッジ角度を例示する図である。It is a figure which illustrates the initial edge angle determined by the combination with a checkered edge pattern. 補正される特定パターンを含む画像の一部分を表す図である。It is a figure showing a part of image containing the specific pattern corrected. 凹凸パターンの抽出および補正を説明する図である。It is a figure explaining extraction and correction | amendment of an uneven | corrugated pattern. 図8とは異なる凹凸パターンの補正を説明する図である。It is a figure explaining correction | amendment of the uneven | corrugated pattern different from FIG. 図7に示した画像(特定パターンを含む)の補正後を例示する図である。It is a figure which illustrates after correction | amendment of the image (a specific pattern is included) shown in FIG. 注目領域及び周辺領域の具体例と注目領域のエッジ方向とを例示する図である。It is a figure which illustrates the specific example of an attention area and a peripheral area, and the edge direction of an attention area. エッジ方向推定部534によるエッジ方向推定処理(S10)のフローチャートである。It is a flowchart of the edge direction estimation process (S10) by the edge direction estimation part 534. FIG. エッジ方向の推定に用いる参照領域を例示する図である。It is a figure which illustrates the reference field used for estimation of an edge direction. 適正なエッジパターン判断を説明する図である。It is a figure explaining appropriate edge pattern judgment. 推定エッジ方向に対応する平滑化カーネルを例示する図である。It is a figure which illustrates the smoothing kernel corresponding to an estimation edge direction. 平滑化カーネルによる平滑化処理を説明する図である。It is a figure explaining the smoothing process by the smoothing kernel. 強調カーネルを例示し、この強調カーネルによる強調処理を説明する図である。It is a figure which illustrates an emphasis kernel and explains emphasis processing by this emphasis kernel. 拡大画像ブロック生成部540による拡大画像ブロックの生成処理を説明する図である。It is a figure explaining the production | generation process of the enlarged image block by the enlarged image block production | generation part 540. FIG. エッジパターンと推定エッジ方向との組み合わせに対応する計算式の他の例を示す図である。It is a figure which shows the other example of the calculation formula corresponding to the combination of an edge pattern and an estimated edge direction. 注目領域の推定エッジ方向に基づく参照画素r0〜r13の選択方法を説明する図である。It is a figure explaining the selection method of the reference pixels r0-r13 based on the estimated edge direction of an attention area. 4×4画素の拡大画像ブロックの生成処理を説明する図である。It is a figure explaining the production | generation process of a 4x4 pixel enlarged image block. 拡大画像ブロック生成部540により生成された拡大画像ブロックの配置方法を例示する図である。It is a figure which illustrates the arrangement method of the enlarged image block produced | generated by the enlarged image block production | generation part 540. FIG. 拡大処理部500による画像拡大処理(S20)を説明するフローチャートである。It is a flowchart explaining the image expansion process (S20) by the expansion process part 500. FIG.

符号の説明Explanation of symbols

2・・・画像処理装置
5・・・画像拡大プログラム
500・・・拡大処理部
510・・・画像ブロック設定部
520・・・画像ブロック特徴抽出部
530・・・画素値変換部
532・・・平滑化部
534・・・強調部
540・・・拡大画像ブロック生成部
550・・・単純拡大画像生成部
560・・・画像ブロック配置部
DESCRIPTION OF SYMBOLS 2 ... Image processing apparatus 5 ... Image enlargement program 500 ... Enlargement processing part 510 ... Image block setting part 520 ... Image block feature extraction part 530 ... Pixel value conversion part 532 ... Smoothing unit 534 ... enhancement unit 540 ... enlarged image block generation unit 550 ... simple enlarged image generation unit 560 ... image block arrangement unit

Claims (12)

入力画像の拡大処理を行う画像処理装置であって、
入力画像に含まれる注目画素について、この注目画素を含む既定の大きさの注目領域の画素値パターンに基づいて、当該注目領域がエッジ領域であるか否かを判断し、
当該エッジ領域の画素値パターンに基づいて、初期エッジ角度を算出すると共に、当該エッジ領域の画素値パターンのみでは一意に初期エッジ角度を算出できない場合に、当該エッジ領域のラスタスキャン順で一つ手前および/または一つ先の画像領域の画素値パターンを参照して初期エッジ角度を算出し、
当該初期エッジ角度に応じて、階調の変化方向を抽出するために参照すべき参照領域を設定し、
当該参照領域の画素値パターンと、当該注目領域の画素値パターンとに基づいて、階調の変化方向を、当該注目領域の特徴として抽出する領域特徴抽出手段と、
前記領域特徴抽出手段により抽出された階調の変化方向に応じて、少なくともこの注目領域内の画素値を変換する画素値変換手段と、
前記領域特徴抽出手段により抽出された階調の変化方向が、既定の条件を満たす注目領域の注目画素に対して、前記画素値変換手段により画素値が変換された注目領域に基づいて、この注目領域に含まれる注目画素に対応する拡大画像領域を生成する拡大画像領域生成手段と、
前記拡大画像領域生成手段とは異なる拡大処理方法を適用して、入力画像の拡大画像を生成する拡大画像生成手段と、
前記拡大画像領域生成手段により生成された拡大画像領域と、前記拡大画像生成手段により生成された拡大画像とを統合する画像統合手段と
を有する画像処理装置。
An image processing apparatus for enlarging an input image,
For the target pixel included in the input image, based on the pixel value pattern of the target region of a predetermined size including the target pixel, determine whether the target region is an edge region,
The initial edge angle is calculated based on the pixel value pattern of the edge area, and when the initial edge angle cannot be uniquely calculated only by the pixel value pattern of the edge area, the previous edge scan is performed in the raster scan order. And / or calculate the initial edge angle with reference to the pixel value pattern of the next image area,
In accordance with the initial edge angle, set a reference region to be referred to in order to extract the gradation change direction,
Area feature extraction means for extracting a change direction of gradation as a feature of the attention area based on the pixel value pattern of the reference area and the pixel value pattern of the attention area;
A pixel value conversion unit that converts at least a pixel value in the region of interest according to the change direction of the gradation extracted by the region feature extraction unit;
Based on the attention area in which the pixel value is converted by the pixel value conversion means for the attention pixel of the attention area whose gradation change direction extracted by the area feature extraction means satisfies a predetermined condition. An enlarged image area generating means for generating an enlarged image area corresponding to a target pixel included in the area;
Applying an enlargement processing method different from the enlarged image region generating means, an enlarged image generating means for generating an enlarged image of the input image,
An image processing apparatus comprising: an enlarged image region generated by the enlarged image region generating unit; and an image integrating unit that integrates the enlarged image generated by the enlarged image generating unit.
前記画素値変換手段は、前記注目領域内の画素値と、この注目領域の近傍領域内の画素値とを変換する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the pixel value conversion unit converts a pixel value in the attention area and a pixel value in a vicinity area of the attention area.
前記領域特徴抽出手段は、抽出された画素値パターンが既定のパターンである場合に、この画素値パターンを補正する
請求項1又は2に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the region feature extraction unit corrects the pixel value pattern when the extracted pixel value pattern is a predetermined pattern.
前記画素値変換手段は、前記領域特徴抽出手段により抽出された変化方向に応じた位置の画素群を参照して、平滑化処理を行う
請求項1乃至3のいずれかに記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the pixel value conversion unit performs a smoothing process with reference to a pixel group at a position corresponding to a change direction extracted by the region feature extraction unit.
前記画素値変換手段は、前記平滑化処理がなされた複数の画素値を用いて、階調変化を強調するエッジ強調処理を行う
請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the pixel value conversion unit performs an edge enhancement process for enhancing a gradation change, using the plurality of pixel values subjected to the smoothing process.
前記画素値変換手段は、前記領域特徴抽出手段により抽出された階調の変化方向に基づいて、前記注目領域内の画素値と、この注目領域の近傍領域内の画素値とを変換し、
前記拡大画像領域生成手段は、前記領域特徴抽出手段により抽出された階調の変化方向が既定の条件を満たす注目領域の注目画素に対して、この注目領域の階調の変化方向、前記画素値変換手段により変換された注目領域の画素値、及び、前記画素値変換手段により変換された近傍領域の画素値に基づいて、注目画素に対応する拡大画像領域を生成する
請求項2に記載の画像処理装置。
The pixel value conversion means converts a pixel value in the attention area and a pixel value in a vicinity area of the attention area based on the change direction of the gradation extracted by the area feature extraction means,
The enlarged image area generation unit is configured to detect the change direction of the gradation of the attention area, the pixel value for the attention pixel of the attention area in which the change direction of the gradation extracted by the area feature extraction unit satisfies a predetermined condition. The image according to claim 2, wherein an enlarged image area corresponding to the target pixel is generated based on the pixel value of the attention area converted by the conversion means and the pixel value of the neighboring area converted by the pixel value conversion means. Processing equipment.
前記拡大画像生成手段は、前記拡大画像領域生成手段による拡大処理よりも処理負荷の小さい拡大手法を適用して、入力画像の拡大画像を生成する
請求項1又は6に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the enlarged image generation unit generates an enlarged image of the input image by applying an enlargement method that has a smaller processing load than the enlargement process performed by the enlarged image region generation unit.
前記拡大画像生成手段は、入力画像毎、又は、入力画像中の複数のライン毎に、拡大画像を生成する
請求項1又は7に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the enlarged image generation unit generates an enlarged image for each input image or for each of a plurality of lines in the input image.
前記画像統合手段は、前記拡大画像領域生成手段により生成される複数の拡大画像領域が拡大後の画像において互いに重なり合う場合に、これらの拡大画像領域に基づいて、この重複部分の画素値を決定する
請求項1に記載の画像処理装置。
The image integration unit determines a pixel value of the overlapping portion based on the enlarged image regions when a plurality of enlarged image regions generated by the enlarged image region generation unit overlap each other in the enlarged image. The image processing apparatus according to claim 1.
前記画像統合手段は、前記拡大画像領域生成手段により生成される複数の拡大画像領域が拡大後の画像において互いに重なり合う場合に、これら拡大画像領域の重複部分について、同一画素に対応する複数の画素値の平均値を算出する
請求項9に記載の画像処理装置。
In the case where a plurality of enlarged image areas generated by the enlarged image area generating means overlap each other in the enlarged image, the image integrating means has a plurality of pixel values corresponding to the same pixel with respect to overlapping portions of the enlarged image areas. The image processing apparatus according to claim 9, wherein an average value of the image processing apparatus is calculated.
前記画像統合手段は、前記拡大画像生成手段により生成された拡大画像の少なくとも一部を、前記拡大画像領域生成手段により生成された拡大画像領域で置換する
請求項1又は9に記載の画像処理装置。
The image processing device according to claim 1, wherein the image integration unit replaces at least a part of the enlarged image generated by the enlarged image generation unit with the enlarged image region generated by the enlarged image region generation unit. .
入力画像の拡大処理を行う画像処理装置において、
入力画像に含まれる注目画素について、この注目画素を含む既定の大きさの注目領域の画素値パターンに基づいて、当該注目領域がエッジ領域であるか否かを判断するステップと、
当該エッジ領域の画素値パターンに基づいて、初期エッジ角度を算出すると共に、当該エッジ領域の画素値パターンのみでは一意に初期エッジ角度を算出できない場合に、当該エッジ領域のラスタスキャン順で一つ手前および/または一つ先の画像領域の画素値パターンを参照して初期エッジ角度を算出するステップと、
当該初期エッジ角度に応じて、階調の変化方向を抽出するために参照すべき参照領域を設定するステップと、
当該参照領域の画素値パターンと、当該注目領域の画素値パターンとに基づいて、階調の変化方向を、当該注目領域の特徴として抽出するステップと、
前記抽出するステップにより抽出された階調の変化方向に応じて、少なくともこの注目域内の画素値を変換するステップと、
前記抽出するステップにより抽出された階調の変化方向が、既定の条件を満たす注目領域の注目画素に対して、前記変換するステップにより画素値が変換された注目領域に基づいて、この注目領域に含まれる注目画素に対応する拡大画像領域を生成するステップと、
前記拡大画像領域を生成するステップとは異なる拡大処理方法を適用して、入力画像の拡大画像を生成するステップと、
前記拡大画像領域を生成するステップにより生成された拡大画像領域と、前記拡大画像を生成するステップにより生成された拡大画像とを統合するステップと
を前記画像処理装置に実行させるプログラム。
In an image processing apparatus that performs an enlargement process of an input image,
For a target pixel included in the input image, based on a pixel value pattern of a target region of a predetermined size including the target pixel, determining whether the target region is an edge region;
The initial edge angle is calculated based on the pixel value pattern of the edge area, and when the initial edge angle cannot be uniquely calculated only by the pixel value pattern of the edge area, the previous edge scan is performed in the raster scan order. And / or calculating an initial edge angle with reference to a pixel value pattern of the next image area;
Setting a reference region to be referred to in order to extract a change direction of gradation according to the initial edge angle;
Extracting a change direction of gradation as a feature of the region of interest based on the pixel value pattern of the reference region and the pixel value pattern of the region of interest;
Depending on the changing direction of the extracted tone by said step of extracting, and converting at least a pixel value of the attention region,
For the attention pixel of the attention area in which the gradation change direction extracted by the extraction step satisfies a predetermined condition, the attention value is converted into the attention area based on the attention area whose pixel value is converted by the conversion step. Generating an enlarged image region corresponding to the pixel of interest included;
Applying an enlargement processing method different from the step of generating the enlarged image region to generate an enlarged image of the input image;
A program for causing the image processing apparatus to execute the step of integrating the enlarged image region generated by the step of generating the enlarged image region and the enlarged image generated by the step of generating the enlarged image.
JP2004366499A 2004-12-17 2004-12-17 Image processing apparatus, image processing method, and program thereof Expired - Fee Related JP4517288B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004366499A JP4517288B2 (en) 2004-12-17 2004-12-17 Image processing apparatus, image processing method, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004366499A JP4517288B2 (en) 2004-12-17 2004-12-17 Image processing apparatus, image processing method, and program thereof

Publications (2)

Publication Number Publication Date
JP2006174285A JP2006174285A (en) 2006-06-29
JP4517288B2 true JP4517288B2 (en) 2010-08-04

Family

ID=36674526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004366499A Expired - Fee Related JP4517288B2 (en) 2004-12-17 2004-12-17 Image processing apparatus, image processing method, and program thereof

Country Status (1)

Country Link
JP (1) JP4517288B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5213105B2 (en) 2008-01-17 2013-06-19 株式会社日立製作所 Video network system and video data management method
JP6316010B2 (en) * 2014-01-30 2018-04-25 キヤノン株式会社 Image processing apparatus and image processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133410A (en) * 2000-10-25 2002-05-10 Fuji Photo Film Co Ltd Noise suppressing processor and recording medium
JP2003115031A (en) * 2001-10-03 2003-04-18 Ricoh Co Ltd Image processor and its method
JP2004180171A (en) * 2002-11-28 2004-06-24 Fuji Xerox Co Ltd Device, method and program for processing image, and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133410A (en) * 2000-10-25 2002-05-10 Fuji Photo Film Co Ltd Noise suppressing processor and recording medium
JP2003115031A (en) * 2001-10-03 2003-04-18 Ricoh Co Ltd Image processor and its method
JP2004180171A (en) * 2002-11-28 2004-06-24 Fuji Xerox Co Ltd Device, method and program for processing image, and storage medium

Also Published As

Publication number Publication date
JP2006174285A (en) 2006-06-29

Similar Documents

Publication Publication Date Title
JP4568460B2 (en) Image processing apparatus and recording medium
US7149355B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable record medium storing image processing program
JP2009278363A (en) Image processor and image processing method
JP4328926B2 (en) Image data interpolation method, image data interpolation apparatus, and medium on which pixel interpolation program is recorded
JP5388559B2 (en) Image processing apparatus, image processing method, program for executing image processing method, and storage medium
US7885486B2 (en) Image processing system, method for processing image and computer readable medium
JP4716255B2 (en) Image processing apparatus, image processing method, and program thereof
JP4517288B2 (en) Image processing apparatus, image processing method, and program thereof
JP4517287B2 (en) Image processing apparatus, image processing method, and program thereof
US9584699B2 (en) Image processing apparatus, image processing method and computer-readable storage medium with improved character display
JP3888090B2 (en) Image processing apparatus and image processing method
JP4730525B2 (en) Image processing apparatus and program thereof
KR100587979B1 (en) Interpolation method for image enlargement based on edge and corner
JP3262425B2 (en) Image processing device
JP2006050481A (en) Image processing apparatus, image processing method and program thereof
JP6651776B2 (en) Image processing apparatus, image processing method, and program
JP2006252108A (en) Image processing device, image processing method, and its program
JP2006050480A (en) Image processing apparatus, image processing method and program thereof
JP4872715B2 (en) Image processing apparatus and program
JP2005190383A (en) Dot area discrimination apparatus and dot area discrimination method
JP2010191931A (en) Image processing apparatus, image forming apparatus, computer program, recording medium and image processing method
JP4311292B2 (en) Image processing apparatus, image processing method, and program thereof
JP4334498B2 (en) Image processing apparatus, image forming apparatus, image processing method, and computer program
JP2006252107A (en) Image processing device, image processing method, and its program
JP5013243B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium recording the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100422

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100505

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130528

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4517288

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140528

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees