JP4517287B2 - Image processing apparatus, image processing method, and program thereof - Google Patents

Image processing apparatus, image processing method, and program thereof Download PDF

Info

Publication number
JP4517287B2
JP4517287B2 JP2004366409A JP2004366409A JP4517287B2 JP 4517287 B2 JP4517287 B2 JP 4517287B2 JP 2004366409 A JP2004366409 A JP 2004366409A JP 2004366409 A JP2004366409 A JP 2004366409A JP 4517287 B2 JP4517287 B2 JP 4517287B2
Authority
JP
Japan
Prior art keywords
pixel value
region
area
image
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004366409A
Other languages
Japanese (ja)
Other versions
JP2006174276A (en
Inventor
聡 久保田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2004366409A priority Critical patent/JP4517287B2/en
Publication of JP2006174276A publication Critical patent/JP2006174276A/en
Application granted granted Critical
Publication of JP4517287B2 publication Critical patent/JP4517287B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Record Information Processing For Printing (AREA)

Description

本発明は、画像を拡大する画像処理装置に関する。   The present invention relates to an image processing apparatus that enlarges an image.

二値画像の拡大処理は、ディジタル複写機や複合機、プリンタ、FAX、スキャナなどの編集やファイリング、表示、印刷などを行うシステムにとって基本的な処理の一つである。また近年、高解像度のディジタル複写機や複合機、プリンタの普及に伴い、印刷出力の際に高画質の出力結果を得ることが望まれており、高画質拡大処理に対する重要度が高まっている。
二値画像を拡大処理する既存の代表的な手法としては、最近傍法や線形補間法がある。最近傍法は、拡大後の画素値として、その画素を原画像上に逆写像した際に最も距離が近い画素の画素値を使うという方法である。この方法は、演算量が少ないため高速に処理することができる。しかし、原画像の1画素がそのまま矩形形状に拡大されるため、二値画像においては斜線部やエッジ部のジャギーが目立ち、倍率が大きい場合には画質劣化の程度は非常に大きい。
これらの問題を解決する試みとして、例えば特許文献1、特許文献2などの新規方式が提案されている。
特許文献1に記載されている技術では、着目画素を中心とする所定領域毎に予め用意されたテンプレートとマッチングをとり、マッチングパターンに対応するスムージング拡大パターンにより拡大し、前記拡大パターンを拡大率に応じて1つ以上の画素に分割し、その各画素毎に平滑化処理を施して着目画素を拡大および多値化する。またパターンは予め複数のパターン群に分け、マッチングをとる優先順位を予め決めることによりパターンの誤検出を防止している。しかし、本技術は、基本的に、テンプレートマッチングと平滑化処理のみによる2値画像の拡大であり、非常に多くのテンプレートを必要とし、用意されないパターンのエッジに関してはスムージング拡大処理を行うことができない。
特許文献2に記載されている技術では、まず原画像を2値化し、その2値画像から原画像に含まれる斜め成分の方向を、方向毎に予め用意した2次元パターン(行列データ)と一致判定することにより求め、求められた方向の斜線と画素位置を格子点と見なした場合の交点とその交点における画素値を求める事により補間処理を行う。しかし、本技術は、求められた方向により補正がされてはいるが基本的には線形補間(内挿)法による補間処理であり、十分なジャギーの低減は行えない。
特開平7−221976号公報 特開2000−228723号公報
The binary image enlargement process is one of the basic processes for a system that performs editing, filing, display, printing, and the like of a digital copying machine, a multifunction machine, a printer, a FAX, a scanner, and the like. In recent years, with the widespread use of high-resolution digital copiers, multifunction peripherals, and printers, it has been desired to obtain high-quality output results at the time of print output, and the importance of high-quality enlargement processing has increased.
Typical existing methods for enlarging a binary image include a nearest neighbor method and a linear interpolation method. The nearest neighbor method is a method of using the pixel value of the pixel having the closest distance when the pixel is inversely mapped on the original image as the pixel value after enlargement. Since this method has a small amount of calculation, it can be processed at high speed. However, since one pixel of the original image is directly expanded into a rectangular shape, in a binary image, jaggy in the hatched portion and the edge portion is conspicuous, and the degree of image quality deterioration is very large when the magnification is large.
As an attempt to solve these problems, new methods such as Patent Document 1 and Patent Document 2 have been proposed.
In the technique described in Patent Document 1, matching is performed with a template prepared in advance for each predetermined region centered on the pixel of interest, and enlargement is performed using a smoothing enlargement pattern corresponding to the matching pattern. Accordingly, the pixel is divided into one or more pixels, and a smoothing process is performed for each pixel to enlarge and multivalue the pixel of interest. In addition, patterns are divided into a plurality of pattern groups in advance, and the priority of matching is determined in advance to prevent erroneous pattern detection. However, the present technology basically enlarges a binary image only by template matching and smoothing processing, requires a very large number of templates, and cannot perform smoothing enlargement processing on edges of patterns that are not prepared. .
In the technique described in Patent Document 2, the original image is first binarized, and the direction of the diagonal component included in the original image from the binary image matches the two-dimensional pattern (matrix data) prepared in advance for each direction. Interpolation processing is performed by obtaining intersection points and pixel values at the intersection points when the diagonal lines and pixel positions in the obtained direction are regarded as grid points. However, although this technique is corrected according to the obtained direction, it is basically an interpolation process by a linear interpolation (interpolation) method, and cannot sufficiently reduce jaggy.
JP-A-7-221976 JP 2000-228723 A

本発明は、上述した背景からなされたものであり、画像を高画質に拡大する画像処理装置を提供することを目的とする。   The present invention has been made from the above-described background, and an object thereof is to provide an image processing apparatus that enlarges an image with high image quality.

[画像処理装置]
上記目的を達成するために、本発明にかかる画像処理装置は、入力画像の拡大処理を行う画像処理装置であって、入力画像に含まれる注目画素について、この注目画素を含む既定の大きさの画像領域の特徴を抽出する領域特徴抽出手段と、前記領域特徴抽出手段により抽出された特徴に基づいて、少なくともこの画像領域内の画素値を変換する画素値変換手段と、前記画素値変換手段により変換された画像領域の画素値に基づいて拡大画像領域を生成する1つの生成手段、及び、前記1つの生成手段とは異なる処理により拡大画像領域を生成する他の生成手段を含む拡大画像領域生成手段と、前記拡大画像領域生成手段により生成された拡大画像領域を配置する画像配置手段とを有し、前記拡大画像領域生成手段は、前記領域特徴抽出手段により抽出された特徴に応じた前記生成手段を適用する。
[Image processing device]
In order to achieve the above object, an image processing apparatus according to the present invention is an image processing apparatus that performs an enlargement process of an input image, and for a target pixel included in the input image, a predetermined size including the target pixel is provided. An area feature extracting unit for extracting features of an image area, a pixel value converting unit for converting at least a pixel value in the image area based on the feature extracted by the area feature extracting unit, and the pixel value converting unit Enlarged image area generation including one generating means for generating an enlarged image area based on the pixel value of the converted image area, and another generating means for generating the enlarged image area by a process different from the one generating means And an image arrangement unit that arranges the enlarged image region generated by the enlarged image region generation unit, and the enlarged image region generation unit includes the region feature extraction unit. Applying said generating means in response to the extracted feature Ri.

好適には、前記画素値変換手段は、前記画像領域の画素値が既定の条件を満たしている場合にのみ、前記画像領域内の画素値と、この画像領域の近傍領域内の画素値とを変換する。   Preferably, the pixel value conversion means calculates the pixel value in the image area and the pixel value in the vicinity area of the image area only when the pixel value of the image area satisfies a predetermined condition. Convert.

好適には、前記領域特徴抽出手段は、前記画像領域の画素値が既定の条件を満たしている場合に、この画像領域の画素値パターンをこの画像領域の特徴として抽出する。   Preferably, the area feature extraction unit extracts a pixel value pattern of the image area as a feature of the image area when the pixel value of the image area satisfies a predetermined condition.

好適には、前記領域特徴抽出手段は、抽出された画素値パターンが既定のパターンである場合に、この画素値パターンを補正する。   Preferably, the area feature extraction unit corrects the pixel value pattern when the extracted pixel value pattern is a predetermined pattern.

好適には、前記領域特徴抽出手段は、前記画像領域における画素値パターンに基づいて、階調変化に関する複数の角度を算出し、算出された複数の角度に基づいて、この画像領域における階調変化の変化方向を、前記特徴として抽出し、前記画素値変換手段は、前記領域特徴抽出手段により抽出された変化方向に応じて、前記画像領域内の画素値を変換する。   Preferably, the area feature extraction unit calculates a plurality of angles related to a gradation change based on a pixel value pattern in the image area, and the gradation change in the image area based on the calculated plurality of angles. The change direction is extracted as the feature, and the pixel value conversion unit converts the pixel value in the image region according to the change direction extracted by the region feature extraction unit.

好適には、前記画素値変換手段は、前記領域特徴抽出手段により抽出された変化方向に応じた位置の画素群を参照して、平滑化処理を行う。   Preferably, the pixel value conversion unit performs a smoothing process with reference to a pixel group at a position corresponding to the change direction extracted by the region feature extraction unit.

好適には、前記画素値変換手段は、前記平滑化処理がなされた複数の画素値を用いて、階調変化を強調するエッジ強調処理を行う。   Preferably, the pixel value conversion means performs an edge emphasis process for emphasizing a gradation change by using the plurality of pixel values subjected to the smoothing process.

好適には、前記画素値変換手段は、前記領域特徴抽出手段により抽出された特徴に基づいて、前記画像領域内の画素値と、この画像領域の近傍領域内の画素値とを変換し、前記1つの生成手段は、前記領域特徴抽出手段により抽出された特徴が既定の条件を満たす画像領域の注目画素に対して、この画像領域の特徴、前記画素値変換手段により変換された画像領域の画素値、及び、前記画素値変換手段により変換された近傍領域の画素値に基づいて、注目画素に対応する拡大画像領域を生成する。   Preferably, the pixel value conversion unit converts a pixel value in the image region and a pixel value in a neighborhood region of the image region based on the feature extracted by the region feature extraction unit, and One generating unit is configured to detect the feature of the image region and the pixel of the image region converted by the pixel value converting unit with respect to the target pixel of the image region in which the feature extracted by the region feature extracting unit satisfies a predetermined condition. An enlarged image area corresponding to the target pixel is generated based on the value and the pixel value of the neighboring area converted by the pixel value conversion means.

好適には、前記領域特徴抽出手段は、前記画像領域における階調変化の度合いを示す階調変化度を前記特徴として抽出し、前記1つの生成手段は、前記他の生成手段よりも処理負荷の大きな拡大処理を行い、前記拡大画像領域生成手段は、画像領域の階調変化度が既定の基準以上である場合に、前記1つの生成手段を適用し、画像領域の階調変化度が前記基準に満たない場合に、前記他の生成手段を適用する。   Preferably, the area feature extraction unit extracts a gradation change degree indicating a degree of gradation change in the image area as the feature, and the one generation unit has a processing load higher than that of the other generation unit. The enlarged image area generation means applies the one generation means when the gradation change degree of the image area is equal to or greater than a predetermined reference, and the gradation change degree of the image area If it is less than this, the other generation means is applied.

好適には、前記画像配置手段は、前記拡大画像領域生成手段により生成される複数の拡大画像領域が拡大後の画像において互いに重なり合う場合に、これらの拡大画像領域に基づいて、この重複部分の画素値を決定する。   Preferably, when the plurality of enlarged image regions generated by the enlarged image region generating unit overlap with each other in the enlarged image, the image arrangement unit is configured to use the pixels of the overlapping portion based on the enlarged image regions. Determine the value.

好適には、前記画像配置手段は、前記拡大画像領域生成手段により生成される複数の拡大画像領域が拡大後の画像において互いに重なり合う場合に、これら拡大画像領域の重複部分について、同一画素に対応する複数の画素値の平均値を算出する。   Preferably, when the plurality of enlarged image regions generated by the enlarged image region generating unit overlap each other in the enlarged image, the image arranging unit corresponds to the same pixel with respect to the overlapping portion of the enlarged image regions. An average value of a plurality of pixel values is calculated.

[画像処理方法]
また、本発明にかかる画像処理方法は、入力画像の拡大処理を行う画像処理方法であって、入力画像に含まれる注目画素について、この注目画素を含む既定の大きさの画像領域の特徴を抽出し、抽出された特徴に応じて、少なくともこの画像領域内の画素値を変換し、抽出された特徴に基づいて、変換された画像領域の画素値に基づいて拡大画像領域を生成する1つの生成手法、又は、前記1つの生成手法とは異なる処理により拡大画像領域を生成する他の生成手法を選択し、選択された生成手法を適用して、拡大画像領域を生成し、生成された拡大画像領域を配置する。
[Image processing method]
The image processing method according to the present invention is an image processing method for performing an enlargement process of an input image, and for a target pixel included in the input image, a feature of an image region having a predetermined size including the target pixel is extracted. Then, according to the extracted feature, at least a pixel value in the image region is converted, and one generation for generating an enlarged image region based on the pixel value of the converted image region based on the extracted feature Select a method or another generation method for generating an enlarged image region by a process different from the one generation method, apply the selected generation method to generate an enlarged image region, and generate the enlarged image Arrange the area.

[プログラム]
また、本発明にかかるプログラムは、入力画像の拡大処理を行う画像処理装置において、入力画像に含まれる注目画素について、この注目画素を含む既定の大きさの画像領域の特徴を抽出するステップと、抽出された特徴に応じて、少なくともこの画像領域内の画素値を変換するステップと、抽出された特徴に基づいて、変換された画像領域の画素値に基づいて拡大画像領域を生成する1つの生成手法、又は、前記1つの生成手法とは異なる処理により拡大画像領域を生成する他の生成手法を選択するステップと、選択された生成手法を適用して、拡大画像領域を生成するステップと、生成された拡大画像領域を配置するステップとを前記画像処理装置に実行させる。
[program]
In addition, the program according to the present invention includes a step of extracting a feature of an image area having a predetermined size including a target pixel for the target pixel included in the input image in an image processing apparatus that performs an enlargement process of the input image; According to the extracted feature, at least a step of converting the pixel value in the image region, and one generation for generating an enlarged image region based on the pixel value of the converted image region based on the extracted feature Selecting a method or another generation method for generating an enlarged image region by processing different from the one generation method, generating an enlarged image region by applying the selected generation method, and generating And causing the image processing apparatus to execute a step of arranging the enlarged image area.

本発明の画像処理装置によれば、比較的軽い処理負荷で、高画質な拡大画像を得ることができる。   According to the image processing apparatus of the present invention, a high-quality enlarged image can be obtained with a relatively light processing load.

[ハードウェア構成]
まず、本実施形態における画像処理装置2のハードウェア構成を説明する。
図1は、本発明にかかる画像処理方法が適応される画像処理装置2のハードウェア構成を、制御装置20を中心に例示する図である。
図1に例示するように、画像処理装置2は、CPU202及びメモリ204などを含む制御装置20、通信装置22、HDD・CD装置などの記録装置24、並びに、LCD表示装置あるいはCRT表示装置及びキーボード・タッチパネルなどを含むユーザインターフェース装置(UI装置)26から構成される。
画像処理装置2は、例えば、画像拡大プログラム5(後述)がインストールされた汎用コンピュータであり、通信装置22又は記録装置24などを介して画像データを取得し、取得された画像データを出力解像度に応じて拡大する。例えば、画像処理装置2は、プリンタ装置10に対して画像データを出力する場合には、600dpi又は2400dpiなどの解像度に変換し、UI装置26に対して画像データを出力する場合には、75dpiなどの解像度に変換する。
[Hardware configuration]
First, the hardware configuration of the image processing apparatus 2 in the present embodiment will be described.
FIG. 1 is a diagram illustrating a hardware configuration of an image processing apparatus 2 to which an image processing method according to the present invention is applied, centering on a control apparatus 20.
As illustrated in FIG. 1, the image processing apparatus 2 includes a control device 20 including a CPU 202 and a memory 204, a communication device 22, a recording device 24 such as an HDD / CD device, an LCD display device or a CRT display device, and a keyboard. A user interface device (UI device) 26 including a touch panel and the like is included.
The image processing apparatus 2 is, for example, a general-purpose computer in which an image enlargement program 5 (described later) is installed. The image processing apparatus 2 acquires image data via the communication device 22 or the recording device 24 and converts the acquired image data to an output resolution. Enlarge accordingly. For example, the image processing apparatus 2 converts the resolution to 600 dpi or 2400 dpi when outputting image data to the printer apparatus 10, and 75 dpi or the like when outputting image data to the UI apparatus 26. Convert to the resolution.

[画像拡大プログラム]
図2は、制御装置20(図1)により実行され、本発明にかかる画像処理方法を実現する画像拡大プログラム5の機能構成を例示する図である。
図2に例示するように、画像拡大プログラム5は、拡大処理部500、画像データ格納部570、多値変換部580、及び二値変換部590を有する。また、拡大処理部500は、画像ブロック設定部510、画像ブロック特徴抽出部520、画素値変換部530、拡大画像ブロック生成部540、及び画像ブロック配置部560を有する。
なお、画像拡大プログラム5の全部又は一部をASICなどのハードウェアで実現してもよい。
[Image enlargement program]
FIG. 2 is a diagram illustrating a functional configuration of the image enlargement program 5 which is executed by the control device 20 (FIG. 1) and implements the image processing method according to the present invention.
As illustrated in FIG. 2, the image enlargement program 5 includes an enlargement processing unit 500, an image data storage unit 570, a multi-value conversion unit 580, and a binary conversion unit 590. The enlargement processing unit 500 includes an image block setting unit 510, an image block feature extraction unit 520, a pixel value conversion unit 530, an enlarged image block generation unit 540, and an image block arrangement unit 560.
Note that all or part of the image enlargement program 5 may be realized by hardware such as an ASIC.

画像データ格納部570は、メモリ204(図1)又は記録装置24(図1)を制御して、画像データが拡大処理部500で拡大処理されるまで一時的に記憶する機能、及び、解像度変換または拡大処理された拡大画像データが出力装置(不図示)に出力されるまで一時的に記憶する機能などを実現する。なお、画像データは、画像処理装置2で処理可能な画像フォーマット(例えば、BMP、TIFF、PNGなど)で記述されたデータであり、FAX(不図示)又はスキャナ(不図示)などによって取り込まれた画像データ、又は、パーソナルコンピュータ(画像処理装置2など)において作成又は編集等を処理するアプリケーションプログラムで作成された画像データ等である。拡大画像データ(拡大された後の画像データ)も、同様の画像フォーマットのデータである。   The image data storage unit 570 controls the memory 204 (FIG. 1) or the recording device 24 (FIG. 1), temporarily stores the image data until it is enlarged by the enlargement processing unit 500, and resolution conversion. Alternatively, a function of temporarily storing the enlarged image data subjected to the enlargement process until it is output to an output device (not shown) is realized. The image data is data described in an image format that can be processed by the image processing apparatus 2 (for example, BMP, TIFF, PNG, etc.), and is captured by a FAX (not shown) or a scanner (not shown). Image data or image data created by an application program for processing creation or editing in a personal computer (image processing apparatus 2 or the like). Enlarged image data (image data after enlargement) is also data in the same image format.

多値変換部580は、二値で表現された画像データを、多値で表現された画像データに変換し、拡大処理部500に出力する。例えば、多値変換部580は、入力された二値画像データが0又は1の1ビットで表現されている場合に、0又は255の8ビット表現に変換する。
なお、入力された2値画像データが予め8ビット表現の状態で画像データ格納部570に格納されている場合には、他と変換部580は、この画像データ(8ビット表現)をそのまま拡大処理部500に出力する。
The multi-value conversion unit 580 converts the image data expressed in binary into image data expressed in multi-value, and outputs the image data to the enlargement processing unit 500. For example, when the input binary image data is represented by 1 bit of 0 or 1, the multi-value conversion unit 580 converts the binary image data into an 8-bit representation of 0 or 255.
If the input binary image data is stored in the image data storage unit 570 in an 8-bit representation in advance, the conversion unit 580 and the other conversion unit 580 enlarge the image data (8-bit representation) as it is. To the unit 500.

二値変換部590は、拡大処理部500から出力された多値の拡大画像データを二値化処理して画像データ格納部570に出力する。二値変換部590は、例えば、閾値処理によって二値化処理を行う。本例の二値変換部590は、閾値tを予めt=128とし、拡大画像データの画素値がt未満である場合に、0を出力し、画素値がt以上である場合に、1を出力する。なお、閾値tは、前述のように予め設定してもよいし、例えば入力画像データの濃度分布などから動的に設定してもよい。   The binary conversion unit 590 binarizes the multi-value enlarged image data output from the enlargement processing unit 500 and outputs the binarized image data to the image data storage unit 570. The binary conversion unit 590 performs binarization processing by threshold processing, for example. The binary conversion unit 590 of this example sets the threshold t to t = 128 in advance, outputs 0 when the pixel value of the enlarged image data is less than t, and 1 when the pixel value is greater than or equal to t. Output. Note that the threshold t may be set in advance as described above, or may be dynamically set based on, for example, the density distribution of input image data.

拡大処理部500は、画像ブロック設定部510、画像ブロック特徴抽出部520、画素値変換部530、拡大画像ブロック生成部540、及び画像ブロック配置部560を含んで構成されており、多値変換部580から、拡大処理の対象となる画像データを取得し、拡大処理によって生成された拡大画像データを二値変換部590に出力する。   The enlargement processing unit 500 includes an image block setting unit 510, an image block feature extraction unit 520, a pixel value conversion unit 530, an enlarged image block generation unit 540, and an image block arrangement unit 560. A multi-value conversion unit Image data to be subjected to enlargement processing is acquired from 580, and enlarged image data generated by the enlargement processing is output to the binary conversion unit 590.

画像ブロック設定部510は、画像ブロック特徴抽出部520及び拡大画像ブロック生成部540における処理で必要とされる所定のブロックサイズをそれぞれ設定し、多値変換部580から入力された入力画像データ(多値表現)から注目画素を含むそれぞれのブロックサイズの画像ブロックを順次切り出し、画像ブロック特徴抽出部520に出力する。   The image block setting unit 510 sets predetermined block sizes required for the processing in the image block feature extraction unit 520 and the enlarged image block generation unit 540, respectively, and the input image data (multi-value conversion unit 580) The image blocks having the respective block sizes including the target pixel are sequentially cut out from the value expression and output to the image block feature extraction unit 520.

画像ブロック特徴抽出部520は、画像ブロック設定部510から順次入力される画像ブロックの少なくとも一部(例えば中心部近傍の矩形部分)を注目領域とし、注目領域における画像特徴量を、注目領域あるいは注目領域の周辺部を含む画像ブロックを参照して抽出あるいは算出する。抽出あるいは算出される画像特徴量は、例えば、エッジパターン、エッジ方向、画像ブロック内の白(又は黒)画素の画素数、あるいは、画像ブロック内の白(又は黒)画素の比率などである。
また、画像ブロック特徴抽出部520は、さらに、抽出あるいは算出した画像特徴量に基づいて、注目領域の切り分けを行う。ここで、注目領域の切り分けとは、注目領域の属性に応じて注目領域を分類することであり、例えば、注目領域がエッジを含む領域(以下、エッジ領域)と、白(又は黒)のみの領域(以下、平坦領域)とを切り分けることである。
The image block feature extraction unit 520 sets at least a part of the image blocks sequentially input from the image block setting unit 510 (for example, a rectangular portion near the center) as the attention area, and determines the image feature amount in the attention area as the attention area or attention. Extraction or calculation is performed with reference to an image block including a peripheral portion of the region. The extracted or calculated image feature amount is, for example, an edge pattern, an edge direction, the number of white (or black) pixels in the image block, or the ratio of white (or black) pixels in the image block.
Further, the image block feature extraction unit 520 further performs the region-of-interest segmentation based on the extracted or calculated image feature amount. Here, the attention area separation means classifying the attention area according to the attribute of the attention area. For example, the attention area includes only an area including an edge (hereinafter referred to as an edge area) and white (or black). It is to separate a region (hereinafter referred to as a flat region).

画素値変換部530は、画像ブロック特徴抽出部520による注目領域の切り分けの結果に基づいてエッジ領域であると判断された注目領域と、その周辺部を含む画像ブロック内の画素値を変換する。画素値変換部530により変換された画像ブロック内の画素値は、後述する拡大画像ブロック生成部540の第1生成部542における拡大画像ブロック生成に用いられる。
より具体的には、画素値変換部530は、平滑化部532及び強調部534を含み、この平滑化部532は、画像ブロック特徴抽出部520により算出された注目領域におけるエッジ方向に基づいて、画像ブロック内の画素値を平滑化する。また、強調部534は、平滑化部532によりエッジ方向に基づいて平滑化された画像ブロック内の画素値のコントラストを強調する。
The pixel value conversion unit 530 converts a pixel value in an image block including an attention region determined to be an edge region based on the result of segmentation of the attention region by the image block feature extraction unit 520 and its peripheral portion. The pixel value in the image block converted by the pixel value conversion unit 530 is used for generating an enlarged image block in the first generation unit 542 of the enlarged image block generation unit 540 described later.
More specifically, the pixel value conversion unit 530 includes a smoothing unit 532 and an enhancement unit 534, and the smoothing unit 532 is based on the edge direction in the attention area calculated by the image block feature extraction unit 520. Smooth the pixel values in the image block. The enhancement unit 534 enhances the contrast of the pixel values in the image block that has been smoothed based on the edge direction by the smoothing unit 532.

拡大画像ブロック生成部540は、拡大画像ブロックを互いに異なる拡大処理により生成する複数の拡大手段を有する。本例の拡大画像ブロック生成部540は、第1生成部542及び第2生成部544を有する。
拡大画像ブロック生成部540は、画像ブロック特徴抽出部520により抽出あるいは算出された画像特徴量に基づいて、複数の拡大手段(本例では、第1生成部542及び第2生成部544)を切り替えて注目領域に対応する拡大画像ブロックを生成する。
例えば、拡大画像ブロック生成部540は、注目領域に対して、画像ブロック特徴抽出部520により切り分けられたエッジ領域と平坦領域に応じて、第1生成部542あるいは第2生成部544のいずれかに切り替えて拡大画像ブロックを生成する。なお、本例では、エッジ領域であると判断された注目領域の場合には第1生成部543により拡大画像ブロックが生成され、平坦領域であると判断された注目領域の場合には第2生成部544により拡大画像ブロックが生成される場合を具体例とする。
第1生成部542及び第2生成部544における拡大手法は任意であるが、上述の例のようにエッジ領域であると判断された注目領域の場合に動作する第1生成部542は、第2生成部544と比較して、ジャギーの発生を抑えた、より画質を優先した拡大手法を適用することが望ましい。この場合に、第2生成部544は、第1生成部542よりも高速処理が可能な拡大手法を適用することが望ましく、これによって全体の処理時間を短縮することができる。
The enlarged image block generation unit 540 includes a plurality of enlargement units that generate enlarged image blocks by different enlargement processes. The enlarged image block generation unit 540 of this example includes a first generation unit 542 and a second generation unit 544.
The enlarged image block generation unit 540 switches a plurality of enlargement means (in this example, the first generation unit 542 and the second generation unit 544) based on the image feature amount extracted or calculated by the image block feature extraction unit 520. The enlarged image block corresponding to the attention area is generated.
For example, the enlarged image block generation unit 540 determines whether the region of interest is the first generation unit 542 or the second generation unit 544 depending on the edge region and the flat region cut by the image block feature extraction unit 520. Switch to generate an enlarged image block. In this example, an enlarged image block is generated by the first generation unit 543 in the case of an attention area determined to be an edge area, and a second generation is generated in the case of an attention area determined to be a flat area. A case where an enlarged image block is generated by the unit 544 is taken as a specific example.
The enlargement method in the first generation unit 542 and the second generation unit 544 is arbitrary, but the first generation unit 542 that operates when the attention area is determined to be an edge area as in the above example is Compared to the generation unit 544, it is desirable to apply an enlargement method that suppresses the occurrence of jaggies and prioritizes image quality. In this case, it is desirable for the second generation unit 544 to apply an enlargement method capable of high-speed processing than the first generation unit 542, thereby reducing the overall processing time.

画像ブロック配置部560は、拡大画像ブロック生成部540により生成された拡大画像ブロックを順次配置し、解像度変換あるいは拡大された拡大画像データを二値変換部590に出力する。なお、拡大画像ブロックの配置方法については後述するが、例えば順次並べてゆく方法の他、拡大画像ブロックが重なり合うように順次配置して重畳させ、重なる画素値の総和を重なった数で割ることにより画素値を算出するように構成することもできる。   The image block arrangement unit 560 sequentially arranges the enlarged image blocks generated by the enlarged image block generation unit 540, and outputs the resolution-converted or enlarged enlarged image data to the binary conversion unit 590. The arrangement method of the enlarged image blocks will be described later. For example, in addition to the method of sequentially arranging the enlarged image blocks, the enlarged image blocks are sequentially arranged and overlapped so as to overlap, and the sum of the overlapping pixel values is divided by the number of overlapped pixels. It can also be configured to calculate a value.

次に、画像ブロック特徴抽出部520、画素値変換部530、及び拡大画像ブロック生成部540について、より詳しく説明する。
まず、画像ブロック特徴抽出部520の詳細について説明する。なお、注目領域が2×2画素サイズブロック(互いに直交する方向が2画素である正方領域)であり、注目領域を含む周辺領域が4×4画素サイズブロック(互いに直交する方向が4画素である正方領域)である場合を具体例として説明する。
Next, the image block feature extraction unit 520, the pixel value conversion unit 530, and the enlarged image block generation unit 540 will be described in more detail.
First, details of the image block feature extraction unit 520 will be described. Note that the region of interest is a 2 × 2 pixel size block (a square region in which the direction orthogonal to each other is 2 pixels), and the peripheral region including the region of interest is a 4 × 4 pixel size block (the direction orthogonal to each other is 4 pixels). A case of a square area) will be described as a specific example.

図3は、本実施例における画像ブロック特徴抽出部520の機能構成を示すブロック図である。
図3に示すように、画像ブロック特徴抽出部520は、エッジパターン選択部522と、エッジ方向推定部524とを含む。
エッジパターン選択部522は、注目領域である2×2画像ブロックのエッジパターンを選択し、選択されたエッジパターンに基づき、注目領域がエッジ領域であるか、白(または黒)のみの平坦領域であるかを判断する。
また、エッジパターン選択部522は、注目領域がエッジ領域である場合に、そのエッジパターンに相当するエッジ角度を注目領域の初期エッジ角度として決定する。
FIG. 3 is a block diagram illustrating a functional configuration of the image block feature extraction unit 520 in the present embodiment.
As shown in FIG. 3, the image block feature extraction unit 520 includes an edge pattern selection unit 522 and an edge direction estimation unit 524.
The edge pattern selection unit 522 selects the edge pattern of the 2 × 2 image block that is the attention area, and based on the selected edge pattern, the attention area is the edge area or is a flat area that is only white (or black). Determine if there is.
In addition, when the attention area is an edge area, the edge pattern selection unit 522 determines an edge angle corresponding to the edge pattern as an initial edge angle of the attention area.

図4は、2×2画像ブロックにおけるパターンとそのエッジ角度を例示する図である。
図4に例示するように、各エッジパターンには、それぞれ相当するエッジ角度が設定されており、エッジパターン選択部522は、注目領域がどのエッジパターンであるかによって初期エッジ角度を決定する。
また、注目領域が平坦パターンである場合には、この注目領域は平坦領域として切り分けられる。
ただし、注目領域が図4の太枠で示されたエッジパターン(市松エッジパターン)である場合、注目領域のエッジパターンのみでは一意にその初期角度を決定できない。つまり初期エッジ角度を45°とするのか135°とするのかを決定できない。その理由は、図4に例示した太枠内の上方の市松エッジパターンaを例にとると、二値画像では、注目領域がこの市松エッジパターンaであったときには、45°方向に黒画素が続いている領域の一部分である場合と、135°方向に白画素が続いている領域の一部分である場合とのどちらの場合も考えられ、2×2画像ブロックの注目領域単体のみでは判断できないからである。
FIG. 4 is a diagram illustrating patterns and edge angles in a 2 × 2 image block.
As illustrated in FIG. 4, corresponding edge angles are set for the respective edge patterns, and the edge pattern selection unit 522 determines the initial edge angle depending on which edge pattern is the region of interest.
When the attention area is a flat pattern, the attention area is cut as a flat area.
However, when the attention area is an edge pattern (checkered edge pattern) indicated by a thick frame in FIG. 4, the initial angle cannot be uniquely determined only by the edge pattern of the attention area. That is, it cannot be determined whether the initial edge angle is 45 ° or 135 °. The reason for this is that taking the upper checkered edge pattern a in the thick frame illustrated in FIG. 4 as an example, in a binary image, when the region of interest is this checkered edge pattern a, black pixels appear in the 45 ° direction. Both the case of a part of the continuing area and the case of a part of the area where white pixels continue in the 135 ° direction are conceivable, and it cannot be determined only by the attention area alone of the 2 × 2 image block. It is.

そこで、本実施例におけるエッジパターン選択部522は、図5に示すように、注目領域(図5中の市松エッジパターン領域)を一部に含む、ラスタスキャン順における一つ手前の2×2画像ブロック領域(図5において太枠で囲まれた領域)のエッジパターンに基づいて、市松エッジパターンである注目領域の初期エッジ角度を決定する。
図6は、市松エッジパターンと一つ手前(スキャン方向の上流側)の2×2画像ブロック領域のエッジパターンとの考えられる全ての組み合わせと、その組み合わせによって決定される初期エッジ角度の1例を示した図である。
図6に示したように、注目領域が市松エッジパターンである場合に、エッジパターン選択部522は、一つ手前の画像ブロックのエッジパターンを参照して、45°又は135°のどちらの角度を初期エッジ角度とするのかを決定する。
なお、本例では、市松エッジパターンと一つ手前の画像ブロックのエッジパターンとの2つのブロックの組み合わせにより初期エッジ角度を決定したが、これに限定されるわけではない。例えば、エッジパターン選択部522は、注目領域のエッジパターンと、一つ先の画像ブロックのエッジパターンとの組み合わせで初期エッジ角度を決定してもよいし、また1つ手前と一つ先との3ブロックのエッジパターンの組み合わせなどで、市松エッジパターンにおける初期エッジ角度を決定してもよく、市松エッジパターンの初期エッジ角度決定のために組み合わせる画像ブロックの数や位置は要求される処理速度や画質に応じて可変である。
Therefore, the edge pattern selection unit 522 in the present embodiment, as shown in FIG. 5, the 2 × 2 image immediately before in the raster scan order partially including the attention area (checkered edge pattern area in FIG. 5). Based on the edge pattern of the block area (area surrounded by a thick frame in FIG. 5), the initial edge angle of the attention area which is a checkered edge pattern is determined.
FIG. 6 shows an example of all possible combinations of the checkered edge pattern and the edge pattern of the previous 2 × 2 image block area (upstream in the scanning direction) and an initial edge angle determined by the combination. FIG.
As shown in FIG. 6, when the region of interest is a checkered edge pattern, the edge pattern selection unit 522 refers to the edge pattern of the previous image block and determines either 45 ° or 135 °. Decide whether to use the initial edge angle.
In this example, the initial edge angle is determined based on the combination of the two blocks of the checkered edge pattern and the edge pattern of the previous image block. However, the present invention is not limited to this. For example, the edge pattern selection unit 522 may determine the initial edge angle based on the combination of the edge pattern of the region of interest and the edge pattern of the next image block, and the previous edge and the next edge. The initial edge angle in the checkered edge pattern may be determined by a combination of edge patterns of three blocks, and the number and position of image blocks to be combined for determining the initial edge angle of the checkered edge pattern depends on the required processing speed and image quality. It is variable according to.

また、エッジパターン選択部522は、ある特定パターンを抽出し、抽出された特定パターンを既定のパターンに強制的に補正するため、関連する画像ブロックの初期エッジ角度およびエッジパターンを補正する。
図7は、特定パターンの抽出の一例として、補正される特定パターンを含む画像の一部分を例示する。
図7に例示するように、図中の点線で囲まれた画像の凹凸パターンは、1画素だけ飛び出した(あるいは凹んだ)パターンで、例えば原稿をFAXやスキャナなどで電子文書として取り込む場合に解像度などに起因して生じるパターンであり、本来の画像を構成する意味のある特徴パターンではない。このような凹凸パターンは、拡大処理後のジャギーの原因となり画質に大きく影響する。
Further, the edge pattern selection unit 522 extracts a specific pattern and corrects the initial edge angle and the edge pattern of the related image block in order to forcibly correct the extracted specific pattern to a predetermined pattern.
FIG. 7 illustrates a part of an image including a specific pattern to be corrected as an example of extraction of the specific pattern.
As illustrated in FIG. 7, the uneven pattern of the image surrounded by the dotted line in the figure is a pattern that protrudes (or is recessed) by one pixel. For example, the resolution is obtained when a document is captured as an electronic document by a FAX or a scanner. This is a pattern generated due to the above, and is not a meaningful feature pattern constituting an original image. Such a concavo-convex pattern causes jaggies after enlarging processing and greatly affects image quality.

図8は、凹凸パターン(1画素だけ飛び出した、あるいは凹んだもの)の抽出および補正を具体的に例示する図である。なお、本図において、太枠で囲まれた領域が注目領域である。
図8(A)に示すように、太枠の注目領域(図8(A)に示された第4の領域)とその一部分を含む複数の周辺領域(図8(A)に示された第1〜3の領域)のエッジパターンは、黒画素を1、白画素を0としてビットパターン化されると、第1の領域は「1110」、第2の領域は「1000」、第3の領域は「1011」、第4の領域(すなわち注目領域)は「0010」となる。したがって、エッジパターン選択部522は、図8(A)で示すように、第1〜4の各領域のエッジパターン列が「1110」、「1000」、「1011」、「0010」であると判断した場合に、凹凸パターン(本例では、右に凸のパターン)が存在すると判断し、この凹凸パターンを抽出する。
FIG. 8 is a diagram specifically illustrating the extraction and correction of the concave / convex pattern (projecting or recessed by one pixel). In this figure, a region surrounded by a thick frame is a region of interest.
As shown in FIG. 8 (A), a thick frame region of interest (fourth region shown in FIG. 8 (A)) and a plurality of peripheral regions including a part thereof (the first region shown in FIG. 8 (A)). 1 to 3), the first area is “1110”, the second area is “1000”, and the third area is a bit pattern. Is “1011”, and the fourth area (ie, the attention area) is “0010”. Accordingly, as shown in FIG. 8A, the edge pattern selection unit 522 determines that the edge pattern sequences in the first to fourth areas are “1110”, “1000”, “1011”, and “0010”. In this case, it is determined that there is a concavo-convex pattern (in this example, a convex pattern on the right), and this concavo-convex pattern is extracted.

エッジパターン選択部522は、前述のように抽出された凹凸パターン(本例では、右に凸のパターン)を補正するため、第1〜4の各領域のエッジパターンおよび初期エッジ角度を図8(B)で示すように変更する。つまり、エッジパターン選択部522は、第1の領域を、エッジパターン「1010」かつ初期エッジ角度0°に変更し、第2の領域を、平坦パターン(ビットパターン「0000」)に変更し、第3の領域を、エッジパターン「1010」かつ初期エッジ角度0°に変更し、第4の領域(注目領域)を平坦パターン「0000」に変更する。
このように、エッジパターン選択部522は、注目領域および周辺領域のエッジパターンおよび初期エッジ角度を変更することにより、凹凸パターン(本例では、右に突出した凸パターン)を補正することが可能となる。
The edge pattern selection unit 522 corrects the concavo-convex pattern extracted as described above (in this example, a pattern convex to the right), and the edge pattern and initial edge angle of each of the first to fourth regions are corrected as shown in FIG. Change as shown in B). That is, the edge pattern selection unit 522 changes the first area to the edge pattern “1010” and the initial edge angle of 0 °, changes the second area to the flat pattern (bit pattern “0000”), The region 3 is changed to the edge pattern “1010” and the initial edge angle 0 °, and the fourth region (region of interest) is changed to the flat pattern “0000”.
As described above, the edge pattern selection unit 522 can correct the uneven pattern (the protruded pattern protruding to the right in this example) by changing the edge pattern and the initial edge angle of the attention area and the peripheral area. Become.

図9は、図8に示した例とは異なる場合の凹凸パターン補正の具体例を示した図である。このように1画素だけ突出した、あるいは凹んだ凹凸パターンを補正することにより、図7に例示した画像は、図10で示すように凹凸パターンが補正される。なお、本実施例では上述のように凹凸パターンの抽出および補正に限定して説明を行ったが、これに限ったものではなく、入力画像データの種類、要求される画質、又は処理速度に応じて、凹凸パターンとは異なる特定パターン(例えば、1画素だけ孤立した孤立点パターンなど)の抽出および補正を行ってもよい。   FIG. 9 is a diagram showing a specific example of the uneven pattern correction in a case different from the example shown in FIG. By correcting the uneven pattern that protrudes or is recessed by one pixel in this way, the uneven pattern is corrected in the image illustrated in FIG. 7 as shown in FIG. In the present embodiment, as described above, the description is limited to the extraction and correction of the concavo-convex pattern. However, the present invention is not limited to this, and depends on the type of input image data, the required image quality, or the processing speed. Thus, extraction and correction of a specific pattern different from the concave / convex pattern (for example, an isolated point pattern isolated by one pixel) may be performed.

次に、エッジ方向推定部524の処理の詳細を説明する。
図11は、注目領域および周辺領域の具体例と注目領域のエッジ方向の一例の説明図である。図11(A)は、注目領域(図11中の太枠内領域)および周辺領域の一例を示している。図11に示す例を用いて、エッジ方向推定部524によるエッジ方向推定処理の流れについて説明する。
図12は、エッジ方向推定部22によるエッジ方向推定処理(S10)の一例を示すフローチャート図である。
Next, details of the processing of the edge direction estimation unit 524 will be described.
FIG. 11 is an explanatory diagram of a specific example of the attention area and the peripheral area and an example of the edge direction of the attention area. FIG. 11A shows an example of the attention area (the area within the thick frame in FIG. 11) and the peripheral area. The flow of edge direction estimation processing by the edge direction estimation unit 524 will be described using the example shown in FIG.
FIG. 12 is a flowchart illustrating an example of edge direction estimation processing (S10) by the edge direction estimation unit 22.

ステップ110(S110)において、エッジ方向推定部524は、注目領域および参照領域のエッジ角度の総和を表す変数(エッジ角度総和)に、すでにエッジパターン選択部522により設定されている注目領域の初期エッジ角度を代入する。
また、エッジ方向推定部524は、エッジ角度の参照数をカウントするための変数としての角度参照数を「1」に初期化しておく。
In step 110 (S110), the edge direction estimation unit 524 sets the initial edge of the region of interest that has already been set by the edge pattern selection unit 522 as a variable (total edge angle) that represents the sum of the edge angles of the region of interest and the reference region. Substitute the angle.
The edge direction estimation unit 524 initializes the angle reference number as a variable for counting the reference number of the edge angle to “1”.

ステップ120(S120)において、エッジ方向推定部524は、エッジパターン選択部522により設定された注目領域の初期エッジ角度に応じて、図11(A)に示した周辺領域(太線枠外の領域)中からエッジ方向の推定に用いる参照領域を選択する。
図13は、エッジ方向の推定に用いる参照領域を例示する図である。図中の太線枠で示した2×2画素が参照領域である。図13(A)は、エッジパターン選択部522により設定された初期エッジ角度が「角度0°」である場合の参照領域を例示し、図13(B)は、初期エッジ角度が「角度90°」である場合の参照領域を例示し、図13(C)は、初期エッジ角度が「角度0°又は90°」以外の角度である場合の参照領域を例示している。なお、図13(A)及び(B)に示す角度0°及び角度90°の場合の参照領域の数は2であり、図13(C)に示す角度0°、90°以外の角度の場合の参照領域の数は4である。
図11に示した具体例では、注目領域の初期エッジ角度は「角度45°」であるため、図14(C)に例示した4つの参照領域が選択の候補となる。なお、参照領域の選択は、図13に示したものに限定されるわけではなく、例えば図13(C)の場合などは、参照領域数を8としたり、それぞれの角度に応じた参照領域を設定してもよい。
In step 120 (S120), the edge direction estimation unit 524 determines whether the edge direction estimation unit 524 is in the peripheral region (region outside the bold frame) shown in FIG. 11A according to the initial edge angle of the region of interest set by the edge pattern selection unit 522. To select a reference region to be used for estimating the edge direction.
FIG. 13 is a diagram illustrating a reference region used for estimating the edge direction. A 2 × 2 pixel indicated by a bold frame in the drawing is a reference area. FIG. 13A illustrates a reference region when the initial edge angle set by the edge pattern selection unit 522 is “angle 0 °”, and FIG. 13B illustrates that the initial edge angle is “angle 90 °”. ”Is illustrated, and FIG. 13C illustrates the reference region when the initial edge angle is an angle other than“ angle 0 ° or 90 ° ”. Note that the number of reference regions in the case of the angle 0 ° and the angle 90 ° illustrated in FIGS. 13A and 13B is 2, and the angle other than the angles 0 ° and 90 ° illustrated in FIG. The number of reference areas is four.
In the specific example shown in FIG. 11, since the initial edge angle of the attention area is “angle 45 °”, the four reference areas illustrated in FIG. 14C are candidates for selection. The selection of the reference area is not limited to that shown in FIG. 13. For example, in the case of FIG. 13C, the number of reference areas is set to 8, or the reference area corresponding to each angle is selected. It may be set.

ステップ130(S130)において、エッジ方向推定部524は、S120において選択された参照領域の1つに対して、エッジ方向推定に適したエッジパターンであるか否かを判断する。例えば、エッジ方向推定部524は、図11(A)に例示した注目領域に対して、参照領域として右隣の参照領域を例にとると、図14(B)に示すように3種類のエッジパターンを候補とする。そして、エッジ方向推定部524は、S130において、図14(C)に示すように注目領域における初期エッジ角度(この例においては45°)と大きく異なる第3のエッジパターン(初期エッジ角度135°)を、図14(A)に示す注目領域のエッジ方向推定に適さないエッジパターンであると判断する。
図11に示した具体例の場合では、注目領域に対する右隣の参照領域のエッジパターンは、図14(B)で示した第1のエッジパターンであるので、エッジ方向推定部524は、エッジ方向推定に適するエッジパターンであると判断する。
エッジ方向推定部524は、この判断の結果、本注目領域におけるエッジ方向推定に適した参照領域である場合には、S140の処理に移行し、これ以外である場合には、S150の処理に移行する。
In step 130 (S130), the edge direction estimation unit 524 determines whether one of the reference regions selected in S120 is an edge pattern suitable for edge direction estimation. For example, the edge direction estimation unit 524 takes three types of edges as shown in FIG. 14B when the reference area on the right side is taken as an example of the reference area with respect to the attention area illustrated in FIG. A pattern is a candidate. Then, in S130, the edge direction estimation unit 524 generates a third edge pattern (initial edge angle 135 °) that is significantly different from the initial edge angle (45 ° in this example) in the region of interest as shown in FIG. Is determined to be an edge pattern that is not suitable for the edge direction estimation of the region of interest shown in FIG.
In the case of the specific example shown in FIG. 11, the edge pattern of the reference area on the right side with respect to the attention area is the first edge pattern shown in FIG. It is determined that the edge pattern is suitable for estimation.
As a result of this determination, the edge direction estimation unit 524 proceeds to the process of S140 when the reference area is suitable for the edge direction estimation in the target area of interest, and proceeds to the process of S150 otherwise. To do.

ステップ140(S140)において、エッジ方向推定部524は、エッジ角度総和に参照領域の初期エッジ角度を加え、角度参照数をインクリメントする。   In step 140 (S140), the edge direction estimation unit 524 adds the initial edge angle of the reference region to the total edge angle, and increments the angle reference number.

ステップ150(S150)において、エッジ方向推定部524は、全ての選択可能な参照領域の処理が終了したか否かを判断し、終了したと判断した場合に、S160の処理に移行し、終了していないと判断した場合に、S130の処理に戻って、次の参照領域について処理を行う。   In step 150 (S150), the edge direction estimation unit 524 determines whether or not all selectable reference areas have been processed. If it is determined that the processing has been completed, the process proceeds to S160 and ends. If it is determined that it is not, the process returns to S130 and the next reference area is processed.

ステップ160(S160)において、エッジ方向推定部524は、注目領域の初期エッジ角度と、S130においてエッジ方向推定に適したと判断された参照領域の初期エッジ角度との総和(エッジ角度総和)を角度参照数で割った平均エッジ角度を注目領域の推定エッジ角度として、処理を終了する。   In step 160 (S160), the edge direction estimation unit 524 refers to the sum of the initial edge angle of the region of interest and the initial edge angle of the reference region determined to be suitable for the edge direction estimation in S130 (edge angle sum). The average edge angle divided by the number is set as the estimated edge angle of the region of interest, and the process ends.

図11に示した具体例では、図11(B)に示すように、上部の参照領域の初期エッジ角度0°、左部の参照領域の初期エッジ角度0°、下部の参照領域の初期エッジ角度45°、右部の参照領域の初期エッジ角度45°となり、注目領域の初期エッジ角度45°との総和は135°になる。エッジ方向推定部524は、この総和135°を角度参照数5で割ることによって平均エッジ角度27°を求める。この平均エッジ角度が、図11に示した注目領域に対する推定エッジ角度となる。
さらに、エッジ方向推定部524は、求められた注目領域に対する推定エッジ角度Θを、22.5°ごとに区分された方向(8方向)の角度範囲(方向0〜7)に分類する。本例の場合、0°あるいは±180°を中心とした角度範囲を「方向0」、22.5°あるいは−157.5°を中心とした角度範囲を「方向1」、45°あるいは−135°を中心とした角度範囲を「方向2」、67.5°あるいは−112.5°を中心とした角度範囲を「方向3」、90°あるいは−90°を中心とした角度範囲を「方向4」、112.5°あるいは−67.5°を中心とした角度範囲を「方向5」、135°あるいは−45°を中心とした角度範囲を「方向6」、157.5°あるいは−22.5°を中心とした角度範囲を「方向7」とし、エッジ方向推定部524は、推定エッジ角度Θをいずれかの角度範囲(上記各中心角度から±11.25°の範囲)に分類する。上述の図11の具体例における推定エッジ角度Θ(=27°)は22.5°±11.25°の範囲内に含まれるので、エッジ方向推定部524は、図11に示した注目領域に対する最終的な推定エッジ方向を「方向1」であると判定する(図11(B)の矢印線分方向)。
なお、本例では推定エッジ角度Θを計算した後に8方向のいずれかに正規化(分類)したが、これに限定されるわけではなく、さらに精度の高いエッジ方向が必要であれば12方向(15.0°ごと)、16方向(12.25°ごと)など、さらに多数の方向に正規化してもよい。
In the specific example shown in FIG. 11, as shown in FIG. 11B, the initial edge angle of the upper reference area is 0 °, the initial edge angle of the left reference area is 0 °, and the initial edge angle of the lower reference area. 45 °, the initial edge angle of the right reference region is 45 °, and the sum of the initial edge angle of the attention region of 45 ° is 135 °. The edge direction estimation unit 524 obtains an average edge angle of 27 ° by dividing the total 135 ° by the angle reference number of 5. This average edge angle is the estimated edge angle with respect to the region of interest shown in FIG.
Further, the edge direction estimation unit 524 classifies the estimated edge angle Θ with respect to the obtained attention area into angle ranges (directions 0 to 7) in directions (8 directions) divided every 22.5 °. In this example, an angle range centered on 0 ° or ± 180 ° is “direction 0”, and an angle range centered on 22.5 ° or −157.5 ° is “direction 1”, 45 ° or −135. The angle range centered on ° is “direction 2”, the angle range centered on 67.5 ° or −112.5 ° is “direction 3”, and the angle range centered on 90 ° or −90 ° is “direction”. 4 ”, an angle range centered on 112.5 ° or −67.5 ° is“ direction 5 ”, and an angle range centered on 135 ° or −45 ° is“ direction 6 ”, 157.5 ° or −22. An angle range centered at .5 ° is defined as “direction 7”, and the edge direction estimation unit 524 classifies the estimated edge angle Θ into any angle range (range of ± 11.25 ° from each of the above center angles). . Since the estimated edge angle Θ (= 27 °) in the specific example of FIG. 11 described above is included in the range of 22.5 ° ± 11.25 °, the edge direction estimation unit 524 performs the processing for the attention area shown in FIG. The final estimated edge direction is determined to be “direction 1” (the direction of the arrow line in FIG. 11B).
In this example, the estimated edge angle Θ is calculated and then normalized (classified) in any of the eight directions. However, the present invention is not limited to this. If a more accurate edge direction is required, twelve directions ( You may normalize in more directions, such as 1 direction (every 15.0 degrees) and 16 directions (every 12.25 degrees).

次に、画素値変換部530について説明する。
画素値変換部530は、図2に例示するように、平滑化部532と強調部534とで構成される。
平滑化部532は、画像ブロック特徴抽出部520によって推定された注目領域の推定エッジ方向に応じた画素値平滑化処理を、注目領域と注目領域を含む周辺領域内の画素に対して施す。
図15は、推定エッジ方向に対応する平滑化カーネルを例示する図である。なお、図中に示された平滑化カーネル内の数字は、画素値に乗ずる重み付けの係数である。
例えば注目領域の推定エッジ方向が「方向3」である場合に、平滑化部532は、この「方向3」に応じて、図15中の第3の平滑化カーネルを用いて平滑化処理を行う。この場合、平滑化部532は、図16に示すように、例えば中心の画素Pの平滑化処理を行う場合には、画素a及び画素bを用いて、平滑化画素値P'を次の式(1)に従って計算する。
Next, the pixel value conversion unit 530 will be described.
As illustrated in FIG. 2, the pixel value conversion unit 530 includes a smoothing unit 532 and an enhancement unit 534.
The smoothing unit 532 performs pixel value smoothing processing corresponding to the estimated edge direction of the attention area estimated by the image block feature extraction unit 520 on the pixels in the attention area and the peripheral area including the attention area.
FIG. 15 is a diagram illustrating a smoothing kernel corresponding to the estimated edge direction. It should be noted that the numbers in the smoothing kernel shown in the figure are weighting coefficients by which the pixel values are multiplied.
For example, when the estimated edge direction of the attention area is “direction 3”, the smoothing unit 532 performs a smoothing process using the third smoothing kernel in FIG. 15 according to this “direction 3”. . In this case, as shown in FIG. 16, for example, when the smoothing process of the center pixel P is performed, the smoothing unit 532 uses the pixel a and the pixel b to calculate the smoothed pixel value P ′ as follows: Calculate according to (1).

注目画素値P'=(2.0×P+1.0×(a+b))/4.0・・・(1)   Pixel value of interest P ′ = (2.0 × P + 1.0 × (a + b)) / 4.0 (1)

なお、平滑化部532により用いられる平滑化カーネルは、図15に示したものに限定されるわけではなく、入力画像データの種類、又は、要求される平滑化の程度などにより異なるものであってもよい。   Note that the smoothing kernel used by the smoothing unit 532 is not limited to that shown in FIG. 15, and is different depending on the type of input image data or the required degree of smoothing. Also good.

強調部534は、平滑化部532によって平滑化処理(注目領域の推定エッジ方向に対応する平滑化カーネルを用いた平滑化処理)がなされた注目領域とこれを含む周辺領域内の画素に対して、コントラスト強調処理を施す。
図17は、強調部534により適用される強調カーネルの具体例を表す図である。
図17に示す「1.60」の値は、図17(A)に示す強調カーネルの中心の画素値に対応する重み係数を表し、「0.15」の値は、中心画素の上下左右に配置された画素値に対応する重み係数を表している。
また、図17(B)は、図17(A)に示す強調カーネルで画素Pを強調する場合の説明図である。図17(B)に示すように、強調部534は、例えば、中心の参照画素Pの強調処理を行う場合に、その上下左右に存在する画素a、b、c、dを参照し、また重みとして中心の注目画素については「1.60」を、周辺の参照画素に対しては「0.15」をそれぞれ用いる。このように、強調部534は、画素Pの画素値P'を次の式(2)に従って計算する。
The emphasizing unit 534 performs processing on the attention area that has been subjected to the smoothing process (smoothing processing using the smoothing kernel corresponding to the estimated edge direction of the attention area) by the smoothing unit 532 and the pixels in the peripheral area including the attention area. Then, contrast enhancement processing is performed.
FIG. 17 is a diagram illustrating a specific example of the enhancement kernel applied by the enhancement unit 534.
The value of “1.60” shown in FIG. 17 represents a weighting factor corresponding to the pixel value at the center of the enhancement kernel shown in FIG. 17A, and the value of “0.15” is above, below, left, and right of the center pixel. The weighting coefficient corresponding to the arranged pixel value is represented.
FIG. 17B is an explanatory diagram when the pixel P is emphasized by the enhancement kernel shown in FIG. As shown in FIG. 17B, the emphasis unit 534 refers to the pixels a, b, c, and d that exist at the top, bottom, left, and right, for example, when performing the emphasis processing of the center reference pixel P, and also performs weighting. For example, “1.60” is used for the pixel of interest at the center, and “0.15” is used for the peripheral reference pixels. Thus, the enhancement unit 534 calculates the pixel value P ′ of the pixel P according to the following equation (2).

注目画素値P'=1.60×P‐0.15×(a+b+c+d)・・・(2)     Pixel value of interest P ′ = 1.60 × P−0.15 × (a + b + c + d) (2)

上記のように、平滑化部532および強調部534の処理を経て、画素値変換部530は、後述する拡大画像ブロック生成部540で用いるため、注目領域とその周辺領域の画素値を変換する。   As described above, through the processing of the smoothing unit 532 and the emphasizing unit 534, the pixel value conversion unit 530 converts the pixel values of the attention area and the surrounding area for use in the enlarged image block generation unit 540 described later.

次に、拡大画像ブロック生成部540について詳細に説明する。
まず、拡大画像ブロック生成部540に含まれる第1生成部542について説明する。第1生成部542は、画像ブロック特徴抽出部520によってエッジ領域であると判断された注目領域に対して拡大画像ブロック生成処理を行う。より具体的には、第1生成部542は、画像ブロック特徴抽出部520により得られた注目領域のエッジパターン及び推定エッジ方向と、画素値変換部530により変換された注目領域及びその周辺領域の画素値とを用いて、注目領域に対する拡大画像ブロックを生成する。
Next, the enlarged image block generation unit 540 will be described in detail.
First, the first generation unit 542 included in the enlarged image block generation unit 540 will be described. The first generation unit 542 performs an enlarged image block generation process on the region of interest that is determined to be an edge region by the image block feature extraction unit 520. More specifically, the first generation unit 542 includes the edge pattern and the estimated edge direction of the attention area obtained by the image block feature extraction section 520, the attention area converted by the pixel value conversion section 530, and the surrounding area. An enlarged image block for the region of interest is generated using the pixel value.

図18は、第1生成部542による拡大画像ブロックの生成処理を説明する図である。
まず、第1生成部542は、注目領域のエッジパターン及び推定エッジ方向に基づき、画素値変換部530により変換された画素値を用いて3×3画像ブロックに相当する画素値を算出する。
図18(A)には、図11(A)に例示した注目領域及び周辺領域が示されている。この注目領域に関しては、上記のように画像ブロック特徴抽出部520によって、エッジパターン「1110」、及び、推定エッジ方向「方向1」が求められている。
第1生成部542は、特徴量の組合せが(エッジパターン1110)及び(推定エッジ方向「方向1」)である場合、図18(B)に示すように、3×3画像ブロックに相当するそれぞれの画素をp0〜p8とすると、図18(A)に示した注目領域の画素値{a,b,c,d}をもとに、p0〜p8の画素値を次の式によって計算する。
FIG. 18 is a diagram for explaining enlarged image block generation processing by the first generation unit 542.
First, the first generation unit 542 calculates a pixel value corresponding to a 3 × 3 image block using the pixel value converted by the pixel value conversion unit 530 based on the edge pattern and the estimated edge direction of the region of interest.
FIG. 18A shows the attention area and the peripheral area exemplified in FIG. As for the region of interest, the edge pattern “1110” and the estimated edge direction “direction 1” are obtained by the image block feature extraction unit 520 as described above.
When the combination of feature amounts is (edge pattern 1110) and (estimated edge direction “direction 1”), the first generation unit 542 corresponds to each 3 × 3 image block as illustrated in FIG. , P0 to p8, the pixel values of p0 to p8 are calculated by the following formula based on the pixel values {a, b, c, d} of the attention area shown in FIG.

p0=a
p1=(a+b)/2
p2=b
p3=(a+c)/2
p4=(b+c)/2
p5=d
p6=c
p7=(p4+b)/2
p8=d
p0 = a
p1 = (a + b) / 2
p2 = b
p3 = (a + c) / 2
p4 = (b + c) / 2
p5 = d
p6 = c
p7 = (p4 + b) / 2
p8 = d

第1生成部542は、これらの計算式を、(エッジパターン)と(推定エッジ方向)との組合せ(特徴量の組合せ)に基づいて一意に決定し、決定した計算式を用いて3×3画像ブロック相当の画素値を計算する。   The first generation unit 542 uniquely determines these calculation formulas based on a combination (a combination of feature amounts) of (edge pattern) and (estimated edge direction), and uses the determined calculation formula to calculate 3 × 3. The pixel value corresponding to the image block is calculated.

図19は、特徴量の他の組合せ(エッジパターンと推定エッジ方向との組合せ)に対応する計算式を例示する図である。
図19(A)は、エッジパターン「1000」と推定エッジ方向「方向1」との組合せに対応する計算式を例示する。
p0=a
p2=b
p3=a
p4=(b+c)/2
p5=(b+d)/2
p6=c
p7=(c+d)/2
p8=d
p1=(p4+c)/2
第1生成部542は、特徴量の組合せがエッジパターン「1000」及び推定エッジ方向「方向1」である場合に、上記の計算式を用いて3×3画像ブロック相当の画素値を計算する。
FIG. 19 is a diagram illustrating calculation formulas corresponding to other combinations of feature quantities (combination of edge patterns and estimated edge directions).
FIG. 19A illustrates a calculation formula corresponding to the combination of the edge pattern “1000” and the estimated edge direction “direction 1”.
p0 = a
p2 = b
p3 = a
p4 = (b + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
p1 = (p4 + c) / 2
When the combination of feature amounts is the edge pattern “1000” and the estimated edge direction “direction 1”, the first generation unit 542 calculates a pixel value corresponding to a 3 × 3 image block using the above calculation formula.

図19(B)は、エッジパターン「1100」と推定エッジ方向「方向5」との組合せに対応する計算式を例示する。
p0=a
p1=(a+b)/2
p2=b
p4=(a+d)/2
p6=c
p7=(c+d)/2
p8=d
p3=(p4+c)/2
p5=(p4+b)/2
第1生成部542は、特徴量の組合せがエッジパターン「1100」及び推定エッジ方向「方向5」である場合に、上記の計算式を用いて3×3画像ブロック相当の画素値を計算する。
FIG. 19B illustrates a calculation formula corresponding to the combination of the edge pattern “1100” and the estimated edge direction “direction 5”.
p0 = a
p1 = (a + b) / 2
p2 = b
p4 = (a + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
p3 = (p4 + c) / 2
p5 = (p4 + b) / 2
When the combination of feature amounts is the edge pattern “1100” and the estimated edge direction “direction 5”, the first generation unit 542 calculates a pixel value corresponding to a 3 × 3 image block using the above calculation formula.

図19(C)は、エッジパターン「1100」と推定エッジ方向「方向2」との組合せに対応する計算式を例示する。
p0=a
p1=a
p2=b
p3=a
p4=(b+c)/2
p5=(b+d)/2
p6=c
p7=(c+d)/2
p8=d
第1生成部542は、特徴量の組合せがエッジパターン「1100」及び推定エッジ方向「方向2」である場合に、上記の計算式を用いて3×3画像ブロック相当の画素値を計算する。
FIG. 19C illustrates a calculation formula corresponding to the combination of the edge pattern “1100” and the estimated edge direction “direction 2”.
p0 = a
p1 = a
p2 = b
p3 = a
p4 = (b + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
When the combination of feature amounts is the edge pattern “1100” and the estimated edge direction “direction 2”, the first generation unit 542 calculates a pixel value corresponding to a 3 × 3 image block using the above calculation formula.

図19(D)は、エッジパターン「0101」と推定エッジ方向「方向7」との組合せに対応する計算式を例示する。
p0=a
p2=b
p3=(a+c)/2
p4=(a+d)/2
p5=(b+d)/2
p6=c
p8=d
p1=(p4+b)/2
p7=(p4+c)/2
第1生成部542は、特徴量の組合せがエッジパターン「0101」及び推定エッジ方向「方向7」である場合に、上記の計算式を用いて3×3画像ブロック相当の画素値を計算する。
FIG. 19D illustrates a calculation formula corresponding to the combination of the edge pattern “0101” and the estimated edge direction “direction 7”.
p0 = a
p2 = b
p3 = (a + c) / 2
p4 = (a + d) / 2
p5 = (b + d) / 2
p6 = c
p8 = d
p1 = (p4 + b) / 2
p7 = (p4 + c) / 2
When the combination of feature amounts is the edge pattern “0101” and the estimated edge direction “direction 7”, the first generation unit 542 calculates a pixel value corresponding to a 3 × 3 image block using the above calculation formula.

なお、他の組合せ(エッジパターン及び推定エッジ方向)の場合にも、第1生成部542は、同様にそれぞれのエッジパターン及び推定エッジ方向に対応した計算式に従って計算を行うことにより、3×3画像ブロック相当の画素値を計算する。   In the case of other combinations (edge pattern and estimated edge direction), the first generation unit 542 similarly performs calculation according to a calculation formula corresponding to each edge pattern and estimated edge direction to obtain 3 × 3. The pixel value corresponding to the image block is calculated.

次に、第1生成部542は、上記のように計算された3×3画像ブロック相当の画素値と、注目領域の推定エッジ方向に基づいて選択された周辺領域内の複数の参照画素とを用いて、4×4画像ブロックを生成する。   Next, the first generation unit 542 calculates the pixel value corresponding to the 3 × 3 image block calculated as described above and a plurality of reference pixels in the peripheral area selected based on the estimated edge direction of the attention area. To generate a 4 × 4 image block.

図20は、推定エッジ方向に基づく参照画素r0〜r13の選択方法を説明する図である。
第1生成部542は、注目領域の推定エッジ方向が方向1(22.5°)から方向3(67.5°)である場合に、図20(A)に太線枠で囲んだように、参照画素r0〜r5を左上から下へ3画素と右下から上へ3画素となるように選択する。
また、第1生成部542は、注目領域の推定エッジ方向が方向5(112.5°)から方向7(157.5°)である場合に、図20(B)に太線枠で示したように、参照画素r0〜r5を左下から上へ3画素と右上から下へ3画素となるように選択する。
また、第1生成部542は、参照画素r6〜r13として、推定エッジ方向に拠らず、図20(A)(B)に示すように、上下それぞれ4画素を選択する。
このように、第1生成部542は、注目領域における推定エッジ方向に基づいて、参照画素を選択する。なお、参照画素の選択は、図20に例示する2パターンからの選択に限定されるわけではなく、推定エッジ方向に従い、より多くの参照画素選択パターンを用意してもよい。また、選択する参照画素についても、推定エッジ方向によって変更してもよい。
FIG. 20 is a diagram illustrating a method of selecting reference pixels r0 to r13 based on the estimated edge direction.
When the estimated edge direction of the attention area is from direction 1 (22.5 °) to direction 3 (67.5 °), the first generation unit 542 is surrounded by a thick frame in FIG. The reference pixels r0 to r5 are selected to be 3 pixels from the upper left to the lower and 3 pixels from the lower right to the upper.
In addition, the first generation unit 542 is indicated by a thick line frame in FIG. 20B when the estimated edge direction of the attention area is from the direction 5 (112.5 °) to the direction 7 (157.5 °). The reference pixels r0 to r5 are selected so that there are 3 pixels from the lower left to the upper and 3 pixels from the upper right to the lower.
In addition, the first generation unit 542 selects four upper and lower pixels as the reference pixels r6 to r13, as shown in FIGS. 20A and 20B, regardless of the estimated edge direction.
As described above, the first generation unit 542 selects the reference pixel based on the estimated edge direction in the attention area. Note that the selection of reference pixels is not limited to the selection from the two patterns illustrated in FIG. 20, and more reference pixel selection patterns may be prepared according to the estimated edge direction. Also, the reference pixel to be selected may be changed according to the estimated edge direction.

図21は、4×4画素の拡大画像ブロックの生成処理を説明する図である。
図21に示すように、第1生成部542は、計算された3×3画像ブロック相当の画素値p0〜p8と、注目領域における推定エッジ方向に基づいて選択された参照画素r0〜r13とを用いて、以下のような計算式に従って4×4画素の拡大画像ブロックに相当する画素値(s0〜s15)を計算し、4x4拡大画像ブロックを生成する。
FIG. 21 is a diagram illustrating a process of generating a 4 × 4 pixel enlarged image block.
As illustrated in FIG. 21, the first generation unit 542 uses the calculated pixel values p0 to p8 corresponding to 3 × 3 image blocks and reference pixels r0 to r13 selected based on the estimated edge direction in the attention area. The pixel value (s0 to s15) corresponding to the 4 × 4 pixel enlarged image block is calculated according to the following calculation formula to generate a 4 × 4 enlarged image block.

s0=0.2×r6+0.16×r0+0.64×p0
s1=0.2×r7+0.32×p0+0.48×p1
s2=0.2×r8+0.48×p1+0.32×p2
s3=0.2×r9+0.64×p2+0.16×r1
s4=0.08×r0+0.32×p0+0.12×r2+0.48×p3
s5=0.16×p0+0.24×p1+0.24×p3+0.36×p4
s6=0.24×p1+0.16×p2+0.36×p4+0.24×p5
s7=0.32×p2+0.08×r1+0.48×p5+0.12×r3
s8=0.12×r2+0.48×p3+0.08×r4+0.32×p6
s9=0.24×p3+0.36×p4+0.16×p6+0.24×p7
s10=0.36×p4+0.24×p5+0.24×p7+0.16×p8
s11=0.48×p5+0.12×r3+0.32×p8+0.08×r5
s12=0.16×r4+0.64×p6+0.2×r10
s13=0.32×p6+0.48×p7+0.2×r11
s14=0.48×p7+0.32×p8+0.2×r12
s15=0.64×p8+0.16×r5+0.2×r13
s0 = 0.2 × r6 + 0.16 × r0 + 0.64 × p0
s1 = 0.2 × r7 + 0.32 × p0 + 0.48 × p1
s2 = 0.2 × r8 + 0.48 × p1 + 0.32 × p2
s3 = 0.2 × r9 + 0.64 × p2 + 0.16 × r1
s4 = 0.08 * r0 + 0.32 * p0 + 0.12 * r2 + 0.48 * p3
s5 = 0.16 × p0 + 0.24 × p1 + 0.24 × p3 + 0.36 × p4
s6 = 0.24 × p1 + 0.16 × p2 + 0.36 × p4 + 0.24 × p5
s7 = 0.32 × p2 + 0.08 × r1 + 0.48 × p5 + 0.12 × r3
s8 = 0.12 * r2 + 0.48 * p3 + 0.08 * r4 + 0.32 * p6
s9 = 0.24 × p3 + 0.36 × p4 + 0.16 × p6 + 0.24 × p7
s10 = 0.36 × p4 + 0.24 × p5 + 0.24 × p7 + 0.16 × p8
s11 = 0.48 × p5 + 0.12 × r3 + 0.32 × p8 + 0.08 × r5
s12 = 0.16 × r4 + 0.64 × p6 + 0.2 × r10
s13 = 0.32 × p6 + 0.48 × p7 + 0.2 × r11
s14 = 0.48 × p7 + 0.32 × p8 + 0.2 × r12
s15 = 0.64 × p8 + 0.16 × r5 + 0.2 × r13

以上のように処理を行うことにより、画像ブロック特徴抽出部520によってエッジ領域であると判断された注目領域に対応する4×4画素の拡大画像ブロック(s0〜s15)が生成される。   By performing the processing as described above, 4 × 4 pixel enlarged image blocks (s0 to s15) corresponding to the attention area determined as the edge area by the image block feature extraction unit 520 are generated.

次に、拡大画像ブロック生成部540に含まれる第2生成部544について説明する。第2生成部544は、画像ブロック特徴抽出部520によって平坦領域であると判断された注目領域に対して、上述したような注目領域のエッジを滑らかにするような第1生成部542による拡大処理とは異なる処理を適用する。例えば、第2生成部544は、第1生成部542と比較して、処理負荷を軽減した、より簡便な拡大画像ブロックの生成処理を行う。本例の第2生成部544は、2×2画素の注目領域から最近傍補間により4×4画素の拡大画像ブロックを生成する。もちろん、この第2生成部544に適用される拡大手法は、任意であり、第1生成部542よりも処理負荷の軽い手法であればどのような手法を用いてもよい。   Next, the second generation unit 544 included in the enlarged image block generation unit 540 will be described. The second generation unit 544 performs an enlargement process by the first generation unit 542 for smoothing the edge of the attention region as described above with respect to the attention region determined to be a flat region by the image block feature extraction unit 520. Different processing is applied. For example, the second generation unit 544 performs a simpler process for generating an enlarged image block with a reduced processing load compared to the first generation unit 542. The second generation unit 544 of this example generates a 4 × 4 pixel enlarged image block by nearest neighbor interpolation from a 2 × 2 pixel region of interest. Of course, the enlargement method applied to the second generation unit 544 is arbitrary, and any method may be used as long as the method has a lighter processing load than the first generation unit 542.

以上説明したように、拡大画像ブロック生成部540は、画像ブロック特徴抽出部520により抽出または算出された画像特徴量に応じて、拡大手段(第1生成部542及び第2生成部544)を選択することにより、ジャギーを抑えて高画質に拡大でき、さらには処理負荷も削減することが可能となる。具体的には、第2生成部544は、第1生成部542よりも処理負荷の軽い拡大手法を用いることによって、拡大処理全体の処理負荷を軽減し、処理時間を短縮して高速な拡大処理を実現し、第1生成部542は、第2生成部544よりもエッジ領域を高画質に拡大する拡大手法を用いることによって、拡大画像の高画質化を実現する。なお、本例では、の拡大画像ブロック生成部540が2つの拡大手法を有し、これらのいずれかを選択的に用いる形態を具体例として説明したが、さらに複数の拡大手法を設けておき、画像ブロック特徴抽出部520により抽出された種々の画像特徴量に応じて複数の拡大手法の中からいずれかを選択して拡大処理を行うように構成してもよい。   As described above, the enlarged image block generation unit 540 selects the enlargement unit (the first generation unit 542 and the second generation unit 544) according to the image feature amount extracted or calculated by the image block feature extraction unit 520. By doing so, jaggies can be suppressed and the image quality can be increased, and the processing load can be reduced. Specifically, the second generation unit 544 uses an enlargement method with a lighter processing load than the first generation unit 542, thereby reducing the processing load of the entire enlargement process, shortening the processing time, and performing high-speed enlargement processing. The first generation unit 542 achieves higher image quality of the enlarged image by using an enlargement method that enlarges the edge region with higher image quality than the second generation unit 544. In this example, the enlarged image block generation unit 540 has two enlargement methods, and a mode in which any one of them is selectively used has been described as a specific example. However, a plurality of enlargement methods are further provided, Depending on various image feature amounts extracted by the image block feature extraction unit 520, any one of a plurality of enlargement methods may be selected to perform enlargement processing.

次に、画像ブロック配置部560について説明する。
画像ブロック配置部560は、拡大画像ブロック生成部540により生成された拡大画像ブロック(注目領域に対応する拡大画像ブロック)を既定の方法により順次配置する。
Next, the image block arrangement unit 560 will be described.
The image block arrangement unit 560 sequentially arranges the enlarged image blocks (enlarged image blocks corresponding to the region of interest) generated by the enlarged image block generation unit 540 by a predetermined method.

図22は、拡大画像ブロック生成部540により生成された4×4画素の拡大画像ブロックを配置する具体例を説明する図である。
図22に示すように、拡大画像ブロック生成部540(第1生成部542又は第2生成部544)により順次生成された拡大画像ブロックbk0及び拡大画像ブロックbk1は、互いに重なり合うように配置される。画像ブロック配置部560は、オーバーラップする画素(重なり合う画素)について、各々前画素値との平均をとるようにして配置する。また、画像ブロック配置部560は、オーバーラップする画素の総和を計算し、画素値の総和をオーバーラップした数で割ることにより各画素値を算出するようにしてもよい。
この場合、画像ブロック配置部560は、注目画素を1画素ずつずらしながら選択し、拡大処理を行ってゆくことになる。
また、画像ブロック配置部560は、順次生成される拡大画像ブロックをオーバーラップさせずに並べてゆくこともできる。この場合、画像ブロック配置部560は、注目領域を重ならないように選択してゆけばよい。
なお、4×4画素の拡大画像ブロックは、拡大画像ブロック生成部540中の第1生成部542又は第2生成部544のいずれかで生成されるため、拡大方式の違いによる画質劣化が懸念されるが、上述のように、画像ブロック配置部560が複数の拡大画像ブロックをオーバーラップさせて平均化することによって、そのような画質劣化の発生を抑えることができる。
FIG. 22 is a diagram illustrating a specific example in which 4 × 4 pixel enlarged image blocks generated by the enlarged image block generation unit 540 are arranged.
As shown in FIG. 22, the enlarged image block bk0 and the enlarged image block bk1 sequentially generated by the enlarged image block generation unit 540 (the first generation unit 542 or the second generation unit 544) are arranged so as to overlap each other. The image block arrangement unit 560 arranges overlapping pixels (overlapping pixels) so as to average each of the previous pixel values. In addition, the image block arrangement unit 560 may calculate each pixel value by calculating the sum of the overlapping pixels and dividing the sum of the pixel values by the number of overlaps.
In this case, the image block arrangement unit 560 selects the pixel of interest while shifting the pixels one by one, and performs the enlargement process.
The image block arrangement unit 560 can also arrange the sequentially generated enlarged image blocks without overlapping. In this case, the image block arrangement unit 560 may select the attention area so as not to overlap.
In addition, since the 4 × 4 pixel enlarged image block is generated by either the first generation unit 542 or the second generation unit 544 in the enlarged image block generation unit 540, there is a concern about image quality deterioration due to a difference in the enlargement method. However, as described above, when the image block arrangement unit 560 overlaps and averages a plurality of enlarged image blocks, occurrence of such image quality deterioration can be suppressed.

次に、拡大処理部500の全体動作を説明する。
図23は、拡大処理部500による画像拡大処理(S20)を説明するフローチャートである。
ステップ210(S210)において、画像ブロック設定部510は、画像ブロック特徴抽出部520及び拡大画像ブロック生成部540による処理で必要とされる所定の画像ブロックのサイズをそれぞれ設定し、設定されたブロックサイズの画像ブロックを順次(例えばラスタスキャン順に)切り出し、各ブロックサイズの画像ブロックを画像ブロック特徴抽出部520に出力する。
Next, the overall operation of the enlargement processing unit 500 will be described.
FIG. 23 is a flowchart illustrating the image enlargement process (S20) by the enlargement processing unit 500.
In step 210 (S210), the image block setting unit 510 sets the sizes of predetermined image blocks required for processing by the image block feature extraction unit 520 and the enlarged image block generation unit 540, and the set block size. Are sequentially cut out (for example, in the raster scan order), and image blocks of each block size are output to the image block feature extraction unit 520.

ステップ220(S220)において、画像ブロック特徴抽出部520は、入力された画像ブロック中の注目領域がエッジ領域であるのか平坦領域であるのかを判断する。
拡大処理部500は、注目領域がエッジ領域である場合に、画像ブロック特徴抽出部520に、注目領域のエッジパターンの設定、エッジパターンに相当するエッジ角度の初期エッジ角度としての設定、並びに、ある特定エッジパターンの抽出及び補正を行わせ、ジャギーを低減するような拡大画像ブロック生成処理を行うべく、S230の処理に移行する。
また、拡大処理部500は、注目領域が平坦領域である場合に、S260の処理に移行する。
In step 220 (S220), the image block feature extraction unit 520 determines whether the attention area in the input image block is an edge area or a flat area.
When the region of interest is an edge region, the enlargement processing unit 500 sets the edge pattern of the region of interest, the setting of the edge angle corresponding to the edge pattern as the initial edge angle, and the image block feature extraction unit 520 The process proceeds to S230 in order to perform extraction and correction of the specific edge pattern and to perform an enlarged image block generation process that reduces jaggies.
The enlargement processing unit 500 proceeds to the process of S260 when the attention area is a flat area.

ステップ230(S230)において、画像ブロック特徴抽出部520は、エッジ領域と判断された注目領域及びその注目領域を含む1ないし複数の周辺領域中の参照領域の初期エッジ角度Θから注目領域のエッジ方向θを推定する。例えば、画像ブロック特徴抽出部520は、得られた複数のエッジ角度Θの平均値を算出し、この平均値をエッジ方向θとする。なお、エッジ方向は、エッジ角度の平均値に限られるものではない。   In step 230 (S230), the image block feature extracting unit 520 determines the edge direction of the attention area from the attention area determined as the edge area and the initial edge angle Θ of the reference area in one or more peripheral areas including the attention area. Estimate θ. For example, the image block feature extraction unit 520 calculates an average value of the obtained plurality of edge angles Θ, and sets the average value as the edge direction θ. The edge direction is not limited to the average edge angle.

ステップ240(S240)において、画素値変換部530(平滑化部532)は、画像ブロック特徴抽出部520により得られた推定エッジ方向θに応じた平滑化カーネルを用いて、注目領域及びその周辺領域内画素の平滑化処理を行う。
さらに、画素値変換部530(強調部534)は、平滑化処理が施された注目領域及びその周辺領域内の画素に対して、コントラスト強調処理を施す。
In step 240 (S240), the pixel value conversion unit 530 (smoothing unit 532) uses the smoothing kernel corresponding to the estimated edge direction θ obtained by the image block feature extraction unit 520, and uses the smoothed kernel and its surrounding region. The inner pixel is smoothed.
Further, the pixel value conversion unit 530 (enhancement unit 534) performs contrast enhancement processing on the attention region that has been subjected to the smoothing processing and the pixels in the surrounding region.

ステップ250(S250)において、拡大画像ブロック生成部540の第1生成部542は、画像ブロック特徴抽出部520により得られた注目領域のエッジパターン及びこの注目領域の推定エッジ方向θと、S240において画素値変換部530により画素値変換処理が施された注目領域及び周辺領域内の画素値とを用いて、注目領域に対する拡大画像ブロックを生成する。
このように、拡大画像ブロック生成部540は、S220においてエッジ領域であると判断された場合に、そのようなエッジ部分のジャギーを抑えるような拡大画像ブロックを第1生成部542に生成させる。これによって、エッジ部分などについてジャギーの少ない高画質の拡大画像ブロックの生成を行うことができる。
In step 250 (S250), the first generation unit 542 of the enlarged image block generation unit 540 uses the edge pattern of the attention area and the estimated edge direction θ of the attention area obtained by the image block feature extraction section 520, and the pixel in S240. An enlarged image block for the attention area is generated using the attention area subjected to the pixel value conversion processing by the value conversion section 530 and the pixel values in the peripheral area.
As described above, the enlarged image block generation unit 540 causes the first generation unit 542 to generate an enlarged image block that suppresses the jaggy of such an edge portion when it is determined in S220 that the region is an edge region. Thereby, it is possible to generate a high-quality enlarged image block with less jaggy for the edge portion and the like.

ステップ260(S260)において、拡大画像ブロック生成部540の第2生成部544は、画像ブロック特徴抽出部530によって平坦領域であると判断された注目領域に対する拡大画像ブロックを生成する。
第2生成部544によりなされる拡大画像ブロック生成処理は、S230〜S250における拡大画像ブロックの生成処理(第1生成部542による処理)とは異なり、例えば最近傍補間などの処理負荷の小さい拡大処理でよい。すなわち、注目領域が平坦領域である場合には、上述のような複雑で処理時間を要する処理をする必要がなく、より処理負荷の小さい拡大画像ブロックの生成処理で十分である。
したがって、拡大画像ブロック生成部540は、注目領域が平坦領域である場合に、第2生成部544を選択して処理負荷の小さい拡大画像ブロックの生成処理を行い、全体としての処理時間の短縮を図っている。
In step 260 (S260), the second generation unit 544 of the enlarged image block generation unit 540 generates an enlarged image block for the region of interest determined to be a flat region by the image block feature extraction unit 530.
The enlarged image block generation processing performed by the second generation unit 544 is different from the enlarged image block generation processing (processing by the first generation unit 542) in S230 to S250, for example, enlargement processing with a small processing load such as nearest neighbor interpolation. It's okay. That is, when the region of interest is a flat region, it is not necessary to perform the complicated and time-consuming processing as described above, and an enlarged image block generation process with a smaller processing load is sufficient.
Therefore, when the attention area is a flat area, the enlarged image block generation unit 540 selects the second generation unit 544 and performs the generation process of the enlarged image block with a small processing load, thereby reducing the overall processing time. I am trying.

ステップ270(S270)において、画像ブロック配置部560は、拡大画像ブロック生成部540(第1生成部542又は第2生成部544)により生成された拡大画像ブロックを順次配置する。なお、拡大画像ブロック配置する方法として、拡大画像ブロック生成部540により生成された拡大画像ブロックをオーバーラップするように順次配置する方法などが考えられる。複数の拡大画像ブロックをオーバーラップさせる場合には、画像ブロック配置部560は、順次前画素値との平均を取るようにする方法や、オーバーラップする全画素値の総和をオーバーラップ数で割るという方法を適用する。ただ、画像ブロック配置部560は、処理速度や画質を勘案し、拡大画像ブロック生成部540によって生成される拡大画像ブロックを用いる方法であればどのような手法を適用してもよい。   In step 270 (S270), the image block arrangement unit 560 sequentially arranges the enlarged image blocks generated by the enlarged image block generation unit 540 (the first generation unit 542 or the second generation unit 544). As a method of arranging the enlarged image blocks, a method of sequentially arranging the enlarged image blocks generated by the enlarged image block generation unit 540 so as to overlap each other is conceivable. When overlapping a plurality of enlarged image blocks, the image block arrangement unit 560 sequentially averages the previous pixel values, or divides the sum of all overlapping pixel values by the number of overlaps. Apply the method. However, the image block placement unit 560 may apply any method as long as it uses the enlarged image block generated by the enlarged image block generation unit 540 in consideration of the processing speed and the image quality.

ステップ280(S280)において、拡大処理部500は、すべての入力画像データについて処理が完了したか否かを調べ、完了していない場合に、S210の処理に戻って処理を続け、完了している場合に、拡大画像データを所定の出力先に出力して拡大処理を終了する。   In step 280 (S280), the enlargement processing unit 500 checks whether or not the processing has been completed for all the input image data. If not, the processing returns to the processing of S210 to continue the processing. In this case, the enlarged image data is output to a predetermined output destination, and the enlargement process is terminated.

以上説明したように、本実施形態における画像処理装置2は、注目画素を含む所定の大きさの画像領域の特徴を抽出し、抽出された特徴に基づいて、画像領域内及びその近傍領域内の画素値を変換し、変換された画素値と、抽出された特徴とに応じて、注目画素を含む所定の大きさの画像領域を拡大する複数の拡大手法を切り替えて拡大画像領域を生成し、得られた拡大画像領域を所定の方法で配置して、拡大された出力画像を生成する。
このように、本画像処理装置2は、例えば、入力画像中のエッジ部分に関しては、エッジを滑らかにする拡大手法を適用し、入力画像中の平坦な部分(真白や真黒の画像部分)に関しては処理負荷の小さい拡大手法を適用することによって、エッジ部分のジャギーを抑制した高画質な拡大処理を行うとともに、処理負荷を抑えて高速に拡大処理を行うことができる。
As described above, the image processing apparatus 2 in the present embodiment extracts features of an image region having a predetermined size including the target pixel, and based on the extracted features, the image processing device 2 in the image region and its neighboring regions. Converting the pixel value, and generating an enlarged image region by switching a plurality of enlargement methods for enlarging an image region of a predetermined size including the target pixel according to the converted pixel value and the extracted feature, The obtained enlarged image area is arranged by a predetermined method to generate an enlarged output image.
As described above, the image processing apparatus 2 applies, for example, an enlargement method for smoothing an edge with respect to an edge portion in the input image, and a flat portion (a white or black image portion) in the input image. By applying an enlargement method with a small processing load, it is possible to perform an enlargement process with high image quality while suppressing jaggies at the edge portion, and to perform an enlargement process at a high speed while suppressing the processing load.

本発明にかかる画像処理方法が適応される画像処理装置2のハードウェア構成を、制御装置20を中心に例示する図である。It is a figure which illustrates the hardware constitutions of the image processing apparatus 2 with which the image processing method concerning this invention is applied centering on the control apparatus 20. FIG. 制御装置20(図1)により実行され、本発明にかかる画像処理方法を実現する画像拡大プログラム5の機能構成を例示する図である。It is a figure which illustrates the functional structure of the image expansion program 5 which is performed by the control apparatus 20 (FIG. 1) and implement | achieves the image processing method concerning this invention. 画像ブロック特徴抽出部520の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the image block feature extraction part 520. FIG. 2×2画像ブロックにおけるパターンとそのエッジ角度を例示する図である。It is a figure which illustrates the pattern and its edge angle in a 2x2 image block. 注目領域が市松エッジパターンである場合に、注目領域の初期エッジ角度を決定するために参照される領域を例示する図である。It is a figure which illustrates the field referred in order to determine the initial edge angle of the attention field, when the attention field is a checkered edge pattern. 市松エッジパターンとの組み合わせによって決定される初期エッジ角度を例示する図である。It is a figure which illustrates the initial edge angle determined by the combination with a checkered edge pattern. 補正される特定パターンを含む画像の一部分を表す図である。It is a figure showing a part of image containing the specific pattern corrected. 凹凸パターンの抽出および補正を説明する図である。It is a figure explaining extraction and correction | amendment of an uneven | corrugated pattern. 図8とは異なる凹凸パターンの補正を説明する図である。It is a figure explaining correction | amendment of the uneven | corrugated pattern different from FIG. 図7に示した画像(特定パターンを含む)の補正後を例示する図である。It is a figure which illustrates after correction | amendment of the image (a specific pattern is included) shown in FIG. 注目領域及び周辺領域の具体例と注目領域のエッジ方向とを例示する図である。It is a figure which illustrates the specific example of an attention area and a peripheral area, and the edge direction of an attention area. エッジ方向推定部534によるエッジ方向推定処理(S10)のフローチャートである。It is a flowchart of the edge direction estimation process (S10) by the edge direction estimation part 534. FIG. エッジ方向の推定に用いる参照領域を例示する図である。It is a figure which illustrates the reference field used for estimation of an edge direction. 適正なエッジパターン判断を説明する図である。It is a figure explaining appropriate edge pattern judgment. 推定エッジ方向に対応する平滑化カーネルを例示する図である。It is a figure which illustrates the smoothing kernel corresponding to an estimation edge direction. 平滑化カーネルによる平滑化処理を説明する図である。It is a figure explaining the smoothing process by the smoothing kernel. 強調カーネルを例示し、この強調カーネルによる強調処理を説明する図である。It is a figure which illustrates an emphasis kernel and explains emphasis processing by this emphasis kernel. 第1生成部542による拡大画像ブロックの生成処理を説明する図である。FIG. 10 is a diagram for explaining enlarged image block generation processing by the first generation unit 542; エッジパターンと推定エッジ方向との組み合わせに対応する計算式の他の例を示す図である。It is a figure which shows the other example of the calculation formula corresponding to the combination of an edge pattern and an estimated edge direction. 注目領域の推定エッジ方向に基づく参照画素r0〜r13の選択方法を説明する図である。It is a figure explaining the selection method of the reference pixels r0-r13 based on the estimated edge direction of an attention area. 4×4画素の拡大画像ブロックの生成処理を説明する図である。It is a figure explaining the production | generation process of a 4x4 pixel enlarged image block. 拡大画像ブロック生成部540により生成された拡大画像ブロックの配置方法を例示する図である。It is a figure which illustrates the arrangement method of the enlarged image block produced | generated by the enlarged image block production | generation part 540. FIG. 拡大処理部500による画像拡大処理(S20)を説明するフローチャートである。It is a flowchart explaining the image expansion process (S20) by the expansion process part 500. FIG.

符号の説明Explanation of symbols

2・・・画像処理装置
5・・・画像拡大プログラム
500・・・拡大処理部
510・・・画像ブロック設定部
520・・・画像ブロック特徴抽出部
530・・・画素値変換部
532・・・平滑化部
534・・・強調部
540・・・拡大画像ブロック生成部
542・・・第1生成部
544・・・第2生成部
560・・・画像ブロック配置部
DESCRIPTION OF SYMBOLS 2 ... Image processing apparatus 5 ... Image enlargement program 500 ... Enlargement processing part 510 ... Image block setting part 520 ... Image block feature extraction part 530 ... Pixel value conversion part 532 ... Smoothing unit 534 ... enhancement unit 540 ... enlarged image block generation unit 542 ... first generation unit 544 ... second generation unit 560 ... image block arrangement unit

Claims (9)

入力画像の拡大処理を行う画像処理装置であって、
入力画像に含まれる注目画素について、この注目画素を含む既定の大きさの注目領域の画素値パターンに基づいて、当該注目領域がエッジ領域であるか否かを判断し、
当該エッジ領域の画素値パターンに基づいて、初期エッジ角度を算出すると共に、当該エッジ領域の画素値パターンのみでは一意に初期エッジ角度を算出できない場合に、当該エッジ領域のラスタスキャン順で一つ手前および/または一つ先の画像領域の画素値パターンを参照して初期エッジ角度を算出し、
当該初期エッジ角度に応じて、階調の変化方向を抽出するために参照すべき参照領域を設定し、
当該参照領域の画素値パターンと、当該注目領域の画素値パターンとに基づいて、階調の変化方向を、当該注目領域の特徴として抽出する領域特徴抽出手段と、
前記領域特徴抽出手段により抽出された階調の変化方向に基づいて、少なくともこの注目領域内の画素値を変換する画素値変換手段と、
前記画素値変換手段により変換された注目領域の画素値に基づいて拡大画像領域を生成する1つの生成手段、及び、前記1つの生成手段とは異なる処理により拡大画像領域を生成する他の生成手段を含む拡大画像領域生成手段と、
前記拡大画像領域生成手段により生成された拡大画像領域を配置する画像配置手段と
を有し、
前記拡大画像領域生成手段は、前記領域特徴抽出手段により抽出された階調の変化方向に応じた前記生成手段を適用する
画像処理装置。
An image processing apparatus for enlarging an input image,
For the target pixel included in the input image, based on the pixel value pattern of the target region of a predetermined size including the target pixel, determine whether the target region is an edge region,
The initial edge angle is calculated based on the pixel value pattern of the edge area, and when the initial edge angle cannot be uniquely calculated only by the pixel value pattern of the edge area, the previous edge scan is performed in the raster scan order. And / or calculate the initial edge angle with reference to the pixel value pattern of the next image area,
In accordance with the initial edge angle, set a reference region to be referred to in order to extract the gradation change direction,
Area feature extraction means for extracting a change direction of gradation as a feature of the attention area based on the pixel value pattern of the reference area and the pixel value pattern of the attention area;
A pixel value conversion unit that converts at least a pixel value in the region of interest based on the change direction of the gradation extracted by the region feature extraction unit;
One generating means for generating an enlarged image area based on the pixel value of the attention area converted by the pixel value converting means, and another generating means for generating an enlarged image area by processing different from the one generating means An enlarged image region generating means including:
Image arrangement means for arranging the enlarged image area generated by the enlarged image area generation means,
The enlarged image region generation unit applies the generation unit according to the gradation change direction extracted by the region feature extraction unit.
前記画素値変換手段は、前記注目領域の画素値が既定の条件を満たしている場合にのみ、前記注目領域内の画素値と、この注目領域の近傍領域内の画素値とを変換する
請求項1に記載の画像処理装置。
The pixel value conversion means converts the pixel value in the attention area and the pixel value in the vicinity area of the attention area only when the pixel value of the attention area satisfies a predetermined condition. The image processing apparatus according to 1.
前記領域特徴抽出手段は、抽出された画素値パターンが既定のパターンである場合に、この画素値パターンを補正する
請求項1又は2に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the region feature extraction unit corrects the pixel value pattern when the extracted pixel value pattern is a predetermined pattern.
前記画素値変換手段は、前記領域特徴抽出手段により抽出された変化方向に応じた位置の画素群を参照して、平滑化処理を行う
請求項3に記載の画像処理装置。
The image processing apparatus according to claim 3, wherein the pixel value conversion unit performs a smoothing process with reference to a pixel group at a position corresponding to the change direction extracted by the region feature extraction unit.
前記画素値変換手段は、前記平滑化処理がなされた複数の画素値を用いて、階調変化を強調するエッジ強調処理を行う
請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the pixel value conversion unit performs an edge enhancement process for enhancing a gradation change, using the plurality of pixel values subjected to the smoothing process.
前記画素値変換手段は、前記領域特徴抽出手段により抽出された階調の変化方向に基づいて、前記注目領域内の画素値と、この注目領域の近傍領域内の画素値とを変換し、
前記1つの生成手段は、前記領域特徴抽出手段により抽出された階調の変化方向が既定の条件を満たす注目領域の注目画素に対して、この注目領域の階調の変化方向、前記画素値変換手段により変換された注目領域の画素値、及び、前記画素値変換手段により変換された近傍領域の画素値に基づいて、注目画素に対応する拡大画像領域を生成する
請求項1に記載の画像処理装置。
The pixel value conversion means converts a pixel value in the attention area and a pixel value in a vicinity area of the attention area based on the change direction of the gradation extracted by the area feature extraction means,
The one generating unit is configured to change the gradation change direction of the attention region, the pixel value conversion, for the attention pixel of the attention region in which the gradation change direction extracted by the region feature extraction unit satisfies a predetermined condition. 2. The image processing according to claim 1, wherein an enlarged image area corresponding to the target pixel is generated based on the pixel value of the attention area converted by the means and the pixel value of the neighboring area converted by the pixel value conversion means. apparatus.
前記画像配置手段は、前記拡大画像領域生成手段により生成される複数の拡大画像領域が拡大後の画像において互いに重なり合う場合に、これらの拡大画像領域に基づいて、この重複部分の画素値を決定する
請求項1に記載の画像処理装置。
When the plurality of enlarged image regions generated by the enlarged image region generating unit overlap each other in the enlarged image, the image arranging unit determines a pixel value of the overlapping portion based on the enlarged image regions. The image processing apparatus according to claim 1.
前記画像配置手段は、前記拡大画像領域生成手段により生成される複数の拡大画像領域が拡大後の画像において互いに重なり合う場合に、これら拡大画像領域の重複部分について、同一画素に対応する複数の画素値の平均値を算出する
請求項7に記載の画像処理装置。
When the plurality of enlarged image regions generated by the enlarged image region generating unit overlap each other in the enlarged image, the image arranging unit has a plurality of pixel values corresponding to the same pixel with respect to overlapping portions of the enlarged image regions. The image processing device according to claim 7, wherein an average value of the image processing device is calculated.
入力画像の拡大処理を行う画像処理装置において、
入力画像に含まれる注目画素について、この注目画素を含む既定の大きさの注目領域の画素値パターンに基づいて、当該注目領域がエッジ領域であるか否かを判断するステップと、
当該エッジ領域の画素値パターンに基づいて、初期エッジ角度を算出すると共に、当該エッジ領域の画素値パターンのみでは一意に初期エッジ角度を算出できない場合に、当該エッジ領域のラスタスキャン順で一つ手前および/または一つ先の画像領域の画素値パターンを参照して初期エッジ角度を算出するステップと、
当該初期エッジ角度に応じて、階調の変化方向を抽出するために参照すべき参照領域を設定するステップと、
当該参照領域の画素値パターンと、当該注目領域の画素値パターンとに基づいて、階調の変化方向を、当該注目領域の特徴として抽出するステップと、
前記抽出するステップにより抽出された階調の変化方向に基づいて、少なくともこの注目領域内の画素値を変換するステップと、
前記変換するステップにより変換された注目領域の画素値に基づいて拡大画像領域を生成する1つの生成ステップ、又は、前記1つの生成ステップとは異なる処理により拡大画像領域を生成する他の生成ステップを選択するステップと、
選択された生成手法を適用して、拡大画像領域を生成するステップと、
生成された拡大画像領域を配置するステップと
を前記画像処理装置に実行させるプログラム。
In an image processing apparatus that performs an enlargement process of an input image,
For a target pixel included in the input image, based on a pixel value pattern of a target region of a predetermined size including the target pixel, determining whether the target region is an edge region;
The initial edge angle is calculated based on the pixel value pattern of the edge area, and when the initial edge angle cannot be uniquely calculated only by the pixel value pattern of the edge area, the previous edge scan is performed in the raster scan order. And / or calculating an initial edge angle with reference to a pixel value pattern of the next image area;
Setting a reference region to be referred to in order to extract a change direction of gradation according to the initial edge angle;
Extracting a change direction of gradation as a feature of the region of interest based on the pixel value pattern of the reference region and the pixel value pattern of the region of interest;
A method based on the change direction of the extracted grayscale by step, converting at least a pixel value of the target region for the extraction,
One generation step of generating an enlarged image area based on the pixel values of the conversion region of interest by said step of converting, or, the other generation step of generating an enlarged image area by a different process from that of the one generating step A step to choose;
Applying the selected generation method to generate an enlarged image region;
A program for causing the image processing apparatus to execute a step of arranging the generated enlarged image region.
JP2004366409A 2004-12-17 2004-12-17 Image processing apparatus, image processing method, and program thereof Expired - Fee Related JP4517287B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004366409A JP4517287B2 (en) 2004-12-17 2004-12-17 Image processing apparatus, image processing method, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004366409A JP4517287B2 (en) 2004-12-17 2004-12-17 Image processing apparatus, image processing method, and program thereof

Publications (2)

Publication Number Publication Date
JP2006174276A JP2006174276A (en) 2006-06-29
JP4517287B2 true JP4517287B2 (en) 2010-08-04

Family

ID=36674522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004366409A Expired - Fee Related JP4517287B2 (en) 2004-12-17 2004-12-17 Image processing apparatus, image processing method, and program thereof

Country Status (1)

Country Link
JP (1) JP4517287B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7074171B2 (en) * 2020-09-17 2022-05-24 株式会社リコー Image processing equipment, image projection equipment, and image processing methods

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133410A (en) * 2000-10-25 2002-05-10 Fuji Photo Film Co Ltd Noise suppressing processor and recording medium
JP2003115031A (en) * 2001-10-03 2003-04-18 Ricoh Co Ltd Image processor and its method
JP2004180171A (en) * 2002-11-28 2004-06-24 Fuji Xerox Co Ltd Device, method and program for processing image, and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133410A (en) * 2000-10-25 2002-05-10 Fuji Photo Film Co Ltd Noise suppressing processor and recording medium
JP2003115031A (en) * 2001-10-03 2003-04-18 Ricoh Co Ltd Image processor and its method
JP2004180171A (en) * 2002-11-28 2004-06-24 Fuji Xerox Co Ltd Device, method and program for processing image, and storage medium

Also Published As

Publication number Publication date
JP2006174276A (en) 2006-06-29

Similar Documents

Publication Publication Date Title
US7149355B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable record medium storing image processing program
JP4328926B2 (en) Image data interpolation method, image data interpolation apparatus, and medium on which pixel interpolation program is recorded
US7885486B2 (en) Image processing system, method for processing image and computer readable medium
JP4111190B2 (en) Image processing device
JP4716255B2 (en) Image processing apparatus, image processing method, and program thereof
JP5743187B2 (en) Image area separation method, program for executing the same, and image area separation apparatus
JP4517288B2 (en) Image processing apparatus, image processing method, and program thereof
JP4517287B2 (en) Image processing apparatus, image processing method, and program thereof
JP4857975B2 (en) Image processing system and image processing program
JP3888090B2 (en) Image processing apparatus and image processing method
US9584699B2 (en) Image processing apparatus, image processing method and computer-readable storage medium with improved character display
JP4730525B2 (en) Image processing apparatus and program thereof
JP2006050481A (en) Image processing apparatus, image processing method and program thereof
JP3262425B2 (en) Image processing device
JP3669081B2 (en) Image processing device
JP3624153B2 (en) Image processing apparatus and image processing method
JP2006050480A (en) Image processing apparatus, image processing method and program thereof
JP4872715B2 (en) Image processing apparatus and program
JP2006252108A (en) Image processing device, image processing method, and its program
JP2005190383A (en) Dot area discrimination apparatus and dot area discrimination method
JP4311292B2 (en) Image processing apparatus, image processing method, and program thereof
JP2010191931A (en) Image processing apparatus, image forming apparatus, computer program, recording medium and image processing method
JP5013243B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium recording the same
JP2006252107A (en) Image processing device, image processing method, and its program
JP4736121B2 (en) Image analysis apparatus, image processing apparatus, image analysis method, image analysis program, and recording medium recording the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100422

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100505

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130528

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4517287

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140528

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees