JP4517288B2 - Image processing apparatus, image processing method, and program thereof - Google Patents
Image processing apparatus, image processing method, and program thereof Download PDFInfo
- Publication number
- JP4517288B2 JP4517288B2 JP2004366499A JP2004366499A JP4517288B2 JP 4517288 B2 JP4517288 B2 JP 4517288B2 JP 2004366499 A JP2004366499 A JP 2004366499A JP 2004366499 A JP2004366499 A JP 2004366499A JP 4517288 B2 JP4517288 B2 JP 4517288B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel value
- enlarged image
- area
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 95
- 238000003672 processing method Methods 0.000 title claims description 13
- 238000000034 method Methods 0.000 claims description 72
- 238000000605 extraction Methods 0.000 claims description 54
- 238000006243 chemical reaction Methods 0.000 claims description 50
- 238000009499 grossing Methods 0.000 claims description 39
- 230000010354 integration Effects 0.000 claims description 7
- 230000002708 enhancing effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 17
- 230000002093 peripheral effect Effects 0.000 description 17
- 238000004364 calculation method Methods 0.000 description 14
- 238000012937 correction Methods 0.000 description 8
- 238000013500 data storage Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/403—Edge-driven scaling; Edge-based scaling
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
Description
本発明は、画像を拡大する画像処理装置に関する。 The present invention relates to an image processing apparatus that enlarges an image.
二値画像の拡大処理は、ディジタル複写機や複合機、プリンタ、FAX、スキャナなどの編集やファイリング、表示、印刷などを行うシステムにとって基本的な処理の一つである。また近年、高解像度のディジタル複写機や複合機、プリンタの普及に伴い、印刷出力の際に高画質の出力結果を得ることが望まれており、高画質拡大処理に対する重要度が高まっている。
二値画像を拡大処理する既存の代表的な手法としては、最近傍法や線形補間法がある。最近傍法は、拡大後の画素値として、その画素を原画像上に逆写像した際に最も距離が近い画素の画素値を使うという方法である。この方法は、演算量が少ないため高速に処理することができる。しかし、原画像の1画素がそのまま矩形形状に拡大されるため、二値画像においては斜線部やエッジ部のジャギーが目立ち、倍率が大きい場合には画質劣化の程度は非常に大きい。
これらの問題を解決する試みとして、例えば特許文献1、特許文献2などの新規方式が提案されている。
特許文献1に記載されている技術では、着目画素を中心とする所定領域毎に予め用意されたテンプレートとマッチングをとり、マッチングパターンに対応するスムージング拡大パターンにより拡大し、前記拡大パターンを拡大率に応じて1つ以上の画素に分割し、その各画素毎に平滑化処理を施して着目画素を拡大および多値化する。またパターンは予め複数のパターン群に分け、マッチングをとる優先順位を予め決めることによりパターンの誤検出を防止している。しかし、本技術は、基本的に、テンプレートマッチングと平滑化処理のみによる2値画像の拡大であり、非常に多くのテンプレートを必要とし、用意されないパターンのエッジに関してはスムージング拡大処理を行うことができない。
特許文献2に記載されている技術では、まず原画像を2値化し、その2値画像から原画像に含まれる斜め成分の方向を、方向毎に予め用意した2次元パターン(行列データ)と一致判定することにより求め、求められた方向の斜線と画素位置を格子点と見なした場合の交点とその交点における画素値を求める事により補間処理を行う。しかし、本技術は、求められた方向により補正がされてはいるが基本的には線形補間(内挿)法による補間処理であり、十分なジャギーの低減は行えない。
Typical existing methods for enlarging a binary image include a nearest neighbor method and a linear interpolation method. The nearest neighbor method is a method of using the pixel value of the pixel having the closest distance when the pixel is inversely mapped on the original image as the pixel value after enlargement. Since this method has a small amount of calculation, it can be processed at high speed. However, since one pixel of the original image is directly expanded into a rectangular shape, in a binary image, jaggy in the hatched portion and the edge portion is conspicuous, and the degree of image quality deterioration is very large when the magnification is large.
As an attempt to solve these problems, new methods such as
In the technique described in
In the technique described in
本発明は、上述した背景からなされたものであり、画像を高画質に拡大する画像処理装置を提供することを目的とする。 The present invention has been made from the above-described background, and an object thereof is to provide an image processing apparatus that enlarges an image with high image quality.
[画像処理装置]
上記目的を達成するために、本発明にかかる画像処理装置は、入力画像の拡大処理を行う画像処理装置であって、入力画像に含まれる注目画素について、この注目画素を含む既定の大きさの画像領域の特徴を抽出する領域特徴抽出手段と、前記領域特徴抽出手段により抽出された特徴に基づいて、少なくともこの画像領域内の画素値を変換する画素値変換手段と、前記領域特徴抽出手段により抽出された特徴が既定の条件を満たす画像領域の注目画素に対して、前記画素値変換手段により画素値が変換された画像領域に基づいて、この画像領域に含まれる注目画素に対応する拡大画像領域を生成する拡大画像領域生成手段と、前記拡大画像領域生成手段とは異なる拡大処理方法を適用して、入力画像の拡大画像を生成する拡大画像生成手段と、前記拡大画像領域生成手段により生成された拡大画像領域と、前記拡大画像生成手段により生成された拡大画像とを統合する画像統合手段とを有する。
[Image processing device]
In order to achieve the above object, an image processing apparatus according to the present invention is an image processing apparatus that performs an enlargement process of an input image, and for a target pixel included in the input image, a predetermined size including the target pixel is provided. An area feature extracting unit for extracting an image area feature, a pixel value converting unit for converting at least a pixel value in the image area based on the feature extracted by the area feature extracting unit, and the area feature extracting unit An enlarged image corresponding to the target pixel included in the image area based on the image area in which the pixel value is converted by the pixel value conversion unit with respect to the target pixel of the image area in which the extracted feature satisfies a predetermined condition An enlarged image area generating means for generating an area, and an enlarged image generating means for generating an enlarged image of the input image by applying an enlargement processing method different from the enlarged image area generating means; And an image integration means for integrating the the enlarged image region generated by the enlarged image area generation unit, and an enlarged image generated by the enlarged image generating means.
好適には、前記画素値変換手段は、前記画像領域内の画素値と、この画像領域の近傍領域内の画素値とを変換する。 Preferably, the pixel value conversion means converts a pixel value in the image region and a pixel value in a neighborhood region of the image region.
好適には、前記領域特徴抽出手段は、前記画像領域の画素値が既定の条件を満たしている場合に、この画像領域の画素値パターンをこの画像領域の特徴として抽出する。 Preferably, the area feature extraction unit extracts a pixel value pattern of the image area as a feature of the image area when the pixel value of the image area satisfies a predetermined condition.
好適には、前記領域特徴抽出手段は、抽出された画素値パターンが既定のパターンである場合に、この画素値パターンを補正する。 Preferably, the area feature extraction unit corrects the pixel value pattern when the extracted pixel value pattern is a predetermined pattern.
好適には、前記領域特徴抽出手段は、前記画像領域における画素値パターンに基づいて、階調変化に関する複数の角度を算出し、算出された複数の角度に基づいて、この画像領域における階調変化の変化方向を、前記特徴として抽出し、前記画素値変換手段は、前記領域特徴抽出手段により抽出された変化方向に応じて、前記画像領域内の画素値を変換する。 Preferably, the area feature extraction unit calculates a plurality of angles related to a gradation change based on a pixel value pattern in the image area, and the gradation change in the image area based on the calculated plurality of angles. The change direction is extracted as the feature, and the pixel value conversion unit converts the pixel value in the image region according to the change direction extracted by the region feature extraction unit.
好適には、前記画素値変換手段は、前記領域特徴抽出手段により抽出された変化方向に応じた位置の画素群を参照して、平滑化処理を行う。 Preferably, the pixel value conversion unit performs a smoothing process with reference to a pixel group at a position corresponding to the change direction extracted by the region feature extraction unit.
好適には、前記画素値変換手段は、前記平滑化処理がなされた複数の画素値を用いて、階調変化を強調するエッジ強調処理を行う。 Preferably, the pixel value conversion means performs an edge emphasis process for emphasizing a gradation change by using the plurality of pixel values subjected to the smoothing process.
好適には、前記画素値変換手段は、前記領域特徴抽出手段により抽出された特徴に基づいて、前記画像領域内の画素値と、この画像領域の近傍領域内の画素値とを変換し、前記拡大画像領域生成手段は、前記領域特徴抽出手段により抽出された特徴が既定の条件を満たす画像領域の注目画素に対して、この画像領域の特徴、前記画素値変換手段により変換された画像領域の画素値、及び、前記画素値変換手段により変換された近傍領域の画素値に基づいて、注目画素に対応する拡大画像領域を生成する。 Preferably, the pixel value conversion unit converts a pixel value in the image region and a pixel value in a neighborhood region of the image region based on the feature extracted by the region feature extraction unit, and The enlarged image area generation unit is configured to detect the feature of the image area and the image area converted by the pixel value conversion unit for the target pixel of the image area in which the feature extracted by the area feature extraction unit satisfies a predetermined condition. Based on the pixel value and the pixel value of the neighboring region converted by the pixel value conversion means, an enlarged image region corresponding to the target pixel is generated.
好適には、前記拡大画像生成手段は、前記拡大画像領域生成手段による拡大処理よりも処理負荷の小さい拡大手法を適用して、入力画像の拡大画像を生成する。 Preferably, the enlarged image generation unit generates an enlarged image of the input image by applying an enlargement method that has a smaller processing load than the enlargement process performed by the enlarged image region generation unit.
好適には、前記拡大画像生成手段は、入力画像毎、又は、入力画像中の複数のライン毎に、拡大画像を生成する。 Preferably, the enlarged image generating unit generates an enlarged image for each input image or for each of a plurality of lines in the input image.
好適には、前記画像統合手段は、前記拡大画像領域生成手段により生成される複数の拡大画像領域が拡大後の画像において互いに重なり合う場合に、これらの拡大画像領域に基づいて、この重複部分の画素値を決定する。 Preferably, when the plurality of enlarged image regions generated by the enlarged image region generating unit overlap each other in the enlarged image, the image integration unit is configured to use the pixels of the overlapping portion based on the enlarged image regions. Determine the value.
好適には、前記画像統合手段は、前記拡大画像領域生成手段により生成される複数の拡大画像領域が拡大後の画像において互いに重なり合う場合に、これら拡大画像領域の重複部分について、同一画素に対応する複数の画素値の平均値を算出する。 Preferably, when the plurality of enlarged image regions generated by the enlarged image region generating unit overlap each other in the enlarged image, the image integration unit corresponds to the same pixel with respect to an overlapping portion of the enlarged image regions. An average value of a plurality of pixel values is calculated.
好適には、前記画像統合手段は、前記拡大画像生成手段により生成された拡大画像の少なくとも一部を、前記拡大画像領域生成手段により生成された拡大画像領域で置換する。 Preferably, the image integration unit replaces at least a part of the enlarged image generated by the enlarged image generation unit with the enlarged image region generated by the enlarged image region generation unit.
[画像処理方法]
また、本発明にかかる画像処理方法は、入力画像の拡大処理を行う画像処理方法であって、入力画像に含まれる注目画素について、この注目画素を含む既定の大きさの画像領域の特徴を抽出し、抽出された特徴に基づいて、少なくともこの画像領域内の画素値を変換し、抽出された特徴が既定の条件を満たす画像領域の注目画素に対して、画素値が変換された画像領域に基づいて、この画像領域に含まれる注目画素に対応する拡大画像領域を生成し、前記拡大画像領域の生成処理とは異なる拡大処理方法を適用して、入力画像の拡大画像を生成し、生成された拡大画像領域と、生成された拡大画像とを統合する。
[Image processing method]
The image processing method according to the present invention is an image processing method for performing an enlargement process of an input image, and for a target pixel included in the input image, a feature of an image region having a predetermined size including the target pixel is extracted. Then, based on the extracted feature, at least the pixel value in the image region is converted, and the extracted feature is converted into the image region in which the pixel value is converted with respect to the target pixel of the image region that satisfies the predetermined condition. Based on this, an enlarged image region corresponding to the target pixel included in the image region is generated, and an enlarged image method of the input image is generated by applying an enlargement processing method different from the generation processing of the enlarged image region. The enlarged image area and the generated enlarged image are integrated.
[プログラム]
また、本発明にかかるプログラムは、入力画像の拡大処理を行う画像処理装置において、入力画像に含まれる注目画素について、この注目画素を含む既定の大きさの画像領域の特徴を抽出するステップと、抽出された特徴に基づいて、少なくともこの画像領域内の画素値を変換するステップと、抽出された特徴が既定の条件を満たす画像領域の注目画素に対して、画素値が変換された画像領域に基づいて、この画像領域に含まれる注目画素に対応する拡大画像領域を生成するステップと、前記拡大画像領域の生成処理とは異なる拡大処理方法を適用して、入力画像の拡大画像を生成するステップと、生成された拡大画像領域と、生成された拡大画像とを統合するステップとを前記画像処理装置に実行させる。
[program]
In addition, the program according to the present invention includes a step of extracting a feature of an image area having a predetermined size including a target pixel for the target pixel included in the input image in an image processing apparatus that performs an enlargement process of the input image; Based on the extracted feature, at least a step of converting a pixel value in the image region, and for the target pixel of the image region in which the extracted feature satisfies a predetermined condition, the pixel value is converted into the image region. And generating a magnified image of the input image by applying a magnified image processing method different from the magnified image region generating process, and generating a magnified image region corresponding to the target pixel included in the image region. And causing the image processing apparatus to execute a step of integrating the generated enlarged image region and the generated enlarged image.
本発明の画像処理装置によれば、比較的軽い処理負荷で、高画質な拡大画像を得ることができる。 According to the image processing apparatus of the present invention, a high-quality enlarged image can be obtained with a relatively light processing load.
[ハードウェア構成]
まず、本実施形態における画像処理装置2のハードウェア構成を説明する。
図1は、本発明にかかる画像処理方法が適応される画像処理装置2のハードウェア構成を、制御装置20を中心に例示する図である。
図1に例示するように、画像処理装置2は、CPU202及びメモリ204などを含む制御装置20、通信装置22、HDD・CD装置などの記録装置24、並びに、LCD表示装置あるいはCRT表示装置及びキーボード・タッチパネルなどを含むユーザインターフェース装置(UI装置)26から構成される。
画像処理装置2は、例えば、画像拡大プログラム5(後述)がインストールされた汎用コンピュータであり、通信装置22又は記録装置24などを介して画像データを取得し、取得された画像データを出力解像度に応じて拡大する。例えば、画像処理装置2は、プリンタ装置10に対して画像データを出力する場合には、600dpi又は2400dpiなどの解像度に変換し、UI装置26に対して画像データを出力する場合には、75dpiなどの解像度に変換する。
[Hardware configuration]
First, the hardware configuration of the
FIG. 1 is a diagram illustrating a hardware configuration of an
As illustrated in FIG. 1, the
The
[画像拡大プログラム]
図2は、制御装置20(図1)により実行され、本発明にかかる画像処理方法を実現する画像拡大プログラム5の機能構成を例示する図である。
図2に例示するように、画像拡大プログラム5は、拡大処理部500、画像データ格納部570、多値変換部580、及び二値変換部590を有する。また、拡大処理部500は、画像ブロック設定部510、画像ブロック特徴抽出部520、画素値変換部530、拡大画像ブロック生成部540、単純拡大画像生成部550、及び画像ブロック配置部560を有し、この画素値変換部530は、平滑化部532及び強調部534を含む。
なお、画像拡大プログラム5の全部又は一部をASICなどのハードウェアで実現してもよい。
[Image enlargement program]
FIG. 2 is a diagram illustrating a functional configuration of the
As illustrated in FIG. 2, the
Note that all or part of the
画像データ格納部570は、メモリ204(図1)又は記録装置24(図1)を制御して、画像データが拡大処理部500で拡大処理されるまで一時的に記憶する機能、及び、解像度変換または拡大処理された拡大画像データが出力装置(不図示)に出力されるまで一時的に記憶する機能などを実現する。なお、画像データは、画像処理装置2で処理可能な画像フォーマット(例えば、BMP、TIFF、PNGなど)で記述されたデータであり、FAX(不図示)又はスキャナ(不図示)などによって取り込まれた画像データ、又は、パーソナルコンピュータ(画像処理装置2など)において作成又は編集等を処理するアプリケーションプログラムで作成された画像データ等である。拡大画像データ(拡大された後の画像データ)も、同様の画像フォーマットのデータである。
The image data storage unit 570 controls the memory 204 (FIG. 1) or the recording device 24 (FIG. 1), temporarily stores the image data until it is enlarged by the
多値変換部580は、二値で表現された画像データを、多値で表現された画像データに変換し、拡大処理部500に出力する。例えば、多値変換部580は、入力された二値画像データが0又は1の1ビットで表現されている場合に、0又は255の8ビット表現に変換する。
なお、入力された2値画像データが予め8ビット表現の状態で画像データ格納部570に格納されている場合には、他と変換部580は、この画像データ(8ビット表現)をそのまま拡大処理部500に出力する。
The
If the input binary image data is stored in the image data storage unit 570 in an 8-bit representation in advance, the
二値変換部590は、拡大処理部500から出力された多値の拡大画像データを二値化処理して画像データ格納部570に出力する。二値変換部590は、例えば、閾値処理によって二値化処理を行う。本例の二値変換部590は、閾値tを予めt=128とし、拡大画像データの画素値がt未満である場合に、0を出力し、画素値がt以上である場合に、1を出力する。なお、閾値tは、前述のように予め設定してもよいし、例えば入力画像データの濃度分布などから動的に設定してもよい。
The
拡大処理部500は、画像ブロック設定部510、画像ブロック特徴抽出部520、画素値変換部530、拡大画像ブロック生成部540(拡大画像領域生成手段)、単純拡大画像生成部550(拡大画像生成手段)、及び画像ブロック配置部560(画像統合手段)を含んで構成されており、多値変換部580から、拡大処理の対象となる画像データを取得し、拡大処理によって生成された拡大画像データを二値変換部590に出力する。
The
画像ブロック設定部510は、画像ブロック特徴抽出部520及び拡大画像ブロック生成部540における処理で必要とされる所定のブロックサイズをそれぞれ設定し、多値変換部580から入力された入力画像データ(多値表現)から注目画素を含むそれぞれのブロックサイズの画像ブロックを順次切り出し、画像ブロック特徴抽出部520に出力する。
The image
画像ブロック特徴抽出部520は、画像ブロック設定部510から順次入力される画像ブロックの少なくとも一部(例えば中心部近傍の矩形部分)を注目領域とし、注目領域における画像特徴量を、注目領域あるいは注目領域の周辺部を含む画像ブロックを参照して抽出あるいは算出する。抽出あるいは算出される画像特徴量は、例えば、エッジパターン、エッジ方向、画像ブロック内の白(又は黒)画素の画素数、あるいは、画像ブロック内の白(又は黒)画素の比率などである。
また、画像ブロック特徴抽出部520は、さらに、抽出あるいは算出した画像特徴量に基づいて、注目領域の切り分けを行う。ここで、注目領域の切り分けとは、例えば、注目領域がエッジを含む領域(以下、エッジ領域)と、白(又は黒)のみの領域(以下、平坦領域)とを切り分けることである。
The image block
Further, the image block
画素値変換部530は、画像ブロック特徴抽出部520による注目領域の切り分けの結果に基づいてエッジ領域であると判断された注目領域と、その周辺部を含む画像ブロック内の画素値を変換する。画素値変換部530により変換された画像ブロック内の画素値は、後述する拡大画像ブロック生成部540における拡大画像ブロック生成に用いられる。
より具体的には、画素値変換部530は、平滑化部532及び強調部534を含み、この平滑化部532は、画像ブロック特徴抽出部520により算出された注目領域におけるエッジ方向に基づいて、画像ブロック内の画素値を平滑化する。また、強調部534は、平滑化部532によりエッジ方向に基づいて平滑化された画像ブロック内の画素値のコントラストを強調する。
The pixel
More specifically, the pixel
拡大画像ブロック生成部540は、画像ブロック特徴抽出部520により抽出あるいは算出された画像特徴量に応じて、エッジ領域と判断された注目領域に対応する拡大画像ブロックを生成する。拡大画像ブロック生成部540における拡大画像ブロック生成処理は、後に詳述するが、注目領域に対してジャギーの発生を抑えた、より画質を優先した処理が行われる。
The enlarged image
単純拡大画像生成部550は、画像データ格納部570に格納され、多値変換部580により多値化された入力画像データを拡大し、この拡大画像を画像ブロック配置分560に出力する。単純拡大画像生成部550における拡大処理は、拡大画像ブロック生成部540における拡大処理とは異なり、拡大画像ブロック生成部540による拡大処理よりも処理負荷の小さい拡大処理、例えば最近傍補間拡大などを行う。さらに、単純拡大画像生成部550による拡大処理は、画像ブロック毎の処理ではなく、入力画像単位あるいは入力画像数ライン単位で処理することが可能である。
The simple enlarged
画像ブロック配置部560は、画像ブロック特徴抽出部520により抽出あるいは算出された画像特徴量に応じて、拡大画像ブロック生成部540により生成された拡大画像ブロック、または、単純拡大画像生成部550により拡大された画像データを適用して、拡大画像データを生成する。より具体的には、画像ブロック配置部560は、画像ブロック特徴抽出部520により抽出あるいは算出された画像特徴量に基づいて、エッジ領域と判断された注目領域に対し、拡大画像ブロック生成部540により生成された拡大画像ブロックを、単純拡大画像生成部550から出力された拡大画像上の対応する位置に順次配置して、解像度変換あるいは拡大された拡大画像データを生成し、生成された拡大画像データを二値変換部590に出力する。
画像ブロック配置部560は、拡大画像ブロックを単純拡大画像生成部550から出力された拡大画像上の対応する位置に順次配置する場合に、拡大画像ブロックの各画素値で置き換えるように配置してもよいし、または単純拡大画像生成部550から出力された拡大画像の対応する位置の各画素値と重畳するように配置してもよい。なお、画像ブロック配置分560は、隣接する複数の拡大画像ブロックを互いにオーバーラップするように配置し、オーバーラップする画素の総和を計算し、画素値の総和をオーバーラップした数で割ることにより各画素の画素値を算出する。
The image
The image
次に、画像ブロック特徴抽出部520、画素値変換部530、及び、拡大画像ブロック生成部540について、より詳しく説明する。
まず、画像ブロック特徴抽出部520の詳細について説明する。なお、注目領域が2×2画素サイズブロック(互いに直交する方向が2画素である正方領域)であり、注目領域を含む周辺領域が4×4画素サイズブロック(互いに直交する方向が4画素である正方領域)である場合を具体例として説明する。
Next, the image block
First, details of the image block
図3は、本実施例における画像ブロック特徴抽出部520の機能構成を示すブロック図である。
図3に示すように、画像ブロック特徴抽出部520は、エッジパターン選択部522と、エッジ方向推定部524とを含む。
エッジパターン選択部522は、注目領域である2×2画像ブロックのエッジパターンを選択し、選択されたエッジパターンに基づき、注目領域がエッジ領域であるか、白(または黒)のみの平坦領域であるかを判断する。
また、エッジパターン選択部522は、注目領域がエッジ領域である場合に、そのエッジパターンに相当するエッジ角度を注目領域の初期エッジ角度として決定する。
FIG. 3 is a block diagram illustrating a functional configuration of the image block
As shown in FIG. 3, the image block
The edge
In addition, when the attention area is an edge area, the edge
図4は、2×2画像ブロックにおけるパターンとそのエッジ角度を例示する図である。
図4に例示するように、各エッジパターンには、それぞれ相当するエッジ角度が設定されており、エッジパターン選択部522は、注目領域がどのエッジパターンであるかによって初期エッジ角度を決定する。
また注目領域が平坦パターンである場合には、この注目領域は平坦領域として切り分けられる。
ただし、注目領域が図4の太枠で示されたエッジパターン(市松エッジパターン)である場合、注目領域のエッジパターンのみでは一意にその初期角度を決定できない。つまり初期エッジ角度を45°とするのか135°とするのかを決定できない。その理由は、図4に例示した太枠内の上方の市松エッジパターンaを例にとると、二値画像では、注目領域がこの市松エッジパターンaであったときには、45°方向に黒画素が続いている領域の一部分である場合と、135°方向に白画素が続いている領域の一部分である場合とのどちらの場合も考えられ、2×2画像ブロックの注目領域単体のみでは判断できないからである。
FIG. 4 is a diagram illustrating patterns and edge angles in a 2 × 2 image block.
As illustrated in FIG. 4, corresponding edge angles are set for the respective edge patterns, and the edge
When the attention area is a flat pattern, the attention area is cut as a flat area.
However, when the attention area is an edge pattern (checkered edge pattern) indicated by a thick frame in FIG. 4, the initial angle cannot be uniquely determined only by the edge pattern of the attention area. That is, it cannot be determined whether the initial edge angle is 45 ° or 135 °. The reason for this is that taking the upper checkered edge pattern a in the thick frame illustrated in FIG. 4 as an example, in a binary image, when the region of interest is this checkered edge pattern a, black pixels appear in the 45 ° direction. Both the case of a part of the continuing area and the case of a part of the area where white pixels continue in the 135 ° direction are conceivable, and it cannot be determined only by the attention area alone of the 2 × 2 image block. It is.
そこで、本実施例におけるエッジパターン選択部522は、図5に示すように、注目領域(図5中の市松エッジパターン領域)の一部を含む、ラスタスキャン順における一つ手前の2×2画像ブロック領域(図5において太枠で囲まれた領域)のエッジパターンに基づいて、市松エッジパターンである注目領域の初期エッジ角度を決定する。
図6は、市松エッジパターンと一つ手前(スキャン方向の上流側)の2×2画像ブロック領域のエッジパターンとの考えられる全ての組み合わせと、その組み合わせによって決定される初期エッジ角度の1例を示した図である。
図6に示したように、注目領域が市松エッジパターンである場合に、エッジパターン選択部522は、一つ手前の画像ブロックのエッジパターンを参照して、45°又は135°のどちらの角度を初期エッジ角度とするのかを決定する。
なお、本例では、市松エッジパターンと一つ手前の画像ブロックのエッジパターンとの2つのブロックの組み合わせにより初期エッジ角度を決定したが、これに限定されるわけではない。例えば、エッジパターン選択部522は、注目領域のエッジパターンと、一つ先の画像ブロックのエッジパターンとの組み合わせで初期エッジ角度を決定してもよいし、また1つ手前と一つ先との3ブロックのエッジパターンの組み合わせなどで、市松エッジパターンにおける初期エッジ角度を決定してもよく、市松エッジパターンの初期エッジ角度決定のために組み合わせる画像ブロックの数や位置は要求される処理速度や画質に応じて可変である。
Therefore, the edge
FIG. 6 shows an example of all possible combinations of the checkered edge pattern and the edge pattern of the previous 2 × 2 image block area (upstream in the scanning direction) and an initial edge angle determined by the combination. FIG.
As shown in FIG. 6, when the region of interest is a checkered edge pattern, the edge
In this example, the initial edge angle is determined based on the combination of the two blocks of the checkered edge pattern and the edge pattern of the previous image block. However, the present invention is not limited to this. For example, the edge
また、エッジパターン選択部522は、ある特定パターンを抽出し、抽出された特定パターンを既定のパターンに強制的に補正するため、関連する画像ブロックの初期エッジ角度およびエッジパターンを補正する。
図7は、特定パターンの抽出の一例として、補正される特定パターンを含む画像の一部分を例示する。
図7に例示するように、図中の点線で囲まれた画像の凹凸パターンは、1画素だけ飛び出した(あるいは凹んだ)パターンで、例えば原稿をFAXやスキャナなどで電子文書として取り込む場合に解像度などに起因して生じるパターンであり、本来の画像を構成する意味のある特徴パターンではない。このような凹凸パターンは、拡大処理後のジャギーの原因となり画質に大きく影響する。
Further, the edge
FIG. 7 illustrates a part of an image including a specific pattern to be corrected as an example of extraction of the specific pattern.
As illustrated in FIG. 7, the uneven pattern of the image surrounded by the dotted line in the figure is a pattern that protrudes (or is recessed) by one pixel. For example, the resolution is obtained when a document is captured as an electronic document by a FAX or a scanner. This is a pattern generated due to the above, and is not a meaningful feature pattern constituting an original image. Such a concavo-convex pattern causes jaggies after enlarging processing and greatly affects image quality.
図8は、凹凸パターン(1画素だけ飛び出した、あるいは凹んだもの)の抽出および補正を具体的に例示する図である。なお、本図において、太枠で囲まれた領域が注目領域である。
図8(A)に示すように、太枠の注目領域(図8(A)に示された第4の領域)とその一部分を含む複数の周辺領域(図8(A)に示された第1〜3の領域)のエッジパターンは、黒画素を1、白画素を0としてビットパターン化されると、第1の領域は「1110」、第2の領域は「1000」、第3の領域は「1011」、第4の領域(すなわち注目領域)は「0010」となる。したがって、エッジパターン選択部522は、図8(A)で示すように、第1〜4の各領域のエッジパターン列が「1110」、「1000」、「1011」、「0010」であると判断した場合に、凹凸パターン(本例では、右に突出した凸のパターン)が存在すると判断し、この凹凸パターンを抽出する。
FIG. 8 is a diagram specifically illustrating the extraction and correction of the concave / convex pattern (projecting or recessed by one pixel). In this figure, a region surrounded by a thick frame is a region of interest.
As shown in FIG. 8 (A), a thick frame region of interest (fourth region shown in FIG. 8 (A)) and a plurality of peripheral regions including a part thereof (the first region shown in FIG. 8 (A)). 1 to 3), the first area is “1110”, the second area is “1000”, and the third area is a bit pattern. Is “1011”, and the fourth area (ie, the attention area) is “0010”. Accordingly, as shown in FIG. 8A, the edge
エッジパターン選択部522は、前述のように抽出された凹凸パターン(本例では、右に凸のパターン)を補正するため、第1〜4の各領域のエッジパターンおよび初期エッジ角度を図8(B)で示すように変更する。つまり、エッジパターン選択部522は、第1の領域を、エッジパターン「1010」かつ初期エッジ角度0°に変更し、第2の領域を、平坦パターン(ビットパターン「0000」)に変更し、第3の領域を、エッジパターン「1010」かつ初期エッジ角度0°に変更し、第4の領域(注目領域)を平坦パターン「0000」に変更する。
このように、エッジパターン選択部522は、注目領域および周辺領域のエッジパターンおよび初期エッジ角度を変更することにより、凹凸パターン(本例では、右に凸パターン)を補正することが可能となる。
The edge
As described above, the edge
図9は、図8に示した例とは異なる場合の凹凸パターン補正の具体例を示した図である。このように1画素だけ突出した、あるいは凹んだ凹凸パターンを補正することにより、図7に例示した画像は、図10で示すように凹凸パターンが補正される。なお、本実施例では上述のように凹凸パターンの抽出および補正に限定して説明を行ったが、これに限ったものではなく、入力画像データの種類、要求される画質、又は処理速度に応じて、凹凸パターンとは異なる特定パターン(例えば、1画素だけ孤立した孤立点パターンなど)の抽出および補正を行ってもよい。 FIG. 9 is a diagram showing a specific example of the uneven pattern correction in a case different from the example shown in FIG. By correcting the uneven pattern that protrudes or is recessed by one pixel in this way, the uneven pattern is corrected in the image illustrated in FIG. 7 as shown in FIG. In the present embodiment, as described above, the description is limited to the extraction and correction of the concavo-convex pattern. However, the present invention is not limited to this, and depends on the type of input image data, the required image quality, or the processing speed. Thus, extraction and correction of a specific pattern different from the concave / convex pattern (for example, an isolated point pattern isolated by one pixel) may be performed.
次に、エッジ方向推定部524の処理の詳細を説明する。
図11は、注目領域および周辺領域の具体例と注目領域のエッジ方向の一例の説明図である。図11(A)は、注目領域(図11中の太枠内領域)および周辺領域の一例を示している。図11に示す例を用いて、エッジ方向推定部524によるエッジ方向推定処理の流れについて説明する。
図12は、エッジ方向推定部22によるエッジ方向推定処理(S10)の一例を示すフローチャート図である。
Next, details of the processing of the edge
FIG. 11 is an explanatory diagram of a specific example of the attention area and the peripheral area and an example of the edge direction of the attention area. FIG. 11A shows an example of the attention area (the area within the thick frame in FIG. 11) and the peripheral area. The flow of edge direction estimation processing by the edge
FIG. 12 is a flowchart illustrating an example of edge direction estimation processing (S10) by the edge
ステップ110(S110)において、エッジ方向推定部524は、注目領域および参照領域のエッジ角度の総和を表す変数(エッジ角度総和)に、すでにエッジパターン選択部522により設定されている注目領域の初期エッジ角度を代入する。
また、エッジ方向推定部524は、エッジ角度の参照数をカウントするための変数としての角度参照数を「1」に初期化しておく。
In step 110 (S110), the edge
The edge
ステップ120(S120)において、エッジ方向推定部524は、エッジパターン選択部522により設定された注目領域の初期エッジ角度に応じて、図11(A)に示した周辺領域(太線枠外の領域)中からエッジ方向の推定に用いる参照領域を選択する。
図13は、エッジ方向の推定に用いる参照領域を例示する図である。図中の太線枠で示した2×2画素が参照領域である。図13(A)は、エッジパターン選択部522により設定された初期エッジ角度が「角度0°」である場合の参照領域を例示し、図13(B)は、初期エッジ角度が「角度90°」である場合の参照領域を例示し、図13(C)は、初期エッジ角度が「角度0°又は90°」以外の角度である場合の参照領域を例示している。なお、図13(A)及び(B)に示す角度0°及び角度90°の場合の参照領域の数は2であり、図13(C)に示す角度0°、90°以外の角度の場合の参照領域の数は4である。
図11に示した具体例では、注目領域の初期エッジ角度は「角度45°」であるため、図14(C)に例示した4つの参照領域が選択の候補となる。なお、参照領域の選択は、図13に示したものに限定されるわけではなく、例えば図13(C)の場合などは、参照領域数を8としたり、それぞれの角度に応じた参照領域を設定してもよい。
In step 120 (S120), the edge
FIG. 13 is a diagram illustrating a reference region used for estimating the edge direction. A 2 × 2 pixel indicated by a bold frame in the drawing is a reference area. FIG. 13A illustrates a reference region when the initial edge angle set by the edge
In the specific example shown in FIG. 11, since the initial edge angle of the attention area is “angle 45 °”, the four reference areas illustrated in FIG. 14C are candidates for selection. The selection of the reference area is not limited to that shown in FIG. 13. For example, in the case of FIG. 13C, the number of reference areas is set to 8, or the reference area corresponding to each angle is selected. It may be set.
ステップ130(S130)において、エッジ方向推定部524は、S120において選択された参照領域の1つに対して、エッジ方向推定に適したエッジパターンであるか否かを判断する。例えば、エッジ方向推定部524は、図11(A)に例示した注目領域に対して、参照領域として右隣の参照領域を例にとると、図14(B)に示すように3種類のエッジパターンを候補とする。そして、エッジ方向推定部524は、S130において、図14(C)に示すように注目領域における初期エッジ角度(この例においては45°)と大きく異なる第3のエッジパターン(初期エッジ角度135°)を、図14(A)に示す注目領域のエッジ方向推定に適さないエッジパターンであると判断する。
図11に示した具体例の場合では、注目領域に対する右隣の参照領域のエッジパターンは、図14(B)で示した第1のエッジパターンであるので、エッジ方向推定部524は、エッジ方向推定に適するエッジパターンであると判断する。
エッジ方向推定部524は、この判断の結果、本注目領域におけるエッジ方向推定に適した参照領域である場合には、S140の処理に移行し、これ以外である場合には、S150の処理に移行する。
In step 130 (S130), the edge
In the case of the specific example shown in FIG. 11, the edge pattern of the reference area on the right side with respect to the attention area is the first edge pattern shown in FIG. It is determined that the edge pattern is suitable for estimation.
As a result of this determination, the edge
ステップ140(S140)において、エッジ方向推定部524は、エッジ角度総和に参照領域の初期エッジ角度を加え、角度参照数をインクリメントする。
In step 140 (S140), the edge
ステップ150(S150)において、エッジ方向推定部524は、全ての選択可能な参照領域の処理が終了したか否かを判断し、終了したと判断した場合に、S160の処理に移行し、終了していないと判断した場合に、S130の処理に戻って、次の参照領域について処理を行う。
In step 150 (S150), the edge
ステップ160(S160)において、エッジ方向推定部524は、注目領域の初期エッジ角度と、S130においてエッジ方向推定に適したと判断された参照領域の初期エッジ角度との総和(エッジ角度総和)を角度参照数で割った平均エッジ角度を注目領域の推定エッジ角度として、処理を終了する。
In step 160 (S160), the edge
図11に示した具体例では、図11(B)に示すように、上部の参照領域の初期エッジ角度0°、左部の参照領域の初期エッジ角度0°、下部の参照領域の初期エッジ角度45°、右部の参照領域の初期エッジ角度45°となり、注目領域の初期エッジ角度45°との総和は135°になる。エッジ方向推定部524は、この総和135°を角度参照数5で割ることによって平均エッジ角度27°を求める。この平均エッジ角度が、図11に示した注目領域に対する推定エッジ角度となる。
さらに、エッジ方向推定部524は、求められた注目領域に対する推定エッジ角度Θを、22.5°ごとに区分された方向(8方向)の角度範囲(方向0〜7)に分類する。本例の場合、0°あるいは±180°を中心とした角度範囲を「方向0」、22.5°あるいは−157.5°を中心とした角度範囲を「方向1」、45°あるいは−135°を中心とした角度範囲を「方向2」、67.5°あるいは−112.5°を中心とした角度範囲を「方向3」、90°あるいは−90°を中心とした角度範囲を「方向4」、112.5°あるいは−67.5°を中心とした角度範囲を「方向5」、135°あるいは−45°を中心とした角度範囲を「方向6」、157.5°あるいは−22.5°を中心とした角度範囲を「方向7」とし、エッジ方向推定部524は、推定エッジ角度Θをいずれかの角度範囲(上記各中心角度から±11.25°の範囲)に分類する。上述の図11の具体例における推定エッジ角度Θ(=27°)は22.5°±11.25°の範囲内に含まれるので、エッジ方向推定部524は、図11に示した注目領域に対する最終的な推定エッジ方向を「方向1」であると判定する(図11(B)の矢印線分方向)。
なお、本例では推定エッジ角度Θを計算した後に8方向のいずれかに正規化(分類)したが、これに限定されるわけではなく、さらに精度の高いエッジ方向が必要であれば12方向(15.0°ごと)、16方向(12.25°ごと)など、さらに多数の方向に正規化してもよい。
In the specific example shown in FIG. 11, as shown in FIG. 11B, the initial edge angle of the upper reference area is 0 °, the initial edge angle of the left reference area is 0 °, and the initial edge angle of the lower reference area. 45 °, the initial edge angle of the right reference region is 45 °, and the sum of the initial edge angle of the attention region of 45 ° is 135 °. The edge
Further, the edge
In this example, the estimated edge angle Θ is calculated and then normalized (classified) in any of the eight directions. However, the present invention is not limited to this. If a more accurate edge direction is required, twelve directions ( You may normalize in more directions, such as 1 direction (every 15.0 degrees) and 16 directions (every 12.25 degrees).
次に、画素値変換部530について説明する。
画素値変換部530は、図2に例示するように、平滑化部532と強調部534とで構成される。
平滑化部532は、画像ブロック特徴抽出部520によって推定された注目領域の推定エッジ方向に応じた画素値平滑化処理を、注目領域と注目領域を含む周辺領域内の画素に対して施す。
図15は、推定エッジ方向に対応する平滑化カーネルを例示する図である。なお、図中に示された平滑化カーネル内の数字は、画素値に乗ずる重み付けの係数である。
例えば注目領域の推定エッジ方向が「方向3」である場合に、平滑化部532は、この「方向3」に応じて、図15中の第3の平滑化カーネルを用いて平滑化処理を行う。この場合、平滑化部532は、図16に示すように、例えば中心の画素Pの平滑化処理を行う場合には、画素a及び画素bを用いて、平滑化画素値P'を次の式(1)に従って計算する。
Next, the pixel
As illustrated in FIG. 2, the pixel
The smoothing
FIG. 15 is a diagram illustrating a smoothing kernel corresponding to the estimated edge direction. It should be noted that the numbers in the smoothing kernel shown in the figure are weighting coefficients by which the pixel values are multiplied.
For example, when the estimated edge direction of the attention area is “
注目画素値P'=(2.0×P+1.0×(a+b))/4.0・・・(1) Pixel value of interest P ′ = (2.0 × P + 1.0 × (a + b)) / 4.0 (1)
なお、平滑化部532により用いられる平滑化カーネルは、図15に示したものに限定されるわけではなく、入力画像データの種類、又は、要求される平滑化の程度などにより異なるものであってもよい。
Note that the smoothing kernel used by the smoothing
強調部534は、平滑化部532によって平滑化処理(注目領域の推定エッジ方向に対応する平滑化カーネルを用いた平滑化処理)がなされた注目領域とこれを含む周辺領域内の画素に対して、コントラスト強調処理を施す。
図17は、強調部534により適用される強調カーネルの具体例を表す図である。
図17に示す「1.60」の値は、図17(A)に示す強調カーネルの中心の画素値に対応する重み係数を表し、「0.15」の値は、中心画素の上下左右に配置された画素値に対応する重み係数を表している。
また、図17(B)は、図17(A)に示す強調カーネルで画素Pを強調する場合の説明図である。図17(B)に示すように、強調部534は、例えば、中心の参照画素Pの強調処理を行う場合に、その上下左右に存在する画素a、b、c、dを参照し、また重みとして中心の注目画素については「1.60」を、周辺の参照画素に対しては「0.15」をそれぞれ用いる。このように、強調部534は、画素Pの画素値P'を次の式(2)に従って計算する。
The emphasizing
FIG. 17 is a diagram illustrating a specific example of the enhancement kernel applied by the
The value of “1.60” shown in FIG. 17 represents a weighting factor corresponding to the pixel value at the center of the enhancement kernel shown in FIG. 17A, and the value of “0.15” is above, below, left, and right of the center pixel. The weighting coefficient corresponding to the arranged pixel value is represented.
FIG. 17B is an explanatory diagram when the pixel P is emphasized by the enhancement kernel shown in FIG. As shown in FIG. 17B, the
注目画素値P'=1.60×P‐0.15×(a+b+c+d)・・・(2) Pixel value of interest P ′ = 1.60 × P−0.15 × (a + b + c + d) (2)
上記のように、平滑化部532および強調部534の処理を経て、画素値変換部530は、後述する拡大画像ブロック生成部540で用いるため、注目領域とその周辺領域の画素値を変換する。
As described above, through the processing of the smoothing
次に、拡大画像ブロック生成部540について詳細に説明する。
拡大画像ブロック生成部540は、画像ブロック特徴抽出部520により得られた注目領域に対するエッジパターンおよび推定エッジ方向と、画素値変換部530により変換された注目領域とその周辺領域との画素値を用いて、注目領域に対する拡大画像ブロックを生成する。
Next, the enlarged image
The enlarged image
図18は、拡大画像ブロック生成部540による拡大画像ブロックの生成処理を説明する図である。
まず、拡大画像ブロック生成部540は、注目領域のエッジパターンおよび推定エッジ方向に基づき、画素値変換部530により変換された画素値を用いて3×3画像ブロックに相当する画素値を算出する。
図18(A)には、図11(A)に例示した注目領域及び周辺領域が示されている。この注目領域に関しては、上記のように画像ブロック特徴抽出部520によって、エッジパターン「1110」、及び、推定エッジ方向「方向1」が求められている。
拡大画像ブロック生成部540は、特徴量の組合せが(エッジパターン1110)及び(推定エッジ方向「方向1」)である場合、図18(B)に示すように、3×3画像ブロックに相当するそれぞれの画素をp0〜p8とすると、図18(A)に示した注目領域の画素値{a,b,c,d}をもとに、p0〜p8の画素値を次の式によって計算する。
FIG. 18 is a diagram for explaining enlarged image block generation processing by the enlarged image
First, the enlarged image
FIG. 18A shows the attention area and the peripheral area exemplified in FIG. As for the region of interest, the edge pattern “1110” and the estimated edge direction “
When the combination of feature amounts is (edge pattern 1110) and (estimated edge direction “
p0=a
p1=(a+b)/2
p2=b
p3=(a+c)/2
p4=(b+c)/2
p5=d
p6=c
p7=(p4+b)/2
p8=d
p0 = a
p1 = (a + b) / 2
p2 = b
p3 = (a + c) / 2
p4 = (b + c) / 2
p5 = d
p6 = c
p7 = (p4 + b) / 2
p8 = d
拡大画像ブロック生成部540は、これらの計算式を、(エッジパターン)と(推定エッジ方向)との組合せ(特徴量の組合せ)に基づいて一意に決定し、決定した計算式を用いて3×3画像ブロック相当の画素値を計算する。
The enlarged image
図19は、特徴量の他の組合せ(エッジパターンと推定エッジ方向との組合せ)に対応する計算式を例示する図である。
図19(A)は、エッジパターン「1000」と推定エッジ方向「方向1」との組合せに対応する計算式を例示する。
p0=a
p2=b
p3=a
p4=(b+c)/2
p5=(b+d)/2
p6=c
p7=(c+d)/2
p8=d
p1=(p4+c)/2
拡大画像ブロック生成部540は、特徴量の組合せがエッジパターン「1000」及び推定エッジ方向「方向1」である場合に、上記の計算式を用いて3×3画像ブロック相当の画素値を計算する。
FIG. 19 is a diagram illustrating calculation formulas corresponding to other combinations of feature quantities (combination of edge patterns and estimated edge directions).
FIG. 19A illustrates a calculation formula corresponding to the combination of the edge pattern “1000” and the estimated edge direction “
p0 = a
p2 = b
p3 = a
p4 = (b + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
p1 = (p4 + c) / 2
The enlarged image
図19(B)は、エッジパターン「1100」と推定エッジ方向「方向5」との組合せに対応する計算式を例示する。
p0=a
p1=(a+b)/2
p2=b
p4=(a+d)/2
p6=c
p7=(c+d)/2
p8=d
p3=(p4+c)/2
p5=(p4+b)/2
拡大画像ブロック生成部540は、特徴量の組合せがエッジパターン「1100」及び推定エッジ方向「方向5」である場合に、上記の計算式を用いて3×3画像ブロック相当の画素値を計算する。
FIG. 19B illustrates a calculation formula corresponding to the combination of the edge pattern “1100” and the estimated edge direction “
p0 = a
p1 = (a + b) / 2
p2 = b
p4 = (a + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
p3 = (p4 + c) / 2
p5 = (p4 + b) / 2
The enlarged image
図19(C)は、エッジパターン「1100」と推定エッジ方向「方向2」との組合せに対応する計算式を例示する。
p0=a
p1=a
p2=b
p3=a
p4=(b+c)/2
p5=(b+d)/2
p6=c
p7=(c+d)/2
p8=d
拡大画像ブロック生成部540は、特徴量の組合せがエッジパターン「1100」及び推定エッジ方向「方向2」である場合に、上記の計算式を用いて3×3画像ブロック相当の画素値を計算する。
FIG. 19C illustrates a calculation formula corresponding to the combination of the edge pattern “1100” and the estimated edge direction “
p0 = a
p1 = a
p2 = b
p3 = a
p4 = (b + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
When the combination of feature amounts is the edge pattern “1100” and the estimated edge direction “
図19(D)は、エッジパターン「0101」と推定エッジ方向「方向7」との組合せに対応する計算式を例示する。
p0=a
p2=b
p3=(a+c)/2
p4=(a+d)/2
p5=(b+d)/2
p6=c
p8=d
p1=(p4+b)/2
p7=(p4+c)/2
拡大画像ブロック生成部540は、特徴量の組合せがエッジパターン「0101」及び推定エッジ方向「方向7」である場合に、上記の計算式を用いて3×3画像ブロック相当の画素値を計算する。
FIG. 19D illustrates a calculation formula corresponding to the combination of the edge pattern “0101” and the estimated edge direction “
p0 = a
p2 = b
p3 = (a + c) / 2
p4 = (a + d) / 2
p5 = (b + d) / 2
p6 = c
p8 = d
p1 = (p4 + b) / 2
p7 = (p4 + c) / 2
The enlarged image
なお、他の組合せ(エッジパターン及び推定エッジ方向)の場合にも、拡大画像ブロック生成部540は、同様にそれぞれのエッジパターン及び推定エッジ方向に対応した計算式に従って計算を行うことにより、3×3画像ブロック相当の画素値を計算する。
In the case of other combinations (edge pattern and estimated edge direction), the enlarged image
次に、拡大画像ブロック生成部540は、上記のように計算された3×3画像ブロック相当の画素値と、注目領域の推定エッジ方向に基づいて選択された周辺領域内の複数の参照画素とを用いて、4×4画像ブロックを生成する。
Next, the enlarged image
図20は、推定エッジ方向に基づく参照画素r0〜r13の選択方法を説明する図である。
拡大画像ブロック生成部540は、注目領域の推定エッジ方向が方向1(22.5°)から方向3(67.5°)である場合に、図20(A)に太線枠で囲んだように、参照画素r0〜r5を左上から下へ3画素と右下から上へ3画素となるように選択する。
また、拡大画像ブロック生成部540は、注目領域の推定エッジ方向が方向5(112.5°)から方向7(157.5°)である場合に、図20(B)に太線枠で示したように、参照画素r0〜r5を左下から上へ3画素と右上から下へ3画素となるように選択する。
また、拡大画像ブロック生成部540は、参照画素r6〜r13として、推定エッジ方向に拠らず、図20(A)(B)に示すように、上下それぞれ4画素を選択する。
このように、拡大画像ブロック生成部540は、注目領域における推定エッジ方向に基づいて、参照画素を選択する。なお、参照画素の選択は図20に例示する2パターンからの選択に限定されるわけではなく、推定エッジ方向に従い、より多くの参照画素選択パターンを用意してもよい。また、選択する参照画素についても、推定エッジ方向によって変更してもよい。
FIG. 20 is a diagram illustrating a method of selecting reference pixels r0 to r13 based on the estimated edge direction.
When the estimated edge direction of the attention area is from direction 1 (22.5 °) to direction 3 (67.5 °), the enlarged image
The enlarged image
In addition, the enlarged image
As described above, the enlarged image
図21は、4×4画素の拡大画像ブロックの生成処理を説明する図である。
図21に示すように、拡大画像ブロック生成部540は、計算された3×3画像ブロック相当の画素値p0〜p8と、注目領域における推定エッジ方向に基づいて選択された参照画素r0〜r13とを用いて、以下のような計算式に従って4×4画素の拡大画像ブロックに相当する画素値(s0〜s15)を計算し、4x4拡大画像ブロックを生成する。
FIG. 21 is a diagram illustrating a process of generating a 4 × 4 pixel enlarged image block.
As illustrated in FIG. 21, the enlarged image
s0=0.2×r6+0.16×r0+0.64×p0
s1=0.2×r7+0.32×p0+0.48×p1
s2=0.2×r8+0.48×p1+0.32×p2
s3=0.2×r9+0.64×p2+0.16×r1
s4=0.08×r0+0.32×p0+0.12×r2+0.48×p3
s5=0.16×p0+0.24×p1+0.24×p3+0.36×p4
s6=0.24×p1+0.16×p2+0.36×p4+0.24×p5
s7=0.32×p2+0.08×r1+0.48×p5+0.12×r3
s8=0.12×r2+0.48×p3+0.08×r4+0.32×p6
s9=0.24×p3+0.36×p4+0.16×p6+0.24×p7
s10=0.36×p4+0.24×p5+0.24×p7+0.16×p8
s11=0.48×p5+0.12×r3+0.32×p8+0.08×r5
s12=0.16×r4+0.64×p6+0.2×r10
s13=0.32×p6+0.48×p7+0.2×r11
s14=0.48×p7+0.32×p8+0.2×r12
s15=0.64×p8+0.16×r5+0.2×r13
s0 = 0.2 × r6 + 0.16 × r0 + 0.64 × p0
s1 = 0.2 × r7 + 0.32 × p0 + 0.48 × p1
s2 = 0.2 × r8 + 0.48 × p1 + 0.32 × p2
s3 = 0.2 × r9 + 0.64 × p2 + 0.16 × r1
s4 = 0.08 * r0 + 0.32 * p0 + 0.12 * r2 + 0.48 * p3
s5 = 0.16 × p0 + 0.24 × p1 + 0.24 × p3 + 0.36 × p4
s6 = 0.24 × p1 + 0.16 × p2 + 0.36 × p4 + 0.24 × p5
s7 = 0.32 × p2 + 0.08 × r1 + 0.48 × p5 + 0.12 × r3
s8 = 0.12 * r2 + 0.48 * p3 + 0.08 * r4 + 0.32 * p6
s9 = 0.24 × p3 + 0.36 × p4 + 0.16 × p6 + 0.24 × p7
s10 = 0.36 × p4 + 0.24 × p5 + 0.24 × p7 + 0.16 × p8
s11 = 0.48 × p5 + 0.12 × r3 + 0.32 × p8 + 0.08 × r5
s12 = 0.16 × r4 + 0.64 × p6 + 0.2 × r10
s13 = 0.32 × p6 + 0.48 × p7 + 0.2 × r11
s14 = 0.48 × p7 + 0.32 × p8 + 0.2 × r12
s15 = 0.64 × p8 + 0.16 × r5 + 0.2 × r13
以上のように処理を行うことにより、画像ブロック特徴抽出部520によってエッジ領域であると判断された注目領域に対応する4×4画素の拡大画像ブロック(s0〜s15)が生成される。
By performing the processing as described above, 4 × 4 pixel enlarged image blocks (s0 to s15) corresponding to the attention area determined as the edge area by the image block
以上説明したように、拡大画像ブロック生成部540は、画像ブロック特徴抽出部540により抽出または算出された画像特徴量に従って、エッジ領域と判断された画像ブロックに対して上述したように拡大ブロック生成処理を行う。これにより、ジャギーを抑えた滑らかなエッジの拡大画像ブロックを生成することができる。
As described above, the enlarged image
次に、画像ブロック配置部560について説明する。
画像ブロック配置部560は、拡大画像ブロック生成部540により生成された注目領域に対応する拡大画像ブロックを、単純拡大画像生成部550から出力された拡大画像上の対応する位置に所定の方法により順次配置する。
Next, the image
The image
図22は、拡大画像ブロック生成部540により生成された4×4画素の拡大画像ブロックを、単純拡大画像生成部550から出力された拡大画像上に配置する具体例を説明する図である。
図22に示すように、拡大画像ブロック生成部540により順次生成された拡大画像ブロックbk0および拡大画像ブロックbk1は、単純拡大画像生成部550から出力された拡大画像上の対応する位置に順次配置される。このとき、画像ブロック配置部560は、拡大画像上の各画素値を拡大ブロックの各画素値(S0〜S15)で置き換えるように配置してもよいし、拡大画像上の各画素値と拡大ブロックの各画素値(S0〜S15)とを重畳するように配置してもよい。
また、拡大画像ブロック生成部540は、図22に示すように、拡大画像ブロック同士(図中の拡大画像ブロックbk0と拡大画像ブロックbk1)の拡大画像上の対応位置がオーバーラップする(重なり合う)場合は、各拡大画像ブロックのオーバーラップする画素の各々平均値を算出する。または、画像ブロック配置部560は、オーバーラップする画素の総和を計算し、この画素値の総和をオーバーラップした数で割ることにより各画素値を算出するようにしてもよい。なお、4×4画素の拡大画像ブロックは、画像ブロック特徴抽出部520によりエッジ領域と判断された注目領域に対して、拡大画像ブロック生成部540で生成されるため、入力画像データ中のエッジ部分で集中して生成される。このため、エッジ部分では、上述の拡大画像ブロック同士のオーバーラップは頻繁に発生する。このオーバーラップによる拡大画像ブロックの各画素値の平均化処理は、エッジをさらに滑らかにする効果があり、ジャギの発生を抑えることができる。
FIG. 22 is a diagram illustrating a specific example in which the 4 × 4 pixel enlarged image block generated by the enlarged image
As shown in FIG. 22, the enlarged image block bk0 and the enlarged image block bk1 sequentially generated by the enlarged image
In addition, as illustrated in FIG. 22, the enlarged image
次に、拡大処理部500の全体動作を説明する。
図23は、拡大処理部500による画像拡大処理(S20)を説明するフローチャートである。
ステップ210(S210)において、画像ブロック設定部510は、画像ブロック特徴抽出部520および拡大画像ブロック生成部540における処理で必要とされる所定の画像ブロックのサイズをそれぞれ設定し、設定されたブロックサイズの画像ブロックを順次(例えばラスタスキャン順に)切り出し、各ブロックサイズの画像ブロックを画像ブロック特徴抽出部520に出力する。
Next, the overall operation of the
FIG. 23 is a flowchart illustrating the image enlargement process (S20) by the
In step 210 (S210), the image
ステップ220(S220)において、画像ブロック特徴抽出部520は、入力された画像ブロック中の注目領域がエッジ領域であるのか平坦領域であるのかを判断する。
画像ブロック特徴抽出部520は、注目領域がエッジ領域である場合に、注目領域のエッジパターンと、エッジパターンに相当するエッジ角度を初期エッジ角度として設定し、ある特定エッジパターンの抽出および補正を行い、ジャギーを低減するような拡大画像ブロック生成処理を行うべく、S230の処理に移行する。
また、画像ブロック特徴抽出部520は、注目領域が平坦領域である場合に、S230〜S280の処理を行わず、S210の処理に戻って、次の画像ブロックの処理に移行する。
In step 220 (S220), the image block
When the attention area is an edge area, the image block
Further, when the attention area is a flat area, the image block
ステップ230(S230)において、画像ブロック特徴抽出部520は、エッジ領域と判断された注目領域およびその注目領域を含む1ないし複数の周辺領域中の参照領域の初期エッジ角度Θから注目領域のエッジ方向θを推定する。例えば、画像ブロック特徴抽出部520は、得られた複数のエッジ角度Θの平均値を算出し、この平均値をエッジ方向θとする。なお、エッジ方向は、エッジ角度の平均値に限られるものではない。
In step 230 (S230), the image block
ステップ240(S240)において、画素値変換部530(平滑化部532)は、画像ブロック特徴抽出部520により得られた推定エッジ方向θに応じた平滑化カーネルを用いて、注目領域およびその周辺領域内画素の平滑化処理を行う。
さらに、画素値変換部530(強調部534)は、平滑化処理が施された注目領域およびその周辺領域内画素に対して、コントラスト強調処理を施す。
In step 240 (S240), the pixel value conversion unit 530 (smoothing unit 532) uses the smoothing kernel corresponding to the estimated edge direction θ obtained by the image block
Further, the pixel value conversion unit 530 (enhancement unit 534) performs contrast enhancement processing on the attention area and the pixels in the surrounding area on which the smoothing process has been performed.
ステップ250(S250)において、拡大画像ブロック生成部540は、画像ブロック特徴抽出部520により得られた注目領域のエッジパターンおよびこの注目領域の推定エッジ方向θと、S240において画素値変換部530により画素値変換処理が施された注目領域および周辺領域内の画素値とを用いて、注目領域に対する拡大画像ブロックを生成する。
このように、S220においてエッジ領域であると判断された場合に、そのようなエッジ部分のジャギーを抑えるような拡大画像ブロックが生成される。これによって、エッジ部分などについてジャギーの少ない高画質の拡大画像ブロックの生成を行うことができる。
In step 250 (S250), the enlarged image
As described above, when it is determined in S220 that the region is an edge region, an enlarged image block that suppresses jaggies of such an edge portion is generated. Thereby, it is possible to generate a high-quality enlarged image block with less jaggy for the edge portion and the like.
ステップ260(S260)において、単純拡大画像生成部550は、多値変換部580により多値化された入力画像データ(画像データ格納部570に記憶されていた入力画像データ)を画像毎または数ライン毎に取得し、最近傍補間拡大処理を施して、画像ブロック配置部560に出力する。
すなわち、単純拡大画像生成部550は、S210からS250までの処理と並行して、あるいは前後して、最近傍補間拡大処理等を行い拡大画像を生成する。
In step 260 (S260), the simple enlarged
That is, the simple enlarged
ステップ270(S270)において、画像ブロック配置部560は、拡大画像ブロック生成部540により生成された注目領域に対する拡大画像ブロックを、単純拡大画像生成部550により生成した拡大画像上の対応する位置に順次配置する。
また、画像ブロック配置部560は、拡大画像ブロックがオーバーラップして配置される場合に、上述のような平均化処理を行う。
これらの処理をすべて終えた拡大画像ブロックあるいはライン単位の拡大画像は、二値化処理部590に出力され、二値化処理の後、画像データ格納部570に出力され格納される。
In step 270 (S270), the image
Further, the image
The enlarged image block or the enlarged image in units of lines after all these processes are output to the
ステップ280(S280)において、拡大処理部500は、すべての入力画像データについて処理が完了したか否かを調べ、完了していない場合に、S210の処理に戻って処理を続け、完了している場合に、拡大画像データを所定の出力先に出力して拡大処理を終了する。
In step 280 (S280), the
以上説明したように、本実施形態における画像処理装置2は、注目画素を含む所定の大きさの画像領域の特徴を抽出し、抽出された特徴に基づいて、この画像領域内およびこの画像領域の近傍領域内の画素値を変換し、抽出された特徴が所定の条件を満たす画像領域に対して拡大画像領域を生成し、さらに入力画像をこの画像領域の拡大手法とは異なる拡大手法で拡大して拡大画像を生成し、この拡大画像領域を拡大画像上の対応する位置に配置して、拡大された出力画像を生成する。このような拡大処理によって、例えば、入力画像中のエッジ部分に関しては、エッジを滑らかにする拡大手法が適用され、またこのような処理負荷の重い画像領域毎の拡大手法をエッジ部分のような特徴的な部分だけに限定することができる。つまり、エッジ部分のジャギーを抑制した高画質な拡大処理を行うとともに、処理負荷を抑えて高速に拡大処理を行うことができる。
As described above, the
2・・・画像処理装置
5・・・画像拡大プログラム
500・・・拡大処理部
510・・・画像ブロック設定部
520・・・画像ブロック特徴抽出部
530・・・画素値変換部
532・・・平滑化部
534・・・強調部
540・・・拡大画像ブロック生成部
550・・・単純拡大画像生成部
560・・・画像ブロック配置部
DESCRIPTION OF
Claims (12)
入力画像に含まれる注目画素について、この注目画素を含む既定の大きさの注目領域の画素値パターンに基づいて、当該注目領域がエッジ領域であるか否かを判断し、
当該エッジ領域の画素値パターンに基づいて、初期エッジ角度を算出すると共に、当該エッジ領域の画素値パターンのみでは一意に初期エッジ角度を算出できない場合に、当該エッジ領域のラスタスキャン順で一つ手前および/または一つ先の画像領域の画素値パターンを参照して初期エッジ角度を算出し、
当該初期エッジ角度に応じて、階調の変化方向を抽出するために参照すべき参照領域を設定し、
当該参照領域の画素値パターンと、当該注目領域の画素値パターンとに基づいて、階調の変化方向を、当該注目領域の特徴として抽出する領域特徴抽出手段と、
前記領域特徴抽出手段により抽出された階調の変化方向に応じて、少なくともこの注目領域内の画素値を変換する画素値変換手段と、
前記領域特徴抽出手段により抽出された階調の変化方向が、既定の条件を満たす注目領域の注目画素に対して、前記画素値変換手段により画素値が変換された注目領域に基づいて、この注目領域に含まれる注目画素に対応する拡大画像領域を生成する拡大画像領域生成手段と、
前記拡大画像領域生成手段とは異なる拡大処理方法を適用して、入力画像の拡大画像を生成する拡大画像生成手段と、
前記拡大画像領域生成手段により生成された拡大画像領域と、前記拡大画像生成手段により生成された拡大画像とを統合する画像統合手段と
を有する画像処理装置。 An image processing apparatus for enlarging an input image,
For the target pixel included in the input image, based on the pixel value pattern of the target region of a predetermined size including the target pixel, determine whether the target region is an edge region,
The initial edge angle is calculated based on the pixel value pattern of the edge area, and when the initial edge angle cannot be uniquely calculated only by the pixel value pattern of the edge area, the previous edge scan is performed in the raster scan order. And / or calculate the initial edge angle with reference to the pixel value pattern of the next image area,
In accordance with the initial edge angle, set a reference region to be referred to in order to extract the gradation change direction,
Area feature extraction means for extracting a change direction of gradation as a feature of the attention area based on the pixel value pattern of the reference area and the pixel value pattern of the attention area;
A pixel value conversion unit that converts at least a pixel value in the region of interest according to the change direction of the gradation extracted by the region feature extraction unit;
Based on the attention area in which the pixel value is converted by the pixel value conversion means for the attention pixel of the attention area whose gradation change direction extracted by the area feature extraction means satisfies a predetermined condition. An enlarged image area generating means for generating an enlarged image area corresponding to a target pixel included in the area;
Applying an enlargement processing method different from the enlarged image region generating means, an enlarged image generating means for generating an enlarged image of the input image,
An image processing apparatus comprising: an enlarged image region generated by the enlarged image region generating unit; and an image integrating unit that integrates the enlarged image generated by the enlarged image generating unit.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the pixel value conversion unit converts a pixel value in the attention area and a pixel value in a vicinity area of the attention area.
請求項1又は2に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the region feature extraction unit corrects the pixel value pattern when the extracted pixel value pattern is a predetermined pattern.
請求項1乃至3のいずれかに記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the pixel value conversion unit performs a smoothing process with reference to a pixel group at a position corresponding to a change direction extracted by the region feature extraction unit.
請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the pixel value conversion unit performs an edge enhancement process for enhancing a gradation change, using the plurality of pixel values subjected to the smoothing process.
前記拡大画像領域生成手段は、前記領域特徴抽出手段により抽出された階調の変化方向が既定の条件を満たす注目領域の注目画素に対して、この注目領域の階調の変化方向、前記画素値変換手段により変換された注目領域の画素値、及び、前記画素値変換手段により変換された近傍領域の画素値に基づいて、注目画素に対応する拡大画像領域を生成する
請求項2に記載の画像処理装置。 The pixel value conversion means converts a pixel value in the attention area and a pixel value in a vicinity area of the attention area based on the change direction of the gradation extracted by the area feature extraction means,
The enlarged image area generation unit is configured to detect the change direction of the gradation of the attention area, the pixel value for the attention pixel of the attention area in which the change direction of the gradation extracted by the area feature extraction unit satisfies a predetermined condition. The image according to claim 2, wherein an enlarged image area corresponding to the target pixel is generated based on the pixel value of the attention area converted by the conversion means and the pixel value of the neighboring area converted by the pixel value conversion means. Processing equipment.
請求項1又は6に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the enlarged image generation unit generates an enlarged image of the input image by applying an enlargement method that has a smaller processing load than the enlargement process performed by the enlarged image region generation unit.
請求項1又は7に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the enlarged image generation unit generates an enlarged image for each input image or for each of a plurality of lines in the input image.
請求項1に記載の画像処理装置。 The image integration unit determines a pixel value of the overlapping portion based on the enlarged image regions when a plurality of enlarged image regions generated by the enlarged image region generation unit overlap each other in the enlarged image. The image processing apparatus according to claim 1.
請求項9に記載の画像処理装置。 In the case where a plurality of enlarged image areas generated by the enlarged image area generating means overlap each other in the enlarged image, the image integrating means has a plurality of pixel values corresponding to the same pixel with respect to overlapping portions of the enlarged image areas. The image processing apparatus according to claim 9, wherein an average value of the image processing apparatus is calculated.
請求項1又は9に記載の画像処理装置。 The image processing device according to claim 1, wherein the image integration unit replaces at least a part of the enlarged image generated by the enlarged image generation unit with the enlarged image region generated by the enlarged image region generation unit. .
入力画像に含まれる注目画素について、この注目画素を含む既定の大きさの注目領域の画素値パターンに基づいて、当該注目領域がエッジ領域であるか否かを判断するステップと、
当該エッジ領域の画素値パターンに基づいて、初期エッジ角度を算出すると共に、当該エッジ領域の画素値パターンのみでは一意に初期エッジ角度を算出できない場合に、当該エッジ領域のラスタスキャン順で一つ手前および/または一つ先の画像領域の画素値パターンを参照して初期エッジ角度を算出するステップと、
当該初期エッジ角度に応じて、階調の変化方向を抽出するために参照すべき参照領域を設定するステップと、
当該参照領域の画素値パターンと、当該注目領域の画素値パターンとに基づいて、階調の変化方向を、当該注目領域の特徴として抽出するステップと、
前記抽出するステップにより抽出された階調の変化方向に応じて、少なくともこの注目域内の画素値を変換するステップと、
前記抽出するステップにより抽出された階調の変化方向が、既定の条件を満たす注目領域の注目画素に対して、前記変換するステップにより画素値が変換された注目領域に基づいて、この注目領域に含まれる注目画素に対応する拡大画像領域を生成するステップと、
前記拡大画像領域を生成するステップとは異なる拡大処理方法を適用して、入力画像の拡大画像を生成するステップと、
前記拡大画像領域を生成するステップにより生成された拡大画像領域と、前記拡大画像を生成するステップにより生成された拡大画像とを統合するステップと
を前記画像処理装置に実行させるプログラム。 In an image processing apparatus that performs an enlargement process of an input image,
For a target pixel included in the input image, based on a pixel value pattern of a target region of a predetermined size including the target pixel, determining whether the target region is an edge region;
The initial edge angle is calculated based on the pixel value pattern of the edge area, and when the initial edge angle cannot be uniquely calculated only by the pixel value pattern of the edge area, the previous edge scan is performed in the raster scan order. And / or calculating an initial edge angle with reference to a pixel value pattern of the next image area;
Setting a reference region to be referred to in order to extract a change direction of gradation according to the initial edge angle;
Extracting a change direction of gradation as a feature of the region of interest based on the pixel value pattern of the reference region and the pixel value pattern of the region of interest;
Depending on the changing direction of the extracted tone by said step of extracting, and converting at least a pixel value of the attention region,
For the attention pixel of the attention area in which the gradation change direction extracted by the extraction step satisfies a predetermined condition, the attention value is converted into the attention area based on the attention area whose pixel value is converted by the conversion step. Generating an enlarged image region corresponding to the pixel of interest included;
Applying an enlargement processing method different from the step of generating the enlarged image region to generate an enlarged image of the input image;
A program for causing the image processing apparatus to execute the step of integrating the enlarged image region generated by the step of generating the enlarged image region and the enlarged image generated by the step of generating the enlarged image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004366499A JP4517288B2 (en) | 2004-12-17 | 2004-12-17 | Image processing apparatus, image processing method, and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004366499A JP4517288B2 (en) | 2004-12-17 | 2004-12-17 | Image processing apparatus, image processing method, and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006174285A JP2006174285A (en) | 2006-06-29 |
JP4517288B2 true JP4517288B2 (en) | 2010-08-04 |
Family
ID=36674526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004366499A Expired - Fee Related JP4517288B2 (en) | 2004-12-17 | 2004-12-17 | Image processing apparatus, image processing method, and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4517288B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5213105B2 (en) | 2008-01-17 | 2013-06-19 | 株式会社日立製作所 | Video network system and video data management method |
JP6316010B2 (en) * | 2014-01-30 | 2018-04-25 | キヤノン株式会社 | Image processing apparatus and image processing method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002133410A (en) * | 2000-10-25 | 2002-05-10 | Fuji Photo Film Co Ltd | Noise suppressing processor and recording medium |
JP2003115031A (en) * | 2001-10-03 | 2003-04-18 | Ricoh Co Ltd | Image processor and its method |
JP2004180171A (en) * | 2002-11-28 | 2004-06-24 | Fuji Xerox Co Ltd | Device, method and program for processing image, and storage medium |
-
2004
- 2004-12-17 JP JP2004366499A patent/JP4517288B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002133410A (en) * | 2000-10-25 | 2002-05-10 | Fuji Photo Film Co Ltd | Noise suppressing processor and recording medium |
JP2003115031A (en) * | 2001-10-03 | 2003-04-18 | Ricoh Co Ltd | Image processor and its method |
JP2004180171A (en) * | 2002-11-28 | 2004-06-24 | Fuji Xerox Co Ltd | Device, method and program for processing image, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2006174285A (en) | 2006-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4568460B2 (en) | Image processing apparatus and recording medium | |
US7149355B2 (en) | Image processing apparatus, image processing method, image processing program, and computer-readable record medium storing image processing program | |
JP2009278363A (en) | Image processor and image processing method | |
JP4328926B2 (en) | Image data interpolation method, image data interpolation apparatus, and medium on which pixel interpolation program is recorded | |
JP5388559B2 (en) | Image processing apparatus, image processing method, program for executing image processing method, and storage medium | |
US7885486B2 (en) | Image processing system, method for processing image and computer readable medium | |
JP4716255B2 (en) | Image processing apparatus, image processing method, and program thereof | |
JP4517288B2 (en) | Image processing apparatus, image processing method, and program thereof | |
JP4517287B2 (en) | Image processing apparatus, image processing method, and program thereof | |
US9584699B2 (en) | Image processing apparatus, image processing method and computer-readable storage medium with improved character display | |
JP3888090B2 (en) | Image processing apparatus and image processing method | |
JP4730525B2 (en) | Image processing apparatus and program thereof | |
KR100587979B1 (en) | Interpolation method for image enlargement based on edge and corner | |
JP3262425B2 (en) | Image processing device | |
JP2006050481A (en) | Image processing apparatus, image processing method and program thereof | |
JP6651776B2 (en) | Image processing apparatus, image processing method, and program | |
JP2006252108A (en) | Image processing device, image processing method, and its program | |
JP2006050480A (en) | Image processing apparatus, image processing method and program thereof | |
JP4872715B2 (en) | Image processing apparatus and program | |
JP2005190383A (en) | Dot area discrimination apparatus and dot area discrimination method | |
JP2010191931A (en) | Image processing apparatus, image forming apparatus, computer program, recording medium and image processing method | |
JP4311292B2 (en) | Image processing apparatus, image processing method, and program thereof | |
JP4334498B2 (en) | Image processing apparatus, image forming apparatus, image processing method, and computer program | |
JP2006252107A (en) | Image processing device, image processing method, and its program | |
JP5013243B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium recording the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090416 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090610 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091013 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091211 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100422 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100505 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130528 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4517288 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140528 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |