JP4730525B2 - Image processing apparatus and program thereof - Google Patents
Image processing apparatus and program thereof Download PDFInfo
- Publication number
- JP4730525B2 JP4730525B2 JP2005172039A JP2005172039A JP4730525B2 JP 4730525 B2 JP4730525 B2 JP 4730525B2 JP 2005172039 A JP2005172039 A JP 2005172039A JP 2005172039 A JP2005172039 A JP 2005172039A JP 4730525 B2 JP4730525 B2 JP 4730525B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image area
- enlarged
- enlarged image
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 122
- 238000000034 method Methods 0.000 claims description 103
- 238000004364 calculation method Methods 0.000 claims description 89
- 238000012937 correction Methods 0.000 claims description 15
- 238000010586 diagram Methods 0.000 description 20
- 230000002093 peripheral effect Effects 0.000 description 13
- 238000003860 storage Methods 0.000 description 10
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 235000019646 color tone Nutrition 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012888 cubic function Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/403—Edge-driven scaling; Edge-based scaling
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Record Information Processing For Printing (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Analysis (AREA)
Description
本発明は、カラーを含む多階調で表現された画像を拡大する画像処理装置に関する。 The present invention relates to an image processing apparatus for enlarging an image expressed in multiple gradations including color.
画像の拡大処理は、画像の編集やファイリング、表示、印刷などを行うシステムにとって、基本的な処理の一つである。また近年、インターネットのホームページ上の画像やデジタルビデオなどのディスプレイ解像度での表示を主目的とした画像データなどの普及により、これらの低解像度画像を高解像度のプリンタなどで印刷することも頻繁に行われている。このプリンタによる印刷の際に、高画質の出力結果を得ることが望まれており、高画質の拡大処理に対する重要度が高まっている。 The image enlargement process is one of the basic processes for a system that performs image editing, filing, display, printing, and the like. In recent years, with the widespread use of image data mainly for display at display resolutions such as images on the Internet homepage and digital video, these low-resolution images are frequently printed by high-resolution printers. It has been broken. At the time of printing with this printer, it is desired to obtain a high-quality output result, and the importance of the high-quality enlargement process is increasing.
カラーを含む多階調で表現された画像(以下では、これを多値画像と称する)を拡大処理する既存の代表的な手法としては、最近傍法や線形補間法、キュービック・コンボリューション法などがある。最近傍法は、拡大後の各画素値として、その画素を原画像上に逆写像した際に最も距離が近い画素の画素値を使う方法である。この方法は、演算量が少ないため、高速に処理することができる。しかし、原画像の1画素がそのまま矩形形状に拡大されるため、隣り合う画素の画素値の差が小さい場合は、画質劣化の程度は小さくほとんど影響はないが、逆に大きい場合などは、斜線部やエッジ部のジャギーが目立ったり、倍率が大きい場合には、画像がモザイク状になるなど、画質劣化の程度は大きい。 Typical existing methods for enlarging images expressed in multi-tones including color (hereinafter referred to as multi-valued images) include nearest neighbor method, linear interpolation method, cubic convolution method, etc. There is. The nearest neighbor method is a method in which the pixel value of the pixel having the closest distance is used as each enlarged pixel value when the pixel is reversely mapped on the original image. Since this method has a small amount of calculation, it can be processed at high speed. However, since one pixel of the original image is directly expanded into a rectangular shape, if the difference between the pixel values of adjacent pixels is small, the degree of image quality degradation is small and has almost no effect. When the jagged edges and edge portions are conspicuous or the magnification is large, the degree of image quality deterioration is large, such as a mosaic image.
線形補間法は、画素間の画素値が直線的に変化していると仮定し、拡大後の画素を逆写像した点の近傍4画素の画素値を線形に補間して画素値を求める方法である。この方法では、最近傍法よりも処理は重いが、演算量は比較的少なく、ジャギーなども発生しにくい。その一方で、直線的に変化しているという仮定に当てはまらないエッジ部分を中心に、画像全体がボケ気味になるという欠点がある。 In the linear interpolation method, it is assumed that pixel values between pixels change linearly, and pixel values of four pixels in the vicinity of a point obtained by inversely mapping the enlarged pixel are linearly interpolated to obtain a pixel value. is there. Although this method is heavier than the nearest neighbor method, the amount of calculation is relatively small and jaggies are not easily generated. On the other hand, there is a drawback that the entire image becomes blurred, centering on the edge portion that does not apply to the assumption that it changes linearly.
キュービック・コンボリューション法は、標本化定理に基づいてsinc関数(sin(x)/x)を近似した補間関数を定義し、拡大後の画素を逆写像した点の近傍16画素(X、Y方向それぞれ4画素)と前記の近似補間関数との畳み込み演算により、拡大後の画素値を求める方法である。この方法では、前記2つの手法に比べて画質は比較的良いが、参照範囲が大きく、演算量が多いという欠点がある。また、高域が強調気味となる特性を持つため、エッジ部分で軽いジャギーが発生したり、ノイズ成分が強調されてしまうなどの欠点もある。 The cubic convolution method defines an interpolation function that approximates a sinc function (sin (x) / x) based on the sampling theorem, and 16 pixels in the vicinity of a point obtained by inversely mapping the enlarged pixel (X and Y directions) This is a method for obtaining an enlarged pixel value by a convolution operation of each of 4 pixels) and the approximate interpolation function. This method has relatively good image quality compared to the above two methods, but has a drawback that the reference range is large and the amount of calculation is large. In addition, since the high frequency band is emphasized, there are disadvantages such as light jaggies occurring at the edge and noise components being emphasized.
これら拡大画像の画質問題を解決する試みとして、例えば、特許文献1、特許文献2などの新規方式が提案されている。
特許文献1に記載されている技術は、原画像の変化度合いの検出法として、エッジ検出フィルタによるエッジ検出を行い、そのエッジ検出結果に基づいてエッジ画素を定義する。そして、この方法は、エッジ画素と判断された場合には、キュービック・コンボリューション法の3次関数形状を調整したM−キュービック法で拡大を行い、そうでない場合には、最近傍法で拡大する。しかし、変化度合いの大きいエッジ部分を、キュービック・コンボリューション法の3次関数形状よりもエッジを強調するように調整したM−キュービック法で行うので、エッジ部でジャギーが発生したり、エッジ部周辺のオーバーシュートあるいはアンダーシュートが増大するという欠点がある。
As an attempt to solve the image quality problem of these enlarged images, for example, new systems such as
The technique described in
特許文献2に記載されている技術は、人物の肌や、風景における空など、シャープネス強度を上げるとザラツキが目立つ部分に関しては、バイリニア補間を、その他のシャープネスが必要な部分にはM-キュービック補間を用いて、画像を拡大する。しかし、特許文献2に記載されている技術もまた、シャープネスが必要な部分に対して、上述した特許文献1と同様に、M-キュービック法で補間を行うので、エッジ部のジャギーの発生や、さらにエッジ部周辺のオーバーシュート、アンダーシュートが発生すると考えられる。
The technique described in
本発明は、上述した背景からなされたものであり、カラーを含む多階調で表現された画像を、高画質に、かつ軽い処理負荷で高速に拡大する画像処理装置を提供することを目的とする。 The present invention has been made from the above-described background, and an object thereof is to provide an image processing apparatus that enlarges an image expressed in multiple gradations including color with high image quality and at a high speed with a light processing load. To do.
上記目的を達成するために、本発明にかかる画像処理装置は、入力画像の拡大処理を行う画像処理装置であって、注目画素を含む所定の大きさの画像領域について算出した特徴量が既定の基準値以上である画像領域について、該画像領域内の各画素が有する色要素間の関係が同じである場合は該画像領域を同色ブロックと判定し、該画像領域内の各画素が有する色要素間の関係が異なる場合は該画像領域を境界ブロックと判定する画像領域判定手段と、前記画像領域判定手段により同色ブロックと判定された画像領域について、該画像領域内の階調変化方向および既定の画素値パターンに対応する第1の演算式を適用して画素値を算出することにより、該画像領域に対応する拡大画像領域を生成する第1の拡大画像領域生成手段と、前記第1の拡大画像領域生成手段で用いる拡大手法よりも画像領域のエッジを際立たせるように、前記画像領域判定手段により境界ブロックと判定された画像領域について、該画像領域内の階調変化方向及び既定の画素値パターンに応じた画素位置について前記第1の演算式を変更した第2の演算式を適用して画素値を算出することにより、該画像領域に対応する拡大画像領域を生成する第2の拡大画像領域生成手段とを有する。
In order to achieve the above object, an image processing apparatus according to the present invention is an image processing apparatus that performs an enlargement process of an input image, and a feature amount calculated for an image region of a predetermined size including a target pixel is a predetermined amount For an image area that is equal to or greater than a reference value, if the relationship between the color elements of each pixel in the image area is the same, the image area is determined to be the same color block, and the color element that each pixel in the image area has If the relationship is different to the image area and the boundary block and determining an image area determination means between, with the image area determined as the same color block by the image area determination unit, the gradation change direction and default of the image area A first enlarged image region generating means for generating an enlarged image region corresponding to the image region by calculating a pixel value by applying a first arithmetic expression corresponding to the pixel value pattern ; In order to make the edge of the image area stand out from the enlargement method used in the enlarged image area generation means, the gradation change direction and the predetermined pixels in the image area are determined for the image area determined as the boundary block by the image area determination means. A second enlargement that generates an enlarged image area corresponding to the image area by calculating a pixel value by applying a second arithmetic expression obtained by changing the first arithmetic expression for the pixel position according to the value pattern Image region generating means.
好適には、前記画像領域判定手段は、画像領域内の各画素値に基づいて算出された画像領域における階調変化量を画像領域の特徴量として、該特徴量が既定の基準値以上である画像領域を判定の対象とする。
好適には、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段は、画像領域内の各画素値から算出された画像領域における階調変化方向に基づいて拡大画像領域を生成する。
Preferably, the image area determination means uses a gradation change amount in the image area calculated based on each pixel value in the image area as a feature quantity of the image area, and the feature quantity is equal to or greater than a predetermined reference value. The image area is the object of determination .
Preferably, the first enlarged image area generation unit and the second enlarged image area generation unit generate an enlarged image area based on a gradation change direction in the image area calculated from each pixel value in the image area. Generate .
好適には、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段は、画像領域内の各画素値から算出された画像領域における階調変化に対応する既定の画素値パターンに基づいて拡大画像領域を生成する。
好適には、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段は、色空間における複数の色成分のうち、該色成分それぞれについて算出した特徴量に基づき選択された1つの色成分からさらに算出した特徴量に基づいて拡大画像領域を生成する。
Preferably, the first enlarged image region generating unit and the second enlarged image region generating unit are configured to use a predetermined pixel value pattern corresponding to a gradation change in the image region calculated from each pixel value in the image region. An enlarged image area is generated based on
Preferably, the first enlarged image area generation unit and said second enlarged image area generation unit, among the plurality of color components in a color space, based-out is selected in the feature amount calculated for each of the color components An enlarged image region is generated based on the feature amount further calculated from the one color component.
好適には、前記画像領域判定手段は、画像領域内の各画素の色成分値それぞれの大小関係により、画像領域を判定する。
Preferably, the image area determination means determines the image area based on the magnitude relationship between the color component values of each pixel in the image area.
好適には、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段は、画像領域の特徴量と、該画像領域の近傍領域の特徴量と、該近傍領域内の画素値とを用いて、拡大画像領域を生成する。
好適には、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段は、階調変化を強調するエッジ強調処理を拡大率に応じて行って、画像領域内の画素値を補正し、補正された画素値を用いて拡大画像領域を生成する。
好適には、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段は、階調変化方向に応じて、画像領域の近傍領域内の画素値を選択し、選択された画素値を用いて拡大画像領域を生成する。
Preferably, the first enlarged image area generation unit and said second enlarged image area generation means, the feature amount of the image area, and the characteristic quantity of the neighborhood area of the image area, the pixel values of the neighboring region Are used to generate an enlarged image region.
Preferably, the first enlarged image region generating unit and the second enlarged image region generating unit perform edge enhancement processing for emphasizing a change in gradation according to an enlargement ratio, and calculate a pixel value in the image region. Correction is performed, and an enlarged image region is generated using the corrected pixel value.
Preferably, the first enlarged image region generation unit and the second enlarged image region generation unit select a pixel value in the vicinity region of the image region according to a gradation change direction, and the selected pixel An enlarged image area is generated using the value.
好適には、前記第2の拡大画像領域生成手段は、画像領域について算出された特徴量に基づいて、拡大画像領域内の画素を選択し、既定の演算法を用いて、選択された画素の画素値を補正する。
Preferably, the second enlarged image region generation unit selects a pixel in the enlarged image region based on the feature amount calculated for the image region, and uses a predetermined calculation method to select the selected pixel. Correct the pixel value.
好適には、前記拡大処理手段は、少なくとも最近傍補間法に基づいた拡大手法を適用する。
好適には、前記拡大処理手段は、少なくとも線形補間法に基づいた拡大手法を適用する。
好適には、前記拡大処理手段は、入力画像毎あるいは入力画像中の数ライン毎に、拡大画像を生成する。
Preferably, the enlargement processing unit applies an enlargement method based on at least a nearest neighbor interpolation method.
Preferably, the enlargement processing unit applies an enlargement method based on at least a linear interpolation method.
Preferably, the enlargement processing unit generates an enlarged image for each input image or for every several lines in the input image.
また、好適には、前記拡大画像生成手段は、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段により生成された拡大画像領域を、前記拡大処理手段により生成された拡大画像の対応する位置に配置する。
また、好適には、前記拡大画像生成手段は、前記拡大処理手段により生成された拡大画像上の各画素値を、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段により生成された拡大画像領域の各画素値に置換する。
さらに、好適には、前記拡大画像生成手段は、前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段により生成される複数の拡大画像領域が互いに重なり合う場合に、これらの拡大画像領域の重畳部分について、同一画素に対応する複数の画素値の平均値を算出する。
Preferably, the enlarged image generating means generates the enlarged image area generated by the first enlarged image area generating means and the second enlarged image area generating means by the enlarged processing means. Place it at the corresponding position in the image.
Preferably, the enlarged image generating means converts each pixel value on the enlarged image generated by the enlargement processing means to the first enlarged image area generating means and the second enlarged image area generating means. Replace with each pixel value of the generated enlarged image area.
Furthermore, it is preferable that the enlarged image generation unit enlarges the enlarged image regions generated by the first enlarged image region generation unit and the second enlarged image region generation unit when they overlap each other. An average value of a plurality of pixel values corresponding to the same pixel is calculated for the overlapping portion of the image area.
また、本発明にかかるプログラムは、コンピュータを含み、入力画像の拡大処理を行う画像処理装置において、注目画素を含む所定の大きさの画像領域について算出した特徴量が既定の基準値以上である画像領域について、該画像領域内の各画素が有する色要素間の関係が同じである場合は該画像領域を同色ブロックと判定し、該画像領域内の各画素が有する色要素間の関係が異なる場合は該画像領域を境界ブロックと判定する画像領域判定ステップと、同色ブロックと判定された画像領域について、該画像領域内の階調変化方向および既定の画素値パターンに対応する第1の演算式を適用して画素値を算出することにより、該画像領域に対応する拡大画像領域を生成する第1の拡大画像領域生成ステップと、前記第1の拡大画像領域生成ステップで用いる拡大手法よりも画像領域のエッジを際立たせるように、境界ブロックと判定された画像領域について、該画像領域内の階調変化方向及び既定の画素値パターンに応じた画素位置について前記第1の演算式を変更した第2の演算式を適用して画素値を算出することにより、該画像領域に対応する拡大画像領域を生成する第2の拡大画像領域生成ステップとを前記画像処理装置のコンピュータに実行させる。
In addition, the program according to the present invention includes an image processing apparatus that includes a computer and performs an enlargement process of an input image. When the relationship between the color elements possessed by each pixel in the image region is the same for the region, the image region is determined as the same color block, and the relationship between the color elements possessed by each pixel in the image region is different an image area determining step of determining the boundary block the image area with the image area determined as the same color block, a first operational expression corresponding to the gradation change direction and default pixel value pattern of the image areas To calculate a pixel value, thereby generating a first enlarged image region generating step for generating an enlarged image region corresponding to the image region, and the first enlarged image region generating step. In order to make the edge of the image area stand out more than the enlargement method used in the image area, for the image area determined as the boundary block, the pixel position corresponding to the gradation change direction in the image area and the predetermined pixel value pattern A second enlarged image region generating step of generating an enlarged image region corresponding to the image region by calculating a pixel value by applying a second arithmetic equation obtained by changing the first arithmetic equation; Let the computer of the device execute.
本発明の画像処理装置によれば、カラーを含む多階調で表現された画像を、高画質に、かつ軽い処理負荷で高速に拡大できる。 According to the image processing apparatus of the present invention, an image expressed in multiple gradations including color can be enlarged at high speed with high image quality and a light processing load.
[ハードウェア構成]
本実施形態における画像処理装置2のハードウェア構成を説明する。
図1は、本発明にかかる画像処理方法が適応される画像処理装置2のハードウェア構成を、制御装置20を中心に例示する図である。
図1に例示するように、画像処理装置2は、CPU202及びメモリ204などを含む制御装置20、通信装置22、HDD・CD装置などの記憶装置24、並びに、LCD表示装置あるいはCRT表示装置及びキーボード・タッチパネルなどを含むユーザインターフェース装置(UI装置)26を有する。
画像処理装置2は、例えば、画像拡大プログラム4(図2を参照して後述)がインストールされた汎用コンピュータであり、通信装置22又は記憶装置24などを介して画像データを取得し、取得された画像データを出力解像度に応じて拡大する。例えば、画像処理装置2は、プリンタ装置10に対して画像データを出力する場合には、600dpi又は2400dpiなどの解像度に変換し、UI装置26に対して画像データを出力する場合には、75dpiなどの解像度に変換する。
[Hardware configuration]
A hardware configuration of the
FIG. 1 is a diagram illustrating a hardware configuration of an
As illustrated in FIG. 1, the
The
[画像拡大プログラム]
図2は、制御装置20(図1)により実行され、本発明にかかる画像処理方法を実現する画像拡大プログラム4の機能構成を示す図である。
図2に示すように、画像拡大プログラム4は、記憶部400、画像ブロック設定部410、画像ブロック特徴量算出部420、高画質画像ブロック生成部430、高速拡大処理部440及び拡大画像生成部450を有する。また、画像ブロック特徴量算出部420は、エッジ強度算出部422、境界ブロック判定部424(画像領域判定手段)、エッジ方向推定部426及びエッジパターン選択部428を有し、高画質画像ブロック生成部430は、境界ブロック処理部432を有する。
なお、画像拡大プログラム4の全部又は一部は、ASICなどのハードウェアにより実現されてもよい。
[Image enlargement program]
FIG. 2 is a diagram showing a functional configuration of the
As illustrated in FIG. 2, the
Note that all or part of the
記憶部400は、画像データが拡大処理されるまで画像データを一時的に記憶し、解像度変換又は拡大処理された拡大画像データが出力装置(不図示)に出力されるまで一時的に記憶する。なお、画像データは、画像処理装置2により処理可能である画像フォーマット(例えば、BMP、TIFF、PNGなど)で記述されたデータであり、デジタルカメラ(不図示)又はスキャナ(不図示)などにより取り込まれた画像データ、又は、パーソナルコンピュータ(画像処理装置2など)等において作成又は編集等を行うアプリケーションプログラムにより作成された画像データ等である。拡大画像データ(拡大された後の画像データ)もまた、同様の画像フォーマットのデータである。
The
画像ブロック設定部410は、画像ブロック特徴量算出部420及び高画質画像ブロック生成部430の処理において必要とされる既定の画像ブロックサイズをそれぞれ設定する。また、画像ブロック設定部410は、記憶部400により記憶されている入力画像データから、設定されたブロックサイズの画像ブロックを順次(例えばラスタスキャン順に)切り出し、このブロックサイズの画像ブロックそれぞれを、画像ブロック特徴量算出部420及び高画質画像ブロック生成部430それぞれに対して出力する。
The image
画像ブロック特徴量算出部420は、画像ブロック設定部410から順次入力される画像ブロックの少なくとも一部である注目領域における画像特徴量を、注目領域又はこの注目領域の周辺部を含む画像ブロック内の各画素値に基づいて算出する。画像特徴量は、例えば、注目領域のエッジ強度(階調変化量)、エッジ角度(階調変化の方向)又は色情報である。しかし、画像特徴量はこれらに限られない。画像ブロック特徴量算出部420は、例えば、注目領域の各画素値の平均値を算出し、この平均値に対する注目領域の各画素値のばらつきを表す値(例えば標準偏差又は分散)を画像特徴量として算出してもよい。
The image block feature
また、画像ブロック特徴量算出部420は、それぞれの注目領域について算出された画像特徴量と基準値とを比較し、注目領域の切り分けを行う。注目領域の切り分けにより、特徴のある画像ブロック(例えば、エッジを含んだ画像ブロックなど)と、特徴の少ない画像ブロック(例えば、画素値変化の少ない画像ブロックなど)とが切り分けられる。より具体的には、画像ブロック特徴量算出部420は、算出された画像特徴量が基準値以上である画像ブロックを特徴ブロックと判定し、算出された画像特徴量が基準値未満である画像ブロックを非特徴ブロックと判定する。
In addition, the image block feature
本例では、画像ブロック特徴量算出部420は、画像特徴量の1つとして画像ブロックのエッジ強度(数値)を算出し、算出されたエッジ強度が基準値以上である画像ブロックを特徴ブロックであると判定し、エッジ強度が基準値未満である画像ブロックを非特徴ブロックであると判定する。なお、特徴ブロックの切り分けに用いられる特徴量は、エッジ強度に限られず、上述の色情報、標準偏差、分散又はその他の特徴量であってもよい。
In this example, the image block feature
さらに、画像ブロック特徴量算出部420は、特徴ブロックと判定されたブロックについて、ブロック内の各画素の色調情報を算出し、ブロック内全ての画素が同じ色調であるブロックか、異なる色調を持つ画素を含むブロックかを判定し、後者の場合、境界ブロックであると判定する。
Further, the image block feature
高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により算出された画像特徴量を用いて、注目領域に対応する拡大画像ブロックを生成する。高画質画像ブロック生成部430における拡大処理には、注目領域に含まれる特徴を保持する拡大手法が適用されることが望ましい。また、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により算出された特徴量が基準値以上である画像ブロック(すなわち、特徴ブロック)についてのみ、拡大処理を行う。
また、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により同色ブロックと判定された特徴ブロックと、境界ブロックと判定された特徴ブロックとに対して、異なる手法を適用して、拡大画像ブロックを生成する。
The high image quality image
Also, the high-quality image
高速拡大処理部440は、記憶部400により記憶されている入力画像データを拡大する。高速拡大処理部440は、高画質画像ブロック生成部430による拡大処理よりも処理負荷の小さい拡大アルゴリズムを適用する。具体的には、高速拡大処理部440は、例えば、最近傍補間拡大法や線形補間拡大法などを適用して、入力画像データを拡大する。また、高速拡大処理部440は、画像ブロック毎の処理ではなく、入力画像単位又は入力画像の数ライン単位で拡大処理を行う。
The high-speed
拡大画像生成部450は、高画質画像ブロック生成部430により拡大された拡大画像ブロックと、高速拡大処理部440により拡大された拡大画像とを用いて、原画像に対する拡大画像を生成する。より具体的には、拡大画像生成部450は、画像ブロック特徴量算出部420により算出された画像特徴量が、基準値以上である画像ブロック(特徴ブロック)についてのみ、高画質画像ブロック生成部430により拡大された拡大画像を適用し、算出された画像特徴量が基準値未満である画像ブロック(非特徴ブロック)については、高速拡大処理部440により拡大された拡大画像を適用して、1つの拡大画像を生成する。
The enlarged
[画像ブロック特徴量算出部]
次に、画像ブロック特徴量算出部420を、より詳細に説明する。なお、注目領域が2×2画素サイズブロックであり、注目領域を含む周辺領域が4×4画素サイズブロックである場合を具体例として説明する。
エッジ強度算出部422は、画像ブロック設定部410により切り出された画像ブロックの中の注目領域のエッジ強度Gを、次の式(1)により算出する。
[Image block feature value calculation unit]
Next, the image block feature
The edge
gx=(a+c−b−d)/2
gy=(a+b−c−d)/2
G=gx×gx+gy×gy・・・(1)
gx = (a + c−b−d) / 2
gy = (a + b−c−d) / 2
G = gx × gx + gy × gy (1)
式(1)において、a、b、c及びdは、図5に例示するように、注目領域にある各画素の画素値である。gxは、主走査方向(図5の左右方向)の画素値の変化量を示し、gyは、副走査方向(図5の上下方向)の画素値の変化量を示す。
なお、エッジ強度は、上記式(1)のみにより算出される値でなく、以下の式(2)などにより算出されてもよい。
G=|gx|+|gy|・・・(2)
すなわち、エッジ強度Gは、gxの絶対値と、gyの絶対値との和として算出されてもよい。
In Expression (1), a, b, c, and d are pixel values of each pixel in the region of interest as illustrated in FIG. gx represents the amount of change in the pixel value in the main scanning direction (left and right direction in FIG. 5), and gy represents the amount of change in the pixel value in the sub scanning direction (up and down direction in FIG. 5).
Note that the edge strength may be calculated by the following formula (2) or the like instead of the value calculated by the above formula (1) alone.
G = | gx | + | gy | (2)
That is, the edge strength G may be calculated as the sum of the absolute value of gx and the absolute value of gy.
また、エッジ強度算出部422は、算出されたエッジ強度Gと基準値(既定のしきい値Th)との比較を行い、注目領域が特徴ブロック又は非特徴ブロックのいずれであるかを判定し、判定結果を高画質画像ブロック生成部430等に対して出力する。
なお、注目領域のエッジ強度Gがしきい値Thよりも小さい場合は、エッジ方向推定部426及びエッジパターン選択部428は、この注目領域について処理を行わない。
Further, the edge
When the edge strength G of the attention area is smaller than the threshold value Th, the edge
図3は、エッジ強度算出部422において、エッジ強度Gと基準値との比較により特徴ブロックと判定された領域を例示する。
図3に例示するように、特徴ブロックは、原画像中のエッジ付近に集中する。
図4は、画像中のエッジ部分、特徴ブロック及びこの特徴ブロックの画素値を例示する図であって、図4(A)は、画像中のエッジ部分を例示する図であり、図4(B)は、図4(A)に例示された画像中で特徴ブロック(特徴ブロック1、特徴ブロック2及び特徴ブロック3)と判定された画像領域を例示し、図4(C)は、前記特徴ブロックそれぞれの画素値を例示する図である。
FIG. 3 illustrates an area determined as a feature block by the edge
As illustrated in FIG. 3, the feature blocks are concentrated near the edges in the original image.
4 is a diagram illustrating edge portions, feature blocks, and pixel values of the feature blocks in the image. FIG. 4A is a diagram illustrating edge portions in the image, and FIG. ) Exemplifies image regions determined as feature blocks (feature
境界ブロック判定部424は、エッジ強度算出部422において特徴ブロックと判定された画像ブロック(図4(B)に例示された特徴ブロック1、特徴ブロック2及び特徴ブロック3)に対して、ブロック内の各画素の色要素(例えばR、G、B)の画素値の大小関係を判定する。より具体的には、境界ブロック判定部424は、図4(C)に例示された各画素のR、G、Bそれぞれの画素値の大小関係を判定する。例えば図4(B)の特徴ブロック1では、各画素のR、G、Bの大小関係が全ての画素につきR≧G≧Bであるので、境界ブロック判定部424は、このような特徴ブロックを同色ブロックと判定する。
The boundary
それに対して、図4(B)の特徴ブロック2及び特徴ブロック3では、図4(C)の枠で囲まれた画素のR、G、Bの大小関係が、他の画素と異なる。即ち、特徴ブロック2では、大小関係は、枠で囲まれた画素においては、G≧R≧Bであるのに対して、他の3画素においては、R≧G≧Bである。また、特徴ブロック3では、大小関係は、枠で囲まれた画素においては、R≧G≧Bであるのに対して、他の3画素においては、G≧R≧Bである。境界ブロック判定部424は、前述したようなブロック中に異なるRGB大小関係を持つ画素が含まれる特徴ブロックを、境界ブロックと判定する。
On the other hand, in the
境界ブロック判定部424は、同色ブロック及び境界ブロックの判定結果を、高画質画像ブロック生成部430等に出力する。
なお、同色ブロック及び境界ブロックを判定する方法は、上述した方法に限られず、色相変化を算出できる手法であればどのような手法であってもよい。さらに、図4に示した本具体例では、特徴ブロック2及び特徴ブロック3が、境界ブロックとして判定されているが、例えば、「同色ブロックから境界ブロックへと変化する特徴ブロックを境界ブロックと判定する」として、特徴ブロック2を境界ブロックと判定するなどの判定手法が、境界ブロックの判定基準として用いられてもよい。
このようにして、境界ブロック判定部424は、入力画像のエッジ部分を検出することができる。
The boundary
The method for determining the same color block and the boundary block is not limited to the above-described method, and any method may be used as long as the method can calculate the hue change. Furthermore, in the specific example shown in FIG. 4, the
In this way, the boundary
次に、エッジ方向推定部426について説明する。
図5は、注目領域及び周辺領域の具体例と、注目領域のエッジ方向の一例の説明図であり、図5(A)は、注目領域及び周辺領域を例示し、図5(B)は、この注目領域について推定されるエッジ方向を例示する図である。
図5(A)に例示するように、注目領域(画像領域)は、2×2の矩形領域(主走査方向及び副走査方向にそれぞれ2つ)を有し、周辺領域は、4×4の矩形領域(主走査方向及び副走査方向にそれぞれ4つ)を有する。各矩形は、それぞれ画素に相当し、矩形内の各数字はそれぞれの画素値を示している。すなわち、注目領域は、中心部近傍の画素{a,b,c,d}={15,104,86,203}である。
以下、この図5(A)で例示する注目領域を具体例として、エッジ方向推定部426によるエッジ方向推定処理を説明する。
Next, the edge
FIG. 5 is an explanatory diagram of a specific example of the attention area and the peripheral area, and an example of the edge direction of the attention area. FIG. 5A illustrates the attention area and the peripheral area, and FIG. It is a figure which illustrates the edge direction estimated about this attention area.
As illustrated in FIG. 5A, the region of interest (image region) has a 2 × 2 rectangular region (two each in the main scanning direction and the sub-scanning direction), and the peripheral region is 4 × 4. It has rectangular areas (four each in the main scanning direction and the sub-scanning direction). Each rectangle corresponds to a pixel, and each numeral in the rectangle indicates a pixel value. That is, the attention area is the pixel {a, b, c, d} = {15, 104, 86, 203} near the center.
Hereinafter, the edge direction estimation processing by the edge
図6は、エッジ方向推定部426によるエッジ方向推定処理(S10)を示すフローチャートである。
図7は、エッジ方向推定処理(S10)のS102の処理において選択される参照領域を例示する図である。なお、図7におけるハッチングされた部分は、図5に示した注目領域に相当する。
図6に示すように、ステップ100(S100)において、エッジ方向推定部426は、図5(A)に例示した注目領域のエッジ角度Θを、次の式(3)で計算する。
Θ=arctan(gy/gx)・・・(3)
図5(A)では、注目領域の画素値は、{a,b,c,d}={15,104,86,203}であり、式(1)より、
gx=−103
gy=−85
となり、これらを式(3)に代入すると、
Θ=−140.5°
となる。
このエッジ角度Θの方向は、図5(B)に示された破線方向に相当する。
FIG. 6 is a flowchart showing edge direction estimation processing (S10) by the edge
FIG. 7 is a diagram illustrating a reference region selected in the process of S102 of the edge direction estimation process (S10). The hatched portion in FIG. 7 corresponds to the region of interest shown in FIG.
As shown in FIG. 6, in step 100 (S100), the edge
Θ = arctan (gy / gx) (3)
In FIG. 5A, the pixel value of the attention area is {a, b, c, d} = {15, 104, 86, 203}, and from the equation (1),
gx = −103
gy = −85
And substituting these into equation (3),
Θ = -140.5 °
It becomes.
The direction of the edge angle Θ corresponds to the broken line direction shown in FIG.
さらに、エッジ方向推定部426は、算出されたエッジ角度Θが22.5°ごとに区分された方向(8方向)の角度範囲のいずれに含まれるかを判定する。本例では、エッジ角度Θが0°又は±180°を中心とした角度範囲を「方向0」とし、22.5°又は−157.5°を中心とした角度範囲を「方向1」とし、45°又は−135°を中心とした角度範囲を「方向2」とし、67.5°又は−112.5°を中心とした角度範囲を「方向3」とし、90°又は−90°を中心とした角度範囲を「方向4」とし、112.5°又は−67.5°を中心とした角度範囲を「方向5」とし、135°又は−45°を中心とした角度範囲を「方向6」とし、157.5°又は−22.5°を中心とした角度範囲を「方向7」する。これらの角度範囲は、それぞれの中心から±11.25°の範囲である。上述の具体例におけるエッジ角度Θ(=−140.5°)は、−135°±11.25°の範囲内に含まれるので、エッジ角度は「方向2」となる。
Furthermore, the edge
ステップ102(S102)において、エッジ方向推定部426は、算出された注目領域のエッジ角度Θに応じて、図5(A)に示した周辺領域(太線枠外の領域)の中からエッジ方向の推定に用いる参照領域を選択する。より具体的には、エッジ方向推定部426は、算出されたエッジ角度Θの方向で注目領域と隣接する可能性のある画素を含むように、参照領域を選択する。
例えば、エッジ方向推定部426は、注目領域について算出されたエッジ角度が「方向0」に含まれる場合に、図7(A)に例示する参照領域(太線で囲まれた2つの領域)を選択し、算出されたエッジ角度が「方向4」に含まれる場合に、図7(B)に例示する参照領域(太線で囲まれた2つの領域)を選択し、算出されたエッジ角度が上記以外の方向(方向1〜3、方向5〜7)に含まれる場合に、図7(C)に例示する参照領域(太線で囲まれた4つの領域)を選択する。図5に示した具体例では、エッジ角度の方向は「方向2」であるので、図7(C)に示した4つの参照領域が選択の候補となる。
なお、参照領域は、図7に例示した領域に限定されず、例えば図7(C)の場合には、参照領域数は8であったり、それぞれの方向に応じて設定されてもよい。
In step 102 (S102), the edge
For example, the edge
Note that the reference area is not limited to the area illustrated in FIG. 7. For example, in the case of FIG. 7C, the number of reference areas may be 8 or may be set according to each direction.
ステップ104(S104)において、エッジ方向推定部426は、選択された参照領域それぞれに対して、S100の処理と同様に、式(1)及び式(3)に従って、エッジ角度Θを計算する。
ステップ106(S106)において、エッジ方向推定部426は、それぞれの参照領域について算出されたエッジ角度と、注目領域について算出されたエッジ角度とを比較して、これらの差分が予め設定されている閾値Θthより小さいか否かを判断する。エッジ方向推定部426は、エッジ角度の差分が閾値Θthより小さい場合には、この参照領域のエッジ角度を適正なエッジ角度として判定してS108の処理に移行し、エッジ角度の差分が閾値Θth以上である場合には、この参照領域のエッジ角度を適正なエッジ角度ではないと判定してS110の処理に移行する。
In step 104 (S104), the edge
In step 106 (S106), the edge
ステップ108(S108)において、エッジ方向推定部426は、角度参照数をインクリメントする。すなわち、エッジ方向推定部426は、参照領域について算出されたエッジ角度が適正なエッジ角度であると判断された場合にのみ、角度参照数をインクリメントする。
なお、角度参照数は、エッジ角度の参照数をカウントするための変数であり、注目領域ごとに「角度参照数1」に初期化される。
In step 108 (S108), the edge
The angle reference number is a variable for counting the reference number of the edge angle, and is initialized to “
ステップ110(S110)において、エッジ方向推定部426は、選択した全ての参照領域についてエッジ角度を算出したか否かを判断し、全ての参照領域についてエッジ角度が算出された場合には、S112の処理に移行し、これ以外の場合には、S104の処理に戻って次の参照領域についてエッジ角度を算出する。
ステップ112(S112)において、エッジ方向推定部426は、注目領域のエッジ角度と、適正なエッジ角度として判定された参照領域のエッジ角度との総和を計算し、算出されたエッジ角度の総和を角度参照数で割った平均エッジ角度を注目領域の推定エッジ方向とする。
In step 110 (S110), the edge
In step 112 (S112), the edge
なお、図5に示した具体例では、エッジ角度ΘUは、上部の参照領域{86,203,171,211}からΘU=−149.4°となり、エッジ角度ΘLは、左部の参照領域{10,15,20,86}からΘL=−131.2°となり、エッジ角度ΘDは、下部の参照領域{1,102,15,104}からΘD=−175.2°となり、エッジ角度ΘRは、右部の参照領域{104,215,203,219}からΘR=−141.0°となる。注目領域のエッジ角度Θ=−140.5°とそれぞれの参照領域のエッジ角度とが比較され、その差分が閾値Θthより小さい参照領域の数が、角度参照数としてカウントされる。 In the specific example shown in FIG. 5, the edge angle ΘU is ΘU = -149.4 ° from the upper reference region {86, 203, 171, 211}, and the edge angle ΘL is the left reference region { ΘL = −131.2 ° from 10, 15, 20, 86}, and the edge angle ΘD becomes ΘD = −175.2 ° from the lower reference region {1,102,15,104}, and the edge angle ΘR is From the reference region {104, 215, 203, 219} on the right side, ΘR = −141.0 °. The edge angle Θ = −140.5 ° of the attention area is compared with the edge angle of each reference area, and the number of reference areas whose difference is smaller than the threshold Θth is counted as the angle reference number.
図8は、図5に示した注目領域における推定エッジ方向の一例の説明図である。例えば上述の具体例において、すべての参照領域について注目領域のエッジ角度との差分が閾値Θthより小さいとすれば、注目領域及び4つの参照領域から求められたエッジ角度の総和は−737.3°となり、角度参照数5で割ることによって、平均エッジ角度は−147.5°と求められる。この場合においても、エッジ方向推定部426は、上述の注目領域のエッジ方向と同様に、平均エッジ角度が例えば8方向のいずれかに含まれるかを判定する。本例では、平均エッジ角度が−147.5°であるため「方向1」に含まれ、「方向1」が推定エッジ方向となる。
FIG. 8 is an explanatory diagram of an example of the estimated edge direction in the region of interest shown in FIG. For example, in the above-described specific example, if the difference between the edge angle of the attention area for all the reference areas is smaller than the threshold Θth, the sum of the edge angles obtained from the attention area and the four reference areas is −737.3 °. By dividing by the
なお、図8においては、1画素につき1色要素であるグレースケール画像を具体例として説明しているが、これに限定されるわけではない。例えば、1画素につき3色要素のRGB色空間のカラー画像が入力される場合には、各々の色成分のデータにおけるエッジ強度Gr、Gg、Gbの強さにより選択された色空間データにより、上記のエッジ方向推定処理が行われればよい。より具体的には、画像ブロック特徴量算出部420は、それぞれの色成分についてエッジ強度を算出し、算出されたエッジ強度Gr、Gg、Gbが最大となる色成分を選択して、選択された色成分についてのみ特徴量を算出する。このようにして、カラー画像における拡大画像データのエッジ部の色ずれなど、画質低下が抑えられることが可能となる。
また、本例では、注目領域及び参照領域について、式(1)により算出されたエッジ角度は、8方向のいずれかに分類されたが、分類は8方向に限定されず、より精度の高いエッジ方向が必要であれば、分類は、12方向(15.0°ごと)、16方向(12.25°ごと)など、さらに多数の角度領域を対象としてなされてもよい。
In FIG. 8, a gray scale image that is one color element per pixel is described as a specific example, but the present invention is not limited to this. For example, when a color image in the RGB color space of three color elements per pixel is input, the color space data selected by the strength of the edge strength Gr, Gg, Gb in the data of each color component The edge direction estimation process may be performed. More specifically, the image block feature
In this example, for the attention area and the reference area, the edge angle calculated by the expression (1) is classified into any one of the eight directions, but the classification is not limited to the eight directions, and the edge has higher accuracy. If a direction is required, the classification may be done for a larger number of angular regions, such as 12 directions (every 15.0 °), 16 directions (every 12.25 °).
エッジパターン選択部428について説明する。
図9は、エッジパターン選択部428により用いられるエッジパターンテーブルを例示する図である。
図9に例示するように、エッジパターン選択部428は、推定エッジ方向とエッジパターンとを互いに対応付けたエッジパターンテーブルを有する。エッジパターンテーブルには、エッジパターンが、注目領域のパターンサイズに対応して、推定エッジ方向(例えば8方向)ごとに1つ以上登録されている。
エッジパターン選択部428は、このエッジパターンテーブルを参照して、エッジ方向推定部426によりそれぞれの注目領域について推定された推定エッジ方向に対応するエッジパターンを選択する。
本例では、図8に例示するように、注目領域に対する推定エッジ方向が、エッジ方向推定部426により「方向1」であると推定されているため、エッジパターン選択部428は、この推定エッジ方向(方向1)に従い、図9に示すエッジパターンテーブルの中から、方向1に対応する「パターン0」から「パターン3」までの4つのエッジパターンを選択し、これらをこの注目領域に対するエッジパターンの候補とする。
The edge
FIG. 9 is a diagram illustrating an edge pattern table used by the edge
As illustrated in FIG. 9, the edge
The edge
In this example, as illustrated in FIG. 8, since the estimated edge direction with respect to the region of interest is estimated to be “
エッジパターン選択部428は、注目領域の画素値に基づいて、エッジパターンの候補となった1つ以上のエッジパターンの中から、1つのエッジパターンを選択する。エッジパターンの具体的な選択方法について、図10を参照しながら説明する。
図10は、図9に示した注目領域に対応するエッジパターンの選択方法を説明する図である。
本例では、推定エッジ方向が「方向1」であったため、図10(A)に例示するように、エッジパターンの候補として、「パターン0」から「パターン3」までの4つのエッジパターンが選択されている。これらのエッジパターンは、図10(B)に例示するように、ビットパターンとして表現される。具体的には、エッジパターンは、白部分を0、それ以外を1としてビットパターン化され、「ビットパターン0」から「ビットパターン3」までのビットパターンが生成される。なお、これらのビットパターンは、図9に示すエッジパターンテーブルにビットテーブルとして予め登録されていてもよい。
The edge
FIG. 10 is a diagram for explaining a method of selecting an edge pattern corresponding to the attention area shown in FIG.
In this example, since the estimated edge direction is “
エッジパターン選択部428は、注目領域に相当するビットパターンを判定する。具体的には、エッジパターン選択部428は、以下に示す式(4)に従い、注目領域中の平均画素値を計算し、注目領域内の各々の画素値から平均値を引き、その符号を以て注目領域の画素値パターンとする。
The edge
Mean=(a+b+c+d)/4
a_sign=a−Mean
b_sign=b−Mean
c_sign=c−Mean
d_sign=d−Mean・・・(4)
Mean = (a + b + c + d) / 4
a_sign = a-Mean
b_sign = b-Mean
c_sign = c-Mean
d_sign = d-Mean (4)
なお、本例では、図10(C)に示すように、Mean=(15+104+86+203)/4=102であり、a_sign=−87、b_sign=2、c_sign=−16、d_sign=101となる。よって、エッジパターン選択部428は、これらの正負符号を判定して、図10(C)に示すように、注目領域のビットパターン(1010)を生成する。
エッジパターン選択部428は、図10(B)に例示するエッジパターン候補に対応するビットパターンと、図10(C)に例示する注目領域のビットパターンとのパターンマッチングを行い、最も類似するエッジパターンを選択パターンとして決定する。選択されたエッジパターンは、後述する高画質画像ブロック生成部430における拡大画像ブロック生成処理に適用される。
In this example, as shown in FIG. 10C, Mean = (15 + 104 + 86 + 203) / 4 = 102, and a_sign = −87, b_sign = 2, c_sign = −16, and d_sign = 101. Therefore, the edge
The edge
なお、エッジパターンは、図9に示したエッジパターンに限定されず、例えば、エッジパターン選択部428は、入力画像データの種類に応じて、エッジパターンテーブルを切り替えて、異なるエッジパターンを適用してもよい。また、エッジパターン選択部428は、各角度におけるエッジパターン候補数を増減させてもよい。
Note that the edge pattern is not limited to the edge pattern shown in FIG. 9. For example, the edge
[高画質画像ブロック生成部]
次に、高画質画像ブロック生成部430をより詳細に説明する。
高画質画像ブロック生成部430は、画像ブロック特徴量算出部420において、特徴ブロックかつ同色ブロックであると判定された注目領域に対して、画像ブロック特徴量算出部420により得られた注目領域に対するエッジパターン及び推定エッジ方向に基づいて、拡大画像ブロック生成処理を行う。また、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420において、特徴ブロックかつ境界ブロックと判定された注目領域に対しては、境界ブロック処理部432を介して、上述した手法とは異なる手法を適用して、拡大画像ブロックを生成し、生成された画素のうち、所定の画素の画素値を補正する。
[High-quality image block generator]
Next, the high-quality image
The high-quality image
以下に、同色ブロックと判定された注目領域に対する拡大画像ブロック生成処理について説明する。
高画質画像ブロック生成部430は、まず、拡大処理の拡大倍率に応じたサイズ及び係数の強調カーネルを用いて、画像ブロック設定部410により切り出された画像ブロック中の注目領域およびその周辺領域の画像データのコントラストを強調する。
図11は、高画質画像ブロック生成部430により用いられる強調カーネル434(エッジ強調カーネル)を例示する図である。
図11に例示するように、第1の強調カーネル434aは、重み付け係数「1.60」及び「−0.15」を用いてコントラストを強調し、第2の強調カーネル434bは、重み付け係数「1.20」及び「−0.05」を用いてコントラストを強調する。これらの強調カーネルは、対象画像に対して既になされた拡大処理の拡大倍率に対応付けられており、互いに異なる重み付け係数を用いて、互いに異なる位置の画素値を参照する。
Hereinafter, the enlarged image block generation process for the attention area determined to be the same color block will be described.
First, the high-quality image
FIG. 11 is a diagram illustrating an enhancement kernel 434 (edge enhancement kernel) used by the high-quality image
As illustrated in FIG. 11, the first enhancement kernel 434 a enhances contrast using weighting factors “1.60” and “−0.15”, and the second enhancement kernel 434 b includes a weighting factor “1”. .20 ”and“ −0.05 ”to enhance contrast. These enhancement kernels are associated with the enlargement magnification of the enlargement process already performed on the target image, and refer to pixel values at different positions using different weighting coefficients.
第1の強調カーネル434aは、図11(A)に例示するように、注目画素Pの直下画素a、直右画素b、直上画素c及び直左画素dを参照して、これらの画素の画素値にそれぞれ重み付け係数(−0.15)を掛け合わせ、重み付け係数(1.60)が掛けられた注目画素Pの画素値と合算し、合算された値を注目画素Pの画素値とする。
第2の強調カーネル434bは、第1の強調カーネル434aよりも拡大倍率の大きな画像に対して適用され、図11(B)に例示するように、注目画素Pから1画素分離間した下画素a、右画素b、上画素c及び左画素dを参照して、これらの画素の画素値にそれぞれ重み付け係数(−0.05)を掛け合わせ、重み付け係数(1.20)が掛けられた注目画素Pの画素値と合算し、合算された値を注目画素Pの画素値とする。
例えば、第1の強調カーネル434aを適用する場合に、以下の式(5)に従って、コントラスト強調後の画素値P’が算出される。
画素値P’=1.60×P−0.15×(a+b+c+d)・・・(5)
As illustrated in FIG. 11A, the first enhancement kernel 434a refers to the pixel a, the right pixel b, the pixel c, and the pixel d of the pixel of interest P with reference to the pixels of these pixels. Each value is multiplied by a weighting coefficient (−0.15) and added to the pixel value of the pixel of interest P multiplied by the weighting coefficient (1.60), and the sum is set as the pixel value of the pixel of interest P.
The second enhancement kernel 434b is applied to an image having a larger magnification than the first enhancement kernel 434a, and, as illustrated in FIG. 11B, the lower pixel a that is separated by one pixel from the target pixel P. , The right pixel b, the upper pixel c, and the left pixel d, the pixel value of these pixels is multiplied by a weighting coefficient (−0.05), and the pixel of interest multiplied by the weighting coefficient (1.20) The pixel value of P is added together, and the added value is set as the pixel value of the target pixel P.
For example, when applying the first enhancement kernel 434a, the pixel value P ′ after contrast enhancement is calculated according to the following equation (5).
Pixel value P ′ = 1.60 × P−0.15 × (a + b + c + d) (5)
このように、強調カーネルは、既になされた拡大処理の拡大倍率に応じて異なるので、画像が、4倍、8倍と順に拡大されると、原画像の特徴を有している画素は、2画素、4画像離れた位置の画素となる。そのため、高画質画像ブロック生成部430は、図11に例示するように、拡大倍率が高いほど離れた画素を参照して強調処理を行う。例えば、高画質画像ブロック生成部430は、2倍拡大処理を2回連続して適用することにより4倍拡大が実現される場合に、最初の2倍拡大処理において第1の強調カーネル434a(図11(A))を適用し、2回目の2倍拡大処理において第2の強調カーネル434b(図11(B))を適用する。なお、8倍、16倍以降の倍率においても同様である。
また、参照する画素の位置は、図11に示すような上下左右に限られない。例えば、高画質画像ブロック生成部430は、斜め方向の画素を参照してコントラスト強調を行ったり、さらに離れた画素を参照してコントラスト強調を行ったり、又は、処理対象画像データの種類及びサイズなどにより適用する強調カーネルを切り替えたりしてもよい。
As described above, the enhancement kernel differs depending on the enlargement magnification of the enlargement processing that has already been performed. Therefore, when the image is enlarged in order of 4 times and 8 times, the pixels having the characteristics of the original image are 2 The pixel is a pixel at a position distant from four images. Therefore, as illustrated in FIG. 11, the high-quality image
Further, the position of the pixel to be referred to is not limited to the vertical and horizontal directions as shown in FIG. For example, the high-quality image
次に、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により得られた注目領域に対するエッジパターン及び推定エッジ方向と、前述したようにコントラスト強調処理が行われた注目領域とその周辺領域との画素値とを用いて、注目領域に対する拡大画像ブロックを生成する。
Next, the high-quality image
図12は、高画質画像ブロック生成部430における拡大画像ブロックの生成処理の具体例の説明図である。まず、高画質画像ブロック生成部430は、注目領域のエッジパターン及び推定エッジ方向基づき、コントラスト強調処理を施された画素値を用いて、3×3画像ブロックに相当する画素値を算出する。図12(A)は、図5(A)に示した注目領域及び周辺領域の一例を示す。前述したように画像ブロック特徴量算出部420において、この注目領域はエッジパターン1010に対応し、推定エッジ方向は「方向1」であると求められている。高画質画像ブロック生成部430は、(エッジパターン1010)−(推定エッジ方向「1」)の組み合わせの場合、図12(B)に示すように、3×3画像ブロックに相当するそれぞれの画素をp0〜p8とすると、図12(A)に示した注目領域の画素値{a,b,c,d}をもとに、p0〜p8の画素値を次の式によって計算する。なお、エッジパターンと推定エッジ方向との組み合わせは、「(エッジパターン)−(推定エッジ方向)」と表される。
FIG. 12 is an explanatory diagram of a specific example of enlarged image block generation processing in the high-quality image
p0=a
p1=(a+b)/2
p2=b
p3=(a+c)/2
p4=(b+c)/2
p5=(b+d)/2
p6=c
p7=(b+b)/2
p8=d
p0 = a
p1 = (a + b) / 2
p2 = b
p3 = (a + c) / 2
p4 = (b + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (b + b) / 2
p8 = d
これらの計算式は、(エッジパターン)−(推定エッジ方向)の組み合わせにより一意に決定され、3×3画像ブロック相当の画素値が計算される。 These calculation formulas are uniquely determined by a combination of (edge pattern) − (estimated edge direction), and pixel values corresponding to 3 × 3 image blocks are calculated.
図13は、他の(エッジパターン)−(推定エッジ方向)の組み合わせの場合に用いられる計算式の一例の説明図である。
図13(A)は、(エッジパターン1000)−(推定エッジ方向「1」)の場合に用いられる計算式を示し、3×3画像ブロック相当の画素値は、次の式によって計算される。
FIG. 13 is an explanatory diagram of an example of a calculation formula used in the case of another (edge pattern)-(estimated edge direction) combination.
FIG. 13A shows a calculation formula used in the case of (edge pattern 1000) − (estimated edge direction “1”), and pixel values corresponding to 3 × 3 image blocks are calculated by the following formula.
p0=a
p2=b
p3=a
p4=(b+c)/2
p5=(b+d)/2
p6=c
p7=(c+d)/2
p8=d
p1=(p4+c)/2
p0 = a
p2 = b
p3 = a
p4 = (b + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
p1 = (p4 + c) / 2
図13(B)は(エッジパターン1100)−(推定エッジ方向「5」)の場合に用いられる計算式を示し、3×3画像ブロック相当の画素値は、次の式によって計算される。 FIG. 13B shows a calculation formula used in the case of (edge pattern 1100) − (estimated edge direction “5”), and pixel values corresponding to 3 × 3 image blocks are calculated by the following formula.
p0=a
p1=(a+b)/2
p2=b
p4=(a+d)/2
p6=c
p7=(c+d)/2
p8=d
p3=(p4+c)/2
p5=(p4+b)/2
p0 = a
p1 = (a + b) / 2
p2 = b
p4 = (a + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
p3 = (p4 + c) / 2
p5 = (p4 + b) / 2
図13(C)は(エッジパターン1100)−(推定エッジ方向「2」)の場合に用いられる計算式を示し、3×3画像ブロック相当の画素値は、次の式によって計算される。 FIG. 13C shows a calculation formula used in the case of (edge pattern 1100) − (estimated edge direction “2”), and pixel values corresponding to 3 × 3 image blocks are calculated by the following formula.
p0=a
p1=a
p2=b
p3=a
p4=(b+c)/2
p5=(b+d)/2
p6=c
p7=(c+d)/2
p8=d
p0 = a
p1 = a
p2 = b
p3 = a
p4 = (b + c) / 2
p5 = (b + d) / 2
p6 = c
p7 = (c + d) / 2
p8 = d
図13(D)は(エッジパターン0101)−(推定エッジ方向「7」)の場合に用いられる計算式を示し、3×3画像ブロック相当の画素値は、次の式によって計算される。 FIG. 13D shows a calculation formula used in the case of (edge pattern 0101) − (estimated edge direction “7”), and a pixel value corresponding to a 3 × 3 image block is calculated by the following formula.
p0=a
p2=b
p3=(a+c)/2
p4=(a+d)/2
p5=(b+d)/2
p6=c
p8=d
p1=(p4+b)/2
p7=(p4+c)/2
p0 = a
p2 = b
p3 = (a + c) / 2
p4 = (a + d) / 2
p5 = (b + d) / 2
p6 = c
p8 = d
p1 = (p4 + b) / 2
p7 = (p4 + c) / 2
なお、他のエッジパターンの場合にも、同様にそれぞれのエッジパターンに対応した計算式に従って計算を行うことによって、3×3画像ブロック相当の画素値が計算されることができる。 In the case of other edge patterns as well, pixel values corresponding to 3 × 3 image blocks can be calculated by performing calculation according to the calculation formula corresponding to each edge pattern.
次に、高画質画像ブロック生成部430は、前述のように計算された3×3画像ブロック相当の画素値と、注目領域の推定エッジ方向に基づいて選択された周辺領域内の複数の参照画素とを用いて4×4画像ブロックを生成する。
Next, the high-quality image
図14は、注目領域における推定エッジ方向に基づく参照画素r0〜r13の選択方法の説明図である。注目領域の推定エッジ方向が方向1(22.5°)から方向3(67.5°)の場合には、図14(A)に示したように、参照画素r0〜r5は、図14(A)に太線枠で囲んだように左上から下へ3画素と右下から上へ3画素となるように選択される。また、注目領域の推定エッジ方向が方向5(112.5°)から方向7(157.5°)の場合には、図14(B)に示したように、参照画素r0〜r5は、左下から上へ3画素と右上から下へ3画素となるように選択される。参照画素r6〜r13は、推定エッジ方向に拠らず、図14(A)及び図14(B)に示すように、上下それぞれ4画素を選択される。このように、参照画素は、注目領域における推定エッジ方向に基づいて選択される。もちろん、参照画素の選択は、図14に示すように2パターンからの選択に限定されず、推定エッジ方向に従い、より多くの参照画素選択パターンが用意されてもよい。また、選択する参照画素は、推定エッジ方向に応じて変更されてもよい。 FIG. 14 is an explanatory diagram of a method of selecting the reference pixels r0 to r13 based on the estimated edge direction in the attention area. When the estimated edge direction of the attention area is from direction 1 (22.5 °) to direction 3 (67.5 °), as shown in FIG. 14A, reference pixels r0 to r5 are shown in FIG. A) is selected so that there are 3 pixels from the upper left to the lower and 3 pixels from the lower right to the upper as surrounded by a thick line frame. Further, when the estimated edge direction of the attention area is from the direction 5 (112.5 °) to the direction 7 (157.5 °), as shown in FIG. 3 pixels from the top to the top and 3 pixels from the top right to the bottom. As shown in FIGS. 14A and 14B, four reference pixels r6 to r13 are selected, regardless of the estimated edge direction. In this way, the reference pixel is selected based on the estimated edge direction in the attention area. Of course, the selection of reference pixels is not limited to selection from two patterns as shown in FIG. 14, and more reference pixel selection patterns may be prepared according to the estimated edge direction. The reference pixel to be selected may be changed according to the estimated edge direction.
図15は、4×4画素の拡大画像ブロックの生成処理の具体例の説明図である。図15に示すように、計算された3×3画像ブロック相当の画素値p0〜p8、及び注目領域における推定エッジ方向に基づいて選択された参照画素r0〜r13を用いて、次の計算式に従って、4×4画素の拡大画像ブロックに相当する画素値(s0〜s15)が計算されて、4x4拡大画像ブロックが生成される。 FIG. 15 is an explanatory diagram of a specific example of generation processing of a 4 × 4 pixel enlarged image block. As shown in FIG. 15, using the calculated pixel values p0 to p8 corresponding to 3 × 3 image blocks and the reference pixels r0 to r13 selected based on the estimated edge direction in the region of interest, according to the following calculation formula: Pixel values (s0 to s15) corresponding to the 4 × 4 pixel enlarged image block are calculated to generate a 4 × 4 enlarged image block.
s0=0.2×r6+0.16×r0+0.64×p0
s1=0.2×r7+0.32×p0+0.48×p1
s2=0.2×r8+0.48×p1+0.32×p2
s3=0.2×r9+0.64×p2+0.16×r1
s4=0.08×r0+0.32×p0+0.12×r2+0.48×p3
s5=0.16×p0+0.24×p1+0.24×p3+0.36×p4
s6=0.24×p1+0.16×p2+0.36×p4+0.24×p5
s7=0.32×p2+0.08×r1+0.48×p5+0.12×r3
s8=0.12×r2+0.48×p3+0.08×r4+0.32×p6
s9=0.24×p3+0.36×p4+0.16×p6+0.24×p7
s10=0.36×p4+0.24×p5+0.24×p7+0.16×p8
s11=0.48×p5+0.12×r3+0.32×p8+0.08×r5
s12=0.16×r4+0.64×p6+0.2×r10
s13=0.32×p6+0.48×p7+0.2×r11
s14=0.48×p7+0.32×p8+0.2×r12
s15=0.64×p8+0.16×r5+0.2×r13
s0 = 0.2 × r6 + 0.16 × r0 + 0.64 × p0
s1 = 0.2 × r7 + 0.32 × p0 + 0.48 × p1
s2 = 0.2 × r8 + 0.48 × p1 + 0.32 × p2
s3 = 0.2 × r9 + 0.64 × p2 + 0.16 × r1
s4 = 0.08 * r0 + 0.32 * p0 + 0.12 * r2 + 0.48 * p3
s5 = 0.16 × p0 + 0.24 × p1 + 0.24 × p3 + 0.36 × p4
s6 = 0.24 × p1 + 0.16 × p2 + 0.36 × p4 + 0.24 × p5
s7 = 0.32 × p2 + 0.08 × r1 + 0.48 × p5 + 0.12 × r3
s8 = 0.12 * r2 + 0.48 * p3 + 0.08 * r4 + 0.32 * p6
s9 = 0.24 × p3 + 0.36 × p4 + 0.16 × p6 + 0.24 × p7
s10 = 0.36 × p4 + 0.24 × p5 + 0.24 × p7 + 0.16 × p8
s11 = 0.48 × p5 + 0.12 × r3 + 0.32 × p8 + 0.08 × r5
s12 = 0.16 × r4 + 0.64 × p6 + 0.2 × r10
s13 = 0.32 × p6 + 0.48 × p7 + 0.2 × r11
s14 = 0.48 × p7 + 0.32 × p8 + 0.2 × r12
s15 = 0.64 × p8 + 0.16 × r5 + 0.2 × r13
このようにして、4×4画素の拡大画像ブロック(s0〜s15)は、画像ブロック特徴量算出部420により特徴ブロックかつ同色ブロックと判断された注目領域に対して生成される。
以上説明したように、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により算出された画像特徴量に従って、拡大画像ブロック生成処理を行うことにより、ジャギーを抑えた高画質な拡大処理をすることができる。
In this way, 4 × 4 pixel enlarged image blocks (s0 to s15) are generated for the attention area determined as the feature block and the same color block by the image block feature
As described above, the high-quality image
また、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により特徴ブロックかつ境界ブロックと判断された注目領域に対しては、境界ブロック処理部432を介して、拡大画像ブロックを生成する。
以下に、境界ブロック処理部432について説明する。
境界ブロック処理部432は、画像ブロック特徴量算出部420において、特徴ブロックであり境界ブロックであると判定された注目領域に対して、図12及び図13で示した3×3拡大画像ブロックの算出式とは異なる算出式を用いて、拡大画像ブロックを生成する。さらに、境界ブロック処理部432は、図15で示した算出式を用いて生成された4×4画素の拡大画像ブロックに相当する画素値(s0〜s15)から、注目領域のエッジパターン及び推定エッジ方向に基づいて1つ以上の画素を選択し、その画素値を補正する。
Further, the high-quality image
The boundary
The boundary
図16は、境界ブロック処理部432における拡大画像ブロックの生成処理と、画素値補正処理の具体例の説明図である。図16(A)は、図12で示された、特徴ブロックであるが境界ブロックではない注目領域の(エッジパターン1010)−(推定エッジ方向「1」)の組み合わせの場合における3×3拡大画像ブロックの算出式を示す。図16(B)は、注目領域が境界ブロックである場合、図16(A)と同様の組み合わせ(エッジパターン1010)−(推定エッジ方向「1」)における算出式を示す。
図16(B)に示すように、境界ブロック処理部432は、注目領域が境界ブロックである場合には、図16(A)に示される算出式とは異なる次の算出式を用いて、p0〜p8の画素値を計算する。なお、図16(B)においては、図16(A)の算出式と異なる算出式は、点線で囲まれて示されている。
FIG. 16 is an explanatory diagram of a specific example of enlarged image block generation processing and pixel value correction processing in the boundary
As shown in FIG. 16B, when the region of interest is a boundary block, the boundary
p0=a
p1=(a+b)/2
p2=b
p3=(a+c)/2
p4=(b+c)/2
p5=d
p6=c
p7=d
p8=d
p0 = a
p1 = (a + b) / 2
p2 = b
p3 = (a + c) / 2
p4 = (b + c) / 2
p5 = d
p6 = c
p7 = d
p8 = d
また、図16(C)に示すように、境界ブロック処理部432は、(エッジパターン1010)−(推定エッジ方向「1」)の組み合わせの場合には、図15の算出式を用いて生成された4×4画素の拡大画像ブロックに相当する画素値(s0〜s15)から、例えば6つの補正画素(s1、s4、s7、s8、s11、s14)を選択し、図15の算出式を用いて得られた各々の画素値を補正する。
境界ブロック処理部432は、以下の算出式を用いて、補正値を計算する。
As shown in FIG. 16C, the boundary
The boundary
s1´ = s1−α×s1
s4´ = s4−α×s4
s7´ = s7+α×s7
s8´ = s8−α×s8
s11´=s11+α×s11
s14´=s14+α×s14
s1 ′ = s1−α × s1
s4 ′ = s4-α × s4
s7 ′ = s7 + α × s7
s8 ′ = s8−α × s8
s11 ′ = s11 + α × s11
s14 ′ = s14 + α × s14
ここで、αは、拡大画像ブロックのエッジ鮮鋭度を調整するパラメータであり、所望のエッジ鮮鋭度を得るために可変であってもよいし、予め既定値とされてもよい。 Here, α is a parameter for adjusting the edge sharpness of the enlarged image block, and may be variable to obtain a desired edge sharpness, or may be a predetermined value in advance.
上述の具体例では、「(エッジパターン1010)−(推定エッジ方向「1」)」の組み合わせの場合について、3×3拡大画像ブロックの算出式の変更、補正画素の選択及び補正値の計算の例を述べたが、例えば図13に示した他の「(エッジパターン)−(推定エッジ方向)」の場合についても、境界ブロック処理部432では、エッジパターン及び推定エッジ方向に基づいて、同色ブロックのための算出式等とは異なる変更算出式、補正画素の選択及び補正値の計算式が、一意に定められている。
In the specific example described above, for the combination of “(edge pattern 1010) − (estimated edge direction“ 1 ”)”, the calculation formula of the 3 × 3 enlarged image block is changed, the correction pixel is selected, and the correction value is calculated. For example, in the case of “(edge pattern) − (estimated edge direction)” shown in FIG. 13 for example, the boundary
以上説明したように、境界ブロック処理部432における拡大画像ブロック生成の算出式の変更及び生成画素値の選択並びに補正は、境界ブロックと判定された注目領域に対する拡大画像ブロックの特徴(本例ではエッジ)をより際立たせるようになされる。
従って、上記で説明した算出式の変更方法、補正画素の選択及び補正計算方法は、上述した方法等に限られず、注目領域の特徴量をより際立たせるための、算出式の変更方法、画素の選択、補正計算方法であれば、どのような方法等でもよい。
As described above, the change of the calculation formula for generating the enlarged image block and the selection and correction of the generated pixel value in the boundary
Therefore, the calculation formula changing method and the correction pixel selection and correction calculation method described above are not limited to the above-described methods and the like, and the calculation formula changing method and the pixel Any method may be used as long as it is a selection and correction calculation method.
[拡大画像生成部]
次に、拡大画像生成部450をより詳細に説明する。
拡大画像生成部450は、高画質画像ブロック生成部430により生成された注目領域に対する拡大画像ブロックと、高速拡大処理部440から出力された拡大画像とを統合する。
図17は、高画質画像ブロック生成部430により生成された4×4画素の拡大画像ブロックと、高速拡大処理部440から出力された拡大画像とを統合する具体例の説明図である。
図17に示すように、拡大画像生成部450は、順次生成された拡大画像ブロック0及び拡大画像ブロック1を、高速拡大処理部440から出力された拡大画像上の対応する位置に、順次配置するようにして統合する。このとき、拡大画像生成部450は、拡大画像上の各画素値を、拡大ブロックの各画素値(S0〜S15)で置き換えるように配置してもよいし、拡大画像上の各画素値と拡大ブロックの各画素値(S0〜S15)とを重畳するように配置してもよい。
[Enlarged image generator]
Next, the enlarged
The enlarged
FIG. 17 is an explanatory diagram of a specific example in which the enlarged image block of 4 × 4 pixels generated by the high-quality image
As illustrated in FIG. 17, the enlarged
拡大画像ブロック同士(図17における拡大画像ブロック0及び拡大画像ブロック1)の拡大画像上の対応位置がオーバーラップする場合には、拡大画像生成部450は、各拡大画像ブロックのオーバーラップする画素の画素値の平均値を、この画素の画素値とする。また、拡大画像生成部450は、オーバーラップする画素の総和を計算し、前記画素値の総和をオーバーラップした数で割ることにより、各画素値を算出してもよい。
When the corresponding positions on the enlarged image of the enlarged image blocks (enlarged image block 0 and
[全体動作]
画像処理装置2の全体動作(画像拡大処理)を説明する。
図18は、画像処理装置2の全体動作を示すフローチャート(S20)である。
図18に示すように、ステップ200(S200)において、画像ブロック設定部410は、画像ブロック特徴量算出部420及び高画質画像ブロック生成部430における処理で必要とされる既定の画像ブロックのサイズをそれぞれ設定し、記憶部400に記憶されている処理対象画像データから、設定されたブロックサイズの画像ブロックを順次(例えばラスタスキャン順に)切り出し、切り出された各画像ブロックを、画像ブロック特徴量算出部420及び高画質画像ブロック生成部430にそれぞれ出力する。
[Overall operation]
The overall operation (image enlargement process) of the
FIG. 18 is a flowchart (S20) showing the overall operation of the
As shown in FIG. 18, in step 200 (S200), the image
ステップ202(S202)において、画像ブロック特徴量算出部420は、入力された画像ブロック中の注目領域のエッジ強度Gを、式(1)を用いて算出する。
なお、{a,b,c,d}は、図5に例示するように注目領域内の各画素値である。入力画像データがグレースケール画像でなく、例えばRGB色空間のカラー画像である場合には、画像ブロック特徴量算出部420は、注目領域に関してR,G,Bの各色空間の色成分毎の画像ブロックそれぞれについて、式(1)を用いてエッジ強度Gr、Gg、Gbを計算し、Gr、Gg、Gbの中で最大のエッジ強度である色成分の画像ブロックを選択し、そのエッジ強度を注目領域の(すべての色成分に共通の)エッジ強度とする。
In step 202 (S202), the image block feature
In addition, {a, b, c, d} is each pixel value in the attention area as illustrated in FIG. When the input image data is not a grayscale image but a color image in, for example, an RGB color space, the image block feature
ステップ204(S204)において、画像ブロック特徴量算出部420は、注目領域のエッジ強度Gに基づいて、この注目領域が特徴ブロックであるか非特徴ブロックであるかを判定する。具体的には、画像ブロック特徴量算出部420は、算出されたエッジ強度Gが既定の閾値Th以上である場合(すなわち、注目領域内の階調変化量が大きい場合)に、この注目領域を特徴ブロックとし、算出されたエッジ強度Gが既定の閾値Th未満である場合(すなわち、注目領域内の階調変化量が小さい場合)に、この注目領域を非特徴ブロックとする。
画像処理装置2は、注目領域が特徴ブロックであると判定された場合に、この注目領域の画像特徴を保存するような拡大処理行うべくS206の処理に移行し、注目領域が非特徴ブロックであると判定された場合に、S200の処理に戻り、次の画像ブロックを処理する。
In step 204 (S204), the image block feature
When it is determined that the attention area is a feature block, the
ステップ206(S206)において、画像ブロック特徴量算出部420は、特徴ブロックと判定された注目領域について、ブロック内の各画素の色要素の画素値の大小関係を判定し、特徴ブロックが同色ブロックであるか境界ブロックであるかを判定する。
In step 206 (S206), the image block feature
ステップ208(S208)において、画像ブロック特徴量算出部420は、注目領域(特徴ブロック)及びその注目領域を含む1乃至複数の周辺領域中の参照領域のエッジ角度Θを、式(3)を用いて計算する。
なお、gx、gyは、式(1)において各々算出される値である。そして、画像ブロック特徴量算出部420は、算出された複数のエッジ角度Θから注目領域のエッジ方向θを推定する。例えば、画像ブロック特徴量算出部420は、得られた複数のエッジ角度Θの平均値を算出し、算出された平均値を推定エッジ方向θとする。
In step 208 (S208), the image block feature
Note that gx and gy are values calculated in the equation (1). Then, the image block feature
ステップ210(S210)において、画像ブロック特徴量算出部420は、推定されたエッジ方向θ及び注目領域(特徴ブロック)の画素分布パターンを用いて、エッジパターンを選択する。エッジパターンは、エッジ方向及び画素分布パターンに応じて、予め用意されたパターンテーブル(図9)の中から選択される。
In step 210 (S210), the image block feature
ステップ212(S212)において、高画質画像ブロック生成部430は、拡大率に応じてサイズ及び重み付け係数が設定された強調カーネル434(図11)を用いて、画像ブロック設定部410により切り出された画像ブロック中の注目領域(特徴ブロック)及びその周辺領域の画像データに対して、コントラスト強調処理を施す。
In step 212 (S212), the high-quality image
ステップ214(S214)において、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により判定された同色ブロックについて、画像ブロック特徴量算出部420により得られた注目領域のエッジパターン及び前記注目領域の推定エッジ方向θと、S212においてコントラスト強調が施された注目領域及び周辺領域内の画素値を用いて、エッジパターンと推定エッジ方向θとに対応する算出式(図12、図13)により、3×3画像ブロックに相当する画素値(p0〜p8)を生成する。さらに、高画質画像ブロック生成部430は、生成された画素値(p0〜p8)と推定エッジ方向θとに基づいて選択された参照画素(r0〜r13)を用いて、図15に示す算出式により、注目領域に対する拡大画像ブロックを生成する。
In step 214 (S214), the high-quality image
ステップ216(S216)において、高画質画像ブロック生成部430は、画像ブロック特徴量算出部420により判定された境界ブロックについて、同色ブロックに対する算出式(図12、図13)とは異なる算出式(図16(B))により、3×3画像ブロックに相当する画素値を生成する。さらに、高画質画像ブロック生成部430は、図15に示す算出式を用いて拡大画像ブロックを生成し、1つ以上の画素の画素値を補正する。
In step 216 (S216), the high-quality image
ステップ218(S218)において、画像拡大プログラム4は、全ての入力画像データについて、S200からS216までの処理が完了したか否かを判定し、処理が完了していないと判定された場合に、S200の処理に戻り、次の画素ブロックに対する処理を行い、全ての入力画像データについて処理が完了していると判定された場合に、S220の処理に移行する。
In step 218 (S218), the
ステップ220(S220)において、高速拡大処理部440は、記憶部400に記憶されている入力画像データを、画像毎または数ライン毎に入力し、最近傍補間法により拡大処理を行う。
なお、本例においては、高速拡大処理部440は、高画質画像ブロック生成部430による拡大処理(S200〜S216までの処理)が終了した後に拡大処理を行っているが、高画質画像ブロック生成部430による拡大処理と並行して拡大処理を行ってもよいし、高画質画像ブロック生成部430による拡大処理の前に拡大処理を行ってもよい。
ステップ222(S222)において、拡大画像生成部450は、高画質画像ブロック生成部430により生成された拡大画像ブロックと、高速拡大処理部440により拡大された拡大画像を統合する。
In step 220 (S220), the high-speed
In this example, the high-speed
In step 222 (S222), the enlarged
以上説明したように、本実施形態における画像処理装置2は、注目画素を含む所定の大きさの画像領域の特徴量を算出し、算出された画像領域の特徴量が所定の条件を満たす場合に、この画像領域内の各画素の色情報に基づいて画像領域を判定し、算出された画像領域の特徴量と、画像領域に対する判定結果とに基づいて、この画像領域に対応する拡大画像領域を生成し、この生成とは異なる拡大手法を適用して、入力画像の拡大画像を生成し、生成された拡大画像領域と、生成された拡大画像とに基づいて、入力画像に対する拡大画像を生成する。
As described above, the
このような拡大処理によって、本実施形態における画像処理装置2は、高画質拡大処理を特徴的な部分(特徴ブロック)にのみ適用することにより、全体としての処理負荷を抑え、かつ、特徴的な部分について高画質拡大処理を適用するので、特徴的な部分の特徴量を保存して、ボケやジャギーなどの画質欠陥を抑制した高画質な拡大画像を高速に得ることができる。また、本実施形態における画像処理装置2は、エッジの鮮鋭度や滑らかさを保持しながら、エッジ部周辺のアンダーシュートやオーバーシュートといった画質欠陥を抑制することができる。
Through such enlargement processing, the
2・・・画像処理装置
10・・・プリンタ装置
20・・・制御装置
202・・・CPU
204・・・メモリ
22・・・通信装置
24・・・記憶装置
26・・・UI装置
4・・・画像拡大プログラム
400・・・記憶部
410・・・画像ブロック設定部
420・・・画像ブロック特徴量算出部
422・・・エッジ強度算出部
424・・・境界ブロック判定部
426・・・エッジ方向推定部
428・・・エッジパターン選択部
430・・・高画質画像ブロック生成部
432・・・境界ブロック処理部
434a、434b・・・強調カーネル
440・・・高速拡大処理部
450・・・拡大画像生成部
2 ...
204 ...
Claims (18)
注目画素を含む所定の大きさの画像領域について算出した特徴量が既定の基準値以上である画像領域について、該画像領域内の各画素が有する色要素間の関係が同じである場合は該画像領域を同色ブロックと判定し、該画像領域内の各画素が有する色要素間の関係が異なる場合は該画像領域を境界ブロックと判定する画像領域判定手段と、
前記画像領域判定手段により同色ブロックと判定された画像領域について、該画像領域内の階調変化方向および既定の画素値パターンに対応する第1の演算式を適用して画素値を算出することにより、該画像領域に対応する拡大画像領域を生成する第1の拡大画像領域生成手段と、
前記第1の拡大画像領域生成手段で用いる拡大手法よりも画像領域のエッジを際立たせるように、前記画像領域判定手段により境界ブロックと判定された画像領域について、該画像領域内の階調変化方向及び既定の画素値パターンに応じた画素位置について前記第1の演算式を変更した第2の演算式を適用して画素値を算出することにより、該画像領域に対応する拡大画像領域を生成する第2の拡大画像領域生成手段と
を有する画像処理装置。 An image processing apparatus for enlarging an input image,
For an image area in which the feature amount calculated for an image area of a predetermined size including the target pixel is equal to or greater than a predetermined reference value, the relationship between the color elements of each pixel in the image area is the same An image area determination unit that determines an area as the same color block, and determines that the image area is a boundary block when the relationship between the color elements of each pixel in the image area is different;
For the image area determined as the same color block by the image area determination unit, to calculate the pixel values by applying a first operational expression corresponding to the gradation change direction and default pixel value pattern of the image areas A first enlarged image area generating means for generating an enlarged image area corresponding to the image area;
The gradation change direction in the image area for the image area determined as the boundary block by the image area determination means so that the edge of the image area stands out from the enlargement method used in the first enlarged image area generation means And applying a second arithmetic expression obtained by changing the first arithmetic expression to a pixel position corresponding to a predetermined pixel value pattern, thereby generating a magnified image area corresponding to the image area An image processing apparatus comprising: a second enlarged image region generation unit.
前記第1の拡大画像領域生成手段及び前記第2の拡大画像領域生成手段により生成された拡大画像領域と、前記拡大処理手段により生成された拡大画像とに基づいて、入力画像に対する拡大画像を生成する拡大画像生成手段と
をさらに有する請求項1に記載の画像処理装置。 An enlargement processing unit that generates an enlarged image of an input image by applying an enlargement method that has a smaller processing load than the enlargement method used in the first enlarged image region generation unit and the second enlarged image region generation unit;
Generating an enlarged image for the input image based on the enlarged image region generated by the first enlarged image region generating unit and the second enlarged image region generating unit and the enlarged image generated by the enlargement processing unit The image processing apparatus according to claim 1, further comprising:
請求項1に記載の画像処理装置。 The image area determination means determines an image area having a feature amount equal to or greater than a predetermined reference value, using the gradation change amount in the image area calculated based on each pixel value in the image area as a feature amount of the image area. The image processing apparatus according to claim 1.
請求項1に記載の画像処理装置。 The first enlarged image region generating unit and the second enlarged image region generating unit generate an enlarged image region based on a gradation change direction in the image region calculated from each pixel value in the image region. The image processing apparatus according to 1.
請求項1に記載の画像処理装置。 The first enlarged image area generating means and the second enlarged image area generating means are enlarged based on a predetermined pixel value pattern corresponding to a gradation change in the image area calculated from each pixel value in the image area. The image processing device according to claim 1, wherein an image region is generated.
請求項1に記載の画像処理装置。 The first enlarged image region generating unit and the second enlarged image region generating unit are configured to select one color component selected from a plurality of color components in a color space based on a feature amount calculated for each color component. The image processing apparatus according to claim 1, further generating an enlarged image area based on the calculated feature amount.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the image area determination unit determines the image area based on a magnitude relationship between color component values of pixels in the image area.
請求項1に記載の画像処理装置。 The first enlarged image region generation unit and the second enlarged image region generation unit use the feature amount of the image region, the feature amount of the neighborhood region of the image region, and the pixel value in the neighborhood region. The image processing apparatus according to claim 1, wherein an enlarged image region is generated.
請求項1に記載の画像処理装置。 The first enlarged image area generating unit and the second enlarged image area generating unit perform edge enhancement processing for emphasizing a change in gradation according to an enlargement ratio to correct a pixel value in the image area and perform correction. The image processing apparatus according to claim 1, wherein an enlarged image region is generated using the pixel values that have been set.
請求項4に記載の画像処理装置。 The first enlarged image region generation unit and the second enlarged image region generation unit select a pixel value in the vicinity region of the image region according to the gradation change direction, and use the selected pixel value. The image processing apparatus according to claim 4, wherein an enlarged image area is generated.
請求項1に記載の画像処理装置。 The second enlarged image area generation unit selects a pixel in the enlarged image area based on the feature amount calculated for the image area, and corrects the pixel value of the selected pixel using a predetermined calculation method. The image processing apparatus according to claim 1.
請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the enlargement processing unit applies an enlargement method based on at least a nearest neighbor interpolation method.
請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the enlargement processing unit applies an enlargement method based on at least a linear interpolation method.
請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the enlargement processing unit generates an enlarged image for each input image or for every several lines in the input image.
請求項2に記載の画像処理装置。 The magnified image generating means sets the magnified image area generated by the first magnified image area generating means and the second magnified image area generating means to a position corresponding to the magnified image generated by the magnification processing means. The image processing apparatus according to claim 2.
請求項15に記載の画像処理装置。 The enlarged image generation means converts each pixel value on the enlarged image generated by the enlargement processing means to an enlarged image area generated by the first enlarged image area generation means and the second enlarged image area generation means. The image processing apparatus according to claim 15 , wherein the pixel value is replaced with each pixel value.
請求項2に記載の画像処理装置。 The enlarged image generating unit is configured to detect a plurality of enlarged image regions generated by the first enlarged image region generating unit and the second enlarged image region generating unit when overlapping portions of the enlarged image regions. The image processing apparatus according to claim 2, wherein an average value of a plurality of pixel values corresponding to the same pixel is calculated.
注目画素を含む所定の大きさの画像領域について算出した特徴量が既定の基準値以上である画像領域について、該画像領域内の各画素が有する色要素間の関係が同じである場合は該画像領域を同色ブロックと判定し、該画像領域内の各画素が有する色要素間の関係が異なる場合は該画像領域を境界ブロックと判定する画像領域判定ステップと、
同色ブロックと判定された画像領域について、該画像領域内の階調変化方向および既定の画素値パターンに対応する第1の演算式を適用して画素値を算出することにより、該画像領域に対応する拡大画像領域を生成する第1の拡大画像領域生成ステップと、
前記第1の拡大画像領域生成ステップで用いる拡大手法よりも画像領域のエッジを際立たせるように、境界ブロックと判定された画像領域について、該画像領域内の階調変化方向及び既定の画素値パターンに応じた画素位置について前記第1の演算式を変更した第2の演算式を適用して画素値を算出することにより、該画像領域に対応する拡大画像領域を生成する第2の拡大画像領域生成ステップと
を前記画像処理装置のコンピュータに実行させるプログラム。 In an image processing apparatus that includes a computer and performs an enlargement process of an input image,
For an image area in which the feature amount calculated for an image area of a predetermined size including the target pixel is equal to or greater than a predetermined reference value, the relationship between the color elements of each pixel in the image area is the same An image area determination step for determining an area as the same color block, and determining that the image area is a boundary block if the relationship between the color elements of each pixel in the image area is different;
For the determined image areas with the same color block, by calculating the pixel values by applying a first operational expression corresponding to the gradation change direction and default pixel value pattern of the image area, to the image area A first enlarged image region generating step for generating a corresponding enlarged image region;
The gradation change direction in the image area and the predetermined pixel value pattern for the image area determined to be a boundary block so as to make the edge of the image area stand out from the enlargement method used in the first enlarged image area generation step. A second enlarged image area that generates an enlarged image area corresponding to the image area by calculating a pixel value by applying a second arithmetic expression obtained by changing the first arithmetic expression for a pixel position corresponding to A program for causing a computer of the image processing apparatus to execute the generating step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005172039A JP4730525B2 (en) | 2005-06-13 | 2005-06-13 | Image processing apparatus and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005172039A JP4730525B2 (en) | 2005-06-13 | 2005-06-13 | Image processing apparatus and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006350413A JP2006350413A (en) | 2006-12-28 |
JP4730525B2 true JP4730525B2 (en) | 2011-07-20 |
Family
ID=37646224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005172039A Expired - Fee Related JP4730525B2 (en) | 2005-06-13 | 2005-06-13 | Image processing apparatus and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4730525B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008252862A (en) * | 2007-03-05 | 2008-10-16 | Ricoh Co Ltd | Image processing apparatus, image processing method, and image processing program |
JP7274867B2 (en) * | 2019-01-07 | 2023-05-17 | 株式会社デンソーテン | Attached matter detection device and attached matter detection method |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0239275A (en) * | 1988-07-28 | 1990-02-08 | Agency Of Ind Science & Technol | Obstacle detecting device |
JPH04351169A (en) * | 1991-05-29 | 1992-12-04 | Canon Inc | Method and device for processing picture |
JPH05250471A (en) * | 1992-03-09 | 1993-09-28 | Fujitsu Ltd | Picture processor with contour extraction function |
JPH1188712A (en) * | 1997-09-12 | 1999-03-30 | Konica Corp | Image processing method and image processor |
JP2000149031A (en) * | 1998-11-09 | 2000-05-30 | Canon Inc | Image processing device and method and storage medium |
JP2001155173A (en) * | 1999-11-25 | 2001-06-08 | Tokushima Ken | Method of processing color image |
JP2001268378A (en) * | 2000-03-23 | 2001-09-28 | Riso Kagaku Corp | Method and apparatus for processing image |
JP2003174557A (en) * | 2001-12-07 | 2003-06-20 | Sharp Corp | Interpolation processing method, image processor, image forming device, image processing program and recording medium recorded with the same |
JP2003274157A (en) * | 2002-03-19 | 2003-09-26 | Fuji Xerox Co Ltd | Image processor, image processing method, image processing program, and computer readable recording medium with image processing program recorded |
JP2003319189A (en) * | 2002-04-19 | 2003-11-07 | Sharp Corp | Image reading apparatus |
JP2004180171A (en) * | 2002-11-28 | 2004-06-24 | Fuji Xerox Co Ltd | Device, method and program for processing image, and storage medium |
JP2005123813A (en) * | 2003-10-15 | 2005-05-12 | Fuji Xerox Co Ltd | Image processing apparatus |
-
2005
- 2005-06-13 JP JP2005172039A patent/JP4730525B2/en not_active Expired - Fee Related
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0239275A (en) * | 1988-07-28 | 1990-02-08 | Agency Of Ind Science & Technol | Obstacle detecting device |
JPH04351169A (en) * | 1991-05-29 | 1992-12-04 | Canon Inc | Method and device for processing picture |
JPH05250471A (en) * | 1992-03-09 | 1993-09-28 | Fujitsu Ltd | Picture processor with contour extraction function |
JPH1188712A (en) * | 1997-09-12 | 1999-03-30 | Konica Corp | Image processing method and image processor |
JP2000149031A (en) * | 1998-11-09 | 2000-05-30 | Canon Inc | Image processing device and method and storage medium |
JP2001155173A (en) * | 1999-11-25 | 2001-06-08 | Tokushima Ken | Method of processing color image |
JP2001268378A (en) * | 2000-03-23 | 2001-09-28 | Riso Kagaku Corp | Method and apparatus for processing image |
JP2003174557A (en) * | 2001-12-07 | 2003-06-20 | Sharp Corp | Interpolation processing method, image processor, image forming device, image processing program and recording medium recorded with the same |
JP2003274157A (en) * | 2002-03-19 | 2003-09-26 | Fuji Xerox Co Ltd | Image processor, image processing method, image processing program, and computer readable recording medium with image processing program recorded |
JP2003319189A (en) * | 2002-04-19 | 2003-11-07 | Sharp Corp | Image reading apparatus |
JP2004180171A (en) * | 2002-11-28 | 2004-06-24 | Fuji Xerox Co Ltd | Device, method and program for processing image, and storage medium |
JP2005123813A (en) * | 2003-10-15 | 2005-05-12 | Fuji Xerox Co Ltd | Image processing apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2006350413A (en) | 2006-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3915563B2 (en) | Image processing apparatus and image processing program | |
US6075926A (en) | Computerized method for improving data resolution | |
EP2138975B1 (en) | Apparatus, method and computer-readable recording medium for pixel interpolation | |
JP3167120B2 (en) | Image processing apparatus and method | |
US7885486B2 (en) | Image processing system, method for processing image and computer readable medium | |
JP4716255B2 (en) | Image processing apparatus, image processing method, and program thereof | |
JPH07131634A (en) | Image processor | |
JP4507279B2 (en) | Image processing apparatus, image processing method, and program thereof | |
TW200535786A (en) | Image processing device, image processing program, and computer-readable recording medium | |
JP4126541B2 (en) | Image processing apparatus, image processing method, image processing program, and storage medium | |
JP4730525B2 (en) | Image processing apparatus and program thereof | |
JP4857975B2 (en) | Image processing system and image processing program | |
JP2006050481A (en) | Image processing apparatus, image processing method and program thereof | |
JP4265363B2 (en) | Image processing device | |
JP2006252108A (en) | Image processing device, image processing method, and its program | |
JP2000115526A (en) | Picture processor and edge processing method | |
JP5013243B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium recording the same | |
KR100587979B1 (en) | Interpolation method for image enlargement based on edge and corner | |
JP4736121B2 (en) | Image analysis apparatus, image processing apparatus, image analysis method, image analysis program, and recording medium recording the same | |
JP2004133592A (en) | Image processor, image processing method and image processing program for magnifying image | |
JP3491829B2 (en) | Image processing apparatus and image processing method | |
JP5287581B2 (en) | Image processing apparatus and image processing method | |
JP2006050480A (en) | Image processing apparatus, image processing method and program thereof | |
JP4265362B2 (en) | Image processing device | |
JP3262425B2 (en) | Image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100826 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101020 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110126 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110323 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110405 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140428 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |