JP2000115526A - Picture processor and edge processing method - Google Patents

Picture processor and edge processing method

Info

Publication number
JP2000115526A
JP2000115526A JP10284049A JP28404998A JP2000115526A JP 2000115526 A JP2000115526 A JP 2000115526A JP 10284049 A JP10284049 A JP 10284049A JP 28404998 A JP28404998 A JP 28404998A JP 2000115526 A JP2000115526 A JP 2000115526A
Authority
JP
Japan
Prior art keywords
image
pixel
input
edge
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10284049A
Other languages
Japanese (ja)
Inventor
Shinya Otsuji
信也 大辻
Toshiaki Nakamura
敏明 中村
Keisuke Nakajima
啓介 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koki Holdings Co Ltd
Hitachi Ltd
Original Assignee
Hitachi Ltd
Hitachi Koki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Koki Co Ltd filed Critical Hitachi Ltd
Priority to JP10284049A priority Critical patent/JP2000115526A/en
Priority to DE1999148060 priority patent/DE19948060A1/en
Publication of JP2000115526A publication Critical patent/JP2000115526A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4023Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress blurs in an edge area after high resolution conversion without varying color arrangement provided for an original picture. SOLUTION: This processor is formed of an emphasizing coefficient deciding part 3 obtaining the coefficient of a filter for emphasizing an edge, an edge emphasized picture generation part 4 edge-emphasizing low resolution information obtained from a picture inputting terminal 1 by using the decided emphasis coefficient, an interpolated pixel generating part 5 generating an interpolated pixel by interpolating a pixel value at a designated position from an edge- emphasized low resolution picture, a comparing part 6 obtaining maximum/ minimum density values from the peripheral pixels of the noted pixels of low resolution information to be used for interpolation and comparing these maximum/minimum density values and the interpolated pixel obtained by the part 5 with each other, and a weighting combining part 7 executing weighting to each pixel so as to replace the density value of a pixel position with a density value larger than a maximum value with the maximum value and the density value of a pixel position with a density value smaller than the minimum value with the minimum value from the output of the part 6.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば入力した画
像情報を拡大変倍して出力するプリンタ等の画像出力装
置や、解像度の異なる機種間通信で低解像度情報から高
解像度情報に解像度を変換する画像処理装置や、入力し
た画像情報と異なる解像度のテンプレート画像との類似
度を照合する画像照合装置、ぼけた画像を鮮鋭にする画
像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image output device such as a printer which enlarges and resizes input image information and outputs the converted image information, and converts resolution from low-resolution information to high-resolution information by communication between models having different resolutions. The present invention relates to an image processing device that performs similarity between input image information and a template image having a different resolution, and an image processing device that sharpens a blurred image.

【0002】[0002]

【従来の技術】従来より、入力した低解像度情報を高解
像度情報に解像度を変換するための補間画素の生成方法
として、様々な方法が提案されている。代表的なものと
して、従来の補間方法は補間点に最も近い同じ画素値を
配列するニアリストネイバ法や、補間点を囲む4点の距
離により線形に内挿して補間画素値を決定するバイリニ
ア法、補間点を囲む16点の距離により標本化関数(f
(x)=sinc(x))を用いて求めるキュービック
コンボリューション法、等が一般的に用いられている。
これら方式は、論文「画像信号の幾何学的変換のための
補間フィルタと画質に関する一考察」(榎並他:電子通
信学会論文誌'86/11Vol.J69-D No.11 pp1617-1623)や
「画像処理のすすめ 平滑化と補間」(三宅洋一:写真
工業'87/9vol45No.9 pp109-113)において開示されてい
る。以下にこれら3つの技術について説明する。
2. Description of the Related Art Conventionally, various methods have been proposed as a method of generating an interpolation pixel for converting resolution of inputted low-resolution information into high-resolution information. Typically, the conventional interpolation method is a nearest neighbor method in which the same pixel values are arranged closest to the interpolation point, or a bilinear method in which the interpolation pixel value is determined by linearly interpolating the distance between four points surrounding the interpolation point. , The sampling function (f
A cubic convolution method determined using (x) = sinc (x)) is generally used.
These methods are described in the paper "A Study on Interpolation Filters for Image Signal Geometric Transformation and Image Quality" (Enami, et al .: Transactions of the Institute of Electronics, Information and Communication Engineers '86 /11Vol.J69-D No.11 pp1617-1623) and " Recommendation of Image Processing Smoothing and Interpolation ”(Yoichi Miyake: Photographic Industry '87 /9vol45No.9 pp109-113). Hereinafter, these three techniques will be described.

【0003】図9にニアリストネイバ法の原理図を示
す。ここで、与えられた原画像をPとし、主走査方向の
画素位置をi、副走査方向の画素位置をjで表わすもの
とする。すなわち、Pi,jは画素位置(i、j)におけ
る原画像の輝度あるいは濃度を示す値を表わしている。
また、補間したい点の座標を(i+Δi、 j+Δj)
とする。Δi、Δjはそれぞれ0≦Δi<1、0≦ Δ
j<1 で与えられる任意の実数である。ニアリストネ
イバ法は図9に示すように、補間したい点に最も近い原
画像のデータを求める画像データとするもので、式で表
現すると下式のようになる。
FIG. 9 shows the principle of the nearest neighbor method. Here, the given original image is represented by P, the pixel position in the main scanning direction is represented by i, and the pixel position in the sub-scanning direction is represented by j. That is, P i, j represents a value indicating the luminance or density of the original image at the pixel position (i, j).
Also, the coordinates of the point to be interpolated are (i + Δi, j + Δj)
And Δi and Δj are respectively 0 ≦ Δi <1, 0 ≦ Δ
Any real number given by j <1. As shown in FIG. 9, the nearest neighbor method uses image data for obtaining data of an original image closest to a point to be interpolated, and is expressed by the following equation.

【0004】Pi+Di、j+Dj=Pm,n 但し、Di、DjはそれぞれΔi、Δjを意味し、m=
[i+Δi+0.5 ]、n=[j+Δj+ 0.5 ]であ
る。ここで[ ]はガウス記号を表わし、その値を越え
ない最大の整数であることを示す。図9の場合では、
(i、j)が最も近い画素なので、 Pi+Di,j+Dj = Pi,j となる。なお、図中の網部はPi+Di、j+Djと同様Pi,j
同値をとる画素範囲を示す。
P i + Di, j + Dj = P m, n where Di and Dj mean Δi and Δj, respectively, and m =
[I + Δi + 0.5] and n = [j + Δj + 0.5]. Here, [] represents a Gaussian symbol and indicates that it is the largest integer not exceeding its value. In the case of FIG. 9,
Since (i, j) is the closest pixel , Pi + Di, j + Dj = Pi , j . The shaded area in the figure indicates a pixel range that has the same value as P i, j as in P i + Di, j + Dj .

【0005】図12にニアリストネイバ法を用いて補間
画素生成した例を示す。ここでは、基となる3×3画素
を9×9画素に画素数を増やしている事を示す。図に示
すように、基となる1画素毎に同一濃度値で3×3画素
へ拡張している。
FIG. 12 shows an example in which an interpolated pixel is generated using the nearest neighbor method. Here, it is shown that the number of pixels is increased from the base 3 × 3 pixels to 9 × 9 pixels. As shown in the figure, each pixel is expanded to 3 × 3 pixels with the same density value for each base pixel.

【0006】図10にバイリニア法の原理図を示す。バ
イリニア法では、求める画像データは、その補間したい
点(i+Δi、 j+Δj)を取り囲む4点の原画像デ
ータを用いて求める。演算式は次式で表すことができ
る。
FIG. 10 shows the principle of the bilinear method. In the bilinear method, image data to be obtained is obtained using four points of original image data surrounding the point (i + Δi, j + Δj) to be interpolated. The operation expression can be represented by the following expression.

【0007】[0007]

【数1】 (Equation 1)

【0008】バイリニア法は、補間したい点と周囲の4
点との距離を重みとして用いた加重平均であり、その出
力画像は原画像を平滑化したものとなる。
In the bilinear method, the point to be interpolated and the surrounding four
This is a weighted average using the distance to the point as a weight, and the output image is a smoothed version of the original image.

【0009】図11にキュービックコンボリューション
法の原理図を示す。求める画像データは、その補間した
い点(i+Δi、 j+Δj)を取り囲む16点の原画
像データを用いて求める。演算式は次式で表すことがで
きる。
FIG. 11 shows the principle of the cubic convolution method. The image data to be obtained is obtained using 16 original image data surrounding the point (i + Δi, j + Δj) to be interpolated. The operation expression can be represented by the following expression.

【0010】[0010]

【数2】 (Equation 2)

【0011】 但し、f(t)=sinc(t) =sin(πt)/(πt) ≒1−2|t|2+|t|3 ……(0≦|t|<1)、 4−8|t|+5|t|2−|t|3 ……(1≦|t|<2)、 0 ……(2≦|t|) この時、 x1=1+Δi、y1=1+Δj、 x2=Δi、y2=Δj、 x3=1−Δi、y3=1−Δj、 x4=2−Δi、y4=2−Δj である。Where f (t) = sinc (t) = sin (πt) / (πt)) 1-2 | t | 2 + | t | 3 (0 ≦ | t | <1), 4- 8 | t | +5 | t | 2 − | t | 3 (1 ≦ | t | <2), 0 (2 ≦ | t |) At this time, x1 = 1 + Δi, y1 = 1 + Δj, x2 = Δi , Y2 = Δj, x3 = 1−Δi, y3 = 1−Δj, x4 = 2-Δi, y4 = 2-Δj.

【0012】図13に、バイリニア法もしくはキュービ
ックコンボリューション法を用いて補間画素生成した例
を示す。ここでは、基となる3×3画素を9×9画素に
画素数を増やしている事を示す。生成する補間画素はそ
の画素位置周辺の原画素により求められるので、ニアリ
ストネイバ法に比べてより自然に濃度値が変化した補間
画素が得られ、より自然な画像が得られる。
FIG. 13 shows an example in which an interpolated pixel is generated using the bilinear method or the cubic convolution method. Here, it is shown that the number of pixels is increased from the base 3 × 3 pixels to 9 × 9 pixels. Since the generated interpolated pixel is obtained from the original pixel around the pixel position, an interpolated pixel whose density value has changed more naturally than in the nearest neighbor method can be obtained, and a more natural image can be obtained.

【0013】しかし、これらの方式には、以下に示すよ
うな欠点がある。即ち、ニアリストネイバ法では、構成
が簡単であるという利点はあるが、図12にしめすよう
に、拡大するブロック毎に画素値が均一に決定されるた
め、視覚的にブロックが目立ってしまい画質的に劣悪と
なる。またバイリニア法、キュービックコンボリューシ
ョン法では、自然画素の拡大には一般的に良く用いられ
ている方法であるが、図13にしめすように、画像全体
が平滑化された画質になるため、エッジ領域はぼけた画
質になってしまう。
However, these systems have the following disadvantages. That is, although the nearest neighbor method has an advantage that the configuration is simple, as shown in FIG. 12, since the pixel value is determined uniformly for each block to be enlarged, the blocks are visually conspicuous and the image quality is high. Inferiorly. The bilinear method and the cubic convolution method are generally used for expanding natural pixels. However, as shown in FIG. The image quality is blurred.

【0014】これらの欠点を解決するためによく取られ
る手法が、図14で示すような高域強調フィルタを用い
て対象画像の画素に対しあらかじめエッジ強調処理を施
しておき、その画像に対し前述した方式により画素補間
を行い高解像度情報を得る方式や、先の方式により画素
補間を行って得られた高解像度情報に対しエッジ強調処
理を施してシャープな画質を得る方式である。
In order to solve these drawbacks, a common technique is to use a high-frequency emphasizing filter as shown in FIG. 14 to perform edge emphasis processing on pixels of a target image in advance, and to apply the above-described image processing to the image. A method of obtaining high-resolution information by performing pixel interpolation by the above method, or a method of obtaining sharp image quality by performing edge enhancement processing on high-resolution information obtained by performing pixel interpolation by the above method.

【0015】前者の方式を解像度変換の前処理として用
いている従来例として、特開平6−309452号公報
に記載されている解像度変換処理方式がある。この方式
では、低解像度情報を先に述べた解像度変換処理にて求
めた補間画素と、同じ低解像度情報のエッジ強調画像を
先に述べた解像度変換処理にて求めた補間画素とを用い
て、各画素位置に対し、入力された低解像度情報をエッ
ジ判定して求めた重み情報に応じて前述した2種類の補
間画素の濃度値の加算配分を決定して、高解像度情報を
得る方式である。この方式では、エッジと見做された場
合は、エッジ強調画像を基に求めた補間画素情報を強く
重みを付ける様に作用する。
As a conventional example in which the former method is used as preprocessing for resolution conversion, there is a resolution conversion processing method described in JP-A-6-309452. In this method, using the interpolation pixel obtained by the resolution conversion process described above for the low resolution information and the interpolation pixel obtained by the resolution conversion process described above for the edge-enhanced image of the same low resolution information, This method obtains high-resolution information by determining the addition distribution of the density values of the two types of interpolated pixels described above according to the weight information obtained by edge-determining the input low-resolution information for each pixel position. . In this method, when the pixel is regarded as an edge, it acts to strongly weight the interpolated pixel information obtained based on the edge emphasized image.

【0016】図15に、あらかじめエッジ強調処理を施
して、その画像に対しバイリニア法による画素補間を行
った場合の補間画素生成した例を示す。図中の(a)は入
力された低解像度情報のエッジの一部を示す画像であ
る。この画素に対しエッジ強調を施した画像を(b)と
し、各画素に対して縦横3倍の解像度変換を行った画像
を(c)とする。
FIG. 15 shows an example in which an edge enhancement process is performed in advance, and an interpolated pixel is generated when pixel interpolation is performed on the image by the bilinear method. (A) in the figure is an image showing a part of the edge of the input low-resolution information. An image in which edge enhancement has been performed on this pixel is shown as (b), and an image obtained by performing a three-dimensional resolution conversion on each pixel is shown as (c).

【0017】[0017]

【発明が解決しようとする課題】図15に示すように、
(b)の画像を基に得られる(c)の画像は、エッジ強調をし
ない図13の画像に比べてエッジは明瞭になっているも
のの、エッジ周辺に元の画像(a)にはない濃い配色を持
つ画素が存在している。
As shown in FIG.
The image of (c) obtained based on the image of (b) has a clearer edge than the image of FIG. 13 without edge enhancement, but has a darker edge than the original image (a). There are pixels having a color scheme.

【0018】これよりわかるとおり、上記従来例では、
エッジ強調処理を施す事により、入力データである原画
像が持つ配色を変えてしまう。即ち、画素の濃度値が高
い領域はより高い値に変わり、画素の濃度値が低い領域
はより低い値に変わる。そのため、エッジ強調された画
像を前記の補間方法により解像度変換を行うと、エッジ
強調を行わない原画像に対し、解像度変換を行った画像
に比べてエッジがシャープになる半面、そのエッジ周辺
の画素が入力データに対し異なる配色になり、解像度変
換後に受ける画像の印象が原画像と異なるものになる問
題がある。
As can be seen, in the above conventional example,
By performing the edge enhancement processing, the color scheme of the original image as input data is changed. That is, an area where the density value of the pixel is high changes to a higher value, and an area where the density value of the pixel is low changes to a lower value. Therefore, when resolution conversion is performed on the edge-enhanced image by the interpolation method described above, the original image not subjected to edge enhancement is sharper than the resolution-converted image, but the pixels around the edge are sharper. Has a different color scheme for the input data, and there is a problem that the impression of the image received after the resolution conversion is different from the original image.

【0019】また、上記従来例では、施されるエッジ強
調処理は補間する画素数によらず一定のため、拡大率が
大きい時など補間画素数が大きい時ほど、エッジ強調の
効果が弱くなり、得られる高解像度情報もぼけたものに
なってしまう問題がある。
Further, in the above-described conventional example, since the edge enhancement processing to be performed is constant irrespective of the number of pixels to be interpolated, the effect of edge enhancement becomes weaker as the number of interpolated pixels becomes larger, such as when the enlargement ratio is large. There is a problem that the obtained high-resolution information is also blurred.

【0020】本発明は、この点に着目して、カラーある
いはモノクロ多値の原画像が持つ配色あるいは濃淡を変
化せずに、かつ、高解像度変換を行った後のエッジ領域
のぼけを抑制し、また、焦点が合ってないぼけた画像を
入力画像として与えた場合でも、エッジが強調されかつ
入力された原画像の配色あるいは濃淡を変えないぼけを
排除した画像を生成することが可能な、画像処理装置お
よびエッジ処理方法、並びにそれを用いたシステムを提
供することを目的とする。
By paying attention to this point, the present invention does not change the color arrangement or shading of a color or monochrome multi-valued original image and suppresses blurring of an edge area after high resolution conversion. In addition, even when a blurred image that is out of focus is given as an input image, it is possible to generate an image in which edges are emphasized and blurring that does not change the color scheme or shading of the input original image is eliminated. It is an object to provide an image processing apparatus, an edge processing method, and a system using the same.

【0021】[0021]

【課題を解決するための手段】上記目的を達成するため
に本発明は、多値画像を入力画像とし、該入力画像上の
任意の位置における画素値を補間して解像度変換を行う
画像処理装置において、前記入力画像情報を入力する画
像入力手段と、前記入力画像情報をエッジ強調するエッ
ジ強調画像生成手段と、前記エッジ強調された入力画像
上の指定された位置における画素値を補間して補間画素
を生成する補間画素生成手段と、前記入力画像上の指定
された位置の周辺画素の画素値から、予め定めた方法に
よりしきい値を求め、該しきい値と前記補間画素生成手
段で生成された補間画素の画素値とを比較する比較手段
と、前記比較した結果に応じて、前記補間画素値に対し
重み付けを行うことで、より高解像度の出力画像情報を
合成する重み付け合成手段と、前記重み付け合成手段で
合成された出力画像情報を外部に出力する画像出力手段
とを有する。
According to the present invention, there is provided an image processing apparatus for converting a multi-valued image into an input image and interpolating a pixel value at an arbitrary position on the input image to perform resolution conversion. An image input means for inputting the input image information, an edge-enhanced image generating means for edge-enhancing the input image information, and interpolating and interpolating a pixel value at a designated position on the edge-enhanced input image An interpolated pixel generating means for generating a pixel, and a threshold value is determined by a predetermined method from pixel values of peripheral pixels at a designated position on the input image, and the interpolated pixel generating means generates the threshold value. Weighting means for comparing the pixel value of the interpolated pixel thus obtained, and weighting the interpolated pixel value in accordance with the result of the comparison, thereby synthesizing higher resolution output image information. Has a forming means, and an image output means for outputting the output image information synthesized by said weighting and combining means to the outside.

【0022】ここで、前記画素値の補間処理に関する情
報を入力する情報入力手段と、前記画像入力手段と前記
情報入力手段から入力された情報に基づき、エッジ強調
処理に使用するフィルタの係数を求める強調係数決定手
段とをさらに備える構成としてもよい。また、前記強調
係数決定手段が、前記入力画像上の指定された位置の周
辺画素の画素値に応じて、あるいは前記情報入力手段か
ら入力される補間画素数に比例して、前記フィルタ係数
を変化させる構成としてもよい。
Here, based on information inputted from the image input means and the information inputted from the information input means for inputting information on the pixel value interpolation processing, a coefficient of a filter used for edge enhancement processing is obtained. An emphasis coefficient determining unit may be further provided. Further, the emphasis coefficient determining means changes the filter coefficient in accordance with a pixel value of a peripheral pixel at a designated position on the input image or in proportion to the number of interpolation pixels input from the information input means. It is good also as a structure to make it.

【0023】あるいは、前記比較手段が、前記入力画像
上の指定された位置の周辺画素の群において最大および
最小濃度値をしきい値として求め、該しきい値と前記生
成された補間画素とを比較して、前記最大および最小濃
度値を超えないように、前記生成された補間画素の群に
おける各画素値を再設定するための重み付け係数を決定
し、前記重み付け合成手段が、前記求められた重み付け
係数に従い、前記出力画像情報を合成する構成としても
よい。
Alternatively, the comparing means obtains a maximum and a minimum density value as a threshold value in a group of peripheral pixels at a designated position on the input image, and calculates the threshold value and the generated interpolation pixel. By comparison, a weighting coefficient for resetting each pixel value in the generated group of interpolated pixels is determined so as not to exceed the maximum and minimum density values, and the weighting synthesis unit determines the weighting coefficient. The output image information may be combined according to a weighting coefficient.

【0024】あるいは、前記比較手段が、前記しきい値
を決定するために用いる周辺画素の範囲が任意に設定可
能である構成としてもよい。
Alternatively, the comparison means may be configured so that the range of peripheral pixels used for determining the threshold value can be set arbitrarily.

【0025】また、上記目的を達成するために本発明
は、多値画像を入力画像とし、該入力画像のエッジ処理
を行う画像処理装置において、前記入力画像情報を入力
する画像入力手段と、前記入力画像情報をエッジ強調し
た画像を生成するエッジ強調画像生成手段と、前記入力
画像上の指定された位置の周辺画素の画素値から、予め
定めた方法によりしきい値を求め、該しきい値と前記エ
ッジ強調画像生成手段で生成された画像の画素値とを比
較する比較手段と、前記比較した結果に応じて、前記エ
ッジ強調された画像の画素値に対し重み付けを行うこと
で、出力画像情報を合成する重み付け合成手段と、前記
重み付け合成手段で合成された出力画像情報を外部に出
力する画像出力手段とを有する。
According to another aspect of the present invention, there is provided an image processing apparatus for processing a multivalued image as an input image and performing edge processing on the input image, comprising: an image input unit for inputting the input image information; An edge-enhanced image generating means for generating an image in which the input image information is edge-enhanced, and a threshold value obtained by a predetermined method from a pixel value of a peripheral pixel at a designated position on the input image, A comparison unit that compares the pixel value of the image generated by the edge-enhanced image generation unit with the pixel value of the edge-enhanced image. The image processing apparatus includes a weighting synthesis unit that synthesizes information, and an image output unit that externally outputs the output image information synthesized by the weighting synthesis unit.

【0026】また、上記目的を達成するために本発明
は、入力された多値画像について少なくともエッジ処理
を施すことで出力画像を示す情報を生成する画像処理装
置において、前記入力画像を利用して、該入力画像につ
いて少なくともエッジ強調処理を含む画像処理を実施す
る第1の処理手段と、前記入力画像のうち前記エッジ強
調処理の対象となる画素を少なくとも含む画素群におけ
る画素値を用いて予め定めた方法によりしきい値を求
め、該しきい値と前記第1の画像処理手段から出力され
る画像のうち前記エッジ強調処理された画素群の画素値
とを比較する比較手段と、前記比較結果に応じて、前記
第1の画像処理手段から出力された画像うち前記エッジ
強調処理された画素の画素値を再設定し、該再設定され
た画素値に応じて出力画像を合成する第2の処理手段と
を備える。
According to another aspect of the present invention, there is provided an image processing apparatus for generating information indicating an output image by performing at least edge processing on an input multi-valued image. First processing means for performing image processing including at least edge enhancement processing on the input image, and predetermined using a pixel value in a pixel group including at least a pixel to be subjected to the edge enhancement processing in the input image Comparing means for obtaining a threshold value by the method described above, and comparing the threshold value with the pixel value of the pixel group subjected to the edge enhancement processing in the image output from the first image processing means; Resets the pixel value of the edge-enhanced pixel in the image output from the first image processing means, and outputs the pixel value according to the reset pixel value. And a second processing means for synthesizing an image.

【0027】また、上記目的を達成するために本発明
は、多値画像のエッジ処理方法において、前記多値画像
に対してエッジ強調処理を少なくとも含む画像処理を行
い、前記入力画像のうち前記エッジ強調処理の対象とな
る画素を少なくとも含む周辺画素群の画素値に関して特
徴量を求め、前記特徴量に応じて、前記画像処理された
画像のうち前記エッジ強調された領域に存在する画素の
画素値を再設定する。
According to another aspect of the present invention, in the edge processing method for a multi-valued image, image processing including at least edge enhancement processing is performed on the multi-valued image, and the edge processing is performed in the input image. A feature amount is obtained for a pixel value of a peripheral pixel group including at least a pixel to be enhanced, and a pixel value of a pixel existing in the edge-enhanced region in the image-processed image according to the feature amount To reset.

【0028】[0028]

【発明の実施の形態】以下、本発明による実施形態の幾
つかを図面を参照して説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Some embodiments according to the present invention will be described below with reference to the drawings.

【0029】(実施形態1)本発明による解像度変換を
行う画像処理装置の一実施形態における構成ブロックの
概略を図1に示す。本実施形態による装置は、以下に説
明する図中の符号1〜9で示す構成を備えるものであ
る。
(Embodiment 1) FIG. 1 shows a schematic block diagram of an embodiment of an image processing apparatus for performing resolution conversion according to the present invention. The device according to the present embodiment has a configuration indicated by reference numerals 1 to 9 in the drawings described below.

【0030】図1において、1は解像度変換を行う対象
とする原画像情報の画像入力端子であり、一般的にはス
キャナやデジタルカメラ、画面に表示されている画像デ
ータなどが入力対象データとなる。本発明による画像処
理の対象とするのは、カラーあるいはモノクロ多値画像
である。入力画像がカラー画像の場合、色情報はRGB
空間情報に限定されるものではなく、例えば明るさと色
相を色情報として持つYUV空間情報等、様々な色空間
情報を用いることができる。
In FIG. 1, reference numeral 1 denotes an image input terminal of original image information to be subjected to resolution conversion, and generally, a scanner, a digital camera, image data displayed on a screen, and the like are input target data. . The object of the image processing according to the present invention is a color or monochrome multivalued image. If the input image is a color image, the color information is RGB
The color information is not limited to the space information, and various color space information such as YUV space information having brightness and hue as color information can be used.

【0031】2は、補間する画素数等、解像度の変換に
係わる補間処理についての情報が与えられる情報入力端
子である。画像を拡大する場合は、入力される情報は拡
大倍率と等価である。
Reference numeral 2 denotes an information input terminal to which information on interpolation processing relating to resolution conversion, such as the number of pixels to be interpolated, is given. When enlarging an image, the input information is equivalent to the magnification.

【0032】3は、入力端子2から入力された補間画素
数に基づき、エッジ強調を行うためのフィルタの係数を
求める強調係数決定部である。4は、その決定した強調
係数を用いて入力端子1から得た低解像度情報をエッジ
強調するためのエッジ強調画像生成部である。5は、エ
ッジ強調された低解像度画像から指定位置における画素
値を内挿補間して補間画素を生成する補間画素生成部で
ある。
Reference numeral 3 denotes an emphasis coefficient determination unit that obtains a filter coefficient for performing edge emphasis based on the number of interpolation pixels input from the input terminal 2. Reference numeral 4 denotes an edge-enhanced image generation unit for edge-enhancing low-resolution information obtained from the input terminal 1 using the determined enhancement coefficient. Reference numeral 5 denotes an interpolated pixel generation unit that generates an interpolated pixel by interpolating a pixel value at a specified position from the edge-enhanced low-resolution image.

【0033】6は、画像入力端子1から入力された低解
像度画像上の注目画素と補間画素生成部5の出力値を比
較し、その結果に応じて各画像値の重み付けの度合いを
示す値を出力する比較部である。
Reference numeral 6 compares the pixel of interest on the low-resolution image input from the image input terminal 1 with the output value of the interpolation pixel generation unit 5, and according to the result, a value indicating the degree of weighting of each image value. This is a comparison unit for outputting.

【0034】9は、最大濃度値と最小濃度値を検出する
周辺画素範囲を任意に指定できる情報を比較部6に与え
る情報入力端子である。
Reference numeral 9 denotes an information input terminal for giving information to the comparing section 6 to arbitrarily designate a peripheral pixel range for detecting the maximum density value and the minimum density value.

【0035】7は、比較部6の出力である重み付けに応
じて、画像入力端子1から入力された低解像度画像上の
注目画素と補間画素生成部5の出力値に対し重み付けし
て合成を行う重み付け合成部である。重み付けの度合い
の決定手法や合成方法については後述する。
A weighting unit 7 weights the pixel of interest on the low-resolution image input from the image input terminal 1 and the output value of the interpolated pixel generation unit 5 in accordance with the weighting output from the comparison unit 6 to perform synthesis. It is a weighting synthesis unit. A method of determining the degree of weighting and a combining method will be described later.

【0036】8は、本実施形態による装置により解像度
変換が施された高解像度画像情報を外部に出力する画像
出力端子で、重み付け合成部7で生成された出力画像が
外部へ出力される。
Reference numeral 8 denotes an image output terminal for outputting the high-resolution image information subjected to resolution conversion by the apparatus according to the present embodiment to the outside. The output image generated by the weighting / synthesizing unit 7 is output to the outside.

【0037】本発明による画像処理装置が採用されるシ
ステム構成例を図2に示す。本システムは以下に説明さ
れる21〜27の各装置から構成される。
FIG. 2 shows an example of a system configuration in which the image processing apparatus according to the present invention is employed. This system is composed of devices 21 to 27 described below.

【0038】図2において、21はスキャナやデジタル
カメラに代表される、本発明の入力対象となる画像デー
タを生成する画像入力装置である。27は本システム利
用者の各指示を入力するための指示入力装置であり、主
にキーボードやマウスが使用される。22は、各機器を
接続し、ネットワークを形成するためのネットワークケ
ーブル線であり、現在世界規模のインターネットやロー
カルなイントラネットに使用されるイーサケーブルが代
表的である。
In FIG. 2, reference numeral 21 denotes an image input device, such as a scanner or a digital camera, for generating image data to be input according to the present invention. 27 is an instruction input device for inputting each instruction of the system user, and mainly uses a keyboard and a mouse. Reference numeral 22 denotes a network cable line for connecting each device to form a network, and is typically an Ethernet cable currently used for the global Internet or a local intranet.

【0039】23は、各入力機器21からの画像データ
やネットワークケーブル線22経由の画像データを表示
するためのデータ制御を行うビデオドライバである。2
4はそれら受けた画像データを処理および表示するため
の画像出力装置であり、ビデオドライバ23を内蔵する
ものである。具体的なものとして、パソコンや大画面モ
ニタなどが挙げられる。
Reference numeral 23 denotes a video driver which performs data control for displaying image data from each input device 21 and image data via the network cable line 22. 2
Reference numeral 4 denotes an image output device for processing and displaying the received image data, and has a built-in video driver 23. Specific examples include a personal computer and a large screen monitor.

【0040】25は、各入力機器21からの画像データ
やネットワークケーブル線22経由の画像データを紙に
出力するための画像データ変換を行うプリンタドライバ
である。26は、プリンタドライバ25により変換され
た画像データを基に紙に出力するプリンタ装置である。
Reference numeral 25 denotes a printer driver which performs image data conversion for outputting image data from each input device 21 and image data via the network cable line 22 to paper. Reference numeral 26 denotes a printer that outputs to paper based on the image data converted by the printer driver 25.

【0041】本発明による解像度変換処理を実施する画
像処理装置は、例えばビデオドライバ23やプリンタド
ライバ25に内蔵され、各々の画像データ変換時に動作
するものである。
The image processing apparatus for performing the resolution conversion processing according to the present invention is built in, for example, the video driver 23 and the printer driver 25, and operates when each image data is converted.

【0042】本発明による画像処理装置が採用されるシ
ステム構成の別の例を図3に示す。この構成は、テンプ
レート画像と入力画像のパターンマッチングを実現する
ものであり、例えば印影照合システムが挙げられる。
FIG. 3 shows another example of the system configuration in which the image processing apparatus according to the present invention is employed. This configuration realizes pattern matching between a template image and an input image, and includes, for example, an imprint collation system.

【0043】図3において、31は本発明の入力対象と
なる画像データを生成する画像入力装置であり、主にス
キャナが使用される。32は本システム利用者の各指示
を入力するための指示入力装置であり、主にキーボード
が使用される。
In FIG. 3, reference numeral 31 denotes an image input device for generating image data to be input according to the present invention, and a scanner is mainly used. Reference numeral 32 denotes an instruction input device for inputting each instruction of the system user, and mainly uses a keyboard.

【0044】33はパターンマッチングの基本画像デー
タとなる参照印影の特徴をテンプレートデータとして記
憶するテンプレートファイルである。34は指示入力装
置32からの指示に基づき、テンプレートファイル33
から所望のテンプレートデータを選択するテンプレート
読み出し部である。
Reference numeral 33 denotes a template file for storing, as template data, characteristics of reference imprints serving as basic image data for pattern matching. Reference numeral 34 denotes a template file 33 based on an instruction from the instruction input device 32.
Is a template reading unit for selecting desired template data from.

【0045】35は画像入力装置31により得た入力画
像データとテンプレートファイル33から得たテンプレ
ートデータとをマッチングするために必要な対象画像間
の各種調整を行う画像調整部である。画像調整には、主
なものとして画像の拡大縮小や画像の回転などが挙げら
れる。
An image adjustment unit 35 performs various adjustments between target images necessary for matching the input image data obtained by the image input device 31 with the template data obtained from the template file 33. Image adjustment mainly includes image enlargement / reduction and image rotation.

【0046】36は画像調整部35により得られた対象
の画像データから画像照合に適した特徴を抽出する正規
化部である。37は正規化部36により得られた対象画
像データとテンプレート読み出し部34を通して得られ
た対応するテンプレートデータとを照合する照合部であ
る。38は照合部37で得た照合結果を利用者に示すた
めの結果出力部である。39は結果出力部38からの出
力を表示するための結果出力装置である。
Reference numeral 36 denotes a normalization unit for extracting features suitable for image comparison from the target image data obtained by the image adjustment unit 35. Reference numeral 37 denotes a matching unit that matches target image data obtained by the normalizing unit 36 with corresponding template data obtained through the template reading unit 34. Numeral 38 denotes a result output unit for indicating the collation result obtained by the collation unit 37 to the user. 39 is a result output device for displaying the output from the result output unit 38.

【0047】本発明による解像度変換処理等を行う画像
処理装置は、例えば画像調整部35に内蔵され、特に拡
大時における入力画像データを解像度変換する時に動作
するものである。
The image processing apparatus for performing the resolution conversion processing and the like according to the present invention is built in, for example, the image adjustment unit 35 and operates particularly when converting the resolution of the input image data at the time of enlargement.

【0048】なお、本発明による画像処理は、ハードウ
ェアで実現してもよいし、ソフトウェアで実現してもよ
い。
The image processing according to the present invention may be realized by hardware or software.

【0049】次に、図1に示した本実施形態の画像処理
装置における各構成部の動作について詳細に述べる。
Next, the operation of each component in the image processing apparatus of this embodiment shown in FIG. 1 will be described in detail.

【0050】図4は、図1に示した強調係数決定部3で
のエッジを強調するフィルタ係数の算出手法の一例を示
す図である。ここで、xは入力端子2から入力される補
間画素数によって決定する変数である。本実施形態で
は、この変数xは補間画素数に比例する様に与えるもの
とする。
FIG. 4 is a diagram showing an example of a method of calculating a filter coefficient for enhancing an edge in the enhancement coefficient determination unit 3 shown in FIG. Here, x is a variable determined by the number of interpolation pixels input from the input terminal 2. In the present embodiment, the variable x is given so as to be proportional to the number of interpolation pixels.

【0051】水平垂直方向のエッジを強調したい場合は
図中の(a)に示すように、中央をx+1として、またそ
の対角線上の値を−x/4として、それ以外の値を0と
して各係数値を算出する。また、斜め方向のエッジを強
調したい場合は図中の(b)に示すように、中央をx+1
として、その上下の値を−x/4として、それ以外の値
を0として各係数値を算出する。
When it is desired to emphasize the edges in the horizontal and vertical directions, the center is set to x + 1, the value on the diagonal line is set to -x / 4, and the other values are set to 0, as shown in FIG. Calculate the coefficient value. When it is desired to emphasize the diagonal edge, the center is set to x + 1 as shown in FIG.
Each coefficient value is calculated by setting the upper and lower values to -x / 4 and setting the other values to 0.

【0052】次に、エッジ強調画像生成部4でのエッジ
強調処理の動作を説明する。元の低解像度画像の注目画
素Pi,jにおいて、図4(a)で示されるフィルタを用いて
同画素位置に対応するエッジ強調処理を施した画素をE
i,jとすると、エッジ強調画素Ei,jは周辺4画素を用い
て次式で求められる。
Next, the operation of the edge enhancement processing in the edge enhancement image generator 4 will be described. In the target pixel P i, j of the original low-resolution image, a pixel subjected to edge enhancement processing corresponding to the same pixel position using the filter shown in FIG.
Assuming that i, j , the edge emphasis pixel E i, j is obtained by the following equation using four peripheral pixels.

【0053】Ei,j=(x+1)×Pi,j−x×(Pi-1,j-1
+Pi-1,j+1+Pi+1,j-1+Pi+1,j+1)/4 また、図4(b)で示されるフィルタを用いる場合は同様
に、 Ei,j=(x+1)×Pi,j−x×(Pi,j-1+Pi-1,j+P
i,j+1+Pi+1,j )/4 で求められる。
E i, j = (x + 1) × P i, j −x × (P i−1, j−1
+ P i-1, j + 1 + P i + 1, j-1 + P i + 1, j + 1 ) / 4 Similarly, when the filter shown in FIG. 4B is used, Ei, j = ( x + 1) × P i, j −xx × (P i, j-1 + P i-1, j + P
i, j + 1 + P i + 1, j ) / 4.

【0054】このフィルタを用いた場合、得られるエッ
ジ強調画素は、算出に用いる対象画素同士の濃度値の差
が大きいほどエッジ強調画素の絶対値は大きいものとな
り、差が小さいほどエッジ強調画素の絶対値は小さくな
る特徴を持つ。またエッジにおける濃度が高い画素に対
しては正の値が、エッジにおける濃度が低い画素に対し
ては負の値が求められる。
When this filter is used, the absolute value of the edge-enhanced pixel becomes larger as the difference between the density values of the target pixels used for calculation becomes larger, and as the difference becomes smaller, the edge-enhanced pixel becomes smaller. The absolute value has the characteristic of becoming smaller. A positive value is obtained for a pixel having a high density at the edge, and a negative value is obtained for a pixel having a low density at the edge.

【0055】次に、補間画素生成部5での動作を説明す
る。エッジ強調画像生成部4から出力された強調画像の
注目画素位置(i、j)について、従来の補間画素生成
方法であるバイリニア法、またはキュービックコンボリ
ューション法を用いて補間画素を生成する。これら各手
法による画素生成方法は、従来の技術において説明して
いるため、ここでは割愛する。
Next, the operation of the interpolation pixel generator 5 will be described. For the target pixel position (i, j) of the enhanced image output from the edge enhanced image generation unit 4, an interpolation pixel is generated using a bilinear method or a cubic convolution method, which is a conventional interpolation pixel generation method. The pixel generation method according to each of these methods has been described in the related art, and will not be described here.

【0056】図5は、エッジ強調後の低解像度情報の画
素をバイリニア法により補間画素生成する様子を示す図
である。図では、説明の簡略のため、主走査方向または
副走査方向の一次元方向のみ対象として示している。図
中の横方向が画素位置を示し、縦方向に各画素位置の輝
度あるいは濃度を示すものである。
FIG. 5 is a diagram showing how pixels of low resolution information after edge enhancement are generated as interpolation pixels by the bilinear method. In the drawing, for simplicity of description, only the one-dimensional direction in the main scanning direction or the sub-scanning direction is shown as an object. In the figure, the horizontal direction indicates the pixel position, and the vertical direction indicates the brightness or density at each pixel position.

【0057】すなわち、一つのブロックがある1画素の
位置と濃度を示している。ここでは、エッジである隣接
する2つの画素について対象とする。図中の太枠で示さ
れる画素が元の低解像度情報を示す。網部は、エッジ強
調画像生成部4により強調された画素濃度であり、前述
したフィルタの特性により、エッジ強調処理によりエッ
ジの濃度の高いほうはより高く、エッジの低い部分はよ
り低くなるように濃度値が変化する。
That is, the position and density of one pixel in one block are shown. Here, two adjacent pixels, which are edges, are targeted. Pixels indicated by thick frames in the figure indicate the original low resolution information. The halftone portion is a pixel density emphasized by the edge-enhanced image generation unit 4. According to the characteristics of the filter described above, the higher the edge density is, the higher the edge density is, and the lower edge portion is lower by the edge enhancement process. The density value changes.

【0058】図中の太実線は、エッジ強調画像に対しバ
イリニア法を適用して補間画素を生成したことを示す。
また、図中の破線は、エッジ強調を行わない元の低解像
度画像に対しバイリニア法あるいはニアリストネイバ法
を適用して補間画素を生成した場合の濃度値を示す。
The thick solid line in the figure indicates that the interpolation pixel is generated by applying the bilinear method to the edge emphasized image.
A broken line in the drawing indicates a density value when an interpolated pixel is generated by applying the bilinear method or the nearest neighbor method to the original low-resolution image without edge enhancement.

【0059】次に、比較部6の動作を説明する。Next, the operation of the comparing section 6 will be described.

【0060】比較部6では、情報入力端子9の入力値に
より指定された注目画素位置(i、j)の周辺画素の中
から、本実施形態のエッジ処理でしきい値として利用す
る最大濃度値と最小濃度値を検出する。すなわち、情報
入力端子9により得られた周辺画素範囲の値をnとする
と、比較部6では、注目画素位置(i、j)と近傍の画
素位置(i- n + 1、j)(i、j- n+1)(i-
n + 2、j)(i、j- n+2)…(i+n、j+
n)の画素から、最大濃度値と最小濃度値を検出する。
In the comparing section 6, the maximum density value used as a threshold value in the edge processing of the present embodiment is selected from the peripheral pixels at the pixel position of interest (i, j) specified by the input value of the information input terminal 9. And the minimum density value. That is, assuming that the value of the peripheral pixel range obtained by the information input terminal 9 is n, the comparing unit 6 determines that the pixel position of interest (i, j) and the neighboring pixel positions (i-n + 1, j) (i, j−n + 1) (i−
n + 2, j) (i, j-n + 2) ... (i + n, j +
A maximum density value and a minimum density value are detected from the pixel n).

【0061】図16に、n=1、2、3とした場合の周
辺画素範囲を示す。周辺画素範囲を決定するnの値は、
入力画像の焦点が合っている場合は低く、焦点がぼけて
いる画像の時ほど大きく取るように与える。ここでは、
n=1とした場合の例について説明する。
FIG. 16 shows peripheral pixel ranges when n = 1, 2, and 3. The value of n that determines the peripheral pixel range is
When the input image is in focus, the input image is low, and when the image is out of focus, the input image is increased. here,
An example where n = 1 is described.

【0062】この場合、注目画素位置(i、j)と近傍
の画素位置(i+1、j)、(i、j+1)、(i+
1、j+1)の4画素から、最大濃度値と最小濃度値を
検出する。最大濃度値をPmax、最小濃度値をPminとす
ると、すなわち、 Pmax = max(Pi,j、Pi+1,j、Pi,j+1、P
i+1,j+1) Pmin = min(Pi,j、Pi+1,j、Pi,j+1、P
i+1,j+1) で表すことができる。
In this case, the pixel position (i, j), (i + 1, j), (i, j + 1), (i +
A maximum density value and a minimum density value are detected from the four pixels (1, j + 1). Assuming that the maximum density value is P max and the minimum density value is P min , that is, P max = max (P i, j , P i + 1, j , P i, j + 1 , P
i + 1, j + 1 ) P min = min (P i, j , P i + 1, j , P i, j + 1 , P
i + 1, j + 1 ).

【0063】元の低解像度情報における注目画素位置
(i、j)が、エッジ強調画像生成部4、補間画素生成
部5の処理を経て元の画素を含めてM×M個の補間画素を
生成したとする。本実施形態では、このM×M個の全ての
補間画素とPmaxとPminと比較し、補間画素の内、P
maxより大きい濃度値を持つ画素位置の濃度値をP
maxに、Pminより小さい濃度値を持つ画素位置の濃度値
をPminに置き換えられるように重み係数を出力する。
The target pixel position (i, j) in the original low-resolution information is processed by the edge emphasized image generation unit 4 and the interpolation pixel generation unit 5 to generate M × M interpolation pixels including the original pixel. Suppose you did. In the present embodiment, all of the M × M interpolated pixels are compared with P max and P min, and among the interpolated pixels, P
The density value of a pixel position having a density value larger than max is P
the max, and outputs the weighting factor to replace the density value of the pixel positions having a P min smaller density value P min.

【0064】重み付け合成部7では、比較部6の出力で
ある重み係数に基づき、低解像度画素と補間画素生成部
5の出力画素に対し重み付けを行う。具体的には、補間
画素位値(i+Δi、j+Δj)の出力端子8での補間
画素P’i+Di,j+Djは、 P’i+Di,j+Dj=Wmax×Pmax+Wmin×Pmin+(1−W
max)(1−Wmin)×Pi+Di,j+Dj と表すことができる。
The weighting / synthesizing section 7 weights the low-resolution pixels and the output pixels of the interpolation pixel generating section 5 based on the weighting coefficients output from the comparing section 6. Specifically, the interpolation pixel P ′ i + Di, j + Dj at the output terminal 8 of the interpolation pixel position value (i + Δi, j + Δj) is P ′ i + Di, j + Dj = W max × P max + W min × P min + (1-W
max ) (1−W min ) × P i + Di, j + Dj .

【0065】ここで、Di、DjはΔi、Δjを意味し、
max、Wminはそれぞれ、 Pi+Di,j+Dj > Pmax の時、Wmax=1、Wmin=0、 Pi+Di,j+Dj < Pmin の時、Wmax=0、Wmin=1、 Pmin < Pi+Di,j+Dj < Pmax の時、Wmax=0、W
min=0 となるように与える重み係数である。
Here, Di and Dj mean Δi and Δj,
W max and W min are respectively W max = 1, W min = 0 when Pi + Di, j + Dj > P max , and W max = 0 when Pi + Di, j + Dj <P min Wmin = 1, Pmin < Pi + Di, j + Dj < Pmax , Wmax = 0, W
It is a weight coefficient given so that min = 0.

【0066】図6に、これらの処理を施した場合の各画
素の値を示す。本図では、図5と同様に、主走査方向ま
たは副走査方向の一次元方向のみ対象として示してい
る。ここでは、太枠で示される元の低解像度情報である
隣接する2つの画素の濃度値が、お互いPmax、Pmin
あるものとする。
FIG. 6 shows the value of each pixel when these processes are performed. In this drawing, as in FIG. 5, only the one-dimensional direction in the main scanning direction or the sub-scanning direction is shown. Here, it is assumed that the density values of two adjacent pixels, which are the original low-resolution information indicated by the thick frames, are P max and P min , respectively.

【0067】本実施形態によれば、エッジ強調された画
素を基にバイリニア法により補間された画素の内、元の
画素濃度Pmaxを超える画素はPmaxに置き変わり、元の
画素濃度Pminを下回る画素はPminに置き変わり、図5
の補間結果から、新たに図6の太実線に添った補間画素
が得られる。
According to the present embodiment, among the pixels interpolated by the bilinear method based on the edge-emphasized pixels, pixels exceeding the original pixel density P max are replaced with P max , and the original pixel density P min 5 are replaced with P min , and FIG.
From the interpolation result, an interpolation pixel along the thick solid line in FIG. 6 is newly obtained.

【0068】図7に、本実施形態のエッジ処理方法を用
いて補間画素生成した例を示す。
FIG. 7 shows an example of interpolation pixel generation using the edge processing method of the present embodiment.

【0069】図7(a)は原画素である低解像度情報を示
す。この情報にエッジ強調を施して得られる画素を(b)
とし、さらにバイリニア法またはキュービックコンボリ
ューション法を用いて補間画素を生成し(c)を得る。
FIG. 7A shows low resolution information as original pixels. Pixels obtained by performing edge enhancement on this information are shown in (b)
Then, an interpolation pixel is generated by using the bilinear method or the cubic convolution method, and (c) is obtained.

【0070】この(c)の各画素に対し、(a)の対応する画
素濃度値を比較して、原画素より大きい濃度値を持つ画
素位置の濃度値と原画素より小さい濃度値を持つ画素位
置の濃度値を各々原画素の濃度値の最大値と最小値に置
き換え、(d)を得る。
For each pixel in (c), the corresponding pixel density value in (a) is compared, and the density value of the pixel position having a density value larger than the original pixel and the pixel having a density value smaller than the original pixel are compared. The density value at the position is replaced with the maximum value and the minimum value of the density value of the original pixel, and (d) is obtained.

【0071】以上の処理方法により、低解像度情報の濃
度値や濃度値分布の特徴を反映した高解像度情報へ変換
が可能になる。
With the above processing method, it is possible to convert low-resolution information into high-resolution information reflecting characteristics of the density value and density value distribution.

【0072】図8に、これら一連の動作を具体的な画素
濃度値で表した図を示す。図では2×2の画素数を4×
4の画素数に変換する場合を例としている。図中の(a)
の太枠で示した画素位置を原画素の補間対象の画素とす
る。強調係数決定部3において図4(a)で示されるフィ
ルタを用いるものとし、この場合x=2と決定するもの
とする。
FIG. 8 is a diagram showing a series of these operations in terms of specific pixel density values. In the figure, the number of 2 × 2 pixels is 4 ×
An example is shown in which the number of pixels is converted to four. (A) in the figure
The pixel position indicated by the bold frame is a pixel to be interpolated as an original pixel. It is assumed that the filter shown in FIG. 4A is used in the emphasis coefficient determination unit 3, and in this case, x = 2 is determined.

【0073】このフィルタを用いてエッジ強調画像生成
部4において求められるエッジ強調画素値を図中の(b)
に示す。図中の(c)は、この各画素値について、補間画
素生成部5においてバイリニア法により補間画素を生成
した時の画素値を示す。比較部6により図中(a)の画素
値からPmax、Pminを求める。この場合は、Pmax=2
00、Pmin=1となる。
The edge-enhanced pixel value obtained in the edge-enhanced image generation unit 4 using this filter is represented by (b) in FIG.
Shown in (C) in the figure shows a pixel value when an interpolation pixel is generated by the bilinear method in the interpolation pixel generation unit 5 for each pixel value. Pmax and Pmin are obtained from the pixel values shown in FIG. In this case, P max = 2
00, P min = 1.

【0074】重み付け合成部7において、これら
max、Pminの値から図中(c)の各画素に対し大小関係
を比較して、置き換えを実行すると、図中(d)の各画素
値が求められる。
When the weighting / synthesizing unit 7 compares the values of P max and P min with respect to each pixel in FIG. 3C and compares them with each other, and executes the replacement, the pixel values in FIG. Desired.

【0075】重み付け合成部7により得られた高解像度
情報は、出力端子8からプリンタやモニタなどの画像出
力装置へ出力される。
The high-resolution information obtained by the weighting / synthesizing section 7 is output from an output terminal 8 to an image output device such as a printer or a monitor.

【0076】本実施形態によれば、原画像が持つ配色を
変化させずに、かつ、高解像度変換を行った後のエッジ
領域のぼけを抑制することが可能な、画像処理装置およ
びエッジ処理方法を提供することができる。
According to the present embodiment, an image processing apparatus and an edge processing method capable of suppressing blurring of an edge area after high-resolution conversion without changing the color scheme of an original image. Can be provided.

【0077】また、本実施形態の画像処理装置を採用し
た上記図2に示すような画像表示・印刷システムによれ
ば、原画像を拡大変倍出力する際にも、原画像の持つ配
色の特徴を変えることなく、かつ、エッジ領域のぼけの
発生も抑制することができる。
According to the image display / printing system as shown in FIG. 2 which employs the image processing apparatus of the present embodiment, even when the original image is enlarged and resized, the color arrangement characteristic of the original image is obtained. Is not changed, and the occurrence of blur in the edge region can also be suppressed.

【0078】また、本実施形態の画像処理装置を採用し
た上記図3に示すような印影照合システムによれば、照
合対象となる入力画像データを小さくしておき、これを
拡大してテンプレートデータと比較照合する場合にも、
入力画像拡大時に起こりやすい、エッジ領域でのぼけの
発生や配色の変化が抑制されるため、照合精度の向上を
図ることができる。
Further, according to the seal imprint collation system as shown in FIG. 3 employing the image processing apparatus of the present embodiment, the input image data to be collated is reduced, and this is enlarged to generate template data and When comparing and matching,
Since the occurrence of blurring in the edge region and a change in color arrangement, which are likely to occur when the input image is enlarged, are suppressed, the matching accuracy can be improved.

【0079】なお、本実施形態の図4における変数xの
与え方は、補間画素数に比例する様に与えるものとした
が、他に画像入力端子1から得られる補間対象画素周辺
の濃度値分布の特徴により決定してもよい。
In this embodiment, the variable x in FIG. 4 is given in proportion to the number of pixels to be interpolated. Alternatively, the density value distribution around the pixel to be interpolated obtained from the image input terminal 1 may be used. May be determined according to the characteristics of

【0080】例えば、補間対象画素周辺の周波数分布を
調べ、高周波分布が多く見られる場合はxの値を小さく
し、そうでない場合は大きく与えるようにする構成とし
てもよい。
For example, a configuration may be adopted in which the frequency distribution around the pixel to be interpolated is examined, and the value of x is reduced when a large number of high-frequency distributions are found, and is increased when not.

【0081】また、本実施形態の比較部では、注目画素
の周辺に存在する周辺画素群の最大濃度値および最小濃
度値をしきい値として求めていたが、本発明で用いるこ
とができるしきい値はこれらに限定されるものではな
い。例えば、最大濃度値および最小濃度値から新たにし
きい値を求める構成としたり、あるいは周辺画素群での
配色(濃度値分布)の特徴として最大・最小濃度値に加
えて、濃度の変化量や変化方向等を抽出し、これらが反
映されるようにしきい値を設定する構成としてもよい。
In the comparison section of the present embodiment, the maximum density value and the minimum density value of the peripheral pixel group existing around the target pixel are obtained as threshold values, but the threshold value can be used in the present invention. The values are not limited to these. For example, a new threshold value is obtained from the maximum density value and the minimum density value, or the color change (density value distribution) in the peripheral pixel group is added to the maximum and minimum density values, A configuration may be adopted in which directions and the like are extracted and threshold values are set so that these are reflected.

【0082】また、本実施形態では解像度の変換処理に
対して本発明を適用した例について説明したが、本発明
は解像度の変換処理以外の画像処理においても、エッジ
処理が関係する画像処理であれば本実施形態と同様に、
エッジ領域でのぼけの発生を抑制することができる。
In this embodiment, an example in which the present invention is applied to the resolution conversion processing has been described. However, the present invention is applicable to any image processing other than the resolution conversion processing that involves edge processing. For example, as in the present embodiment,
The occurrence of blur in the edge region can be suppressed.

【0083】例えば、入力画像あるいは入力画像を所定
の方法で画像処理した画像についてエッジ強調処理を行
い、あるいはエッジ強調処理を行った後に該エッジ強調
した画像について所定の画像処理を行い、その少なくと
もエッジ強調処理された画像と入力画像とを比較し該比
較結果に応じて、入力画像のエッジ領域における濃度値
分布により決定される配色あるいは濃淡の特徴を変えな
いように、該少なくともエッジ強調された画像のエッジ
領域における画素の濃度値を再設定する構成としてもよ
い。
For example, edge enhancement processing is performed on an input image or an image obtained by performing image processing on an input image by a predetermined method, or predetermined image processing is performed on the edge-enhanced image after performing the edge enhancement processing. The at least edge-enhanced image is compared with the input image and the emphasized image so as not to change a color scheme or shading characteristic determined by a density value distribution in an edge region of the input image according to the comparison result. The configuration may be such that the density value of the pixel in the edge region is reset.

【0084】(実施形態2)本実施形態における画像処
理装置の構成ブロックの概略を図17に示す。本実施形
態の画像処理装置は、焦点の合わない画像等のようにエ
ッジ領域がぼけている画像に対して画像処理を行うこと
で、ぼけた領域を除去しエッジを鮮鋭にすることを可能
とするものであり、以下に説明する1701〜1709
の構成を備えるものである。
(Embodiment 2) FIG. 17 shows a schematic block diagram of an image processing apparatus according to the present embodiment. The image processing apparatus according to the present embodiment performs image processing on an image whose edge region is blurred, such as an out-of-focus image, so that the blurred region can be removed and the edge can be sharpened. 1701 to 1709 described below.
Is provided.

【0085】図17において、1701は、画像処理の
対象とする原画像情報を入力する画像情報入力端子であ
り、一般的にはスキャナやデジタルカメラ、画面に表示
されている画像データなどが入力対象データとなる。1
702は、エッジ強調をかける度合いを示す情報を入力
するエッジ強調係数入力端子である。
In FIG. 17, reference numeral 1701 denotes an image information input terminal for inputting original image information to be subjected to image processing. Generally, an image data input terminal is a scanner, a digital camera, image data displayed on a screen, or the like. Data. 1
Reference numeral 702 denotes an edge enhancement coefficient input terminal for inputting information indicating the degree of edge enhancement.

【0086】1704は、その決定した強調係数を用い
て入力端子1701から得た入力画像をエッジ強調する
ためのエッジ強調画像生成部である。1706は、画像
入力端子1701から入力された入力画像の注目画素と
エッジ強調画像生成部1704の出力値と比較し、その
結果に応じて各画像値の重み付けの度合いを示す値を出
力する比較部である。
Reference numeral 1704 denotes an edge-enhanced image generation unit for edge-enhancing the input image obtained from the input terminal 1701 using the determined enhancement coefficient. A comparison unit 1706 compares the target pixel of the input image input from the image input terminal 1701 with the output value of the edge enhanced image generation unit 1704, and outputs a value indicating the degree of weighting of each image value according to the result. It is.

【0087】1709は、最大濃度値と最小濃度値を検
出する周辺画素範囲を任意に指定するための情報を比較
部1706に与える情報入力端子である。
Reference numeral 1709 denotes an information input terminal for giving information for arbitrarily specifying a peripheral pixel range for detecting the maximum density value and the minimum density value to the comparison unit 1706.

【0088】1707は、比較部1706の出力である
重み付けに応じて、画像入力端子1701から入力され
た入力画像の注目画素とエッジ強調画像生成部1704
の出力値に対し重み付けして合成を行う重み付け合成部
である。
Reference numeral 1707 denotes a pixel of interest of the input image input from the image input terminal 1701 and an edge-enhanced image generation unit 1704 according to the weighting output from the comparison unit 1706.
Is a weighting synthesis unit that weights and synthesizes the output values of.

【0089】1708は、本画像処理装置により画像処
理が施された出力画像の情報を外部に出力する画像出力
端子で、重み付け合成部1707の出力が出力される。
Reference numeral 1708 denotes an image output terminal for outputting information of an output image subjected to image processing by the image processing apparatus to the outside. The output of the weighting / synthesizing unit 1707 is output.

【0090】図18に本実施形態の画像処理装置が採用
されるシステム構成例を示す。この構成は、非接触型の
入力装置により得た2次元画像をデータとして蓄え、デ
イスプレイや紙へ出力する装置である。
FIG. 18 shows an example of a system configuration in which the image processing apparatus of this embodiment is adopted. This configuration is a device that stores a two-dimensional image obtained by a non-contact input device as data and outputs the data to a display or paper.

【0091】図18において、l80lは本発明の入力
対象となる画像データを生成する画像入力装置であり、
主にデジタルカメラや非接触型のスキャナが使用され
る。l802は、本システムの利用者の各指示を入力す
るための指示入力装置であり、主にキーボードが使用さ
れる。
In FIG. 18, reference numeral 1801 denotes an image input device for generating image data to be input according to the present invention.
Digital cameras and non-contact scanners are mainly used. Reference numeral 1802 denotes an instruction input device for inputting each instruction of the user of the present system, and mainly uses a keyboard.

【0092】1804は、画像入力装置1801により
得た入力画像データの画像調整を行う画像調整部であ
る。画像調整には、主なものとして、良好な2次元画像
に変換するための画像の曲面補正やぼけ除去が挙げられ
る。1805は画像調整部l804により調整された画
像データを蓄積するデータ蓄積部である。
Reference numeral 1804 denotes an image adjustment unit for adjusting the image of the input image data obtained by the image input device 1801. Image adjustment mainly includes surface correction and blur removal of an image for conversion into a good two-dimensional image. Reference numeral 1805 denotes a data storage unit that stores the image data adjusted by the image adjustment unit 1804.

【0093】l806は、デ一タ蓄積部1805内のデ
ータを画面に表示するための画像出力装置である。I8
07は、データ蓄積部l805内のデータを紙に出力す
るためのプリンタ装置である。
Reference numeral 1806 denotes an image output device for displaying data in the data storage unit 1805 on a screen. I8
Reference numeral 07 denotes a printer for outputting data in the data storage unit 1805 to paper.

【0094】本実施形態における画像処理装置は、例え
ば画像調整部18O4に内蔵されるものであり、ぼけ画
像のぼけ除去処理として機能するものである。
The image processing apparatus according to the present embodiment is built in, for example, the image adjustment unit 1804 and functions as a blur removal processing for a blurred image.

【0095】図17における各部の動作は、図1におけ
る補間画素生成部5と強調係数決定部3を排除し、直接
エッジ強調をかける度合いの情報を入力するエッジ強調
係数入力端子1702を持つ事以外は、上記図1におけ
る画像処理装置と同様の動作をするものである。
The operation of each unit in FIG. 17 is different from that of FIG. 1 in that the interpolation pixel generation unit 5 and the enhancement coefficient determination unit 3 are eliminated and an edge enhancement coefficient input terminal 1702 for directly inputting information of the degree of edge enhancement is provided. Performs the same operation as the image processing apparatus in FIG.

【0096】すなわち、入力された原画像はエッジ強調
画像生成部1704によりエッジ強調される。比較部1
706では、エッジ強調された画像と原画像とが比較さ
れ、その比較結果に応じて、エッジ強調された画像の各
画素の濃度値が原画像の最大および最小濃度値をそれぞ
れ超えないように、エッジ強調された画像の各画素につ
いての重み付けが行われる。この重み付けに応じて重み
付け合成部1707では、原画像とエッジ強調された画
像とが合成され、ぼけた部分が削減された出力画像が得
られる。なお、各部での詳細動作については、上記実施
形態1で説明しているため、ここでは省略する。
That is, the input original image is edge-enhanced by the edge-enhanced image generation unit 1704. Comparison section 1
At 706, the edge-enhanced image is compared with the original image, and according to the comparison result, the density value of each pixel of the edge-enhanced image does not exceed the maximum and minimum density values of the original image, respectively. Weighting is performed on each pixel of the edge-emphasized image. In accordance with the weighting, the weighting / synthesizing unit 1707 synthesizes the original image and the edge-emphasized image, and obtains an output image in which the blurred portion is reduced. Since the detailed operation of each unit has been described in the first embodiment, it will not be described here.

【0097】但し、本実施形態では、エッジ強調係数入
力瑞子l702により与えられるエッジ強調係数xは、
利用者が任意に与えるものであり、エッジ強調を強めた
い場合ほど大きい整数値を与えるものとする。
However, in the present embodiment, the edge enhancement coefficient x given by the edge enhancement coefficient input mizuko l702 is
It is arbitrarily given by the user, and a larger integer value is given as the user wants to strengthen the edge emphasis.

【0098】また、情報入力端子l709により入力さ
れ比較部17O6で使用される、最大濃度値と最小濃度
値を検出する注目画素の周辺画素範囲を示す値nは、入
力画像の焦点が合っている場合は低く、焦点がぼけてい
る画像の場合ほど大きく取るように与えるのが好まし
い。具体的には、エッジのぼけ領域外から最大濃度値と
最小濃度値を検出できるように、利用者が与えるものと
する。
The value n indicating the peripheral pixel range of the target pixel for detecting the maximum density value and the minimum density value, which is input from the information input terminal l709 and used by the comparison unit 17O6, is in focus on the input image. It is preferable that the image is low and the image is out of focus, so that the image is enlarged. Specifically, it is assumed that the user gives the maximum density value and the minimum density value from outside the blurred area of the edge.

【0099】本実施形態による画像処理装置あるいはそ
れを採用したシステムによれば、上記実施形態1と同等
の処理を行うことにより、例えば図19に示すように、
ぼけが生じている入力画像からぼけを排除した出力画像
を得ることができる。
According to the image processing apparatus of the present embodiment or a system employing the same, by performing the same processing as in the first embodiment, for example, as shown in FIG.
It is possible to obtain an output image in which the blur has been eliminated from the input image in which the blur has occurred.

【0100】[0100]

【発明の効果】以上述べたように、本発明によれば、エ
ッジが強調されかつ入力された低解像度情報の配色を変
えない、解像度変換処理装置を提供することが可能とな
る。
As described above, according to the present invention, it is possible to provide a resolution conversion processing device in which edges are emphasized and the coloration of input low-resolution information is not changed.

【0101】さらに、本発明によれば、焦点が合ってな
い画像やエッジがぼけた画像を入力画像として与えた場
合でも、エッジ強調係数と周辺画素範囲を調整すること
により、エッジが強調され、かつ入力された原画像の配
色を変えない、ぼけを排除した画像を得る事が可能とな
る。
Further, according to the present invention, even when an out-of-focus image or an image with a blurred edge is given as an input image, the edge is enhanced by adjusting the edge enhancement coefficient and the peripheral pixel range. In addition, it is possible to obtain an image which does not change the color scheme of the input original image and which is free from blur.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施形態における画像処理装置の
構成ブロック図。
FIG. 1 is a configuration block diagram of an image processing apparatus according to an embodiment of the present invention.

【図2】 本発明の画像処理装置が採用される画像表示
およびプリンタシステムの全体構成の一例を示す説明
図。
FIG. 2 is an explanatory diagram showing an example of the overall configuration of an image display and printer system in which the image processing apparatus of the present invention is employed.

【図3】 本発明の画像処理装置が採用される印影照合
システムの全体構成の一例を示す説明図。
FIG. 3 is an explanatory diagram showing an example of the overall configuration of a seal imprint collation system that employs the image processing apparatus of the present invention.

【図4】図4(a):本発明のエッジ強調フィルタの一例
を示す説明図。 図4(b):本発明のエッジ強調フィルタの他の例を示す
説明図。
FIG. 4A is an explanatory diagram showing an example of an edge enhancement filter according to the present invention. FIG. 4B is an explanatory diagram showing another example of the edge enhancement filter of the present invention.

【図5】 エッジ強調処理後、バイリニア法により補間
画素を生成した例を1次元的に示す説明図。
FIG. 5 is an explanatory diagram one-dimensionally illustrating an example in which an interpolation pixel is generated by a bilinear method after edge enhancement processing.

【図6】 本発明による補間画素の生成した例を1次元
的に示す説明図。
FIG. 6 is an explanatory diagram one-dimensionally showing an example of generating an interpolation pixel according to the present invention.

【図7】図7(a):本発明による補間画素生成時の画素
状態を2次元的に示す説明図。 図7(b):本発明による補間画素生成時の画素状態を2
次元的に示す説明図。 図7(c):本発明による補間画素生成時の画素状態を2
次元的に示す説明図。 図7(d):本発明による補間画素生成時の画素状態を2
次元的に示す説明図。
FIG. 7A is an explanatory diagram two-dimensionally showing a pixel state when an interpolation pixel is generated according to the present invention. FIG. 7 (b): The pixel state at the time of generating the interpolation pixel according to the present invention is 2
FIG. FIG. 7C: The pixel state at the time of generating the interpolation pixel according to the present invention is 2
FIG. FIG. 7D: The pixel state at the time of generating the interpolation pixel according to the present invention is 2
FIG.

【図8】図8(a):本発明による補間画素生成時の画素状
態を具体的数値で示す説明図。 図8(b):本発明による補間画素生成時の画素状態を具体
的数値で示す説明図。 図8(c):本発明による補間画素生成時の画素状態を具体
的数値で示す説明図。 図8(d):本発明による補間画素生成時の画素状態を具体
的数値で示す説明図。
FIG. 8A is an explanatory diagram showing specific pixel values of a pixel state when an interpolation pixel is generated according to the present invention. FIG. 8B is an explanatory diagram showing a pixel state at the time of generating an interpolation pixel by specific numerical values according to the present invention. FIG. 8C is an explanatory diagram showing the pixel states at the time of generating the interpolation pixels by specific numerical values according to the present invention. FIG. 8 (d) is an explanatory diagram showing a pixel state at the time of generating an interpolation pixel by specific numerical values according to the present invention.

【図9】 ニアリストネイバ法の原理を示す説明図。FIG. 9 is an explanatory diagram showing the principle of the nearest neighbor method.

【図10】 バイリニア法の原理を示す説明図。FIG. 10 is an explanatory diagram illustrating the principle of the bilinear method.

【図11】 キュービックコンボリューション法の原理を
示す説明図。
FIG. 11 is an explanatory diagram showing the principle of the cubic convolution method.

【図12】 ニアリストネイバ法による画素生成例を示す
説明図。
FIG. 12 is an explanatory diagram showing an example of pixel generation by the nearest neighbor method.

【図13】 バイリニア法による画素生成例を示す説明
図。
FIG. 13 is an explanatory diagram showing an example of pixel generation by a bilinear method.

【図14】 エッジ強調フィルタの構成例を示す説明図。FIG. 14 is an explanatory diagram illustrating a configuration example of an edge enhancement filter.

【図15】図15(a):エッジ強調後バイリニア法による画
素生成例を示す説明図。 図15(b):エッジ強調後バイリニア法による画素生成例
を示す説明図。 図15(c):エッジ強調後バイリニア法による画素生成例
を示す説明図。
FIG. 15A is an explanatory diagram showing an example of pixel generation by the bilinear method after edge enhancement. FIG. 15B is an explanatory diagram showing an example of pixel generation by the bilinear method after edge enhancement. FIG. 15C is an explanatory diagram showing an example of pixel generation by the bilinear method after edge enhancement.

【図16】 最大濃度値と最小濃度値を検出する周辺画素
範囲例を示す説明図。
FIG. 16 is an explanatory diagram illustrating an example of a peripheral pixel range for detecting a maximum density value and a minimum density value.

【図17】 本発明の他の実施形態における画像処理装置
の構成ブロック図。
FIG. 17 is a configuration block diagram of an image processing apparatus according to another embodiment of the present invention.

【図18】 本発明の画像処理装置が採用される画像処理
システムの全体構成の一例を示す説明図。
FIG. 18 is an explanatory diagram illustrating an example of the overall configuration of an image processing system that employs the image processing apparatus of the present invention.

【図19】図19(a):実施形態2のエッジ処理による画素
生成例を示す説明図。 図19(b):実施形態2のエッジ処理による画素生成例を
示す説明図。
FIG. 19A is an explanatory diagram illustrating an example of pixel generation by edge processing according to the second embodiment. FIG. 19B is an explanatory diagram illustrating an example of pixel generation by edge processing according to the second embodiment.

【符号の説明】[Explanation of symbols]

1…画像入力端子、2…情報入力端子、3…強調係数決
定部、4…エッジ強調画像生成部、5…補間画素生成
部、6…しきい値決定部、7…画素判定部、8…画像出
力端子、9…情報入力端子、21…画像入力装置、22
…ネットワークケーブル線、23…ビデオドライバ、2
4…画像出力装置、25…プリンタドライバ、26…プ
リンタ装置、31…画像入力装置、32…指示入力装
置、33…テンプレートファイル、34…テンプレート
読み出し部、35…画像調整部、36…正規化部、37
…照合部、38…結果出力部、39…結果出力装置。
DESCRIPTION OF SYMBOLS 1 ... Image input terminal, 2 ... Information input terminal, 3 ... Enhancement coefficient determination part, 4 ... Edge enhancement image generation part, 5 ... Interpolation pixel generation part, 6 ... Threshold value determination part, 7 ... Pixel determination part, 8 ... Image output terminal, 9: Information input terminal, 21: Image input device, 22
... Network cable line, 23 ... Video driver, 2
4 image output device, 25 printer driver, 26 printer device, 31 image input device, 32 instruction input device, 33 template file, 34 template read unit, 35 image adjustment unit, 36 normalization unit , 37
... A collating unit, 38 a result output unit, 39 a result output device.

フロントページの続き (72)発明者 中村 敏明 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 (72)発明者 中島 啓介 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 Fターム(参考) 5B057 BA02 BA25 CA01 CA02 CA08 CA12 CA16 CB01 CB02 CB08 CB12 CB16 CC01 CD06 CE03 CE08 DA20 DB02 DB05 DB06 DB09 DC33 5C076 AA12 AA21 AA22 BB04 5C077 PP03 PP55 RR19 SS07 TT02Continued on the front page (72) Inventor Toshiaki Nakamura 7-1-1, Omika-cho, Hitachi City, Ibaraki Prefecture Inside Hitachi Research Laboratory, Hitachi, Ltd. (72) Keisuke Nakajima 7-1-1, Omika-cho, Hitachi City, Ibaraki Prefecture F term in Hitachi Research Laboratory, Hitachi, Ltd. (Reference) 5B057 BA02 BA25 CA01 CA02 CA08 CA12 CA16 CB01 CB02 CB08 CB12 CB16 CC01 CD06 CE03 CE08 DA20 DB02 DB05 DB06 DB09 DC33 5C076 AA12 AA21 AA22 BB04 5C077 PP03 PP55 02

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】多値画像を入力画像とし、該入力画像の画
素値を補間して解像度変換を行う画像処理装置におい
て、 前記入力画像情報を入力する画像入力手段と、 前記入力画像情報をエッジ強調するエッジ強調画像生成
手段と、 前記エッジ強調された入力画像上の指定された位置にお
ける画素値を補間して補間画素を生成する補間画素生成
手段と、 前記入力画像上の指定された位置の周辺画素の画素値か
ら、予め定めた方法によりしきい値を求め、該しきい値
と前記補間画素生成手段で生成された補間画素の画素値
とを比較する比較手段と、 前記比較した結果に応じて、前記補間画素値に対し重み
付けを行うことで、より高解像度の出力画像情報を合成
する重み付け合成手段と、 前記重み付け合成手段で合成された出力画像情報を外部
に出力する画像出力手段とを有することを特徴とする画
像処理装置。
An image processing apparatus for performing resolution conversion by interpolating pixel values of a multi-valued image as an input image and interpolating pixel values of the input image, comprising: an image input unit for inputting the input image information; Edge-enhanced image generation means for emphasizing; interpolated pixel generation means for generating an interpolated pixel by interpolating a pixel value at a specified position on the edge-emphasized input image; From a pixel value of a peripheral pixel, a threshold value is obtained by a predetermined method, and a comparison unit that compares the threshold value with the pixel value of the interpolation pixel generated by the interpolation pixel generation unit, In response, weighting is performed on the interpolated pixel values, and a weighting / synthesizing unit that synthesizes higher-resolution output image information is output to the outside. The image processing apparatus characterized by having an image output means for.
【請求項2】請求項1に記載の画像処理装置において、 前記画素値の補間処理に関する情報を入力する情報入力
手段と、 前記画像入力手段と前記情報入力手段とから入力された
情報に基づき、エッジ強調処理に使用するフィルタの係
数を求める強調係数決定手段とを、さらに備え、 前記エッジ強調画像生成手段は、前記求めたフィルタ係
数を用いて、前記入力画像情報をエッジ強調することを
特徴とする画像処理装置。
2. The image processing apparatus according to claim 1, wherein: information input means for inputting information on the pixel value interpolation processing; and information input from the image input means and the information input means. Enhancement coefficient determining means for determining a coefficient of a filter used for edge enhancement processing, wherein the edge-enhanced image generation means performs edge enhancement on the input image information using the determined filter coefficient. Image processing device.
【請求項3】請求項2に記載の画像処理装置において、 前記強調係数決定手段は、前記入力画像上の指定された
位置の周辺画素の画素値に応じて、前記フィルタ係数を
変化させることを特徴とする画像処理装置。
3. The image processing apparatus according to claim 2, wherein the emphasis coefficient determining unit changes the filter coefficient according to a pixel value of a peripheral pixel at a specified position on the input image. Characteristic image processing device.
【請求項4】請求項2に記載の画像処理装置において、 前記情報入力手段は補間すべき補間画素数の入力を受け
付けるものであり、 前記強調係数決定手段は、前記入力された補間画素数に
比例して、前記フィルタ係数を変化させることを特徴と
する画像処理装置。
4. The image processing apparatus according to claim 2, wherein the information input means receives an input of the number of interpolation pixels to be interpolated, and the emphasis coefficient determination means determines the number of interpolation pixels to be inputted. An image processing apparatus, wherein the filter coefficient is changed in proportion.
【請求項5】請求項1に記載の画像処理装置において、 前記比較手段は、前記入力画像上の指定された位置の周
辺画素の群において最大および最小濃度値をしきい値と
して求め、該しきい値と前記生成された補間画素とを比
較して、前記最大および最小濃度値を超えないように、
前記生成された補間画素の群における各画素値を再設定
するための重み付け係数を決定するものであり、 前記重み付け合成手段は、前記求められた重み付け係数
に従い、前記出力画像情報を合成することを特徴とする
画像処理装置。
5. The image processing apparatus according to claim 1, wherein said comparing means obtains a maximum and a minimum density value as a threshold value in a group of peripheral pixels at a designated position on said input image. Comparing the threshold value with the generated interpolation pixel so as not to exceed the maximum and minimum density values,
A weighting coefficient for resetting each pixel value in the generated group of interpolated pixels is determined.The weighting / combining unit combines the output image information according to the obtained weighting coefficient. Characteristic image processing device.
【請求項6】請求項1に記載の画像処理装置において、 前記比較手段は、前記しきい値を決定するために用いる
周辺画素の範囲が任意に設定可能であることを特徴とす
る画像処理装置。
6. The image processing apparatus according to claim 1, wherein said comparing means can arbitrarily set a range of peripheral pixels used for determining said threshold value. .
【請求項7】入力された画像データをデータ変換するプ
リンタドライバと、該変換された画像データを用いてデ
ータ出力を行うプリンタ装置とを少なくとも有する印刷
システムにおいて、 上記プリンタドライバは、請求項1〜6のいずれかに記
載の画像処理装置を少なくとも備えることを特徴とする
印刷システム。
7. A printing system having at least a printer driver for converting input image data into data and a printer for outputting data using the converted image data, wherein the printer driver comprises: A printing system comprising at least the image processing device according to any one of claims 6 to 10.
【請求項8】入力された画像データを表示するためのデ
ータ制御を行うビデオドライバと、該画像データを処理
および表示するための画像出力装置とを有する画像表示
システムにおいて、 前記ビデオドライバは、請求項1〜6のいずれかに記載
の画像処理装置を少なくとも備えることを特徴とする画
像表示システム。
8. An image display system comprising: a video driver for performing data control for displaying input image data; and an image output device for processing and displaying the image data. Item 7. An image display system comprising at least the image processing device according to any one of Items 1 to 6.
【請求項9】入力対象となる画像データを生成する画像
入力装置と、本システム利用者の各指示を入力するため
の指示入力装置と、パターンマッチングの基本画像デー
タとなる参照印影の特徴をテンプレート画像として記憶
するテンプレートファイルと、該指示入力装置からの指
示に基づき、該テンプレートファイルから所望のテンプ
レート画像を選択するテンプレート読み出し部と、該画
像入力装置により得た入力画像と該テンプレートファイ
ルから得たテンプレート画像とをマッチングするために
必要な対象画像間の調整を行う画像調整部と、該画像調
整部から得られた対象の画像データを画像照合に適した
特徴を抽出する正規化部と、該正規化部により得られた
対象画像データと該テンプレート読み出し部を通して得
られた対応するテンプレート画像とを照合する照合部
と、該照合部で得た照合結果を利用者に示すための結果
出力部と、該結果出力部からの出力を表示するための結
果出力装置を有する印影照合システムにおいて、 前記画像調整部は、請求項1〜6のいずれかに記載の画
像処理装置を少なくとも備えることを特徴とする印影照
合システム。
9. An image input device for generating image data to be input, an instruction input device for inputting each instruction of a user of the system, and a feature of a reference imprint serving as basic image data for pattern matching as a template. A template file that is stored as an image, a template reading unit that selects a desired template image from the template file based on an instruction from the instruction input device, and an input image obtained by the image input device and a template file that is obtained from the template file. An image adjustment unit that performs adjustment between target images necessary for matching with the template image, a normalization unit that extracts target image data obtained from the image adjustment unit and extracts features suitable for image matching, The target image data obtained by the normalization unit and the corresponding template obtained through the template reading unit. A seal imprint collation system having a collating unit for collating a plate image, a result output unit for presenting a collation result obtained by the collating unit to a user, and a result output device for displaying an output from the result output unit In this embodiment, the image adjustment unit includes at least the image processing device according to any one of claims 1 to 6.
【請求項10】多値画像を入力画像とし、該入力画像の
エッジ処理を行う画像処理装置において、 前記入力画像情報を入力する画像入力手段と、 前記入力画像情報をエッジ強調した画像を生成するエッ
ジ強調画像生成手段と、 前記入力画像上の指定された位置の周辺画素の画素値か
ら、予め定めた方法によりしきい値を求め、該しきい値
と前記エッジ強調画像生成手段で生成された画像の画素
値とを比較する比較手段と、 前記比較した結果に応じて、前記エッジ強調された画像
の画素値に対し重み付けを行うことで、出力画像情報を
合成する重み付け合成手段と、 前記重み付け合成手段で合成された出力画像情報を外部
に出力する画像出力手段とを有することを特徴とする画
像処理装置。
10. An image processing apparatus for processing a multi-valued image as an input image and performing edge processing on the input image, wherein: an image input means for inputting the input image information; and an image in which the input image information is edge-emphasized. An edge-enhanced image generating means, and a threshold value is obtained from a pixel value of a peripheral pixel at a designated position on the input image by a predetermined method, and the threshold value is generated by the edge-enhanced image generating means. Comparing means for comparing pixel values of the image; weighting combining means for combining output image information by performing weighting on the pixel values of the edge-emphasized image according to the comparison result; and An image output unit that outputs the output image information synthesized by the synthesis unit to the outside.
【請求項11】入力対象となる画像データを生成する画
像入力装置と、本システム利用者の各指示を入力するた
めの指示入力装置と、該指示入力装置からの指示に基づ
き、該画像入力装置により得た入力画像に画像処理を施
す画像調整部と、該画像調整部から出力される画像調整
された画像データを蓄積するデータ蓄積部と、該データ
蓄積部に蓄積された画像データを出力する画像出力装置
とを有する画像処理システムにおいて、 前記画像調整部は、請求項10に記載の画像処理装置を
少なくとも備えることを特徴とする画像処理システム。
11. An image input device for generating image data to be input, an instruction input device for inputting each instruction of a user of the present system, and the image input device based on the instruction from the instruction input device. An image adjustment unit that performs image processing on the input image obtained by the above, a data accumulation unit that accumulates image-adjusted image data output from the image adjustment unit, and outputs the image data accumulated in the data accumulation unit An image processing system having an image output device, wherein the image adjustment unit includes at least the image processing device according to claim 10.
【請求項12】入力された多値画像について少なくとも
エッジ処理を施すことで出力画像を示す情報を生成する
画像処理装置において、 前記入力画像を利用して、該入力画像についてエッジ強
調処理を少なくとも含む画像処理を実施する第1の処理
手段と、 前記入力画像のうち前記エッジ強調処理の対象となる画
素を少なくとも含む画素群における画素値を用いて予め
定めた方法によりしきい値を求め、該しきい値と前記第
1の画像処理手段から出力される画像のうち前記エッジ
強調処理された画素群の画素値とを比較する比較手段
と、 前記比較結果に応じて、前記第1の画像処理手段から出
力された画像うち前記エッジ強調処理された画素の画素
値を再設定し、該再設定された画素値に応じて出力画像
を合成する第2の処理手段とを備えることを特徴とする
画像処理装置。
12. An image processing apparatus for generating information indicating an output image by performing at least edge processing on an input multi-valued image, wherein at least edge enhancement processing is performed on the input image using the input image. First processing means for performing image processing; and determining a threshold value by a predetermined method using a pixel value in a pixel group including at least a pixel to be subjected to the edge enhancement processing in the input image. Comparing means for comparing a threshold value with a pixel value of the pixel group subjected to the edge enhancement processing in the image output from the first image processing means; and, in accordance with the comparison result, the first image processing means Second processing means for resetting the pixel values of the pixels subjected to the edge enhancement processing in the image output from the image processing apparatus, and synthesizing the output image according to the reset pixel values. The image processing apparatus characterized by.
【請求項13】多値画像のエッジ処理方法において、 前記多値画像に対してエッジ強調処理を少なくとも含む
画像処理を行い、 前記入力画像のうち前記エッジ強調処理の対象となる画
素を少なくとも含む周辺画素群の画素値分布に関して特
徴量を求め、 前記特徴量に応じて、前記画像処理された画像のうち前
記エッジ強調された領域に存在する画素の画素値を再設
定することを特徴とするエッジ処理方法。
13. An edge processing method for a multi-valued image, wherein image processing including at least edge enhancement processing is performed on the multi-valued image, and a periphery including at least a pixel to be subjected to the edge enhancement processing in the input image. An edge, wherein a feature amount is obtained with respect to a pixel value distribution of a pixel group, and a pixel value of a pixel existing in the edge-emphasized region in the image-processed image is reset according to the feature amount. Processing method.
JP10284049A 1998-10-06 1998-10-06 Picture processor and edge processing method Pending JP2000115526A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP10284049A JP2000115526A (en) 1998-10-06 1998-10-06 Picture processor and edge processing method
DE1999148060 DE19948060A1 (en) 1998-10-06 1999-10-06 Image processor for printer, generates pixel value that is inserted in designated position of low resolution image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10284049A JP2000115526A (en) 1998-10-06 1998-10-06 Picture processor and edge processing method

Publications (1)

Publication Number Publication Date
JP2000115526A true JP2000115526A (en) 2000-04-21

Family

ID=17673638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10284049A Pending JP2000115526A (en) 1998-10-06 1998-10-06 Picture processor and edge processing method

Country Status (2)

Country Link
JP (1) JP2000115526A (en)
DE (1) DE19948060A1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1321522C (en) * 2003-11-18 2007-06-13 佳能株式会社 Image processing method and apparatus
JP2009159171A (en) * 2007-12-25 2009-07-16 Toshiba Corp Method and apparatus for enhancing image resolution
US7826686B2 (en) 2005-03-18 2010-11-02 Seiko Epson Corporation Pixel interpolation apparatus and pixel interpolation program product
US8233744B2 (en) 2008-12-22 2012-07-31 Panasonic Corporation Image enlargement apparatus, method, integrated circuit, and program
US8559747B2 (en) 2010-08-23 2013-10-15 Kabushiki Kaisha Toshiba Image processing apparatus, image processing method, and camera module
KR20160069453A (en) 2014-12-05 2016-06-16 삼성디스플레이 주식회사 Image proccessing apparatus and image proccessing method
JP2016527611A (en) * 2013-06-19 2016-09-08 クゥアルコム・テクノロジーズ・インコーポレイテッド System and method for single frame based super resolution interpolation for digital cameras
US9466008B2 (en) 2013-12-09 2016-10-11 Samsung Display Co., Ltd. Device and method for processing image

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1321522C (en) * 2003-11-18 2007-06-13 佳能株式会社 Image processing method and apparatus
US7826686B2 (en) 2005-03-18 2010-11-02 Seiko Epson Corporation Pixel interpolation apparatus and pixel interpolation program product
JP2009159171A (en) * 2007-12-25 2009-07-16 Toshiba Corp Method and apparatus for enhancing image resolution
US8233744B2 (en) 2008-12-22 2012-07-31 Panasonic Corporation Image enlargement apparatus, method, integrated circuit, and program
US8811773B2 (en) 2008-12-22 2014-08-19 Panasonic Corporation Image enlargement apparatus, method, integrated circuit, and program
US8559747B2 (en) 2010-08-23 2013-10-15 Kabushiki Kaisha Toshiba Image processing apparatus, image processing method, and camera module
JP2016527611A (en) * 2013-06-19 2016-09-08 クゥアルコム・テクノロジーズ・インコーポレイテッド System and method for single frame based super resolution interpolation for digital cameras
US9466008B2 (en) 2013-12-09 2016-10-11 Samsung Display Co., Ltd. Device and method for processing image
KR20160069453A (en) 2014-12-05 2016-06-16 삼성디스플레이 주식회사 Image proccessing apparatus and image proccessing method
US9614999B2 (en) 2014-12-05 2017-04-04 Samsung Display Co., Ltd. Image processing apparatus and image processing method with edge enhancement

Also Published As

Publication number Publication date
DE19948060A1 (en) 2000-05-25

Similar Documents

Publication Publication Date Title
EP0874330B1 (en) Area based interpolation for image enhancement
JP5450600B2 (en) Improving image resolution
EP1347410B1 (en) Edge-based enlargement and interpolation of images
JP2003283811A (en) Image processing apparatus and program
JP3075269B2 (en) Image data interpolation method, image data interpolation device, and medium recording image data interpolation program
JP2004166007A (en) Device, method and program for image processing, and storage medium
JPH07131634A (en) Image processor
JP2000115526A (en) Picture processor and edge processing method
JP2010055410A (en) Image processing device, image processing method, and image processing program
JPH09149241A (en) Method and device for enlarging picture
JP3026706B2 (en) Image processing device
JP4095204B2 (en) Image processing apparatus, method, and computer-readable storage medium
JP2000253238A (en) Picture processor and picture processing method
JP2001177719A (en) Image processor and print system and image display system
JP3092769B2 (en) Image processing device
JP2004133592A (en) Image processor, image processing method and image processing program for magnifying image
JP4708866B2 (en) Lookup table creation device and method, and lookup table creation program
KR100587979B1 (en) Interpolation method for image enlargement based on edge and corner
JP3262425B2 (en) Image processing device
JP4730525B2 (en) Image processing apparatus and program thereof
JP4345027B2 (en) Image processing program and image processing apparatus
JP3462957B2 (en) Image processing method
JP2006050481A (en) Image processing apparatus, image processing method and program thereof
JP3201338B2 (en) Image data interpolation apparatus, image data interpolation method, and medium recording image data interpolation program
JP6157234B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040113