JPH07262361A - Method and device for image processing - Google Patents

Method and device for image processing

Info

Publication number
JPH07262361A
JPH07262361A JP6051712A JP5171294A JPH07262361A JP H07262361 A JPH07262361 A JP H07262361A JP 6051712 A JP6051712 A JP 6051712A JP 5171294 A JP5171294 A JP 5171294A JP H07262361 A JPH07262361 A JP H07262361A
Authority
JP
Japan
Prior art keywords
information
contour
image
resolution
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP6051712A
Other languages
Japanese (ja)
Inventor
Keita Saito
慶太 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP6051712A priority Critical patent/JPH07262361A/en
Publication of JPH07262361A publication Critical patent/JPH07262361A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

PURPOSE:To provide the method and device for image processing with which low-resolution image information can be converted to high-resolution image information without degrading the contour or the picture quality. CONSTITUTION:Low-resolution image information 101 is divided into R, G and B planes 103-105 by an image dividing part 102, contour information 107 is prepared by a contour extracting part 106 while referring to the respective planes, the resolution converting processing of the respective R, G and B planes is executed by a pattern matching method at a pattern matching processing part 108 while referring to the contour information 107, on the other hand, a picture element not judged as a contour part is interpolated by an interpolation processing part 109, respective high-resolution R, G and B planes 110-112 prepared by the pattern matching processing part 108 and the interpolation processing part 109 are coupled by an image coupling part 113, and high- resolution image information 114 is prepared.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えば低解像度の画像
情報を高解像度の画像情報に解像度変換する画像処理方
法及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and apparatus for converting low resolution image information into high resolution image information.

【0002】[0002]

【従来の技術】従来より、入力された低解像の画像情報
を高解像の画像情報に解像度変換する方法として、様々
な方法が提案されている。提案されている従来方法は、
対象となる画像の種類(例えば、各画素ごとに階調情報
を持つ多値画像、疑似中間調により2値化された2値画
像、固定閾値により2値化された2値画像、文字画像
等)によってその変換処理方法が異なっている。本発明
は、各画素ごとに階調情報を持つ自然画像等の多値画像
を主に対象としているが、従来は大まかに分けて、内挿
方法を用いるか、輪郭情報等をベクトル処理する方法が
用いられている。
2. Description of the Related Art Conventionally, various methods have been proposed as a method for converting the resolution of input low resolution image information into high resolution image information. The proposed conventional method is
Type of target image (for example, multivalued image having gradation information for each pixel, binary image binarized by pseudo halftone, binary image binarized by fixed threshold, character image, etc. ), The conversion processing method is different. The present invention is mainly intended for multi-valued images such as natural images having gradation information for each pixel, but conventionally, roughly divided, an interpolation method is used, or contour information is vector-processed. Is used.

【0003】従来の内挿方法は、図30に示すように、
内挿点に最も近い同じ画素値を配列する最近接内挿方法
や、図31に示すように、内挿点を囲む4点(4点の画
素値をA,B,C,Dとする)の距離により、以下の演
算によって画素値Eを決定する共1次内挿法等が一般的
に用いられている。
The conventional interpolation method is as shown in FIG.
The closest interpolation method of arranging the same pixel value closest to the interpolation point, or four points surrounding the interpolation point as shown in FIG. 31 (pixel values of four points are A, B, C, D) A co-linear interpolation method or the like that determines the pixel value E by the following calculation according to the distance is generally used.

【0004】E=(1−i)(1−j)A+i・(1−
j)B+j・(1−i)C+ijD 但し、画素間距離を1とした場合に、Aから横方向に
i、縦方向にjの距離があるとする(i≦1,j≦
1)。
E = (1-i) (1-j) A + i. (1-
j) B + j · (1-i) C + ijD However, if the inter-pixel distance is 1, it is assumed that there is a distance of i from A in the horizontal direction and j in the vertical direction (i ≦ 1, j ≦.
1).

【0005】また、輪郭部分を抽出し、コントロールを
行う点を決めた後にスプライン処理を用い、解像度変換
を行う方法には、階調値分割法と、ビットプレーン分割
法の2通りの方法がある。
Further, there are two methods of gradation value division method and bit plane division method as a method of performing resolution conversion by extracting a contour portion and deciding a control point and then using spline processing. .

【0006】図32に示すような階調値分割法は、多値
の画像情報を、幾つか、予め決めておいた階調値若しく
は画像情報から推定された階調値を用い、それぞれの階
調値毎に複数の画像情報に分割を行い、それぞれの画像
情報毎に輪郭部分を抽出し、スプライン処理を行い、拡
大若しくは縮小変倍処理を行った後に1つの画像情報に
結合を行い、高解像度の出力画像を得るものである。
In the gradation value division method as shown in FIG. 32, some multivalued image information is used by using a predetermined gradation value or a gradation value estimated from the image information. The image is divided into a plurality of image information for each key value, the contour portion is extracted for each image information, spline processing is performed, and enlargement or reduction scaling processing is performed, and then combined into one image information. The output image of the resolution is obtained.

【0007】図33に示すようなビットプレーン分割法
は、フルカラーならばR,G,Bの各々のプレーンを、
8ビットによって表現を行っているが、その各色毎のビ
ット毎(3×8=24枚)の画像情報を作成し、その画
像情報の輪郭部分を抽出し、拡大若しくは縮小変倍処理
を行った後に各ビット、各色毎の画像情報を合成するこ
とによって高解像度の画像情報を作成するものである。
In the bit plane division method as shown in FIG. 33, in the case of full color, each plane of R, G, B is
Although it is expressed by 8 bits, image information for each bit (3 × 8 = 24 sheets) for each color is created, the contour portion of the image information is extracted, and enlargement or reduction scaling processing is performed. After that, high resolution image information is created by synthesizing image information for each bit and each color.

【0008】また、解像度変換処理と、画像情報を符号
化して圧縮伸長を行う方式の両方を行う場合について
は、単純に、画像符号化方式と、解像度変換処理を個別
に行う方式と、階調数を低減させる圧縮処理中に解像度
変換処理を組み入れた方式とがある。
In the case where both the resolution conversion processing and the method of encoding and decompressing image information are performed, the image encoding method, the method of individually performing the resolution conversion processing, and the gradation There is a method in which a resolution conversion process is incorporated in the compression process for reducing the number.

【0009】図34に示すような一般的に用いられてい
る画像符号化方式と解像度変換処理を個別に行う方式
は、符号化方式に関しては色々な方式が提案されている
中で、本発明で対象としている画像が各画素毎に階調情
報を持つ自然画像等の多値画像の場合、ISO(Interna
tional Organization for Standardizatio) と合同機関
のJPEG(Joint Photographic Experts Group)から勧
告されている国際標準化案のJPEG方式を用い、まず
最初に原画像に対して符号化を行い、情報量を低減させ
て記録装置等に保存を行う。ここで述べられているJP
EG方式のDCT(Discrete Cosine Transform) は、圧
縮時に入力画像を8×8画素のブロックに分割を行い、
各ブロックを2次元DCT変換する。変換されたDCT
係数を量子化テーブルを用いて係数位置毎に異なるステ
ップサイズで線型量子化し、量子化されたDCT係数を
ハフマン符号化や算術符号化等エントロピー符号化を行
う。復号時に圧縮データに対してエントロピー符号化を
行い、逆量子化を行った後、IDCTが行われ、画像が
復元される。その復元処理を画像情報を出力する際に行
い、その後に解像度変換処理を行って高解像度の画像情
報を作成する。
As for the commonly used image coding method and the method for individually performing the resolution conversion processing as shown in FIG. 34, various kinds of coding methods have been proposed. If the target image is a multi-valued image such as a natural image having gradation information for each pixel, ISO (Interna
JPEG (Joint Photographic Experts Group), which is a joint organization with the National Organization for Standardizatio), and uses the JPEG method of the international standardization proposal, and first encodes the original image to reduce the amount of information for recording. Save it on the device. JP mentioned here
The EG DCT (Discrete Cosine Transform) divides the input image into blocks of 8 × 8 pixels during compression,
Two-dimensional DCT transform is performed on each block. Converted DCT
The coefficient is linearly quantized using a quantization table with a different step size for each coefficient position, and the quantized DCT coefficient is subjected to entropy coding such as Huffman coding or arithmetic coding. At the time of decoding, entropy coding is performed on the compressed data and inverse quantization is performed, and then IDCT is performed to restore the image. The restoration process is performed when the image information is output, and then the resolution conversion process is performed to create high-resolution image information.

【0010】また、図35に示すような階調数を低減さ
せる圧縮処理中に解像度変換処理を組み入れた方式で
は、符号化方式として、特開昭62−100077号公報、特開
昭63−306769号公報、特開平 1−188166号公報、及び
“ハードコピー装置における画像圧縮方式の評価”(画
像電子学会研究会予行 91-04-01 P1〜P6)、“濃淡画像
の拡張形差分適応ブロック符号化方式”(電子情報通信
学会論文誌B-I Vol.J73-B-I No,4 pp.337-346 1990年 4
月)等で述べられている、GBTC(Genwralized Block
truncation Coding) 方式、DABC方式などを用い
る。
Further, in a system in which a resolution conversion process is incorporated into a compression process for reducing the number of gradations as shown in FIG. 35, the coding system is disclosed in Japanese Patent Laid-Open Nos. 62-100077 and 63-306769. Publication, Japanese Patent Laid-Open No. 1-188166, and "Evaluation of image compression method in hard copy device" (Proceedings of the Institute of Image Electronics Engineers of Japan 91-04-01 P1 to P6), "Extended difference adaptive block code of grayscale image" Method "(IEICE Transactions BI Vol.J73-BI No, 4 pp.337-346 1990 4
GBTC (Genwralized Block)
Truncation Coding) method, DABC method, etc. are used.

【0011】ここで述べられているGBTC方式は、図
36に示すように、入力された画像を4×4画素毎のブ
ロックに分割を行い、各ブロック内の画素値Xij(i,j
=1〜4)をブロック内平均値LA,階調幅指標LD,
最大値Lmax 、最小値Lmin毎の量子化値φij(i,j =
1〜4)、復号化値Yijとすると、まず符号化は、 P1=(Lmax +3Lmin )/4 P2=(3Lmax +Lmin )/4 Q1=(Xij≦P1)の平均値 Q4=(Xij>P2)の平均値 LA=(Q1+Q4)/2 LD=Q4−Q1 L1=LA−LD/4 L2=LA+LD/4 for(i=1;i≦4;i++){ for(j=1;i≦4;j++){ if(Xij≦L1) {φij=01(2進数)} else if(Xij≦LA) {φij=10(2進数)} else if(Xij≦L2) {φij=10(2進数)} else {φij=11(2進数)} } } で求められ、LD,LA及びφijを記録することによ
り、情報量を3/8にすることができる。
In the GBTC method described here, as shown in FIG. 36, an input image is divided into blocks each having 4 × 4 pixels, and pixel values Xij (i, j) in each block are divided.
= 1 to 4), the average value LA in the block, the gradation width index LD,
Quantized value φij (i, j =) for each maximum value Lmax and minimum value Lmin
1 to 4) and the decoded value Yij, first, the encoding is: P1 = (Lmax + 3Lmin) / 4 P2 = (3Lmax + Lmin) / 4 Q1 = (Xij ≦ P1) average value Q4 = (Xij> P2) Average value of LA = (Q1 + Q4) / 2 LD = Q4-Q1 L1 = LA-LD / 4 L2 = LA + LD / 4 for (i = 1; i ≦ 4; i ++) {for (j = 1; i ≦ 4; j ++) {if (Xij ≦ L1) {φij = 01 (binary number)} else if (Xij ≦ LA) {φij = 10 (binary number)} else if (Xij ≦ L2) {φij = 10 (binary number)} else {φij = 11 (binary number)}}}, and by recording LD, LA and φij, the amount of information can be reduced to 3/8.

【0012】この処理によって得られた情報は4値化さ
れているので、それぞれの値毎に、輪郭情報を抽出しベ
クトル化処理や、パターンマッチング処理等の解像度変
換処理を行うことによって高解像度の画像情報の符号化
された情報を作成することができる。
Since the information obtained by this processing is quaternarized, contour information is extracted for each value and vector conversion processing or resolution conversion processing such as pattern matching processing is performed to obtain high resolution. It is possible to create encoded information of image information.

【0013】その後の復号化は、 for(i=1;i≦4;i++){ for(j=1;j≦4;j++){ if(φij=01) Yij=LA−LD/2 else if(φij=00) Yij=LA−LD/6 else if(φij=10) Yij=LA+LD/6 else Yij=LA+LD/2 } } とすることにより求めることができる。これにより、高
解像度の画像情報を作成することができる。
For the subsequent decoding, for (i = 1; i ≦ 4; i ++) {for (j = 1; j ≦ 4; j ++) {if (φij = 01) Yij = LA-LD / 2 else if (Φij = 00) Yij = LA-LD / 6 else if (φij = 10) Yij = LA + LD / 6 else Yij = LA + LD / 2}}. As a result, high resolution image information can be created.

【0014】[0014]

【発明が解決しようとする課題】しかしながら、上記従
来例では、以下に述べるような欠点があった。
However, the above-mentioned conventional example has the following drawbacks.

【0015】まず、内挿点に最も近い同じ画素値を配列
する最近内挿方法は、構成が簡単であるという利点はあ
るが、拡大するブロック毎に画素値が決定されるため、
視覚的にブロックが目立ってしまい画質的に劣悪であ
る。
First, the recent interpolation method of arranging the same pixel value closest to the interpolation point has the advantage that the configuration is simple, but since the pixel value is determined for each block to be enlarged,
The blocks are visually conspicuous and the image quality is poor.

【0016】次に、内挿点を囲む4点の距離によって計
算される共1次内挿方法は、自然画像の拡大には一般的
に良く用いられている方法である。しかし、この方法で
は、平均化され、スムージングのかかった画質になる
が、エッジ部やシャープな画質が要求される部分には、
ぼけた画質になってしまう。さらに、地図等をスキャン
した画像や文字部を含む自然画像のような場合には、補
間によるぼけのために、大切な情報が受け手に伝わらな
いこともある。
Next, the co-primary interpolation method, which is calculated by the distances of four points surrounding the interpolation point, is a method generally used for enlarging a natural image. However, with this method, although the image quality is averaged and smoothed, the edge part and the part that requires sharp image quality are
The image quality will be blurred. Further, in the case of an image obtained by scanning a map or a natural image including a character portion, important information may not be transmitted to the recipient due to blurring due to interpolation.

【0017】また、決められている閾値や、画像を参照
することによって求められた閾値を用い、幾つかの階調
毎の複数の2値情報を作成し、輪郭情報を抽出し、ベク
トル処理を行う処理では、少ない階調数で処理を行った
場合、自然画像など非人工的な画像では適度な自然ノイ
ズが削除されてしまうため、この処理は適しておらず、
出力画像がメリハリのないのっぺりとした画像になって
しまう。また、画質が劣化しない程度に階調数を増やし
て処理を行った場合、処理を行う画像が増え、処理が重
くなってしまうという問題がある。
Further, by using a predetermined threshold value or a threshold value obtained by referring to an image, a plurality of binary information for several gradations are created, contour information is extracted, and vector processing is performed. In the processing to be performed, when processing with a small number of gradations, moderate natural noise is deleted in non-artificial images such as natural images, so this processing is not suitable,
The output image becomes a flat image without sharpness. In addition, when processing is performed with the number of gradations increased to such an extent that image quality does not deteriorate, there is a problem that the number of images to be processed increases and the processing becomes heavy.

【0018】更に、ビットプレーン毎に分割された2値
画像の輪郭情報を抽出し、ベクトル処理を行う方法で
は、上位ビットの画像に関しては相関のある情報が2値
化されるため、輪郭情報をベクトル化することには適し
ているのであるが、下位ビットに関しては相関のない情
報が2値化されるため、無駄な処理が行われてしまい、
間違った判定を起こしやすくなり、出力画像が劣化して
しまう部分がある。
Further, in the method of extracting the contour information of the binary image divided for each bit plane and performing the vector processing, since the correlated information is binarized for the image of the upper bit, the contour information is converted. It is suitable for vectorization, but since uncorrelated information is binarized for lower bits, useless processing is performed,
There is a portion where the wrong determination is likely to occur and the output image is deteriorated.

【0019】次に、解像度変換処理と画像符号化処理の
両方を行う場合についてであるが、画像符号化方式と解
像度変換処理とを個別に行う方式で一般的に用いられて
いるJPEG方式においては、自然画中に文字や線画等
が混在していた場合、画質が劣化してしまう、高解像画
像のエッジ部においてモスキートノイズが発生するとい
う問題が発生する。そのため、圧縮・伸長した後の画像
情報は既に原画像よりも劣化しており、この画像を元に
して解像度の画像情報を作成するのは、非常に困難であ
り、ミスが発生してしまう可能性がある。
Next, regarding the case where both the resolution conversion processing and the image coding processing are performed, in the JPEG method which is generally used as a method for separately performing the image coding method and the resolution conversion processing, When characters and line drawings are mixed in the natural image, the image quality is deteriorated and mosquito noise is generated in the edge portion of the high resolution image. Therefore, the image information after compression / decompression is already deteriorated compared to the original image, and it is very difficult to create image information of resolution based on this image, and errors may occur. There is a nature.

【0020】また、階調数を低減させることによって圧
縮を行う処理中に解像度変換処理を行う方式について
は、圧縮によって階調数が低減しているため、高解像度
の画像情報は、低解像度の画像情報よりも階調数が少な
くなってしまう。
In the method of performing resolution conversion processing during the compression processing by reducing the number of gradations, since the number of gradations is reduced by the compression, the high resolution image information has a low resolution. The number of gradations is smaller than that of image information.

【0021】本発明は、上記課題を解決するために成さ
れたもので、低解像度の画像情報を画質を劣化させるこ
となく、高解像度の画像情報に変換できる画像処理方法
及び装置を提供することを目的とする。
The present invention has been made to solve the above problems, and provides an image processing method and apparatus capable of converting low resolution image information into high resolution image information without degrading the image quality. With the goal.

【0022】また、本発明の他の目的は、解像度変換と
画像圧縮とを結び付けることにより、解像度の異なる機
種間通信の転送時間を短縮し、出力装置の画質を向上さ
せた画像処理方法及び装置を提供することである。
Another object of the present invention is to reduce the transfer time of communication between models having different resolutions by combining the resolution conversion and the image compression, and to improve the image quality of the output device. Is to provide.

【0023】[0023]

【課題を解決するための手段】上記目的を達成するため
に、本発明の画像処理装置は以下の構成を備える。
In order to achieve the above object, the image processing apparatus of the present invention has the following configuration.

【0024】即ち、低解像度の画像情報を高解像度の画
像情報に解像度変換する画像処理装置であって、画像情
報において注目画素とその周辺画素より輪郭部分を抽出
して輪郭情報を生成する輪郭抽出手段と、前記輪郭抽出
手段により生成された輪郭情報を参照して前記輪郭部分
の解像度変換を行う第1の解像度変換手段と、前記画像
情報の輪郭部分以外若しくは画像情報全体の解像度変換
を行う第2の解像度変換手段とを備える。
That is, an image processing device for converting the resolution of low-resolution image information into high-resolution image information, and contour extraction for generating contour information by extracting a contour portion from a pixel of interest and its peripheral pixels in the image information. Means, first resolution conversion means for converting the resolution of the contour portion with reference to the contour information generated by the contour extraction means, and first resolution conversion means for performing resolution conversion of the portion other than the contour portion of the image information or the entire image information. 2 resolution conversion means.

【0025】[0025]

【作用】かかる構成において、低解像度の画像情報の注
目画素とその周辺画素より輪郭部分を抽出して輪郭情報
を生成し、生成された輪郭情報を参照して輪郭部分に第
1の解像度変換を行い、輪郭部分以外若しくは画像情報
全体に第2の解像度変換を行って高解像度の画像情報に
変換するように動作する。
In this structure, the contour portion is extracted by extracting the contour portion from the pixel of interest of the low resolution image information and its peripheral pixels, and the contour information is subjected to the first resolution conversion with reference to the generated contour information. Then, the second resolution conversion is performed on the image information other than the contour portion or the entire image information to convert it into high-resolution image information.

【0026】[0026]

【実施例】以下、図面を参照しながら本発明に係る好適
な一実施例を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A preferred embodiment of the present invention will be described in detail below with reference to the drawings.

【0027】尚、本発明の画像処理装置は、主としてカ
ラープリンタ等の画像出力装置内部に具備することが効
果的であるが、画像出力装置以外の画像処理装置や、ホ
ストコンピュータ内のアプリケーションソフトとして内
蔵することも可能である。
It is effective that the image processing apparatus of the present invention is mainly provided in an image output apparatus such as a color printer, but as an image processing apparatus other than the image output apparatus or application software in a host computer. It can also be built-in.

【0028】<第1の実施例>図1は、第1の実施例に
おける全体構成を示す図である。図中、101は入力さ
れる低解像度の画像情報で、102は入力された画像を
或る色空間で幾つかのプレーンに分割を行う画像分割部
で、103〜105はそれぞれの色空間で分割された画
像プレーンである。106は注目画素とその周辺画素の
平均値との差を用いて輪郭部分を推定し、輪郭情報を作
成する輪郭抽出部で、107は輪郭抽出部106によっ
て抽出された輪郭情報で、108は輪郭情報を参照して
各プレーンをパターンマッチング法によって解像度変換
を行うパターンマッチング処理部で、109は画像情報
の内、輪郭以外の部分に関して補間処理によって解像度
変換を行う補間処理部である。110〜112はパター
ンマッチング処理部108と補間処理部109によって
解像度変換された高解像度の各プレーンの画像情報であ
る。113は高解像度の各プレーン110〜112を結
合する画像結合部である。そして、114は高解像度の
画像情報である。
<First Embodiment> FIG. 1 is a diagram showing the overall structure of the first embodiment. In the figure, 101 is input low-resolution image information, 102 is an image dividing unit that divides the input image into several planes in a certain color space, and 103 to 105 are divided in each color space. Image plane. Reference numeral 106 denotes a contour extraction unit that estimates a contour portion by using the difference between the pixel of interest and the average value of its peripheral pixels and creates contour information. Reference numeral 107 denotes the contour information extracted by the contour extraction unit 106, and 108 denotes the contour information. Reference numeral 109 denotes a pattern matching processing unit that performs resolution conversion on each plane by a pattern matching method, and 109 is an interpolation processing unit that performs resolution conversion on a portion of the image information other than the contour by interpolation processing. Reference numerals 110 to 112 denote image information of high resolution planes whose resolutions have been converted by the pattern matching processing unit 108 and the interpolation processing unit 109. An image combining unit 113 combines the high-resolution planes 110 to 112. And 114 is high resolution image information.

【0029】かかる構成において、まず低解像度の画像
101が入力されると、画像分割部102にて或る色空
間でプレーン毎に分割を行い、R,G,Bプレーン10
3〜105が作成される。今回は例として、R,G,B
色空間を用いて説明を行っているが、Y(輝度),U,
V(色差)色空間や、L,a,b色空間やG,R,B色
空間であってもよいことはもちろんである。
In this structure, when the low-resolution image 101 is input, the image dividing unit 102 divides each plane in a certain color space, and the R, G, B planes 10 are divided.
3 to 105 are created. This time, as an example, R, G, B
Although the explanation is given using the color space, Y (luminance), U,
Of course, it may be a V (color difference) color space, an L, a, b color space, or a G, R, B color space.

【0030】ここで分割された3つのプレーンを参照し
ながら輪郭抽出部106が輪郭情報107を作成する。
この輪郭抽出部106は、図13に示すようなラプラシ
アンオペレータを用いることにより、注目画素とその周
辺画素の平均値の差を求め、ある決められた閾値或いは
周辺画素との決められた演算によって求められる閾値を
用いることにより輪郭部分を抽出するものである。この
輪郭部分の情報を2値の輪郭情報107として出力を行
う。
The contour extracting unit 106 creates contour information 107 while referring to the three divided planes.
The contour extracting unit 106 obtains the difference between the average values of the target pixel and its peripheral pixels by using the Laplacian operator as shown in FIG. 13, and obtains it by a predetermined threshold value or a predetermined calculation with the peripheral pixels. The contour portion is extracted by using a threshold that is set. The information on the contour portion is output as binary contour information 107.

【0031】次に、パターンマッチング処理部108で
は、輪郭情報107を参照しながらR,G,B各プレー
ンをパターンマッチング法で解像度変換処理を行う。
Next, the pattern matching processing unit 108 performs resolution conversion processing on each of the R, G and B planes by the pattern matching method while referring to the contour information 107.

【0032】ここで用いられているパターンマッチング
法は、もし2値の輪郭情報107が図14に示す140
1のようなパターンだった場合、1402のように補間
処理を行うことが決められていれば、R,G,B各プレ
ーンにおいて1403に示すa,b,cの位置の階調値
を1404に示すa,b,cの位置に補間を行う方法で
ある。これにより、通常、2値でしか行えないパターン
マッチング法を用いて多値の画像の解像度変換を行うこ
とができる。
In the pattern matching method used here, if the binary contour information 107 is 140 shown in FIG.
In the case of a pattern such as 1, if it is decided to perform interpolation processing as in 1402, the gradation values at the positions of a, b, and c indicated by 1403 in the R, G, and B planes are set to 1404. This is a method of performing interpolation at the positions of a, b, and c shown. As a result, resolution conversion of a multi-valued image can be performed using a pattern matching method that can normally be performed only in binary.

【0033】また補間処理部109では、輪郭抽出部1
06で輪郭部分と判断されなかった画素について、図1
5に示すような、処理の簡単な0次補間や1次補間等の
補間処理を行う。
In the interpolation processing unit 109, the contour extraction unit 1
For the pixels that are not determined to be the contour portion in 06,
Interpolation processing such as 0-order interpolation and linear interpolation, which is simple in processing, is performed as shown in FIG.

【0034】以上の処理後、パターンマッチング処理部
108で作成された高解像度の輪郭部分と、補間処理部
109で作成された高解像度の輪郭以外の部分とを合成
して高解像度のR,G,B各プレーン110〜112が
作成される。この高解像度のR,G,B各プレーン11
0〜112を画像結合部113で結合し、高解像度の画
像情報114が作成される。
After the above processing, the high-resolution contour portion created by the pattern matching processing unit 108 and the portion other than the high-resolution contour portion created by the interpolation processing unit 109 are combined to obtain high-resolution R and G. , B planes 110 to 112 are created. This high-resolution R, G, B plane 11
The image combining unit 113 combines 0 to 112 to create high-resolution image information 114.

【0035】もちろん、入力される画像情報が既にR,
G,Bなり他の色空間の各プレーンの状態で入力される
場合には、上述の101,102,113,114での
処理を行わないことは自明である。
Of course, if the input image information is already R,
It is obvious that the processing in 101, 102, 113, and 114 described above is not performed when inputting in the state of each plane of G and B or another color space.

【0036】また、R,G,Bの3つのプレーンを一度
に、参照とパターンマッチング処理を同時に行えない場
合には、一度、3つのプレーンを順番に参照を行い、そ
の後にパターンマッチング処理を行えば良い。
When the reference and the pattern matching processing cannot be performed simultaneously on the three planes of R, G, and B at the same time, the three planes are referred to once in order, and then the pattern matching processing is performed. I'm fine.

【0037】<第2の実施例>図2は、第2の実施例に
おける全体構成を示す図である。図中、201は低解像
度の画像情報で、202は画像分割部で、203〜20
5は画像プレーンで、206は注目画素の近接画素と比
較を行って輪郭部分を推定し、輪郭情報を作成する輪郭
抽出部で、207は輪郭情報で、208はパターンマッ
チング処理で、209は補間処理部で、210〜212
は高解像度の画像プレーンで、213は画像結合部で、
214は高解像度の画像情報である。
<Second Embodiment> FIG. 2 is a diagram showing the overall structure of the second embodiment. In the figure, 201 is low-resolution image information, 202 is an image dividing unit, and 203 to 20.
Reference numeral 5 is an image plane, 206 is a contour extraction unit that estimates the contour portion by comparing with the neighboring pixels of the target pixel and creates contour information, 207 is contour information, 208 is pattern matching processing, and 209 is interpolation. 210-212 in the processing unit
Is a high-resolution image plane, 213 is an image combining unit,
Reference numeral 214 is high resolution image information.

【0038】次に、第1の実施例との違いについて述べ
る。
Next, the difference from the first embodiment will be described.

【0039】第2の実施例における輪郭抽出部206
は、図16に示すように、注目画素に対して上下左右4
方向の4画素を順番に比較を行い、或る一定の閾値以上
だった場合、その注目画素は輪郭部分であると推定す
る。
Contour extraction unit 206 in the second embodiment
Is, as shown in FIG.
The four pixels in the direction are compared in order, and when the pixel value is equal to or larger than a certain threshold, it is estimated that the pixel of interest is the contour portion.

【0040】このように、第2の実施例によれば、或る
画素が一定の閾値以上であったとき、そこで処理を終え
ることができ、単に比較処理を行っているだけであるた
め、処理の高速化が可能となる。
As described above, according to the second embodiment, when a certain pixel is equal to or larger than a certain threshold value, the processing can be ended there, and only the comparison processing is performed. It is possible to speed up.

【0041】<第3の実施例>図3は、第3の実施例に
おける全体構成を示す図である。図中、301は低解像
度の画像情報で、302は画像分割部で、303〜30
5は画像プレーンで、306は輪郭抽出部で、307は
輪郭情報で、308はパターンマッチング処理部で、3
09は補間処理部で、310〜312は高解像度の画像
プレーンで、313は画像結合部で、314は高解像度
の画像情報である。
<Third Embodiment> FIG. 3 is a diagram showing the overall construction of the third embodiment. In the figure, 301 is low-resolution image information, 302 is an image division unit, and 303 to 30
5 is an image plane, 306 is a contour extraction unit, 307 is contour information, 308 is a pattern matching processing unit, and
Reference numeral 09 is an interpolation processing unit, 310 to 312 are high-resolution image planes, 313 is an image combining unit, and 314 is high-resolution image information.

【0042】この実施例では、R,G,Bの3つのプレ
ーン303〜305で、個別に輪郭抽出を行い、輪郭情
報307を作成する。この方式を取ることによって、同
時に3つのプレーンを参照してパターンマッチング処理
を行う事ができない装置や、パターンマッチング処理を
行う前に、一旦、画像全体の輪郭情報を作成しておくな
どの処理を行えない装置に対しても本発明を使用できる
ようになる。
In this embodiment, the contours are individually extracted from the three planes 303 to 305 of R, G and B to create contour information 307. By adopting this method, it is possible to perform processing such as a device that cannot perform pattern matching processing by referring to three planes at the same time, or temporarily create contour information of the entire image before performing pattern matching processing. The present invention can be used for a device that cannot be used.

【0043】<第4の実施例>図4は、第4の実施例に
おける全体構成を示す図である。図中、401は低解像
度の画像情報で、402は画像分割部で、403〜40
5は画像プレーンで、406は補間処理部で、407〜
409は補間された画像プレーンで、410は輪郭抽出
部で、411は輪郭情報で、412はパターンマッチン
グ処理部で、413〜415は高解像度の画像プレーン
で、416は画像結合部で、417は高解像度の画像情
報である。
<Fourth Embodiment> FIG. 4 is a diagram showing the overall construction of the fourth embodiment. In the figure, 401 is low-resolution image information, 402 is an image dividing unit, and 403-40.
5 is an image plane, 406 is an interpolation processing unit, and 407-
409 is an interpolated image plane, 410 is a contour extraction unit, 411 is contour information, 412 is a pattern matching processing unit, 413 to 415 are high-resolution image planes, 416 is an image combination unit, and 417 is This is high-resolution image information.

【0044】この実施例では、R,G,Bの3つのプレ
ーン403〜405を、最初に補間を行なった後に、補
間された3つのプレーン407〜409に対して輪郭を
抽出しパターンマッチング処理を行う。このパターンマ
ッチング処理は、図17乃至図20に示すようなパター
ンを用いている。そのため、今までの実施例で用いてき
たパターンと異なり、画素を削減する場合、その場合、
図21に示す方法を用いれば良い。つまり、図21に示
す2101のパターンが2102のようになる場合、
R,G,B各プレーンは2103のa,b,c,d,e
の位置にある画素の階調値を2104のa,b,c,
d,eの画素に複写を行えば良い。
In this embodiment, the three R, G, and B planes 403 to 405 are first interpolated, and then the contours are extracted from the interpolated three planes 407 to 409 to perform pattern matching processing. To do. This pattern matching process uses patterns as shown in FIGS. 17 to 20. Therefore, unlike the patterns used in the above embodiments, when reducing pixels, in that case,
The method shown in FIG. 21 may be used. That is, when the pattern 2101 shown in FIG. 21 becomes 2102,
The R, G, and B planes are 2103 a, b, c, d, and e.
The grayscale value of the pixel at the position of 2104 a, b, c,
Copying may be performed on the pixels of d and e.

【0045】このように、第4の実施例によれば、従来
用いられていた補間処理部を変更することなく使用する
ことが可能となり、コストの削減が可能となる。
As described above, according to the fourth embodiment, the conventionally used interpolation processing unit can be used without any change, and the cost can be reduced.

【0046】また、解像度変換を行う補間処理装置と、
スムージング処理を行う装置を分離したことにより、補
間処理のみを行う事や、スムージング処理のみを行うこ
とが可能となる。
An interpolation processing device for converting resolution,
By separating the apparatus that performs the smoothing processing, it is possible to perform only the interpolation processing or only the smoothing processing.

【0047】<第5の実施例>図5は、第5の実施例に
おける全体構成を示す図である。図中、501〜503
は或る色空間で分離されている画像プレーンで、504
は色変換処理部で、505〜507は異なる色空間に分
離された画像プレーンで、508は輪郭抽出部で、50
9は輪郭情報で、510はパターンマッチング処理部
で、511は補間処理部で、512〜514は高解像度
になった各プレーンの画像情報で、515〜517は入
力された色空間に変換された高解像度の画像情報であ
る。
<Fifth Embodiment> FIG. 5 is a diagram showing the overall construction of the fifth embodiment. 501-503 in the figure
Is an image plane separated by a color space, and 504
Is a color conversion processing unit, 505 to 507 are image planes separated into different color spaces, 508 is an outline extraction unit,
Reference numeral 9 is contour information, 510 is a pattern matching processing unit, 511 is an interpolation processing unit, 512 to 514 are image information of high-resolution planes, and 515 to 517 are converted into the input color space. This is high-resolution image information.

【0048】この実施例では、まず入力された画像情報
が或る色空間であった場合、色変換処理部504によっ
て内部で処理を行いやすい色空間に変換を行う。例えば
入力されたR(レッド),G(グリーン),B(ブル
ー)の信号から、他の色空間、例えばY(輝度),U,
V(色差)の空間に変換する。この変換処理は演算によ
るものでも良いし、ROM(リードオンリーメモリ)を
利用したLUT(ルックアップテーブル)でも良い。要
は入力色空間よりも、より冗長度を減らした色空間、特
に、輝度,色差に分離した色空間への変換が好ましい。
In this embodiment, first, when the input image information is in a certain color space, the color conversion processing unit 504 converts the color information into a color space that can be easily processed internally. For example, from the input R (red), G (green), and B (blue) signals, another color space, for example, Y (luminance), U,
Convert to V (color difference) space. This conversion process may be performed by calculation or may be performed by an LUT (look-up table) using a ROM (read only memory). In short, it is preferable to convert the input color space into a color space with less redundancy, particularly a color space separated into luminance and color difference.

【0049】次に、変換した色空間の内、最も視覚的に
影響の大きい色成分、例えば輝度,色差に分解した場合
にはY(輝度)プレーンのみで輪郭抽出部508で輪郭
情報509を作成し、その輪郭情報509を元に、パタ
ーンマッチング処理部510で、Y(輝度)プレーンと
U,V(色差)プレーンに対してパターンマッチング処
理を行い、高解像度のY,U,Vプレーン512〜51
4が作成される。最後に色変換処理部504で、入力し
た色空間への変換、例えばY,U,Vプレーン512〜
514よりR,G,Bプレーン515〜517へ変換す
る。
Next, in the converted color space, the contour extraction unit 508 creates the contour information 509 only with the Y (luminance) plane when it is decomposed into the color components having the largest visual influence, such as the luminance and the color difference. Then, based on the contour information 509, the pattern matching processing unit 510 performs pattern matching processing on the Y (luminance) plane and the U, V (color difference) planes to obtain high-resolution Y, U, V planes 512 to 512. 51
4 is created. Finally, in the color conversion processing unit 504, conversion into the input color space, for example, Y, U, V planes 512 to 512 is performed.
Conversion from 514 to R, G, B planes 515-517.

【0050】このように、第6の実施例によれば、いま
まで3つのプレーンについて参照を行って輪郭情報を作
成していたのが、1つのプレーンのみ参照を行えば良い
事になり、処理時間の短縮が行える。
As described above, according to the sixth embodiment, the contour information is created by referring to three planes up to now, but it is only necessary to refer to one plane. The time can be shortened.

【0051】[実施例6]図6は、第6の実施例におけ
る全体構成を示す図である。図中、601は低解像度の
画像情報で、602は画像分割部で、603〜605は
画像プレーンで、606は輪郭抽出部で、607は輪郭
情報で、608は直線ベクトル処理部で、609は補間
処理部で、610〜612は高解像度の画像プレーン
で、613は画像結合部で、614は高解像度の画像情
報である。
[Embodiment 6] FIG. 6 is a diagram showing the overall structure of a sixth embodiment. In the figure, 601 is low resolution image information, 602 is an image division unit, 603 to 605 are image planes, 606 is contour extraction unit, 607 is contour information, 608 is a linear vector processing unit, and 609 is In the interpolation processing unit, 610 to 612 are high-resolution image planes, 613 is an image combining unit, and 614 is high-resolution image information.

【0052】次に、第6の実施例による輪郭抽出部60
6について説明を行う。
Next, the contour extracting section 60 according to the sixth embodiment.
6 will be described.

【0053】もし、図22に示す左側のような形が輪郭
抽出部606に入力されたとする。その時、輪郭抽出部
606は縦横3倍に拡大を行う。ここで、3倍に拡大を
行う理由は、1ドット×1ドットの点の輪郭情報を得る
のに必要な最低の倍率であるためであり、別に何倍に拡
大してもよく、もちろん、拡大を行わなくてもよい。次
に、図23に示すように、注目画素に対して上下左右の
4方向の値が全て一致した場合、注目画素を取り除くと
いう(4方向一致)方法を用い、図24に示すようにエ
ッジ部分の抽出を行う。ここで、4方向一致を用いたの
は、場合分けのパターンを減らすためであり、別に8方
向一致や、ラプラシアン・オペレータを用いるなど他の
方法であってもよい。その後、出力解像度に合わせた変
倍処理を行う。上述の方法で作成された輪郭情報607
が図24に示す図である。
It is assumed that the shape on the left side shown in FIG. 22 is input to the contour extracting section 606. At this time, the contour extraction unit 606 enlarges the image vertically and horizontally three times. The reason for enlarging 3 times is that it is the lowest magnification necessary to obtain the contour information of a dot of 1 dot × 1 dot, and it may be enlarged by any number of times. Does not have to be performed. Next, as shown in FIG. 23, when all the values in the four directions of up, down, left, and right match the pixel of interest, the method of removing the pixel of interest (four-way matching) is used. Is extracted. Here, the reason why the four-direction matching is used is to reduce the pattern of case classification, and other methods such as 8-direction matching or using a Laplacian operator may be used. After that, a scaling process according to the output resolution is performed. Contour information 607 created by the above method
FIG. 24 is a diagram shown in FIG.

【0054】そして、輪郭抽出部606で作成された輪
郭情報607は直線ベクトル処理部608に入力され
る。ここで直線ベクトル処理部608について説明を行
う。
The contour information 607 created by the contour extraction unit 606 is input to the straight line vector processing unit 608. Here, the straight line vector processing unit 608 will be described.

【0055】図25は、直線ベクトル処理部608の構
成を示す図である。図中、2501は輪郭情報で、25
02はコントロールポイント設定部で、2503は直線
ベクトル設定部で、2504は描画部で、2505は各
プレーンの画像情報で、2506は高解像度の各プレー
ンの画像情報である。
FIG. 25 is a diagram showing the configuration of the straight line vector processing unit 608. In the figure, 2501 is contour information, which is 25
Reference numeral 02 is a control point setting unit, 2503 is a linear vector setting unit, 2504 is a drawing unit, 2505 is image information of each plane, and 2506 is image information of each plane of high resolution.

【0056】次に、直線ベクトル処理部608に入力さ
れた図24に示す輪郭情報2501を参照してコントロ
ールポイント設定部2502にてスプライン処理を行う
のに必要とされるコントロールポイントの設定を行う。
ここでコントロールポイントの設定の仕方を説明する。
Next, with reference to the contour information 2501 shown in FIG. 24 input to the straight line vector processing unit 608, the control point setting unit 2502 sets the control points required for performing the spline processing.
Here, how to set the control points will be described.

【0057】コントロールポイント設定部2502は、
図24に示す輪郭情報2501より、図26に示す3つ
のパターンに分けて設定を行う。
The control point setting section 2502
Based on the contour information 2501 shown in FIG. 24, setting is performed by dividing into three patterns shown in FIG.

【0058】図26に示す2601が折り返し部と判断
され、2602が角部と判断され、2603のような部
分をその他の部分と判断する。この3つの場合分けを行
い、図24にコントロールポイントを設定したものが図
27に示す図である。図27に示す白丸の部分がコント
ロールポイントとされた所である。次に直線ベクトル設
定部2503にて、代表点を直線ベクトルで結ぶ。上述
の処理を施したものが図28に示す図である。次に、描
画部2506にて直線ベクトル設定部2503より入力
された輪郭線を描画する。これにより、図29に示すよ
うな高解像度の滑らかな画像が作成される。この時、各
プレーンの画像情報2505を取り込み、輪郭情報25
01と、今作成された高解像度の滑らかな画像とを比較
し、輪郭部分と見なされた画素の内、移動が行なわれた
画素を判定し、同じ移動を各プレーンの画像情報に行
う。これにより、高解像度になった各プレーンの画像情
報が作成される。
26, 2601 is determined to be a folded portion, 2602 is determined to be a corner portion, and a portion such as 2603 is determined to be another portion. FIG. 27 is a diagram in which these three cases are divided and control points are set in FIG. The white circles shown in FIG. 27 are the control points. Next, the straight line vector setting unit 2503 connects the representative points with a straight line vector. FIG. 28 shows the result of the above processing. Next, the drawing unit 2506 draws the contour line input from the straight line vector setting unit 2503. As a result, a high-resolution smooth image as shown in FIG. 29 is created. At this time, the image information 2505 of each plane is fetched and the outline information 25
01 and the high-resolution smooth image just created are compared with each other to determine which of the pixels regarded as the contour portion has been moved, and the same movement is performed on the image information of each plane. As a result, high resolution image information for each plane is created.

【0059】通常、パターンマッチングを用いた時に
は、出力する解像度に最適化を行ったパターンを用意し
ておかなければならなかったのであるが、この実施例の
方法を用いることにより、任意の解像度に任意の倍率に
解像度変換が可能となる。
Normally, when pattern matching was used, it was necessary to prepare a pattern optimized for the output resolution, but by using the method of this embodiment, it is possible to obtain an arbitrary resolution. The resolution can be converted to any magnification.

【0060】第6の実施例では、輪郭抽出部606にお
いて、輪郭部分を推定する機能だけ持たせ、輪郭部分の
画素についての情報を、輪郭情報607とし、直線ベク
トル処理部608において、輪郭部分の画素についての
情報である、輪郭情報607よりコントロールポイント
を設定し、直線ベクトルを生成し、スムージング処理を
行っているが、本発明はこれだけに限らず、例えば輪郭
抽出部606にコントロールポイントを設定する機能を
移し、コントロールポイントの情報を輪郭情報607と
することにより、情報量を低減させることも可能であ
る。
In the sixth embodiment, the contour extraction unit 606 has only the function of estimating the contour portion, and the information about the pixels of the contour portion is the contour information 607. Control points are set from contour information 607, which is information about pixels, and straight line vectors are generated and smoothing processing is performed. However, the present invention is not limited to this, and control points are set in the contour extraction unit 606, for example. It is also possible to reduce the amount of information by shifting the function and using the information of the control point as the contour information 607.

【0061】また同様に、輪郭抽出部606に直線ベク
トルを生成する機能まで移し、直線ベクトルを表記して
いる数式等の形で輪郭情報607を作ることも可能で、
これにより、更に情報量を低減させることも可能であ
る。
Similarly, it is also possible to move the function of generating a straight line vector to the contour extracting unit 606 and create the contour information 607 in the form of a mathematical expression expressing the straight line vector.
This makes it possible to further reduce the amount of information.

【0062】<第7の実施例>図7は、第7の実施例に
おける全体構成を示す図である。図中、701は低解像
度の画像情報で、702は画像分割部で、703〜70
5は画像プレーンで、706は輪郭抽出部で、707は
輪郭情報で、708は高次曲線処理部で、709は補間
処理部で、710〜712は高解像度の画像プレーン
で、713は画像結合部で、714は高解像度の画像情
報である。
<Seventh Embodiment> FIG. 7 is a diagram showing the overall structure of the seventh embodiment. In the figure, 701 is low resolution image information, 702 is an image dividing unit, and 703 to 70.
5 is an image plane, 706 is a contour extraction unit, 707 is contour information, 708 is a higher-order curve processing unit, 709 is an interpolation processing unit, 710 to 712 are high-resolution image planes, and 713 is an image combination. In the section, 714 is high resolution image information.

【0063】第6の実施例では、直線ベクトルを使用し
ていたが、この実施例では2次のBスプラインや、3次
のベジェ曲線等の高次のスプライン関数を用いて輪郭部
分を表現する方法である。通常、パターンマッチングを
用いたときには出力する解像度に最適化を行ったパター
ンを用意しておかなければならなかったのであるが、こ
の実施例の方法を用いることにより、任意の解像度に任
意の倍率に解像度変換が可能となる。また、直線ベクト
ルを用いたときよりも、コントロールポイント部分が滑
らかになり、全体的により滑らかに表現することが可能
となる。
In the sixth embodiment, a straight line vector is used, but in this embodiment, the contour portion is expressed by using a high-order spline function such as a quadratic B-spline or a cubic Bezier curve. Is the way. Normally, when pattern matching was used, it was necessary to prepare a pattern optimized for the output resolution, but by using the method of this embodiment, an arbitrary resolution and an arbitrary magnification can be obtained. Resolution conversion is possible. In addition, the control point portion becomes smoother than when a straight line vector is used, and it is possible to represent the entire area more smoothly.

【0064】第7の実施例では、輪郭抽出部706にお
いて、輪郭部分を推定する機能だけ持たせ、輪郭部分の
画素についての情報を、輪郭情報707とし、高次曲線
処理部708において、輪郭部分の画素についての情報
である、輪郭情報707よりコントロールポイントを設
定し、高次曲線を生成し、スムージング処理を行ってい
るが、本発明はこれだけに限らず、例えば輪郭抽出部7
06にコントロールポイントを設定する機能を移し、コ
ントロールポイントの情報を輪郭情報707とすること
により、情報量を低減させることも可能である。
In the seventh embodiment, the contour extracting unit 706 has only the function of estimating the contour portion, and the information about the pixels of the contour portion is the contour information 707. The control point is set from the contour information 707, which is the information about the pixels of, and the high-order curve is generated and the smoothing process is performed. However, the present invention is not limited to this, and the contour extraction unit
It is also possible to reduce the amount of information by shifting the function of setting the control point to 06 and using the information of the control point as the contour information 707.

【0065】また同様に、輪郭抽出部706に高次曲線
を生成する機能まで移し、高次曲線を表記している数式
等の形で輪郭情報707を作ることも可能で、これによ
り、更に情報量を低減させることも可能である。
Similarly, it is also possible to move the function of generating a higher-order curve to the contour extracting unit 706 and create the contour information 707 in the form of a mathematical expression expressing the higher-order curve. It is also possible to reduce the amount.

【0066】<第8の実施例>図8は、第8の実施例に
おける全体構成を示す図である。図中、801は低解像
度の画像情報で、802は画像分割部で、803〜80
5は画像プレーンで、806は輪郭抽出部で、807は
輪郭情報で、808は補間処理部で、809はスプライ
ン処理で、810〜812は高解像度の画像プレーン
で、813は画像結合部で、814は高解像度の画像情
報である。
<Eighth Embodiment> FIG. 8 is a diagram showing the overall construction of the eighth embodiment. In the figure, 801 is low-resolution image information, 802 is an image dividing unit, and 803 to 80
5 is an image plane, 806 is a contour extraction unit, 807 is contour information, 808 is an interpolation processing unit, 809 is spline processing, 810 to 812 are high-resolution image planes, 813 is an image combination unit, Reference numeral 814 is high resolution image information.

【0067】この実施例では、R,G,Bの3つのプレ
ーン803〜805で、個別に輪郭抽出を行い、輪郭情
報807を作成する。この方式を取ることによって、同
時に3つのプレーンを参照しスプライン処理を行う事が
できない装置や、スプライン処理を行う前に、一旦、画
像全体の輪郭情報を作成しておくなどの処理を行えない
装置に対しても本発明を使用できるようになる。
In this embodiment, contours are individually extracted from the three planes 803 to 805 of R, G, and B to create contour information 807. By adopting this method, a device that cannot refer to three planes at the same time to perform spline processing, or a device that cannot perform processing such as temporarily creating outline information of the entire image before performing spline processing. The present invention can also be used for

【0068】通常、パターンマッチングを用いたときに
は出力する解像度に最適化を行ったパターンを用意して
おかなければならなかったのであるが、この実施例の方
式を用いることにより、任意の解像度に任意の倍率に解
像度変換が可能となる。また、スプラインとして直線ベ
クトルでなく、高次の曲線を用いることにより、さら
に、コントロールポイント部分で滑らかになり、全体的
にも、より滑らかに表現することが可能となる。
Normally, when pattern matching was used, it was necessary to prepare a pattern optimized for the output resolution. However, by using the method of this embodiment, it is possible to obtain an arbitrary resolution. The resolution can be converted to the magnification of. In addition, by using a higher-order curve instead of a straight line vector as the spline, the control point portion becomes smoother, and it is possible to achieve smoother representation overall.

【0069】第8の実施例では、輪郭抽出部806にお
いて、輪郭部分を推定する機能だけ持たせ、輪郭部分の
画素についての情報を輪郭情報807とし、スプライン
処理部809において、輪郭部分の画素についての情報
である、輪郭情報807よりコントロールポイントを設
定し、スプラインを生成し、スムージング処理を行って
いるが、本発明はこれだけに限らず、例えば輪郭抽出部
806にコントロールポイントを設定する機能を移し、
コントロールポイントの情報を輪郭情報807とするこ
とにより、情報量を低減させることも可能である。
In the eighth embodiment, the contour extraction unit 806 has only the function of estimating the contour portion, the information about the pixels of the contour portion is set as the contour information 807, and the spline processing unit 809 determines the information about the pixels of the contour portion. The control point is set from the contour information 807, which is the information of the above, and the spline is generated and the smoothing process is performed. However, the present invention is not limited to this, and the function of setting the control point is transferred to the contour extraction unit 806, for example. ,
It is possible to reduce the amount of information by using the contour information 807 as the control point information.

【0070】また同様に、輪郭抽出部806にスプライ
ンを生成する機能まで移し、スプラインを表記している
数式等の形で輪郭情報807を作ることも可能で、これ
により、更に情報量を低減させることも可能である。
Similarly, it is also possible to move the function of generating a spline to the contour extraction unit 806 and create the contour information 807 in the form of a mathematical expression expressing the spline, thereby further reducing the amount of information. It is also possible.

【0071】<第9の実施例>図9は、第9の実施例に
おける全体構成を示す図である。図中、901は低解像
度の画像情報で、902は画像分割部で、903〜90
5は画像プレーンで、906は輪郭抽出部で、907は
輪郭情報で、908はスムージング処理部で、909は
補間処理部で、910〜912は高解像度の画像プレー
ンで、913は画像結合部で、914は高解像度の画像
情報で、915は圧縮処理部で、916は圧縮画像で、
917は伸長処理部で、918〜920は一度圧縮され
伸長された画像プレーンである。
<Ninth Embodiment> FIG. 9 is a diagram showing the overall construction of the ninth embodiment. In the figure, 901 is low-resolution image information, 902 is an image division unit, and 903-90.
5 is an image plane, 906 is a contour extraction unit, 907 is contour information, 908 is a smoothing processing unit, 909 is an interpolation processing unit, 910 to 912 are high-resolution image planes, and 913 is an image combination unit. , 914 is high resolution image information, 915 is a compression processing unit, 916 is a compressed image,
Reference numeral 917 denotes a decompression processing unit, and reference numerals 918 to 920 denote image planes that have been once compressed and decompressed.

【0072】この実施例では、低解像度の画像情報90
1を圧縮処理部915によって圧縮を行い、圧縮画像9
16を生成する。その後、圧縮画像916を伸長処理装
置917で画像情報に伸長を行い、画像分割部902に
よってR,G,Bプレーンに分割が行われ、補間処理部
909によって出力解像度の画像情報に解像度変換を行
う。その後、各プレーン毎に高解像度の画像を合成し9
10〜912、3つのプレーンを画像結合部913によ
って結合を行い、高解像度の画像情報914を作成す
る。
In this embodiment, low resolution image information 90
1 is compressed by the compression processing unit 915, and the compressed image 9
16 is generated. After that, the decompression processing device 917 decompresses the compressed image 916 into image information, the image division unit 902 divides into R, G, and B planes, and the interpolation processing unit 909 performs resolution conversion into image information of output resolution. . After that, a high-resolution image is synthesized for each plane and
The image combining unit 913 combines the three planes 10 to 912 to create high-resolution image information 914.

【0073】今まで、画像情報を圧縮して保存を行った
後に解像度変換を行う場合、一旦圧縮された後に伸長さ
れた画像情報を元にして解像度変換を行っていた。ここ
で、不可逆圧縮を用いて圧縮を行った場合、画像情報の
情報量が減ってしまい、元の画像よりも劣化が起こって
しまう。例えば、JPEG方式を用いた場合、高周波成
分を削除してしまっているため、圧縮した後、伸長を行
った画像情報はエッジ部分が鈍ってしまっており、本発
明のように、エッジ部分にスムージング処理を行う解像
度変換等において、エッジ部分の推定が困難になった
り、あまり奇麗なスムージング処理を行うことができな
かった。
Up to now, when the resolution conversion is performed after the image information is compressed and stored, the resolution conversion is performed based on the image information that is once compressed and then expanded. Here, when the compression is performed using the lossy compression, the information amount of the image information is reduced, and the image is deteriorated more than the original image. For example, when the JPEG method is used, high-frequency components have been deleted, so the image information that has been compressed and then decompressed has a dull edge portion, and as in the present invention, smoothing is performed on the edge portion. In resolution conversion and the like for processing, it was difficult to estimate the edge portion, and it was not possible to perform a very smooth smoothing processing.

【0074】しかし、第9の実施例のように、圧縮前に
エッジ部分に関する情報を抽出し、保存を行っておくこ
とにより、エッジ部分の情報に関しては、原画像と同じ
情報を用いることができるので、エッジ部分の推測が困
難になることもなく、美しいスムージング処理をかける
ことができる。
However, as in the ninth embodiment, by extracting the information about the edge portion before compression and storing it, the same information as the original image can be used as the information about the edge portion. Therefore, it is possible to perform beautiful smoothing processing without making it difficult to guess the edge portion.

【0075】また、スムージング処理においてパターン
マッチング処理を用いることも可能であるが、スプライ
ン処理を用いることにより、パターンマッチング処理の
ために出力する解像度に最適化を行ったパターンを用意
しておく必要がなく、任意の解像度に任意の倍率に解像
度変換が可能となる。
It is also possible to use the pattern matching process in the smoothing process, but it is necessary to prepare a pattern in which the resolution to be output for the pattern matching process is optimized by using the spline process. Instead, the resolution can be converted to any resolution and to any magnification.

【0076】更に、スプラインとして直線ベクトルでな
く、高次の曲線を用いることにより、全体的により滑ら
かに表現することも可能となる。
Furthermore, by using a higher-order curve instead of a straight line vector as the spline, it is possible to achieve a smoother overall representation.

【0077】第9の実施例でも、輪郭抽出部906にス
ムージング処理部908の機能を移すことにより、輪郭
情報907を輪郭部分の画素についての情報、コントロ
ールポイントの情報スプラインを表記している数式等に
変えることにより、より一層輪郭情報907の情報量を
低減させることも可能である。
Also in the ninth embodiment, by moving the function of the smoothing processing unit 908 to the contour extracting unit 906, the contour information 907 is information about the pixels of the contour portion, a mathematical expression expressing the information spline of the control point, etc. It is possible to further reduce the amount of contour information 907 by changing to.

【0078】もちろん、第5の実施例のように、この装
置に、色変換処理装置を用いて、R,G,B色空間を
Y,U,V色空間などに変換を行い、輝度などの最も視
覚的に影響の大きい色成分の輪郭情報を利用して他のプ
レーンも処理を行ってしまい、最後に元の色空間に戻し
てしまってもかまわない。
Of course, as in the fifth embodiment, a color conversion processing device is used in this device to convert the R, G, B color spaces into the Y, U, V color spaces, etc. It is also possible to use the outline information of the color component that has the greatest visual effect to process other planes and finally restore the original color space.

【0079】<第10の実施例>図10は、第10の実
施例における全体構成を示す図である。図中、1001
は低解像度の画像情報で、1002は画像分割部で、1
003〜1005は画像プレーンで、1006は輪郭抽
出部で、1007は輪郭情報で、1008は補間処理部
で、1009はスムージング処理部で、1010〜10
12は高解像度の画像プレーンで、1013は画像結合
部で、1014は高解像度の画像情報で、1015は圧
縮処理部で、1016は圧縮画像で、1017は伸長処
理部で、1018〜1020は一度圧縮され伸長された
画像プレーンである。
<Tenth Embodiment> FIG. 10 is a diagram showing the overall structure of the tenth embodiment. In the figure, 1001
Is image information of low resolution, 1002 is an image dividing unit, 1
003 to 1005 are image planes, 1006 is a contour extraction unit, 1007 is contour information, 1008 is an interpolation processing unit, 1009 is a smoothing processing unit, 1010 to 1010.
12 is a high-resolution image plane, 1013 is an image combining unit, 1014 is high-resolution image information, 1015 is a compression processing unit, 1016 is a compressed image, 1017 is a decompression processing unit, and 1018 to 1020 are once. It is a compressed and decompressed image plane.

【0080】この実施例では、第3の実施例のように
R,G,Bの3つのプレーン1003〜1005で、個
別に輪郭抽出を行い、輪郭情報1007を作成する。こ
の方式を取ることにより、同時に3つのプレーンを参照
しスムージング処理を行う事ができない装置や、スムー
ジング処理を行う前に、一旦画像全体の輪郭情報を作成
しておくなどの処理を行えない装置に対しても使用でき
るようになる。
In this embodiment, as in the third embodiment, the contours are individually extracted from the three planes 1003 to 1005 of R, G and B to create contour information 1007. By adopting this method, a device that cannot perform smoothing processing by referring to three planes at the same time or a device that cannot perform processing such as temporarily creating outline information of the entire image before performing smoothing processing You can also use it.

【0081】その上、第9の実施例と同様に、圧縮前に
エッジ部分に関する情報を抽出し、保存を行っておくこ
とにより、エッジ部分の情報に関しては、原画像と同じ
情報を用いることができるので、エッジ部分の推測が困
難になることもなく、美しいスムージング処理をかける
ことができる。
Moreover, as in the ninth embodiment, the information about the edge portion is extracted and stored before compression, so that the same information as the original image can be used for the edge portion information. Therefore, it is possible to perform beautiful smoothing processing without making it difficult to guess the edge portion.

【0082】また、スムージング処理においてパターン
マッチング処理を用いることも可能であるが、スプライ
ン処理を用いることにより、パターンマッチング処理の
ために出力する解像度に最適化を行ったパターンを用意
しておく必要がなく、任意の解像度に任意の倍率に解像
度変換が可能となる。
It is also possible to use the pattern matching process in the smoothing process. However, by using the spline process, it is necessary to prepare a pattern in which the output resolution for the pattern matching process is optimized. Instead, the resolution can be converted to any resolution and to any magnification.

【0083】更に、スプラインとして直線ベクトルでな
く、高次の曲線を用いることにより、全体的により滑ら
かに表現することも可能となる。
Furthermore, by using a higher-order curve instead of a straight line vector as the spline, it is possible to achieve a smoother overall representation.

【0084】第10の実施例でも、輪郭抽出部1006
にスムージング処理部1009の機能を移すことによ
り、輪郭情報1007を輪郭部分の画素についての情
報、コントロールポイントの情報スプラインを表記して
いる数式等に変えることにより、より一層、輪郭情報1
007の情報量を低減させることも可能である。
Also in the tenth embodiment, the contour extraction unit 1006
By shifting the function of the smoothing processing unit 1009 to, the contour information 1007 is further converted into the information about the pixel of the contour portion, the mathematical expression expressing the information spline of the control point, etc.
It is also possible to reduce the information amount of 007.

【0085】もちろん、第5の実施例のように、この装
置に、色変換処理装置を用いて、R,G,B色空間を
Y,U,V色空間などに変換を行い、輝度などの最も視
覚的に影響の大きい色成分の輪郭情報を利用して他のプ
レーンも処理を行ってしまい、最後に元の色空間に戻し
てしまってもかまわない。
Of course, as in the fifth embodiment, a color conversion processing device is used in this device to convert the R, G, B color spaces into the Y, U, V color spaces, etc. It is also possible to use the outline information of the color component that has the greatest visual effect to process other planes and finally restore the original color space.

【0086】<第11の実施例>図11は、第11の実
施例における全体構成を示す図である。図中、1101
は低解像度の画像情報で、1102は画像分割部で、1
103〜1105は画像プレーンで、1106は輪郭抽
出部で、1107は輪郭情報で、1108はスムージン
グ処理部で、1109は補間処理部で、1110〜11
12は高解像度の画像プレーンで、1113は画像結合
部で、1114は高解像度の画像情報で、1115は圧
縮処理部で、1116は圧縮画像で、1117は伸長処
理部で、1118〜1120は一度圧縮された画像プレ
ーンで、1121は圧縮処理部で、1122は圧縮され
た輪郭情報で、1123は伸長処理部である。
<Eleventh Embodiment> FIG. 11 is a diagram showing the overall structure of the eleventh embodiment. 1101 in the figure
Is low-resolution image information, and 1102 is an image division unit.
103 to 1105 are image planes, 1106 is a contour extraction unit, 1107 is contour information, 1108 is a smoothing processing unit, 1109 is an interpolation processing unit, and 1110 to 11
12 is a high-resolution image plane, 1113 is an image combining unit, 1114 is high-resolution image information, 1115 is a compression processing unit, 1116 is a compressed image, 1117 is a decompression processing unit, and 1118 to 1120 are once. In the compressed image plane, 1121 is a compression processing unit, 1122 is compressed contour information, and 1123 is a decompression processing unit.

【0087】この実施例では、輪郭情報を作成した後、
可逆圧縮により輪郭情報を圧縮して保存を行い、出力時
に伸長処理を行う。このことにより、第9の実施例より
保存を行うときに情報量を低減することができ、記録装
置のコストを安くすることができる。
In this embodiment, after the contour information is created,
The contour information is compressed and stored by reversible compression, and decompression processing is performed at the time of output. As a result, the amount of information can be reduced and the cost of the recording apparatus can be reduced as compared with the ninth embodiment.

【0088】また、第9の実施例と同様に、圧縮前にエ
ッジ部分に関する情報を抽出し、保存を行っておくこと
により、エッジ部分の情報に関しては、原画像と同じ情
報を用いることができるので、エッジ部分の推測が困難
になることもなく、美しいスムージング処理をかけるこ
とができる。
Further, as in the ninth embodiment, by extracting the information about the edge portion before compression and storing it, the same information as the original image can be used as the information about the edge portion. Therefore, it is possible to perform beautiful smoothing processing without making it difficult to guess the edge portion.

【0089】また、スムージング処理においてパターン
マッチング処理を用いることも可能であるが、スプライ
ン処理を用いることにより、パターンマッチング処理の
ために出力する解像度に最適化を行ったパターンを用意
しておく必要がなく、任意の解像度に任意の倍率に解像
度変換が可能となる。
It is also possible to use the pattern matching process in the smoothing process, but it is necessary to prepare a pattern in which the output resolution for the pattern matching process is optimized by using the spline process. Instead, the resolution can be converted to any resolution and to any magnification.

【0090】更に、スプラインとして直線ベクトルでな
く、高次の曲線を用いることにより、全体的により滑ら
かに表現することも可能となる。
Furthermore, by using a higher-order curve instead of a straight line vector as the spline, it is possible to achieve a smoother overall representation.

【0091】第11の実施例でも、輪郭抽出部1106
にスムージング処理部1108の機能を移すことによ
り、輪郭情報1107を輪郭部分の画素についての情
報、コントロールポイントの情報スプラインを表記して
いる数式等に変えることにより、より一層、輪郭情報1
107の情報量を低減させることも可能である。
Also in the eleventh embodiment, the contour extraction unit 1106.
By shifting the function of the smoothing processing unit 1108 to, the contour information 1107 is converted into information about the pixels of the contour portion, a mathematical expression expressing the information spline of the control point, and the like, to further enhance the contour information 1107.
It is also possible to reduce the amount of information in 107.

【0092】もちろん、第5の実施例のように、この装
置に、色変換処理装置を用いて、R,G,B色空間を
Y,U,V色空間などに変換を行い、輝度などの最も視
覚的に影響の大きい色成分の輪郭情報を利用して他のプ
レーンも処理を行ってしまい、最後に元の色空間に戻し
てしまってもかまわない。
Of course, as in the fifth embodiment, a color conversion processing device is used in this device to convert the R, G, B color space into a Y, U, V color space, etc. It is also possible to use the outline information of the color component that has the greatest visual effect to process other planes and finally restore the original color space.

【0093】<第12の実施例>図12は、第12の実
施例における全体構成を示す図である。図中、1201
は低解像度の画像情報で、1202は画像分割部で、1
203〜1205は画像プレーンで、1206は輪郭抽
出部、1207は輪郭情報で、1208は補間処理部
で、1209はスムージング処理部で、1210〜12
12は高解像度の画像プレーンで、1213は画像結合
部で、1214は高解像度の画像情報で、1215は圧
縮処理部で、1216は圧縮画像で、1217は伸長処
理部で、1218〜1220は一度圧縮され伸長された
画像プレーンで、1221は圧縮処理部で、1222は
圧縮された輪郭情報で、1223は伸長処理部である。
<Twelfth Embodiment> FIG. 12 is a diagram showing the overall structure of a twelfth embodiment. In the figure, 1201
Is low-resolution image information, and 1202 is an image division unit.
Reference numerals 203 to 1205 are image planes, 1206 is a contour extraction unit, 1207 is contour information, 1208 is an interpolation processing unit, 1209 is a smoothing processing unit, and 1210 to 12
12 is a high-resolution image plane, 1213 is an image combining unit, 1214 is high-resolution image information, 1215 is a compression processing unit, 1216 is a compressed image, 1217 is a decompression processing unit, and 1218 to 1220 once. Reference numeral 1221 denotes a compression processing unit, 1222 denotes compressed contour information, and 1223 denotes a decompression processing unit.

【0094】この実施例では、第10の実施例のよう
に、R,G,Bの3つのプレーン1203〜1205
で、個別に輪郭抽出を行い、輪郭情報1207を作成す
る。この方式を取ることにより、同時に3つのプレーン
を参照しスムージング処理を行う事ができない装置や、
スムージング処理を行う前に、一旦、画像全体の輪郭情
報を作成しておくなどの処理を行えない装置に対しても
使用できるようになる。
In this embodiment, like the tenth embodiment, three planes 1203 to 1205 of R, G and B are provided.
Then, contour extraction is performed individually to create contour information 1207. By adopting this method, a device that cannot perform smoothing processing by simultaneously referring to three planes,
It becomes possible to use even for a device that cannot perform processing such as temporarily creating contour information of the entire image before performing smoothing processing.

【0095】また、第11の実施例のように、輪郭情報
を作成した後、可逆圧縮により輪郭情報を圧縮して保存
を行い、出力時に伸長処理を行う。このことにより、第
10の実施例より保存を行うときに情報量を削減するこ
とができ、記録装置のコストを安くすることができる。
Further, as in the eleventh embodiment, after the contour information is created, the contour information is compressed and stored by reversible compression, and the decompression process is performed at the time of output. As a result, the amount of information can be reduced when saving is performed and the cost of the recording device can be reduced as compared with the tenth embodiment.

【0096】その上、第10の実施例と同様に、圧縮前
にエッジ部分に関する情報を抽出し、保存を行っておく
ことにより、エッジ部分の情報に関しては、原画像と同
じ情報を用いることができるので、エッジ部分の推測が
困難になることもなく、美しいスムージング処理をかけ
ることができる。
Furthermore, as in the tenth embodiment, by extracting the information about the edge portion before compression and storing it, the same information as the original image can be used as the information about the edge portion. Therefore, it is possible to perform beautiful smoothing processing without making it difficult to guess the edge portion.

【0097】また、スムージング処理においてパターン
マッチング処理を用いることも可能であるが、スプライ
ン処理を用いることにより、パターンマッチング処理の
ために出力する解像度に最適化を行ったパターンを用意
しておく必要がなく、任意の解像度に任意の倍率に解像
度変換が可能となる。
It is also possible to use the pattern matching process in the smoothing process. However, by using the spline process, it is necessary to prepare a pattern whose output resolution is optimized for the pattern matching process. Instead, the resolution can be converted to any resolution and to any magnification.

【0098】更に、スプラインとして直線ベクトルでな
く、高次の曲線を用いることにより、全体的により滑ら
かに表現することが可能となる。
Furthermore, by using a higher-order curve instead of a straight line vector as the spline, it is possible to achieve a smoother overall representation.

【0099】第12の実施例でも、輪郭抽出部1206
にスムージング処理部1209の機能を移すことによ
り、輪郭情報1207を輪郭部分の画素についての情
報、コントロールポイントの情報スプラインを表記して
いる数式等に変えることにより、より一層、輪郭情報1
207の情報量を低減させることも可能である。
Also in the twelfth embodiment, the contour extracting unit 1206
By moving the function of the smoothing processing unit 1209 to, the contour information 1207 is further converted into the information about the pixels of the contour portion, the mathematical expression expressing the information spline of the control point, and the like.
It is also possible to reduce the information amount of 207.

【0100】もちろん、第5の実施例のように、この装
置に、色変換処理装置を用いて、R,G,B色空間を
Y,U,V色空間などに変換を行い、輝度などの最も視
覚的に影響の大きい色成分の輪郭情報を利用して他のプ
レーンも処理を行ってしまい、最後に元の色空間に戻し
てしまってもかまわない。
Of course, as in the fifth embodiment, a color conversion processing device is used in this device to convert the R, G, B color spaces into the Y, U, V color spaces, etc. It is also possible to use the outline information of the color component that has the greatest visual effect to process other planes and finally restore the original color space.

【0101】尚、本発明は、複数の機器から構成される
システムに適用しても、1つの機器から成る装置に適用
しても良い。また、システム或いは装置にプログラムを
供給することによって達成される場合にも適用できるこ
とは言うまでもない。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. It goes without saying that the present invention can also be applied to the case where it is achieved by supplying a program to a system or an apparatus.

【0102】[0102]

【発明の効果】以上説明したように、本発明によれば、
人間にとって、解像度が低いためにジャギーになってい
ると判断してしまう部分についてだけスムージング処理
を行い、それ以外の部分を単純な解像度変換を用いるこ
とにより、低解像度の多値及びカラー画像情報をエッジ
部や画質を低下することなしに、高解像度の画像情報に
変換することができる。
As described above, according to the present invention,
For human beings, smoothing processing is performed only on the parts that are judged to be jaggies due to low resolution, and simple resolution conversion is used for the other parts, so that low-resolution multi-valued and color image information is It is possible to convert to high resolution image information without deteriorating the edge portion and the image quality.

【0103】また、解像度変換と画像圧縮を結び付ける
ことにより、解像度の異なる機種間通信において、転送
時間を短縮し、容易に出力装置の最高の画質を得ること
が可能となり、また保存を行う場合、画質の劣化を最小
にすることも可能となる。
Further, by linking the resolution conversion and the image compression, it becomes possible to shorten the transfer time and easily obtain the highest image quality of the output device in the communication between the models having different resolutions. It is also possible to minimize the deterioration of image quality.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1の実施例におけるカラー解像度変換システ
ムの全体図である。
FIG. 1 is an overall view of a color resolution conversion system in a first embodiment.

【図2】第2の実施例におけるカラー解像度変換システ
ムの全体図である。
FIG. 2 is an overall view of a color resolution conversion system in a second embodiment.

【図3】第3の実施例におけるカラー解像度変換システ
ムの全体図である。
FIG. 3 is an overall view of a color resolution conversion system in a third embodiment.

【図4】第4の実施例におけるカラー解像度変換システ
ムの全体図である。
FIG. 4 is an overall view of a color resolution conversion system according to a fourth embodiment.

【図5】第5の実施例におけるカラー解像度変換システ
ムの全体図である。
FIG. 5 is an overall view of a color resolution conversion system in a fifth embodiment.

【図6】第6の実施例におけるカラー解像度変換システ
ムの全体図である。
FIG. 6 is an overall view of a color resolution conversion system in a sixth embodiment.

【図7】第7の実施例におけるカラー解像度変換システ
ムの全体図である。
FIG. 7 is an overall view of a color resolution conversion system in a seventh embodiment.

【図8】第8の実施例におけるカラー解像度変換システ
ムの全体図である。
FIG. 8 is an overall view of a color resolution conversion system in an eighth embodiment.

【図9】第9の実施例におけるカラー解像度変換システ
ムの全体図である。
FIG. 9 is an overall view of a color resolution conversion system in a ninth embodiment.

【図10】第10の実施例におけるカラー解像度変換シ
ステムの全体図である。
FIG. 10 is an overall view of a color resolution conversion system in a tenth embodiment.

【図11】第11の実施例におけるカラー解像度変換シ
ステムの全体図である。
FIG. 11 is an overall view of a color resolution conversion system in an eleventh embodiment.

【図12】第12の実施例におけるカラー解像度変換シ
ステムの全体図である。
FIG. 12 is an overall diagram of a color resolution conversion system in a twelfth embodiment.

【図13】実施例におけるラプラシアンオペレータを示
す図である。
FIG. 13 is a diagram showing a Laplacian operator in the embodiment.

【図14】実施例における描画処理法について示す図で
ある。
FIG. 14 is a diagram showing a drawing processing method according to the embodiment.

【図15】実施例における線型補間について示す図であ
る。
FIG. 15 is a diagram showing linear interpolation according to the embodiment.

【図16】実施例における輪郭抽出法を示す図である。FIG. 16 is a diagram showing a contour extraction method in the embodiment.

【図17】実施例におけるパターンマッチング法で使用
するパターンを示す図である。
FIG. 17 is a diagram showing a pattern used in the pattern matching method in the example.

【図18】実施例におけるパターンマッチング法で使用
するパターンを示す図である。
FIG. 18 is a diagram showing a pattern used in the pattern matching method in the example.

【図19】実施例におけるパターンマッチング法で使用
するパターンを示す図である。
FIG. 19 is a diagram showing a pattern used in the pattern matching method in the example.

【図20】実施例におけるパターンマッチング法で使用
するパターンを示す図である。
FIG. 20 is a diagram showing a pattern used in the pattern matching method in the example.

【図21】実施例における描画処理法について示す図で
ある。
FIG. 21 is a diagram showing a drawing processing method according to the embodiment.

【図22】実施例における輪郭抽出法及び直線ベクトル
描画法を示す図である。
FIG. 22 is a diagram showing a contour extraction method and a straight line vector drawing method in the embodiment.

【図23】実施例における輪郭抽出法及び直線ベクトル
描画法を示す図である。
FIG. 23 is a diagram showing a contour extraction method and a straight line vector drawing method in the embodiment.

【図24】実施例における輪郭抽出法及び直線ベクトル
描画法を示す図である。
FIG. 24 is a diagram showing a contour extraction method and a straight line vector drawing method in the embodiment.

【図25】実施例における直線ベクトル処理部について
示す図である。
FIG. 25 is a diagram showing a linear vector processing unit in the embodiment.

【図26】実施例における輪郭抽出法及び直線ベクトル
描画法を示す図である。
FIG. 26 is a diagram showing a contour extraction method and a straight line vector drawing method in the embodiment.

【図27】実施例における輪郭抽出法及び直線ベクトル
描画法を示す図である。
FIG. 27 is a diagram showing a contour extraction method and a straight line vector drawing method in the embodiment.

【図28】実施例における輪郭抽出法及び直線ベクトル
描画法を示す図である。
FIG. 28 is a diagram showing a contour extraction method and a straight line vector drawing method in the embodiment.

【図29】実施例における輪郭抽出法及び直線ベクトル
描画法を示す図である。
FIG. 29 is a diagram showing a contour extraction method and a straight line vector drawing method in the example.

【図30】従来の技術における最近接内挿法を示す図で
ある。
FIG. 30 is a diagram showing a nearest neighbor interpolation method in a conventional technique.

【図31】従来の技術における共1次内挿法を示す図で
ある。
FIG. 31 is a diagram showing a bilinear interpolation method in the conventional technique.

【図32】従来の技術における階調値分割法を示す図で
ある。
FIG. 32 is a diagram showing a gradation value division method in a conventional technique.

【図33】従来の技術におけるビットプレーン分割法を
示す図である。
FIG. 33 is a diagram showing a bit plane division method in a conventional technique.

【図34】従来の技術における画像符号化方式と解像度
変換処理を個別に行う方法を示す図である。
[Fig. 34] Fig. 34 is a diagram illustrating a method of individually performing an image encoding method and a resolution conversion process in a conventional technique.

【図35】従来の技術における階調数を低減させる圧縮
処理中に解像度変換を組み入れた方法を示す図である。
FIG. 35 is a diagram showing a method in which resolution conversion is incorporated in a compression process for reducing the number of gradations in the conventional technique.

【図36】従来の技術における階調数を低減させる圧縮
処理中に解像度変換を組み入れた方法の説明で用いられ
ている図である。
[Fig. 36] Fig. 36 is a diagram used in the description of a method in which resolution conversion is incorporated in compression processing for reducing the number of gradations in the related art.

【符号の説明】[Explanation of symbols]

101 低解像度の画像情報 102 画像分割部 103 Rプレーン 104 Gプレーン 105 Bプレーン 106 ラプラシアンオペレータを用いた輪郭抽出装置 107 輪郭情報 108 パターンマッチング処理部 109 補間処理部 110 処理されたRプレーン 111 処理されたGプレーン 112 処理されたBプレーン 113 画像結合部 114 高解像度の画像情報 206 近接画素との差分で求める輪郭抽出部 504 色変換装置 608 直線ベクトル処理部 708 高次曲線処理部 915 圧縮処理部 916 圧縮画像 917 伸長処理部 1121 輪郭情報圧縮処理部 1122 圧縮された輪郭情報部 1123 輪郭情報伸長処理部 2502 コントロールポイント設定部 2503 直線ベクトル設定部 2504 描画部 101 low-resolution image information 102 image division unit 103 R plane 104 G plane 105 B plane 106 contour extraction device using Laplacian operator 107 contour information 108 pattern matching processing unit 109 interpolation processing unit 110 processed R plane 111 processed G plane 112 Processed B plane 113 Image combining unit 114 High-resolution image information 206 Contour extraction unit obtained by difference from neighboring pixels 504 Color conversion device 608 Linear vector processing unit 708 Higher-order curve processing unit 915 Compression processing unit 916 Compression Image 917 Decompression processing unit 1121 Contour information compression processing unit 1122 Compressed contour information unit 1123 Contour information decompression processing unit 2502 Control point setting unit 2503 Linear vector setting unit 2504 Drawing unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 1/41 B ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Office reference number FI technical display location H04N 1/41 B

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 低解像度の画像情報を高解像度の画像情
報に解像度変換する画像処理装置であって、 画像情報において注目画素とその周辺画素より輪郭部分
を抽出して輪郭情報を生成する輪郭抽出手段と、 前記輪郭抽出手段により生成された輪郭情報を参照して
前記輪郭部分の解像度変換を行う第1の解像度変換手段
と、 前記画像情報の輪郭部分以外若しくは画像情報全体の解
像度変換を行う第2の解像度変換手段とを備えることを
特徴とする画像処理装置。
1. An image processing apparatus for converting low-resolution image information into high-resolution image information, wherein contour extraction is performed by extracting a contour portion from a pixel of interest and its peripheral pixels in the image information to generate contour information. A first resolution conversion means for converting the resolution of the contour portion with reference to the contour information generated by the contour extraction means; An image processing apparatus comprising: two resolution conversion means.
【請求項2】 前記輪郭抽出手段は、前記注目画素とそ
の周辺画素の平均値とのレベル差から輪郭情報を作成す
ることを特徴とする請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the contour extracting means creates contour information from a level difference between the average value of the target pixel and its peripheral pixels.
【請求項3】 前記輪郭抽出手段は、前記注目画素とそ
の周辺の個々の画素とのレベル差から輪郭情報を作成す
ることを特徴とする請求項1記載の画像処理装置。
3. The image processing apparatus according to claim 1, wherein the contour extracting means creates contour information from a level difference between the pixel of interest and individual pixels around the pixel of interest.
【請求項4】 更に、入力された色空間を他の色空間に
変換する色空間変換手段を備えることを特徴とする請求
項1記載の画像処理装置。
4. The image processing apparatus according to claim 1, further comprising a color space conversion unit that converts the input color space into another color space.
【請求項5】 前記入力された色空間において、2つ以
上のプレーンを参照して輪郭情報を作成することを特徴
とする請求項4記載の画像処理装置。
5. The image processing apparatus according to claim 4, wherein contour information is created by referring to two or more planes in the input color space.
【請求項6】 前記入力された色空間において、プレー
ンごとに輪郭情報を作成することを特徴とする請求項4
記載の画像処理装置。
6. The contour information is created for each plane in the input color space.
The image processing device described.
【請求項7】 前記画像情報に解像度変換処理を行った
後に輪郭部分に対してスムージング処理を行うことを特
徴とする請求項1記載の画像処理装置。
7. The image processing apparatus according to claim 1, wherein smoothing processing is performed on a contour portion after resolution conversion processing is performed on the image information.
【請求項8】 前記輪郭情報は、輪郭部分の画素位置に
関する情報であることを特徴とする請求項1記載の画像
処理装置。
8. The image processing apparatus according to claim 1, wherein the contour information is information regarding a pixel position of a contour portion.
【請求項9】 前記輪郭情報は、輪郭部分をスプライン
表現する際に使用する制御を行う位置に関する情報であ
ることを特徴とする請求項1記載の画像処理装置。
9. The image processing apparatus according to claim 1, wherein the contour information is information relating to a control position used when the contour portion is represented by a spline.
【請求項10】 前記輪郭情報は、輪郭を表す1次関数
群によって記述されていることを特徴とする請求項1記
載の画像処理装置。
10. The image processing apparatus according to claim 1, wherein the contour information is described by a linear function group representing a contour.
【請求項11】 前記輪郭情報は、輪郭を表す2次以上
の曲線関数群によって記述されていることを特徴とする
請求項1記載の画像処理装置。
11. The image processing apparatus according to claim 1, wherein the contour information is described by a quadratic or higher order curve function group representing a contour.
【請求項12】 更に、前記輪郭情報を抽出した後に画
像を圧縮する圧縮手段と、画像を伸長する伸長手段とを
備えることを特徴とする請求項1記載の画像処理装置。
12. The image processing apparatus according to claim 1, further comprising a compression unit that compresses an image after extracting the contour information and a decompression unit that decompresses the image.
【請求項13】 更に、前記輪郭情報を圧縮する圧縮手
段と、輪郭情報を伸長する伸長手段とを備えることを特
徴とする請求項1記載の画像処理装置。
13. The image processing apparatus according to claim 1, further comprising a compression unit that compresses the contour information and a decompression unit that decompresses the contour information.
【請求項14】 低解像度の画像情報を高解像度の画像
情報に解像度変換する画像処理方法であって、 画像情報において注目画素とその周辺画素より輪郭部分
を抽出して輪郭情報を生成し、 生成された輪郭情報を参照して前記輪郭部分に第1の解
像度変換を行い、 前記画像情報の輪郭部分以外若しくは画像情報全体に第
2の解像度変換を行うことを特徴とする画像処理方法。
14. An image processing method for performing resolution conversion of low-resolution image information into high-resolution image information, wherein contour information is generated by extracting a contour portion from a pixel of interest and its peripheral pixels in the image information, and generating An image processing method, wherein the first resolution conversion is performed on the contour portion with reference to the generated contour information, and the second resolution conversion is performed on a portion other than the contour portion of the image information or the entire image information.
JP6051712A 1994-03-23 1994-03-23 Method and device for image processing Withdrawn JPH07262361A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6051712A JPH07262361A (en) 1994-03-23 1994-03-23 Method and device for image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6051712A JPH07262361A (en) 1994-03-23 1994-03-23 Method and device for image processing

Publications (1)

Publication Number Publication Date
JPH07262361A true JPH07262361A (en) 1995-10-13

Family

ID=12894514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6051712A Withdrawn JPH07262361A (en) 1994-03-23 1994-03-23 Method and device for image processing

Country Status (1)

Country Link
JP (1) JPH07262361A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1180743A1 (en) * 2000-04-24 2002-02-20 Seiko Epson Corporation Apparatus and method for image data interpolation
US7583859B2 (en) 1999-05-06 2009-09-01 Ricoh Company, Ltd. Method, computer readable medium and apparatus for converting color image resolution
JP2011028364A (en) * 2009-07-22 2011-02-10 Omron Corp Image processor and image processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7583859B2 (en) 1999-05-06 2009-09-01 Ricoh Company, Ltd. Method, computer readable medium and apparatus for converting color image resolution
EP1180743A1 (en) * 2000-04-24 2002-02-20 Seiko Epson Corporation Apparatus and method for image data interpolation
JP2011028364A (en) * 2009-07-22 2011-02-10 Omron Corp Image processor and image processing method

Similar Documents

Publication Publication Date Title
EP1347411B1 (en) Fractal image enlargement
US8218908B2 (en) Mixed content image compression with two edge data representations
US6275620B2 (en) Method and apparatus for pre-processing mixed raster content planes to improve the quality of a decompressed image and increase document compression ratios
EP0650287B1 (en) Image processing method and apparatus
US6334001B2 (en) Iterative smoothing technique for pre-processing mixed raster content planes to improve the quality of a decompressed image and increase document compression ratios
US6897977B1 (en) Lossy method for compressing pictures and video
JP4902569B2 (en) Image coding apparatus and control method thereof
JPH10145590A (en) Color/gradation image input/output device and input/ output method
JP3634410B2 (en) Image processing system, image processing apparatus and method
US7231092B2 (en) Image compression/decompression system employing pixel thinning-out and interpolation scheme
JP3195142B2 (en) Image processing method and apparatus
US6738169B1 (en) Image processing apparatus and method
JPH11150660A (en) Information compressing method and its device, information processing method and its device, and recording medium
JPH07262361A (en) Method and device for image processing
JP2002077657A (en) Apparatus of image processing, method thereof and recording medium
JP4328727B2 (en) Image compression / decompression method, image compression apparatus, and image expansion apparatus
JP2003087558A (en) Apparatus and method for processing image
JPH07334648A (en) Method and device for processing image
JP3722169B2 (en) Image processing apparatus and image processing method
JP3647071B2 (en) Image processing apparatus and method
Cheng et al. Rate-distortion-based segmentation for MRC compression
JP3750164B2 (en) Image processing method and image processing apparatus
JP2809552B2 (en) Image encoding method and image decoding method
JPH1098620A (en) Picture processor
JP4047207B2 (en) Image coding apparatus, image coding method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010605