JP2001188900A - Image processor and image processing method - Google Patents

Image processor and image processing method

Info

Publication number
JP2001188900A
JP2001188900A JP2000106878A JP2000106878A JP2001188900A JP 2001188900 A JP2001188900 A JP 2001188900A JP 2000106878 A JP2000106878 A JP 2000106878A JP 2000106878 A JP2000106878 A JP 2000106878A JP 2001188900 A JP2001188900 A JP 2001188900A
Authority
JP
Japan
Prior art keywords
pixel
image
enlargement
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000106878A
Other languages
Japanese (ja)
Other versions
JP4115073B2 (en
Inventor
Hiroaki Suzuki
博顕 鈴木
Manabu Komatsu
小松  学
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2000106878A priority Critical patent/JP4115073B2/en
Publication of JP2001188900A publication Critical patent/JP2001188900A/en
Application granted granted Critical
Publication of JP4115073B2 publication Critical patent/JP4115073B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processor capable of coping with full color images and performing a high-speed pattern matching processing even in realization by software. SOLUTION: A dot arrangement file 112 corresponding to an inputted integer magnification is selected, M×N pixel blocks are segmented from source images and a pattern is generated. In a pattern retrieval part 130, the pattern matched with the generated pattern is retrieved from a pattern file 111. One corresponding dot arrangement file 112 is selected by the inputted integer magnification. When the pattern matches, one dot arrangement file 112 is decided from the result and the integer magnification. Since pixel reference information is stored in the dot arrangement file 112, dot arrangement information is decided and simultaneously one piece of the pixel reference information is decided. When the pattern matches, the dot arrangement information and the pixel reference information are selected, a magnified pixel is generated and a pixel is filled in a filling part 141. When it does not match, the pixel for the integer magnification is filled by using the pixel under consideration of the pixel block in a simple filling part 142.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、プリンタ、複写
機あるいはファクシミリなどの画像形成装置や情報処理
装置の表示画像の画像処理や、デジタルカメラ画像、イ
ンターネットホームページなどモニタ解像度レベルの画
像を高解像度化してプリントアウトしたり表示したりす
る場合の画像処理に好適で、比較的低階調の連続調のカ
ラー画像データを比較的高階調の画像に拡大する処理に
適用される画像処理装置及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to image processing of a display image of an image forming apparatus such as a printer, a copier or a facsimile or an information processing apparatus, and to increase the resolution of a monitor resolution level image such as a digital camera image and an Internet homepage. The present invention relates to an image processing apparatus and method which are suitable for image processing when printing out or displaying by means of an image processing and which are applied to processing for enlarging continuous-tone color image data of relatively low gradation to a relatively high gradation image. .

【0002】[0002]

【従来の技術】この種の従来例としては、例えば A.特開平5−094521号公報 B.特開平6−189116号公報 C.特開平7−050752号公報 D.特開平7−093563号公報 E.特開平7−105359号公報 F.特開平7−221976号公報 G.特開平7−221977号公報 H.特開平7−262351号公報 I.特開平7−288693号公報 J.特開平10−126609号公報 などの各公報に開示された発明が知られている。2. Description of the Related Art Conventional examples of this type include, for example, A.A. JP-A-5-094521 B. JP-A-6-189116 C.I. JP-A-7-050752 JP-A-7-095563. JP-A-7-105359 F. Japanese Patent Application Laid-Open No. 7-221976 JP-A-7-221977. JP-A-7-262351. JP-A-7-288693. The inventions disclosed in various publications such as Japanese Patent Application Laid-Open No. H10-126609 are known.

【0003】このうち、パターンマッチングによる密度
変換に関するものとして、特開平7−221976号公
報(F)には、2値画像データをテンプレートとマッチ
ングをとり、マッチングしたパターンに対応するスムー
ジング拡大パターンにより着目画素を2値拡大ドット群
にスムージング拡大し、それを拡大率に応じて1つ以上
の画素に分割し、その画像毎に平滑化処理して多値化
し、その際使用するテンプレートパターンを複数の平滑
化パターン群に分け、パターン群に分けその群に応じて
マッチングする優先順位を設定するようにしたことが開
示されている。また、特開平7−221977号公報
(G)には、2値画像データをFAXで受信したとき、
その受信データに応じて変倍率を算出する手段と、前記
2値画像データに対して着目画素を中心とする所定領域
毎にテンプレートマッチング処理を施す手段と、テンプ
レートマッチング処理の結果、マッチングしたテンプレ
ートパターンに応じて前記着目画素を複数の多値のスム
ージング拡大画素に変換する演算手段と、演算手段で使
用する多値のスムージング拡大画素のデータを算出され
た変倍率に応じて予め内部のRAMに転送する手段とを
設け、FAXで受信した2値画像データのスムージング
拡大処理を確実に行えるようにしたことが開示されてい
る。
Japanese Patent Application Laid-Open No. Hei 7-221976 (F) discloses a technique of matching binary image data with a template and focusing on a smoothing enlarged pattern corresponding to the matched pattern. Pixels are smoothed and expanded into a binary expanded dot group, which is divided into one or more pixels in accordance with an expansion ratio, and each image is smoothed to be multi-valued. It is disclosed that the priorities are divided into a group of smoothing patterns, the patterns are divided into groups, and matching priorities are set according to the groups. Also, Japanese Patent Application Laid-Open No. 7-221977 (G) discloses that when binary image data is received by facsimile,
Means for calculating a scaling factor according to the received data; means for performing template matching processing on the binary image data for each predetermined area centering on a pixel of interest; Calculating means for converting the pixel of interest into a plurality of multi-valued smoothed enlarged pixels in accordance with the data, and transferring the data of the multi-valued smoothed enlarged pixels used in the calculating means to an internal RAM in advance according to the calculated scaling factor. It is disclosed that a smoothing enlargement process of binary image data received by facsimile can be surely performed.

【0004】また、特開平7−50752号公報(C)
には、ブロックの各画素のデータに基づいて、ブロック
内のエッジを検出し、パターンを満足した場合、密度変
換を行うように構成したものが開示され、特開平7−2
88693号公報(I)には、パターンマッチングの高
速化を図るために、目標画素に隣接するx*y画素のブ
ロックを、埋めこむパターンの検索用として用いるよう
にした技術が開示されている。しかし、前記(C)の従
来技術では、プリンタドライバなど、ソフトウエアにお
ける実現の際のパターン検索の高速化に関しては開示さ
れていない。
Further, Japanese Patent Application Laid-Open No. 7-50752 (C)
Japanese Patent Laid-Open No. 7-2 discloses a configuration in which an edge in a block is detected based on data of each pixel of the block, and density conversion is performed when a pattern is satisfied.
Japanese Patent Application Publication No. 88693 (I) discloses a technique in which a block of x * y pixels adjacent to a target pixel is used for searching for a pattern to be embedded in order to speed up pattern matching. However, the prior art of (C) does not disclose how to speed up a pattern search for realization in software such as a printer driver.

【0005】また、特開平10−126609号公報
(J)には、像域分離手段を持ち、分離結果で処理を切
り替えて拡大し、所定の解像度のファクシミリ2値画像
をスムージング拡大処理する方法が開示されている。ま
た、特開平7−262351号公報(H)における「従
来の技術」の欄には、特願平6−4424号を挙げて輝
度信号のエッジの微小成分をパターンマッチングするこ
とにより全ての特徴点を見つけ出し、個々の特徴点を結
ぶベクトルを抽出してこのベクトルを拡大率に応じて補
正し、補正後のベクトルにしたがって輪郭を描画して塗
りつぶす方法についての記載がある。
Japanese Patent Application Laid-Open No. Hei 10-126609 (J) discloses a method in which an image area separating means is provided, the processing is switched and enlarged based on the separation result, and a facsimile binary image of a predetermined resolution is smoothed and enlarged. It has been disclosed. In the column of "Prior Art" in Japanese Patent Application Laid-Open No. 7-262351 (H), all feature points are obtained by pattern matching of minute components of an edge of a luminance signal as described in Japanese Patent Application No. 6-4424. Is described, a vector connecting individual feature points is extracted, the vector is corrected in accordance with the enlargement ratio, and an outline is drawn and filled according to the corrected vector.

【0006】また、特開平5−94521号公報(A)
には、入力画像または部分に適した変倍方法を判別し、
拡大する技術、言い換えれば画像に応じて適切な拡大処
理を行う技術が開示され、特開平6−189116号公
報(B)には、加算結果の小数部と拡大率とを加算する
手段を持ち、加算結果の整数部に応じた拡大を行い、主
走査方向及び副走査方向とも任意倍率で拡大する技術が
開示されている。
Further, Japanese Patent Application Laid-Open No. 5-94521 (A)
Determines the scaling method that is appropriate for the input image or part,
A technique for enlarging, in other words, a technique for performing an appropriate enlarging process according to an image is disclosed. Japanese Patent Application Laid-Open No. Hei 6-189116 (B) has means for adding a decimal part of an addition result and an enlarging ratio, There is disclosed a technique in which enlargement is performed according to an integer part of an addition result, and enlargement is performed at an arbitrary magnification in both the main scanning direction and the sub-scanning direction.

【0007】また、特開平7−093563号公報
(D)には、入力画像データを輝度・色差データに変換
し、輝度データでエッジを生成し、この情報を基に色差
データのエッジを生成して拡大する技術、言い換えれ
ば、入力画像と別の色空間のデータに変換後、拡大する
技術が開示されている。この従来技術では、輝度エッジ
ビットマップを作成し、これに基づいて色差成分の最大
値、最小値を配置し、輝度・色差のエッジを生成するよ
うになっているが、この技術では、ブロック内のエッジ
と色の組み合わせによっては、色ずれが生じる場合があ
る。
Japanese Patent Application Laid-Open No. 7-095563 (D) discloses that input image data is converted into luminance / color difference data, an edge is generated with the luminance data, and an edge of the color difference data is generated based on this information. In other words, there is disclosed a technique for enlarging the image after converting it into data of a color space different from that of the input image. In this conventional technique, a luminance edge bitmap is created, and the maximum value and the minimum value of the chrominance component are arranged based on the luminance edge bitmap to generate an edge of luminance / chrominance. Color shift may occur depending on the combination of the edge and the color.

【0008】さらに、特開平7−105359号公報
(E)には、線形補間とその補間結果を2値化したもの
を加算合成して拡大する技術が開示されているが、拡大
後のデータを2値化し、2値化前のデータと加算合成す
る工程を備えているので、処理の高速化については、改
善の余地がある。
Further, Japanese Patent Application Laid-Open No. Hei 7-105359 (E) discloses a technique for linearly interpolating and adding and combining binarized results of the interpolation to enlarge the data. Since there is a step of binarizing and adding and synthesizing data before binarization, there is room for improvement in speeding up the processing.

【0009】[0009]

【発明が解決しようとする課題】ところで、前記(F)
及び(G)の従来技術は、2値画像を変倍する技術に関
するもので、フルカラー画像を対象とする場合の処理に
ついては特に開示されてはいない。
The above-mentioned (F)
The prior arts of (G) and (G) relate to a technique for scaling a binary image, and do not specifically disclose processing for a full-color image.

【0010】また、前記(I)の従来技術では、拡大用
の全パターンを保持するので、ジャギー低減効果を得る
ために、パターンサイズを大きくする場合の検索方法に
課題が残ってしまう。
In the prior art (I), since all the patterns for enlargement are held, there remains a problem in the search method for increasing the pattern size in order to obtain the effect of reducing jaggies.

【0011】さらに、前記(F)及び(J)の従来技術
では、値が「0」、「255」のような白地上の黒文
字、線画の2値画像の拡大時のジャギーを低減するのみ
であるので、写真画像のような中間調画像をスムージン
グ拡大処理することができない。このため、デジタルス
チルビデオカメラの画像やインターネットのホームペー
ジに見られる72dpi程度の低解像度の画像を600
程度の高解像度のプリンタにより出力する場合に、ジャ
ギーやボケを低減することができない。また、写真と比
べてエッジが目立つビットマップ状のグラフィック画像
に対しても同様である。また、前記(J)の従来技術
は、あくまで2値画像に関する技術であり、RGBなど
のカラー要素からなる画像の変倍については何ら配慮さ
れておらず、また、開示もない。
Further, in the prior arts (F) and (J), the jaggies at the time of enlarging a binary image of a black character or a line drawing having a value of "0" or "255" on a white background are merely reduced. Therefore, it is not possible to perform a smoothing enlargement process on a halftone image such as a photographic image. For this reason, a low-resolution image of about 72 dpi, which is seen on a digital still video camera image or an Internet
When output is performed by a high-resolution printer, jaggies and blurs cannot be reduced. The same applies to a bitmap graphic image whose edges are more noticeable than a photograph. Further, the prior art (J) is a technique relating to a binary image, and no consideration is given to scaling of an image composed of color elements such as RGB, and there is no disclosure.

【0012】また、前記(H)の従来技術では、ベクト
ル演算によりスムージング拡大処理するので、計算負荷
が高くなってしまう。
In the prior art (H), since the smoothing expansion process is performed by the vector operation, the calculation load increases.

【0013】また、前記(A)の従来技術では、前述の
ように画質に応じた拡大処理を行う技術が開示されてい
るが、ジャギー低減効果のある低解像度を拡大する技術
については開示がない。なお、ここでいうジャギー(ja
ggy)とは、デジタル画像において、斜めの線を表現し
たときに生じる階段状のギザギザのことである。ジャギ
ーは画像の解像度が低いと発生しやすく、デジタル画像
がピクセルを単位としている限り、本質的にジャギーは
不可避である。このジャギーを目立たなくする方法とし
て、例えばアンチエイリアシング(anti-aliasing)と
いう手法が知られている。この手法には、解像度を上げ
ることによって実質的にジャギーを見えにくくする方法
と、ジャギーの発生しているピクセルの周囲をぼかすこ
とによってジャギーを目立たなくさせる方法とがある。
In the prior art (A), a technique for performing an enlargement process according to the image quality as described above is disclosed, but a technique for enlarging a low resolution having an effect of reducing jaggies is not disclosed. . The jaggy here (ja
“ggy” is a step-like jaggedness that occurs when a diagonal line is expressed in a digital image. Jaggy is likely to occur when the resolution of the image is low, and as long as the digital image is in units of pixels, jaggies are essentially unavoidable. As a method of making the jaggy less noticeable, for example, a technique called anti-aliasing is known. This method includes a method of making the jaggy substantially invisible by increasing the resolution, and a method of making the jaggy inconspicuous by blurring the periphery of the pixel where the jaggy occurs.

【0014】また、前記(B)の従来技術は、2段階に
分けて変倍を行う技術であるが、単純拡大を基本とする
技術であり、ジャギー低減やエッジ部の色ずれなどは配
慮されていない。
The prior art (B) is a technique for performing magnification change in two stages, but is a technique based on simple enlargement, and consideration is given to jaggy reduction and color shift at an edge portion. Not.

【0015】本発明は、このような背景に鑑みてなされ
たもので、その第1の目的は、フルカラー画像に対応
し、ソフトウエアによる実現においても、高速にパター
ンマチング処理可能な画像処理装置を提供することにあ
る。
SUMMARY OF THE INVENTION The present invention has been made in view of such a background, and a first object of the present invention is to provide an image processing apparatus which supports full-color images and which can perform pattern matching processing at high speed even when realized by software. Is to provide.

【0016】また、第2の目的はフルカラー画像におけ
る任意の整数倍率に対応可能な画像処理装置を提供する
ことにある。
It is a second object of the present invention to provide an image processing apparatus capable of coping with an arbitrary magnification of a full-color image.

【0017】また、第3の目的は、2値画像と中間調画
像の両方のスムージング拡大処理を計算負荷が高くなる
ことなく行うことができるカラー画像処理装置及び方法
を提供することにある。
It is a third object of the present invention to provide a color image processing apparatus and method capable of performing smoothing enlargement processing of both a binary image and a halftone image without increasing the calculation load.

【0018】また、第4の目的は、誤分離の影響が少な
く高速で処理でき、しかも高画質な拡大画像を得ること
ができる画像処理方法及び装置を提供することにある。
It is a fourth object of the present invention to provide an image processing method and apparatus capable of performing high-speed processing with little influence of erroneous separation and obtaining a high-quality enlarged image.

【0019】また、第5の目的は、ジャギー低減と共に
任意倍率で拡大、かつ、RGB多値データを扱うことが
でき、エッジ部に色ずれが生じることのない画像処理装
置を提供し、さらには、前記画像処理を高速で実行でき
る画像処理装置を提供することにある。
A fifth object of the present invention is to provide an image processing apparatus which can enlarge at an arbitrary magnification while reducing jaggies, can handle RGB multi-valued data, and does not cause color misregistration at an edge portion. Another object of the present invention is to provide an image processing apparatus capable of executing the image processing at high speed.

【0020】[0020]

【課題を解決するための手段】前記第1の目的を達成す
るため、第1の手段は、パターンマッチング結果に基づ
いて画像を拡大する処理を行う画像処理装置において、
補正対象のパターン毎、かつ、倍率毎に拡大画素のドッ
ト配置情報を保持する手段と、パターンマッチング結果
及び倍率から1つのドット配置情報を抽出する手段とを
備えた構成とした。
In order to achieve the first object, a first means is an image processing apparatus for performing processing for enlarging an image based on a pattern matching result.
The configuration includes means for holding dot arrangement information of enlarged pixels for each pattern to be corrected and for each magnification, and means for extracting one dot arrangement information from the pattern matching result and the magnification.

【0021】この場合、前記ドット配置情報を抽出する
手段は、ある倍率における拡大画素のドット配置情報を
有し、このドット配置情報に基づいて、他の倍率の拡大
画素ドット配置情報を作成するようにした。なお、この
第1の手段の構成は、後述の第1の実施形態の図1に示
した構成に対応し、同図では、前記拡大画素のドット配
置情報を保持する手段、及び、パターンマッチング結果
及び倍率から1つのドット配置情報を抽出する手段には
ドット配置ファイル112が対応する。
In this case, the means for extracting the dot arrangement information has dot arrangement information of an enlarged pixel at a certain magnification, and creates enlarged pixel dot arrangement information of another magnification based on this dot arrangement information. I made it. The configuration of the first unit corresponds to the configuration shown in FIG. 1 of a first embodiment described later. In the figure, the unit for holding the dot arrangement information of the enlarged pixel, and the pattern matching result The dot arrangement file 112 corresponds to a unit for extracting one piece of dot arrangement information from the information and the magnification.

【0022】さらに、原画である第1色空間データから
画素ブロックを切り出し、異なる第2色の空間データへ
変換し、第2色空間データを用いてパターンマッチング
を行う手段と、パターン毎に、パターン内のどの画素情
報で拡大した画素を埋めるかの情報を有し、この情報と
一致する第1色空間の画素データを用いて拡大画素を埋
める手段とを備えるようにした。後述の実施形態では、
パターンマッチングを行う手段にはパターン生成部12
0及びパターン検索部130が対応し、拡大画素を埋め
る手段には埋め込み処理部140が対応する。
Further, means for extracting a pixel block from the first color space data as the original image, converting the pixel block into space data of a different second color, and performing pattern matching using the second color space data, And a means for filling the enlarged pixel using pixel data of the first color space that matches the information with which pixel information of the pixel to fill the enlarged pixel. In the embodiments described below,
The means for performing pattern matching includes a pattern generation unit 12
0 and the pattern search unit 130 correspond to each other, and the embedding processing unit 140 corresponds to a unit for filling the enlarged pixels.

【0023】その際、第2色空間データが輝度(明
度)、色相、彩度の3要素を表す色空間である場合に
は、パターンマッチングは前記3要素のうちの少なくと
も1つの要素を用いて行うようにするとよく、また、第
2色空間データが輝度、2つの色差の3要素(輝度:1
要素、色差:2要素)を表す色空間である場合には、パ
ターンマッチングは前記3要素のうちの少なくとも1つ
の要素を用いて行うようにするとよい。
At this time, if the second color space data is a color space representing three elements of luminance (brightness), hue, and saturation, pattern matching is performed using at least one of the three elements. It is preferable that the second color space data has three elements of luminance and two color differences (luminance: 1
In the case of a color space representing elements (color differences: two elements), pattern matching may be performed using at least one of the three elements.

【0024】なお、これらの場合、画素ブロックをN分
割し、分割したブロックの情報で注目画素を含む画素ブ
ロックのパターン検索を行う手段を設けるとよい。
In these cases, it is preferable to provide a means for dividing the pixel block into N parts and performing a pattern search for the pixel block including the pixel of interest based on information on the divided blocks.

【0025】前記第2の目的を達成するため、第2の手
段は、比較的低階調の連続調のカラー画像データを画素
毎にT(Tは2以上の整数)値化するT値化手段と、前
記T値化手段によりT値化された画像データとジャギー
が発生するパターンをマッチングして一致するか否かを
判定するパターンマッチング手段と、前記パターンマッ
チング手段によりジャギーが発生するパターンと判定さ
れた場合に、前記T値化された画像データに対して画素
データをジャギーが発生しないように埋め込んでスムー
ジング拡大処理して比較的高階調の拡大画像を生成する
埋め込み手段とを備えた構成とした。なお、この構成は
後述の第2あるいは第3の実施形態における図8および
図13に対応し、T値化手段は図8では2値化部803
に、図13ではT値化部803aにそれぞれ対応し、図
8および図13ではパターンマッチング手段はパターン
マッチング処理部804に、埋め込み手段は埋め込み部
806にそれぞれ対応する。
In order to achieve the second object, the second means is a T-value conversion for converting a continuous tone color image data having a relatively low gradation into a T value (T is an integer of 2 or more) for each pixel. Means, pattern matching means for matching the image data T-valued by the T-value conversion means with a pattern in which jaggies occur, and determining whether or not they match, and a pattern in which jaggies occur in the pattern matching means. An embedding means for embedding pixel data in the T-valued image data so as not to cause jaggies and performing a smoothing enlargement process to generate an enlarged image having a relatively high gradation when the determination is made; And This configuration corresponds to FIG. 8 and FIG. 13 in a second or third embodiment described later, and the T-value conversion means is a binarization unit 803 in FIG.
13, the pattern matching means corresponds to the pattern matching processing section 804, and the embedding means corresponds to the embedding section 806 in FIGS.

【0026】この場合、拡大倍率に応じて整数倍率と端
数倍率を演算する手段を更に備え、前記埋め込み手段に
より前記整数倍率でスムージング拡大処理した後に、前
記端数倍率で拡大処理するとよい。また、前記埋め込み
手段は、スムージング拡大処理後の整数倍率毎の複数の
画素埋め込みパターンに基づいてスムージング拡大処理
を行う。前記端数倍率で拡大処理する場合、例えば、ニ
アレストネイバー法で行うことができる。なお、前述の
図8および図12では、拡大倍率に応じて整数倍率と端
数倍率を演算する手段は倍率演算部810に対応する。
In this case, it is preferable to further comprise means for calculating the integral magnification and the fraction magnification according to the magnification, and to perform the smoothing enlargement processing at the integer magnification by the embedding means and then perform the enlargement processing at the fraction magnification. Further, the embedding means performs the smoothing enlargement processing based on a plurality of pixel embedding patterns for each integer magnification after the smoothing enlargement processing. When the enlargement processing is performed at the fraction magnification, for example, it can be performed by the nearest neighbor method. In FIGS. 8 and 12 described above, the means for calculating the integer magnification and the fractional magnification in accordance with the magnification corresponds to the magnification calculator 810.

【0027】また、RGBデータを明るさ成分の信号と
色成分の信号に変換する手段を更に設け、前記パターン
マッチング手段により前記変換後の信号をパターンマッ
チングし、前記埋め込み手段により前記変換後の信号を
スムージング拡大処理した後に、元のRGBデータに逆
変換するようにすることもできる。その際、前記明るさ
成分の信号のみを前記T値化手段によりT値の濃度信号
に変換して前記パターンマッチング手段によりパターン
マッチングするとよい。前記T値化手段は、例えば、注
目画素を含むM×N(M,Nは2以上の整数)画素の多
値の画像データに基づいてT値化用の閾値を算出してT
値化を行う。なお、前記T値化手段によるT値化用の閾
値の算出は、注目画素を含むM×N(M,Nは2以上の
整数)画素の多値の画像データの最大値と最小値に基づ
いて行う。この構成は、後述の第2または3の実施形態
に対応する。また、図8および図13では、RGBデー
タを明るさ成分の信号と色成分の信号に変換する手段に
は、RGB/YIQ変換部801が対応する。また、埋
め込み手段により前記変換後の信号をスムージング拡大
処理した後の元のRGBデータへの逆変換はYIQ/R
GB変換部808で行われる。
Further, there is further provided means for converting the RGB data into a signal of a brightness component and a signal of a color component, wherein the pattern-matching means performs pattern matching on the converted signal, and the embedding means performs the signal conversion. Can be inversely converted to the original RGB data after the smoothing expansion processing. At this time, it is preferable that only the brightness component signal is converted into a T-value density signal by the T-value conversion means and pattern matching is performed by the pattern matching means. The T-value conversion means calculates a threshold for T-value conversion based on multi-valued image data of M × N pixels (M and N are integers equal to or greater than 2) including a target pixel, for example.
Perform value conversion. The calculation of the threshold value for T-value conversion by the T-value conversion means is based on the maximum value and the minimum value of the multi-valued image data of M × N (M, N is an integer of 2 or more) pixels including the target pixel. Do it. This configuration corresponds to a second or third embodiment described later. 8 and 13, an RGB / YIQ conversion unit 801 corresponds to a unit that converts RGB data into a signal of a brightness component and a signal of a color component. The inverse conversion to the original RGB data after smoothing and expanding the converted signal by the embedding means is performed by YIQ / R
This is performed by the GB conversion unit 808.

【0028】前記拡大処理は、T≧3の場合、パターン
マッチングをT−1回繰り返してT−1回毎の埋め込み
により得られた拡大画像を合成する。その際、濃度が低
い画素からオーバライトする。
In the enlargement process, when T ≧ 3, pattern matching is repeated T−1 times to synthesize an enlarged image obtained by embedding every T−1 times. At this time, overwriting is performed from a pixel having a low density.

【0029】前記第2の目的を達成するため、第3の手
段は、比較的低階調の連続調のカラー画像データを画素
毎にT(Tは2以上の整数)値化する工程と、前記T値
化する工程でT値化された画像データとジャギーが発生
するパターンをマッチングして一致するか否かを判定す
る工程と、この判定する工程でジャギーが発生するパタ
ーンと判定された場合に、前記T値化された画像データ
に対して画素データをジャギーが発生しないように埋め
込んでスムージング拡大処理して比較的高階調の拡大画
像を生成する工程とを含む処理工程とした。
In order to achieve the second object, the third means comprises a step of converting a continuous tone color image data of a relatively low gradation into a T value (T is an integer of 2 or more) for each pixel; A step of matching the T-valued image data in the T-value conversion step with a pattern in which jaggies occur, and determining whether or not they match, and a case in which the determination step determines that the pattern is in which jaggies occur. And a step of embedding pixel data in the T-valued image data so as not to cause jaggies and performing a smoothing enlargement process to generate an enlarged image with a relatively high gradation.

【0030】この場合、拡大倍率に応じて整数倍率と端
数倍率を演算する工程を更に設け、前記埋め込んで拡大
する工程で前記整数倍率でスムージング拡大処理した後
に、前記端数倍率で拡大処理するとよい。また。前記埋
め込んで拡大する工程では、スムージング拡大処理後の
整数倍率毎の複数の画素埋め込みパターンに基づいてス
ムージング拡大処理が行われる。なお、端数倍率で拡大
処理する場合、例えば、ニアレストネイバー法が適用で
きる。
In this case, it is preferable that a step of calculating an integer magnification and a fraction magnification according to the magnification is further provided, and that in the embedding and enlarging step, the smoothing enlargement processing is performed at the integer magnification and then the enlargement processing is performed at the fraction magnification. Also. In the embedding and enlarging step, the smoothing enlarging process is performed based on a plurality of pixel embedding patterns for each integral magnification after the smoothing enlarging process. When the enlargement process is performed at a fraction magnification, for example, the nearest neighbor method can be applied.

【0031】また、RGBデータを明るさ成分の信号と
色成分の信号に変換する工程を更に設け、前記パターン
マッチングを行う工程で前記変換後の信号をパターンマ
ッチングし、前記埋め込んで拡大する工程で前記変換後
の信号をスムージング拡大処理した後に、元のRGBデ
ータに逆変換する。その際、前記明るさ成分の信号のみ
を前記T値化する工程で濃度信号にT値化し、前記パタ
ーンマッチングを行う工程でパターンマッチングする。
前記T値化する工程では、注目画素を含むM×N(M,
Nは2以上の整数)画素の多値の画像データに基づいて
T値化用の閾値を算出してT値化し、T値化用の閾値
は、注目画素を含むM×N(M,Nは2以上の整数)画
素の多値の画像データの最大値と最小値に基づいて算出
される。なお、T≧3の場合、パターンマッチングをT
−1回繰り返してT−1回毎の埋め込みにより得られた
拡大画像を合成する。その場合、濃度が低い画素からオ
ーバライントする。なお、この第3の手段の構成は、後
述の図12及び図13のフローチャートに記載の処理に
対応する。
Further, a step of converting the RGB data into a signal of a brightness component and a signal of a color component is further provided. In the step of performing the pattern matching, the signal after the conversion is subjected to pattern matching, and the step of embedding and enlarging is performed. After performing the smoothing expansion processing on the converted signal, the signal is inversely converted into the original RGB data. At this time, only the brightness component signal is converted into a T-value into a density signal in the step of converting into a T-value, and pattern matching is performed in the step of performing the pattern matching.
In the T-value conversion step, M × N (M,
N is an integer of 2 or more. A threshold for T-value conversion is calculated based on multi-valued image data of pixels and converted into a T-value. The threshold for T-value conversion is M × N (M, N Is an integer of 2 or more) is calculated based on the maximum value and the minimum value of multi-valued image data of pixels. If T ≧ 3, the pattern matching is
-1 times is repeated to synthesize an enlarged image obtained by embedding every T-1 times. In that case, the pixel is overlined with a low density. The configuration of the third means corresponds to the processing described in the flowcharts of FIGS. 12 and 13 described below.

【0032】前記第3の目的を達成するため、第4の手
段は、入力された画像データに対して画像の拡大処理を
行なう画像処理方法において、注目画素を含む画素ブロ
ックを抽出する工程と、抽出された画素ブロックの画像
データを拡大のための色空間データに変換する工程と、
注目画素を取り囲む画素ブロックから特徴情報を算出す
る工程と、前記変換工程で変換された色空間において前
記画像データを拡大する複数の拡大手段から前記算出さ
れた特徴情報に応じて1つの拡大手段を選択して拡大す
る工程とを処理工程の中に含み、拡大された画像データ
を所望の色空間データに変換して拡大画像として出力す
るように構成した。
In order to achieve the third object, a fourth means includes a step of extracting a pixel block including a target pixel in an image processing method for performing an image enlargement process on input image data; Converting the image data of the extracted pixel block into color space data for enlargement,
Calculating characteristic information from a pixel block surrounding the pixel of interest; and a plurality of enlarging means for enlarging the image data in the color space converted in the conversion step, according to the calculated characteristic information. A step of selecting and enlarging is included in the processing step, and the enlarged image data is converted into desired color space data and output as an enlarged image.

【0033】この構成は後述の第4の実施形態に対応
し、前記工程は図19のフローチャートに示した手順に
対応する。
This configuration corresponds to a fourth embodiment described later, and the above steps correspond to the procedure shown in the flowchart of FIG.

【0034】前記第4の目的を達成するため、第5の手
段は、入力された画像データに対して画像の拡大処理を
行なう画像処理装置において、注目画素を少なくとも2
つの異なる色空間データで拡大する複数の拡大手段と、
注目画素を取り囲む画素ブロックから特徴情報を算出す
る算出手段と、算出された特徴情報から前記複数の拡大
手段のうちの1つを選択する選択手段とを備え、選択し
た拡大手段によって拡大された画像を出力するように構
成した。
In order to achieve the fourth object, a fifth means is an image processing apparatus for performing image enlargement processing on input image data, wherein at least two pixels of interest are set.
A plurality of enlargement means for enlarging with two different color space data;
An image enlarged by the selected enlarging means, comprising: calculating means for calculating characteristic information from a pixel block surrounding the target pixel; and selecting means for selecting one of the plurality of enlarging means from the calculated characteristic information. Output.

【0035】この場合、入出力画像サイズ及び倍率から
整数倍率を算出する整数倍率算出手段と、前記拡大手段
によって整数倍率で拡大された画像を所望の大きさに合
わせる整形手段とをさらに設けると良い。
In this case, it is preferable to further provide an integer magnification calculating means for calculating an integer magnification from the input / output image size and the magnification, and a shaping means for adjusting the image enlarged at the integer magnification by the enlargement means to a desired size. .

【0036】なお、前記特徴情報の1つは、注目画素を
取り囲む画素ブロックにおける色数である。また、他の
1つは、色数と色相であり、さらに他の1つは、注目画
素を取り囲む画素ブロックにおける色数、色相、および
画素の連結情報である。
One of the characteristic information is the number of colors in a pixel block surrounding the target pixel. The other one is the number of colors and the hue, and the other one is the number of colors, the hue, and the connection information of the pixels in the pixel block surrounding the pixel of interest.

【0037】この第5の手段の構成は図20のブロック
図に示した構成に対応し、拡大手段は整数倍数拡大部2
005に、算出手段は画像特徴量算出部2002に、選
択手段は拡大手段選択部2006にそれぞれ対応する。
また、整数倍数算出手段は整数倍数算出部2009に、
整形手段は整形部2007にそれぞれ対応する。
The structure of the fifth means corresponds to the structure shown in the block diagram of FIG.
In FIG. 5, the calculation means corresponds to the image feature quantity calculation unit 2002, and the selection means corresponds to the enlargement means selection unit 2006.
In addition, the integer multiple calculating means causes the integer multiple calculating unit 2009 to:
The shaping means corresponds to the shaping unit 2007, respectively.

【0038】前記第5の目的を達成するため、第6の手
段は、入力された画像データに対して画像の拡大処理を
行なう画像処理装置において、注目画素を含む画素ブロ
ックから特徴情報を算出する算出手段と、注目画素を拡
大する拡大手段と、前記拡大手段による画像の拡大後、
前記特徴情報に応じた変換を行う処理手段とを備えた構
成とした。
In order to achieve the fifth object, a sixth means calculates feature information from a pixel block including a pixel of interest in an image processing apparatus for performing image enlargement processing on input image data. Calculation means, enlargement means for enlarging the pixel of interest, and after enlarging the image by the enlargement means,
And a processing unit for performing conversion according to the characteristic information.

【0039】なお、前記特徴情報としては、前記画素ブ
ロックにおける最大値と最小値の差分が使用される。
The difference between the maximum value and the minimum value in the pixel block is used as the characteristic information.

【0040】また、前記特徴情報に応じた変換特性を生
成する変換特性生成手段をさらに備え、前記拡大手段は
拡大画素を生成された前記変換特性で変換するように構
成することもできる。
[0040] The image processing apparatus may further comprise a conversion characteristic generating means for generating a conversion characteristic according to the characteristic information, wherein the enlarging means converts the enlarged pixel with the generated conversion characteristic.

【0041】さらに、変換時に使用する複数のテーブル
を設け、前記特徴情報に応じて1つのテーブルを選択
し、選択されたテーブルに基づいて拡大した画素を変換
するように構成することもできる。
Further, a plurality of tables used at the time of conversion may be provided, one table may be selected according to the characteristic information, and the enlarged pixels may be converted based on the selected table.

【0042】これらの場合、画像情報は輝度・色差信号
であり、前記拡大手段による輝度信号の拡大は線形補間
によって行われ、前記特徴情報は輝度信号から生成し、
前記特徴情報に応じた変換は拡大後の輝度信号に対して
行う。
In these cases, the image information is a luminance / color difference signal, the enlargement of the luminance signal by the enlargement means is performed by linear interpolation, and the characteristic information is generated from the luminance signal.
The conversion according to the characteristic information is performed on the enlarged luminance signal.

【0043】また、前記拡大は、整数倍率毎に線形補間
の重み係数を有し、設定された整数倍率から前記重み係
数を選択することにより行うようにすることができる。
The enlargement may have a weight coefficient for linear interpolation for each integer magnification, and may be performed by selecting the weight coefficient from the set integer magnification.

【0044】この第6の手段の構成は、図29のブロッ
ク図に示した構成に対応し、算出手段は特徴情報算出部
2903に、拡大手段は拡大部2901に、処理手段は
強調処理部2902にそれぞれ対応する。また、画像情
報として輝度・色差信号を用いる場合は、図34のブロ
ック図に示した構成で行われる。その際、輝度信号の拡
大はY信号拡大部34011で、色差信号の拡大はI,
Q信号拡大部34012で行われる。なお、線形補間の
重み係数は、重み係数設定部3404に設定される。
The structure of the sixth means corresponds to the structure shown in the block diagram of FIG. 29. The calculating means is in the feature information calculating section 2903, the enlarging means is in the enlarging section 2901, and the processing means is the emphasis processing section 2902. Respectively. When a luminance / color difference signal is used as image information, the operation is performed by the configuration shown in the block diagram of FIG. At this time, the expansion of the luminance signal is performed by the Y signal expansion unit 34011, and the expansion of the chrominance signal is performed by I,
This is performed in the Q signal expanding section 34012. Note that the weight coefficient for linear interpolation is set in the weight coefficient setting unit 3404.

【0045】[0045]

【発明の実施の形態】以下、図面を参照し、本発明の実
施形態について説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0046】<第1の実施形態>図1は本発明の実施形
態に係る画像処理装置の拡大処理を行う処理部の要部を
示すブロック図である。同図において、拡大処理部10
0は、ファイル部110、パターン生成部120、パタ
ーン検索部130、及び埋め込み処理部140からな
り、ファイル部110にはさらにパターンファイル11
1、ドット配置ファイル112及び画素参照ファイル1
13が設けられ、埋め込み処理部140には、埋め込み
部141と単純埋め込み部142とが設けられている。
<First Embodiment> FIG. 1 is a block diagram showing a main part of a processing section for performing an enlargement process of an image processing apparatus according to an embodiment of the present invention. In FIG.
0 includes a file unit 110, a pattern generation unit 120, a pattern search unit 130, and an embedding processing unit 140. The file unit 110 further includes a pattern file 11
1. Dot arrangement file 112 and pixel reference file 1
The embedding unit 140 is provided with an embedding unit 141 and a simple embedding unit 142.

【0047】前記ドット配置ファイル112には図示し
ない操作部から整数倍率を指示する指示信号150が入
力され、画素参照ファイル113とパターン生成部12
0には画素ブロックを示す信号160が入力される。パ
ターン検索部130には前記パターン生成部120で生
成した信号が入力され、前記パターンファイル111と
の参照に応じて前記埋め込み処理部140の埋め込み部
141または単純埋め込み部142のいずれかの出力を
スイッチ170の切り替えにより選択して、埋め込み処
理部140から拡大画像を出力するようになっている。
なお、埋め込み処理部140には、前記ドット配置ファ
イル112あるいは画素参照ファイル113からの信号
が入力される。
An instruction signal 150 for instructing an integer magnification is input to the dot arrangement file 112 from an operation unit (not shown).
To 0, a signal 160 indicating a pixel block is input. The signal generated by the pattern generation unit 120 is input to the pattern search unit 130, and the output of either the embedding unit 141 or the simple embedding unit 142 of the embedding processing unit 140 is switched according to reference to the pattern file 111. The enlargement image is output from the embedding processing unit 140 by selecting by switching the 170.
The signal from the dot arrangement file 112 or the pixel reference file 113 is input to the embedding processing unit 140.

【0048】パターンファイル111には、後述の図3
に示すようなパターンが、ドット配置ファイル112に
は、整数倍率に応じて後述の図3に示すようなパターン
が、画素参照ファイル113には、図3に示すような画
素に対応したファイルがそれぞれ格納されている。
In the pattern file 111, FIG.
In the dot arrangement file 112, a pattern as shown in FIG. 3 described below is stored in the dot arrangement file 112, and in the pixel reference file 113, a file corresponding to the pixel as shown in FIG. Is stored.

【0049】なお、前記各ファイルは図示しない記憶部
に設定され、前記各処理部および各ファイルの制御は図
示しないROMに格納されたプログラムにしたがい、前
記CPUによって実行される。以下の各実施形態におい
ても同様である。
Each of the files is set in a storage unit (not shown), and the control of each processing unit and each file is executed by the CPU according to a program stored in a ROM (not shown). The same applies to the following embodiments.

【0050】このように大略構成された拡大処理部の処
理手順を図2のフローチャートに示す。
FIG. 2 is a flow chart showing the processing procedure of the enlargement processing section having the above structure.

【0051】この処理では、まず、入力された整数倍率
に対応するドット配置ファイル112を選択し(ステッ
プ201)、原画からM×N画素ブロックを切り出し、
パターンを生成する(ステップ202)。ドット配置フ
ァイル112は図3では8倍の例を示しているが、図1
において2倍からZsで示される各整数倍に対応するド
ッド配置パターンが格納されている。
In this process, first, the dot arrangement file 112 corresponding to the input integer magnification is selected (step 201), and an M × N pixel block is cut out from the original image.
A pattern is generated (Step 202). Although the dot arrangement file 112 shows an example of 8 times in FIG. 3, FIG.
, The dot arrangement pattern corresponding to each integral multiple indicated by 2 to Zs is stored.

【0052】パターン検索部130では生成したパター
ンがパターンファイル(PAT0からPATx-1の全x
個)111中に一致するものがあるか、ないかを検索す
る。すなわち、x個のパターンPAT0〜PATx-1毎
に、どのように注目画素の拡大画素を配置するかの情報
であるドット配置ファイル112が整数倍率毎に格納さ
れており、入力された整数倍率150(例えば8倍)に
より、対応するドット配置ファイル112が1つ選択さ
れる(ステップ203)。また、パターンが一致したと
き(ステップ204でY)、この結果と整数倍率から、
1つのドット配置ファイル112が決まる。さらに、こ
のドット配置ファイル112には、画素ブロックのどの
位置の画素情報で拡大画素を埋めるかという画素参照情
報が格納されているため、ドット配置情報が決まると同
時に、1つの画素参照情報が決まる。そこで、パターン
が一致したとき、埋め込み部141でドット配置情報、
画素参照情報を選択し(ステップ205)、拡大画素を
生成して画素を埋める(ステップ206)。また、非一
致のときには、単純埋め込み部142で画素ブロックの
注目画素を用いて整数倍率分の画素を埋める(ステップ
207)。これを、原画全画素に対して実行する。
The pattern search unit 130 stores the generated pattern in a pattern file (all x of PAT0 to PATx-1).
A search is performed to determine whether or not there is a match in the number 111. That is, for each of x patterns PAT0 to PATx-1, a dot arrangement file 112, which is information on how to arrange an enlarged pixel of a target pixel, is stored for each integer magnification. (For example, 8 times), one corresponding dot arrangement file 112 is selected (step 203). Also, when the patterns match (Y in step 204), from this result and the integer magnification,
One dot arrangement file 112 is determined. Further, since the dot arrangement file 112 stores pixel reference information indicating which position of the pixel block in which pixel information the pixel is to be filled, the dot arrangement information is determined and one pixel reference information is determined at the same time. . Therefore, when the patterns match, the embedding unit 141 sets the dot arrangement information,
Pixel reference information is selected (step 205), and an enlarged pixel is generated to fill the pixel (step 206). If they do not match, the simple embedding unit 142 embeds pixels of an integer magnification using the target pixel of the pixel block (step 207). This is executed for all pixels of the original image.

【0053】ここで、図3の説明図を参照し、各ファイ
ルと埋め込みの関係について説明する。
Here, the relationship between each file and embedding will be described with reference to the explanatory diagram of FIG.

【0054】パターンファイル111において、各丸記
号は、 ○:0、●:1、他:白でも黒でもよい(don't care)
を意味する。
In the pattern file 111, each circle symbol: ○: 0, : 1: 1, other: white or black (don't care)
Means

【0055】各パターン毎にドット配置情報が対応して
いる。すなわち、PAT0からPATx-1の各パターンご
とに、ドット配置情報が対応しており、図3に示した例
では主副走査方向同倍率の8倍のドット配置ファイル1
12である。ドット配置ファイル112は前述のように
装置でサポートする整数倍率毎に保持されている。さら
に、同様にx個のパターン情報に1対1で画素参照情報
(画素参照ファイル113)が保持されている。そこ
で、i番目のPATiに注目すると、パターン情報の中
心にある注目画素は「白」すなわち「0」である。この
ことは、ドット配置情報(ドット配置ファイル112)
における「0」部を埋めるblt0情報は、パターン情報5
×5(M=N=5)の座標(2,2)に位置する原画の画
素ブロック値で埋めるという情報を示している。また、
blt1情報はドット配置情報の「1」部に相当する画素を
同様に(2,3)の値で埋めるという情報を示してい
る。なお、座標(j,k)の原点は、図3のパターンフ
ァイルにおける左上であって、blt0及びblt1情報は
(0,0)から(4,4)で5×5の25画素に対応し
ている。
The dot arrangement information corresponds to each pattern. That is, dot arrangement information corresponds to each of the patterns PAT0 to PATx-1, and in the example shown in FIG.
Twelve. As described above, the dot arrangement file 112 is held for each integer magnification supported by the apparatus. Further, similarly, pixel reference information (pixel reference file 113) is held on a one-to-one basis for x pieces of pattern information. Therefore, when focusing on the i-th PATi, the pixel of interest at the center of the pattern information is “white”, that is, “0”. This means that the dot arrangement information (dot arrangement file 112)
The blt0 information that fills the “0” part in
The information indicates that the original image pixel block value located at the coordinates (2, 2) of × 5 (M = N = 5) is filled. Also,
The blt1 information indicates that a pixel corresponding to the “1” portion of the dot arrangement information is similarly filled with a value of (2, 3). The origin of the coordinates (j, k) is at the upper left in the pattern file of FIG. 3, and the blt0 and blt1 information are (0, 0) to (4, 4) corresponding to 5 × 5 25 pixels. I have.

【0056】図4はRGB各画素ブロック5×5の中心
である(2,2)の画素を8倍する例である。RGB原
画(第1色空間)から5×5画素ブロックを切り出し,第
2色空間へ変換する。この図4の例は、輝度色差信号の
輝度データを使う例である。変換の結果、図4(a)に
示す原画RGB3ブロックから図4(b)に示す輝度1
ブロックが得られる。今、輝度ブロックがパターンファ
イルPATiと一致したとする。パターンファイルには
1つのドット配置パターンと画像参照ファイルblt0,blt
1が対応している。5×5の中心1画素は図4(c)に示
す最下の8×8画素に拡大される。このとき,拡大R’
ブロック○,●の塗り潰しは原画における座標blt0,bl
t1に相当するデータR0,R1で行なう。G及びBも同様
である。
FIG. 4 shows an example in which the (2, 2) pixel at the center of each of the RGB pixel blocks 5 × 5 is multiplied by eight. A 5 × 5 pixel block is cut out from the RGB original image (first color space) and converted to the second color space. The example of FIG. 4 is an example in which the luminance data of the luminance / color difference signal is used. As a result of the conversion, the original RGB 3 blocks shown in FIG.
Blocks are obtained. Assume that the luminance block matches the pattern file PATi. The pattern file contains
One dot arrangement pattern and image reference files blt0, blt
1 corresponds. The center pixel of 5 × 5 is enlarged to the lowermost 8 × 8 pixel shown in FIG. At this time, the expansion R '
Blocks ○ and ● are filled with coordinates blt0 and bl in the original image
This is performed with data R0 and R1 corresponding to t1. The same applies to G and B.

【0057】前述の様に、パターン検索部130で検索
した結果、一致したパターンがある場合、原画の画素ブ
ロックにおいて画素参照情報(画素参照ファイル11
3)に該当する画素データRGB値でドット配置情報
(ドット配置ファイル112)に従って拡大画素を埋め
る。一致するパターンがないときは、画素ブロック中央
の注目画素のRGB値で全拡大画素分を埋める。前者の
場合には、埋め込み部141が選択され、後者の場合に
は単純埋め込み部142が選択され、各部で前記処理を
実行する。
As described above, if there is a matching pattern as a result of the search by the pattern search unit 130, the pixel reference information (pixel reference file 11
The enlarged pixels are filled with the pixel data RGB values corresponding to 3) according to the dot arrangement information (dot arrangement file 112). If there is no matching pattern, all the enlarged pixels are filled with the RGB values of the target pixel in the center of the pixel block. In the former case, the embedding unit 141 is selected, and in the latter case, the simple embedding unit 142 is selected, and each unit executes the above processing.

【0058】前記ドット配置情報の作成について、図5
のフローチャートを参照して説明する。例えば、図3に
ある8倍用のドット配置ファイルのみを保持し(基本パ
ターンをセット−ステップ501)、ファイル部110
ではこの基本パターンから、幅8画素×高さ(8画素×
x個)画素のイメージ:0→0、1→255とし、B/
W8bitに変換する(ステップ502)。幅、または
高さをサポートする整数倍率に相当する画素値で線形補
間し(ステップ503)、2値化を行う(ステップ50
4)。最後に、0→0、255→1への逆変換で他の整
数倍率用パターンを生成し、拡大に使用する。
The creation of the dot arrangement information is described with reference to FIG.
This will be described with reference to the flowchart of FIG. For example, only the dot arrangement file for eight times shown in FIG. 3 is held (basic pattern set-step 501), and the file unit 110
Then, from this basic pattern, width 8 pixels x height (8 pixels x
x) Pixel image: 0 → 0, 1 → 255, B /
It is converted to W8 bits (step 502). Linear interpolation is performed with a pixel value corresponding to an integer magnification supporting the width or height (step 503), and binarization is performed (step 50).
4). Finally, another integer magnification pattern is generated by inverse conversion from 0 to 0 and 255 to 1, and used for enlargement.

【0059】パターン生成部120におけるパターンの
生成は、以下のようにして行われる。すなわち、RGB
から輝度、色相、彩度への変換例としてHSV、HLS
などのカラーモデルがあり、輝度・色差信号への変換例
としてYIQ、YUVなどのカラーモデルが知られてい
る。ここで、HSV色空間を例に挙げ説明する。この色
空間では色相H:0〜360°、彩度S:0〜1の値を
取る。したがって、色相の場合、M=N=5の25画素
から、Hの最大値、最小値を求め、その平均値でM×N
画素ブロックを2値化し、パターンを生成する。彩度や
他の要素についても同様である。
The generation of a pattern in the pattern generation section 120 is performed as follows. That is, RGB
HSV, HLS as examples of conversion from
And color models such as YIQ and YUV are known as examples of conversion into luminance / color difference signals. Here, the HSV color space will be described as an example. In this color space, values of hue H: 0 to 360 ° and saturation S: 0 to 1 are taken. Therefore, in the case of the hue, the maximum value and the minimum value of H are obtained from 25 pixels of M = N = 5, and the average value is M × N.
The pixel block is binarized to generate a pattern. The same applies to saturation and other factors.

【0060】YIQ各プレーンの場合も同様に、各プレ
ーン毎に最大値、最小値、その平均値を求め、平均値で
2値化し、パターンを生成後にパターンマッチングを行
う。なお、このRGBからHSV,HLSなどへの変換
の手法や、YIQ、YUVなどへの変換の手法などは、
例えば、今宮淳美訳「コンピュータ・グラフィクス」
(日本コンピュータ協会昭和59年7月15日発行)の
第622頁ないし第629頁に詳しく述べてあるので、
ここでの説明は省略する。また、パターン検索部130
におけるパターン検索のハードウエアによる方法として
は特開平7−221977号公報に一つの例が開示され
ている。
Similarly, in the case of each YIQ plane, the maximum value, the minimum value, and the average value are obtained for each plane, binarized by the average value, and pattern matching is performed after the pattern is generated. The method of converting RGB into HSV, HLS, etc., and the method of converting into RGB, YIQ, YUV, etc.
For example, "Computer Graphics" translated by Atsumi Imamiya
(Japanese Computer Association, published July 15, 1984), pages 622 to 629,
The description here is omitted. Also, the pattern search unit 130
Japanese Patent Application Laid-Open No. Hei 7-221977 discloses one example of a hardware-based method for pattern search in the above.

【0061】このパターンマッチングを、プリンタドラ
イバに組み込んでPC上で実行させるときは、ソフトウ
エアによる高速化を図る必要がある。すなわち、MとN
のブロックサイズが大きくなると、検索の計算負荷が増
大する。また、図3のパターン情報を見ると、「0」、
「1」のどちらでも良いdon't careが存在するため、M
×N画素の全画素を2進数化し、検索すると膨大なメモ
リが必要となる。そこで、図6の説明図に示すように、
M×N画素ブロックを複数に分ける。この図6では2分
割した例を挙げた。この図6を参照しながら説明する。
When this pattern matching is incorporated in a printer driver and executed on a PC, it is necessary to increase the speed by software. That is, M and N
When the block size of is large, the calculation load of the search increases. Also, looking at the pattern information in FIG.
Since there is good don't care for either “1”, M
When all the pixels of × N pixels are converted into binary numbers and searched, a huge memory is required. Therefore, as shown in the explanatory diagram of FIG.
The M × N pixel block is divided into a plurality. FIG. 6 shows an example of dividing into two parts. A description will be given with reference to FIG.

【0062】すなわち、M=N=5画素ブロックから太
枠で示した3×3の9画素=9bitを用いて、2by
teコードを生成する。前述の図3におけるPATiは
don't careを考慮し、 2進数:001001111→10進数:79、 2進数:101001111→10進数:335 となる。x個全パターンの2byteコードを生成す
る。当然、図7に示すように1つの2byteコードに
複数のパターンが存在することもある。この9画素の情
報により、多くのパターンの中から絞込みが行える(同
図中のPAT番号欄)。次に、残りの16画素の情報を
用いて、1つのパターンを決定する。
That is, M = N = 2 pixels by using 3 × 3 9 pixels = 9 bits shown by a thick frame from a 5 pixel block.
Generate te code. The PATi in FIG.
In consideration of don't care, the binary number becomes: 001001111 → decimal number: 79, and the binary number: 101001111 → decimal number: 335. A 2-byte code of all x patterns is generated. Of course, as shown in FIG. 7, a plurality of patterns may exist in one 2-byte code. With the information of these nine pixels, it is possible to narrow down from many patterns (PAT number column in FIG. 4). Next, one pattern is determined using the information of the remaining 16 pixels.

【0063】この残りの16画素の情報を用いて1つの
パターンを決定する場合には、図7に示したように中央
の9画素からパターンの候補が絞られる。例えば、10
進数で79のときはPAT9,PAT24の2つのパター
ンに絞られることになる。そこで、残り16画素からP
AT9及びPAT24、それ以外を決定する。このとき、
パターンは絞られているから、残り16画素を1画素ず
つ一致、不一致で調べる必要はない。すなわち、PAT
9における周囲画素でdon't care以外の特徴ある画素の
みを参照すれば済む。例えば、PATiのときは、
(3,0)が○であるか否かで決まる。この様に、周囲
の特徴画素をパターン毎に登録しておき、参照すること
で高速化が図れる。途中、不一致となった場合は、以降
の画素の検索を終える。他に、中央の9画素同様、パタ
ーンマッチングを取る手法もある。
When one pattern is determined using the information of the remaining 16 pixels, pattern candidates are narrowed down from the central 9 pixels as shown in FIG. For example, 10
When the number is 79 in radix, it is narrowed down to two patterns of PAT9 and PAT24. Therefore, from the remaining 16 pixels, P
AT9 and PAT24 are determined. At this time,
Since the pattern is narrowed down, it is not necessary to check the remaining 16 pixels one by one for matching or mismatching. That is, PAT
Only the characteristic pixels other than the don't care among the surrounding pixels in 9 need be referred to. For example, for PATi,
It depends on whether (3, 0) is ○ or not. In this way, by registering surrounding characteristic pixels for each pattern and referring to them, the speed can be increased. If there is a mismatch on the way, the subsequent pixel search is terminated. In addition, there is a method of performing pattern matching as in the central nine pixels.

【0064】<第2の実施形態>以下、図面を参照して
本発明の実施の形態を説明する。図8は本発明に係るカ
ラー画像処理装置の一実施形態を示すブロック図、図9
は図8のM×Nバッファの構成を示す説明図、図10は
図8の2値化部の処理例を示す説明図、図11は図8の
埋め込み部の埋め込み処理を示す説明図、図12は図8
のカラー画像処理装置のスムージング拡大処理手順を示
すフローチャートである。
<Second Embodiment> An embodiment of the present invention will be described below with reference to the drawings. FIG. 8 is a block diagram showing an embodiment of a color image processing apparatus according to the present invention.
FIG. 10 is an explanatory diagram showing the configuration of the M × N buffer of FIG. 8, FIG. 10 is an explanatory diagram showing a processing example of the binarizing unit of FIG. 8, and FIG. 11 is an explanatory diagram showing the embedding process of the embedding unit of FIG. 12 is FIG.
9 is a flowchart showing a smoothing enlargement processing procedure of the color image processing apparatus of FIG.

【0065】図8において、RGB/YIQ変換部80
1は入力画像であるRGBデータを明るさ成分と色成分
に変換し、ここでは次式(1)
In FIG. 8, the RGB / YIQ conversion section 80
1 converts RGB data, which is an input image, into a brightness component and a color component.

【数1】 により多値のYIQ信号に変換する。YIQ信号はNT
SC方式のテレビジョンに順する輝度信号(明るさ成
分)Yと色差信号(色成分)I、Qにより構成され、輝
度信号YはM×Nバッファ2に印加され、色差信号I、
Qは色成分拡大部7に印加される。なお、他の明るさ成
分と色成分として、PAL方式のYUV(明るさ成分
Y、色成分U、V)や、均等色空間CIELAB、CI
ELUV(明るさ成分L*、色成分a*、b*又はu
*、v*)や、三刺激値XYZ(明るさ成分Y、色成分
X、Y)を用いてもよい。
(Equation 1) Into a multi-valued YIQ signal. YIQ signal is NT
It is composed of a luminance signal (brightness component) Y and color difference signals (color components) I and Q in the order of the SC television, and the luminance signal Y is applied to the M × N buffer 2, and the color difference signals I and
Q is applied to the color component enlarging unit 7. As other brightness components and color components, PAL type YUV (brightness component Y, color components U and V), uniform color space CIELAB, CI
ELUV (brightness component L *, color component a *, b * or u
*, V *) or tristimulus values XYZ (brightness component Y, color components X, Y).

【0066】M×Nバッファ2は例えば図9に示すよう
に、RGB/YIQ変換部1により変換された多値の輝
度信号Yの5×5画素分(中心画素「*」が注目画素)
を一時記憶する。2値化部3はM×Nバッファ2に記憶
されている5×5画素の輝度信号Yの最大値maxと最小
値minを抽出して次式(2) th=(max+min)/2 …(2) のように2値化用閾値thを算出し、この閾値thにより例
えば5×5画素の多値輝度信号Yを2値化濃度データに
変換する(Y>thの場合に2値化濃度データ=0、他の
場合に2値化濃度データ=1)。
For example, as shown in FIG. 9, the M × N buffer 2 has 5 × 5 pixels of the multi-valued luminance signal Y converted by the RGB / YIQ conversion unit 1 (the center pixel “*” is the target pixel).
Is temporarily stored. The binarizing unit 3 extracts the maximum value max and the minimum value min of the luminance signal Y of 5 × 5 pixels stored in the M × N buffer 2 and obtains the following equation (2) th = (max + min) / 2 ( 2) A threshold value th for binarization is calculated as shown in the following expression, and the multi-valued luminance signal Y of, for example, 5 × 5 pixels is converted into binarized density data based on the threshold value th. Data = 0, otherwise binarized density data = 1).

【0067】したがって、例えば図10(a)に示すよ
うに5×5画素の領域において左上に高輝度画素(低濃
度画素)が分布し、右下に低輝度画素(高濃度画素)が
分布する場合には、図10(b)に示すように左上に2
値化濃度データ=0が分布し、右下に2値化濃度データ
=1が分布する2値化濃度データに変換される。
Therefore, for example, as shown in FIG. 10A, in a 5 × 5 pixel area, high-luminance pixels (low-density pixels) are distributed at the upper left, and low-luminance pixels (high-density pixels) are distributed at the lower right. In this case, as shown in FIG.
It is converted into binarized density data in which binarized density data = 0 is distributed and binarized density data = 1 is distributed at the lower right.

【0068】パターンマッチング処理部4は2値化部3
により変換された2値化濃度データと、例えば図11
(a)に示すようにパターン記憶部5に予め記憶されて
いる5×5画素の2値化濃度データの複数のパターンと
マッチングして、ジャギーが発生するエッジ等か否かを
示す一致/不一致信号を出力する。なお、図11(a)
における「−」は「0」、「1」を問わない(don't ca
re)ことを示し、また、図11(b)は縦8倍×横8倍
の拡大時の埋め込み処理を示している。
The pattern matching processing section 4 includes a binarizing section 3
And the binarized density data converted by
As shown in (a), matching with a plurality of patterns of binarized density data of 5 × 5 pixels stored in advance in the pattern storage unit 5 to indicate a match / mismatch indicating whether or not an edge at which jaggies occur. Output a signal. FIG. 11 (a)
"-" Can be either "0" or "1"(don't ca
re), and FIG. 11B shows an embedding process at the time of enlargement of 8 × 8.

【0069】埋め込み部806はパターンマッチング処
理部4によりマッチングが「不一致」の場合に単純埋め
込み部4−1による処理を選択し、他方、「一致」の場
合にテンプレート埋め込み部806−2及びテンプレー
ト記憶部806−3による処理を選択して、倍率演算部
810により指定された整数倍率に応じて2値化濃度デ
ータを拡大する。単純埋め込み部806−1は図11
(a),(b)の上側に示すように、拡大後の例えば8
×8画素に対しては全て注目画素の2値化濃度データ=
1を埋め込む。
The embedding unit 806 selects the processing by the simple embedding unit 4-1 when the matching is "mismatch" by the pattern matching processing unit 4, and on the other hand, the template embedding unit 806-2 and the template storage when the match is "match". The processing by the unit 806-3 is selected, and the binarized density data is enlarged according to the integer magnification specified by the magnification calculator 810. The simple embedding unit 806-1 is shown in FIG.
As shown in the upper part of (a) and (b), for example, 8
For all × 8 pixels, the binarized density data of the target pixel =
Embed 1

【0070】テンプレート埋め込み部806−2はテン
プレート記憶部806−3に記憶されている2値テンプ
レートに基づいてジャギーが発生しないように2値濃度
データの埋め込みを行い、例えば図11(a),(b)
の下側に示す図面は、右上コーナー部を白画素(2値化
濃度データ=0)で埋め込むことを示している。このと
き、図11(b)における2値化濃度データ=1は注目
画素の2値化データで埋め込み、2値化濃度データ=0
の画素については、注目画素に隣接する5×5画素にお
ける画素〔1〕、〔2〕、〔3〕に該当する2値化濃度
データで埋め込む(単純に画素〔1〕で埋め込むな
ど)。なお、この隣接画素からどのデータを活用して埋
め込むかは、予めパターン毎に決められている。
The template embedding unit 806-2 embeds binary density data based on the binary template stored in the template storage unit 806-3 so that jaggies do not occur. For example, FIGS. b)
The drawing shown on the lower side shows that the upper right corner is embedded with white pixels (binary density data = 0). At this time, the binarized density data = 1 in FIG. 11B is embedded with the binarized data of the target pixel, and the binarized density data = 0.
Is embedded with the binarized density data corresponding to the pixels [1], [2], and [3] in the 5 × 5 pixels adjacent to the pixel of interest (simple embedding with the pixel [1]). It should be noted that which data from the adjacent pixels should be utilized and embedded is determined in advance for each pattern.

【0071】色成分拡大部807はRGB/YIQ変換
部801により変換された多値の色差信号I、Qを倍率
演算部810により指定された整数倍率に応じて、例え
ばニアレストネイバー法やバイリニア法のような公知の
拡大方法で拡大する。YIQ/RGB変換部808は埋
め込み部806により拡大された2値化濃度信号及び色
成分拡大部807により拡大された色差信号I、Qと式
(1)により、元のRGB信号に逆変換してこれを端数
変倍部809に印加する。
The color component enlargement unit 807 converts the multivalued color difference signals I and Q converted by the RGB / YIQ conversion unit 801 according to the integer magnification specified by the magnification calculation unit 810, for example, the nearest neighbor method or the bilinear method. Is enlarged by a known enlargement method such as The YIQ / RGB conversion unit 808 performs inverse conversion to the original RGB signal based on the binarized density signal expanded by the embedding unit 806 and the color difference signals I and Q expanded by the color component expansion unit 807 and Equation (1). This is applied to the fraction scaling unit 809.

【0072】ここで、入力倍率zoomは整数倍とは限らな
い。そこで、倍率演算部810は入力倍率zoomに基づい
て次式(3)、(4) zoom1=INT(zoom+0.5) …(3) zoom2=zoom/zoom1 …(4) により整数倍率zoom1と端数倍率zoom2を演算し、整数倍
率zoom1を埋め込み部806および色成分拡大部807
に印加し、また、端数倍率zoom2を端数変倍部9に印加
する。例えば指定倍率または指定画像サイズに基づいて
8.33倍が与えられた場合、zoom1=8、zoom2=1.
041となる。端数変倍部809はYIQ/RGB変換
部808により変換されたRGB信号をこの端数倍率zo
om2に応じてニアレストネイバー法(後述)で拡大す
る。
Here, the input magnification zoom is not always an integral multiple. Therefore, the magnification calculator 810 calculates the integer magnification zoom1 and the fraction magnification according to the following equations (3), (4) zoom1 = INT (zoom + 0.5) (3) zoom2 = zoom / zoom1 (4) based on the input magnification zoom. Calculate zoom2, insert integer magnification zoom1 in embedding section 806 and color component enlarging section 807
, And a fraction magnification zoom2 is applied to the fraction scaling unit 9. For example, if 8.33 times is given based on the specified magnification or the specified image size, zoom1 = 8, zoom2 = 1.
041. The fraction scaling unit 809 converts the RGB signal converted by the YIQ / RGB conversion unit 808 into the fraction magnification zo.
It is enlarged by the nearest neighbor method (described later) according to om2.

【0073】次に図12を参照してスムージング拡大処
理手順について説明する。この処理では、まず、倍率演
算部810により入力倍率zoomから整数倍率zoom1と端
数倍率zoom2を算出し(ステップ1201)、次いで整
数倍率zoom1に相当するテンプレートをテンプレート記
憶部806−3からテンプレート埋め込み部806−2
にセットし(ステップ1202)、次いで端数倍率zoom
2を端数変倍部809にセットする(ステップ120
3)。次いで全画像の処理が終了した場合にはこのスム
ージング拡大処理を終了し、全画像の処理が終了してい
ない場合にはステップ1204からステップ1205に
進む。
Next, the procedure of the smoothing enlargement processing will be described with reference to FIG. In this processing, first, an integer scaling factor zoom1 and a fraction scaling factor zoom2 are calculated from the input scaling factor by the scaling factor calculating unit 810 (step 1201), and then a template corresponding to the integer scaling factor zoom1 is stored from the template storage unit 806-3 to the template embedding unit 806. -2
(Step 1202), then fraction zoom
2 is set in the fraction scaling unit 809 (step 120).
3). Next, when the processing of all the images is completed, the smoothing enlargement processing is completed, and when the processing of all the images is not completed, the process proceeds from step 1204 to step 1205.

【0074】ステップ1205ではバンド処理が終了し
た場合には端数変倍処理を行い(ステップ1206)、
次いでステップ1204に戻る。ステップ1205にお
いてバンド処理が終了していない場合にはステップ12
07に進む。ここで、「バンド処理」とは、対象画素を
縦方向に分割して処理することである。ステップ120
7では明るさ成分(2値化濃度データ)の拡大処理が終
了している場合には色成分(色差信号I、Q)の拡大処
理を行い(ステップ1208)、次いでステップ120
5に戻る。
In step 1205, when the band processing is completed, fraction scaling processing is performed (step 1206).
Then, the process returns to step 1204. If the band processing has not been completed in step 1205, step 12
Proceed to 07. Here, the “band processing” refers to processing in which a target pixel is divided in the vertical direction. Step 120
In step 7, if the process of expanding the brightness component (binary density data) has been completed, the process of expanding the color components (color difference signals I and Q) is performed (step 1208), and then step 120
Return to 5.

【0075】ステップ1207において明るさ成分(2
値化濃度データ)の拡大処理が終了していない場合に
は、RGB/YIQ変換部801によりRGB信号をY
IQ信号に変換してY信号をM×Nバッファ802に保
持し(ステップ1209)、次いで2値化部803によ
りM×N画素のY信号に基づいて2値化用閾値thを算出
し(ステップ1210)、この閾値thによりM×N画素
のY信号を2値化濃度データに変換する(ステップ12
11)。
At step 1207, the brightness component (2
If the enlargement processing of the binarized density data has not been completed, the RGB signal is converted to Y by the RGB / YIQ conversion unit 801.
The Y signal is converted into an IQ signal, and the Y signal is stored in the M × N buffer 802 (step 1209). Then, the binarizing unit 803 calculates a binarization threshold th based on the Y signal of the M × N pixel (step). 1210), the Y signal of M × N pixels is converted into binarized density data by the threshold th (step 12).
11).

【0076】次いでパターンマッチング処理部4により
マッチング処理を行い(ステップ1212)、次いでマ
ッチング処理結果が「一致」の場合には一致したパター
ンに対応したテンプレートを参照して画素データを埋め
込み(ステップ1213→1214)、「不一致」の場
合には注目画素データを埋め込む(ステップ1213→
1215)。次いでステップ1207に戻って明るさ成
分(2値化濃度データ)の拡大処理が終了するまでステ
ップ1209〜1215における処理を繰り返す。
Next, a matching process is performed by the pattern matching processing section 4 (step 1212). If the result of the matching process is “match”, pixel data is embedded with reference to a template corresponding to the matched pattern (step 1213 → 1214) In the case of “mismatch”, the target pixel data is embedded (step 1213 →
1215). Next, returning to step 1207, the processing in steps 1209 to 1215 is repeated until the enlargement processing of the brightness component (binarized density data) ends.

【0077】<第3の実施形態>図13は輝度信号Yを
T(>2の整数)値化を行ってスムージング拡大処理を
行う第3の実施形態の構成を示している。この実施形態
は図8に示した第2の実施形態に対して2値化部803
をT値化部803aに変更し、埋め込み部806の後段
に合成部811を付加したもので、その他の構成は図8
に示した第2の実施形態と同等に構成されている。
<Third Embodiment> FIG. 13 shows the configuration of a third embodiment in which the luminance signal Y is converted into a T (an integer greater than 2) value to perform the smoothing expansion process. This embodiment is different from the second embodiment shown in FIG.
Is changed to a T-value conversion unit 803a, and a combining unit 811 is added after the embedding unit 806.
The configuration is the same as that of the second embodiment shown in FIG.

【0078】図13に示すT値化部803aは、M×N
バッファ802に記憶されている5×5画素の輝度信号
Yの最大値maxと最小値minを抽出して次式 th(T−1)={t×max+(T−t)×min}/T …(5) 但し、t=T−1,…,1 により(T−1)個のT値化用閾値th(T−1)を算出
し、これにより輝度信号YをT値化濃度データに変換す
る。
The T-value conversion section 803a shown in FIG.
The maximum value max and the minimum value min of the luminance signal Y of 5 × 5 pixels stored in the buffer 802 are extracted, and the following equation th (T−1) = {t × max + (T−t) × min} / T .. (5) where t = T−1,..., 1 and (T−1) T-value conversion thresholds th (T−1) are calculated, thereby converting the luminance signal Y into T-valued density data. Convert.

【0079】図14はT値化の例として3値化処理を示
している。図14(a)に示すように5×5画素の輝度
信号Yが max=240 min=60 の場合には、高輝度(低濃度)側の閾値 th1=180、 低輝度(高濃度)側の閾値 th2=120 となる。次いで3値化を行ってY>th1の場合に
「0」、Y≦th1の場合に「1」とすると図14(b)
に示す濃度データとなり、また、次いでY>th2の場合
に「0」、Y≦th2の場合に「1」とすると図14
(c)に示す濃度データとなる。
FIG. 14 shows ternarization processing as an example of T-value conversion. As shown in FIG. 14A, when the luminance signal Y of 5 × 5 pixels is max = 240 min = 60, the threshold value th1 = 180 on the high luminance (low density) side and the threshold value th1 on the low luminance (high density) side The threshold value th2 = 120. Next, if ternarization is performed to set “0” when Y> th1 and “1” when Y ≦ th1, FIG. 14B
FIG. 14 shows that the density data shown in FIG. 14 is “0” when Y> th2 and “1” when Y ≦ th2.
The density data shown in FIG.

【0080】ここで、注目画素が閾値th1、th2毎にパ
ターンと一致する組み合わせは、 (1)0,0 (2)0,1 (3)1,0 (4)1,1 の4通り(1)〜(4)である。そこで、上記(1)の
場合には双方ともに「不一致」であるので「単純埋め込
み処理」を実行し、上記(2)、(3)の場合には「一
致」であるので、対応するテンプレートを基づいて「テ
ンプレート埋め込み処理」を実行する。上記(4)の場
合にはパターンマッチング処理を2回行って合成部11
により埋め込みデータを合成する。合成処理について
は、低濃度(高輝度)画素から埋め込み、閾値th2に対
応する高濃度側では「1」の画素のみをオーバライトす
る。これにより、図15に示すような拡大画素において
3種類の明るさを処理することができるので、影付き文
字についても高画質で拡大処理することができる。
Here, the combinations in which the target pixel matches the pattern for each of the thresholds th1 and th2 are: (1) 0, 0 (2) 0, 1 (3) 1, 0 (4) 1, 1 1) to (4). Therefore, in the case of the above (1), since both are “mismatch”, “simple embedding processing” is executed, and in the above cases of (2) and (3), the corresponding template is The “template embedding process” is executed based on the process. In the case of the above (4), the pattern matching processing is performed twice to
To synthesize embedded data. In the synthesis processing, the low-density (high-brightness) pixels are embedded, and only the pixel of “1” is overwritten on the high-density side corresponding to the threshold th2. As a result, three types of brightness can be processed in an enlarged pixel as shown in FIG. 15, so that a shadowed character can be enlarged with high image quality.

【0081】次に図16を参照して第3の実施形態にお
けるスムージング拡大処理手順について説明する。ま
ず、ステップ1601〜1609における処理は、第2
の実施形態における図12のフローチャートのステップ
1201〜1209における処理と同じである。次いで
T値化部803aによりM×N画素のY信号に基づいて
閾値thを算出し(ステップ1610)、この閾値thによ
りY信号をT値化濃度データに変換する(ステップ16
11)。
Next, the procedure of the smoothing enlargement process in the third embodiment will be described with reference to FIG. First, the processing in steps 1601 to 1609 is performed in the second
This is the same as the processing in steps 1201 to 1209 of the flowchart in FIG. Next, a threshold value th is calculated by the T-value conversion unit 803a based on the Y signal of the M × N pixels (step 1610), and the Y signal is converted into T-valued density data based on the threshold value th (step 16).
11).

【0082】次いでステップ1612において(T−
1)回のパターンマッチング処理が終了していない場合
にステップ1613以下に進み、終了している場合にス
テップ1617に進む。ステップ1613以下ではま
ず、パターンマッチング処理部804によりマッチング
処理を行い(ステップ1613)、次いでマッチング処
理結果が「一致」の場合には一致したパターンに対応し
たテンプレートを参照して画素データを埋め込み(ステ
ップ1614→1615)、「不一致」の場合には注目
画素データを一時的に埋め込む(ステップ1614→1
616)。次いでステップ1612に戻って(T−1)
回のパターンマッチング処理が終了するまでステップ1
613〜1615における処理を繰り返す。そして、
(T−1)回のパターンマッチング処理が終了すると合
成処理を行い(ステップ1617)、ステップ1607
に戻る。
Next, at step 1612, (T-
1) If the pattern matching process has not been completed one time, the process proceeds to step 1613 and thereafter, and if it has been completed, the process proceeds to step 1617. In step 1613 and subsequent steps, first, matching processing is performed by the pattern matching processing unit 804 (step 1613). Then, when the matching processing result is “match”, pixel data is embedded with reference to a template corresponding to the matched pattern (step 1613). 1614 → 1615), in the case of “mismatch”, the target pixel data is temporarily embedded (step 1614 → 1).
616). Then, the process returns to step 1612 (T-1).
Step 1 until the end of the pattern matching process
The processes at 613 to 1615 are repeated. And
When the (T-1) times of pattern matching processing is completed, the combining processing is performed (step 1617), and step 1607 is performed.
Return to

【0083】次にニアレストネイバー法とバイリニア法
について説明する。ニアレストネイバー法は、例えば図
17(a)に示すような4×4画素における注目画素
「*」は4角の画素a、b、c、d中の最も近い画素
(この例では画素a)のデータで埋める方法である。バ
イリニア法は例えば図17(b)に示すような4×4画
素における注目画素「*」は4角の画素a、b、c、d
と注目画素「*」の重みi、jに基づいて埋める方法で
ある。例えば、図17(b)の例では、 *=(i−1)・(j−1)・a+i・(j−1)・b
+(i−1)・j・c+i・j・d というようにして埋めるものである。なお、バイリニア
方法の詳細は図31を参照して後述する。
Next, the nearest neighbor method and the bilinear method will be described. In the nearest neighbor method, for example, a target pixel “*” in a 4 × 4 pixel as shown in FIG. 17A is the closest pixel among the four corner pixels a, b, c, and d (pixel a in this example) It is a method of filling with data. In the bilinear method, for example, a target pixel “*” in 4 × 4 pixels as shown in FIG. 17B is a square pixel a, b, c, d
And a method of filling in based on the weights i and j of the target pixel “*”. For example, in the example of FIG. 17B, * = (i−1) · (j−1) · a + i · (j−1) · b
+ (I−1) · j · c + i · j · d. The details of the bilinear method will be described later with reference to FIG.

【0084】また、この実施形態で説明した処理は、デ
ジタルカメラの画像を高解像度化して大画像をプリント
する場合に、転送時間を節約するため送り側コンピュー
タで単純に間引いて相手先のプリンタやコンピュータに
直接又はネットワークを介して転送し、相手先のプリン
タ内のコントローラや相手先のコンピュータのソフトウ
エアによりスムージング拡大処理する場合にも適用する
ことができる。
In the processing described in this embodiment, when a large image is printed by increasing the resolution of a digital camera image, in order to save transfer time, the sending computer simply thins out the image data and prints out the other party's printer. The present invention can also be applied to a case where the image data is transferred to a computer directly or via a network, and the smoothing enlargement processing is performed by software of a controller in the printer of the partner or the computer of the partner.

【0085】<第4の実施形態>図18は第4の実施形
態に係る画像処理装置の構成を示すブロック図である。
<Fourth Embodiment> FIG. 18 is a block diagram showing a configuration of an image processing apparatus according to a fourth embodiment.

【0086】同図において、画処理装置は、RGBの原
画像データが入力されるM×N画素ブロック抽出部18
01と、抽出された画素ブロックが入力される第1の色
空データ変換部1802と、第1の色空間データ変換部
1802で変換された色空間データが入力される第1な
いし第4の拡大手段1803,1804,1805,1
806と、第1ないし第4の拡大手段1803,180
4,1805,1806のいずれかの出力を選択する選
択部1807と、選択部1807で選択されたデータを
さらに変換する第2の色空間データ変換部1808と、
抽出された前記M×N画素ブロックから注目画素に関す
る特徴量を算出し、その特徴量に応じて前記選択部18
07を介して拡大手段1803〜1806を選択させる
特徴部算出部1809とから構成されている。
In the figure, an image processing apparatus includes an M × N pixel block extraction unit 18 to which RGB original image data is input.
01, a first color sky data conversion unit 1802 to which the extracted pixel block is input, and first to fourth enlargements to which the color space data converted by the first color space data conversion unit 1802 are input. Means 1803, 1804, 1805, 1
806 and first to fourth expanding means 1803, 180
A selection unit 1807 for selecting any one of the outputs of the first and second color space data, a second color space data conversion unit 1808 for further converting the data selected by the selection unit 1807,
A feature value relating to the pixel of interest is calculated from the extracted M × N pixel block, and the selecting unit 18 is selected according to the feature value.
And a characteristic part calculation unit 1809 for selecting the enlargement means 1803 to 1806 via the control unit 07.

【0087】このように構成された画像処理装置の動作
は図19のフローチャートに示すようになる。すなわ
ち、M×N画素ブロック抽出部1801で入力されたR
GBの原画像データからM×Nの画素ブロックを抽出し
(ステップ1901)、異なる拡大方法をとる第1ない
し第4の拡大手段1803〜1806への入力となる各
色空間データへ、第1の色空間データ変換部1802で
変換する(ステップ1902)。特徴量算出部1809
では、前述のようにM×N画素ブロック1801から特
徴量を算出し(ステップ1903)、拡大に適した拡大
方法を第1ないし第4の拡大手段1803〜1806か
ら1つ選択し(ステップ1904)、注目画素を拡大す
る。その後、第2の色空間データ変換部1808で所望
の色空間データへと変換する(ステップ1905)。こ
の処理を全画素で繰り返す。
The operation of the image processing apparatus thus configured is as shown in the flowchart of FIG. That is, the R input by the M × N pixel block extraction unit 1801
An M × N pixel block is extracted from the GB original image data (step 1901), and the first color is converted into each color space data to be input to the first to fourth enlargement means 1803 to 1806 using different enlargement methods. The conversion is performed by the spatial data conversion unit 1802 (step 1902). Feature amount calculation unit 1809
Then, as described above, the feature amount is calculated from the M × N pixel block 1801 (step 1903), and one enlargement method suitable for enlargement is selected from the first to fourth enlargement units 1803 to 1806 (step 1904). , The target pixel is enlarged. Thereafter, the second color space data conversion unit 1808 converts the data into desired color space data (step 1905). This process is repeated for all pixels.

【0088】すなわち、この実施形態では、まず第1工
程で、M×N画素ブロック抽出部1801で入力された
RGBの原画像データからM×Nの画素ブロックを抽出
し、第2工程で、異なる拡大方法をとる第1ないし第4
の拡大手段1803〜1806への入力となる各色空間
データへ、第1の色空間データ変換部1802で変換す
る。一方、第3工程でM×N画素ブロック抽出部180
1から特徴量を算出し、第4工程で、拡大に適した拡大
手段を第1ないし拡大手段1803〜1806から1つ
選択して注目画素を拡大する。その後、第5工程で第2
の色空間データ変換部1808で所望の色空間データへ
と変換して出力する。
That is, in this embodiment, first, in the first step, an M × N pixel block is extracted from the RGB original image data inputted by the M × N pixel block extracting section 1801, and in the second step, different M × N pixel blocks are extracted. 1st to 4th methods to enlarge
Are converted by the first color space data conversion unit 1802 into respective color space data to be input to the expansion units 1803 to 1806. On the other hand, in the third step, the M × N pixel block extraction unit 180
The feature amount is calculated from 1 and, in the fourth step, one enlargement means suitable for enlargement is selected from the first to enlargement means 1803 to 1806 to enlarge the pixel of interest. Then, in the fifth step, the second
The color space data conversion unit 1808 converts the data into desired color space data and outputs the data.

【0089】なお、この実施形態は、本発明の最も基本
的な動作原理の一例を示すもので、第1ないし第4の拡
大手段1803〜1806としては、第5の実施形態に
おいて詳述するようにRGBデータを拡大する機能を有
するものや、RGBデータをRGB多値データに拡大す
る機能を有するものなどが採用され、特徴量に応じて処
理するに適した拡大手段1803〜1806が適宜設定
され、用意される。
This embodiment shows an example of the most basic operation principle of the present invention. The first to fourth enlargement means 1803 to 1806 will be described in detail in the fifth embodiment. A function having a function of expanding RGB data, a function having a function of expanding RGB data into RGB multi-valued data, or the like is adopted, and expansion means 1803 to 1806 suitable for processing according to the feature amount are appropriately set. Be prepared.

【0090】特徴量としては、例えばM×N画素ブロッ
クの最大値と最小値の差などが使用される。また、選択
部1807における選択も、後述の第5の実施形態で詳
述するような色数、色相などに応じて設定された拡大法
が前記特徴量に基づいて選択される。
As the feature amount, for example, a difference between the maximum value and the minimum value of the M × N pixel block is used. In the selection by the selection unit 1807, an enlargement method set in accordance with the number of colors, the hue, and the like, which will be described in detail in a fifth embodiment described later, is selected based on the feature amount.

【0091】<第5の実施形態>第5の実施形態に係る
画像処理装置の構成を図20のブロック図に示す。この
実施形態は、RGB色空間、YIQ色空間(輝度・色差
信号、他にYUV信号など、これに準じる信号を指す)
のデータを拡大する複数の拡大手段を持つ例である。
<Fifth Embodiment> The configuration of an image processing apparatus according to a fifth embodiment is shown in the block diagram of FIG. In this embodiment, an RGB color space, a YIQ color space (refers to a luminance / color difference signal, and other similar signals such as a YUV signal).
This is an example having a plurality of enlargement means for enlarging the data.

【0092】同図において、第5の実施形態に係る画像
処理装置は、RGB画像データが入力され、M×Nの画
素ブロックを抽出するRGB:M×N画素ブロック抽出
部2001、このM×N画素ブロック抽出部2001か
らの画像データに基づいて画像の特徴量を算出する画像
特徴量算出部2002、RGB原画像データが入力され
RGBデータからYIQデータに変換するRGB/YI
Q変換部2003、このRGB/YIQ変換部2003
で変換されたYIQデータから輝度Yに関するM×N画
素ブロックを抽出する輝度Y:M×N画素ブロック抽出
部2004、RGB:M×N画素ブロック抽出部200
1からのデータと輝度Y:M×N画素ブロック2004
からのデータが入力される整数倍拡大部2005、前記
画像特徴量算出部2002での算出結果に応じて整数倍
拡大部2005の第1〜第4の拡大手段20051,2
0052,20053,20054を選択する選択部2
006、整数倍率による拡大画像の大きさを所望の拡大
画像の大きさに整形する情報を生成し、整形を行う整形
部2007、整形部2007に選択部2006の選択に
応じてYIQ/RGB変換データを変換して入力するY
IQ/RGB変換部2008、および画像サイズと倍率
とから拡大する整数倍率を算出し、整数倍拡大部200
5と整形部2007とに倍率を出力する整数倍率算出部
2009から構成されている。なお、拡大部、特徴量、
整数倍率算出部、および整形部については後述する。
In the figure, the image processing apparatus according to the fifth embodiment receives an RGB image data and extracts an M × N pixel block by an RGB: M × N pixel block extraction unit 2001, which is an M × N pixel block. An image feature value calculation unit 2002 for calculating a feature value of an image based on the image data from the pixel block extraction unit 2001; RGB / YI for inputting RGB original image data and converting the RGB data to YIQ data;
Q converter 2003, this RGB / YIQ converter 2003
Luminance Y: M × N pixel block extraction unit 2004 for extracting an M × N pixel block related to luminance Y from YIQ data converted in step, RGB: M × N pixel block extraction unit 200
Data from 1 and luminance Y: M × N pixel block 2004
Multiplication unit 2005 to which data from the image data is input, and first to fourth enlargement units 20051 and 20052 of the integer multiplication unit 2005 according to the calculation result of the image feature amount calculation unit 2002.
Selection section 2 for selecting 0052, 20053, 20054
006: A shaping unit 2007 that generates information for shaping the size of the enlarged image by the integral magnification to a desired enlarged image size and performs shaping. The shaping unit 2007 sends the YIQ / RGB converted data according to the selection of the selecting unit 2006. To convert and input
An IQ / RGB conversion unit 2008 and an integer magnification to be enlarged based on the image size and the magnification are calculated.
5 and an integer magnification calculator 2009 that outputs a magnification to the shaping unit 2007. In addition, the enlarged part, the feature amount,
The integer magnification calculation unit and the shaping unit will be described later.

【0093】このように構成された画像処理装置の処理
手順を図21のフローチャートに示す。この処理では、
まず、整数倍率算出部2009で入力された画像サイズ
と倍率とに基づいて拡大する整数倍率を算出し(ステッ
プ2101)、整形部2007で所望の大きさにする情
報を生成する(ステップ2102)。次いで、RGB原
画像をYIQデータに変換する(ステップ2103)。
この変換はRGB/YIQ変換部2003で行なわれ
る。そして、注目画素を囲むM×N画素ブロックから特
徴量を算出し(ステップ2105)、算出した特徴量に
基づいて第1ないし第4の拡大手段20051〜200
54から1つの拡大手段を選択する(ステップ210
6)。拡大手段が選択されると、その選択した拡大手段
によって注目画素を拡大し(ステップ2107)、YI
Q空間からRGB空間への変換が必要かどうかをチェッ
クし(ステップ2108)、変換が必要であれば、YI
Q/RGB変換部2008で前記変換を実行し(ステッ
プ2109)、不要であれば、直接、整形が必要かどう
かをチェックする(ステップ2110)。このチェック
で整形が必要であれば、整形を実行し(後述)、不要で
あれば整形を行なわないでステップ2104で全画素に
対してステップ2105からステップ2111までの処
理が終了したかどうかを確認する。そして、全画素に対
して前記処理が終わった時点で拡大処理を終える。
The processing procedure of the image processing apparatus thus configured is shown in the flowchart of FIG. In this process,
First, an integral magnification calculating unit 2009 calculates an integral magnification to be enlarged based on the input image size and magnification (step 2101), and the shaping unit 2007 generates information for obtaining a desired size (step 2102). Next, the RGB original image is converted into YIQ data (step 2103).
This conversion is performed by RGB / YIQ conversion section 2003. Then, a feature amount is calculated from the M × N pixel block surrounding the target pixel (step 2105), and the first to fourth enlargement units 20051 to 2005 are calculated based on the calculated feature amount.
One enlargement means is selected from 54 (step 210)
6). When the enlargement unit is selected, the pixel of interest is enlarged by the selected enlargement unit (step 2107), and YI
It is checked whether the conversion from the Q space to the RGB space is necessary (step 2108).
The Q / RGB conversion unit 2008 executes the conversion (step 2109), and if unnecessary, directly checks whether shaping is necessary (step 2110). If shaping is necessary in this check, shaping is performed (described later), and if unnecessary, shaping is not performed and in step 2104 it is checked whether the processing from step 2105 to step 2111 has been completed for all pixels. I do. Then, the enlargement process ends when the above process is completed for all pixels.

【0094】この実施形態において、前記整数倍拡大部
2005は、前述のように第1ないし第4の拡大手段2
0051〜20054を備えている。第1の拡大手段2
0051はRGBデータを拡大する機能を備えており、
例えば、前述のニアレストネイバー法、バイリニア法な
どが使用できる。第2の拡大手段20052はYIQデ
ータを拡大する機能を備え、輝度データ拡大部2005
21と色差データ拡大部200522とを有し、輝度信
号(Yデータ)に対しては輝度データ拡大部20052
1でバイリニア法が適用され、色差信号(I,Qデー
タ)に対しては色差データ拡大部20522でアレスト
ネイバー法が適用される。第3の拡大手段20053は
RGBデータをRGB多値データに拡大する機能を備え
ており、例えば、特開平7−221976号公報あるい
は特開平7−221977号公報に開示された方法が採
用される。また、第4の拡大手段20054はRGBデ
ータを拡大する機能、例えば第3の拡大手段20053
を変形した拡大機能を備えている。このような拡大手段
によって当該拡大手段が有する拡大機能に応じて必要な
画像データが入力される。なお、このような種々の拡大
機能は画像の状態や色空間の種類など応じて公知の手法
が適用され、組み合わされる。前述の拡大手段の機能は
その一例である。
In this embodiment, the integral multiple enlarging unit 2005 includes the first to fourth enlarging means 2 as described above.
0051 to 20054 are provided. First enlargement means 2
0051 has a function of expanding RGB data,
For example, the above-described nearest neighbor method, bilinear method, or the like can be used. The second enlarging unit 20052 has a function of enlarging the YIQ data, and the luminance data enlarging unit 2005
21 and a chrominance data enlargement unit 200552. For the luminance signal (Y data), the luminance data enlargement unit 20052
The bilinear method is applied at 1 and the arrest neighbor method is applied to the chrominance signal (I, Q data) at the chrominance data enlargement unit 20522. The third enlarging means 20053 has a function of enlarging RGB data into RGB multi-valued data. For example, a method disclosed in Japanese Patent Application Laid-Open No. 7-221977 or Japanese Patent Application Laid-Open No. 7-221977 is employed. A fourth enlargement unit 20055 has a function of enlarging RGB data, for example, a third enlargement unit 200553.
It has an enlarged function that is a modification of. Such enlargement means inputs necessary image data according to the enlargement function of the enlargement means. A known method is applied to these various enlargement functions according to the state of the image, the type of the color space, and the like, and they are combined. The function of the enlargement means described above is one example.

【0095】前述の図20のブロック図および図21の
フローチャートから分かるように、整数倍率算出部20
09では、入出力画像サイズ、倍率などの情報から整数
倍率を算出し、特徴算出部2002では、抽出された画
素ブロックから、拡大手段の選択に必要な特徴情報を算
出する。そして、整数倍拡大部2005で算出された特
徴情報を基に、1つの拡大手段を拡大手段選択部200
6で選択する。そして、選択された注目画素を整数倍拡
大する。
As can be seen from the block diagram of FIG. 20 and the flowchart of FIG.
In step 09, an integer magnification is calculated from information such as the input / output image size and magnification, and the characteristic calculation unit 2002 calculates characteristic information necessary for selecting an enlargement unit from the extracted pixel blocks. Then, based on the feature information calculated by the integral multiple enlarging unit 2005, one enlarging unit is assigned to the enlarging unit selecting unit 200.
Select with 6. Then, the selected target pixel is magnified by an integer.

【0096】整形部2007では整数倍率による拡大画
像の大きさを所望する拡大画像の大きさに整形する情報
を生成し、整形を行う。
The shaping section 2007 generates information for shaping the size of the enlarged image by the integral magnification to a desired size of the enlarged image, and performs shaping.

【0097】整数倍拡大部2005における拡大手段の
選択例の処理手順を図22、図23及び図24のフロー
チャートに示す。この選択は特徴量算出部2002にお
ける色数/色相の検出部20021と画素の連結情報生
成部20022における算出結果に応じて行われる。こ
の実施形態は最大色数が4であり、図22ないし図24
のフローチャートはこの色数を前提としている。この
内、図22は色数、図23はは色数と色相、図24は色
数、色相、画素の連結情報による選択例である。これに
より、複数ある拡大手段20051〜20054から1
つの拡大手段が選択される。
The processing procedure of the example of selecting the enlargement means in the integral multiple enlargement unit 2005 is shown in the flowcharts of FIGS. 22, 23 and 24. This selection is performed in accordance with the calculation results of the number-of-colors / hue detection unit 20021 in the feature amount calculation unit 2002 and the pixel connection information generation unit 22022. In this embodiment, the maximum number of colors is 4, and FIGS.
Is based on this number of colors. Among them, FIG. 22 shows the number of colors, FIG. 23 shows the number of colors and hues, and FIG. 24 shows an example of selection based on the number of colors, hues, and pixel connection information. Thereby, a plurality of enlargement means 20051-20054 to 1
One enlargement means is selected.

【0098】具体的には、図22のフローチャートで
は、まず、色数が1であれば(ステップ2201でY)
選択部2006のSW0がオンになり、第1の拡大手段
20051からのRGBデータが整形部2007に入力
される。色数が2であれば(ステップ2202でY)、
選択部2006のSW1がオンになり第3の拡大手段2
0053からのRGBデータと輝度データ(Yデータ)
が整形部2007に入力される。色数が3であれば(ス
テップ2203でY)、選択部2006のSW2がオン
になり、第4の拡大手段20054からのRGBデータ
と輝度データ(Yデータ)が整形部2007に入力され
る。色数が4であれば(ステップ2203でN)、選択
部2006のSW3がオンになり、第2の拡大手段20
052からの輝度データ(Yデータ)と色差データ(I
データ及びQデータ)が選択され、YIQ/RGB変換
部2008でRGBデータに変換した上で、整形部20
07に入力される。なお、ステップ2203の判定で色
数が3でなければ、SW3がオンになり第2の拡大手段
20052が選択される。
Specifically, in the flowchart of FIG. 22, first, if the number of colors is 1, (Y in step 2201)
SW0 of the selection unit 2006 is turned on, and the RGB data from the first enlargement unit 20051 is input to the shaping unit 2007. If the number of colors is 2 (Y in step 2202),
SW1 of the selection unit 2006 is turned on, and the third enlargement unit 2 is turned on.
RGB data and luminance data (Y data) from 0053
Is input to the shaping unit 2007. If the number of colors is three (Y in step 2203), SW2 of the selection unit 2006 is turned on, and the RGB data and luminance data (Y data) from the fourth enlargement unit 20054 are input to the shaping unit 2007. If the number of colors is four (N in step 2203), SW3 of the selection unit 2006 is turned on, and the second enlargement unit 20 is turned on.
Data (Y data) and color difference data (I
Data and Q data) are selected, converted into RGB data by the YIQ / RGB conversion unit 2008, and
07. If the number of colors is not three in the determination in step 2203, SW3 is turned on and the second enlargement unit 20052 is selected.

【0099】このように処理すると、色数のみの少ない
特徴情報で複数の拡大法を選択し、ジャギー低減と共に
画素の拡大を行うことができる。
By performing such processing, it is possible to select a plurality of enlargement methods based on feature information having only a small number of colors, to reduce jaggies and enlarge pixels.

【0100】図23のフローチャートでは、色数が1で
あれば(ステップ2301でY)選択部2006のSW
0がオンになり、第1の拡大手段20051からのRG
Bデータが整形部2007に入力される。色数が2であ
れば(ステップ2302でY)、選択部2006のSW
1がオンになり第3の拡大手段20053からのRGB
データと輝度データ(Yデータ)が整形部2007に入
力される。色数が3であれば(ステップ2303で
Y)、さらに全色相が一致するかまたは類似するかをチ
ェックし(ステップ2304)、一致または類似すれば
SW3をオンし、一致も類似もしなければSW1をオン
にする。色数が4であれば(ステップ2305でY)、
さらに全色相が一致するかまたは類似するかを調べ、一
致または類似すればSW3をオンし、一致も類似もしな
ければSW1をオンにする。ステップ2305の判定で
色数が4でなければ、SW3をオンする。なお、この図
23のフローチャートで選択されたSWは図20のブロ
ック図に示した拡大手段20051〜20054を選択
して整形部2007に入力する。
In the flowchart of FIG. 23, if the number of colors is 1 (Y in step 2301), the SW of the selection unit 2006
0 turns on, and the RG from the first enlarging unit 20051
The B data is input to the shaping unit 2007. If the number of colors is 2 (Y in step 2302), the SW of the selection unit 2006
1 is turned on, and RGB from the third enlarging means 20053
The data and the luminance data (Y data) are input to the shaping unit 2007. If the number of colors is 3 (Y in step 2303), it is further checked whether all hues match or are similar (step 2304). If they match or similar, SW3 is turned on. Turn on. If the number of colors is four (Y in step 2305),
Further, it is checked whether all the hues match or are similar. If they match or similar, SW3 is turned on, and if there is no match or similar, SW1 is turned on. If the number of colors is not four in the determination in step 2305, SW3 is turned on. The SW selected in the flowchart of FIG. 23 selects the enlargement means 20051-20054 shown in the block diagram of FIG.

【0101】このように処理すると、色数と色相の組み
合わせにより、アンチエイリアシング文字/線画に対し
てもジャギー低減と共に拡大ができる。
By performing such processing, antialiasing characters / line drawings can be enlarged and reduced in jaggies by combining the number of colors and the hue.

【0102】図24のフローチャートでは、色数が1で
あれば(ステップ2401でY)選択部2006のSW
0がオンになり、第1の拡大手段20051からのRG
Bデータが整形部2007に入力される。色数が2であ
れば(ステップ2402)、選択部2006のSW1が
オンになり第3の拡大手段20053からのRGBデー
タと輝度データ(Yデータ)が整形部2007に入力さ
れる。色数が3であれば(ステップ2403でY)、さ
らに全色相が一致するかまたは類似するかをチェックし
(ステップ2404)、一致も類似もしなければSW1
をオンにし、一致または類似すれば、後述の画素の連結
情報を生成する(ステップ2405)。画素の連結情報
は特徴量算出部2002で生成される。そして、生成さ
れた画素の連結情報から連結ありと判断されれば、SW
2をオンし、連結なしと判断されればSW3をオンす
る。また、色数が4であれば(ステップ2407で
Y)、さらに全色相が一致するかまたは類似するかを判
断し(ステップ2408)、一致または類似すればSW
3をオンし、一致も類似もしなければSW1をオンにす
る。ステップ2407の判定で色数が4でなければ、S
W3をオンする。なお、この図24のフローチャートで
選択されたSWは図20のブロック図に示した拡大手段
20051〜20054を選択して整形部2007に入
力する。
In the flowchart of FIG. 24, if the number of colors is 1 (Y in step 2401), the SW
0 turns on, and the RG from the first enlarging unit 20051
The B data is input to the shaping unit 2007. If the number of colors is 2 (step 2402), SW1 of the selection unit 2006 is turned on, and RGB data and luminance data (Y data) from the third enlargement unit 200553 are input to the shaping unit 2007. If the number of colors is 3 (Y in step 2403), it is further checked whether all hues match or are similar (step 2404).
Is turned on, and if they match or are similar, pixel connection information described later is generated (step 2405). Pixel connection information is generated by the feature amount calculation unit 2002. Then, if it is determined from the generated pixel connection information that there is a connection, SW
2 is turned on, and if it is determined that there is no connection, SW3 is turned on. If the number of colors is four (Y in step 2407), it is further determined whether all hues match or are similar (step 2408).
3 is turned on, and if there is no match or similarity, SW1 is turned on. If the number of colors is not 4 in the determination of step 2407, S
Turn on W3. The SW selected in the flowchart of FIG. 24 selects the enlargement means 20051-20054 shown in the block diagram of FIG.

【0103】なお、色数が1の場合は、例えば第1の拡
大手段20051は、図28に示すように、RGB1画
素を整数倍率Zsに応じて単純に拡大する。単純に拡大
するとは、例えば、Zs=3のとき、Zs×Zs画素全て
の値を原画その値で埋めるという単純に拡大する手法で
ある。
When the number of colors is 1, for example, the first enlargement means 20051 simply enlarges one RGB pixel according to the integer magnification Zs, as shown in FIG. The simple enlargement is, for example, a simple enlargement method in which, when Zs = 3, the values of all the Zs × Zs pixels are filled with the original image values.

【0104】このように処理すると、色数と色相、画素
の連結の組み合わせにより、アンチエイリアシング文字
/線画、さらに影付き文字/線画に対してもジャギー低
減と共に画素の拡大を行うことができる。
By performing the above processing, it is possible to reduce the jaggies and enlarge the pixels of anti-aliased characters / line drawings, and even shaded characters / line drawings, by a combination of the number of colors, hues, and pixel concatenation.

【0105】ステップ2405における画素の連結情報
の生成は以下のようにして行われる。すなわち、図25
に示すように、注目画素*を囲むM×N画素(図では5
×5画素)において、輝度データで画素の連結判定が行
われる。輝度のM×N画素は色数=3、つまり、輝度は
最大値Ymax、最小値Ymin、中央値Ymidで構成されて
いる。そこで、Ymid値と一致する画素を1、それ以外
を0とすれば、Ymidの連結情報が得られる。図25に
示した例では、縦に1画素の繋がりがある例である。ま
た、幅2画素、かつ、2連結で連結ありとしてもよい。
The generation of pixel connection information in step 2405 is performed as follows. That is, FIG.
As shown in FIG. 3, M × N pixels (5 in FIG.
× 5 pixels), the connection determination of the pixels is performed based on the luminance data. M × N pixels of luminance have the number of colors = 3, that is, the luminance is composed of a maximum value Ymax, a minimum value Ymin, and a median value Ymid. Therefore, if the pixel that matches the Ymid value is set to 1 and the others are set to 0, the connection information of Ymid can be obtained. In the example shown in FIG. 25, one pixel is connected vertically. In addition, two pixels in width and two links may be connected.

【0106】図26は整数倍率算出部2009の動作を
説明するための説明図である。整数倍率算出部2009
では、所望する整数倍率を予め2〜Zmax(倍)と設定し
ておく。 ここでは、簡単のため主副同倍率での例で説
明する。
FIG. 26 is an explanatory diagram for explaining the operation of the integer magnification calculator 2009. Integer magnification calculator 2009
In this case, the desired integer magnification is set in advance to 2 to Zmax (times). Here, for the sake of simplicity, an example in which the main and sub magnifications are the same will be described.

【0107】入力X方向(主走査方向)画素数をXin、出
力X方向画素数をXout、また、入力倍率を Zinとした
とき、入力倍率は、 Zin=Xout/Xin であり、この値は2〜Zmax間にある。このとき、図2
6に示す階段特性により整数倍率Zsを算出する。ま
た、特性を±0.5とずらしても良い。このZsの倍率
に応じて整数倍拡大部は拡大を行う。この例では、倍率
Zが、 2.5≦Z<3.5 のとき、 Zs=3 として算出され、この整数倍率「3」が整数倍拡大部3
05と整形部307に出力される。
When the number of pixels in the input X direction (main scanning direction) is Xin, the number of pixels in the output X direction is Xout, and the input magnification is Zin, the input magnification is Zin = Xout / Xin. ~ Zmax. At this time, FIG.
The integer magnification Zs is calculated from the staircase characteristic shown in FIG. Further, the characteristics may be shifted to ± 0.5. The integral multiple enlargement unit performs enlargement according to the magnification of Zs. In this example, when the magnification Z is 2.5 ≦ Z <3.5, it is calculated as Zs = 3, and this integer magnification “3” is the integer magnification section 3
05 and output to the shaping unit 307.

【0108】図27は整形部2007の動作について説
明するための説明図である。整形部2007では、図2
6に示した整数倍率算出部2009の特性から、例えば 2.5倍≦Zin<3.0倍 → 間引き Zin=3.0倍 → 整形なし:整数拡大そのまま 3.0倍<Zin<3.5倍 → 追加 の情報が既知である。よって、間引き、追加の整形を要
する場合の画素数Spixは、 Spix=Xin×|Zin−Zs| となり、整形ピッチpitは、 pit=Zs/|Zin−Zs| で求めることができる。そして、拡大した画素をカウン
トしていき、整形ピッチpitの整数値と一致 したとき、
間引き、あるいは追加を行う。一致後、整形ピッチpit
は自らの値を加算する。
FIG. 27 is an explanatory diagram for explaining the operation of the shaping section 2007. In the shaping unit 2007, FIG.
From the characteristics of the integer magnification calculation unit 2009 shown in FIG. 6, for example, 2.5 times ≦ Zin <3.0 times → thinning Zin = 3.0 times → No shaping: integer magnification as it is 3.0 times <Zin <3.5 Double → additional information is known. Therefore, the number of pixels Spix when thinning and additional shaping are required is Spix = Xin × | Zin−Zs |, and the shaping pitch pit can be obtained by pit = Zs / | Zin−Zs |. Then, the enlarged pixels are counted, and when they match the integer value of the shaping pitch pit,
Perform thinning or addition. After matching, shaping pitch pit
Adds its own value.

【0109】図27は倍率が3近辺の時を示している。
Zin=3は整形なしで1画素が3×3画素に拡大された
例である(図27(a))。間引きのときは、図27
(b)で点線でに示すように 1:縦3画素 2:横3画素 3:縦横3画素がそれぞれ間引かれる。追加の場合は、
図27(c)に示すように斜線部に当た る部分を、 1:左画素の値を単純にコピーして埋める。 2:上画素の値を単純にコピーして埋める。 3:左画素の値をコピーして埋め、さらに上画素の値を
コピーして埋める。 というようにして追加を行う。これによりジャギーの低
減を図ることができる。
FIG. 27 shows a case where the magnification is around 3.
Zin = 3 is an example in which one pixel is enlarged to 3 × 3 pixels without shaping (FIG. 27A). In the case of thinning, FIG.
As shown by the dotted line in (b), 1: vertical three pixels 2: horizontal three pixels 3: vertical and horizontal three pixels are thinned out. If additional,
As shown in FIG. 27 (c), the portion corresponding to the shaded portion is 1: the value of the left pixel is simply copied and filled. 2: The value of the upper pixel is simply copied and filled. 3: The value of the left pixel is copied and filled, and the value of the upper pixel is copied and filled. And so on. Thereby, jaggy can be reduced.

【0110】このように整数倍率拡大部2005のいず
れかの拡大手段20051〜20054によって整数倍
率で拡大された画像を整形部2007で所望の大きさに
合わせるので、整数倍された拡大画像をジャギー低減の
効果を失うことなく、所望する任意のサイズに変形する
ことができる。また、エッジ部の色ずれも起こらない。
Since the image enlarged by the integral magnification by any one of the enlarging means 20051 to 20054 of the integral magnification enlarging section 2005 is adjusted to a desired size by the shaping section 2007, the enlarged image multiplied by the integral magnification is reduced by jaggy. Can be deformed to any desired size without losing the effect of. Also, no color shift occurs at the edge.

【0111】<第6の実施形態>この実施形態は、従来
において拡大後のデータを2値化し、2値化前のデータ
と加算合成する工程が必要であり、処理の高速化に対応
できていなかったことに鑑み、更に高速な処理を実現で
きるように構成したものである。
<Sixth Embodiment> This embodiment conventionally requires a step of binarizing data after enlargement and adding and combining it with data before binarization, and can cope with high-speed processing. In view of the above, the configuration is such that higher-speed processing can be realized.

【0112】この第6の実施形態に係る画像処理装置の
構成を図29のブロック図に、この画像処理装置の処理
手順を図30のフローチャートにそれぞれ示す。
A configuration of the image processing apparatus according to the sixth embodiment is shown in a block diagram of FIG. 29, and a processing procedure of the image processing apparatus is shown in a flowchart of FIG.

【0113】図29において、画像処理装置は、拡大部
2901と、強調処理部2902と、特徴情報算出部2
903とからなり、拡大対象である画像から、注目画素
*を囲むM×N画素ブロックが拡大部2901と特徴情
報算出部2903に入力され、同ブロックの特徴を示す
特徴情報を特徴情報算出部2903で算出し(ステップ
3001)、また、拡大部2901で注目画素はP×Q
画素ブロックに拡大され(ステップ3002)、特徴情
報に応じて、強調処理部2902で全画素P×Qの強調
処理が行われる(ステップ3003)。注目画素を1画
素毎にずらしていき、この処理を全画素分繰り返す。
In FIG. 29, the image processing apparatus includes an enlargement unit 2901, an enhancement processing unit 2902, and a feature information calculation unit 2
903, an M × N pixel block surrounding the target pixel * is input to the enlargement unit 2901 and the feature information calculation unit 2903 from the image to be enlarged, and the feature information indicating the features of the block is input to the feature information calculation unit 2903. (Step 3001), and the target pixel is P × Q in the enlargement unit 2901.
The image is enlarged to a pixel block (step 3002), and the emphasis processing unit 2902 performs emphasis processing on all pixels P × Q according to the feature information (step 3003). The target pixel is shifted for each pixel, and this process is repeated for all pixels.

【0114】このように処理すると、注目画素を含む画
素ブロックから特徴情報を算出し、注目画素を拡大した
後、前記特徴情報に応じた変換を行うので、低解像度画
像の拡大において、鮮鋭度を保持し、ジャギー低減を実
現できる。
With this processing, the characteristic information is calculated from the pixel block including the pixel of interest, and after the pixel of interest is enlarged, conversion is performed in accordance with the characteristic information. Holding and reducing jaggy.

【0115】拡大部2901においては線形補間法によ
る拡大を行う。この線形補間法として一般に知られてい
るバイリニア法に前にも簡単に触れているが、さらに詳
しく図31を用いて説明する。
In the enlargement unit 2901, enlargement is performed by the linear interpolation method. The bilinear method, which is generally known as the linear interpolation method, has been briefly mentioned before, but will be described in more detail with reference to FIG.

【0116】図31に示すように、例えばM=N=3と
する3×3画素ブロックがP0〜P8で与えられ、注目画
素がP4であり、この注目画素P4が、例えば4倍に拡大
される場合(P=Q=4)、拡大後の画素PxはP400
〜P433の16画素となる。16画素の補間の際、P0〜
P8のうち、どの画素を用いて補間するのかは、P40
0、P401、P410、P411については、P0、P1、P3、
P4、P402、P403、P412、P413については、P1、P
2、P4、P5、P420、P421、P430、P431について
は、P3、P4、P6、P7、P422、P423、P432、P433
については、P4、P5、P7、P8、のそれぞれ4点を使
用し、拡大後の画素は、この4点と、その距離i、jを
重みとする係数a、b、c、dから線形式 P400=(1−i)(1−j)P0/a+i(1−j)P1/b +(1−i)jP3/c+ij/dP4 ・・・(6) で算出される。
As shown in FIG. 31, for example, a 3 × 3 pixel block in which M = N = 3 is given by P0 to P8, the target pixel is P4, and the target pixel P4 is enlarged, for example, four times. (P = Q = 4), the enlarged pixel Px is P400
16 pixels from P433 to P433. When interpolating 16 pixels, P0 ~
Which pixel of P8 is to be used for interpolation is determined by P40
For 0, P401, P410, and P411, P0, P1, P3,
For P4, P402, P403, P412, and P413, P1, P
2, P4, P5, P420, P421, P430, P431, P3, P4, P6, P7, P422, P423, P432, P433
, Four points P4, P5, P7, and P8 are used, and the pixel after enlargement is represented by a linear form from these four points and coefficients a, b, c, and d using the distances i and j as weights. P400 = (1-i) (1-j) P0 / a + i (1-j) P1 / b + (1-i) jP3 / c + ij / dP4 (6)

【0117】他の拡大法としてはバイキュービック法な
どがある。バイキュービック法はバイリニア法より高画
質が得られるが、計算負荷が高い。なお、このバイキュ
ービック法自体は公知なので、ここでの説明は省略す
る。
As another enlargement method, there is a bicubic method or the like. The bicubic method can obtain higher image quality than the bilinear method, but has a higher calculation load. Since the bicubic method itself is publicly known, description thereof is omitted here.

【0118】特徴情報算出部2903では、M×N画素
ブロック内の最大値Max、最小値Minを抽出し、その差分 Range=Max−Min を算出し、この差分Rangeを特徴情報とする。
The feature information calculation unit 2903 extracts the maximum value Max and the minimum value Min in the M × N pixel block, calculates the difference Range = Max−Min, and uses the difference Range as the feature information.

【0119】このように特徴情報が画素ブロックにおけ
る最大値と最小値の差分なので、各ブロックにおけるこ
れらの情報を用いることにより、ブロック単位に的確な
強調処理を掛けることができる。
As described above, since the characteristic information is the difference between the maximum value and the minimum value in the pixel block, by using such information in each block, it is possible to perform an accurate emphasis process for each block.

【0120】強調処理部2902では、図32のフロー
チャートに示すように拡大部2901で拡大した全画素
Pxを特徴量により正規化する。そして、正規化後の画
素データPx'を Px'=(Px−Min)/Range ・・・(7) で求める(ステップ3201)。
The emphasizing unit 2902 normalizes all the pixels Px enlarged by the enlarging unit 2901 by the characteristic amount as shown in the flowchart of FIG. Then, the normalized pixel data Px 'is obtained by the following equation: Px' = (Px-Min) / Range (7) (step 3201).

【0121】次いで、特徴情報である差分Rangeに応じ
て、変換特性(後述)を生成し(ステップ3202)、P
x‘を変換しPx“を得る(ステップ3203)。さら
に、 Pxout=Px“×Range+Min ・・・(8) で逆正規化を行い、拡大後の強調データPxoutを求める
(ステップ3204)。
Next, a conversion characteristic (described later) is generated according to the difference Range, which is the characteristic information (step 3202).
x 'is converted to obtain Px "(step 3203). Further, denormalization is performed by Pxout = Px" × Range + Min (8) to obtain enlarged enhanced data Pxout (step 3204).

【0122】この強調処理部2902の変換特性は図3
3のようになる。すなわち、入出力は共に正規化された
値なので縦軸、横軸共に0〜1のレンジを取る。特徴情
報Rangeの大きさにより、図33(a)から(c)へと
変換特性を適応的に生成する。
The conversion characteristics of the emphasis processing section 2902 are shown in FIG.
It looks like 3. That is, since both the input and output are normalized values, both the vertical and horizontal axes take a range of 0 to 1. Conversion characteristics are adaptively generated from FIG. 33A to FIG. 33C according to the size of the feature information Range.

【0123】Rangeが小さいときは図33(a)に示す
ようなスルー特性 Px“=Px‘ ・・・(9) で変換し、大きいときは図33(c)に示すような 0≦Px‘<0.5 のとき Px“=0 それ以外 Px“=1 ・・・(10) という2値特性で変換する。中間的な変換特性は図33
(b)に示すようなものとなる。
When the Range is small, the conversion is performed by the through characteristic Px "= Px '(9) as shown in FIG. 33 (a). When the Range is large, 0 ≦ Px' as shown in FIG. 33 (c). In the case of <0.5, the conversion is performed using the binary characteristic Px “= 0, otherwise Px“ = 1 (10).
The result is as shown in FIG.

【0124】可変の仕方はRangeと対応させて、予め関
数を定義する方法と何段階か特性を用意し、Rangeの値
に応じて1つ選択する方法がある。前者の方法では無段
階特性が実現できる。
There are two ways to make the variable correspond to the Range: a method of defining a function in advance and a method of preparing several steps of characteristics and selecting one according to the value of the Range. The former method can realize stepless characteristics.

【0125】関数の一例: 0≦Px‘<0.5のときPx“=(−0.6×Range+
1)×Px’ それ以外 Px“=(−0.6×Range+1)×Px’+0.6*Range ・・・(11) このように、Rangeの大きさと対応付けを行っておく。
An example of a function: When 0 ≦ Px ′ <0.5, Px “= (− 0.6 × Range +
1) × Px ′ Others Px “= (− 0.6 × Range + 1) × Px ′ + 0.6 * Range (11) In this way, the range is associated with the size of the Range.

【0126】また、例で挙げた0.5のしきい値、及
び、直線0−t1、直線t2−t3の傾きをRangeに応
じて可変することも可能である。
It is also possible to vary the threshold value of 0.5 and the slopes of the straight lines 0-t1 and t2-t3 according to the Range.

【0127】他に、何段階か特性を用意し、Rangeの値
に応じて1つ選択する方法としては、例えば 大中小の
3つに分類し、小:図33(a)、中:図33(b)、
大:図33(c)を選択するように設定しておくことで
実現できる。Rangeを細かくしていくと、当然ながら、
無段階の関数定義に近づく。
In addition, as a method of preparing characteristics in several stages and selecting one according to the value of Range, for example, it is classified into three, large, medium, and small, and small: FIG. 33 (a), middle: FIG. (B),
Large: It can be realized by setting so as to select FIG. As you refine the Range, of course,
Approach a stepless function definition.

【0128】前記拡大部2901では、このようにして
生成された変換特性で拡大画素を変換するので、特徴情
報に応じて、適応的に強調処理が行え、鮮鋭度を落とす
ことなく画像データを拡大することができる。
Since the enlargement unit 2901 converts the enlarged pixels using the conversion characteristics generated in this manner, it is possible to adaptively enhance the image in accordance with the characteristic information and enlarge the image data without reducing the sharpness. can do.

【0129】本実施形態によれば、変換時に使用する複
数の変換テーブルを備え、特徴情報に応じて1つの変換
テーブルを選択し、選択された変換テーブルに基づいて
拡大した画素を変換するので、強調処理を行う際に、高
速で処理することが可能になる。
According to the present embodiment, a plurality of conversion tables used at the time of conversion are provided, one conversion table is selected according to the characteristic information, and the enlarged pixels are converted based on the selected conversion table. When performing the emphasis processing, it is possible to perform processing at high speed.

【0130】<第7の実施形態>この実施形態は、輝度
信号と色差信号を使用して拡大処理を行なう例である。
<Seventh Embodiment> This embodiment is an example in which enlargement processing is performed using a luminance signal and a color difference signal.

【0131】この実施形態に係る画像処理装置は、拡大
部3401、強調処理部3402及び特徴情報算出部3
403からなり、前記拡大部3401はさらに、Y信号
拡大部34011とI,Q信号拡大部34012とから
なる。
The image processing apparatus according to this embodiment includes an enlargement section 3401, an enhancement processing section 3402, and a feature information calculation section 3
The enlargement unit 3401 further comprises a Y signal enlargement unit 34011 and I and Q signal enlargement units 34012.

【0132】Y信号拡大部34011には、輝度Y信号
(以下、「Y信号」と称す。)の注目画素*を囲むM×
N画素ブロック(図34では、3×3)が入力され、拡
大される。I,Q信号拡大部17012には、色差I、
Q信号(以下、「I信号、Q信号」と称する。)が入力
され、同様に拡大される。
The Y signal enlarging section 34011 has M × M surrounding the target pixel * of the luminance Y signal (hereinafter referred to as “Y signal”).
An N pixel block (3 × 3 in FIG. 34) is input and enlarged. The I and Q signal enlarging unit 17012 includes a color difference I,
A Q signal (hereinafter, referred to as “I signal, Q signal”) is input and enlarged in the same manner.

【0133】このときの処理手順を図35のフローチャ
ートに示す。すなわち、この処理では、まず、Y信号M
×N画素ブロックから特徴情報算出部3403で特徴情
報を算出する(ステップ3501)。特徴情報は、 ・最大値Ymax ・最小値Ymin ・差Yrange=Ymax−Ymin の3つの情報である。
The processing procedure at this time is shown in the flowchart of FIG. That is, in this process, first, the Y signal M
Feature information is calculated by the feature information calculation unit 3403 from the × N pixel blocks (step 3501). The feature information is three pieces of information: maximum value Ymax, minimum value Ymin, difference Yrange = Ymax-Ymin.

【0134】そして、算出した特徴情報を強調処理部3
402にセットし、Y信号を拡大する(ステップ350
3)。次いで、拡大したY信号を強調処理し(ステップ
3504)、I,Q信号を拡大する(ステップ350
5)。
Then, the calculated characteristic information is sent to the emphasis processing unit 3.
402, the Y signal is expanded (step 350).
3). Next, the expanded Y signal is emphasized (step 3504), and the I and Q signals are expanded (step 350).
5).

【0135】YIQ信号の拡大については、 1)Y信号、I、Q信号について線形補間法(例:バイ
リニア法など)を使用する。 2)Y信号について線形補間法(例:バイリニア法な
ど)によって拡大し、I、Q信号については単純拡大法
(同じ値でコピーする)を使用する。などの方法があ
る。
The expansion of the YIQ signal is as follows: 1) A linear interpolation method (for example, a bilinear method) is used for the Y signal, I and Q signals. 2) The Y signal is enlarged by a linear interpolation method (for example, a bilinear method), and the I and Q signals are used by a simple enlargement method (copying with the same value). And so on.

【0136】その際、Y信号の拡大法が線形補間法であ
り、かつ、注目画素の拡大倍率が固定であるとき、図3
1における重み係数i、j(図では16画素毎の4つの
重み係数)は定数となる。つまり、i、jを毎回計算す
る必要はない。
At this time, when the enlargement method of the Y signal is a linear interpolation method and the enlargement magnification of the pixel of interest is fixed, FIG.
The weighting factors i and j at 1 (four weighting factors for every 16 pixels in the figure) are constants. That is, it is not necessary to calculate i and j every time.

【0137】また、拡大部3401で拡大する倍率が例
えば2〜15倍(ここでは主走査、副走査方向は同倍率
とする)である場合は、図36に示すように拡大部34
01に対して重み係数設定部3404で前記倍率間の整
数倍に当たる重み係数を予め算出しておき、倍率の入力
に応じて、拡大部3401に重み係数をセットして拡大
するようにすれば処理の高速化を図ることができる。
When the magnification to be enlarged by the enlargement unit 3401 is, for example, 2 to 15 times (here, the same magnification in the main scanning and sub-scanning directions), as shown in FIG.
The weighting factor setting unit 3404 previously calculates a weighting factor corresponding to an integer multiple between the magnifications, and sets the weighting factor in the enlargement unit 3401 in accordance with the input of the magnification to enlarge the processing. Can be speeded up.

【0138】この実施形態によれば、画像情報は輝度・
色差信号であり、前記拡大部3401における輝度信号
の拡大は線形補間によって行われ、特徴情報算出部34
03では特徴情報が輝度信号(Y信号)から生成され、
前記特徴情報に応じた変換は、拡大後の輝度信号に対し
て行うので、輝度、色差信号による拡大で色ずれが発生
することはない。また、強調処理部3402における強
調処理は輝度信号のみで行うため、高速で処理すること
ができる。
According to this embodiment, the image information has the luminance
The enlargement of the luminance signal in the enlargement unit 3401 is performed by linear interpolation.
In 03, feature information is generated from the luminance signal (Y signal),
Since the conversion according to the feature information is performed on the luminance signal after the enlargement, no color shift occurs due to the enlargement by the luminance and color difference signals. In addition, since the enhancement processing in the enhancement processing unit 3402 is performed only with the luminance signal, the processing can be performed at high speed.

【0139】[0139]

【発明の効果】以上のように、請求項1記載の発明によ
れば、補正対象のパターン毎、かつ、倍率毎に拡大画素
のドット配置情報を有し、パターンマッチング結果及び
倍率から1つのドット配置情報を抽出するので、パター
ンマッチング法を用いて、フルカラー画像について高速
に任意の整数倍率の拡大が実現できる。
As described above, according to the first aspect of the present invention, dot arrangement information of enlarged pixels is provided for each pattern to be corrected and for each magnification, and one dot is obtained from the pattern matching result and the magnification. Since the arrangement information is extracted, the full-color image can be rapidly enlarged at an arbitrary integer magnification by using the pattern matching method.

【0140】請求項2記載の発明によれば、予め設定さ
れた倍率における拡大画素のドット配置情報を有し、こ
のドット配置情報に基づいて、他の倍率の拡大画素ドッ
ト配置情報を作成するので、基準パターンのみ保持して
いればよく、これによって、メモリ容量の低下が図れ
る。
According to the second aspect of the present invention, dot arrangement information of enlarged pixels at a preset magnification is provided, and enlarged pixel dot arrangement information of another magnification is created based on the dot arrangement information. , Only the reference pattern needs to be held, whereby the memory capacity can be reduced.

【0141】請求項3記載の発明によれば、原画である
第1色空間データから画素ブロックを切り出し、異なる
第2色の空間データへ変換し、第2色空間データを用い
てパターンマッチングを行うとともに、パターン毎にパ
ターン内のどの画素情報で拡大した画素を埋めるかの情
報を有し、この情報と一致する第1色空間の画素データ
を用いて拡大画素を埋めるので、入力色空間が例えばR
GBの場合、RGB各プレーンでパターンマッチングを
行うと色ずれが生じるが、適した色空間へ変換すること
で、この色ずれを防止することができる。
According to the third aspect of the present invention, a pixel block is cut out from the first color space data which is the original image, converted into space data of a different second color, and pattern matching is performed using the second color space data. In addition, each pixel has information on which pixel information in the pattern fills the enlarged pixel in each pattern, and the enlarged pixel is filled using pixel data in the first color space that matches this information. R
In the case of GB, a color shift occurs when pattern matching is performed on each of the RGB planes. By converting the color space into a suitable color space, the color shift can be prevented.

【0142】請求項4記載の発明によれば、第2色空間
データは輝度(=明度)、色相、彩度の3要素を表す色空
間であり、パターンマッチングは前記3要素のうちの少
なくとも1つの要素を用いて行うので、画素ブロック内
の色相が異なる2色で塗りつぶされているとき、色相1
プレーンで2色を分離できる。また、同色相で構成され
ている影付き文字/線画は彩度が異なるため、彩度1プ
レーンで2色を分離でき、的確にパターンマッチングを
行うことができる。
According to the fourth aspect of the present invention, the second color space data is a color space representing three elements of luminance (= lightness), hue, and saturation, and pattern matching is performed on at least one of the three elements. When the hue in the pixel block is filled with two different colors, the hue 1
Two colors can be separated by plane. In addition, since shaded characters / line drawings having the same hue have different saturations, two colors can be separated by one plane of saturation, and accurate pattern matching can be performed.

【0143】請求項5記載の発明によれば、第2色空間
データは輝度、色差の3要素(輝度:1要素、色差:2
要素)を表す色空間であり、パターンマッチングは前記
3要素のうちの少なくとも1つの要素を用いて行うの
で、色ずれを防止することができる。
According to the fifth aspect of the present invention, the second color space data includes three elements of luminance and color difference (luminance: 1 element, color difference: 2 elements).
), And pattern matching is performed using at least one of the three elements, so that color shift can be prevented.

【0144】請求項6記載の発明によれば、画素ブロッ
クをN分割し、分割したブロックの情報で注目画素を含
む画素ブロックのパターン検索を行うので、ソフトエウ
アでの実現の際、画素ブロックの大型化、パターン情報
のdon't care対応などの増大する要因に対応が可能で、
的確に1つのパターンを高速に検索できる。
According to the sixth aspect of the present invention, a pixel block is divided into N parts, and a pattern search for a pixel block including a target pixel is performed based on information of the divided blocks. , And increasing factors such as don't care for pattern information.
One pattern can be accurately searched at high speed.

【0145】請求項7記載の発明によれば、比較的低階
調の連続調のカラー画像データを画素毎にT(≧2)値
化し、T値化された画像データとジャギーが発生するパ
ターンをマッチングして一致するか否かを判定し、ジャ
ギーが発生するパターンと判定された場合に、T値化さ
れた画像データに対して画素データをジャギーが発生し
ないように埋め込んでスムージング拡大処理して比較的
高階調の拡大画像を生成するようにしたので、2値画像
と中間調画像の両方のスムージング拡大処理を計算負荷
が高くなることなく行うことができる。
According to the seventh aspect of the present invention, a continuous tone color image data having a relatively low gradation is converted into a T (≧ 2) value for each pixel, and the T-valued image data and a pattern in which jaggies occur. Is determined by matching or not, and if it is determined that the pattern causes jaggy, the pixel data is embedded in the T-valued image data so as to prevent jaggies from occurring, and smoothing expansion processing is performed. Thus, an enlarged image having a relatively high gradation is generated, so that the smoothing enlargement processing of both the binary image and the halftone image can be performed without increasing the calculation load.

【0146】請求項8記載の発明によれば、拡大倍率に
応じて整数倍率と端数倍率を演算して、整数倍率でスム
ージング拡大処理した後に端数倍率で拡大処理するの
で、実数変倍に対応することができる。
According to the eighth aspect of the present invention, since the integral magnification and the fraction magnification are calculated according to the enlargement magnification, the smoothing enlargement processing is performed at the integer magnification, and then the enlargement processing is performed at the fraction magnification. be able to.

【0147】請求項9記載の発明によれば、スムージン
グ拡大処理後の整数倍率毎の複数の画素埋め込みパター
ンに基づいてスムージング拡大処理するので、処理を高
速化することができる。
According to the ninth aspect of the present invention, the smoothing enlargement processing is performed based on a plurality of pixel embedding patterns for each integral magnification after the smoothing enlargement processing, so that the processing can be sped up.

【0148】請求項10記載の発明によれば、RGBデ
ータを明るさ成分の信号と色成分の信号に変換して変換
後の信号をパターンマッチングし、変換後の信号をスム
ージング拡大処理した後に元のRGBデータに逆変換す
るので、エッジの色相が変化することを防止することが
できる。
According to the tenth aspect of the present invention, the RGB data is converted into a signal of a brightness component and a signal of a color component, and the converted signal is subjected to pattern matching. Is converted back to the RGB data, so that the hue of the edge can be prevented from changing.

【0149】請求項11記載の発明によれば、明るさ成
分の信号のみをT値の濃度信号に変換してパターンマッ
チングするので、処理を高速化することができる。
According to the eleventh aspect, since only the brightness component signal is converted into a T-value density signal and pattern matching is performed, the processing can be speeded up.

【0150】請求項12記載の発明によれば、注目画素
を含むM×N(M,N≧2)画素の多値の画像データに
基づいてT値化用の閾値を算出してT値化するので、高
画質で拡大処理することができる。
According to the twelfth aspect of the present invention, a threshold for T-value conversion is calculated based on multi-valued image data of M × N (M, N ≧ 2) pixels including a pixel of interest. Therefore, the enlargement processing can be performed with high image quality.

【0151】請求項13記載の発明によれば、比較的低
階調の連続調のカラー画像データを画素毎にT(≧2)
値化し、T値化された画像データとジャギーが発生する
パターンをマッチングして一致するか否かを判定し、ジ
ャギーが発生するパターンと判定された場合に、T値化
された画像データに対して画素データをジャギーが発生
しないように埋め込んでスムージング拡大処理して比較
的高階調の拡大画像を生成するようにしたので、2値画
像と中間調画像の両方のスムージング拡大処理を計算負
荷が高くなることなく行うことができる。
According to the thirteenth aspect of the present invention, continuous tone color image data of a relatively low gradation is converted into T (≧ 2) for each pixel.
It is determined whether or not the binarized image data is matched with a pattern in which a jaggy occurs by matching the image data converted into a T-value. The pixel data is embedded so that jaggies do not occur, and a smoothing enlargement process is performed to generate an enlarged image with a relatively high gradation. It can be done without becoming.

【0152】請求項14及び15記載の発明によれば、
注目画素を含む画素ブロックを抽出し、抽出された画素
ブロックの画像データを拡大のための色空間データに変
換し、注目画素を取り囲む画素ブロックから特徴情報を
算出するので、対象画像全部を読み込んだ後、画像の特
徴を判定するという時間の損失がない。また、画素ブロ
ック単位で適した処理が選択されるので、誤分離の影響
も少ない。さらに、前記変換工程で変換された色空間に
おいて前記画像データを拡大する複数の拡大手段を有
し、これらの拡大手段から前記算出された特徴情報に応
じて1つの拡大手段を選択して拡大し、拡大された画像
データを所望の色空間データに変換して拡大画像として
出力するので、適した色空間データで拡大され、高画質
な拡大画像を得ることができる。
According to the fourteenth and fifteenth aspects of the present invention,
The pixel block containing the target pixel is extracted, the image data of the extracted pixel block is converted into color space data for enlargement, and the feature information is calculated from the pixel block surrounding the target pixel. Later, there is no time loss in determining the features of the image. Further, since an appropriate process is selected for each pixel block, the influence of erroneous separation is small. The image processing apparatus further includes a plurality of enlargement units for enlarging the image data in the color space converted in the conversion step, and selects one enlargement unit from these enlargement units according to the calculated characteristic information to enlarge the image data. Since the enlarged image data is converted into desired color space data and output as an enlarged image, the image is enlarged with suitable color space data and a high quality enlarged image can be obtained.

【0153】請求項16記載の発明によれば、整数倍率
算出手段により入出力画像サイズ及び倍率から整数倍率
を算出し、整形手段により拡大手段によって整数倍率で
拡大された画像を所望の大きさに合わせるので、整数倍
された拡大画像をジャギー低減の効果を失うことなく、
所望する任意のサイズに変形することができる。また、
エッジ部の色ずれも起こらない。
According to the sixteenth aspect of the present invention, the integer magnification is calculated by the integer magnification calculation means from the input / output image size and the magnification, and the image enlarged by the enlargement means at the integer magnification by the shaping means is reduced to a desired size. Because it matches, without losing the effect of jaggy reduction, the enlarged image multiplied by an integer
It can be transformed to any desired size. Also,
No color shift at the edge occurs.

【0154】請求項17記載の発明によれば、注目画素
を含む画素ブロックから特徴情報を算出し、注目画素を
拡大した後、前記特徴情報に応じた変換を行うので、低
解像度画像の拡大において、鮮鋭度を保持し、ジャギー
低減を実現できる。
According to the seventeenth aspect, the characteristic information is calculated from the pixel block including the pixel of interest, and after the pixel of interest is enlarged, conversion is performed in accordance with the characteristic information. , Maintaining sharpness and reducing jaggy.

【0155】請求項18記載の発明によれば、特徴情報
に応じた変換特性を生成する変換特性生成手段をさらに
備え、拡大手段は生成された前記変換特性で拡大画素を
変換するので、特徴情報に応じて、適応的に強調処理が
行え、鮮鋭度を落とすことなく画像データを拡大するこ
とができる。
According to the eighteenth aspect of the present invention, the image processing apparatus further comprises a conversion characteristic generating means for generating a conversion characteristic according to the characteristic information, and the enlarging means converts the enlarged pixel with the generated conversion characteristic. , The enhancement process can be performed adaptively, and the image data can be enlarged without reducing the sharpness.

【0156】請求項19記載の発明によれば、変換時に
使用する複数の変換テーブルをさらに備え、選択手段に
よって特徴情報に応じて前記服すの変換テーブルから1
つの変換テーブルを選択し、選択された変換テーブルに
基づいて拡大した画素を変換するので、強調処理を行う
際に、高速で処理することが可能になる。
According to the nineteenth aspect of the present invention, a plurality of conversion tables to be used at the time of conversion are further provided, and one of the conversion tables is converted by the selection means according to the characteristic information.
Since one of the conversion tables is selected and the enlarged pixel is converted based on the selected conversion table, high-speed processing can be performed when performing the emphasis processing.

【0157】請求項20記載の発明によれば、画像情報
は輝度・色差信号であり、輝度信号の拡大は線形補間に
よって行われ、輝度信号から特徴情報を生成し、前記特
徴情報に応じた変換は、拡大後の輝度信号に対して行う
ので、輝度、色差信号による拡大で色ずれが発生するこ
とはない。また、強調処理は輝度信号のみで行うため、
高速で処理することができる。
According to the twentieth aspect, the image information is a luminance / color difference signal, and the enlargement of the luminance signal is performed by linear interpolation to generate characteristic information from the luminance signal and perform conversion according to the characteristic information. Is performed on the luminance signal after the enlargement, so that the color shift does not occur in the enlargement by the luminance and color difference signals. Also, since the emphasis processing is performed only with the luminance signal,
Can be processed at high speed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態に係る画像処理装置の
要部の拡大処理部を示すブロック図である。
FIG. 1 is a block diagram illustrating an enlargement processing unit of a main part of an image processing apparatus according to a first embodiment of the present invention.

【図2】図1における拡大処理部における処理手順を示
すフローチャートである。
FIG. 2 is a flowchart illustrating a processing procedure in an enlargement processing unit in FIG. 1;

【図3】図1におけるパターン処理部の各ファイルの具
体的な内容を示す説明図である。
FIG. 3 is an explanatory diagram showing specific contents of each file of a pattern processing unit in FIG. 1;

【図4】第1色空間から第2色空間に原画の画素ブロッ
クを変換し、原画を拡大するときの手法を示す説明図で
ある。
FIG. 4 is an explanatory diagram showing a technique for converting a pixel block of an original image from a first color space to a second color space and enlarging the original image.

【図5】ドット配置情報の作成手順を示すフローチャー
トである。
FIG. 5 is a flowchart illustrating a procedure for creating dot arrangement information.

【図6】画素ブロックを分割し、分割したブロックの情
報で注目画素を含む画像ブロックのパターン検索を行う
ときの分割状態を示す説明図である。
FIG. 6 is an explanatory diagram showing a division state when a pixel block is divided and a pattern search for an image block including a target pixel is performed using information on the divided blocks.

【図7】分割した画素ブロックの画素を用いて2byteコ
ードを生成したときの10進数との関係を示す図であ
る。
FIG. 7 is a diagram illustrating a relationship with a decimal number when a 2-byte code is generated using pixels of a divided pixel block.

【図8】本発明の第2の実施形態に係るカラー画像処理
装置を示すブロック図である。
FIG. 8 is a block diagram illustrating a color image processing apparatus according to a second embodiment of the present invention.

【図9】図8のM×Nバッファの構成を示す説明図であ
る。
FIG. 9 is an explanatory diagram showing a configuration of an M × N buffer of FIG. 8;

【図10】図8の2値化部の処理例を示す説明図であ
る。
FIG. 10 is an explanatory diagram illustrating a processing example of a binarizing unit in FIG. 8;

【図11】図8の埋め込み部の埋め込み処理を示す説明
図である。
FIG. 11 is an explanatory diagram showing an embedding process of an embedding unit in FIG. 8;

【図12】図8のカラー画像処理装置のスムージング拡
大処理手順を示すフローチャートである。
FIG. 12 is a flowchart illustrating a smoothing enlargement processing procedure of the color image processing apparatus of FIG. 8;

【図13】本発明の第3の実施形態に係るカラー画像処
理装置を示すブロック図である。
FIG. 13 is a block diagram illustrating a color image processing apparatus according to a third embodiment of the present invention.

【図14】第3の実施形態における3値化処理を示す説
明図である。
FIG. 14 is an explanatory diagram illustrating a ternarization process according to the third embodiment.

【図15】第3の実施形態におけるスムージング拡大処
理を示す説明図である。
FIG. 15 is an explanatory diagram illustrating a smoothing enlargement process according to the third embodiment.

【図16】第3の実施形態におけるスムージング拡大処
理の処理手順を示すフローチャートである。
FIG. 16 is a flowchart illustrating a processing procedure of smoothing expansion processing according to the third embodiment.

【図17】ニアレストネイバー法とバイリニア法を示す
説明図である。
FIG. 17 is an explanatory view showing a nearest neighbor method and a bilinear method.

【図18】本発明の第4の実施形態に係る画像処理装置
の構成を示すブロック図である。
FIG. 18 is a block diagram illustrating a configuration of an image processing apparatus according to a fourth embodiment of the present invention.

【図19】第4の実施形態に係る画像処理装置の処理手
順を示すフローチャートである。
FIG. 19 is a flowchart illustrating a processing procedure of an image processing apparatus according to a fourth embodiment.

【図20】本発明の第5の実施形態に係る画像処理装置
の構成を示すブロック図である。
FIG. 20 is a block diagram illustrating a configuration of an image processing apparatus according to a fifth embodiment of the present invention.

【図21】第5の実施形態に係る画像処理装置の処理手
順を示すフローチャートである。
FIG. 21 is a flowchart illustrating a processing procedure of the image processing apparatus according to the fifth embodiment.

【図22】第5の実施形態の整数倍拡大部における拡大
手段の色数だけから選択する場合の処理手順を示すフロ
ーチャートである。
FIG. 22 is a flowchart illustrating a processing procedure in the case of selecting from only the number of colors of the enlargement unit in the integral multiple enlargement unit of the fifth embodiment.

【図23】第5の実施形態の整数倍拡大部における拡大
手段の色数と色相から選択する場合の処理手順を示すフ
ローチャートである。
FIG. 23 is a flowchart showing a processing procedure in the case of selecting from the number of colors and the hue of the enlargement means in the integral multiple enlargement unit of the fifth embodiment.

【図24】第5の実施形態の整数倍拡大部における拡大
手段の色数、色相、画素の連結情報から選択する場合の
処理手順を示すフローチャートである。
FIG. 24 is a flowchart showing a processing procedure in the case of selecting from the number of colors, hue, and pixel connection information of the enlargement means in the integral multiple enlargement unit of the fifth embodiment.

【図25】画素の連結情報の生成について説明するため
の図である。
FIG. 25 is a diagram for describing generation of pixel connection information.

【図26】整数倍率算出部の動作を説明するための図で
ある。
FIG. 26 is a diagram for explaining the operation of the integer magnification calculator.

【図27】整形部の動作を説明するための図である。FIG. 27 is a diagram for explaining the operation of the shaping unit.

【図28】RGB1画素を整数倍率に応じて単純に拡大
するときの拡大方法の一例を示す図である。
FIG. 28 is a diagram illustrating an example of an enlargement method for simply enlarging one RGB pixel according to an integer magnification.

【図29】本発明の第6の実施形態に係る画像処理装置
の構成を示すブロック図である。
FIG. 29 is a block diagram illustrating a configuration of an image processing apparatus according to a sixth embodiment of the present invention.

【図30】第6の実施形態に係る画像処理装置の処理手
順を示すフローチャートである。
FIG. 30 is a flowchart illustrating a processing procedure of the image processing apparatus according to the sixth embodiment.

【図31】拡大部におけるバイリニア法として知られた
拡大方法の詳細を説明するための図である。
FIG. 31 is a diagram illustrating details of an enlargement method known as a bilinear method in an enlargement unit.

【図32】拡大部で拡大した全画素を特徴量により正規
化する強調処理部の処理手順を示すフローチャートであ
る。
FIG. 32 is a flowchart illustrating a processing procedure of an enhancement processing unit that normalizes all pixels enlarged by an enlargement unit by a feature amount.

【図33】強調処理部の変換特性を示す説明図である。FIG. 33 is an explanatory diagram illustrating conversion characteristics of an emphasis processing unit.

【図34】本発明の第7の実施形態に係る画像処理装置
の構成を示すブロック図である。
FIG. 34 is a block diagram illustrating a configuration of an image processing apparatus according to a seventh embodiment of the present invention.

【図35】第7の実施形態に係る画像処理装置の処理手
順を示すフローチャートである。
FIG. 35 is a flowchart illustrating a processing procedure of the image processing apparatus according to the seventh embodiment.

【図36】倍率間の整数倍に当たる重み係数を予め算出
しておき、倍率の入力に応じて、拡大部に重み係数を設
定して拡大する構成を示すブロック図である。
FIG. 36 is a block diagram showing a configuration in which a weighting factor corresponding to an integral multiple between magnifications is calculated in advance, and a weighting factor is set in an enlargement unit in accordance with an input of the magnification to enlarge the image.

【符号の説明】[Explanation of symbols]

100 拡大処理部 110 ファイル部 111 パターンファイル 112 ドット配置ファイル 113 画素参照ファイル 120 パターン生成部 130 パターン検索部 140 埋め込み処理部 141 埋め込み部 142 単純埋め込み部 150 整数倍率 160 画素ブロック 801 RGB/YIQ変換部 802 M×Nバッファ 803 2値化部 803a T値化部 804 パターンマッチング処理部 805 パターン記憶部 806 埋め込み部 806−1 単純埋め込み部 806−2 テンプレート埋め込み部 806−3 テンプレート記憶部 807 色成分拡大部 808 YIQ/RGB変換部 809 端数変倍部 810 倍率演算部 811 合成部 1801 M×N画素ブロック 1802 第1の色空間データ変換部 1803 第1の拡大手段 1804 第2の拡大手段 1805 第3の拡大手段 1806 第4の拡大手段 1807,2006 選択部 1808 第2の色空間データ変換部 1809,2002 特徴量算出部 2001 RGB:M×N画素ブロック 2003 RGB/YIQ変換部 2004 輝度Y:M×N画素ブロック 2005 整数倍拡大部 20051 第1の拡大手段 20052 第2の拡大手段 20053 第3の拡大手段 20054 第4の拡大手段 2007 整形部 2008 YIQ/RGB変換部 2009 整数倍率算出部 2901,3401 拡大部 29011 Y信号拡大部 29012 I,Q信号拡大部 2902,3402 強調処理部 2903 特徴情報演算部 3403 特徴情報算出部 3404 重み係数設定部 Reference Signs List 100 Enlargement processing unit 110 File unit 111 Pattern file 112 Dot arrangement file 113 Pixel reference file 120 Pattern generation unit 130 Pattern search unit 140 Embedding processing unit 141 Embedding unit 142 Simple embedding unit 150 Integer magnification 160 Pixel block 801 RGB / YIQ conversion unit 802 M × N buffer 803 Binarization section 803a T-value conversion section 804 Pattern matching processing section 805 Pattern storage section 806 Embedding section 806-1 Simple embedding section 806-2 Template embedding section 806-3 Template storage section 807 Color component expansion section 808 YIQ / RGB converter 809 Fractional scaling unit 810 Magnification calculator 811 Combiner 1801 M × N pixel block 1802 First color space data converter 1803 First enlarger 180 4 Second enlargement unit 1805 Third enlargement unit 1806 Fourth enlargement unit 1807, 2006 Selection unit 1808 Second color space data conversion unit 1809, 2002 Feature amount calculation unit 2001 RGB: M × N pixel block 2003 RGB / YIQ conversion section 2004 Luminance Y: M × N pixel block 2005 Integer multiple expansion section 20051 First expansion section 20052 Second expansion section 20053 Third expansion section 20054 Fourth expansion section 2007 Shaping section 2008 YIQ / RGB conversion section 2009 Integer magnification calculation unit 2901, 3401 Enlargement unit 29011 Y signal enlargement unit 29012 I, Q signal enlargement unit 2902, 3402 Enhancement processing unit 2903 Feature information calculation unit 3403 Feature information calculation unit 3404 Weight coefficient setting unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 CA01 CA08 CB01 CB08 CC02 CD05 CD08 CE05 CE06 CE13 5C076 AA21 AA26 AA36 BA07 BB04 BB40 CB01 CB04  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B057 CA01 CA08 CB01 CB08 CC02 CD05 CD08 CE05 CE06 CE13 5C076 AA21 AA26 AA36 BA07 BB04 BB40 CB01 CB04

Claims (20)

【特許請求の範囲】[Claims] 【請求項1】 入力された画像データに対して画像を拡
大する処理を行う画像処理装置において、 補正対象のパターン毎、かつ、倍率毎に拡大画素のドッ
ト配置情報を保持する手段と、 パターンマッチング結果及び倍率から1つのドット配置
情報を抽出する手段と、を備え、パターンマッチングの
結果に基づいて画像を拡大することを特徴とする画像処
理装置。
1. An image processing apparatus for performing processing for enlarging an image on input image data, comprising: means for holding dot arrangement information of enlarged pixels for each pattern to be corrected and for each magnification; Means for extracting one dot arrangement information from the result and the magnification, and enlarging the image based on the result of the pattern matching.
【請求項2】 前記ドット配置情報を抽出する手段は、
予め設定された倍率における拡大画素のドット配置情報
に基づいて、他の倍率の拡大画素ドット配置情報を作成
することを特徴とする請求項1記載の画像処理装置。
2. A method for extracting dot arrangement information, comprising:
2. The image processing apparatus according to claim 1, wherein enlarged pixel dot arrangement information of another magnification is created based on dot arrangement information of enlarged pixels at a preset magnification.
【請求項3】 第1色空間データから画素ブロックを切
り出し、異なる第2色の空間データへ変換し、第2色空
間データを用いてパターンマッチングを行う手段と、 パターン毎に、パターン内のどの画素情報で拡大した画
素を埋めるかの情報を有し、この情報と一致する第1色
空間の画素データを用いて拡大画素を埋める手段と、を
備えていることを特徴とする請求項1記載の画像処理装
置。
3. A means for cutting out a pixel block from the first color space data, converting the pixel block into space data of a different second color, and performing pattern matching using the second color space data. 2. A device comprising: information for determining whether to fill a pixel enlarged by pixel information; and means for filling an enlarged pixel using pixel data in a first color space that matches the information. Image processing device.
【請求項4】 前記第2色空間データは輝度、色相、彩
度の3要素を表す色空間であり、パターンマッチングは
前記3要素のうちの少なくとも1つの要素を用いて行う
ことを特徴とする請求項3記載の画像処理装置。
4. The second color space data is a color space representing three elements of luminance, hue, and saturation, and pattern matching is performed using at least one of the three elements. The image processing device according to claim 3.
【請求項5】 第2色空間データは輝度と2つの色差の
3要素を表す色空間であり、パターンマッチングは前記
3要素のうちの少なくとも1つの要素を用いて行うこと
を特徴とする請求項3記載の画像処理装置。
5. The second color space data is a color space representing three elements of luminance and two color differences, and pattern matching is performed using at least one of the three elements. 3. The image processing device according to 3.
【請求項6】 画素ブロックをN分割し、分割したブロ
ックの情報で注目画素を含む画素ブロックのパターン検
索を行う手段を備えていることを特徴とする請求項1な
いし5のいずれか1項に記載の画像処理装置。
6. The apparatus according to claim 1, further comprising: means for dividing the pixel block into N, and performing a pattern search for a pixel block including a target pixel based on information on the divided block. The image processing apparatus according to any one of the preceding claims.
【請求項7】 入力された画像データに対して画像を拡
大する処理を行う画像処理装置において、 比較的低階調の連続調のカラー画像データを画素毎にT
(Tは2以上の整数)値化するT値化手段と、 前記T値化手段によりT値化された画像データとジャギ
ーが発生するパターンをマッチングして一致するか否か
を判定するパターンマッチング手段と、 前記パターンマッチング手段によりジャギーが発生する
パターンと判定された場合に、前記T値化された画像デ
ータに対して画素データをジャギーが発生しないように
埋め込んでスムージング拡大処理して比較的高階調の拡
大画像を生成する埋め込み手段と、を備えていることを
特徴とする画像処理装置。
7. An image processing apparatus for performing a process of enlarging an image with respect to input image data, comprising:
(T is an integer of 2 or more) T-value conversion means for converting a value, and pattern matching for determining whether or not the image data converted to a T-value by the T-value conversion means and a pattern in which jaggies occur coincide with each other. Means for embedding pixel data in the T-valued image data so as not to cause jaggies and performing smoothing enlargement processing on the T-valued image data when the pattern matching means determines that the pattern causes jaggies; An image processing device comprising: an embedding unit that generates an enlarged image of a tone.
【請求項8】 拡大倍率に応じて整数倍率と端数倍率を
演算する手段を更に備え、前記埋め込み手段により前記
整数倍率でスムージング拡大処理した後に、前記端数倍
率で拡大処理することを特徴とする請求項7記載の画像
処理装置。
8. The method according to claim 1, further comprising: means for calculating an integer magnification and a fraction magnification according to the enlargement magnification, wherein after performing the smoothing enlargement processing at the integer magnification by the embedding means, the enlargement processing is performed at the fraction magnification. Item 8. The image processing device according to Item 7.
【請求項9】 前記埋め込み手段は、スムージング拡大
処理後の整数倍率毎の複数の画素埋め込みパターンに基
づいてスムージング拡大処理することを特徴とする請求
項8記載の画像処理装置。
9. The image processing apparatus according to claim 8, wherein the embedding unit performs the smoothing enlargement processing based on a plurality of pixel embedding patterns for each integer magnification after the smoothing enlargement processing.
【請求項10】 RGBデータを明るさ成分の信号と色
成分の信号に変換する手段を更に備え、前記パターンマ
ッチング手段により前記変換後の信号をパターンマッチ
ングし、前記埋め込み手段により前記変換後の信号をス
ムージング拡大処理した後に、元のRGBデータに逆変
換することを特徴とする請求項7ないし9のいずれか1
項に記載の画像処理装置。
10. The apparatus further comprises means for converting RGB data into a signal of a brightness component and a signal of a color component, wherein the pattern matching means performs pattern matching on the converted signal, and the embedding means performs the signal conversion. 10. The method according to claim 7, wherein after performing the smoothing enlargement processing, is inversely converted to the original RGB data.
An image processing apparatus according to the item.
【請求項11】 前記明るさ成分の信号のみを前記T値
化手段によりT値の濃度信号に変換して前記パターンマ
ッチング手段によりパターンマッチングすることを特徴
とする請求項10記載の画像処理装置。
11. The image processing apparatus according to claim 10, wherein only the brightness component signal is converted into a T-value density signal by the T-value conversion means and pattern matching is performed by the pattern matching means.
【請求項12】 前記T値化手段は、注目画素を含むM
×N(M,N≧2)画素の多値の画像データに基づいて
T値化用の閾値を算出してT値化することを特徴とする
請求項7ないし11のいずれか1項に記載の画像処理装
置。
12. The method according to claim 1, wherein the T-value conversion unit includes an M pixel including a pixel of interest.
12. The method according to claim 7, wherein a threshold for T-value conversion is calculated based on multi-valued image data of × N (M, N ≧ 2) pixels and converted into T-values. 13. Image processing device.
【請求項13】 入力された画像データに対して画像の
拡大処理を行う画像処理方法において、 比較的低階調の連続調のカラー画像データを画素毎にT
(Tは2以上の整数)値化する工程と、 前記T値化する工程でT値化された画像データとジャギ
ーが発生するパターンをマッチングして一致するか否か
を判定する工程と、 前記判定する工程でジャギーが発生するパターンと判定
された場合に、前記T値化された画像データに対して画
素データをジャギーが発生しないように埋め込んでスム
ージング拡大処理して比較的高階調の拡大画像を生成す
る工程と、を含んでなることを特徴とする画像処理方
法。
13. An image processing method for performing an image enlargement process on input image data, wherein a continuous tone color image data of a relatively low gradation is used for each pixel.
(T is an integer of 2 or more) binarizing; and matching the image data digitized in the binarizing step with a pattern in which jaggies occur to determine whether or not they match. If it is determined in the determining step that the pattern is a pattern in which jaggies occur, pixel data is embedded in the T-valued image data so that jaggies do not occur, and a smoothing expansion process is performed. Generating an image processing method.
【請求項14】 入力された画像データに対して画像の
拡大処理を行なう画像処理方法において、 注目画素を含む画素ブロックを抽出する工程と、 抽出された画素ブロックの画像データを拡大のための色
空間データに変換する工程と、 注目画素を取り囲む画素ブロックから特徴情報を算出す
る工程と、 前記変換工程で変換された色空間において前記画像デー
タを拡大する複数の拡大手段から前記算出された特徴情
報に応じて1つの拡大手段を選択して拡大する工程と、
を含んでなることを特徴とする画像処理方法。
14. An image processing method for performing an image enlargement process on input image data, comprising: a step of extracting a pixel block including a pixel of interest; Converting into spatial data; calculating characteristic information from a pixel block surrounding the pixel of interest; and calculating the characteristic information from a plurality of enlarging means for enlarging the image data in the color space converted in the converting step. Selecting one enlargement means according to and enlarging;
An image processing method comprising:
【請求項15】 入力された画像データに対して画像の
拡大処理を行なう画像処理装置において、 注目画素を少なくとも2つの異なる色空間データで拡大
する複数の拡大手段と、 注目画素を取り囲む画素ブロックから特徴情報を算出す
る算出手段と、 算出された特徴情報から前記複数の拡大手段のうちの1
つを選択する選択手段と、を備え、選択した拡大手段に
よって拡大した画像を出力することを特徴とする画像処
理装置。
15. An image processing apparatus for performing image enlargement processing on input image data, comprising: a plurality of enlargement means for enlarging a target pixel with at least two different color space data; and a pixel block surrounding the target pixel. Calculating means for calculating characteristic information; and one of the plurality of enlarging means from the calculated characteristic information.
An image processing apparatus comprising: a selection unit for selecting one of the plurality of output units; and outputting an image enlarged by the selected enlargement unit.
【請求項16】 入出力画像サイズ及び倍率から整数倍
率を算出する整数倍率算出手段と、 前記拡大手段によって整数倍率で拡大された画像を所望
の大きさに合わせる整形手段と、をさらに備えているこ
とを特徴とする請求項15記載の画像処理装置。
16. An image forming apparatus further comprising: an integer magnification calculating means for calculating an integer magnification from an input / output image size and a magnification; and a shaping means for adjusting an image enlarged at the integer magnification by the enlargement means to a desired size. The image processing apparatus according to claim 15, wherein:
【請求項17】 入力された画像データに対して画像の
拡大処理を行なう画像処理装置において、 注目画素を含む画素ブロックから特徴情報を算出する算
出手段と、 注目画素を拡大する拡大手段と、 前記拡大手段による画像の拡大後、前記特徴情報に応じ
た変換を行う処理手段と、を備えていることを特徴とす
る画像処理装置。
17. An image processing apparatus for performing image enlargement processing on input image data, comprising: a calculating unit configured to calculate feature information from a pixel block including a target pixel; an enlarging unit configured to expand the target pixel; Processing means for performing a conversion according to the characteristic information after enlarging the image by the enlarging means.
【請求項18】 前記特徴情報に応じた変換特性を生成
する変換特性生成手段をさらに備え、前記拡大手段は拡
大画素を生成された前記変換特性で変換することを特徴
とする請求項17記載の画像処理装置。
18. The image processing apparatus according to claim 17, further comprising a conversion characteristic generating unit configured to generate a conversion characteristic according to the characteristic information, wherein the enlargement unit converts an enlarged pixel using the generated conversion characteristic. Image processing device.
【請求項19】 変換時に使用する複数の変換テーブル
をさらに備え、前記特徴情報に応じて1つの変換テーブ
ルを選択し、選択された変換テーブルに基づいて拡大し
た画素を変換することを特徴とする請求項17記載の画
像処理装置。
19. A method according to claim 19, further comprising a plurality of conversion tables used at the time of conversion, selecting one conversion table according to the characteristic information, and converting the enlarged pixels based on the selected conversion table. The image processing device according to claim 17.
【請求項20】 画像情報は輝度・色差信号であり、前
記拡大手段による輝度信号の拡大は線形補間によって行
われ、前記特徴情報は輝度信号から生成し、前記特徴情
報に応じた変換は、拡大後の輝度信号に対して行うこと
を特徴とする請求項17記載の画像処理装置。
20. The image information is a luminance / color difference signal, the enlargement of the luminance signal by the enlargement means is performed by linear interpolation, the characteristic information is generated from the luminance signal, and the conversion according to the characteristic information is performed by the enlargement. 18. The image processing apparatus according to claim 17, wherein the processing is performed on a subsequent luminance signal.
JP2000106878A 1999-05-06 2000-04-07 Image processing apparatus and image processing method Expired - Fee Related JP4115073B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000106878A JP4115073B2 (en) 1999-05-06 2000-04-07 Image processing apparatus and image processing method

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP12602199 1999-05-06
JP27699699 1999-09-29
JP11-276996 1999-10-18
JP11-295819 1999-10-18
JP11-126021 1999-10-18
JP29581999 1999-10-18
JP2000106878A JP4115073B2 (en) 1999-05-06 2000-04-07 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2001188900A true JP2001188900A (en) 2001-07-10
JP4115073B2 JP4115073B2 (en) 2008-07-09

Family

ID=27471165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000106878A Expired - Fee Related JP4115073B2 (en) 1999-05-06 2000-04-07 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4115073B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310607A (en) * 2006-05-18 2007-11-29 Fuji Xerox Co Ltd Image processing apparatus, method and program
US7414639B2 (en) 2002-07-10 2008-08-19 Ricoh Company, Ltd. Image processing apparatus, image processing method and program
JP2009211376A (en) * 2008-03-04 2009-09-17 Fuji Xerox Co Ltd Image processing apparatus and image forming apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7414639B2 (en) 2002-07-10 2008-08-19 Ricoh Company, Ltd. Image processing apparatus, image processing method and program
JP2007310607A (en) * 2006-05-18 2007-11-29 Fuji Xerox Co Ltd Image processing apparatus, method and program
US8014631B2 (en) 2006-05-18 2011-09-06 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method, and computer readable medium for generating a reduced image
JP2009211376A (en) * 2008-03-04 2009-09-17 Fuji Xerox Co Ltd Image processing apparatus and image forming apparatus
JP4506854B2 (en) * 2008-03-04 2010-07-21 富士ゼロックス株式会社 Image processing apparatus and image forming apparatus

Also Published As

Publication number Publication date
JP4115073B2 (en) 2008-07-09

Similar Documents

Publication Publication Date Title
US6075926A (en) Computerized method for improving data resolution
JP4368880B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and computer-readable recording medium
US7155069B2 (en) Image processing apparatus, image processing method, and image processing program
EP1014688B1 (en) Image processing method and apparatus, image processing system, and storage medium
EP0949585B1 (en) Apparatus and method for image data interpolation
EP0369702A2 (en) Image processing apparatus and method
JP4496602B2 (en) Image processing method and image processing apparatus
US6898332B2 (en) Image processing device and image processing method
US6289136B1 (en) Image processing method and apparatus
US5461702A (en) Method of and an apparatus for processing image data
JP2004120092A (en) Image processing apparatus, image processing system, image processing method, storage medium, and program
JP2001188900A (en) Image processor and image processing method
JP2903917B2 (en) Image editing processor
JPH07129762A (en) Sketch-fashion image generator
JP2000069308A (en) Image processor and image processing method therefor
JPH07334648A (en) Method and device for processing image
JP4265363B2 (en) Image processing device
JP3346051B2 (en) Image processing device
JP3953897B2 (en) Image processing apparatus, image processing method, and medium on which image processing program is recorded
JP3173496B2 (en) Image data interpolation apparatus, computer for image data interpolation processing, image data interpolation method, and medium recording image data interpolation program
JPH07210669A (en) Image processor and its control method
JP3054299B2 (en) Image processing apparatus and method
JPH08251397A (en) Method and device for image processing
JPH07262351A (en) Image processor and control method for the same
JPH06348834A (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070925

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080310

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080415

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110425

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110425

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120425

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130425

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140425

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees