JPH08287221A - Processor and method for image processing - Google Patents

Processor and method for image processing

Info

Publication number
JPH08287221A
JPH08287221A JP7086774A JP8677495A JPH08287221A JP H08287221 A JPH08287221 A JP H08287221A JP 7086774 A JP7086774 A JP 7086774A JP 8677495 A JP8677495 A JP 8677495A JP H08287221 A JPH08287221 A JP H08287221A
Authority
JP
Japan
Prior art keywords
image
block
stripe
pixel
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP7086774A
Other languages
Japanese (ja)
Inventor
Nobuyuki Shigee
伸之 重枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP7086774A priority Critical patent/JPH08287221A/en
Publication of JPH08287221A publication Critical patent/JPH08287221A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PURPOSE: To reduce the memory capacity used for pixel density conversion processing by an image processor which changes the density of input image data and outputs the image data. CONSTITUTION: An input image 100 is inputted by a stripe unit, to a stripe/block conversion buffer 101. The stripe/block conversion buffer 101 divides the inputted stripe image into blocks under the control of a block division address control part 102 and transfers the divided blocks images to a block image buffer 103. For the respective block image, pixel density conversion processing is performed thereafter by an outline processing part 107 and an SPC processing part 106. Then the two pixel density conversion results are selectively outputted to a block/stripe conversion part 109 according to the area decision result of an area decision part 104. The block/stripe conversion buffer 109 reproduces the stripe images by combining the respective block images supplied by pixel unit.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像処理装置及び画像
処理方法に係り、特に、入力した画像データの密度を変
更して出力する画像処理装置及び画像処理方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method, and more particularly to an image processing apparatus and an image processing method for changing the density of input image data and outputting it.

【0002】[0002]

【従来の技術】従来、ファクシミリ装置等におけるデジ
タル2値画像の画素密度変換には、SPC(Selective P
rocessing Conversion)法もしくは投影法等が提案され
用いられてきた。ここで、SPC法とは画像の変倍率に
応じて原画の各画素を倍率に対応する回数繰り返して打
点したり、周期的に画素を間引いたりすることにより画
素密度変換を行う手法である。このSPC法は、「松
本、小林:ファクシミリ画素密度変換における画品質評
価の一検討、画像電子学会誌、Vol.12,No5,pp,354-362,
1983」において開示されている。また、投影法とは原画
像を線密度の異なる変換画像面に投影し、この面内の一
画素にわたる積分値をしきい値論理により2値化して変
換画像の画素の値を決定する手法である。この投影法
は、「新井、安田:ファクシミリ線密度変換の一検討、
画像電子学会誌、Vol.7,No.1,pp11-18,1978」において
開示されている。
2. Description of the Related Art Conventionally, an SPC (Selective P
The rocessing conversion method or projection method has been proposed and used. Here, the SPC method is a method of performing pixel density conversion by repeatedly dot-printing each pixel of the original image according to the scaling ratio of the image according to the scaling ratio or by periodically thinning out pixels. This SPC method is based on "Matsumoto, Kobayashi: A Study on Image Quality Evaluation in Facsimile Pixel Density Conversion, The Institute of Image Electronics Engineers, Vol. 12, No5, pp, 354-362,".
1983 ". The projection method is a method of projecting an original image on a converted image plane having different linear densities and binarizing an integral value over one pixel in this plane by threshold logic to determine the pixel value of the transformed image. is there. This projection method is based on "Arai, Yasuda: A study of facsimile line density conversion,
The Institute of Image Electronics Engineers of Japan, Vol.7, No.1, pp11-18, 1978 ”.

【0003】さらに、2値画像の画素密度変換及びスム
ージング技術として着目画素の周囲画素のパターン参照
による平滑化の手法が「今中、et al.:ファクシミリ受
信画像の平滑化処理による高画質化、画像電子学会年次
大会予稿、No.18,1991」等において提案され、ファクシ
ミリ装置、電子ファイル及び各種周辺装置に用いられて
いる。
Further, as a pixel density conversion and smoothing technique of a binary image, a smoothing method by referring to a pattern of pixels around a pixel of interest is described in "Konaka et al .: Image quality improvement by smoothing processing of facsimile received image, Proposed in the Annual Meeting of the Institute of Image Electronics Engineers, No. 18, 1991, etc., and used for facsimile machines, electronic files and various peripheral devices.

【0004】しかしながら、上記画素密度変換法は、高
倍率の変換を行う場合、特に画像の曲線部が段階状(ギ
ザギザ)になり画質の劣化が発生する場合がある。また
周囲画素パターン参照による画素密度変換及びスムージ
ング技術においては、画像の主走査、副走査方向に対し
て着目画素の2倍・4倍といった固定倍率に対してのみ
しか対応できないという欠点があった。
However, in the above-mentioned pixel density conversion method, when a high-magnification conversion is performed, the curved portion of the image may be stepped (jagged), and the image quality may be deteriorated. Further, the pixel density conversion and smoothing technology by referring to the surrounding pixel pattern has a drawback that it can only deal with fixed magnifications such as 2 × and 4 × of the pixel of interest in the main scanning and sub scanning directions of the image.

【0005】そこで、以上の問題点を解決するために2
値画像をビットマップ形態のまま処理するのではなく、
黒画像(2値画像が白色もしくは黒色から構成される場
合)の輪郭をベクトルデータ(以下、輪郭ベクトルデー
タという)として抽出して、以降の変倍・平滑化等の処
理を輪郭ベクトルデータに対して行い、高品質な画像を
得るアウトライン・スムージング法が、特願平3−34
5062号において提案されている。以下、アウトライ
ン・スムージング法をアウトライン処理という。
Therefore, in order to solve the above problems, 2
Instead of processing the value image as it is in bitmap format,
The contour of the black image (when the binary image is composed of white or black) is extracted as vector data (hereinafter referred to as contour vector data), and the subsequent processing such as scaling and smoothing is performed on the contour vector data. The outline smoothing method for obtaining a high quality image is performed in Japanese Patent Application No. 3-34.
No. 5062. Hereinafter, the outline smoothing method is referred to as outline processing.

【0006】アウトライン処理において、輪郭ベクトル
データは始点と終点の座標データで与えられており、画
素密度変換に伴う変倍処理を行うには、座標ベクトルの
座標値を指定された倍率に応じて拡大・縮小することに
よって行う。さらに、平滑化は抽出した輪郭ベクトルの
内、平滑化処理を施すべき注目ベクトルに対して、その
近傍の輪郭ベクトルの長さ及び方向を要素とするパター
ンマッチングを行い、その結果に基づいて着目ベクトル
を定義し直すことで実現する。平滑化処理には、例え
ば、孤立点やノッチの除去、ジャギー(ギザギザパター
ン)の平滑化等の処理が含まれる。
In the outline processing, the contour vector data is given by the coordinate data of the start point and the end point, and in order to perform the scaling processing accompanying the pixel density conversion, the coordinate value of the coordinate vector is enlarged according to the designated magnification.・ Do by reducing. Further, in smoothing, among the extracted contour vectors, the target vector to be smoothed is subjected to pattern matching with the length and direction of the neighboring contour vector as elements, and the target vector is based on the result. It is realized by redefining. The smoothing process includes processes such as removal of isolated points and notches, smoothing of jaggies (jagged patterns), and the like.

【0007】ところで、以上のようなアウトライン処理
は文字または線画画像に対しては極めて効果的である
が、写真や自然画像を処理した疑似中間調画像を含む一
般的な画像に対しては大きな効果は期待できなかった。
これは、疑似中間調画像を表現する微小な画素若しくは
細線をアウトライン処理によって平滑化してしまうた
め、その領域の濃度値が変わってしまうことに起因して
いる。そこで、前述のアウトライン処理は、この問題に
対処すべく、疑似中間調画像領域と文字・線画画像領域
を判別する手段を備えており、かつ疑似中間調画像領域
には従来のSPC処理画像を選択し、文字・線画画像に
対してはアウトライン処理画像を選択する手法をも兼ね
備えている。以下、この様な手法を疑似中間調対応型ア
ウトライン処理という。
By the way, the outline processing as described above is extremely effective for a character or line drawing image, but is very effective for general images including a pseudo halftone image obtained by processing a photograph or a natural image. Couldn't expect.
This is because the minute pixels or fine lines representing the pseudo halftone image are smoothed by the outline processing, and the density value of the area is changed. Therefore, the above-mentioned outline processing is provided with means for discriminating the pseudo halftone image area from the character / line drawing image area in order to deal with this problem, and the conventional SPC processed image is selected for the pseudo halftone image area. However, it also has a method of selecting an outline processed image for a character / line drawing image. Hereinafter, such a method is referred to as pseudo-halftone compatible outline processing.

【0008】また、上記アウトライン処理においては、
極めて多くの輪郭ベクトルが抽出されることがあるため
に、それを処理する際に要するメモリは膨大なものとな
る。そこで、アウトライン処理に供するメモリの節減、
或いはアウトライン処理のパイプライン化による処理速
度の高速化を図るべく、入力画像を複数のラインで構成
されるストライプ状に分割し、ストライプ単位でアウト
ライン処理を行う手法(以下、ストライプ処理という)
が採られている。ストライプ単位に処理された画像は、
その後互いに結合されて再び全体画像として出力され
る。
Further, in the above outline processing,
Since an extremely large number of contour vectors may be extracted, the memory required for processing them becomes enormous. Therefore, saving memory for outline processing,
Alternatively, a method of dividing an input image into stripes composed of a plurality of lines and performing outline processing in stripe units in order to speed up the processing speed by making the outline processing pipelined (hereinafter referred to as stripe processing)
Is taken. The image processed in stripe units is
After that, they are combined with each other and output again as a whole image.

【0009】尚、ストライプ処理はストライプ画像の夫
々に対して平滑化処理が適用されるため、本来は平滑化
すべきでない画像(例えば、縦線が複数のストライプに
及ぶ場合等がある)がストライプ状に分割された部分で
平滑化処理されるために画質劣化を起こす場合(例え
ば、本来直線になるべきところに凹凸が生じたりする場
合等)がある。従って、この様なストライプ処理に伴う
画質劣化を防止するために、ストライプ状に分割した画
像の上下端にのりしろ部分を想定し、ストライプ画像の
結合の際に、のりしろ部分を削除する処理を行なってい
る(以下、のりしろ処理という)。これによって、余計
に平滑化処理された分割部分の画像が削除され、画質劣
化のない良好な画像が得られる。
In the striping process, since the smoothing process is applied to each of the striped images, an image that should not be originally smoothed (for example, a vertical line may extend over a plurality of stripes) is striped. There is a case where the image quality is deteriorated due to the smoothing processing in the part divided into (for example, a case where unevenness occurs where it should be a straight line). Therefore, in order to prevent the image quality deterioration due to such stripe processing, it is assumed that there are margins at the upper and lower edges of the images divided into stripes, and the process of deleting the margins is performed when combining the stripe images. (Hereinafter, it is called margin processing). As a result, the image of the divided portion subjected to the extra smoothing is deleted, and a good image without image quality deterioration can be obtained.

【0010】[0010]

【発明が解決しようとする課題】上記アウトライン処理
を用いることにより、低倍率から高倍率に渡って任意の
倍率において、比較的高品質な画像の画素密度変換を実
現することが可能である。また、上記ストライプ処理に
よりアウトライン処理に供するワークメモリを節減する
ことが可能である。
By using the outline processing described above, it is possible to realize pixel density conversion of a relatively high quality image at any magnification from low magnification to high magnification. Further, it is possible to reduce the work memory used for the outline processing by the stripe processing.

【0011】しかしながら、上記従来例におけるストラ
イプ処理は、上記のりしろ処理を考慮すると、少なくと
も3ライン分のストライプ幅を必用とし、更に、画質を
考慮すると、上記のりしろ処理のためのストライプ幅
は、上下端併せて4ライン以上を確保することが望まし
い。従って、依然として、アウトライン処理の実行に際
して、多量の輪郭ベクトルが抽出され、この輪郭ベクト
ルデータに対して平滑化及び二値画像再生等の処理を施
す必用がある。けだし、抽出された輪郭ベクトルを蓄積
するためのワークメモリとして、当然に大容量のメモリ
を必要とし、経済的な不利益は免れない。
However, the stripe processing in the above-mentioned conventional example requires a stripe width of at least 3 lines in consideration of the margin processing, and further considering the image quality, the stripe width for the margin processing is set to the upper and lower ends. It is desirable to secure at least 4 lines in total. Therefore, it is still necessary to extract a large amount of contour vectors when performing the outline processing, and to perform processing such as smoothing and binary image reproduction on the contour vector data. As a work memory for storing the extracted contour vector, a large capacity memory is naturally required, and an economic disadvantage is unavoidable.

【0012】また、大容量のメモリを上記画像処理用の
LSIに内蔵することは困難であるため、該メモリをL
SI外部に接続することを強いられる。従って、必然の
結果として、メモリアクセスに費やす時間がアウトライ
ン処理の時間を長大にする原因になる。
Since it is difficult to incorporate a large-capacity memory in the image processing LSI, the memory is
You are forced to connect to the outside of SI. Therefore, the inevitable result is that the time spent for memory access prolongs the time for outline processing.

【0013】本発明は上記問題点に鑑みなされたもので
あり、入力した画像データの密度を変更して出力する画
像処理装置において、画素密度変換処理に供するメモリ
容量を削減することを目的とする。
The present invention has been made in view of the above problems, and it is an object of the present invention to reduce the memory capacity used for pixel density conversion processing in an image processing apparatus that changes the density of input image data and outputs the image data. .

【0014】[0014]

【課題を解決するための手段】及び[Means for Solving the Problems] and

【作用】上記問題点を解決するため、本発明に係る画像
処理装置は、入力した画像データの密度を変更して出力
する画像処理装置であって、画像データをストライプ画
像単位に入力する入力手段と、入力したストライプ画像
を所定サイズのブロック画像に分割する分割手段と、分
割したブロック画像の輪郭ベクトルを抽出する輪郭ベク
トル抽出手段と、抽出した各ブロック画像の輪郭ベクト
ルを平滑化し、設定された変倍率で変倍する平滑化・変
倍手段と、変倍処理された各ブロック画像を合成して出
力画像を形成する画像形成手段とを具備することを特徴
とし、ブロック画像毎に画素密度変換処理を実行する。
In order to solve the above problems, an image processing apparatus according to the present invention is an image processing apparatus for changing the density of input image data and outputting the same, and an input means for inputting image data in stripe image units. A dividing unit that divides the input stripe image into block images of a predetermined size, a contour vector extracting unit that extracts a contour vector of the divided block image, and a contour vector of each extracted block image is smoothed and set. It is characterized by comprising a smoothing / magnifying unit for changing the magnification with a magnification ratio, and an image forming unit for synthesizing each block image subjected to the magnification process to form an output image, and converting the pixel density for each block image. Execute the process.

【0015】また、本発明に係る画像処理方法は、入力
した画像データの密度を変更して出力する画像処理方法
であって、画像データをストライプ画像単位に入力する
入力工程と、入力したストライプ画像を所定サイズのブ
ロック画像に分割する分割工程と、分割したブロック画
像の輪郭ベクトルを抽出する輪郭ベクトル抽出工程と、
抽出した各ブロック画像の輪郭ベクトルを平滑化し、設
定された変倍率で変倍する平滑化・変倍工程と、変倍処
理された各ブロック画像を合成して出力画像を形成する
画像形成工程とを具備することを特徴とし、ブロック画
像毎に画素密度変換処理を実行する。
The image processing method according to the present invention is an image processing method of changing the density of input image data and outputting the image data, which comprises an input step of inputting image data in stripe image units, and an input stripe image. A dividing step of dividing the block image into a block image of a predetermined size, a contour vector extracting step of extracting a contour vector of the divided block image,
A smoothing / magnifying process of smoothing the extracted contour vector of each block image and scaling with a set scaling ratio; and an image forming process of combining the scaled block images to form an output image. The pixel density conversion processing is executed for each block image.

【0016】[0016]

【実施例】【Example】

〔第一の実施例〕以下、本発明に係る好適な第一の実施
例を図面を参照しながら説明する。図1は本実施例に係
るアウトライン・スムージング法を用いた高画質画素密
度変換装置の構成を示すブロック図である。入力画像1
00は2値ビットマップ形態の画像であり、ライン単位
で入力する。G3規格のファクシミリ装置で通常用いら
れる画像を例にとれば、入力画像100のデータサイズ
は、200dpiスタンダード読み取りにおけるA4画
像の場合は1728×1144画素程度の大きさとな
り、200dpiファイン読み取りにおけるA4画像の
場合は1728×2288画素程度の大きさとなる。以
下、説明の便宜のため、適宜入力画像サイズとして17
28×1144画素または1728×2288画素を例
にとって説明する。
[First Embodiment] A preferred first embodiment according to the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of a high image quality pixel density conversion apparatus using the outline smoothing method according to this embodiment. Input image 1
00 is an image in the form of a binary bit map, which is input line by line. Taking an image that is normally used in a G3 standard facsimile device as an example, the data size of the input image 100 is about 1728 × 1144 pixels in the case of an A4 image in 200 dpi standard reading, and that of an A4 image in 200 dpi fine reading. In this case, the size is about 1728 × 2288 pixels. Hereinafter, for convenience of description, the input image size is appropriately set to 17
28 × 1144 pixels or 1728 × 2288 pixels will be described as an example.

【0017】入力画像100はライン単位で入力され、
上記の例の場合は、1ライン当り1728画素(bi
t)で構成される。ライン単位で入力された入力画像1
00は、予め設定しておいた所定のライン数分がストラ
イプ/ブロック変換バッファ101に格納され、画像の
ストライプ分割処理(のりしろ処理は含まない)が行わ
れる。入力画像100のストライプ分割処理は、ストラ
イプ/ブロック変換バッファ101に取り込まれるライ
ン数を、ストライプ/ブロック変換バッファ101に備
えた不図示のカウンタを用いてカウントし、そのカウン
ト値に従って画像の入出力を制御することによって実現
する。
The input image 100 is input line by line,
In the case of the above example, 1728 pixels (bi
t). Input image 1 input line by line
In 00, a predetermined number of lines set in advance are stored in the stripe / block conversion buffer 101, and an image stripe division process (excluding the margin process) is performed. In the stripe division processing of the input image 100, the number of lines captured in the stripe / block conversion buffer 101 is counted using a counter (not shown) provided in the stripe / block conversion buffer 101, and the input / output of the image is performed according to the count value. It is realized by controlling.

【0018】ストライプ/ブロック変換バッファ101
に格納されたストライプ画像は、次にブロック分割アド
レス制御部102の制御のもと、ブロック画像に分割さ
ててブロック画像バッファ103に格納される。
Stripe / block conversion buffer 101
The stripe image stored in the block image is divided into block images and stored in the block image buffer 103 under the control of the block division address control unit 102.

【0019】図3はブロック分割アドレス制御部102
によるアドレス制御を模式的に示す図である。図3にお
いて、300はストライプ画像、301乃至303はス
トライプ画像300を所定の幅に分割したブロック画像
である。Xは入力画像の主走査方向の画素数であり、前
述の例によればXの値は1728である。Yは入力画像
のストライプ幅であり、予め所定の値を設定しておく必
要がある。実際にシミュレーションを行った結果、画質
を考慮した場合でYの値は8以上であることが好まし
い。Bxは分割するブロックサイズであり、小さいほど
後の処理で必要なワークメモリが少なくて済むが、小さ
くしすぎるとブロック画像間の境界部分の処理に伴い、
全体的な処理時間が長くなる。従って、ブロックサイズ
Bxは、ストライプ幅、1ラインの画素数、メモリ容
量、必要とする処理速度等を総合的に判断して決定する
必要がある。尚、Bxもストライプ幅Yと同様に所定の
値を予め設定しておく必要がある。
FIG. 3 is a block division address control unit 102.
It is a figure which shows the address control by the typically. In FIG. 3, 300 is a stripe image, and 301 to 303 are block images obtained by dividing the stripe image 300 into a predetermined width. X is the number of pixels in the main scanning direction of the input image, and the value of X is 1728 according to the above example. Y is the stripe width of the input image, and it is necessary to set a predetermined value in advance. As a result of actual simulation, it is preferable that the value of Y is 8 or more in consideration of the image quality. Bx is a block size to be divided, and the smaller it is, the smaller the work memory required for the subsequent processing is. However, if it is too small, the boundary portion between the block images is processed.
Overall processing time increases. Therefore, the block size Bx needs to be determined by comprehensively judging the stripe width, the number of pixels on one line, the memory capacity, the required processing speed, and the like. Note that it is necessary to preset a predetermined value for Bx as well as the stripe width Y.

【0020】ストライプ/ブロック変換バッファ101
に格納されたストライプ画像300は、図3のSTAR
T1の位置から画素単位で順に読み出され、ブロック画
像バッファ103に格納される。この画素の読み出し方
向は主走査方向であり、END1の位置の画素を読み出
して、ブロック画像バッファ103に格納した時点で一
旦動作を停止する。これは、以降のアウトライン処理等
と処理速度の整合を図るためである。ここで、END1
の位置(アドレス値)は式(1)によって与えられる。
Stripe / block conversion buffer 101
The stripe image 300 stored in the
The data is sequentially read in pixel units from the position of T1 and stored in the block image buffer 103. The pixel reading direction is the main scanning direction, and when the pixel at the position of END1 is read and stored in the block image buffer 103, the operation is temporarily stopped. This is to match the processing speed with the subsequent outline processing and the like. Where END1
The position (address value) of is given by equation (1).

【0021】 END1=START1+Bx−1 ・・・式(1) 一旦停止したブロック画像バッファ103への画素の格
納は、次のラインのSTART2の位置から再度開始
し、END2の位置で再び停止する。ここで、STAR
T2の位置は式(2)によって与えられる。
END1 = START1 + Bx−1 Equation (1) Once stopped, the storage of pixels in the block image buffer 103 starts again from the position of START2 of the next line and stops again at the position of END2. Where STAR
The position of T2 is given by equation (2).

【0022】 START2=END1+(X−Bx) ・・・式(2) 以降、これらのアルゴリズムをストライプ幅Yに相当す
る回数ラインを変更しながら繰り返すことで、ブロック
画像バッファ103にはブロック画像(301乃至30
3)が生成される。ここで、ブロック画像301のnラ
イン目のSTART及びENDの位置(アドレス値)は
式(3)及び(4)で与えられる。
START2 = END1 + (X−Bx) Equation (2) After that, these algorithms are repeated while changing the number of lines corresponding to the stripe width Y, so that the block image (301) is stored in the block image buffer 103. Through 30
3) is generated. Here, the positions (address values) of START and END on the n-th line of the block image 301 are given by equations (3) and (4).

【0023】 STARTn = START1 + (n−1)X ・・・式(3) ENDn = STARTn + Bx − 1 ・・・式(4) また、ストライプ画像300の左からm番目のブロック
画像のnライン目のSTART及びENDの位置(アド
レス値)は、式(5)及び(6)で与えられる。
STARTn = START1 + (n-1) X (Equation (3)) ENDn = STARTn + Bx-1 (Equation (4)) Further, n lines of the m-th block image from the left of the stripe image 300 The positions (address values) of START and END of the eyes are given by equations (5) and (6).

【0024】 STARTnm = START1 +(n−1)X +(m−1)Bx ・・・式(5) ENDnm = STARTnm + Bx − 1 ・・・式(6) ブロック分割アドレス制御部102は、上記式(5)及
び(6)を用いてブロック画像バッファ103に対する
画素の格納を制御する。
STARTnm = START1 + (n-1) X + (m-1) Bx ... Equation (5) ENDnm = STARTnm + Bx-1 ... Equation (6) The block division address control unit 102 is The storage of pixels in the block image buffer 103 is controlled using equations (5) and (6).

【0025】このようにして、ブロック画像301をブ
ロック画像バッファ103に供給し、以降の画素密度変
換処理が終了し、ブロック画像バッファ103が空にな
ったら、次のブロック画像301について一連の処理を
実行する。しかし、処理速度が問題になる場合は、ブロ
ック画像バッファ103を2面バッファ形式もしくは3
面バッファ形式を採用して、それらのバッファを切り替
えて用いることにより、処理の高速化を図ることも可能
である。
In this way, the block image 301 is supplied to the block image buffer 103, and after the subsequent pixel density conversion processing is completed and the block image buffer 103 becomes empty, a series of processing is performed on the next block image 301. Run. However, when the processing speed becomes a problem, the block image buffer 103 is set to the two-sided buffer format or the three-screen buffer format.
It is also possible to speed up the processing by adopting the surface buffer format and switching between the buffers.

【0026】ところで、ストライプ画像300を構成す
る1ラインの画素数XがブロックサイズBxによって割
り切れない場合は、右端のブロック画像303はBxよ
りも小さいブロックサイズとなる。前述の例の場合は、
X=1728画素、Bx=10画素とすると、ストライ
プ画像300からは172ブロックのブロック画像を得
ることができ、最終ブロックのブロックサイズは8画素
となる。この場合、式(5)はそのまま適用可能であ
る。しかし、式(6)を用いて右端のブロック画像30
3のアドレスを計算する場合には、Bxに8(画素)を
代入して計算する必要がある(但し、式(5)のBxに
は10(画素)を代入してSTARTnmを計算する)。
By the way, when the number X of pixels of one line forming the stripe image 300 is not divisible by the block size Bx, the block image 303 at the right end has a block size smaller than Bx. In the example above,
If X = 1728 pixels and Bx = 10 pixels, a block image of 172 blocks can be obtained from the stripe image 300, and the block size of the final block is 8 pixels. In this case, the equation (5) can be applied as it is. However, using the formula (6), the rightmost block image 30
When calculating the address of 3, it is necessary to substitute 8 (pixels) for Bx (provided that 10 (pixels) is substituted for Bx of the equation (5) to calculate STARTnm).

【0027】以上のようにして、ブロック画像バッファ
103にはブロック画像(301乃至303)が保持さ
れ、このブロック画像に対して、疑似中間調対応型アウ
トライン処理を適用する。即ち、領域判定部104では
ブロック画像の領域判定を行い、画素単位で判定結果を
領域判定結果格納バッファ105に保持する。従って、
領域判定結果格納バッファ105は、ブロック画像バッ
ファ103と同一の容量を有する必要がある。尚、領域
判定結果はブロック画像を構成する画素が疑似中間調画
像領域に属する画素である場合、もしくは文字・線画画
像領域に属する画素である場合の2通りである。
As described above, the block images (301 to 303) are held in the block image buffer 103, and the pseudo halftone correspondence outline processing is applied to the block images. That is, the area determination unit 104 determines the area of the block image and holds the determination result in the area determination result storage buffer 105 on a pixel-by-pixel basis. Therefore,
The area determination result storage buffer 105 needs to have the same capacity as the block image buffer 103. There are two area determination results when the pixels forming the block image belong to the pseudo halftone image area or the pixels belonging to the character / line drawing image area.

【0028】前述のように、ストライプ画像300を分
割してブロック単位で処理することにより、領域判定結
果格納バッファ105は、例えばブロックサイズBxを
10bit(画素)とすると、80bit(10bit
×8ライン=80bit)の記憶容量で十分になる。一
方、従来のストライプ処理の場合は約14kbit(1
728bit×8ライン=13824bit)の領域判
定結果格納バッファ105を必要としていた。
As described above, by dividing the stripe image 300 and processing it in units of blocks, the area determination result storage buffer 105, for example, when the block size Bx is 10 bits (pixels), 80 bits (10 bits).
A storage capacity of × 8 lines = 80 bits) is sufficient. On the other hand, in the case of the conventional stripe processing, about 14 kbit (1
The area determination result storage buffer 105 of 728 bits × 8 lines = 13824 bits) is required.

【0029】また、処理速度の高速化を図るために3面
バッファ形式を用いた場合は、従来約42kbit(1
728bit×8ライン=41472bit)のブロッ
ク画像バッファ103を必要としたが、本実施例によれ
ば同様の試算から240bit(10bit×8ライン
×3=240bit)程度で十分である。以上のことか
ら、ストライプ画像300を分割して処理することによ
り、ブロック画像バッファ103の容量をを飛躍的に縮
減することが可能になる。
Further, when the three-sided buffer format is used in order to increase the processing speed, it is conventionally about 42 kbit (1
The block image buffer 103 of 728 bits × 8 lines = 41472 bits was required, but according to the present embodiment, about 240 bits (10 bits × 8 lines × 3 = 240 bits) is sufficient from the same trial calculation. From the above, it is possible to dramatically reduce the capacity of the block image buffer 103 by dividing and processing the stripe image 300.

【0030】尚、本実施例においは、領域判定部104
は、ブロック画像バッファ103の後段に配置している
が、これをストライプ/ブロック変換バッファ101及
びブロック画像バッファ103との間に位置させること
も可能である。この場合、ブロック画像バッファ103
ヘのアクセス回数が減るため、処理速度の更なる向上が
期待できる。当然のことながら、領域判定処理はストラ
イプ画像300をブロック画像に分割する際に並行して
実行され、領域判定の結果は領域判定結果格納バッファ
105に直接格納される。
In the present embodiment, the area determination unit 104
Is arranged in the latter stage of the block image buffer 103, but it can be arranged between the stripe / block conversion buffer 101 and the block image buffer 103. In this case, the block image buffer 103
Since the number of accesses to F is reduced, further improvement in processing speed can be expected. As a matter of course, the area determination processing is executed in parallel when the stripe image 300 is divided into block images, and the area determination result is directly stored in the area determination result storage buffer 105.

【0031】分割されたブロック画像は画素密度変換の
ため、SPC処理部106及びアウトライン処理部10
7に供給される。SPC処理とは、先にも説明したよう
に、画素を単純に繰り返して打点したり、または周期的
に画素を間引くことで画素密度変換を行う手法である。
一方、アウトライン処理とは画像の輪郭部分を輪郭ベク
トルデータとして抽出し、これをもとに平滑・変倍処理
を行う手法である。
Since the divided block image is subjected to pixel density conversion, the SPC processing unit 106 and the outline processing unit 10
7 is supplied. As described above, the SPC processing is a method of performing pixel density conversion by simply repeating dots to dot or periodically thinning out pixels.
On the other hand, the outline processing is a method of extracting the contour portion of the image as contour vector data and performing smoothing / magnifying processing based on the extracted contour vector data.

【0032】図2はアウトライン処理部107の構成を
示すブロック図である。アウトライン処理部107はブ
ロック画像バッファ103の出力であるブロック画像を
入力画像とし、この入力画像に対して以下の処理を施
す。即ち、輪郭ベクトル抽出部200によって、入力画
像から輪郭ベクトルを抽出し、抽出した輪郭ベクトルデ
ータを輪郭ベクトルバッファ201に格納する。平滑変
倍部202は、輪郭ベクトルバッファ201に保持され
ている輪郭ベクトルデータに対して、平滑・変倍処理を
行う。輪郭描画部204は、平滑・変倍処理された輪郭
ベクトルデータを用いて2値画像を再生する前段階とし
て、2値画像の輪郭描画を行う。FIFO203は、平
滑変倍部202と輪郭部描画部204との処理速度の整
合をとるためのFIFO(First In First Out)型のメ
モリである。輪郭描画バッファ205は輪郭描画部20
4によって輪郭を描画された2値画像を蓄積するバッフ
ァである。塗り潰し部206は、輪郭描画された画像を
もとに輪郭画像によって囲まれた内部領域を塗り潰し、
完全な2値画像を再生し、その結果を画素選択部108
に出力する。
FIG. 2 is a block diagram showing the configuration of the outline processing unit 107. The outline processing unit 107 uses the block image output from the block image buffer 103 as an input image, and performs the following processing on the input image. That is, the contour vector extraction unit 200 extracts a contour vector from the input image and stores the extracted contour vector data in the contour vector buffer 201. The smooth scaling unit 202 performs smoothing / scaling processing on the contour vector data held in the contour vector buffer 201. The contour drawing unit 204 performs the contour drawing of the binary image as a pre-stage of reproducing the binary image using the smoothed / scaled contour vector data. The FIFO 203 is a FIFO (First In First Out) type memory for matching the processing speeds of the smooth scaling unit 202 and the contour drawing unit 204. The contour drawing buffer 205 is the contour drawing unit 20.
4 is a buffer for accumulating a binary image whose contour is drawn by 4. The filling unit 206 fills the internal area surrounded by the contour image based on the contour-drawn image,
A complete binary image is reproduced, and the result is reproduced by the pixel selection unit 108.
Output to.

【0033】以下、アウトライン処理部107の動作を
説明する。輪郭ベクトル抽出部200は入力されたブロ
ック画像から黒画素と白画素の境界に位置する輪郭線を
輪郭ベクトルデータとして抽出する。輪郭ベクトルデー
タは水平ベクトル及び垂直ベクトルを基本ベクトルと
し、黒画素をベクトルの右側に見る位置関係で抽出され
る。データ抽出は予め決められた所定の大きさのマトリ
ックス・ウインドウ(例えば、3×3マトリックスウイ
ンドウ)をラスタ走査しながら、着目画素(3×3マト
リックス・ウインドウの中心画素)の周囲に位置する輪
郭座標とその輪郭座標の接続先情報を抽出する。
The operation of the outline processing unit 107 will be described below. The contour vector extraction unit 200 extracts a contour line located at a boundary between a black pixel and a white pixel from the input block image as contour vector data. The contour vector data has a horizontal vector and a vertical vector as basic vectors, and is extracted in a positional relationship in which black pixels are viewed on the right side of the vector. Data extraction is performed by raster scanning a matrix window (for example, 3 × 3 matrix window) of a predetermined size, and contour coordinates located around the pixel of interest (center pixel of the 3 × 3 matrix window). And the connection destination information of the contour coordinates.

【0034】抽出した輪郭座標の接続が未だウインドウ
を走査していない画像領域へ及ぶ場合は、当該輪郭座標
の接続情報は一旦不図示の接続未定義バッファ(輪郭ベ
クトル抽出部200に備えられている)に保持され、そ
の後輪郭座標の接続先の探索に供される。また、抽出し
た輪郭座標の接続が、ブロック画像の境界を越える場合
にも、上記と同様に処理される。以上のようにして抽出
された輪郭ベクトル座標データは、輪郭ベクトルバッフ
ァ201に格納される。
When the connection of the extracted contour coordinates extends to the image area where the window is not yet scanned, the connection information of the contour coordinates is temporarily provided in the connection undefined buffer (the contour vector extraction unit 200). ), And then used for searching the connection destination of the contour coordinates. Also, when the connection of the extracted contour coordinates crosses the boundary of the block image, the same processing as above is performed. The contour vector coordinate data extracted as described above is stored in the contour vector buffer 201.

【0035】輪郭ベクトル座標データは任意の画像に対
して必ず閉ループを構成する特徴がある。即ち、上記輪
郭ベクトル抽出部200より出力される輪郭ベクトル座
標データは、その接続情報を辿れば必ず元の輪郭ベクト
ルデータの始点に戻る。そして、ブロック画像から抽出
された輪郭ベクトル座標データ群は複数の互いに重なる
ことの無い輪郭ベクトル・ループの集合となっている。
The contour vector coordinate data has a feature that it always forms a closed loop for an arbitrary image. That is, the contour vector coordinate data output from the contour vector extraction unit 200 always returns to the starting point of the original contour vector data when the connection information is traced. The contour vector coordinate data group extracted from the block image is a set of a plurality of contour vector loops that do not overlap each other.

【0036】ところで、輪郭ベクトルバッファ201は
従来はストライプ画像全体から抽出されるデータをすべ
て保持する必要があること、輪郭ベクトル抽出処理と平
滑・変倍処理をパイプライン化する必要性から2面バッ
ファ形式をとっていたことから、非常に大きなメモリ容
量を有していた。具体的には、輪郭ベクトルのデータ幅
を32bit(座標値及び接続情報を含む)、1つのス
トライプ画像から抽出される典型的な輪郭ベクトルの本
数を4000本とした場合、約256kbit(32b
it×4000×2=256kbit)に及ぶ。
By the way, the contour vector buffer 201 is conventionally required to hold all the data extracted from the entire stripe image, and it is necessary to pipeline the contour vector extraction processing and the smoothing / magnifying processing. Since it was in the form, it had a very large memory capacity. Specifically, when the data width of the contour vector is 32 bits (including the coordinate value and the connection information), and the number of typical contour vectors extracted from one stripe image is 4000, about 256 kbit (32 b
It × 4000 × 2 = 256 kbit).

【0037】しかしながら、本実施例においては入力画
像としてブロック画像を処理するため、ブロック画像か
ら抽出されるベクトル本数も少なくなる。例えば、スト
ライプ画像を173分割すると、ブロック画像から抽出
される平均的なベクトル本数は約24本程度(4000
/173=23.1)である。従って、本実施例によれ
ば、輪郭ベクトルバッファ201は約1.6kbit
(32bit×24×2=1536bit)程度とする
ことができ、従来のメモリ容量の0.6%程度にメモリ
容量を削減することが可能となる。
However, in this embodiment, since the block image is processed as the input image, the number of vectors extracted from the block image is reduced. For example, when the stripe image is divided into 173, the average number of vectors extracted from the block image is about 24 (4000
/173=23.1). Therefore, according to this embodiment, the contour vector buffer 201 is about 1.6 kbit.
It can be set to (32 bits × 24 × 2 = 1536 bits), and the memory capacity can be reduced to about 0.6% of the conventional memory capacity.

【0038】平滑変倍部202は輪郭ベクトル座標デー
タを入力として、輪郭部分の平滑化及び画素密度変換を
実行する処理部である。
The smoothing / magnifying unit 202 is a processing unit that receives the contour vector coordinate data and executes the smoothing of the contour portion and the pixel density conversion.

【0039】平滑化処理は更に第1平滑化処理と第2平
滑化処理に分けることができる。第1平滑化処理は平滑
化処理の対象となる着目ベクトルについて、着目ベクト
ルの前後に接続すべき複数のベクトルを参照ベクトルと
して、着目ベクトル及び参照ベクトルの長さと方向とに
基づき、予め設定しておいたパターンとのマッチングを
行い、その結果に応じて着目ベクトルの再定義を行う。
勿論、ベクトルのパターンと着目ベクトルの再定義は、
2値画像の輪郭部分を平滑化するように定義しておくこ
とは言うまでもない。
The smoothing process can be further divided into a first smoothing process and a second smoothing process. The first smoothing process sets a target vector to be smoothed as a reference vector using a plurality of vectors to be connected before and after the target vector, based on the target vector and the length and direction of the reference vector. Matches with the selected pattern and redefines the vector of interest according to the result.
Of course, the redefinition of the vector pattern and the vector of interest is
It goes without saying that the contour portion of the binary image is defined so as to be smoothed.

【0040】画素密度変換処理は第1平滑化処理が施さ
れた後の輪郭ベクトル座標データに対して実行される。
画素密度変換の方法は輪郭ベクトルデータの座標値に、
変倍率を掛ける単純な演算処理を施すことによって実行
される。
The pixel density conversion process is executed on the contour vector coordinate data after the first smoothing process.
The method of pixel density conversion is the coordinate value of the contour vector data,
It is executed by performing a simple arithmetic process for multiplying the scaling factor.

【0041】一方、第2平滑化処理は変倍後の輪郭ベク
トル座標データに対して、その座標値の加重平均演算に
よって実行される。加重平均演算は一般的な数学的手法
であり、この処理の施された座標データはその座標値を
重みと見なして、より平滑化するように座標値が再定義
される。
On the other hand, the second smoothing process is executed on the contour vector coordinate data after scaling by a weighted average calculation of the coordinate values. The weighted average calculation is a general mathematical method, and the coordinate data subjected to this processing is redefined so that the coordinate values are regarded as weights and smoothed.

【0042】平滑・変倍部202を経た輪郭ベクトル座
標データは、処理速度調整用のFIFO203に一時的
に蓄積され、その後輪郭描画部204に供給される。平
滑化され、そして変倍された輪郭データは、輪郭描画部
204を経ることで2値ビットマップの輪郭画像として
再生される。輪郭描画は描画する輪郭ベクトルの傾きを
ベクトルの始点・終点座標より予め求めておき、例え
ば、主走査方向の画素を画素単位に順次ずらしながら副
走査方向の変位位置に打点(画素描画)する処理を、全
ての輪郭ベクトルに対して行う方式を用いて行うことが
できる。
The contour vector coordinate data that has passed through the smoothing / magnifying section 202 is temporarily stored in the processing speed adjusting FIFO 203, and then supplied to the contour drawing section 204. The smoothed and scaled contour data is reproduced as a contour image of a binary bitmap by passing through the contour drawing unit 204. In contour drawing, the inclination of the contour vector to be drawn is obtained in advance from the start point and end point coordinates of the vector, and for example, a process is performed in which the pixels in the main scanning direction are sequentially shifted in pixel units and the dots are drawn (pixel drawing) at the displacement position in the sub scanning direction. Can be performed using a method for all contour vectors.

【0043】輪郭描画データは輪郭描画バッファ205
上に再生される。従って、輪郭描画バッファ205は一
度に再生される画像サイズ、即ち、ブロック画像の画素
密度変換後の画像サイズ分に相当する容量を備えている
必要がある。従来、ストライプ画像単位で処理を行って
いたので、例えば画素密度変換倍率を主走査方向、副走
査方向共に3倍、ストライプ幅8ライン(その内のりし
ろ幅4ライン)を想定すると、輪郭描画バッファ205
は63kbit(1728bit×3×4ライン×3=
62208bit)の容量を必要とする。
The contour drawing data is stored in the contour drawing buffer 205.
To be played on. Therefore, the contour drawing buffer 205 needs to have a capacity corresponding to the image size reproduced at one time, that is, the image size after the pixel density conversion of the block image. Conventionally, since processing is performed in stripe image units, assuming that the pixel density conversion magnification is 3 times in both the main scanning direction and the sub scanning direction and the stripe width is 8 lines (the margin width is 4 lines), the contour drawing buffer 205
Is 63 kbit (1728 bit × 3 × 4 lines × 3 =
It requires a capacity of 62208 bits).

【0044】しかし、本実施例の如くストライプ画像を
ブロック画像に分割して処理すれば、ブロックサイズB
xを10画素とした場合、360bit程度(10bi
t×3×4ライン×3=360bit)の容量の輪郭描
画バッファ205で十分である。
However, if the stripe image is divided into block images and processed as in this embodiment, the block size B
If x is 10 pixels, then about 360 bits (10 bi
A contour drawing buffer 205 having a capacity of t × 3 × 4 lines × 3 = 360 bits) is sufficient.

【0045】輪郭描画バッファ205上に再生された2
値輪郭画像は、輪郭の内部を黒画素で塗り潰すことによ
り、最終的なアウトライン処理画像を出力する。輪郭内
部の塗り潰し処理は、塗り潰し部206で行われる。
2 reproduced on the contour drawing buffer 205
The value contour image outputs the final outline processed image by filling the inside of the contour with black pixels. The filling processing inside the contour is performed by the filling unit 206.

【0046】具体的には輪郭描画バッファ205に保持
されている輪郭画像を主走査方向にラスタ型スキャンし
ながら、隣接する2画素(スキャン対象の画素と前回ス
キャンした画素)の画素値の排他的論理和演算を行い、
その結果でスキャン対象の画素値を置換することによ
り、輪郭画像の内部を塗り潰すことが可能である。従っ
て、塗り潰し部206は隣接する2画素の一方の画素値
(前回スキャンした画素値)を保持するためラッチ回路
と、排他的論理和回路から構成される。
Specifically, while the contour image stored in the contour drawing buffer 205 is raster-scanned in the main scanning direction, the pixel values of two adjacent pixels (the pixel to be scanned and the pixel previously scanned) are exclusive. Performs a logical sum operation,
By replacing the pixel value of the scan target with the result, the inside of the contour image can be filled. Therefore, the filling unit 206 is composed of a latch circuit for holding one pixel value (pixel value of the previous scan) of two adjacent pixels, and an exclusive OR circuit.

【0047】例えば、白画素(画素値は0とする)同士
が隣接する場合は出力は白画素であり、結果として画値
素の置換は行われない。また、白画素に次いで黒画素
(画素値は1とする)をスキャンした場合は出力は黒画
素となり、この場合も画素値の置換は行われない。一
方、黒画素に次いで白画素をスキャンした場合は出力が
黒画素であるから、白画素は黒画素によって置換され、
次の画素が白画素の場合でも再び黒画素が出力される。
従って、白画素に次いで黒画素をスキャンした場合、以
降にスキャンした画素が白画素である限り、その画素は
黒画素によって置換され、再度黒画素をスキャンするま
で黒画素による置換が行われる。一方、ブロック画像の
1ラインに黒画素が1つしか存在しない場合には、ブロ
ック画像の右端の置換後の画素値を、次のブロック画像
を処理するまで保持することによって、ブロック画像間
の整合をとる。
For example, if white pixels (pixel values are 0) are adjacent to each other, the output is a white pixel, and as a result, pixel value replacement is not performed. When a black pixel (pixel value is 1) is scanned next to a white pixel, the output becomes a black pixel, and in this case also, the pixel value is not replaced. On the other hand, when a white pixel is scanned next to a black pixel, the output is a black pixel, so the white pixel is replaced by the black pixel,
Even if the next pixel is a white pixel, a black pixel is output again.
Therefore, when the black pixel is scanned after the white pixel, as long as the pixel scanned after that is the white pixel, the pixel is replaced by the black pixel, and the replacement by the black pixel is performed until the black pixel is scanned again. On the other hand, when there is only one black pixel in one line of the block image, the pixel value after replacement at the right end of the block image is held until the next block image is processed, so that matching between block images is performed. Take

【0048】尚、この塗り潰しアルゴリズムは輪郭描画
画像の一部が水平線の場合、及び1画素突起(へこみ)
の場合には適用できず、それぞれ特殊処理が必要とされ
る。特殊処理の対象となるパターンは、輪郭形状のパタ
ーンマッチングによって検知し、特例パターンを適用す
る。本実施例の塗り潰し部206は、これらの処理機構
も備えている。
This filling algorithm is used when a part of the contour drawing image is a horizontal line, and when one pixel is projected (dent).
In case of, it is not applicable and special processing is required for each. The pattern that is the target of the special processing is detected by the pattern matching of the contour shape, and the special pattern is applied. The filling unit 206 of this embodiment also includes these processing mechanisms.

【0049】以上のようにアウトライン処理されたブロ
ック画像は、平滑処理及び画像密度変換処理画像とし
て、ブロック画像の形態で出力され画素選択部108に
供給される。
The block image outline-processed as described above is output in the form of a block image and supplied to the pixel selection unit 108 as a smoothing-processed and image density conversion-processed image.

【0050】SPC処理部106及びアウトライン処理
部107によって画素密度変換処理が施されたブロック
画像は、画素単位で夫々画素選択部108に供給され
る。画素選択部108は予め領域判定部104によって
領域判定された結果を参照しながら、SPC処理部10
6による画素もしくはアウトライン処理部107による
画素いずれかを選択して出力する。即ち、領域判定結果
が疑似中間調領域に属する画素である場合はSPC処理
部106からの出力画素を選択し、一方、文字・線画領
域に属する画素である場合はアウトライン処理部107
からの出力画素を選択する。
The block images subjected to the pixel density conversion processing by the SPC processing unit 106 and the outline processing unit 107 are supplied to the pixel selection unit 108 on a pixel-by-pixel basis. The pixel selection unit 108 refers to the result of the area determination performed by the area determination unit 104 in advance, and refers to the SPC processing unit 10
6 or the pixel by the outline processing unit 107 is selected and output. That is, if the region determination result is a pixel belonging to the pseudo halftone region, the output pixel from the SPC processing unit 106 is selected, while if it is a pixel belonging to the character / line drawing region, the outline processing unit 107 is selected.
Select the output pixel from.

【0051】領域判定結果はブロック画像全体につい
て、領域判定結果格納バッファ105に格納されてお
り、画素単位でこれを参照する。この時、SPC処理部
106もしくはアウトライン処理部107の出力画像は
画素密度変換されており、一方、領域判定結果格納バッ
ファ105に格納されている判定結果は画素密度変換前
のブロック画像に対応するため、判定結果を反映させる
対象画素の画素密度が異なる。そこで、領域判定結果を
画素選択部108に適用するときは、判定結果について
もSPC処理部112を用いて画素密度を変換し、対象
画素密度の整合を図る。尚、SPC処理部112はSP
C処理部106と同様の構成でよい。
The area determination result is stored in the area determination result storage buffer 105 for the entire block image and is referred to for each pixel. At this time, the output image of the SPC processing unit 106 or the outline processing unit 107 has been subjected to the pixel density conversion, while the determination result stored in the region determination result storage buffer 105 corresponds to the block image before the pixel density conversion. , The pixel densities of the target pixels on which the determination result is reflected are different. Therefore, when the area determination result is applied to the pixel selection unit 108, the pixel density of the determination result is also converted by using the SPC processing unit 112 to match the target pixel density. The SPC processing unit 112 is an SP
A configuration similar to that of the C processing unit 106 may be used.

【0052】画素選択処理部108によって、SPC処
理部106若しくはアウトライン処理処理部107のい
ずれかの出力に係る画素が選択出力され、この選択出力
された画素はブロック/ストライプ変換バッファ109
に格納される。このようにしてブロック単位で処理され
たブロック画像はブロック/ストライプ変換バッファ1
09に逐次格納され、ブロック画像同士の結合がなされ
再びストライプ画像として再現される。
The pixel selection processing unit 108 selectively outputs a pixel related to the output of the SPC processing unit 106 or the outline processing processing unit 107, and the pixel thus selected and output is the block / stripe conversion buffer 109.
Stored in. The block image processed in the block unit in this way is the block / stripe conversion buffer 1.
Sequentially stored in 09, the block images are combined and reproduced again as a stripe image.

【0053】ブロック画像の結合処理は、ブロック/ス
トライプ変換バッファ109に選択画素を格納する処理
に伴って行われ、その制御はブロック結合アドレス制御
処理部110によって行われる。即ち、ブロック/スト
ライプ変換バッファ109に画素単位に供給される画素
密度変換後のブロック画像は、夫々の画素の座標値に対
応する位置(アドレス)に格納される。尚、ブロック/
ストライプ変換バッファ109のメモリ領域は画素密度
変換後のストライプ画像のサイズに相当する容量を有す
る。また、ストライプ画像をブロック分割したときに設
定したブロックサイズBxは、同一の値がブロック結合
アドレス制御部110にも保持されており、ブロック結
合アドレス制御部110は、このブロックサイズBx
と、画像の変倍率から画素密度変換後のブロックサイズ
(ブロック/ストライプ変換バッファ109上のブロッ
クサイズ)を算出することができる。
The block image combination processing is performed along with the processing of storing the selected pixel in the block / stripe conversion buffer 109, and the control is performed by the block combination address control processing unit 110. That is, the block image after pixel density conversion, which is supplied to the block / stripe conversion buffer 109 on a pixel-by-pixel basis, is stored at the position (address) corresponding to the coordinate value of each pixel. In addition, block /
The memory area of the stripe conversion buffer 109 has a capacity corresponding to the size of the stripe image after pixel density conversion. Further, the same value is held in the block combination address control unit 110 as the block size Bx set when the stripe image is divided into blocks, and the block combination address control unit 110 determines the block size Bx.
Then, the block size after the pixel density conversion (block size on the block / stripe conversion buffer 109) can be calculated from the image scaling ratio.

【0054】画素選択部108から出力された最初の画
素は、ブロック/ストライプ変換バッファ109の第1
ライン目のSTART1の位置に格納される。以下、出
力された選択画素は逐次ブロック/ストライプ変換バッ
ファ109に格納される。この時の画素蓄積方向はスト
ライプ画像の主走査方向である。そして、画素密度変換
後のブロックサイズに相当する個数の選択画素を格納し
て、画素の格納位置がEND1の位置に達したら、一旦
ブロック/ストライプ変換バッファ109への格納を中
断する。これは、アウトライン処理部107等との処理
速度を調整するためである。ここで注意すべきことは、
ブロック画像の結合処理におけるSTART及びEND
の相対的な位置は、ストライプ画像300をブロック画
像に分割する際のSTART及びENDと同一である
が、そのアドレス値は異なる。ブロック画像の結合処理
は画素密度変換後の画像に対してなされるからである。
The first pixel output from the pixel selection unit 108 is the first pixel of the block / stripe conversion buffer 109.
It is stored at the position of START1 on the line. Hereinafter, the output selected pixels are sequentially stored in the block / stripe conversion buffer 109. The pixel accumulation direction at this time is the main scanning direction of the stripe image. Then, the number of selected pixels corresponding to the block size after the pixel density conversion is stored, and when the pixel storage position reaches the position of END1, the storage in the block / stripe conversion buffer 109 is temporarily stopped. This is to adjust the processing speed with the outline processing unit 107 and the like. The important thing to note here is
START and END in block image combination processing
The relative position of is the same as START and END when the stripe image 300 is divided into block images, but their address values are different. This is because the block image combining process is performed on the image after the pixel density conversion.

【0055】以下、2ライン目以降についても同様の処
理を繰り返し実行することによって、ブロック画像30
1に対応する画素密度変換後のブロック画像を再生す
る。また続くブロック画像302以降についても同様の
処理を繰り返すことによって、ストライプ画像300を
再生する。
Hereinafter, the block image 30 is obtained by repeatedly executing the same processing for the second and subsequent lines.
The block image after pixel density conversion corresponding to 1 is reproduced. The stripe image 300 is reproduced by repeating the same processing for the subsequent block images 302 and thereafter.

【0056】以上のようにしてブロック画像単位で処理
されたブロック画像は、ブロック/ストライプ変換バッ
ファ109で、再び画素密度変換後の2値ストライプ画
像として結合される。そして、再生されたストライプ画
像は画像出力111の仕様に合わせて出力される。画像
出力装置としては、例えばレーザビームプリンタ(LB
P)やインク吐出型のプリンタ等がある。LBPの場合
は、画像出力はライン単位で出力される。一方、インク
吐出型のプリンタの場合は複数ライン分を一度に印字す
るので、ブロック/ストライプ変換バッファ109から
の画像出力は複数ラインをパラレル出力することにな
る。
The block images processed in block image units as described above are combined again in the block / stripe conversion buffer 109 as a binary stripe image after pixel density conversion. Then, the reproduced stripe image is output according to the specifications of the image output 111. The image output device is, for example, a laser beam printer (LB).
P) and ink discharge type printers. In the case of LBP, image output is output line by line. On the other hand, in the case of an ink discharge type printer, since a plurality of lines are printed at once, the image output from the block / stripe conversion buffer 109 is to output a plurality of lines in parallel.

【0057】尚、ブロック分割アドレス制御部102及
びブロック結合アドレス制御部110に代表されるよう
に、メモリアドレス制御を統括して行う必要があり、こ
れは、制御プログラムを格納したメモリを有するCPU
によって、実現してもよいし、ハードウエアとして構成
してもよい。
As typified by the block division address control unit 102 and the block combination address control unit 110, it is necessary to control the memory address in a centralized manner. This is a CPU having a memory storing a control program.
It may be realized by, or may be configured as hardware.

【0058】以上説明したように、ストライプ画像をよ
りデータ量の少ないブロック画像に分割して、ブロック
画像単位に画素密度変換処理を実行することによって、
処理に供するメモリを飛躍的に削減することができる。
As described above, the stripe image is divided into block images having a smaller amount of data, and the pixel density conversion processing is executed in block image units,
The memory used for processing can be dramatically reduced.

【0059】また、これに付随して、画素密度変換処理
に要するメモリを画像処理部と一体化して1つのチップ
に内蔵することが容易になる。そして、この1チップ化
による副次的な効果として、外部メモリのアクセスに伴
う処理速度の低下を防ぐことができ、全体の処理速度を
高速化することが可能になる。 〔第二の実施例〕本実施例は、ストライプ画像をブロッ
ク画像に分割して、そのブロック画像について画素密度
変換処理を施し、再びストライプ画像を再生するまでの
処理を、より簡易かつ高速に行う手法を提供するもので
ある。以下、図を参照しながら本発明に係る第2の好適
な実施例について説明する。
In addition, accompanying this, it becomes easy to integrate the memory required for the pixel density conversion processing with the image processing unit to be built in one chip. As a side effect of this one-chip implementation, it is possible to prevent a decrease in processing speed due to access to the external memory, and it is possible to increase the overall processing speed. Second Embodiment In the present embodiment, the stripe image is divided into block images, the pixel density conversion processing is performed on the block image, and the processing until the stripe image is reproduced again is performed more simply and at high speed. It provides a method. Hereinafter, a second preferred embodiment according to the present invention will be described with reference to the drawings.

【0060】図4は本実施例に係るアウトライン・スム
ージング法を用いた高画質画素密度変換装置の構成を示
すブロック図である。第一の実施例と同様の機能を有す
るブロックについては同一の符号を付している。入力画
像100はライン単位でストライプ/ブロック変換バッ
ファ401に格納され、画像出力の際にストライプ画像
分割が行われる。ストライプ幅及び分割するブロック画
像のサイズについては、予め所定の値を設定する。前述
のように、ストライプ処理においては、良好な画質を考
慮して、ストライプ幅は8ライン程度を確保するのが好
ましく、また、ブロックサイズは画質及びワークメモリ
の容量等を考慮して、10画素程度に設定することが望
ましい。
FIG. 4 is a block diagram showing the arrangement of a high image quality pixel density conversion apparatus using the outline smoothing method according to this embodiment. The blocks having the same functions as those in the first embodiment are designated by the same reference numerals. The input image 100 is stored in the stripe / block conversion buffer 401 line by line, and stripe image division is performed when outputting the image. A predetermined value is set in advance for the stripe width and the size of the block image to be divided. As described above, in stripe processing, it is preferable to secure a stripe width of about 8 lines in consideration of good image quality, and a block size of 10 pixels in consideration of image quality and the capacity of work memory. It is desirable to set it to a degree.

【0061】予め設定されたストライプ幅Yのライン画
像が入力されると、次にストライプ画像300の右端か
ら所定のブロックサイズBxのブロック画像を、ストラ
イプ幅Yに相当するビット幅のパラレル画像転送バス4
20を介して、パラレル出力し、ブロック画像バッファ
403に転送、格納する。尚、パラレル画像転送バス4
20は、前述の例によれば8ビットバスで構成される。
ストライプ/ブロック変換バッファ401は、ストライ
プ画像300をシリアル/パラレル変換して、ストライ
プ画像300の右端から順にブロック画像をパラレル出
力する。
When a line image having a preset stripe width Y is input, a block image having a predetermined block size Bx is then transferred from the right end of the stripe image 300 to a parallel image transfer bus having a bit width corresponding to the stripe width Y. Four
It is output in parallel via 20 and is transferred and stored in the block image buffer 403. The parallel image transfer bus 4
20 comprises an 8-bit bus according to the above example.
The stripe / block conversion buffer 401 performs serial / parallel conversion on the stripe image 300 and sequentially outputs the block images in parallel from the right end of the stripe image 300.

【0062】ストライプ/ブロック変換バッファ401
への画像のライン転送の終了タイミング、所定のブロッ
クサイズに画像を分割してパラレル出力する一連のタイ
ミング制御は、ブロック分割アドレス制御部402で行
われる。
Stripe / block conversion buffer 401
The block division address control unit 402 performs the timing of ending the line transfer of the image to and the series of timing control for dividing the image into a predetermined block size and outputting the images in parallel.

【0063】ストライプ/ブロック変換バッファ40
1、ブロック分割アドレス制御部402、ブロック画像
バッファ403は、第一の実施例におけるストライプ/
ブロック変換バッファ101、ブロック分割アドレス制
御部102、ブロック画像バッファ103に夫々対応し
ているが、夫々の機能は第一の実施例と異なる。ブロッ
ク画像バッファ403に格納された各ブロック画像は、
第一の実施例において説明したアウトライン処理部10
7、SPC処理部106、領域判定部104等の画素密
度変換部400を経て、画素選択部108から画素単位
で出力され、ブロック結合アドレス制御部410の制御
に従って、ブロック/ストライプ変換バッファ409に
順次格納される。ブロック/ストライプ変換バッファ4
09に画素単位で格納されたブロック画像は他のブロッ
ク画像と結合され、ストライプ画像300が再生され
る。
Stripe / block conversion buffer 40
1, the block division address control unit 402, and the block image buffer 403 are stripes / pixels in the first embodiment.
The block conversion buffer 101, the block division address control unit 102, and the block image buffer 103 respectively correspond, but their respective functions are different from those of the first embodiment. Each block image stored in the block image buffer 403 is
Outline processing unit 10 described in the first embodiment
7, through the pixel density conversion unit 400 such as the SPC processing unit 106 and the region determination unit 104, the pixel selection unit 108 outputs the data in pixel units, and sequentially to the block / stripe conversion buffer 409 under the control of the block combination address control unit 410. Is stored. Block / stripe conversion buffer 4
The block image stored in 09 in pixel units is combined with another block image, and the stripe image 300 is reproduced.

【0064】図5は、ブロック画像のパラレル転送及び
画素密度変換処理後のストライプ画像の再生の流れを模
式的に示した図である。
FIG. 5 is a diagram schematically showing the flow of parallel transfer of block images and reproduction of stripe images after pixel density conversion processing.

【0065】ライン単位で入力された入力画像100は
ストライプ/ブロック変換バッファ401に格納され
る。ストライプ画像300は、8ライン分の画像が入力
されることによって得られ、ブロック画像(301乃至
303)に分割されて、ストライプ画像300の右端の
ブロック画像303から順にパラレル画像転送バス42
0を介してブロック画像バッファ403にパラレル転送
される。
The input image 100 input line by line is stored in the stripe / block conversion buffer 401. The stripe image 300 is obtained by inputting an image for eight lines, is divided into block images (301 to 303), and the parallel image transfer bus 42 is sequentially arranged from the block image 303 at the right end of the stripe image 300.
It is transferred in parallel to the block image buffer 403 via 0.

【0066】以降、第一の実施例と同様の処理を画素密
度変換部400において施された後、画素単位でブロッ
ク/ストライプ変換バッファ409に転送され、ブロッ
ク/ストライプ変換バッファ409において、再びスト
ライプ画像300aが再生される。ストライプ/ブロッ
ク変換バッファ401において、分割されたブロック画
像(301乃至303)は、ストライプ画像300の右
端のブロック画像303から順にパラレル転送されるた
め、ブロック/ストライプ変換バッファ409において
は、右端のブロック画像303aから順に再生される。
尚、300a、301a乃至303aは、画素密度変換
部400において処理された後のストライプ画像及びブ
ロック画像を示している。以上のように、ブロック画像
をパラレル転送することにより、ブロック画像の転送速
度を高速化し、その結果として、全体の処理速度の高速
化を図ることが可能になる。
After that, the same processing as that in the first embodiment is performed in the pixel density conversion unit 400, and then transferred to the block / stripe conversion buffer 409 in pixel units, and again in the block / stripe conversion buffer 409. 300a is reproduced. In the stripe / block conversion buffer 401, the divided block images (301 to 303) are sequentially transferred in parallel from the block image 303 at the right end of the stripe image 300. Therefore, in the block / stripe conversion buffer 409, the block image at the right end is transferred. Playback starts from 303a.
Note that reference numerals 300a, 301a to 303a indicate the stripe image and the block image after being processed by the pixel density conversion unit 400. As described above, by transferring the block images in parallel, the transfer speed of the block images can be increased, and as a result, the overall processing speed can be increased.

【0067】尚、画素選択部108及びブロック/スト
ライプ変換バッファ409の間に、画素単位のシリアル
画像データをパラレル画像データに変換するためのブロ
ック画像バッファ(不図示)を配置し、このブロック画
像バッファからブロック/ストライプ変換バッファ40
9へのブロック画像(301a乃至303a)の転送を
パラレルデータ形式にしてもよい。
A block image buffer (not shown) for converting pixel-by-pixel serial image data into parallel image data is arranged between the pixel selection unit 108 and the block / stripe conversion buffer 409. To block / stripe conversion buffer 40
The transfer of the block images (301a to 303a) to the image processing apparatus 9 may be performed in the parallel data format.

【0068】次に、ストライプ/ブロック変換バッファ
401におけるブロック分割及びパラレル変換の具体例
を図6乃至図8を参照しながら説明する。
Next, specific examples of block division and parallel conversion in the stripe / block conversion buffer 401 will be described with reference to FIGS. 6 to 8.

【0069】図6はシフトレジスタを用いてストライプ
/ブロック変換バッファ401を構成した例を示す図で
ある。シフトレジスタ601乃至608は、1ライン分
の画素数に相当するシフトレジスタである。また、シフ
トレジスタ(601乃至608)の本数はストライプ幅
に対応し、前述の例の場合は8個とすればよい。この場
合、シフトレジスタ601は1ライン目、シフトレジス
タ602は2ライン目シフトレジスタ608は8ライン
目に夫々対応する。
FIG. 6 is a diagram showing an example in which the stripe / block conversion buffer 401 is constructed using shift registers. The shift registers 601 to 608 are shift registers corresponding to the number of pixels for one line. Further, the number of shift registers (601 to 608) corresponds to the stripe width, and in the case of the above example, it may be set to eight. In this case, the shift register 601 corresponds to the first line, the shift register 602 corresponds to the second line, and the shift register 608 corresponds to the eighth line.

【0070】シフトクロックSC1乃至SC8のシフト
レジスタのシフトクロック(SC)入力には、ブロック
分割アドレス制御部402から供給されるシフトクロッ
クSC1乃至SC8が入力される。
The shift clocks SC1 to SC8 supplied from the block division address controller 402 are input to the shift clock (SC) inputs of the shift clocks SC1 to SC8.

【0071】図7は入力画像100の入力時におけるシ
フトクロックSC1乃至SC8の制御を示すタイミング
チャートである。シフトクロックSC1乃至SC8は、
入力画像100の入力中においては、夫々のラインに相
当する入力画像100が入力される期間のみ供給するこ
とによって、画像データをシフトする。即ち、ストライ
プ画像300の1ライン目の入力中は、シフトクロック
SC1のみを供給し、他のシフトクロックSC2乃至S
C8を停止することによって、シフトレジスタ601の
みを動作させる。また、ストライプ画像300の2ライ
ン目の入力中は、シフトクロックSC2のみを供給し、
他のシフトクロックSC1及びSC3乃至SC8を停止
することによって、シフトレジスタ602のみを動作さ
せる。以下、3ライン目以降のラインについても同様
に、入力するラインに基づいて、SC3乃至SC8のい
づれか1つを供給することによって、ストライプ画像3
00を取り込む。
FIG. 7 is a timing chart showing the control of the shift clocks SC1 to SC8 when the input image 100 is input. The shift clocks SC1 to SC8 are
While inputting the input image 100, the image data is shifted by supplying the input image 100 corresponding to each line only during the input period. That is, during the input of the first line of the stripe image 300, only the shift clock SC1 is supplied, and the other shift clocks SC2 to S2.
By stopping C8, only the shift register 601 is operated. Further, while inputting the second line of the stripe image 300, only the shift clock SC2 is supplied,
Only the shift register 602 is operated by stopping the other shift clocks SC1 and SC3 to SC8. Similarly, for the third and subsequent lines, the stripe image 3 is supplied by supplying any one of SC3 to SC8 based on the input line.
Take in 00.

【0072】図8は、ストライプ画像300に相当する
入力画像100をブロック分割して画素密度変換部40
0に供給する際のシフトクロックSC1乃至SC8の制
御を示すタイミングチャートである。入力されたストラ
イプ画像300をブロック画像バッファ403に供給す
るときは、分割するブロック画像のブロックサイズBx
に対応する数のシフトクロックSC1乃至SC8を同時
に供給することによって、パラレル画像データをパラレ
ル画像転送バス420を介して、画素密度変換部400
に供給する。
In FIG. 8, the input image 100 corresponding to the stripe image 300 is divided into blocks, and the pixel density conversion section 40 is divided.
6 is a timing chart showing control of shift clocks SC1 to SC8 when supplying 0 to 0. When supplying the input stripe image 300 to the block image buffer 403, the block size Bx of the block image to be divided
By simultaneously supplying a number of shift clocks SC1 to SC8 corresponding to the parallel image data via the parallel image transfer bus 420.
Supply to.

【0073】以上のように、シフトレジスタを用いた構
成とすることにより、ブロック分割及び画像データのパ
ラレル変換を簡易な方法で実現することができる。
As described above, with the configuration using the shift register, block division and parallel conversion of image data can be realized by a simple method.

【0074】尚、ブロック分割及び画像データのパラレ
ル変換は、上記シフトレジスタによる構成に限らず、一
般的なRAMを用いて構成することも可能である。この
場合、データの書込み及び読出しの際にアドレス変換を
行う必要があり、これはブロック分割アドレス制御部4
02において実行する。
The block division and the parallel conversion of the image data are not limited to the configuration of the shift register described above, but can be configured using a general RAM. In this case, it is necessary to perform address conversion when writing and reading data, which is performed by the block division address control unit 4
Execute at 02.

【0075】また、上記のブロック分割及び画像データ
のパラレル変換は、ライトパービット機能と、ストライ
プ幅に相当するビット幅を有するメモリを備え、入力さ
れるストライプ画像300のラインに応じて、そのライ
トパービット・データを制御(対応するラインに相当す
るビット以外をマスクする)しながら、ストライプ画像
300を書込むように制御してもよい。これにより、画
素単位にストライプ画像300をメモリに書込み、読み
出し動作時は、ストライプ幅に相当するビット幅のパラ
レル画像データを一回のアクセスで読み出すことができ
る。従って、メモリに所定のアドレス情報を与えなが
ら、ブロックサイズに相当する回数の読みだしを実行す
ることにより、ブロック画像単位の読み出し(ブロック
分割)を高速に行うことができる。
The block division and the parallel conversion of the image data are provided with a write per bit function and a memory having a bit width corresponding to the stripe width, and the write operation is performed according to the line of the input stripe image 300. The stripe image 300 may be controlled to be written while controlling the per-bit data (masking bits other than the bits corresponding to the corresponding line). As a result, the stripe image 300 can be written in the memory on a pixel-by-pixel basis, and during a read operation, parallel image data having a bit width corresponding to the stripe width can be read out by a single access. Therefore, by reading out the number of times corresponding to the block size while giving predetermined address information to the memory, the reading (block division) in block image units can be performed at high speed.

【0076】尚、本発明は、複数の機器から構成される
システムに適用しても、1つの機器から成る装置に適用
しても良い。また、本発明はシステム或は装置にプログ
ラムを供給することによって達成される場合にも適用で
きることはいうまでもない。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. Further, it goes without saying that the present invention can be applied to the case where it is achieved by supplying a program to a system or an apparatus.

【0077】[0077]

【発明の効果】以上説明したように、本発明によれば、
画素密度変換処理に供するメモリ容量を削減することが
可能になる。
As described above, according to the present invention,
It is possible to reduce the memory capacity used for the pixel density conversion processing.

【0078】[0078]

【図面の簡単な説明】[Brief description of drawings]

【図1】第一の実施例に係るアウトライン・スムージン
グ法を用いた高画質画素密度変換装置の構成を示すブロ
ック図である。
FIG. 1 is a block diagram showing a configuration of a high image quality pixel density conversion apparatus using an outline smoothing method according to a first embodiment.

【図2】アウトライン処理部107の内部構成を示すブ
ロック図である
FIG. 2 is a block diagram showing an internal configuration of an outline processing unit 107.

【図3】ブロック分割アドレス制御部102によるアド
レス制御を模式的に示す図である。
FIG. 3 is a diagram schematically showing address control by a block division address control unit 102.

【図4】第二の実施例に係るアウトライン・スムージン
グ法を用いた高画質画素密度変換装置の構成を示すブロ
ック図である。
FIG. 4 is a block diagram showing a configuration of a high image quality pixel density conversion apparatus using an outline smoothing method according to a second embodiment.

【図5】ブロック画像のパラレル転送及び画素密度変換
処理後のストライプ画像の再生の流れを模式的に示した
図である。
FIG. 5 is a diagram schematically showing the flow of parallel transfer of block images and reproduction of stripe images after pixel density conversion processing.

【図6】シフトレジスタを用いてストライプ/ブロック
変換バッファ401を構成した例を示す図である。
FIG. 6 is a diagram showing an example in which a stripe / block conversion buffer 401 is configured using a shift register.

【図7】入力画像100の入力時におけるシフトクロッ
クSC1乃至SC8の制御を示すタイミングチャートで
ある。
7 is a timing chart showing control of shift clocks SC1 to SC8 when an input image 100 is input. FIG.

【図8】ストライプ画像300をブロック分割して画素
密度変換部400に供給する際のシフトクロックSC1
乃至SC8の制御を示すタイミングチャートである。
FIG. 8 is a shift clock SC1 when the stripe image 300 is divided into blocks and supplied to the pixel density conversion unit 400.
8 is a timing chart showing control of SC8 to SC8.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 入力した画像データの密度を変更して出
力する画像処理装置であって、 画像データをストライプ画像単位に入力する入力手段
と、 入力したストライプ画像を所定サイズのブロック画像に
分割する分割手段と、 分割したブロック画像の輪郭ベクトルを抽出する輪郭ベ
クトル抽出手段と、 抽出した各ブロック画像の輪郭ベクトルを平滑化し、設
定された変倍率で変倍する平滑化・変倍手段と、 変倍処理された各ブロック画像を合成して出力画像を形
成する画像形成手段と、 を具備することを特徴とする画像処理装置。
1. An image processing apparatus for changing the density of input image data and outputting the image data, the input means inputting image data in stripe image units, and dividing the input stripe image into block images of a predetermined size. Dividing means, contour vector extracting means for extracting the contour vector of the divided block image, smoothing / magnifying means for smoothing the extracted contour vector of each block image, and changing the magnification at a set magnification, An image forming device comprising: an image forming unit that forms an output image by synthesizing each block image that has been doubled.
【請求項2】 前記分割手段は、 入力したストライプ画像を一時的に格納する格納手段
と、 格納したストライプ画像をブロック単位に読出す読出し
手段と、 を具備することを特徴とする請求項1記載の画像処理装
置。
2. The dividing means comprises: storage means for temporarily storing the input stripe image; and reading means for reading the stored stripe image in block units. Image processing device.
【請求項3】 前記読出し手段は、入力したストライプ
画像を構成するライン画像を並列に読出す手段であるこ
とを特徴とする請求項2記載の画像処理装置。
3. The image processing apparatus according to claim 2, wherein the reading means is a means for reading in parallel the line images forming the input stripe image.
【請求項4】 抽出した各ブロックの画像の輪郭ベクト
ルを単純変倍する単純変倍手段と、 分割したブロック画像を構成する画素が疑似中間調領域
に属する画素であるか否かを判定する領域判定手段と、 前記領域判定手段の判定結果に基づいて前記平滑化・変
倍手段によって平滑化・変倍処理された各ブロック画
像、或いは前記単純変倍手段によって単純変倍された各
ブロック画像を選択して前記画像形成手段に供給する選
択手段と、 を具備することを特徴とする請求項1乃至請求項3のい
ずれか1項に記載の画像処理装置。
4. A simple scaling means for simply scaling the contour vector of the extracted image of each block, and an area for determining whether or not the pixels forming the divided block image belong to a pseudo halftone area. Determination means, and each block image smoothed / scaled by the smoothing / scaling means based on the determination result of the area determination means, or each block image simply scaled by the simple scaling means The image processing apparatus according to any one of claims 1 to 3, further comprising: a selecting unit that selects and supplies the image forming unit to the image forming unit.
【請求項5】 入力した画像データの密度を変更して出
力する画像処理方法であって、 画像データをストライプ画像単位に入力する入力工程
と、 入力したストライプ画像を所定サイズのブロック画像に
分割する分割工程と、 分割したブロック画像の輪郭ベクトルを抽出する輪郭ベ
クトル抽出工程と、 抽出した各ブロック画像の輪郭ベクトルを平滑化し、設
定された変倍率で変倍する平滑化・変倍工程と、 変倍処理された各ブロック画像を合成して出力画像を形
成する画像形成工程と、 を具備することを特徴とする画像処理方法。
5. An image processing method for changing and outputting the density of input image data, comprising an input step of inputting image data in stripe image units, and dividing the input stripe image into block images of a predetermined size. The division process, the contour vector extraction process for extracting the contour vector of the divided block image, the smoothing / magnification process for smoothing the extracted contour vector of each block image, and scaling with the set scaling factor. And an image forming step of forming an output image by synthesizing each block image subjected to the double processing.
【請求項6】 前記分割工程は、 入力したストライプ画像を一時的に格納する格納工程
と、 格納したストライプ画像をブロック単位に読出す読出し
工程と、 を具備することを特徴とする請求項5記載の画像処理方
法。
6. The dividing step comprises: a storing step of temporarily storing an input stripe image; and a reading step of reading the stored stripe image in block units. Image processing method.
【請求項7】 前記読出し工程は、入力したストライプ
画像を構成するライン画像を並列に読出す手段であるこ
とを特徴とする請求項6記載の画像処理方法。
7. The image processing method according to claim 6, wherein the reading step is means for reading in parallel the line images forming the input stripe image.
【請求項8】 抽出した各ブロックの画像の輪郭ベクト
ルを単純変倍する単純変倍工程と、 分割したブロック画像を構成する画素が疑似中間調領域
に属する画素であるか否かを判定する領域判定工程と、 前記領域判定工程の判定結果に基づいて前記平滑化・変
倍工程によって平滑化・変倍処理された各ブロック画
像、或いは前記単純変倍工程によって単純変倍された各
ブロック画像を選択して前記画像形成工程に供給する選
択工程と、 を具備することを特徴とする請求項5乃至請求項7のい
ずれか1項に記載の画像処理方法。
8. A simple scaling step of simply scaling the contour vector of the extracted image of each block, and an area for determining whether or not the pixels forming the divided block image belong to a pseudo halftone area. Determination step, each block image smoothed / scaled by the smoothing / scaling step based on the determination result of the area determination step, or each block image simply scaled by the simple scaling step The image processing method according to any one of claims 5 to 7, further comprising: a selection step of selecting and supplying the image to the image forming step.
JP7086774A 1995-04-12 1995-04-12 Processor and method for image processing Withdrawn JPH08287221A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7086774A JPH08287221A (en) 1995-04-12 1995-04-12 Processor and method for image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7086774A JPH08287221A (en) 1995-04-12 1995-04-12 Processor and method for image processing

Publications (1)

Publication Number Publication Date
JPH08287221A true JPH08287221A (en) 1996-11-01

Family

ID=13896109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7086774A Withdrawn JPH08287221A (en) 1995-04-12 1995-04-12 Processor and method for image processing

Country Status (1)

Country Link
JP (1) JPH08287221A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10178542A (en) * 1996-12-18 1998-06-30 Fuji Xerox Co Ltd Image reduction processing unit
JP2005148323A (en) * 2003-11-13 2005-06-09 Pioneer Plasma Display Corp Image signal processing circuit, display device, image signal processing method, and display method
US6950559B2 (en) 2000-03-03 2005-09-27 Seiko Epson Corporation Image processing apparatus, image processing circuit, and image processing method
JP2010092175A (en) * 2008-10-06 2010-04-22 Canon Inc Information processing apparatus, control method for same, and computer program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10178542A (en) * 1996-12-18 1998-06-30 Fuji Xerox Co Ltd Image reduction processing unit
US6950559B2 (en) 2000-03-03 2005-09-27 Seiko Epson Corporation Image processing apparatus, image processing circuit, and image processing method
JP2005148323A (en) * 2003-11-13 2005-06-09 Pioneer Plasma Display Corp Image signal processing circuit, display device, image signal processing method, and display method
JP2010092175A (en) * 2008-10-06 2010-04-22 Canon Inc Information processing apparatus, control method for same, and computer program

Similar Documents

Publication Publication Date Title
US4566128A (en) Method for data compression for two-value picture image
US8331731B2 (en) Image processing method and image processing apparatus
JPS61249175A (en) Graphic processor
US5226098A (en) Method of and apparatus for generating image data representing integrated image
US20160253129A1 (en) Image forming apparatus and control method therefor
JPH08287221A (en) Processor and method for image processing
JP3294065B2 (en) Image processing apparatus and image processing method
US5526474A (en) Image drawing with improved process for area ratio of pixel
JPH10337932A (en) Print processor
JPH06334834A (en) Picture processing unit
KR100361387B1 (en) Polygon drawing method and polygon drawing apparatus
JPH0652304A (en) Device and method for processing image
JP3093906B2 (en) Image processing apparatus and method
JP2001096854A (en) Apparatus and method for printing processing
JPH06175638A (en) Method and device for character generation
JPS59125470A (en) Processing method for variable magnification of picture data
JPH1044530A (en) Printing control apparatus, information-processing apparatus, printing apparatus, and method for processing print information
JP2001325085A (en) Printing system
JP3088871B2 (en) Image synthesis recording device
JP3054315B2 (en) Image processing method and apparatus
JPH06149223A (en) Display device and its relative device, and image display system
JP2007081939A (en) Data smoothing circuit
JPS59195759A (en) Enlarging and contracting method of picture
JP3249498B2 (en) Image synthesis recording device
JPH06318248A (en) Device and method for processing image

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20020702