JPH0918698A - Image processing unit and image processing method - Google Patents

Image processing unit and image processing method

Info

Publication number
JPH0918698A
JPH0918698A JP7168673A JP16867395A JPH0918698A JP H0918698 A JPH0918698 A JP H0918698A JP 7168673 A JP7168673 A JP 7168673A JP 16867395 A JP16867395 A JP 16867395A JP H0918698 A JPH0918698 A JP H0918698A
Authority
JP
Japan
Prior art keywords
image
block
stripe
pixel
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7168673A
Other languages
Japanese (ja)
Other versions
JP3294065B2 (en
Inventor
Nobuyuki Shigee
伸之 重枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP16867395A priority Critical patent/JP3294065B2/en
Publication of JPH0918698A publication Critical patent/JPH0918698A/en
Application granted granted Critical
Publication of JP3294065B2 publication Critical patent/JP3294065B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To prevent deterioration in the image quality and to obtain an output image with high quality by revising a density of an input image and giving an original image in the unit of stripe images and forming each block image divided so that part of the image is overlapped. SOLUTION: An image input section 100 gives an image of a binary bit map form in the unit of lines to a stripe/block conversion buffer 101. The image received in the unit of lines is stored in the stripe/block conversion buffer 101 by a preset prescribed line number, in which stripe divide processing of the image is conducted. The number of lines of the input image received by the buffer 101 is counted and the input/output of the image is controlled by the count. The stripe divide processing is controlled by a block divide address control section 102. Then theimage is divided into block images and stored in a block image buffer 103. The block image by a prescribed block size from a right end of the stripe image is stored in this case by a bit width.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置およ
び画像処理方法に係り、特に、入力した画像の密度を変
更して出力する画像処理装置および画像処理方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method, and more particularly to an image processing apparatus and an image processing method for changing the density of an input image and outputting it.

【0002】[0002]

【従来の技術】従来、ファクシミリ装置等におけるデジ
タル二値画像の画素密度変換として、二値画像をビット
マップ形態のまま処理するのではなく、黒画像(二値画
像が白色もしくは黒色から構成される場合)の輪郭をベ
クトルデータ(以下、輪郭ベクトルデータという。)と
して抽出して、以降、変倍・平滑化等の処理を輪郭ベク
トルデータに対して行い、高品質な画像を得るアウトラ
イン・スムージング法が特願平3ー345062号にお
いて開示されている(以下、アウトライン処理とい
う)。
2. Description of the Related Art Conventionally, as a pixel density conversion of a digital binary image in a facsimile machine or the like, a binary image is not processed as it is in a bit map form, but a black image (the binary image is composed of white or black). Outline smoothing method for extracting high-quality images by extracting the contours of the case) as vector data (hereinafter referred to as contour vector data), and then subjecting the contour vector data to processing such as scaling and smoothing. Is disclosed in Japanese Patent Application No. 3-345062 (hereinafter referred to as outline processing).

【0003】輪郭ベクトルデータは始点と終点の座標デ
ータで与えられており、画素密度変換に伴う変倍を行う
には座標値に所望の倍率を乗じることによって行う。さ
らに、平滑化は抽出したアウトライン輪郭座標ベクトル
について、平滑化処理を施すべき注目ベクトルに対し、
その近傍の輪郭ベクトルの長さ及び方向を要素とするパ
ターンマッチングにより、改めて着目した輪郭座標ベク
トルを定義し直すことで実現する。平滑化処理には、例
えば、孤立点・ノッチ除法、ジャギー(ギザギザパター
ン)平滑等の処理を行うものがある。
The contour vector data is given by the coordinate data of the start point and the end point, and the scaling according to the pixel density conversion is performed by multiplying the coordinate value by a desired magnification. Furthermore, smoothing is performed on the extracted outline contour coordinate vector with respect to the vector of interest to be smoothed,
This is achieved by redefining the contour coordinate vector of interest again by pattern matching using the length and direction of the contour vector in the vicinity thereof as elements. Examples of smoothing processing include processing such as isolated point / notch division and jaggie (jagged pattern) smoothing.

【0004】しかし、アウトライン処理は文字・線画画
像に対しては極めて効果的であるが、写真や自然画像を
擬似中間調画像として含む一般的な画像に対しては大き
な効果は期待できなかった。これは、擬似中間調画像を
表現する微少な画素もしくは細線をアウトライン処理に
よって平滑化してしまうため、その領域の濃度値が変わ
ってしまうことに起因している。そこで、この問題を解
決する手法として、擬似中間調画像領域と文字・線画画
像領域を判別し、擬似中間調画像領域には従来のSPC
(Selective Processing Conversoin)処理画像を選択
し、文字・線画画像に対してはアウトライン処理画像を
選択する手法がある。以下、このような手法を擬似中間
調対応型アウトライン処理と呼ぶ。
However, although the outline processing is extremely effective for character / line drawing images, a great effect cannot be expected for general images including photographs and natural images as pseudo halftone images. This is because the minute pixels or thin lines that represent the pseudo halftone image are smoothed by the outline processing, so that the density value of the area changes. Therefore, as a method for solving this problem, the pseudo halftone image area and the character / line drawing image area are discriminated and the conventional SPC is used for the pseudo halftone image area.
(Selective Processing Conversoin) There is a method in which a processed image is selected and an outline processed image is selected for a character / line drawing image. Hereinafter, such a method is referred to as pseudo-halftone correspondence outline processing.

【0005】また、アウトライン処理に供するワークメ
モリを節減するため、および、アウトライン処理のパイ
プライン化を図るために、入力画像をライン単位で構成
されるストライプ状のストライプ画像に分割し、更にそ
のストライプ画像をブロック状にブロック画像に分割
し、ブロック単位でアウトライン処理を行う手法が提案
されている(以下、ブロック分割処理という)。ブロッ
ク分割処理においては、ブロック単位に処理された画像
は、その後互いに結合され再び全体像として出力され
る。
Further, in order to reduce the work memory used for the outline processing and to make the outline processing pipelined, the input image is divided into stripe-shaped stripe images composed of line units, and the stripes are further divided. A method has been proposed in which an image is divided into block images into block images and outline processing is performed in block units (hereinafter referred to as block division processing). In the block division processing, the images processed in block units are then combined with each other and output again as a whole image.

【0006】ところで、アウトライン処理におけるスト
ライプ分割処理は画像の分割部分に対して過剰に平滑化
処理が適用されるため、本来平滑化すべきでない画像
(例えば、処理対象画像である直線が複数のストライプ
画像に跨って存在する場合等)が、ストライプ画像の分
割部分で画質劣化を起こす場合(例えば、本来直線にな
るべき所に凸凹が生じたりする場合等)がある。
By the way, in the stripe division processing in the outline processing, since the smoothing processing is excessively applied to the divided portions of the image, an image which should not be smoothed originally (for example, a straight line which is an image to be processed has a plurality of stripe images). , Etc.), there is a case where the image quality is deteriorated in the divided portion of the stripe image (for example, unevenness occurs where it should be a straight line).

【0007】そこで、従来このようなストライプ処理に
伴う画質劣化を防止するために、ストライプ画像の上下
端にのりしろ部分を想定し、ストライプ画像の結合の際
に、こののりしろ部分を削除する処理を行うのが有効で
ある(以下、のりしろ処理という)。これによって、過
剰な平滑化処理はのりしろ部分においてなされ、その過
剰に平滑化処理された部分の画像は、ストライプ画像の
結合の際に削除され、画質劣化の少ない良好な画像が得
られる。
Therefore, in order to prevent deterioration of image quality due to such stripe processing, marginal portions are assumed at the upper and lower ends of the striped images, and a process of deleting the marginal portion is performed when the stripe images are combined. Is effective (hereinafter referred to as margin processing). As a result, excessive smoothing processing is performed in the marginal portion, and the image of the excessively smoothed portion is deleted when the stripe images are combined, and a good image with little image quality deterioration is obtained.

【0008】[0008]

【発明が解決しようとする課題】上記のアウトライン・
スムージング法は低倍率から高倍率に至る任意の倍率
で、比較的高品質な画像の画素密度変換を実現すること
が可能であった。しかも、画像をブロック状に分割して
各ブロック画像を単位として処理を行うブロック分割処
理方式を採用することで、処理に供するワークメモリの
大幅な削減を図ることが可能となった。
[Outline of the Invention]
The smoothing method was able to realize pixel density conversion of a relatively high quality image at any magnification from low magnification to high magnification. Moreover, by adopting a block division processing method in which an image is divided into blocks and processing is performed in units of each block image, it is possible to significantly reduce the work memory used for the processing.

【0009】しかし一方で、従来のストライプ分割処理
に伴う過剰な平滑化処理による画質劣化が、ブロック分
割処理においても同様に発生するという問題があった。
例えば、一枚の画像をブロック画像に分割することによ
って、ブロック画像を跨いで横方向(ストライプ画像の
長辺方向)に連続した画像が、画像の分割部分で不連続
な画像(終端された画像)となり、この部分がアウトラ
イン処理の平滑化アルゴリズムに従って、余計に平滑化
処理されることになる。つまり、本来画像を分割するこ
となく処理した場合に平滑化処理の適用されない画像で
あっても、ブロック分割処理によって分割部分で不連続
な画像となるため、その分割部分で平滑化処理が施され
ることになる。この結果、横方向の連続画像が分割部分
で凸凹な画像となったり、丸まってしまう等の画質劣化
を生じ、アウトライン処理の平滑化の効果を妨げる原因
となる。
On the other hand, however, there has been a problem that the image quality deterioration due to the excessive smoothing process accompanying the conventional stripe division process also occurs in the block division process.
For example, by dividing one image into block images, an image continuous in the horizontal direction (long-side direction of the stripe image) across the block images becomes a discontinuous image (terminated image in the divided portion of the image). ), And this portion is subjected to extra smoothing processing according to the smoothing algorithm of the outline processing. In other words, even if an image to which the smoothing process is not applied when originally processed without dividing the image becomes a discontinuous image at the divided part by the block dividing process, the smoothing process is performed on the divided part. Will be. As a result, the continuous image in the horizontal direction becomes an uneven image at the divided portion, or the image is deteriorated such as being rounded, which becomes a cause of hindering the smoothing effect of the outline processing.

【0010】本発明は、上記の問題点に鑑みてなされた
ものであり、画素密度変換処理をブロック画像単位に行
う際の画質劣化を防止し、良好な画質の画素密度変換画
像を生成可能とすることを目的とする。
The present invention has been made in view of the above problems, and it is possible to prevent the image quality from deteriorating when the pixel density conversion processing is performed in block image units, and to generate a pixel density converted image of good image quality. The purpose is to do.

【0011】[0011]

【課題を解決するための手段】上記問題点を解決するた
め、本発明に係る画像処理装置は、入力した画像の密度
を変更して出力する画像処理装置であって、原画像をス
トライプ画像単位に入力する入力手段と、入力した各ス
トライプ画像を一部が重複するようにブロック画像に分
割するブロック分割手段と、分割した各ブロック画像の
画素密度を設定された変倍率に応じて変換する画素密度
変換手段と、画素密度を変換した各ブロック画像の重複
部分を切除しつつ合成して出力画像を形成する画像形成
手段と、を備えることを特徴とし、ブロック画像単位に
画素密度を変換することにより、処理に供するメモリ容
量を削減すると共に、ブロック画像の一部を重複させて
画素密度変換を行い、その後、重複した画像部分を切除
して出力画像を合成することによって、ブロック画像の
接合部分における画質の劣化を防止し、高品位の出力画
像を得ることができる。
In order to solve the above problems, an image processing apparatus according to the present invention is an image processing apparatus which changes the density of an input image and outputs the image, and the original image is a stripe image unit. Input unit, a block dividing unit that divides each input stripe image into block images so as to partially overlap each other, and a pixel that converts the pixel density of each divided block image according to a set scaling factor. A pixel conversion unit for converting the pixel density in block image units, comprising: a density conversion unit; and an image forming unit that forms an output image by cutting and combining overlapping portions of each block image whose pixel density has been converted. This reduces the memory capacity used for processing, overlaps part of the block image to perform pixel density conversion, and then cuts off the overlapped image part to combine the output images. By, it is possible to prevent deterioration of image quality at the joint portion of the block image to obtain an output image of high quality.

【0012】また、本発明に係る画像処理方法は、入力
した画像の密度を変更して出力する画像処理方法であっ
て、原画像をストライプ画像単位に入力する入力工程
と、入力した各ストライプ画像を一部が重複するように
ブロック画像に分割するブロック分割工程と、分割した
各ブロック画像の画素密度を設定された変倍率に応じて
変換する画素密度変換工程と、画素密度を変換した各ブ
ロック画像の重複部分を切除しつつ合成して出力画像を
形成する画像形成工程とを備えることを特徴とし、ブロ
ック画像単位に画素密度を変換することにより、処理に
供するメモリ容量を削減すると共に、ブロック画像の一
部を重複させて画素密度変換を行い、その後、重複した
画像部分を切除して出力画像を合成することによって、
ブロック画像の接合部分における画質の劣化を防止し、
高品位の出力画像を得ることができる。
Further, the image processing method according to the present invention is an image processing method for changing the density of an input image and outputting the same, which comprises an input step of inputting an original image in stripe image units and each input stripe image. Block division step for dividing the divided block images so as to partially overlap each other, a pixel density conversion step for converting the pixel density of each divided block image according to a set scaling factor, and each block for which the pixel density has been converted An image forming step of forming an output image by synthesizing while cutting off an overlapping portion of the image, by converting the pixel density in block image units, it is possible to reduce the memory capacity used for processing and Pixel density conversion is performed by overlapping a part of the images, and then the overlapping image parts are cut off and the output images are combined,
Prevents deterioration of image quality in the joint part of block images,
A high-quality output image can be obtained.

【0013】[0013]

【発明の実施の形態】以下、本発明の好適な実施の形態
を図面を参照しながら説明する。図1は、本発明の一実
施形態であるアウトライン・スムージング法を用いた高
画質画素密度変換装置の構成を示すブロック図である。
画像入力部100は、2値ビットマップ形態の画像をラ
イン単位でストライプ/ブロック変換バッファ101に
供給する。G3規格のファクシミリ装置で通常用いられ
る画像を例にとれば、入力画像サイズは200dpiス
タンダード読み取りの場合、A4画像は1728×11
44画素程度の大きさとなり、200dpiファイン読
み取りの場合、A4画像は1728×2288画素程度
の大きさとなる。前述のように入力画像はライン単位で
ストライプ/ブロック変換バッファ101に供給され、
上記の例の場合、入力画像は1ライン当り1728画素
(bit)で構成される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of a high image quality pixel density conversion apparatus using an outline smoothing method according to an embodiment of the present invention.
The image input unit 100 supplies a binary bitmap image to the stripe / block conversion buffer 101 line by line. Taking an image that is normally used in a G3 standard facsimile machine as an example, when the input image size is 200 dpi standard reading, the A4 image is 1728 × 11.
The size is about 44 pixels, and in the case of 200 dpi fine reading, the A4 image is about 1728 × 2288 pixels. As described above, the input image is supplied line by line to the stripe / block conversion buffer 101,
In the above example, the input image is composed of 1728 pixels (bit) per line.

【0014】ライン単位で入力された画像は、予め設定
しておいた所定のライン数分がストライプ/ブロック変
換バッファ101に蓄積保持され、ここで画像のストラ
イプ分割処理(のりしろ処理は含まない)が施される。
入力画像のストライプ分割処理はストライプ/ブロック
変換バッファ101に取り込まれる入力画像のライン数
を計数し、その計数値によって画像の入出力を制御する
ことによって実現する。なお、ストライプ分割処理は、
後述するブロック分割アドレス制御部102によって制
御される。
An image input line by line is stored and held in the stripe / block conversion buffer 101 for a predetermined number of lines set in advance, and the stripe division processing (excluding margin processing) of the image is performed here. Is given.
The stripe division processing of the input image is realized by counting the number of lines of the input image captured in the stripe / block conversion buffer 101 and controlling the input / output of the image by the counted value. The stripe division process is
It is controlled by a block division address control unit 102 described later.

【0015】ストライプ/ブロック変換バッファ101
に格納されたストライプ画像は、次にブロック分割アド
レス制御手段102の制御のもと、ブロック画像に分割
され、ブロック画像バッファ103に格納される。
Stripe / block conversion buffer 101
Then, the stripe image stored in the block image is divided into block images under the control of the block division address control means 102 and stored in the block image buffer 103.

【0016】図3は、ストライプ/ブロック変換バッフ
ァ101におけるストライプ画像とブッロク画像の模式
図である。図中301はブロック画像である。ストライ
プ幅は入力画像のライン数に相当する。また、ブロック
サイズは、ブロック画像を構成するカラム数に相当す
る。良好な画質を考慮して、ストライプ幅は8ライン程
度を確保するのが好ましく、また、ブロックサイズは画
質およびワークメモリの容量を考慮して、10画素程度
に設定するのが好ましい。なお、ストライプ画像は、実
際には分割付近において互いに重複するように分割され
るが、ここでは装置全体の動作の理解を容易にするた
め、ストライプ画像は単純に分割されるものとして説明
する。
FIG. 3 is a schematic diagram of a stripe image and a block image in the stripe / block conversion buffer 101. In the figure, 301 is a block image. The stripe width corresponds to the number of lines in the input image. Further, the block size corresponds to the number of columns forming the block image. Considering good image quality, it is preferable to secure a stripe width of about 8 lines, and it is preferable to set the block size to about 10 pixels in consideration of image quality and the capacity of the work memory. Note that the stripe images are actually divided so as to overlap each other in the vicinity of the division, but here, in order to facilitate understanding of the operation of the entire apparatus, the stripe image will be simply divided.

【0017】所定のストライプ幅に相当するライン画像
が入力され、ストライプ/ブロック変換バッファ101
にストライプ画像が格納されたら、次にストライプ画像
の右端から所定のブロックサイズ分のブロック画像を、
ストライプ幅に相当するビット幅でブロック画像バッフ
ァ103にパラレルデータ転送し、蓄積する。なお、1
15(図1)は、パラレル画像転送バスであり、ストラ
イプ画像のストライプ幅に相当するバス幅を有し、この
例の場合8ビットバスで構成されている。ブロック画像
のパラレルデータ転送とは、ストライプ画像の同一列
(カラム)に含まれる画像データをパラレルデータ形態
で転送することである。
A line image corresponding to a predetermined stripe width is input, and the stripe / block conversion buffer 101 is input.
After the stripe image is stored in, the block image of a predetermined block size from the right end of the stripe image,
Parallel data is transferred to and stored in the block image buffer 103 with a bit width corresponding to the stripe width. In addition, 1
Reference numeral 15 (FIG. 1) is a parallel image transfer bus, which has a bus width corresponding to the stripe width of a stripe image, and in the case of this example, is composed of an 8-bit bus. The parallel data transfer of the block image is to transfer the image data included in the same column of the stripe image in a parallel data form.

【0018】ストライプ/ブロック変換バッファ101
へのライン単位の画像転送のタイミング制御、およびス
トライプ画像を所定のブロックサイズに分割する際の一
連のタイミング制御等は、ブロック分割アドレス制御部
102によって行われる。即ち、ブロック分割アドレス
制御部102は、画像のストライプ分割の際は画像のラ
イン数を計数し、ブロック分割の際はストライプ画像の
転送カラム数を計数し、その計数値に基づいて、ストラ
イプ分割処理およびブロック分割処理のためのタイミン
グやアドレス信号を生成する。
Stripe / block conversion buffer 101
The block division address control unit 102 performs the timing control of the image transfer for each line for each line, the series of timing control when dividing the stripe image into a predetermined block size, and the like. That is, the block division address control unit 102 counts the number of lines of the image when dividing the image into stripes, counts the number of transfer columns of the stripe image when dividing into blocks, and based on the count value, performs the stripe division processing. And timing and address signals for block division processing are generated.

【0019】ストライプ/ブロック変換バッファ101
から供給される画像データは、ブロック画像バッファ1
03に順次蓄積されてブロック画像を形成する。ブロッ
ク画像バッファ103に蓄積されたブロック画像は、画
素密度変換部120において変倍処理された後、画素選
択部108から画素単位で出力されブロック/ストライ
プ変換バッファ109に蓄積保持される。
Stripe / block conversion buffer 101
Image data supplied from the block image buffer 1
A block image is formed by sequentially accumulating in 03. The block image accumulated in the block image buffer 103 is subjected to scaling processing in the pixel density conversion unit 120, then output in pixel units from the pixel selection unit 108, and accumulated and held in the block / stripe conversion buffer 109.

【0020】図4は、画素密度変換装置における画像の
流れを模式的に示す図である。ライン単位で入力された
画像はストライプ/ブロック変換バッファ101に順次
蓄積され、ストライプ変換バッファ101は、ストライ
プ幅(例えば、8ライン)に相当する画像の入力が完了
したら、ストライプ画像をブロック分割しながら画素密
度変換部120に出力する。図中401〜404は、夫
々ブロック画像を示している。なお、図4においては、
説明の便宜のためにストライプ画像を4つのブロック画
像に分割しているが、例えば、1ラインが1728画素
で構成されるストライプ画像を、ブロックサイズを10
画素としてブロック分割すると、173個のブロック画
像に分割されることになる。
FIG. 4 is a diagram schematically showing an image flow in the pixel density conversion device. The images input line by line are sequentially accumulated in the stripe / block conversion buffer 101, and the stripe conversion buffer 101 divides the stripe image into blocks when the input of the image corresponding to the stripe width (for example, 8 lines) is completed. It is output to the pixel density conversion unit 120. Reference numerals 401 to 404 in the figure respectively denote block images. In FIG. 4,
For convenience of explanation, the stripe image is divided into four block images. For example, a stripe image having 1728 pixels in one line has a block size of 10
When a block is divided into pixels, it is divided into 173 block images.

【0021】ブロック分割は、ストライプ画像の右端か
ら順次パラレル転送され、画素密度変換部120に供給
される。図4においては、ブロック画像404、40
3、402、401の順に転送され、401を転送する
ことによってブロック分割を終了する。
The block division is sequentially transferred in parallel from the right end of the stripe image and supplied to the pixel density conversion unit 120. In FIG. 4, block images 404 and 40 are shown.
3, 402, 401 are transferred in this order, and the block division is completed by transferring 401.

【0022】図4に示す例においては、ブロック画像4
03を画素密度変換部120において画素密度変換処理
を実行しており、ブロック画像404は、画素密度変換
処理を終え、画素単位でブロック/ストライプ変換バッ
ファ109に格納されているる。この時、ブロック画像
404はブロック/ストライプ変換バッファ109の右
端から順次蓄積される。
In the example shown in FIG. 4, the block image 4
03 has been subjected to pixel density conversion processing in the pixel density conversion unit 120, and the block image 404 has been subjected to pixel density conversion processing and is stored in the block / stripe conversion buffer 109 in pixel units. At this time, the block images 404 are sequentially accumulated from the right end of the block / stripe conversion buffer 109.

【0023】以下、ブロック分割処理の詳細について説
明する。図5は、ストライプ/ブロック変換バッファ1
01における分割処理を説明する図である。擬似中間調
対応型アウトライン処理をブロック画像に適用すると、
前述のようにブロック画像の端部(分割部分)において
過剰な平滑化処理による画質劣化が発生する。
Details of the block division processing will be described below. FIG. 5 shows the stripe / block conversion buffer 1
It is a figure explaining the division process in 01. Applying pseudo-halftone compatible outline processing to block images,
As described above, the image quality is deteriorated due to excessive smoothing processing at the end (divided portion) of the block image.

【0024】そこで、上記の画質劣化を防止するため
に、1つのブロック画像とそれに隣り合うブロック画像
の境界付近において、ブロック画像の一部が重複するよ
うにストライプ画像を分割する。この処理は、前述のス
トライプ画像に対するのりしろ処理と同様の意義を有
し、画質の劣化したブロック画像の端部(周辺)を切り
落とすことにより、良好な画像の部分を残してブロック
分割による画質の劣化を防止するものである。従って、
ブロック画像の重複分割処理は、切り落とす画像部分を
あらかじめ重複してブロック画像に含めて分割する(以
下、このような分割処理を重複分割処理という)。以
下、ブロック画像の重複分割処理について説明する。
Therefore, in order to prevent the above-mentioned image quality deterioration, the stripe image is divided so that a part of the block image overlaps in the vicinity of the boundary between one block image and the block images adjacent thereto. This process has the same meaning as the margin process for the stripe image described above, and by cutting off the edge (periphery) of the block image with degraded image quality, the image quality is degraded by block division leaving a good image portion. Is to prevent. Therefore,
In the overlapping division processing of the block image, the image portion to be cut off is overlapped in advance and included in the block image and divided (hereinafter, such division processing is referred to as overlapping division processing). The overlapping division processing of block images will be described below.

【0025】ブロック画像の重複分割処理は、ストライ
プ/ブロック変換バッファ101から画素密度変換部1
20に画像データをパラレルデータ転送してブロック分
割処理を行う際に、重複させるカラムのデータについ
て、パラレルデータ転送を2回実行することによって実
現する。
The overlapping division processing of the block image is performed from the stripe / block conversion buffer 101 to the pixel density conversion unit 1.
This is achieved by executing parallel data transfer twice for the data of the columns to be overlapped when the image data is transferred in parallel data to 20 and the block division processing is performed.

【0026】図5において、ブロック0〜ブロック3・
・・は、夫々ストライプ画像を分割したブロック画像を
示している。ハッチングを付した部分は、重複するよう
に分割される画素を示しており、実線で囲んだ部分(C
utSize)は、対応するブロック画像の有効な画素
(のりしろ以外)を示している。ブロック0は、beg
in0〜end0のブロックサイズを有し、その内50
2はブロック0ののりしろ画像を示している。本実施形
態は、ブロック画像として10画素(502を含む)程
度を想定している。この場合、上記のパラレルデータ転
送を10回実行することによって、ブロック0を転送
(分割)することができる。
In FIG. 5, blocks 0 to 3 ...
.. indicates block images obtained by dividing the stripe image, respectively. The hatched portion shows pixels that are divided so as to overlap, and the portion surrounded by a solid line (C
utSize) indicates an effective pixel (other than the margin) of the corresponding block image. Block 0 is beg
Has a block size of in0 to end0, of which 50
Reference numeral 2 indicates a margin image of block 0. This embodiment assumes about 10 pixels (including 502) as a block image. In this case, block 0 can be transferred (divided) by executing the parallel data transfer 10 times.

【0027】次に、ブロック1については、のりしろ幅
に相当するカラムの画素(ブロック0ののりしろ画像5
01とブロック1ののりしろ画像502を含む)をブロ
ック0と重複してパラレルデータ転送される。重複させ
て分割される領域(ハッチングを付した部分)として、
例えば4画素分のカラムを設定することにより、画素密
度変換時の画質劣化を抑えることができる。のりしろ部
分の画像は隣接するブロック画像に夫々同一の画像が含
まれることになる。
Next, regarding the block 1, the pixels of the column corresponding to the margin width (the margin image 5 of the block 0)
01 and the overlap image 502 of the block 1 are overlapped with the block 0 and transferred in parallel. As a region (hatched part) that is divided by overlapping,
For example, by setting a column for four pixels, it is possible to suppress image quality deterioration during pixel density conversion. In the image of the margin portion, adjacent block images include the same image.

【0028】図5の例においては、ブロック1はbeg
in1〜end1までのカラム数分の画素がパラレルデ
ータ転送されることになる。同様に、ブロック2はbe
gin2〜end2までのカラムの画素がパラレルデー
タ転送される。ブロック3以降についても、同様にハッ
チング部分の画像データを重複させてパラレルデータ転
送される。
In the example of FIG. 5, block 1 is beg
Pixels corresponding to the number of columns in1 to end1 are transferred in parallel data. Similarly, block 2 is be
Pixels in columns from gin2 to end2 are transferred in parallel. Similarly, for blocks 3 and onward, the image data of the hatched portion is overlapped and transferred in parallel.

【0029】以下では、ブロックサイズの内、のりしろ
幅に相当する幅をテープサイズ(TapeSize)、
また、のりしろ以外の部分をカットサイズ(CutSi
ze)或いは進み幅ということにする。なお、重複分割
処理されたブロック画像についての画素密度変換後の劣
化画像の除去については後述する。
In the following, of the block sizes, the width corresponding to the margin width is the tape size (TapeSize),
In addition, cut size (CutSi
ze) or advance width. The removal of the deteriorated image after the pixel density conversion for the block image subjected to the overlapping division processing will be described later.

【0030】以上のようにして重複分割処理された各ブ
ロック画像は、前述の擬似中間調対応型アウトライン処
理が施される。ブロック画像バッファ103には重複分
割処理されたブロック画像が保存され、このブロック画
像に対して擬似中間調対応型アウトライン処理を適用す
る。即ち、領域判定部104においてブロック画像の領
域判定を行い、その判定結果を画素単位で領域判定結果
格納バッファ105に保持する。領域判定部104は、
ブロック画像を構成する画素が擬似中間調画像領域に属
する画素であるか、或いは文字・線画画像領域に属する
画素であるかを判定する。
Each block image subjected to the overlap division processing as described above is subjected to the above-mentioned pseudo-halftone corresponding outline processing. The block image buffer 103 stores the block image subjected to the overlapping division processing, and the pseudo halftone correspondence outline processing is applied to the block image. That is, the area determination unit 104 determines the area of the block image, and holds the determination result in the area determination result storage buffer 105 in pixel units. The area determination unit 104
It is determined whether the pixels forming the block image are pixels belonging to the pseudo halftone image area or pixels belonging to the character / line drawing image area.

【0031】分割されたブロック画像は画素密度変換の
ため、SPC処理部106およびアウトライン処理部1
07に供給される。SPC処理とは、変倍率に応じて画
素を単純に繰り返して描画したり、間引いたりすること
により画素密度変換を行う手法である。一方、アウトラ
イン処理とは、前述のように、画像の輪郭部分を輪郭ベ
クトルデータとして抽出し、これをもとに平滑・変倍処
理を行う方法である。
Since the divided block image is subjected to pixel density conversion, the SPC processing unit 106 and the outline processing unit 1
07. The SPC processing is a method of performing pixel density conversion by simply repeatedly drawing or thinning pixels according to the scaling ratio. On the other hand, the outline processing is a method in which the contour portion of the image is extracted as contour vector data and the smoothing / magnifying processing is performed based on this, as described above.

【0032】以下、アウトライン処理部107の動作を
説明する。図2は、アウトライン処理部107の内部構
成の一例を示すブロック図である。アウトライン処理部
107は、ブロック画像(のりしろ画像を含む。以下、
特に断わらない限り同様)を単位として画素密度変換を
行うものであり、以下の構成を有する。即ち、アウトラ
イン処理部107は、ブロック画像からアウトライン輪
郭ベクトルを抽出する輪郭ベクトル抽出部200、抽出
した輪郭ベクトルデータを蓄積保持する輪郭ベクトルバ
ッファ201、輪郭ベクトルバッファ201に保持され
ている輪郭ベクトルデータに対して、平滑・変倍処理を
行う平滑・変倍部202、平滑・変倍処理された輪郭ベ
クトルデータに基づいて二値画像を再生する前段階とし
て、二値画像の輪郭描画を行う輪郭描画部294、平滑
・変倍部202と輪郭描画部204との処理速度の整合
をとるためのFIFO(First In First Out)203、
輪郭描画部204において生成した二値画像を蓄積する
輪郭描画バッファ205、輪郭描画された画像をもとに
輪郭画像の内部を塗り潰し、完全な二値画像を再生する
塗り潰し部206を備えている。
The operation of the outline processing unit 107 will be described below. FIG. 2 is a block diagram showing an example of the internal configuration of the outline processing unit 107. The outline processing unit 107 includes a block image (including a margin image.
Unless otherwise specified, the pixel density conversion is performed in units of the same) and has the following configuration. That is, the outline processing unit 107 converts the outline vector extracting unit 200 that extracts an outline vector from the block image, the outline vector buffer 201 that stores the extracted outline vector data, and the outline vector data held in the outline vector buffer 201 into the outline vector data. On the other hand, the smoothing / scaling unit 202 that performs smoothing / scaling processing, and the contour drawing that performs the contour drawing of the binary image as a previous step of reproducing the binary image based on the smoothed / scaling processed contour vector data. A unit 294, a FIFO (First In First Out) 203 for matching the processing speeds of the smoothing / magnifying unit 202 and the contour drawing unit 204,
The contour drawing unit 204 is provided with a contour drawing buffer 205 for accumulating the binary image generated by the contour drawing unit 204, and a filling unit 206 for filling the inside of the contour image based on the contour drawn image and reproducing a complete binary image.

【0033】次に、アウトライン処理部107の各ブロ
ックについて詳述する。
Next, each block of the outline processing unit 107 will be described in detail.

【0034】輪郭ベクトル抽出部200は、入力ブロッ
ク画像より、黒画素と白画素の境界に位置する輪郭線を
輪郭ベクトルデータとして抽出する。輪郭ベクトルデー
タは水平ベクトルおよび垂直ベクトルを基本ベクトルと
し、黒画素をベクトルの右側に見る位置関係で抽出され
る。データの抽出は、予め定められた所定の大きさのマ
トリックス・ウィンドウ(例えば、3×3マトリックス
・ウィンドウ)をラスター走査しながら、着目画素(3
×3マトリックス・ウィンドウの中心画素)の周囲に位
置する輪郭座標と、その輪郭座標の接続先情報を抽出す
る。抽出した輪郭座標の接続が未だウィンドウの走査し
ていない画像領域へ及ぶ場合は、当該輪郭座標の接続情
報は一旦不図示の接続未定義バッファ(輪郭ベクトル抽
出部200に包含されている)に保持され、その後の輪
郭座標の接続先の探索に供される。また、抽出した輪郭
座標の接続がブロック画像の境界を越える場合にも上記
と同様に処理され、その接続情報は次のブロック画像を
処理する際に使用される。以上のようにして抽出された
輪郭ベクトル座標データは、輪郭ベクトルバッファ20
1に蓄積保持される。
The contour vector extraction unit 200 extracts the contour line located at the boundary between the black pixel and the white pixel from the input block image as contour vector data. The contour vector data has horizontal and vertical vectors as basic vectors and is extracted in a positional relationship in which black pixels are viewed on the right side of the vector. Data extraction is performed by raster-scanning a matrix window (for example, 3 × 3 matrix window) having a predetermined size and a pixel of interest (3
The contour coordinates located around (the central pixel of the × 3 matrix window) and the connection destination information of the contour coordinates are extracted. When the connection of the extracted contour coordinates extends to an image area of the window that has not been scanned, the connection information of the contour coordinates is temporarily stored in a connection undefined buffer (included in the contour vector extraction unit 200). And is used for the subsequent search for the connection destination of the contour coordinates. Further, when the connection of the extracted contour coordinates crosses the boundary of the block image, the same processing is performed, and the connection information is used when processing the next block image. The contour vector coordinate data extracted as described above is stored in the contour vector buffer 20.
It is accumulated and held at 1.

【0035】輪郭ベクトル座標データは、任意の画像に
対して必ず閉ループを構成する特徴がある。即ち、上記
輪郭ベクトル抽出部200より出力される輪郭ベクトル
座標データは、その接続情報を辿れば必ず元の輪郭ベク
トルデータの始点に戻る。そして、ブロック画像から抽
出された輪郭ベクトル座標データ群は複数の互いに重な
ることの無い輪郭ベクトル・ループの集合となってい
る。
The contour vector coordinate data has a feature that it always forms a closed loop for an arbitrary image. That is, the contour vector coordinate data output from the contour vector extraction unit 200 always returns to the starting point of the original contour vector data when the connection information is traced. The contour vector coordinate data group extracted from the block image is a set of a plurality of contour vector loops that do not overlap each other.

【0036】ところで、輪郭ベクトルバッファ201
は、従来はストライプ画像全体から抽出されるデータを
すべて保持する必要があること、また、輪郭ベクトル抽
出処理と平滑・変倍処理をパイプライン化する必要性か
ら、2面バッファ形式を用いていたため非常に大きなメ
モリ容量を備える必要があった。具体的には、輪郭ベク
トルのデータ幅を32bit(座標値および接続情報を
含む)、1つのストライプ画像から抽出される典型的な
輪郭ベクトルの本数を4000本とした場合、データの
規模は約256kbit(32bit×4k×2=25
6kbit)に及ぶ。
By the way, the contour vector buffer 201
In the past, since it was necessary to hold all the data extracted from the entire stripe image, and because it was necessary to pipeline the contour vector extraction processing and smoothing / scaling processing, the two-sided buffer format was used. It had to have a very large memory capacity. Specifically, when the data width of the contour vector is 32 bits (including coordinate values and connection information) and the number of typical contour vectors extracted from one stripe image is 4000, the data scale is about 256 kbit. (32 bits × 4k × 2 = 25
6 kbit).

【0037】しかしながら、本実施形態においては処理
すべき画像が、データ規模の小さなブロック画像である
ため、抽出されるベクトル本数も当然に少ない。例え
ば、前述の例に従ってストライプ画像を173分割する
と、ブロック画像から抽出される平均的なベクトル本数
は約24本程度(4000/173=23.1)であ
る。従って、輪郭ベクトルバッファ201は約1.6k
bit(32bit×24×2=1536bit)程度
とすることができ、従来のメモリ容量の0.6%程度に
メモリ容量を削減することが可能となる。
However, in this embodiment, the image to be processed is a block image having a small data scale, and therefore the number of vectors to be extracted is naturally small. For example, when the stripe image is divided into 173 according to the above example, the average number of vectors extracted from the block image is about 24 (4000/173 = 23.1). Therefore, the contour vector buffer 201 is about 1.6k.
It can be set to about 32 bits × 24 × 2 = 1536 bits, and the memory capacity can be reduced to about 0.6% of the conventional memory capacity.

【0038】平滑・変倍部202は、輪郭ベクトル座標
データを入力とし、輪郭部分の平滑化および画素密度変
換を実行する処理部である。
The smoothing / magnifying unit 202 is a processing unit which receives contour vector coordinate data as input and executes smoothing of the contour portion and pixel density conversion.

【0039】平滑化処理は、更に第1平滑化処理と第2
平滑化処理に分けることができる。第1平滑化処理は平
滑化処理の対象となる着目ベクトルについて、着目ベク
トルの前後に接続すべき複数のベクトルを参照ベクトル
として、着目ベクトルおよび参照ベクトルの長さと方向
とに基づき、予め設定しておいたパターンとのマッチン
グを行い、その結果に応じて着目ベクトルの再定義する
ものである。勿論、ベクトルのパターンと着目ベクトル
の再定義は、2値画像の輪郭部分を平滑化するように定
義しておくことは言うまでもない。
The smoothing process further includes a first smoothing process and a second smoothing process.
It can be divided into smoothing processing. The first smoothing process is performed by presetting a target vector to be the target of the smoothing process with reference to a plurality of vectors to be connected before and after the target vector, based on the target vector and the length and direction of the reference vector. Matching with the selected pattern and redefining the vector of interest according to the result. Needless to say, the redefinition of the vector pattern and the vector of interest is defined so as to smooth the contour portion of the binary image.

【0040】画像がストライプ画像もしくはブロック画
像に分割されている場合、他のストライプ画像もしくは
ブロック画像に跨っていた画像が、画像の分割部分で分
断されてしまう。このため、分割部分において過剰な平
滑化処理が施され、画質劣化が発生する場合がある。従
って、このような画質劣化が上記ののりしろ画像におい
てのみ発生するように、のりしろ幅を設定する。なお、
画素密度変換処理は、第1平滑化処理が施された輪郭ベ
クトル座標データに対して行なわれる。画素密度変換の
方法は輪郭ベクトルデータの座標値に対して変倍率を乗
じる単純な演算である。
When an image is divided into stripe images or block images, an image that straddles another stripe image or block image is divided at the divided portion of the image. For this reason, excessive smoothing processing may be performed on the divided portions, and image quality may deteriorate. Therefore, the margin width is set so that such image quality deterioration occurs only in the margin image. In addition,
The pixel density conversion process is performed on the contour vector coordinate data that has been subjected to the first smoothing process. The pixel density conversion method is a simple operation of multiplying the coordinate value of the contour vector data by the scaling factor.

【0041】第2平滑化処理は、第1平滑化処理によっ
て変倍された後の輪郭ベクトル座標データに対してなさ
れる処理であって、隣接した輪郭ベクトルの座標値の加
重平均演算によって実現される。加重平均演算は一般的
な数学的手法であり、この処理の施された座標データは
その座標値を重みと見なして、より平滑化するように座
標値が再定義される。
The second smoothing process is a process performed on the contour vector coordinate data scaled by the first smoothing process, and is realized by a weighted average calculation of the coordinate values of adjacent contour vectors. It The weighted average calculation is a general mathematical method, and the coordinate data subjected to this processing is redefined so that the coordinate values are regarded as weights and smoothed.

【0042】平滑・変倍部202によって平滑・変倍さ
れたベクトル座標データは、処理速度調整用のFIFO
203に一時的に蓄積され、その後輪郭輪郭描画部20
4に供給される。平滑・変倍された輪郭ベクトルデータ
は、輪郭描画部204を経ることで二値ビットマップの
輪郭画像として再生される。輪郭描画は、例えば、描画
する輪郭ベクトルの傾きをベクトルの始点・終点座標か
ら予め求めておき、その傾きに基づいて主走査方向の画
素を画素単位に順次変位させながら、副走査方向の変位
位置に打点(画素描画)する処理を、全ての輪郭ベクト
ルに対して行うことによって実現することができる。
The vector coordinate data smoothed and scaled by the smoothing and scaling unit 202 is processed by a processing speed adjustment FIFO.
It is temporarily stored in 203, and then the contour contour drawing unit 20.
4 is supplied. The smoothed / scaled contour vector data is reproduced as a contour image of a binary bitmap by passing through the contour drawing unit 204. For contour drawing, for example, the inclination of the contour vector to be drawn is obtained in advance from the start point / end point coordinates of the vector, and the pixels in the main scanning direction are sequentially displaced in pixel units based on the inclination, while the displacement position in the sub scanning direction is set. It is possible to realize by performing the processing (dot drawing) on all contour vectors.

【0043】輪郭描画データは、輪郭描画バッファ20
5上に再生される。従って、輪郭描画バッファ205は
一度に再生される画像サイズ、即ち、ブロック画像の画
素密度変換後の画像サイズに相当する容量を確保する必
要がある。従来、ストライプ画像単位で一連の処理を行
っていたため、例えば画素密度変換倍率を主走査方向に
3倍、副走査方向に3倍、ストライプ幅8ライン(その
内のりしろ幅4ライン)を想定すると、輪郭描画バッフ
ァ205は63kbit(1728bit×3×4ライ
ン×3=62208bit)の容量を必要とする。しか
し、本実施形態のごとく画像をブロックに分割して処理
すれば、例えばブロックサイズを10画素とした場合、
360bit程度(10bit×3×4ライン×3=3
60bit)で十分である。
The contour drawing data is stored in the contour drawing buffer 20.
Played on 5. Therefore, the contour drawing buffer 205 needs to secure a capacity corresponding to the image size reproduced at one time, that is, the image size after the pixel density conversion of the block image. Conventionally, since a series of processes has been performed in stripe image units, assuming, for example, that the pixel density conversion magnification is 3 times in the main scanning direction, 3 times in the sub scanning direction, and the stripe width is 8 lines (of which the margin width is 4 lines), The contour drawing buffer 205 requires a capacity of 63 kbit (1728 bit × 3 × 4 lines × 3 = 62208 bit). However, if the image is divided into blocks and processed as in the present embodiment, for example, when the block size is 10 pixels,
About 360 bits (10 bits × 3 × 4 lines × 3 = 3
60 bits) is sufficient.

【0044】輪郭描画バッファ205上に再生された2
値輪郭画像は、輪郭の内部を黒画素で塗り潰すことによ
り、最終的なアウトライン処理画像を出力する。輪郭内
部の塗り潰し処理は塗り潰し手段206で行なわれる。
具体的には輪郭描画バッファ205に保持されている輪
郭画像を主走査方向にラスタ型スキャンしながら、隣接
する2画素(スキャン対象の画素と前回スキャンした画
素)の画素値の排他的論理和演算を行い、その演算結果
でスキャン対象の画素を置換することにより、輪郭画像
の内部を塗り潰すことが可能である。従って、塗り潰し
部206は隣接する二画素の一方の画素値(前回スキャ
ンした画素値)を保持するラッチ回路と、排他的論理和
回路から構成される。
2 reproduced on the contour drawing buffer 205
The value contour image outputs the final outline processed image by filling the inside of the contour with black pixels. The filling processing inside the contour is performed by the filling unit 206.
Specifically, the contour image stored in the contour drawing buffer 205 is raster-scanned in the main scanning direction, and an exclusive OR operation is performed on the pixel values of two adjacent pixels (the pixel to be scanned and the pixel previously scanned). It is possible to fill the inside of the contour image by replacing the pixel to be scanned with the calculation result. Therefore, the filling unit 206 is composed of a latch circuit that holds the pixel value of one of the two adjacent pixels (the pixel value that was previously scanned) and the exclusive OR circuit.

【0045】例えば、白画素(画素値は0とする)同士
が隣接する場合は出力は白画素であり、結果として画素
値の置換は行われない。また、白画素に次いで黒画素
(画素値は1とする)をスキャンした場合は出力は黒画
素となり、この場合も画素値の置換は行われない。一
方、黒画素に次いで白画素をスキャンした場合は出力が
黒画素であるから、白画素は黒画素によって置換され、
次の画素が白画素の場合でも再び黒画素が出力される。
従って、白画素に次いで黒画素をスキャンした場合、以
降にスキャンした画素が白画素である限り、その画素は
黒画素によって置換され、再度黒画素をスキャンするま
で黒画素による置換が行われる。一方、ブロック画像の
1ラインに黒画素が1つしか存在しない場合には、ブロ
ック画像の右端の置換後の画素値を、次のブロック画像
を処理するまで保持することによってブロック画像間の
整合をとる。
For example, when white pixels (pixel values are 0) are adjacent to each other, the output is a white pixel, and as a result, pixel value replacement is not performed. When a black pixel (pixel value is 1) is scanned next to a white pixel, the output becomes a black pixel, and in this case also, the pixel value is not replaced. On the other hand, when a white pixel is scanned next to a black pixel, the output is a black pixel, so the white pixel is replaced by the black pixel,
Even if the next pixel is a white pixel, a black pixel is output again.
Therefore, when the black pixel is scanned after the white pixel, as long as the pixel scanned after that is the white pixel, the pixel is replaced by the black pixel, and the replacement by the black pixel is performed until the black pixel is scanned again. On the other hand, when there is only one black pixel in one line of the block image, the pixel value after the replacement at the right end of the block image is held until the next block image is processed to match the block images. To take.

【0046】なお、この塗り潰しアルゴリズムは輪郭描
画画像の一部が水平線の場合、及び1画素突起(へこ
み)の場合には適用できず、それぞれ特殊処理が必要と
される。特殊処理の対象となるパターンは、輪郭形状を
パターンマッチングによって検知し、これに対して特例
パターンを適用する。塗り潰し部206は、これらの処
理機構も備えている。
Note that this filling algorithm cannot be applied when a part of the contour drawing image is a horizontal line and when it is a one-pixel protrusion (dent), and each requires special processing. The pattern that is the target of special processing detects the contour shape by pattern matching, and applies a special pattern to this. The filling unit 206 also includes these processing mechanisms.

【0047】以上のごとくアウトライン処理されたブロ
ック画像は、平滑処理及び画素密度変換処理画像とし
て、ブロック画像の形態で出力され、画素選択部108
に供給される。
The block image outline-processed as described above is output in the form of a block image as a smoothing process and pixel density conversion process image, and the pixel selecting unit 108
Is supplied to.

【0048】SPC処理部106及びアウトライン処理
部107によって画素密度変換処理を施された各ブロッ
ク画像は、夫々画素単位で画素選択部108に供給され
る。画素選択部108は予め領域判定部104によって
領域判定された結果を参照しながら、SPC処理部10
6による画素もしくはアウトライン処理部107による
画素のいずれかを選択して出力する。即ち、領域判定結
果が擬似中間調領域に属する画素である場合はSPC処
理部106から出力される画素を選択し、一方、文字・
線画領域に属する画素である場合は、アウトライン処理
部107から出力される画素を選択する。
Each block image subjected to the pixel density conversion processing by the SPC processing unit 106 and the outline processing unit 107 is supplied to the pixel selection unit 108 in pixel units. The pixel selection unit 108 refers to the result of the area determination performed by the area determination unit 104 in advance, and refers to the SPC processing unit 10
6 or the pixel by the outline processing unit 107 is selected and output. That is, when the area determination result is the pixel belonging to the pseudo halftone area, the pixel output from the SPC processing unit 106 is selected, while the character
If the pixel belongs to the line drawing area, the pixel output from the outline processing unit 107 is selected.

【0049】領域判定結果はブロック画像全体につい
て、領域判定結果格納バッファ105に格納されてお
り、画素単位でこれを参照する。この時、SPC処理部
106もしくはアウトライン処理部107の出力画像は
画素密度変換されており、一方、領域判定結果格納バッ
ファ105に格納されている判定結果は画素密度変換前
のブロック画像に対するため、判定結果を反映させる対
象画素の画素密度が異なる。そこで、領域判定結果を画
素選択部108に適用するときは、判定結果についても
SPC処理部112を用いて画素密度を変換し、対象画
素の画素密度の整合を図る。なお、SPC処理部112
の基本的な構成は、SPC処理部106と同様と同様で
ある。
The region determination result is stored in the region determination result storage buffer 105 for the entire block image and is referred to in pixel units. At this time, the output image of the SPC processing unit 106 or the outline processing unit 107 has been subjected to the pixel density conversion, while the determination result stored in the region determination result storage buffer 105 is for the block image before the pixel density conversion. The pixel density of the target pixel that reflects the result is different. Therefore, when the area determination result is applied to the pixel selection unit 108, the pixel density of the determination result is also converted by using the SPC processing unit 112 to match the pixel density of the target pixel. The SPC processing unit 112
The basic configuration of is similar to that of the SPC processing unit 106.

【0050】画素選択部は108によって、SPC処理
部106もしくはアウトライン処理部107のいずれか
の出力画素が選択出力され、この選択出力された画素は
ブロック/ストライプ変換バッファ109に順次蓄積保
持される。このようにしてブロック単位で処理された画
像は、ブロック/ストライプ変換バッファ109に逐次
保持され、ブロック画像同士の結合がなされ再びストラ
イプ画像として再現される。
The pixel selection unit 108 selectively outputs the output pixel of either the SPC processing unit 106 or the outline processing unit 107, and the pixels thus selected and output are sequentially accumulated and held in the block / stripe conversion buffer 109. The images processed in block units in this way are sequentially held in the block / stripe conversion buffer 109, the block images are combined, and reproduced again as a stripe image.

【0051】ブロック画像の結合処理は、ブロック/ス
トライプ変換バッファ109に選択画素を蓄積する処理
に伴って行われ、その制御はブロック結合アドレス制御
部110によって行なわれる。そして、このブロック画
像の結合処理に伴って重複した部分の画像がのりしろ処
理され、劣化した画像が切除される。
The block image combining process is performed in accordance with the process of accumulating the selected pixels in the block / stripe conversion buffer 109, and the control is performed by the block combination address control unit 110. Then, the overlapped image is overlapped with the block image combining process, and the deteriorated image is removed.

【0052】図6は、画素密度変換後におけるのりしろ
処理を模式的に説明した図である。画素密度変換後のブ
ロック画像は、変換前のブロック画像に対して所望の倍
率を乗じた大きさを有している。即ち、画素密度変換後
のカット幅(進み幅)をCutSize’、テープ幅
(のりしろ幅)をTapeSize’、画素密度変換の
倍率をmag.とすと、以下のようになる。 CutSize’=CutSize×mag. ・・・(式 1) TapeSize’=TapeSize×mag. ・・・(式 2) 変倍後のブロック画像は、図示のように、のりしろ画像
(ハッチングを付した部分)としてブロックの両端に夫
々重複して、他の隣りあうブロック画像と同一の画素を
保持している(ストライプ画像の両端のブロック画像に
ついては片側のみである)。従って、のりしろ処理にお
いて重複画像を切除する場合は、画素密度変換後のブロ
ック画像の両端において画像切除を行えばよい。この画
像切除は、のりしろ画像に相当するカラムの画像の切除
を意味する。のりしろを切除された画像(ブロック
0’、ブロック1’、ブロック2’・・・)は順に結合
され、ストライプ画像が生成される。
FIG. 6 is a diagram for schematically explaining the margin processing after the pixel density conversion. The block image after the pixel density conversion has a size obtained by multiplying the block image before conversion by a desired magnification. That is, the cut width (advance width) after pixel density conversion is CutSize ′, the tape width (overlap width) is TapeSize ′, and the pixel density conversion magnification is mag. Then, it becomes as follows. CutSize ′ = CutSize × mag. (Equation 1) TapeSize ′ = TapeSize × mag. (Equation 2) As shown in the figure, the block image after the scaling is overlapped at both ends of the block as a margin image (hatched portion), and the same pixels as other adjacent block images are displayed. It is held (block images at both ends of the stripe image are only on one side). Therefore, when the overlapping image is cut off in the margin processing, the image cutting may be performed at both ends of the block image after the pixel density conversion. This image excision means excision of the image of the column corresponding to the margin image. The images (block 0 ', block 1', block 2 '...) The margins of which have been cut off are sequentially combined to generate a stripe image.

【0053】具体的には、ブロック画像ののりしろ処理
はブロック/ストライプ変換バッファ109におけるブ
ロック画像の蓄積の際に行なわれる。即ち、擬似中間調
対応型アウトライン処理の施されたブロック画像(のり
しろ画像を含む)は、画素選択部108から画素単位で
出力される。出力された画素はブロック/ストライプ変
換バッファ109に蓄積・保持され、その蓄積アドレス
はブロック結合アドレス制御部110によって制御され
る。
Specifically, the overlap processing of the block image is performed when the block image is accumulated in the block / stripe conversion buffer 109. That is, the block image (including the margin image) that has undergone the pseudo-halftone-compatible outline processing is output from the pixel selection unit 108 in pixel units. The output pixels are accumulated / held in the block / stripe conversion buffer 109, and the accumulation address is controlled by the block combination address control unit 110.

【0054】蓄積アドレスの制御は、例えば、画素選択
部108がのりしろ画像に相当する画素をブロック/ス
トライプ変換バッファ109に供給する期間において
は、蓄積アドレスを変更することを止めて同一アドレス
に対して重複して格納し、有効な画像(のりしろ画像以
外のブロック画像)を供給する期間においては、蓄積ア
ドレスを順次適切な値に変更して格納するように行えば
良い。また、画素選択部108がのりしろ画像に相当す
る画素を出力している期間は、ブロック/ストライプ変
換バッファ109に対する画素の蓄積を禁止する構成と
しても良い。ストライプ画像の両端のブロック画像を除
き、ブロック画像は両端にのりしろ画像を有している
が、いずれについても上記と同様の制御によって各ブロ
ック画像ののりしろ画像を切除することができる。
The control of the storage address is performed, for example, in the period in which the pixel selection unit 108 supplies the pixels corresponding to the marginal image to the block / stripe conversion buffer 109, the storage address is stopped from being changed and the same address is controlled. In a period in which the images are redundantly stored and a valid image (a block image other than the margin image) is supplied, the storage address may be sequentially changed to an appropriate value and stored. Further, the pixel selection unit 108 may be configured to prohibit accumulation of pixels in the block / stripe conversion buffer 109 while the pixels corresponding to the margin image are being output. Except for the block images at both ends of the striped image, the block images have marginal images at both ends. In each case, the marginal images of each block image can be cut off by the same control as above.

【0055】また、ブロック結合アドレス制御部110
における蓄積アドレスの演算は、上記の(式1)、(式
2)よりカット幅(進み幅)、テープ幅(のりしろ)幅
を夫々算出し、更に画素密度変換後のストライプ幅を算
出(変換前のストライプ幅に倍率を乗じる)することに
よって行う。
Further, the block combination address control unit 110
The storage address is calculated by calculating the cut width (advance width) and the tape width (margin width) from (Equation 1) and (Equation 2), respectively, and further calculating the stripe width after pixel density conversion (before conversion). Multiply the stripe width by the factor).

【0056】以上のようにしてブロック画像単位で処理
されたブロック画像は、ブロック/ストライプ変換バッ
ファ109において、画素密度変換後の二値ストライプ
画像として画質劣化のない画像として再生される。再生
されたストライプ画像は画像出力部111の仕様に合わ
せて出力される。画像出力部としては、例えばレーザー
ビームプリンタ(LBP)等があり、この場合画像出力
はライン単位で出力することが望ましい。また、インク
吐出型のプリンタの場合は複数ライン分を一度に印刷す
るため、ブロック/ストライプ変換バッファ109から
の画像出力は複数ラインをパラレル出力することが望ま
しい。
The block image processed in block image units as described above is reproduced in the block / stripe conversion buffer 109 as a binary stripe image after pixel density conversion without deterioration in image quality. The reproduced stripe image is output according to the specifications of the image output unit 111. The image output unit is, for example, a laser beam printer (LBP) or the like. In this case, it is desirable to output the image in line units. Further, in the case of an ink discharge type printer, since a plurality of lines are printed at once, it is desirable to output a plurality of lines in parallel from the image output from the block / stripe conversion buffer 109.

【0057】なお、上記の例においては、上記のブロッ
ク分割アドレス制御部102およびブロック結合アドレ
ス制御部110に代表されるように、メモリアドレスの
制御等を統括して行う必要があり、これはCPUおよび
その制御プログラムを保持するメモリ等を用いて構成す
るができる(不図示)。また、ハードウエアとして構成
することも可能であることは論じるまでもない。
In the above example, it is necessary to centrally control the memory address and the like as represented by the block division address control unit 102 and the block combination address control unit 110, which is performed by the CPU. And a memory for holding the control program thereof and the like (not shown). Needless to say, it can be configured as hardware.

【0058】以上のように、ブロック画像に対しても、
ストライプ処理の場合と同様にのりしろ処理を適用する
ことが可能となり、ブロック画像の接続部分においても
アウトライン処理の際に生ずる画質劣化を防止すること
ができる。この結果、小規模なワークメモリを使用した
場合においても、アウトライン・スムージング法による
画素密度変換を有用になり、高品位の出力画像を得るこ
とができる。
As described above, even for block images,
As in the case of the stripe processing, it is possible to apply the margin processing, and it is possible to prevent the deterioration of the image quality that occurs during the outline processing even at the connection portion of the block images. As a result, even when a small work memory is used, the pixel density conversion by the outline smoothing method is useful, and a high-quality output image can be obtained.

【0059】また、本発明は、複数の機器から構成され
るシステムに適用しても、1つの機器からなる装置に適
用してもよい。また、本発明はシステム或いは装置にプ
ログラムを供給することによって実施される場合にも適
用できることは言うまでもない。この場合、本発明に係
るプログラムを格納した記憶媒体が、本発明を構成する
ことになる。そして、該記憶媒体からそのプログラムを
システム或いは装置に読み出すことによって、そのシス
テム或いは装置が、予め定められた仕方で動作する。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. Further, it goes without saying that the present invention can be applied to the case where it is implemented by supplying a program to a system or an apparatus. In this case, the storage medium storing the program according to the present invention constitutes the present invention. Then, by reading the program into the system or device from the storage medium, the system or device operates in a predetermined manner.

【0060】[0060]

【発明の効果】以上説明したように本発明によれば、画
素密度変換をブロック単位に行う際の画質劣化を防止
し、良好な画質の画素密度変換画像を生成できる。
As described above, according to the present invention, it is possible to prevent the image quality from deteriorating when the pixel density conversion is performed in units of blocks, and to generate a pixel density converted image with a good image quality.

【0061】[0061]

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係るアウトライン・スム
ージング法を用いた高画質画素密度変換装置の構成を示
すブロック図である。
FIG. 1 is a block diagram showing a configuration of a high image quality pixel density conversion apparatus using an outline smoothing method according to an embodiment of the present invention.

【図2】アウトライン処理部107の内部構成の一例を
示すブロック図である。
FIG. 2 is a block diagram showing an example of an internal configuration of an outline processing unit 107.

【図3】ストライプ/ブロック変換バッファにおけるス
トライプ画像とブロック画像の模式図である。
FIG. 3 is a schematic diagram of a stripe image and a block image in a stripe / block conversion buffer.

【図4】画素密度変換装置における画像の流れを模式的
に示す図である。
FIG. 4 is a diagram schematically showing an image flow in a pixel density conversion device.

【図5】ストライプ/ブロック変換バッファにおける重
複分割処理を説明する図である。
FIG. 5 is a diagram illustrating overlap division processing in a stripe / block conversion buffer.

【図6】画素密度変換後ののりしろ処理を模式的に説明
した図である。
FIG. 6 is a diagram schematically illustrating a margin process after pixel density conversion.

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 入力した画像の密度を変更して出力する
画像処理装置であって、 原画像をストライプ画像単位に入力する入力手段と、 入力した各ストライプ画像を一部が重複するようにブロ
ック画像に分割するブロック分割手段と、 分割した各ブロック画像の画素密度を設定された変倍率
に応じて変換する画素密度変換手段と、 画素密度を変換した各ブロック画像の重複部分を切除し
つつ合成して出力画像を形成する画像形成手段と、 を備えることを特徴とする画像処理装置。
1. An image processing apparatus for changing the density of an input image and outputting the same, wherein an input means for inputting an original image in stripe image units and a block so that each input stripe image is partially overlapped. Block division means for dividing the image into pixels, pixel density conversion means for converting the pixel density of each divided block image according to the set scaling factor, and combining while cutting out the overlapping portions of the block images with pixel density conversion And an image forming unit that forms an output image.
【請求項2】 前記画素密度変換手段は、 分割した各ブロック画像の輪郭ベクトルを抽出する輪郭
ベクトル抽出手段と、 抽出した各ブロック画像の輪郭ベクトルを平滑化し、前
記変倍率で変倍する平滑化・変倍手段と、 を有することを特徴とする請求項1記載の画像処理装
置。
2. The pixel density conversion means, a contour vector extraction means for extracting a contour vector of each divided block image, a smoothing for smoothing the extracted contour vector of each block image, and a smoothing for scaling with the scaling factor. The image processing apparatus according to claim 1, further comprising: a scaling unit.
【請求項3】 前記画素密度変換手段は、 分割した各ブロック画像を、前記変倍率に応じて当該ブ
ロック画像を構成する画素を繰り返して描画したり、間
引きすることによって変倍する単純変倍手段と、 前記画素が疑似中間調領域に属するか否かを判定する領
域判定手段と、 前記画素が疑似中間調領域に属する場合には前記単純変
倍手段によって単純変倍した画像を、前記画素が疑似中
間調領域に属さない場合には前記平滑化・変倍手段によ
って平滑化・変倍した画像を選択して前記画像形成手段
に供給する選択手段と、 を更に有することを特徴とする請求項2記載の画像処理
装置。
3. The pixel density conversion means is a simple scaling means for scaling each divided block image by repeatedly drawing or thinning out the pixels forming the block image according to the scaling ratio. An area determining unit that determines whether or not the pixel belongs to a pseudo-halftone area; and if the pixel belongs to a pseudo-halftone area, an image that is simply scaled by the simple scaling unit is A selection unit that selects an image smoothed and scaled by the smoothing and scaling unit and supplies the image to the image forming unit when the image does not belong to the pseudo halftone region. 2. The image processing device according to 2.
【請求項4】 前記ブロック分割手段は、 入力した各ストライプ画像を一時的に格納するストライ
プ画像格納手段と、 格納した各ストライプ画像を、分割する各ブロック画像
のカラム数に相当する回数順次カラム単位に読出して、
各ブロック画像を時分割する読出し制御手段であって、
その読出しに際し、一部のカラムについては隣接するブ
ロック画像を構成するカラムと重複して読出すように制
御する読出し制御手段と、 前記ストライプ画像格納手段から読出した画像を、画素
密度の変換のためにブロック画像単位に一時的に保持す
るブロック画像保持手段と、 を有することを特徴とする請求項1乃至請求項3のいず
れか1項に記載の画像処理装置。
4. The block dividing means includes a stripe image storage means for temporarily storing each input stripe image, and a sequential column unit corresponding to the number of columns of each block image for dividing each stored stripe image. Read to
Read control means for time-divisionally dividing each block image,
At the time of reading, for some columns, a read control unit that controls reading so as to overlap with columns that form an adjacent block image, and an image read from the stripe image storage unit is used to convert the pixel density. 4. The image processing apparatus according to claim 1, further comprising: a block image holding unit that temporarily holds the block image unit.
【請求項5】 前記画像形成手段は、画素密度を変換し
た各ブロック画像を、その重複部分を廃棄しつつ所定領
域に順次格納し、画素密度変換後の各ストライプ画像を
合成するストライプ画像合成手段を有することを特徴と
する請求項4記載の画像処理装置。
5. The stripe image synthesizing means for synthesizing each block image of which the pixel density has been converted, sequentially storing the block images of which pixel densities have been converted in a predetermined area while discarding the overlapping portion, and synthesizing the respective stripe images after pixel density conversion. The image processing apparatus according to claim 4, further comprising:
【請求項6】 形成した出力画像を出力する出力手段を
更に有することを特徴とする請求項1乃至請求項5のい
ずれか1項に記載の画像処理装置。
6. The image processing apparatus according to claim 1, further comprising an output unit that outputs the formed output image.
【請求項7】 前記出力手段は、プリンタであることを
特徴とする請求項6記載の画像処理装置。
7. The image processing apparatus according to claim 6, wherein the output unit is a printer.
【請求項8】 入力した画像の密度を変更して出力する
画像処理方法であって、 原画像をストライプ画像単位に入力する入力工程と、 入力した各ストライプ画像を一部が重複するようにブロ
ック画像に分割するブロック分割工程と、 分割した各ブロック画像の画素密度を設定された変倍率
に応じて変換する画素密度変換工程と、 画素密度を変換した各ブロック画像の重複部分を切除し
つつ合成して出力画像を形成する画像形成工程と、 を備えることを特徴とする画像処理方法。
8. An image processing method for changing the density of an input image and outputting the image, wherein an input step of inputting an original image in stripe image units and a block so that each input stripe image is partially overlapped. Block division process to divide into image, pixel density conversion process to convert the pixel density of each divided block image according to the set scaling factor, and combine while cutting the overlapping part of each block image with pixel density conversion And an image forming step of forming an output image, the image processing method comprising:
【請求項9】 前記画素密度変換工程は、 分割した各ブロック画像の輪郭ベクトルを抽出する輪郭
ベクトル抽出工程と、 抽出した各ブロック画像の輪郭ベクトルを平滑化し、前
記変倍率で変倍する平滑化・変倍工程と、 を有することを特徴とする請求項8記載の画像処理方
法。
9. The pixel density converting step includes: a contour vector extracting step of extracting a contour vector of each divided block image; and a smoothing step of smoothing the extracted contour vector of each block image and scaling with the scaling factor. The image processing method according to claim 8, further comprising: a scaling step.
【請求項10】 前記画素密度変換工程は、 分割した各ブロック画像を、前記変倍率に応じて当該ブ
ロック画像を構成する画素を繰り返して描画したり、間
引きすることによって変倍する単純変倍工程と、 前記画素が疑似中間調領域に属するか否かを判定する領
域判定工程と、 前記画素が疑似中間調領域に属する場合には前記単純変
倍工程によって単純変倍した画像を、前記画素が疑似中
間調領域に属さない場合には前記平滑化・変倍工程によ
って平滑化・変倍した画像を選択して前記画像形成工程
に供給する選択工程と、 を更に有することを特徴とする請求項9記載の画像処理
方法。
10. The pixel density conversion step is a simple scaling step of scaling each divided block image by repeatedly drawing or thinning out pixels constituting the block image according to the scaling ratio. A region determining step of determining whether or not the pixel belongs to a pseudo halftone region, and if the pixel belongs to a pseudo halftone region, an image that is simply scaled by the simple scaling process is If the image does not belong to the pseudo halftone region, a selecting step of selecting an image smoothed / scaled by the smoothing / scaling step and supplying the selected image to the image forming step is further included. 9. The image processing method described in 9.
【請求項11】 前記ブロック分割工程は、 入力した各ストライプ画像を一時的に格納するストライ
プ画像格納工程と、 格納した各ストライプ画像を、分割する各ブロック画像
のカラム数に相当する回数順次カラム単位に読出して、
各ブロック画像を時分割する読出し制御工程であって、
その読出しに際し、一部のカラムについては隣接するブ
ロック画像を構成するカラムと重複して読出すように制
御する読出し制御工程と、 読出した画像を、画素密度の変換のためにブロック画像
単位に一時的に保持するブロック画像保持工程と、 を有することを特徴とする請求項8乃至請求項10のい
ずれか1項に記載の画像処理方法。
11. The block dividing step comprises a stripe image storing step of temporarily storing each input stripe image, and a sequential column unit for each stored stripe image corresponding to the number of columns of each block image to be divided. Read to
A readout control step of time-sharing each block image,
At the time of the reading, a reading control process is performed in which some columns are read so as to be overlapped with columns that form an adjacent block image, and the read image is temporarily stored in block image units for conversion of pixel density. The image processing method according to any one of claims 8 to 10, further comprising: a block image holding step of holding the image selectively.
【請求項12】 前記画像形成工程は、画素密度を変換
した各ブロック画像を、その重複部分を廃棄しつつ所定
領域に順次格納し、画素密度変換後の各ストライプ画像
を合成するストライプ画像合成工程を有することを特徴
とする請求項11記載の画像処理方法。
12. The stripe image synthesizing step of synthesizing the block images of which the pixel densities are converted, sequentially storing the block images of which the pixel densities are converted in a predetermined area while arranging the stripe images after the pixel densities conversion, in the image forming step. The image processing method according to claim 11, further comprising:
【請求項13】 形成した出力画像を出力する出力工程
を更に有することを特徴とする請求項8乃至請求項12
のいずれか1項に記載の画像処理方法。
13. The method according to claim 8, further comprising an output step of outputting the formed output image.
The image processing method according to any one of 1.
【請求項14】 前記出力工程は、形成した出力画像を
プリンタに出力することを特徴とする請求項13記載の
画像処理方法。
14. The image processing method according to claim 13, wherein the output step outputs the formed output image to a printer.
JP16867395A 1995-07-04 1995-07-04 Image processing apparatus and image processing method Expired - Fee Related JP3294065B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16867395A JP3294065B2 (en) 1995-07-04 1995-07-04 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16867395A JP3294065B2 (en) 1995-07-04 1995-07-04 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JPH0918698A true JPH0918698A (en) 1997-01-17
JP3294065B2 JP3294065B2 (en) 2002-06-17

Family

ID=15872372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16867395A Expired - Fee Related JP3294065B2 (en) 1995-07-04 1995-07-04 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP3294065B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004043056A1 (en) * 2002-11-08 2004-05-21 Matsushita Electric Industrial Co., Ltd. Image conversion device, image conversion method, and recording medium
US6950559B2 (en) 2000-03-03 2005-09-27 Seiko Epson Corporation Image processing apparatus, image processing circuit, and image processing method
JP2007108447A (en) * 2005-10-13 2007-04-26 Sony Corp Image display system, display device, image recomposition device, image recomposition method, and program
JP2009071630A (en) * 2007-09-13 2009-04-02 Fuji Xerox Co Ltd Image processor and image processing program
JP2011101270A (en) * 2009-11-09 2011-05-19 Nec Engineering Ltd Method for converting pixel number, program for implementing the program, and pixel number converter
JP2014102675A (en) * 2012-11-20 2014-06-05 Fujitsu Semiconductor Ltd Image processing apparatus
KR101528906B1 (en) * 2013-06-24 2015-06-12 주식회사 내비오닉스코리아 Method and Apparatus for Processing Image
US11093150B2 (en) 2019-06-21 2021-08-17 Kyocera Document Solutions Inc. Image processing apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6950559B2 (en) 2000-03-03 2005-09-27 Seiko Epson Corporation Image processing apparatus, image processing circuit, and image processing method
WO2004043056A1 (en) * 2002-11-08 2004-05-21 Matsushita Electric Industrial Co., Ltd. Image conversion device, image conversion method, and recording medium
JP2007108447A (en) * 2005-10-13 2007-04-26 Sony Corp Image display system, display device, image recomposition device, image recomposition method, and program
US7965311B2 (en) 2005-10-13 2011-06-21 Sony Corporation Apparatus and recording medium for patching divisional images to form a re-synthesized image
JP2009071630A (en) * 2007-09-13 2009-04-02 Fuji Xerox Co Ltd Image processor and image processing program
JP2011101270A (en) * 2009-11-09 2011-05-19 Nec Engineering Ltd Method for converting pixel number, program for implementing the program, and pixel number converter
JP2014102675A (en) * 2012-11-20 2014-06-05 Fujitsu Semiconductor Ltd Image processing apparatus
KR101528906B1 (en) * 2013-06-24 2015-06-12 주식회사 내비오닉스코리아 Method and Apparatus for Processing Image
US11093150B2 (en) 2019-06-21 2021-08-17 Kyocera Document Solutions Inc. Image processing apparatus

Also Published As

Publication number Publication date
JP3294065B2 (en) 2002-06-17

Similar Documents

Publication Publication Date Title
US5832141A (en) Image processing method and apparatus using separate processing for pseudohalf tone area
JP3572637B2 (en) Method and apparatus for edge smoothing of pixel image
EP0549351B1 (en) Image processing method and apparatus
JPH0918698A (en) Image processing unit and image processing method
JPS6233948B2 (en)
JPH06162210A (en) Image processor
JPH06334834A (en) Picture processing unit
JP2885999B2 (en) Image processing apparatus and method
JPH08287221A (en) Processor and method for image processing
JPH09120450A (en) Image processor
JP3093906B2 (en) Image processing apparatus and method
JP2885996B2 (en) Image processing method and apparatus
JP3006732B2 (en) Character pattern generator
JP3006973B2 (en) Image processing apparatus and method
EP0418868B1 (en) Image processing system
JP2829932B2 (en) Image forming device
JP3560124B2 (en) Image data interpolation device, image data interpolation method, and medium recording image data interpolation program
JP3054315B2 (en) Image processing method and apparatus
JP3088871B2 (en) Image synthesis recording device
JP3514895B2 (en) Image expansion processing method and apparatus
JPH1138960A (en) Pattern generating method, device therefor, and recording medium
JPH1044530A (en) Printing control apparatus, information-processing apparatus, printing apparatus, and method for processing print information
JPS59195759A (en) Enlarging and contracting method of picture
JP2985303B2 (en) Recording device area recognition method
JP3249498B2 (en) Image synthesis recording device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020311

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090405

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090405

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100405

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110405

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130405

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130405

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140405

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees