JPH0668271A - Image processor - Google Patents

Image processor

Info

Publication number
JPH0668271A
JPH0668271A JP21761992A JP21761992A JPH0668271A JP H0668271 A JPH0668271 A JP H0668271A JP 21761992 A JP21761992 A JP 21761992A JP 21761992 A JP21761992 A JP 21761992A JP H0668271 A JPH0668271 A JP H0668271A
Authority
JP
Japan
Prior art keywords
pattern
area
pixel
line
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP21761992A
Other languages
Japanese (ja)
Inventor
Hitomi Kumazaki
ひとみ 熊崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP21761992A priority Critical patent/JPH0668271A/en
Publication of JPH0668271A publication Critical patent/JPH0668271A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To shorten processing time without lowering the effect of an anti- aliasing processing when the area surrounded by the edge of a vector image is painted out. CONSTITUTION:In the range of picture elements P2 to P7 of the Kth (scan) line K, vectors V1, V2 showing edges are crossed (A). Picture elements P2, P3, P6, P7 imparted with the oblique line crossing with the vectors (B) are divided into 16 sub-picture elements, respectively, are painted out (C), the number of painted-out parts is counted and each density value 8, 16, 13, 3 is obtained. Picture elements P4, P5 held between the picture elements P3, P6 are made a highest density value 16 as they are without dividing them. As a result, each density value (D) of the picture elements P2 to P7 is obtained. The more the number of interposed picture elements increases, the shorter the processing time becomes as compared with a conventional example.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、ベクトルで表示され
たエッジにより形成された画像のエッジに囲まれた領域
を塗りつぶす処理を行なう画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for filling an area surrounded by edges of an image formed by edges displayed by vectors.

【0002】[0002]

【従来の技術】コンピュータ等のホストマシンから入力
する例えばポスト・スクリプト等のようなPDL言語
(ページ・ディスクリプション・ランゲージ)で記述さ
れた画像を、レーザプリンタ等のプリンタで印刷するた
めに、その中間で画像処理を行なう画像処理装置があ
る。このような画像処理においては、ベクトルで表示さ
れたエッジにより形成された画像(以下「ベクトル画
像」という)のエッジに囲まれた領域を塗りつぶす処理
が頻繁に行なわれる。
2. Description of the Related Art In order to print an image, which is input from a host machine such as a computer, in a PDL language (page description language) such as Postscript, on a printer such as a laser printer, There is an image processing device that performs image processing in the middle. In such image processing, a process of filling an area surrounded by edges of an image formed by edges displayed as vectors (hereinafter referred to as “vector image”) is frequently performed.

【0003】以下、1つの閉曲線を形成したエッジに囲
まれた画像の領域を仮りに「セル」と名付ける。1つの
閉曲線の内側に他の閉曲線がある場合は、外と内の閉曲
線に挾まれた領域がセルであり、内の閉曲線に囲まれた
領域は濃度やカラーの異なるセルである場合とセルでな
い白地の場合とがある。
Hereinafter, the area of the image surrounded by the edges forming one closed curve is tentatively named "cell". When there is another closed curve inside one closed curve, the area sandwiched between the outer and inner closed curves is the cell, and the area surrounded by the inner closed curve is a cell with different density or color, and is not a cell. There are cases of white background.

【0004】例えば、文字を印刷する場合にその大きさ
が一定であればビットマップに展開したフォントでも差
支えないが、拡大文字にすると字画の斜線部分にギザギ
ザが現れて見苦しく、大きなビットマップ・フォントを
縮小して用いれば細かい部分がつぶれ易い。サイズの大
小に関係なく美しい文字を印刷するためにはベクトルフ
ォントを用いればよいが、ベクトルで表示されたエッジ
により形成された文字のセルの輪郭の内部を黒くベタに
塗りつぶす処理が不可欠である。
For example, when printing a character, if the size is constant, a font expanded into a bitmap may be used, but if it is an enlarged character, a jagged appearance appears in the hatched portion of the stroke and it is unsightly, and a large bitmap font. If you reduce the size, you can easily lose the detail. A vector font may be used to print a beautiful character regardless of the size, but it is essential to black out the inside of the outline of the cell of the character formed by the edge displayed in the vector.

【0005】このように画像処理された文字は、サイズ
が大きくなっても斜線部分が滑らかであるが、ラインス
キャニングにより画像を形成するプリンタの場合、レー
ザプリンタのように高画素密度,高解像度のプリンタで
あっても、次のラインに移る所が不連続になることは避
けられないから、特に水平に近い斜線部分で極めて細か
いギザギザ(ジャギー又はエイリアシングという)が現
れる。そのため、アンチ・エイリアシング処理による視
覚的なスムーシングを行なっていた。
Characters image-processed in this way have smooth diagonal lines even when the size increases, but in the case of a printer that forms an image by line scanning, it has a high pixel density and high resolution like a laser printer. Even in the case of a printer, it is inevitable that the place where the line moves to the next line becomes discontinuous. Therefore, extremely fine jaggedness (called jaggies or aliasing) appears especially in a shaded portion near the horizontal. Therefore, visual smoothing is performed by anti-aliasing processing.

【0006】あるいは、DPL言語で記述されたカラー
画像は、カラープリンタで印刷出来れば問題ないが、一
般に多く使用されているモノクローム(白黒)プリンタ
で印刷する(特にグラフが多用されているような)場合
には、カラーで塗りつぶす代りに予め複数のカラーにそ
れぞれ対応して設定したパターンで塗りつぶすことにな
る。
Alternatively, a color image described in the DPL language is not a problem if it can be printed by a color printer, but it is printed by a monochrome (monochrome) printer which is generally used (especially when graphs are often used). In this case, instead of filling with color, the pattern is set in advance corresponding to each of a plurality of colors.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、アンチ
・エイリアシング処理は画像をフレームメモリ上にラス
タ展開(ビットマップ展開ともいう)してスキャンライ
ン(以下単に「ライン」ともいう)毎に塗りつぶしを行
なう時に、先ず各画素(ピクセル)をさらに縦横にそれ
ぞれN×M(いずれも整数)に細分したサブピクセルを
想定し、そのサブピクセルからなるサブスキャンライン
(以下「サブライン」ともいう)毎に塗りつぶしを行な
う。
However, the anti-aliasing processing is performed when rasterizing an image on a frame memory (also referred to as bit map development) and filling each scan line (hereinafter also simply referred to as "line"). First, assuming that each pixel (pixel) is further subdivided vertically and horizontally into N × M (both are integers), sub-scan lines (hereinafter also referred to as “sub-lines”) composed of the sub-pixels are filled. .

【0008】N本のサブラインの塗りつぶしを終った
後、それらのサブラインからなる1本のラインについ
て、そのラインのピクセル毎に該ピクセルを構成するN
×M個の各サブピクセルの属性を調べて該ピクセルの濃
度を決定するという処理(正確にはアンチ・エイリアシ
ング処理サブピクセル分割法)がとられていた。そのた
め、普通の画素毎に塗りつぶしを行なう処理に比べて、
ほぼN×M倍の時間を要するという問題があった。
After the N sub-lines have been filled, with respect to one line consisting of the sub-lines, the pixel is constructed for each pixel of the line.
A process of checking the attribute of each of the xM subpixels to determine the density of the pixel (to be exact, an anti-aliasing subpixel division method) has been used. Therefore, compared to the process of filling each pixel normally,
There is a problem that it takes almost N × M times.

【0009】また、カラーで塗りつぶすことが出来る時
には問題にならないが、カラーの代りに繰返しパターン
で塗りつぶす場合は、塗りつぶすべきセルが小さくなる
ほど単位パターンの数が少なくなるため、繰返しパター
ンの差すなわちカラーの違いが不明確になるという問題
が発生する。そのため、単位パターンのサイズを小さく
設定すれば、大きなセルを塗りつぶした場合にパターン
の形状ではなく濃淡の差として感じるようになるため、
同様に繰返しパターンの差が不明確になり、使用出来る
パターンの種類が限定されてくる。
Further, although there is no problem when it is possible to paint with a color, when filling with a repeating pattern instead of color, the smaller the cells to be filled, the smaller the number of unit patterns. The problem arises that the difference becomes unclear. Therefore, if you set the size of the unit pattern small, when you fill a large cell, you will feel as a difference in shading instead of the shape of the pattern.
Similarly, the difference between repetitive patterns becomes unclear, and the types of patterns that can be used are limited.

【0010】この発明は上記の点に鑑みてなされたもの
であり、第1の目的はアンチ・エイリアシング処理の効
果を低下させることなく、その処理時間を短縮させるこ
とである。また、第2の目的はセルの大小に関係なく、
塗りつぶした繰返しパターンの種類が容易に識別出来る
ようにすることである。
The present invention has been made in view of the above points, and a first object thereof is to shorten the processing time without reducing the effect of the anti-aliasing processing. Also, the second purpose is regardless of the size of the cell,
This is to make it possible to easily identify the type of the repeated pattern that has been filled.

【0011】[0011]

【課題を解決するための手段】この発明は上記の目的を
達成するため、第1の発明は、ベクトルで表示されたエ
ッジにより形成された画像のエッジに囲まれた領域を塗
りつぶす処理を行なう画像処理装置において、画像を形
成する各画素がエッジ部分にあるか否かを判定する所属
領域判定手段と、該所属領域判定手段によりエッジ部分
にあると判定された画素に対してのみ該画素のエッジに
囲まれた領域に含まれる面積の割合に応じてその濃度を
決定する画素濃度決定手段とを設けたものである。
In order to achieve the above object, the present invention provides an image for performing a process of filling an area surrounded by edges of an image formed by edges displayed as vectors. In the processing device, a belonging area determination unit that determines whether or not each pixel forming an image is in an edge portion, and an edge of the pixel only for a pixel that is determined to be in an edge portion by the belonging area determination unit Pixel density determining means for determining the density according to the ratio of the area included in the area surrounded by the.

【0012】第2の発明は、ベクトルで表示されたエッ
ジにより形成された画像のエッジに囲まれた領域を指定
されたカラーに予め対応して設定された単色の繰返しパ
ターンで塗りつぶす処理を行なう画像処理装置におい
て、エッジで囲まれた領域の面積を検出する面積検出手
段と、該面積検出手段により検出された面積に応じて繰
返しパターンの単位パターンのサイズを決定するサイズ
決定手段とを設けたものである。
A second aspect of the invention is an image in which an area surrounded by edges of an image formed by edges displayed as vectors is filled with a repeating pattern of a single color preset corresponding to a designated color. The processing apparatus is provided with area detection means for detecting the area of the region surrounded by the edges, and size determination means for determining the size of the unit pattern of the repeating pattern in accordance with the area detected by the area detection means. Is.

【0013】[0013]

【作用】第1の発明による画像処理装置は、所属領域判
定手段がエッジ部分にあると判定した画素に対しての
み、画素濃度決定手段が該画素のエッジに囲まれた領域
に含まれる面積の割合に応じて該画素の濃度を決定する
から、処理時間が極めて短縮される。
In the image processing apparatus according to the first aspect of the present invention, the pixel density determination unit determines the area included in the region surrounded by the edge of the pixel only for the pixel determined by the belonging region determination unit at the edge portion. Since the density of the pixel is determined according to the ratio, the processing time is extremely shortened.

【0014】第2の発明による画像処理装置は、面積検
出手段がエッジに囲まれた領域の面積を検出し、検出さ
れた面積に応じてサイズ決定手段がその領域を塗りつぶ
す繰返しパターンの単位パターンのサイズを決定するか
ら、領域の面積の大小に関係なく、繰返しパターンの種
類が容易に識別出来る。
In the image processing apparatus according to the second aspect of the present invention, the area detecting means detects the area of the area surrounded by the edge, and the size determining means fills the area in accordance with the detected area. Since the size is determined, the type of repeating pattern can be easily identified regardless of the size of the area.

【0015】[0015]

【実施例】図2は、ホストマシン10とプリンタ15と
の関係を示すブロック図である。コンピュータ等のホス
トマシン10は、入力装置であるキーボード11と表示
装置であるCRTディスプレイ12とを備え、キーボー
ド11から入力するPDL言語で記述された画像情報を
CRTディスプレイ12に表示すると共に、編集してプ
リンタ15に出力する。
FIG. 2 is a block diagram showing the relationship between the host machine 10 and the printer 15. A host machine 10 such as a computer is provided with a keyboard 11 which is an input device and a CRT display 12 which is a display device. The image information described in the PDL language input from the keyboard 11 is displayed on the CRT display 12 and edited. Output to the printer 15.

【0016】プリンタ15は、コントローラ20とエン
ジン30とから構成され、コントローラ20はホストマ
シン10から入力するPDL言語で記述された画像情報
を処理して1頁分ずつラスタ展開し、ビデオ信号として
エンジン30に出力する。出力装置であるエンジン30
は、入力するビデオ信号に応じて1ラインずつ画像に変
換し、形成された1頁分の画像を用紙に印刷して出力す
る。
The printer 15 is composed of a controller 20 and an engine 30. The controller 20 processes the image information described in the PDL language input from the host machine 10 and rasterizes it for each page, and outputs it as a video signal to the engine. Output to 30. Engine 30 which is an output device
Converts each line into an image in accordance with an input video signal, prints the formed image for one page on paper, and outputs it.

【0017】図3は、図2に示したこの発明による画像
処理装置の一実施例であるコントローラ20の構成を示
す回路図である。コントローラ20は、受信装置21,
CPU22,フォントROM23,RAM24,ROM
25,フレームメモリ26及び送信装置27から構成さ
れ、互いにデータバス,アドレスバス,コントロールバ
ス等のバスラインで接続されている。
FIG. 3 is a circuit diagram showing the configuration of the controller 20 which is an embodiment of the image processing apparatus according to the present invention shown in FIG. The controller 20 includes a receiving device 21,
CPU 22, font ROM 23, RAM 24, ROM
25, a frame memory 26, and a transmitter 27, which are connected to each other by bus lines such as a data bus, an address bus, a control bus, and the like.

【0018】受信装置21を介してホストマシン10か
らそれぞれ入力した、画像データと画素密度,(画素濃
度を示す)多値レベル,頁のサイズ,出力画像の拡大又
は縮小率等からなる1頁分の画像情報は、一度RAM2
4に記憶される。
One page consisting of image data and pixel density, multivalued level (indicating pixel density), page size, enlargement or reduction ratio of output image, etc., input from the host machine 10 via the receiving device 21. Image information of RAM2 once
4 is stored.

【0019】次に、所属領域判定手段であり画素濃度決
定手段であるCPU(中央処理ユニット)22は、予め
それぞれROM25に格納されているプログラムに従っ
て、文字コードはフォントROM23に格納されている
ベクトルフォントを参照しながら、RAM24に記憶さ
れた画像データを画像処理して、フレームメモリ26に
ラスタ展開する。
Next, the CPU (central processing unit) 22, which is the belonging area determination means and the pixel density determination means, follows the program stored in the ROM 25 in advance, and the character code is a vector font stored in the font ROM 23. The image data stored in the RAM 24 is image-processed and raster-expanded in the frame memory 26 with reference to.

【0020】送信装置27は、指定された画素密度に応
じCPU22の指令に従って、フレームメモリ26にラ
スタ展開された1頁分の多値レベルの画像データを、1
ライン毎に画像クロックに同期したビデオ信号に変換し
てエンジン30に出力することにより、エンジン30に
形成された画像を用紙上に印刷させる。
In accordance with a command from the CPU 22 according to the designated pixel density, the transmission device 27 outputs one page of multi-valued image data rasterized in the frame memory 26.
The image formed on the engine 30 is printed on the paper by converting the video signal for each line into a video signal synchronized with the image clock and outputting the video signal to the engine 30.

【0021】図1は、CPU22がROM25に格納さ
れているプログラムに従って、白と黒からなる画像デー
タをラスタ展開する第1実施例のルーチンを示すフロー
図であり、図4はそのルーチンによって各画素がラスタ
展開される過程の一例を示す説明図である。
FIG. 1 is a flow chart showing a routine of a first embodiment in which the CPU 22 rasterizes image data consisting of white and black according to a program stored in the ROM 25. FIG. 4 shows each pixel by the routine. FIG. 5 is an explanatory diagram showing an example of a process of raster expansion of the image.

【0022】図4は、それぞれ座標軸として左から右へ
X軸を、上から下へY軸をとって示したもので、画像書
込みの順に合せて座標軸を設定しているから、通常の数
学的な座標軸とはY軸が逆になっている。Y軸の座標は
ライン(スキャンライン)の番号を、X軸の座標は各ラ
インにおけるピクセル(画素)の番号を、それぞれ書込
みの順に示している。また、ピクセルを示す座標は、Y
の座標値を先にXの座標値を後にして表示するから、例
えば或るピクセルPの座標はP(Y,X)として示され
る。所属するラインが明らかな場合には、P(X)と略
示する。
FIG. 4 shows the X-axis from left to right and the Y-axis from top to bottom as coordinate axes. The coordinate axes are set according to the order of image writing. The Y axis is opposite to the normal coordinate axis. The Y-axis coordinate indicates the line (scan line) number, and the X-axis coordinate indicates the pixel number in each line in the order of writing. Also, the coordinates indicating the pixel are Y
Since the coordinate value of is displayed first and the coordinate value of X is displayed later, the coordinate of a certain pixel P is indicated as P (Y, X), for example. When the line to which it belongs is clear, it is abbreviated as P (X).

【0023】図4は画像を形成するピクセル群の一部を
拡大して示し、実線で例えばY=KのラインKを構成す
るX=2〜7のピクセル、即ちP(2)〜P(7)を示
したものであり、図4の(A)乃至(D)は、各ピクセ
ルとラインKにクロスするそれぞれエッジを示す2本の
(直線)ベクトルV1,V2とを示し、図4の(E)は
画像処理すなわちサブピクセル分割法によるアンチ・エ
イリアシング処理の結果、フレームメモリ26に展開さ
れた濃度を表示する多値レベルのデータを示したもので
ある。
FIG. 4 is an enlarged view showing a part of a pixel group forming an image. Pixels of X = 2 to 7, that is, P (2) to P (7) forming a line K of Y = K by a solid line, for example. (A) to (D) of FIG. 4 show two (straight line) vectors V1 and V2 each indicating an edge crossing each pixel and the line K, and (A) to (D) of FIG. E) shows multi-valued level data indicating the density developed in the frame memory 26 as a result of the image processing, that is, the anti-aliasing processing by the sub-pixel division method.

【0024】さらに、図4の(A)乃至(D)において
は、破線で示したように、各ピクセルはX方向にM個、
Y方向にN個に分割されて、N×M個のサブピクセルか
ら構成されている。図4ではM=N=4として、1個の
ピクセルは16個のサブピクセルに分割され、1本のラ
インKは4本のそれぞれサブライン(サブスキャンライ
ン)K1〜K4に分割されている。例えばピクセルP
(K,4)の上から2番目で左から3番目のサブピクセ
ルはSP(K2,4-3)と表示し、予めサブラインK2
と分っていればSP(4-3)と略示する。
Further, in FIGS. 4A to 4D, each pixel has M pixels in the X direction, as shown by a broken line.
It is divided into N pieces in the Y direction and is composed of N × M subpixels. In FIG. 4, with M = N = 4, one pixel is divided into 16 sub-pixels, and one line K is divided into four sub-lines (sub-scan lines) K1 to K4. For example pixel P
The second sub-pixel from the top of (K, 4) and the third sub-pixel from the left is labeled SP (K2, 4-3), and sub-line K2 is set in advance.
If it is known, it is abbreviated as SP (4-3).

【0025】図1に示したルーチンを説明する前に、こ
の発明の主要部を明らかにするために、図9に示す従来
例のルーチンのフロー図について説明する。なお、以下
各フローの説明において例えば「ステップ3」は「S
3」と略記する。
Before explaining the routine shown in FIG. 1, the flow chart of the routine of the conventional example shown in FIG. 9 will be explained in order to clarify the main part of the present invention. In the following description of each flow, for example, “step 3” is “S
3 ”is abbreviated.

【0026】図9に示した従来例のルーチンがスタート
すると、S1で画像を構成するエッジを表示する多数の
ベクトルをそれぞれ入力し、S2で入力したベクトルが
曲線であるか否かを判定し、否すなわち直線であればそ
のままS4にジャンプし、曲線であればS3に進んで複
数の近似直線に分解する直線近似を実行してからS4に
進む。
When the routine of the conventional example shown in FIG. 9 starts, a large number of vectors for displaying the edges forming the image are input in S1, and it is determined in S2 whether or not the input vector is a curve. If no, that is, if it is a straight line, it jumps to S4 as it is, and if it is a curve, it proceeds to S3 and executes linear approximation to decompose it into a plurality of approximate straight lines, and then proceeds to S4.

【0027】S4で各直線ベクトルの始点,終点(の各
座標値)等を示すデータをエッジテーブル(以下「E
T」という)に登録する。ベクトル登録は直線ベクトル
の両端のうちY座標値の小さい方を始点とし、もしY座
標値が等しい場合はX座標値の小さい方を始点とする。
すべてのベクトルの登録を終了したら、S5で始点のY
座標値の小さい順にベクトルのソーティングを実行し、
ET内のデータを整理する。
In step S4, data indicating the starting point, the ending point (each coordinate value) of each straight line vector, etc., is converted into an edge table (hereinafter referred to as "E").
(T)). For vector registration, one of the both ends of the straight line vector having the smaller Y coordinate value is the starting point, and if the Y coordinate values are the same, the one having the smaller X coordinate value is the starting point.
When all the vectors have been registered, start point Y
Perform vector sorting in ascending order of coordinates,
Organize the data in ET.

【0028】次に、1ライン毎に(例えばラインKにつ
いて)アンチ・エイリアシング処理によるピクセルの濃
度決定を行なう。そのために、例えばRAM24内に1
サブピクセルを1ビットとして1ライン分の領域を用意
し、1ラインのスタート時にクリアしておく。S6で塗
りつぶしを行なうサブライン毎に(例えばサブラインK
1から)アクティブ・エッジテーブル(以下「AET」
という)を更新する。
Next, the pixel density is determined by anti-aliasing processing for each line (for line K, for example). For this purpose, for example, 1 in the RAM 24
An area for one line is prepared with the sub-pixel as one bit, and is cleared at the start of one line. For each sub-line to be filled in S6 (for example, sub-line K
1) Active edge table (hereinafter “AET”)
Update).

【0029】S7でサブライン上のすべてのベクトル
(V1,V2)との交点を求め、そのX座標値の小さい
方から順に配列して2個ずつエッジペアとし、交点を含
みその間のサブピクセルを1ライン分の領域上で塗りつ
ぶしてゆく(1にする)。1本のサブライン上のサブピ
クセルの塗りつぶしを終れば、S9でN(=4)本のサ
ブライン即ち1本のラインが終了したか否かを判定し
て、否ならばS6に戻り、1ライン終了ならばS10に
進む。
At S7, the intersections with all the vectors (V1, V2) on the sub-line are obtained, and they are arranged in order from the one with the smallest X coordinate value to form two edge pairs, and the sub-pixel including the intersections and one line between them is one line. Fill over the minute area (set to 1). When the sub-pixels on one sub-line have been filled, it is judged in S9 whether or not N (= 4) sub-lines, that is, one line has ended. If not, the process returns to S6 and one line ends. If so, proceed to S10.

【0030】S10では、1ラインの各ピクセル毎に、
塗りつぶされているサブピクセルの数をカウント即ち1
6個のサブピクセルの0か1の値を合計し、S11でそ
のカウント数に応じてピクセルの濃度を決定する。例え
ば、16個のうちW個のサブピクセルが塗りつぶされて
いた場合、濃度は白を0、最高濃度の黒を16とすれ
ば、ピクセルの濃度はそのままWである。
In S10, for each pixel of one line,
Count the number of subpixels that are filled, ie 1
The values of 0 or 1 of the 6 sub-pixels are summed, and the density of the pixel is determined in S11 according to the count number. For example, when W subpixels out of 16 are filled, if the density is 0 for white and 16 for the highest density of black, the density of the pixel is W as it is.

【0031】図4に示したラインKの場合、サブライン
K1ではSP(2-4)〜(6-2)、K2ではSP(2-
3)〜(6-3)、K3ではSP(2-3)〜(7-1)、K
4ではSP(2-2)〜(7-2)が塗りつぶされているか
ら、図4に示したように、ピクセルP(2)乃至P
(7)のWの値はそれぞれ8,16,16,16,1
3,3になる。
In the case of the line K shown in FIG. 4, SP (2-4) to (6-2) in the sub-line K1 and SP (2-
3) to (6-3), K3 SP (2-3) to (7-1), K
4, SP (2-2) to (7-2) are painted out, and therefore, as shown in FIG.
The values of W in (7) are 8, 16, 16, 16, and 1, respectively.
It becomes 3,3.

【0032】1ライン分のピクセルの濃度を決定しフレ
ームメモリ26上に記憶させれば、S12に進んで、す
べてのラインが終了したか否かを判定し、否ならばS6
に戻り、終了ならばエンドになる。すなわち、上記の1
ライン毎の各ピクセル濃度決定を1頁分の全ラインにつ
いて繰返すことにより、フレームメモリ26上に全画像
のラスタ展開を終了するが、塗りつぶすべきピクセルを
すべてサブピクセルに分解して塗りつぶすため、アンチ
・エイリアシング処理を行なわない場合に比べて略N×
M倍(この例では16倍)の処理時間を要する。
If the densities of pixels for one line are determined and stored in the frame memory 26, the process proceeds to S12, where it is determined whether all the lines have been completed.
Return to, and if it ends, end. That is, the above 1
By repeating the pixel density determination for each line for all the lines for one page, raster expansion of the entire image is completed on the frame memory 26, but all pixels to be filled are decomposed into sub-pixels and filled. Approximately N × compared to the case without aliasing processing
A processing time of M times (16 times in this example) is required.

【0033】第1の発明は、この処理時間を短縮して、
しかも従来と同一の画質を得るために、エッジ部の画素
についてのみサブピクセルに分割して塗りつぶすことに
より濃度を決定し、エッジに囲まれた内部の画素につい
てはそのまま最高濃度例えば16に決定するものであ
る。図4に示した例について説明すれば、同図の(A)
に示したように、ラインKに対してクロスする2本のベ
クトルV1,V2がエッジペアを構成し、その間の範囲
が黒く塗つぶされることになる。
The first invention shortens this processing time,
Moreover, in order to obtain the same image quality as the conventional one, the density is determined by dividing the pixels of the edge portion into sub-pixels and painting them, and the maximum density of the pixels inside the edge is determined as it is, for example 16. Is. Explaining the example shown in FIG. 4, (A) in FIG.
As shown in FIG. 2, the two vectors V1 and V2 crossing the line K form an edge pair, and the range between them is painted black.

【0034】それぞれ傾きdX1,dX2を有するベク
トルV1,V2がラインKの上辺とクロスする点の座標
X1,X2を計算すれば、図4の(B)に示したよう
に、そのベクトルV1,V2がラインKの下辺とクロス
する点の座標は、上下辺の間隔が1であるから、それぞ
れ(X1+dX1),(X2+dX2)として求められ
る。ここで、傾きdXは dX=△X/△Y である。
Calculating the coordinates X1 and X2 of the points where the vectors V1 and V2 having the slopes dX1 and dX2 respectively cross the upper side of the line K, as shown in FIG. 4B, the vectors V1 and V2 are calculated. Since the interval between the upper and lower sides is 1, the coordinates of the point where X intersects with the lower side of the line K are calculated as (X1 + dX1) and (X2 + dX2), respectively. Here, the slope dX is dX = ΔX / ΔY.

【0035】これから、図4の(B)に疎なハッチング
で示したように、エッジ部分にあるピクセルはP
(2),P(3)及びP(6),P(7)であることが
分る。アンチ・エイリアシング処理サブピクセル分割法
はこのエッジ部分にあるピクセルについてのみ行ない、
図4の(C)に示したように、P(2),P(3)及び
P(6),P(7)をそれぞれサブピクセルに分割して
塗りつぶし、濃度を示すWの値8,16及び13,3が
得られる。
From now on, as shown by the sparse hatching in FIG. 4B, the pixel at the edge portion is P
It can be seen that they are (2), P (3) and P (6), P (7). The anti-aliasing sub-pixel division method is performed only for the pixels at this edge part,
As shown in (C) of FIG. 4, P (2), P (3) and P (6), P (7) are divided into sub-pixels and filled in, respectively. And 13,3 are obtained.

【0036】次に、エッジペアのエッジ部分にあるピク
セルに挾まれたピクセルは、すべてサブピクセルに分割
することなくピクセル単位で塗りつぶす。即ち図4の
(D)に示したように、エッジ部分にあるP(3),P
(6)に挾まれたP(4),P(5)を塗りつぶす。し
かしながら、実技上はRAM24内に用意された1ライ
ン分の領域のP(4),P(5)を塗りつぶす必要はな
く、フレームメモリ26上のラインKのP(4),P
(5)のWの値を、図4の(E)に示したように、それ
ぞれ16にすればよい。
Next, all the pixels sandwiched by the pixels in the edge portion of the edge pair are filled in pixel units without being divided into subpixels. That is, as shown in FIG. 4D, P (3), P at the edge portion
Fill P (4) and P (5) sandwiched by (6). However, in practice, it is not necessary to paint P (4) and P (5) of the area for one line prepared in the RAM 24, and P (4) and P (P) of the line K on the frame memory 26 are filled.
The values of W in (5) may be set to 16 as shown in (E) of FIG.

【0037】図1に示した第1実施例のフロー図は、上
記の処理をフローとしてまとめたものであり、図9に示
して説明した従来例のフロー図と同一部分には同一ステ
ップ番号を付して詳しい説明を省略する。新しく加えら
れたステップはS20乃至S26である。図1におい
て、スタートからS7のエッジペア作成までは従来例と
全く同じである。
The flow chart of the first embodiment shown in FIG. 1 summarizes the above processing as a flow, and the same step numbers are assigned to the same parts as those in the flow chart of the conventional example shown in FIG. And detailed description is omitted. The newly added steps are S20 to S26. In FIG. 1, the process from the start to the creation of the edge pair in S7 is exactly the same as the conventional example.

【0038】S7でエッジペアが作成された後、S20
で処理しようとするサブラインが所属するラインをN分
割した最初のサブラインであるか否か、例えばラインK
であればサブラインK1であるか否かを判定して、否な
らばS22へジャンプし、最初のサブラインであればS
21に進んで、エッジペアの情報から当該ラインのエッ
ジ部にあるピクセルを決定し、その情報を当該ラインの
処理が終るまで記憶しておく。
After the edge pair is created in S7, S20 is executed.
Whether or not the sub-line to be processed in 1 is the first sub-line obtained by dividing the line to which the sub-line belongs to, for example, line K
If so, it is determined whether or not it is the subline K1, and if not, the process jumps to S22, and if it is the first subline, S
In step 21, the pixel at the edge of the line is determined from the information of the edge pair, and the information is stored until the processing of the line is completed.

【0039】S22でピクセルがエッジ部にあるか否か
を判定して、否であればS23にジャンプし、エッジ部
にあればS8で当該ピクセルのサブピクセルを塗りつぶ
してS23に進む。
In S22, it is determined whether or not the pixel is in the edge portion. If not, the process jumps to S23, and if it is in the edge portion, the subpixel of the pixel is filled in in S8 and the process proceeds to S23.

【0040】S23で1ライン分のエッジ部にあるピク
セルの塗りつぶしが終了したか否かを判定して、否であ
ればS6に戻り、終了すればS24に進んでエッジ部に
ある各ピクセル毎に塗りつぶされているサブピクセルの
数をカウントした後、S11に進んで各カウント数に応
じたピクセル濃度を決定してS25に進む。S23,S
24は処理をエッジ部にあるピクセルに限定しただけ
で、その内容はS9,S10(図9)と殆んど変らな
い。
In S23, it is judged whether or not the painting of the pixels in the edge portion for one line is completed. If not, the process returns to S6, and if completed, the process proceeds to S24 for each pixel in the edge part. After counting the number of filled sub-pixels, the process proceeds to S11, determines the pixel density according to each count number, and proceeds to S25. S23, S
In No. 24, the processing is limited to the pixels in the edge portion, and the contents are almost the same as S9 and S10 (FIG. 9).

【0041】S25では、S21で記憶されたエッジ部
にあるピクセル情報によって、ペアのエッジ部にあるピ
クセルに挾まれたピクセルの濃度を最高値、例えば16
にして、S26で1ライン分の処理終了と判定されるま
で繰返すことにより、挾まれたすべてのピクセルの濃度
が最高値(黒)になる。最後に、S12に進んですべて
のラインが終了したか否かを判定して、否ならばS6に
戻り、終了ならばエンドになる。
In S25, the density of the pixel sandwiched by the pixels in the edge portion of the pair is set to the maximum value, for example, 16 according to the pixel information in the edge portion stored in S21.
Then, by repeating the processing until it is determined in S26 that the processing for one line is completed, the densities of all the sandwiched pixels become the maximum value (black). Finally, in S12, it is determined whether or not all the lines are completed. If not, the process returns to S6, and if completed, the process ends.

【0042】このように、ほぼN×M倍の時間を要する
サブピクセル分割法は、エッジ部にある画素のみについ
て実行し、エッジに囲まれた領域にある画素はそのまま
濃度の最高値に決定するから、従来の処理に比べて大幅
に処理時間が短縮される。図4に示した例では、エッジ
部にある画素が4個であるのに、挾まれた領域内の画素
は2個であるから、処理時間は2/3程度の短縮にすぎ
ないが、画面内の塗りつぶすべき画素が多くなる程その
効果が大きく、画面の1/8,1/4,1/2が黒い場
合は処理時間はそれぞれ約1/2,1/4,1/8に短
縮される。
As described above, the sub-pixel division method, which requires about N × M times, is executed only for the pixels in the edge portion, and the pixels in the area surrounded by the edge are directly determined as the maximum density value. Therefore, the processing time is significantly reduced as compared with the conventional processing. In the example shown in FIG. 4, the number of pixels in the edge portion is four, but the number of pixels in the sandwiched area is two. Therefore, the processing time is only reduced by about 2/3. The greater the number of pixels to be filled in, the greater the effect. When 1/8, 1/4, and 1/2 of the screen are black, the processing time is reduced to approximately 1/2, 1/4, and 1/8, respectively. It

【0043】図5は、第2の発明による画像処理装置の
第2実施例の構成を示す機能ブロック図であり、機構的
には図3に示したコントローラ20の一部である。図6
は、図5に示した第2実施例のルーチンの一例を示すフ
ロー図である。図7はそれに用いられるパターンの一例
を示し、図8は、図7に示したパターンを用いて処理さ
れるセル(エッジに囲まれた図形)と処理された結果と
をそれぞれ示す。
FIG. 5 is a functional block diagram showing the configuration of the second embodiment of the image processing apparatus according to the second invention, and is mechanically a part of the controller 20 shown in FIG. Figure 6
FIG. 6 is a flowchart showing an example of a routine of the second embodiment shown in FIG. FIG. 7 shows an example of a pattern used for it, and FIG. 8 shows a cell (a figure surrounded by an edge) processed by using the pattern shown in FIG. 7 and a processed result, respectively.

【0044】DPL言語で記述された画像のうち、例え
ば地図やグラフのように、その属性を示すカラーで色分
けして塗りつぶすと識別が容易な場合が少なくない。コ
ンピユータの表示装置には、カラーCRTやカラーLC
D(液晶ディスプレイ)等のカラー表示装置が多く使用
されているから、表示する場合は問題ない。
Of the images described in the DPL language, it is often easy to identify them by color-coding them with colors showing their attributes, such as maps and graphs. The display device of the computer is a color CRT or color LC.
Since color display devices such as D (liquid crystal display) are often used, there is no problem in displaying.

【0045】しかしながら、その画像を用紙上に印刷す
る時に、カラープリンタは高価でありプリント時間も長
くなるため、殆んどの場合にモノクロームプリンタが使
用されているから、複数のカラーにそれぞれ対応した複
数のパターンで塗りつぶすことになる。
However, since the color printer is expensive and the printing time is long when the image is printed on the paper, the monochrome printer is used in almost all cases. Therefore, a plurality of printers corresponding to a plurality of colors are used. Will be filled with the pattern.

【0046】図7に示したパターンは、多種類のパター
ンのうちの一種であり、この実施例では同種の互にサイ
ズの異なるパターンA乃至Dが用意されている。パター
ンAは例えば面積が16以上のセルの処理に使用され、
パターンBは面積が15以下11以上のセル、パターン
Cは面積が10以下6以上のセル、パターンDは面積が
5以下のセルの処理にそれぞれ使用される。従来はセル
の面積に関係なく、例えばパターンAのような、1種類
1サイズのパターンであった。
The pattern shown in FIG. 7 is one of many types, and in this embodiment, patterns A to D of the same type but different in size are prepared. The pattern A is used for processing cells having an area of 16 or more,
The pattern B is used for treating cells with an area of 15 or less and 11 or more, the pattern C is used for treating cells with an area of 10 or less and 6 or more, and the pattern D is used for treating cells with an area of 5 or less. Conventionally, a pattern of one type and one size, such as the pattern A, has been used regardless of the cell area.

【0047】図8の(A)はパターン塗りつぶし処理
(以下単に「パターン処理」という)前のセル、同図の
(B)及び(C)はそれぞれ第2実施例及び従来例でパ
ターン処理された結果のセルであり、同図の(A),
(B),(C)には、それぞれ互にサイズの異なる類似
のセルA1,B1,C1及びA2,B2,C2が示され
ている。
8A is a cell before pattern filling processing (hereinafter simply referred to as "pattern processing"), and FIGS. 8B and 8C are pattern processing in the second embodiment and the conventional example, respectively. The resulting cell is (A) in the figure,
In (B) and (C), similar cells A1, B1, C1 and A2, B2, C2 having different sizes from each other are shown.

【0048】従来のパターン処理では、用意されたパタ
ーンAのみを用いていたため、図8の(C)に示したよ
うに、サイズの大きいセルC1ではパターンの種類が容
易に識別出来るが、サイズの小さいセルC2ではパター
ンの種類が分り難く、例えば右上り斜線からなるパター
ンと混同し易い。仮にパターンDが用意されていたとす
れば、小さいセルC2でも識別可能になるが、大きいセ
ルC1ではパターンが細かすぎて識別し難くなる。
In the conventional pattern processing, since only the prepared pattern A is used, as shown in FIG. 8C, the type of pattern can be easily identified in the cell C1 having a large size, but In the small cell C2, the type of pattern is difficult to understand, and for example, it is easy to confuse it with the pattern formed by the upper right diagonal line. If the pattern D is prepared, the small cell C2 can be identified, but the large cell C1 is too fine to identify.

【0049】図5に示した第2実施例の機能ブロック図
において、パターン決定部40は、面積検出手段である
面積検出部41と、カラー・パターン変換部42と、パ
ターン記憶部43と、サイズ決定手段であるパターン選
択部44とから構成されている。図3に示した回路図と
対応させると、例えば面積検出部41とパターン選択部
44はCPU22、カラー・パターン変換部42はRA
M24のうちの不揮発性RAM、パターン記憶部43は
フォントROM23にそれぞれ対応する。
In the functional block diagram of the second embodiment shown in FIG. 5, the pattern determining section 40 includes an area detecting section 41 as an area detecting section, a color / pattern converting section 42, a pattern storing section 43, and a size. It is composed of a pattern selecting section 44 which is a determining means. Corresponding to the circuit diagram shown in FIG. 3, for example, the area detection unit 41 and the pattern selection unit 44 are the CPU 22, and the color / pattern conversion unit 42 is the RA.
The nonvolatile RAM in M24 and the pattern storage unit 43 correspond to the font ROM 23, respectively.

【0050】面積検出部41はセルA1又はA2に含ま
れる画素数等の図形情報を入力して図形の面積を検出
し、面積を示す面積信号をパターン選択部44に出力す
る。カラー・パターン変換部42はセルA1又はA2を
塗りつぶすカラーを示すカラー信号を入力して、指定さ
れたカラーに対応するパターンの種類を決定し、パター
ン信号としてパターン選択部44に出力する。
The area detection unit 41 inputs graphic information such as the number of pixels contained in the cell A1 or A2, detects the area of the graphic, and outputs an area signal indicating the area to the pattern selection unit 44. The color / pattern conversion unit 42 inputs a color signal indicating a color for filling the cell A1 or A2, determines the type of pattern corresponding to the designated color, and outputs it as a pattern signal to the pattern selection unit 44.

【0051】パターン選択部44は面積信号とパターン
信号を入力し、指定された種類のパターンのうち図形の
面積に応じたサイズのパターンを決定して、該当するパ
ターンをパターン記憶部43から選択的に読出し、決定
パターンとして出力する。決定パターンは、それぞれの
条件によって、単位パターンである場合と、単位パター
ンを2次元的に配列した展開パターンである場合とがあ
る。
The pattern selection unit 44 inputs the area signal and the pattern signal, determines a pattern having a size corresponding to the area of the figure among the designated types of patterns, and selectively selects the corresponding pattern from the pattern storage unit 43. , And output as a decision pattern. Depending on the respective conditions, the decision pattern may be a unit pattern or a developed pattern in which the unit patterns are two-dimensionally arranged.

【0052】第2実施例におけるパターン処理のルーチ
ンを説明する前に、この発明の主要部を明らかにするた
めに、図10に示す従来例のルーチンのフロー図につい
て説明する。図10に示した従来例のルーチンがスター
トすると、S31でエッジを示すベクトルを入力し、S
32で1つのパスが閉じる即ちエッジが閉曲線を形成し
て1個のセルになるまで、S31を繰返す。
Before explaining the pattern processing routine in the second embodiment, a flow chart of the conventional routine shown in FIG. 10 will be described in order to clarify the main part of the present invention. When the routine of the conventional example shown in FIG. 10 starts, a vector indicating an edge is input in S31, and S
At S32, S31 is repeated until one path is closed, that is, the edge forms a closed curve to form one cell.

【0053】パスが閉じると、S33でベクトルデータ
に続く塗りつぶし情報、即ち形成されたセルを塗りつぶ
す黒(ベタパターン)や白(白抜き)を含む指定カラー
の情報を入力し、S34で白抜きか否かを判定して、白
抜きならばエンドにジャンプする。否すなわち塗りつぶ
しならば、S35に進んで指定されたカラーに対応する
種類のパターンをセットし、S36でセットされたパタ
ーンによりセルを塗りつぶしてエンドになる。
When the path is closed, the fill information following the vector data, that is, the information of the designated color including the black (solid pattern) and the white (white) for filling the formed cells is input in S33, and the blank information is input in S34. If it is blank, it jumps to the end. If not, that is, if the pattern is filled, the process proceeds to S35, a pattern of the type corresponding to the designated color is set, and the cell is filled with the pattern set in S36 to end.

【0054】図6に示した第2実施例のパターン処理の
ルーチンにおいて、図10に示して説明した従来例のル
ーチンと同一部分には同一ステップ番号を付して詳しい
説明を省略する。図10のS35に代えて、新しく設け
られたステップはS40乃至S42である。
In the pattern processing routine of the second embodiment shown in FIG. 6, the same steps as those of the routine of the conventional example shown in FIG. 10 are designated by the same step numbers and their detailed description is omitted. Instead of S35 in FIG. 10, newly provided steps are S40 to S42.

【0055】S34で白抜きではなく塗りつぶしと判定
されると、S40に進んで(面積検出部41により)セ
ルの塗りつぶすべき面積を検出し、S41で(カラー・
パターン変換部42,パターン選択部44により)指定
されたカラーに対応する種類のパターンのうち面積に応
じたサイズのパターンを選択する。S42で選択された
パターンをセットした後、S36でセットされたパター
ンによりセルを塗りつぶしてエンドになる。
If it is determined in S34 that the area is not white but filled, the process proceeds to S40 (the area detection unit 41) detects the area to be filled in the cell, and in S41 (color
A pattern of a size corresponding to the area is selected from patterns of a type corresponding to the designated color (by the pattern conversion unit 42 and the pattern selection unit 44). After the pattern selected in S42 is set, the cell is filled with the pattern set in S36 to end.

【0056】このように処理された図形は、例えば図8
の(B)に示したように、互に同色でサイズの大きいセ
ルB1は粗いパターンAにより、サイズの小さいセルB
2はより細かいパターンCによりそれぞれ塗りつぶされ
ている。従って、セルB1,B2は互に同色であると識
別され、他のパターン(カラー)と混同される恐れがな
い。
The graphic processed in this way is shown in FIG.
As shown in (B) of FIG. 3, the cell B1 of the same color and of a large size has the cell B1 of a small size due to the rough pattern A.
2 is filled with a finer pattern C, respectively. Therefore, the cells B1 and B2 are identified as having the same color, and there is no fear of being confused with another pattern (color).

【0057】すなわち、図形のサイズが変ってもパター
ンの識別が容易であるから、従来に比べてパターンの種
類を増して、より多くのカラーに対応することが出来
る。また、繰返しパターンを使用することにより1パタ
ーンのフォントメモリの容量が大幅に減少するから、パ
ターンの種類が増大しそれぞれの種類毎にサイズの異な
るパターンを多数用意しても、そのためにフォントRO
M23の容量が増えることはない。
That is, even if the size of the figure is changed, it is easy to identify the pattern. Therefore, it is possible to increase the number of types of the pattern and cope with more colors than in the conventional case. Moreover, since the capacity of the font memory for one pattern is significantly reduced by using the repeated pattern, even if a large number of patterns having different sizes are prepared for each type, the font RO
The capacity of M23 will not increase.

【0058】[0058]

【発明の効果】以上説明したように、第1の発明による
画像処理装置は、アンチ・エイリアシング処理の効果を
低下させることなく、その処理時間を大幅に短縮させる
ことが出来る。また、第2の発明による画像処理装置
は、セル(エッジに囲まれた図形)の大小に関係なく、
塗りつぶした繰返しパターンの種類を容易に識別出来る
画像を出力する。
As described above, the image processing apparatus according to the first invention can significantly reduce the processing time without deteriorating the effect of the anti-aliasing processing. Further, the image processing device according to the second aspect of the invention, regardless of the size of the cell (the figure surrounded by the edge),
An image that can easily identify the type of the repeated pattern that has been filled is output.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1の発明による画像処理装置の第1実施例に
おける処理ルーチンを示すフロー図である。
FIG. 1 is a flowchart showing a processing routine in a first embodiment of an image processing apparatus according to the first invention.

【図2】この発明におけるホストマシンとプリンタとの
関係を示すブロック図である。
FIG. 2 is a block diagram showing a relationship between a host machine and a printer according to the present invention.

【図3】図2に示したコントローラの構成の一例を示す
回路図である。
FIG. 3 is a circuit diagram showing an example of a configuration of the controller shown in FIG.

【図4】図1に示した処理ルーチンによって各画素がラ
スタ展開される過程の一例を示す説明図である。
FIG. 4 is an explanatory diagram showing an example of a process in which each pixel is raster-developed by the processing routine shown in FIG.

【図5】第2の発明による画像処理装置の第2実施例の
構成を示す機能ブロック図である。
FIG. 5 is a functional block diagram showing the configuration of a second embodiment of the image processing apparatus according to the second invention.

【図6】図5に示した第2実施例における処理ルーチン
を示すフロー図である。
FIG. 6 is a flowchart showing a processing routine in the second embodiment shown in FIG.

【図7】図5に示した第2実施例において使用されるパ
ターンの一例を示す図である。
FIG. 7 is a diagram showing an example of a pattern used in the second embodiment shown in FIG.

【図8】図7に示したパターンを用いて処理される図形
と処理された結果とを示す図である。
FIG. 8 is a diagram showing a graphic processed by using the pattern shown in FIG. 7 and a processed result.

【図9】図1に示したフローに対応する従来例の処理ル
ーチンを示すフロー図である。
FIG. 9 is a flowchart showing a processing routine of a conventional example corresponding to the flow shown in FIG.

【図10】図6に示したフローに対応する従来例の処理
ルーチンを示すフロー図である。
10 is a flowchart showing a processing routine of a conventional example corresponding to the flow shown in FIG.

【符号の説明】[Explanation of symbols]

10 ホストマシン 15 プリン
タ 20 コントローラ(画像処理装置) 22 CPU(所属領域判定手段,画素濃度決定手段) 23 フォントROM 26 フレー
ムメモリ 30 エンジン 40 パター
ン決定部 41 面積検出部(面積検出手段) 44 パターン選択部(サイズ決定手段)
10 Host Machine 15 Printer 20 Controller (Image Processing Device) 22 CPU (Affiliated Area Determining Means, Pixel Density Determining Means) 23 Font ROM 26 Frame Memory 30 Engine 40 Pattern Determining Section 41 Area Detecting Section (Area Detecting Means) 44 Pattern Selecting Section (Size determination means)

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 ベクトルで表示されたエッジにより形成
された画像の前記エッジに囲まれた領域を塗りつぶす処
理を行なう画像処理装置において、 画像を形成する各画素がエッジ部分にあるか否かを判定
する所属領域判定手段と、 該所属領域判定手段によりエッジ部分にあると判定され
た画素に対してのみ該画素の前記エッジに囲まれた領域
に含まれる面積の割合に応じてその濃度を決定する画素
濃度決定手段とを設けたことを特徴とする画像処理装
置。
1. An image processing apparatus for performing a process of filling an area surrounded by an edge of an image formed by edges displayed as vectors, it is determined whether or not each pixel forming the image is at an edge portion. Belonging area determining means, and only for pixels determined by the belonging area determining means to be in an edge portion, the density is determined according to the ratio of the area included in the area surrounded by the edge of the pixel. An image processing apparatus comprising: a pixel density determining unit.
【請求項2】 ベクトルで表示されたエッジにより形成
された画像の前記エッジに囲まれた領域を、指定された
カラーに予め対応して設定された単色の繰返しパターン
で塗りつぶす処理を行なう画像処理装置において、 前記エッジで囲まれた領域の面積を検出する面積検出手
段と、 該面積検出手段により検出された面積に応じて前記繰返
しパターンの単位パターンのサイズを決定するサイズ決
定手段とを設けたことを特徴とする画像処理装置。
2. An image processing apparatus for performing a process of filling a region surrounded by the edge of an image formed by edges displayed in a vector with a repeating pattern of a single color set in advance corresponding to a designated color. In the above, an area detecting means for detecting the area of the region surrounded by the edge, and a size determining means for determining the size of the unit pattern of the repeating pattern according to the area detected by the area detecting means are provided. An image processing device characterized by:
JP21761992A 1992-08-17 1992-08-17 Image processor Pending JPH0668271A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21761992A JPH0668271A (en) 1992-08-17 1992-08-17 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21761992A JPH0668271A (en) 1992-08-17 1992-08-17 Image processor

Publications (1)

Publication Number Publication Date
JPH0668271A true JPH0668271A (en) 1994-03-11

Family

ID=16707134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21761992A Pending JPH0668271A (en) 1992-08-17 1992-08-17 Image processor

Country Status (1)

Country Link
JP (1) JPH0668271A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6166717A (en) * 1997-06-04 2000-12-26 Nec Corporation Image processing apparatus
JP2007018124A (en) * 2005-07-06 2007-01-25 Digital Media Professional:Kk Edge multisampling hybrid anti-alias
US7280120B2 (en) 2003-06-26 2007-10-09 Canon Kabushiki Kaisha Compositing with a sub-pixel mask in graphic object rendering
JP2008009897A (en) * 2006-06-30 2008-01-17 Mitsubishi Electric Corp Vector graphic drawing device and program thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6166717A (en) * 1997-06-04 2000-12-26 Nec Corporation Image processing apparatus
US7280120B2 (en) 2003-06-26 2007-10-09 Canon Kabushiki Kaisha Compositing with a sub-pixel mask in graphic object rendering
JP2007018124A (en) * 2005-07-06 2007-01-25 Digital Media Professional:Kk Edge multisampling hybrid anti-alias
JP4669334B2 (en) * 2005-07-06 2011-04-13 株式会社ディジタルメディアプロフェッショナル Edge multi-sampling hybrid anti-aliasing
JP2008009897A (en) * 2006-06-30 2008-01-17 Mitsubishi Electric Corp Vector graphic drawing device and program thereof

Similar Documents

Publication Publication Date Title
EP1077445B1 (en) Device dependent rendering of characters
US6681053B1 (en) Method and apparatus for improving the definition of black and white text and graphics on a color matrix digital display device
EP0477712B1 (en) Edge enhancement method and apparatus for dot matrix devices
KR100432288B1 (en) Graphic display apparatus, character display apparatus, display method, and recording medium
US6101514A (en) Anti-aliasing apparatus and method with automatic snap fit of horizontal and vertical edges to target grid
US7006096B2 (en) Character display apparatus, character display method, and recording medium
JP3142550B2 (en) Graphic processing unit
US5404431A (en) Image drawing with improved area ratio approximation process
US5255357A (en) Method for editing character bit maps at small sizes using connected runs
US5200740A (en) Dropout-free center point fill method for displaying characters
KR100749873B1 (en) Character display apparatus, character display method, and readable recording medium
JPH0668271A (en) Image processor
US5644335A (en) Method for the graphic reproduction of a symbol with an adjustable scale and position
JPH05297861A (en) 1/n bit phase matching method for graphics
JPH04139589A (en) Graphic processor
EP0466330B1 (en) Method for editing character bit maps at small sizes using connected runs
JPH06161420A (en) Character signal generating device
EP0439714B1 (en) Anti-aliasing method for graphic display
JPH03103894A (en) Half tone font generating system
JP3055327B2 (en) Data converter
JPH0661960B2 (en) Dot interpolation control device
JPH06348891A (en) Structure analysis method for graphic coexisting document picture
JPH06301774A (en) Magnification/reduction method for image pattern
JPH03211591A (en) Display method and display device as well as data processor and lsi for output processing
JPH09185358A (en) Method and device for image data output