JP2000222569A - Plotter - Google Patents

Plotter

Info

Publication number
JP2000222569A
JP2000222569A JP11027378A JP2737899A JP2000222569A JP 2000222569 A JP2000222569 A JP 2000222569A JP 11027378 A JP11027378 A JP 11027378A JP 2737899 A JP2737899 A JP 2737899A JP 2000222569 A JP2000222569 A JP 2000222569A
Authority
JP
Japan
Prior art keywords
pixel
information
intersection
gray scale
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11027378A
Other languages
Japanese (ja)
Inventor
Masafumi Chiku
正二三 知久
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP11027378A priority Critical patent/JP2000222569A/en
Publication of JP2000222569A publication Critical patent/JP2000222569A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To directly and easily output a gray scale level from an edge list in the stage where a multi-level and high-resolution output is generated from outline information. SOLUTION: An input part 11 receives outline information from a client to generate an enlarged outline for pixel segments. A scan conversion part 12 detects intersections between scanning lines and the enlarged outline to generate an edge list for pixel segments. A gray scale generation part 13 receives the edge list from the scan conversion part 12 with respect to each scanning line and calculates the number of pixel segments, which are inverted on the scanning line, and accumulates respective pixel segments of each pixel in a corresponding array in an image buffer 15. After accumulation of the number of inverted pixel segments is terminated for scanning lines corresponding to the magnification, the array in the image buffer 15 indicates the number of pixel segments inverted in the pixel, and the gray scale level of the pixel is determined based on this number.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、文字や図形等の
描画対象の情報をアウトライン情報として受け取って、
任意サイズの文字や図形パターン等として、ページプリ
ンタやCRTディスプレイへ出力することができる描画
装置に関し、とくに、パターンの輪郭部分等の視認性を
向上させるグレイスケール描画を少ないハードウェア資
源で効率よく実行できるようにしたものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for receiving drawing target information such as characters and figures as outline information.
A drawing device that can output a character or graphic pattern of any size to a page printer or a CRT display. Particularly, efficiently executes grayscale drawing with a small amount of hardware resources to improve the visibility of the outline of the pattern. It is made possible.

【0002】[0002]

【従来の技術】ページプリンタ、ディスプレイ等ビット
マップスクリーン(ラスタースクリーン)をベースとす
る出力装置では、解像度が高くなるにしたがって、同じ
サイズの文字、図形の表示に、より多くのデータが必要
となる。決まった輪郭を持つ文字情報については、サイ
ズ毎にビットマップデータを持つと効率が悪いので、ア
ウトライン情報を拡大・縮小してから文字の輪郭線の内
部を塗りつぶす方法が有利である。また、現在主流のP
DL(ページ記述言語)を利用したプリンタ等では、図
形情報もアウトラインで入力することで、入出力装置間
でのデータ転送時間が短縮され、かつプリンタの解像度
を意識する必要もなくなった。
2. Description of the Related Art In an output device based on a bitmap screen (raster screen) such as a page printer and a display, as the resolution increases, more data is required to display characters and graphics of the same size. . For character information having a fixed outline, it is inefficient to have bitmap data for each size, so it is advantageous to fill out the outline of the character after enlarging or reducing the outline information. In addition, the current mainstream P
In a printer or the like using a DL (Page Description Language), graphic information is also input in an outline, so that the data transfer time between input / output devices is reduced, and it is no longer necessary to be aware of the resolution of the printer.

【0003】しかし、アウトライン情報からビットマッ
プ情報を直接生成するには、作業メモリ領域として縦×
横のサイズに相当するメモリ領域が必要となり、大サイ
ズまたは高解像度の表示装置を用いる場合には、処理装
置の高速化とメモリ容量の増加とが要求される。例え
ば、アウトラインを縦横N倍すると、Nの2乗のメモリ
が必要となる。これは、出力装置の製造コストを圧迫す
る。
However, in order to directly generate bitmap information from outline information, a vertical x
A memory area corresponding to the horizontal size is required, and when a large-sized or high-resolution display device is used, a high-speed processing device and an increased memory capacity are required. For example, if the outline is multiplied N times vertically and horizontally, a memory of N square is required. This puts pressure on the manufacturing cost of the output device.

【0004】また、出力装置の高精細化とともに多階調
・多色化が進んでいる。これを利用して文字や図形の輪
郭部に中間色を配置してジャギーを目立たなくする手法
がある。とくに、文字等を単色で表示する場合はグレイ
スケールと呼ばれる。文字にグレイスケールを採用する
と、出力品質の向上のみならず、ルビ等の小サイズ文字
の可読性がよくなる。中間色の画素の色濃度決定は、輪
郭線状の画素をピックアップして各画素の面積の何%が
輪郭線の内側にあるかによって決定するのが一般的であ
る。
[0004] Further, with the increase in the definition of the output device, the number of gradations and colors has been increased. There is a method of making the jaggy less noticeable by arranging an intermediate color on the outline of a character or a figure by utilizing this. In particular, when a character or the like is displayed in a single color, it is called a gray scale. Adopting gray scale for characters not only improves output quality, but also improves readability of small-size characters such as ruby. In general, the color density of a pixel of an intermediate color is determined by picking up contour pixels and determining what percentage of the area of each pixel is inside the contour line.

【0005】面積を求める方法として、各画素を縦横に
分割して、分割した画素のうち何個が内側と判断され反
転するか調べる方法(「DTPの基礎技術(5)」、S
uperASCCII、Vol.2、No.8、199
1年8月)が良く知られている。図2では、1つの画素
を縦横3分割し、輪郭線の内側と判断した画素を黒に反
転した例を示している。実際に計算する場合は、縦横各
N倍に拡大したアウトラインからビットマップを作成
し、N×Nの領域中M個が反転した場合、M/(N×
N)として面積比を求める。この場合、面積比は0/
(N×N)〜1まで変化するので、階調の精度はN×N
+1階調となる。一般的に、この処理は拡大したイメー
ジのすべての画素をサーチするためCPUに負荷が大き
く、さらに拡大処理が必要となるので前述したようにメ
モリも大量に消費する。
As a method of obtaining the area, a method of dividing each pixel in the vertical and horizontal directions and examining how many of the divided pixels are determined to be inside and inverting (“Basic technology of DTP (5)”, S
upperASCII, Vol. 2, No. 8,199
(August 1st) is well known. FIG. 2 shows an example in which one pixel is divided vertically and horizontally into three, and pixels determined to be inside the outline are inverted to black. When actually calculating, a bitmap is created from an outline enlarged N times vertically and horizontally, and if M pixels in an N × N area are inverted, M / (N ×
N) to determine the area ratio. In this case, the area ratio is 0 /
(N × N) to 1, the gradation accuracy is N × N
+1 gradation. Generally, this process places a heavy load on the CPU to search all the pixels of the enlarged image, and further requires an enlargement process, thus consuming a large amount of memory as described above.

【0006】ところで、アウトラインからビットマップ
を得る手段としては、現在はスキャンコンバージョン
(走査変換法)と呼ばれるアルゴリズムが一般的であ
る。
[0006] As a means for obtaining a bitmap from an outline, an algorithm called scan conversion (scan conversion method) is currently common.

【0007】図1にスキャンコンバージョンの一例を示
す。この例では輪郭線の方向を考慮しながら偶奇(EV
EN−ODD)ルールと呼ばれる塗りつぶし条件で輪郭
線の内外を判定している。
FIG. 1 shows an example of scan conversion. In this example, even-odd (EV
The inside and outside of the outline are determined based on a fill condition called an EN-ODD rule.

【0008】まず、輪郭線と各走査線との交点上の画素
を抽出する。この画素をエッジと呼ぶ。すべての輪郭線
についてエッジを抽出したら、各走査線毎にエッジに挟
まれた画素を反転する。つまり、奇数のエッジから偶数
のエッジを塗りつぶす。このことから偶奇ルールと呼ば
れる。もちろん、他のルール(ゼロワインディング法)
を用いてもよい。
First, pixels on the intersection between the contour line and each scanning line are extracted. This pixel is called an edge. After the edges have been extracted for all the contour lines, the pixels sandwiched between the edges are inverted for each scanning line. That is, the even-numbered edges are painted from the odd-numbered edges. This is called the even-odd rule. Of course, other rules (zero winding method)
May be used.

【0009】この処理をもっともシンプルに実装するに
は、図4に示すように図形を内包できるサイズのビット
マップを用意し、実際にエッジとなる画素を反転させれ
ばよい。しかし、文字のサイズが大きくなった場合や高
解像度の場合には、塗りつぶしの段階ですべての画素を
サーチし、エッジを見つけなければならないので、速度
上、不利となる。また、上述したように大サイズになる
とメモリを多く必要とする、などの欠点がある。とく
に、グレイスケールを作成したい場合には、拡大を施す
ための欠点が顕著となる。
The simplest implementation of this processing is to prepare a bitmap of a size that can include a figure as shown in FIG. 4 and invert the pixels that are actually edges. However, when the size of the character is increased or the resolution is high, all pixels must be searched at the painting stage to find an edge, which is disadvantageous in terms of speed. Further, as described above, there is a drawback that a large size requires a large amount of memory. In particular, when it is desired to create a gray scale, the drawback for enlarging becomes significant.

【0010】そこで、図5に示すように各走査線のエッ
ジをリストで管理することが行われている。。選択した
エッジを走査線毎のリストに登録しておき、すべてのエ
ッジが登録されたところで各リスト別にソートする。こ
のリストをエッジリストと呼ぶ。出力時にはエッジリス
トから2点ずつ読み出し、これらの点を始点および終点
としてフレームバッファ上でその間を塗りつぶす。エッ
ジリストでは、例えば、アウトラインがN×Nに拡大さ
れても、拡大前のN倍のメモリしか必要としない。か
つ、各ラインがランレングス法に相当する圧縮形式とな
るので、さらにメモリ消費が少なくなる。
Therefore, as shown in FIG. 5, the edge of each scanning line is managed in a list. . The selected edges are registered in a list for each scanning line, and when all edges are registered, sorting is performed for each list. This list is called an edge list. At the time of output, two points are read from the edge list, and these points are set as a start point and an end point, and the area between them is painted on the frame buffer. In the edge list, for example, even if the outline is expanded to N × N, only N times the memory before the expansion is required. In addition, since each line has a compression format corresponding to the run-length method, memory consumption is further reduced.

【0011】特開平6−168334号公報では、拡大
したアウトラインから作成したエッジリストからグレイ
スケールを作成するようにし、メモリ消費を極めて少な
くしている。しかし、エッジリストから直接にグレイス
ケールのエッジリストを生成する際に、前後の走査線に
おける始点終点の比較等の複雑な条件判断を行なってい
るため、処理が遅くなる。また、条件判断はグレイスケ
ールの階調に依存し、必要とする階調毎にプログラムを
用意しなければならず、かつ多階調になるほどプログラ
ムが複雑になり開発が困難である。
In Japanese Patent Application Laid-Open No. 6-168334, a gray scale is created from an edge list created from an enlarged outline, so that memory consumption is extremely reduced. However, when a grayscale edge list is directly generated from an edge list, complicated conditions such as comparison of a start point and an end point in the preceding and succeeding scan lines are performed, and thus processing is slow. Further, the condition determination depends on the gray scale gradation, and a program must be prepared for each required gradation. The more the number of gradations, the more complicated the program and the more difficult the development.

【0012】[0012]

【発明が解決する課題】この発明は、以上の事情を考慮
してなされたものであり、文字・図形のアウトライン情
報から、多階調・高解像度の出力を作成する過程におい
て、エッジリストから直接かつ簡易にグレイスケール画
素値(グレイスケールレベル)を出力するようにし、高
速出力が可能で、かつメモリ消費量が極めて小さく、任
意の階調を出力することができる描画装置を提供するこ
とを目的としている。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances. In the process of creating multi-tone, high-resolution output from outline information of characters and figures, the present invention is directly applied to an edge list. It is another object of the present invention to provide a drawing apparatus which can easily output a gray scale pixel value (gray scale level), can output at high speed, consumes very little memory, and can output an arbitrary gradation. And

【0013】[0013]

【課題を解決するための手段】この発明によれば、上述
の目的を達成するために、文字、図形等の描画対象の輪
郭線の情報に基づいて、上記輪郭線と走査線との交点の
座標を抽出して所定の基準を満たす交点の間の画素を描
画処理する描画装置に、上記輪郭線の情報を受け取り、
輪郭線を規定する座標値を一次変換して拡大した輪郭線
の情報を生成する手段と、上記拡大した輪郭線と走査線
との交点を求め、上記交点の情報に基づいて画素内の理
想的な描画処理面積を算出し、この画素内の理想的な描
画処理面積に基づいてその画素のグレイスケールの画素
値を決定する画素値決定手段とを設けるようにしてい
る。
According to the present invention, in order to achieve the above-described object, the intersection of the outline and the scanning line is determined based on the information of the outline to be drawn such as characters and figures. A drawing device that extracts coordinates and draws pixels between intersections satisfying a predetermined criterion receives the information of the contour line,
Means for generating information of an enlarged contour by primary-transforming coordinate values defining the contour, obtaining an intersection between the enlarged contour and the scanning line, and calculating an ideal point in a pixel based on the information of the intersection. And a pixel value determining means for calculating a grayscale pixel value of the pixel based on an ideal rendering processing area within the pixel.

【0014】この構成においては、拡大した輪郭線と走
査線との交点の情報から対応する画素内の理想的な描画
処理面積を簡易に算出し、これに基づいてその画素のグ
レイスケールレベルを求めることができ、この結果、メ
モリ消費が少なく、複雑な条件判断を行なう必要もな
い。なお、この構成において、面積に閾値を設けて、閾
値以上は反転、それ未満は非反転とするようにして2値
の描画を行なうようにすることもできる。
In this configuration, the ideal drawing processing area in the corresponding pixel is simply calculated from the information of the intersection of the enlarged contour line and the scanning line, and the gray scale level of the pixel is obtained based on this. As a result, the memory consumption is low and there is no need to perform complicated condition judgment. In this configuration, it is also possible to provide a threshold value for the area, to invert the area above the threshold value and not to invert the area below the threshold value, and to perform the binary drawing.

【0015】この構成において、走査変換法により生成
するエッジリストを上記拡大した輪郭線と走査線との交
点の情報として用いることができる。
In this configuration, the edge list generated by the scan conversion method can be used as information of the intersection between the enlarged contour and the scan line.

【0016】また、上記描画装置に、さらに、上記グレ
イスケールの画素値を1または複数の走査線単位に記憶
するイメージバッファ手段と、上記イメージバッファ手
段から上記1または複数の走査線単位で上記グレイスケ
ールの画素値を受け取るフレームバッファ手段とを設け
るようにしてもよい。
Further, the drawing apparatus further includes an image buffer means for storing the gray scale pixel value in one or a plurality of scanning line units, and an image buffer means for storing the gray scale pixel value in the one or a plurality of scanning line units from the image buffer means. Frame buffer means for receiving the pixel value of the scale may be provided.

【0017】また、上記画素値決定手段は、上記交点の
情報に基づいて対応する画素のグレイスケールの画素値
を出力するテーブル手段を有するようにしてもよい。
Further, the pixel value determining means may have a table means for outputting a gray scale pixel value of a corresponding pixel based on the information of the intersection.

【0018】また、この発明によれば、上述の目的を達
成するために、文字、図形等の描画対象の輪郭線の情報
に基づいて、上記輪郭線と走査線との交点の座標を抽出
して所定の基準を満たす交点の間の画素を描画処理する
描画装置に、グレイスケールの描画処理を行なうか2値
の描画処理を行なうかを指定する描画処理指示手段と、
グレイスケールの描画処理が指示されたときには、上記
輪郭線の情報を受け取り、輪郭線を規定する座標値を一
次変換して拡大した輪郭線の情報を生成する手段と、グ
レイスケールの描画処理が指示されたときには、上記拡
大した輪郭線と走査線との交点を求め、上記交点の情報
に基づいて画素内の理想的な描画処理面積を算出し、こ
の画素内の理想的な描画処理面積に基づいてその画素の
グレイスケールの画素値を決定するグレイスケール画素
値決定手段と、グレイスケールの描画処理が指示された
ときには、上記グレイスケールの画素値を1または複数
の走査線単位に記憶するイメージバッファ手段と、2値
の描画処理が指示されたときには、上記描画対象の輪郭
線の情報を受け取り、上記輪郭線と走査線との交点を求
め、上記交点の情報に基づい2値の画素値を決定する2
値画素決定手段と、グレイスケールの描画処理が指示さ
れたときには上記上記イメージバッファ手段から上記グ
レイスケールの画素値を受け取り、2値の描画処理が指
示されたときには上記2値画素値決定手段から上記2値
の画素値を受け取るフレームバッファ手段とを設けるよ
うにしてもよい。
According to the present invention, in order to achieve the above object, coordinates of an intersection of the outline and a scanning line are extracted based on information of an outline to be drawn such as a character or a figure. Drawing processing instruction means for designating whether to perform grayscale drawing processing or binary drawing processing on a drawing apparatus that draws pixels between intersections satisfying a predetermined criterion;
When the grayscale drawing processing is instructed, the information of the outline is received, and a coordinate value defining the outline is linearly transformed to generate information of the enlarged outline, and the grayscale drawing processing is instructed. Then, an intersection between the enlarged contour line and the scanning line is obtained, an ideal drawing processing area in the pixel is calculated based on the information of the intersection, and an ideal drawing processing area in the pixel is calculated. A gray scale pixel value determining means for determining a gray scale pixel value of the pixel, and an image buffer for storing the gray scale pixel value in units of one or a plurality of scanning lines when a gray scale drawing process is instructed. Means, when binary drawing processing is instructed, receives information on the outline to be drawn, finds an intersection between the outline and the scanning line, and obtains information on the intersection. Determining the pixel value of the binary based on 2
The value pixel determining means receives the grayscale pixel value from the image buffer means when the grayscale drawing processing is instructed, and receives the grayscale pixel value from the binary pixel value determining means when the binary drawing processing is instructed. Frame buffer means for receiving binary pixel values may be provided.

【0019】この構成においても、拡大した輪郭線と走
査線との交点の情報から対応する画素内の理想的な描画
処理面積を簡易に算出し、これに基づいてその画素のグ
レイスケール画素値を求めることができ、この結果、メ
モリ消費が少なく、複雑な条件判断を行なう必要もな
い。さらに、この構成においては、2値の描画でよい場
合には、グレイスケール用の演算を行なうことなく、直
接に2値の描画に関する処理を行ない、スループットを
向上させることができる。
Also in this configuration, an ideal drawing processing area in a corresponding pixel is easily calculated from the information of the intersection of the enlarged contour line and the scanning line, and the gray scale pixel value of the pixel is calculated based on this. As a result, the memory consumption is small, and there is no need to perform complicated condition judgment. Further, in this configuration, when binary drawing is sufficient, the processing relating to the binary drawing is directly performed without performing the calculation for gray scale, and the throughput can be improved.

【0020】[0020]

【発明の実施の態様】以下、この発明を詳細に説明す
る。まず、この発明の原理を説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, the present invention will be described in detail. First, the principle of the present invention will be described.

【0021】この発明では、階調に応じてアウトライン
を拡大し、走査変換手段によりエッジリストを作成す
る。グレイスケール作成手段で1ライン分のグレイスケ
ールのイメージバッファを用意し、エッジリストから所
定の変換式を用いて1ライン分のグレイスケールのイメ
ージを作成後、フレームバッファに合成する。これをす
べてラインについて繰り返す。
According to the present invention, the outline is enlarged in accordance with the gradation, and the edge list is created by the scan conversion means. A grayscale image buffer for one line is prepared by the grayscale creating means, and a grayscale image for one line is created from the edge list using a predetermined conversion formula, and then combined with the frame buffer. This is all repeated for the line.

【0022】ここで、拡大した輪郭線のエッジリストか
ら元サイズの1ライン分のグレイスケールイメージを出
力する手順について、縦横3倍に拡大して10段階の階
調を求める例で説明する。図2は輪郭線が同じ画素に2
本ある場合、図3は輪郭線がある程度離れている場合の
両端の画素を示している。各元画素は縦横3分割(3
倍)されていて、分割された画素(画素セグメントと呼
ぶことにする)に対して走査変換を実施している。この
1つの画素中で反転した画素セグメントの個数を求めれ
ば、エッジの階調が決定できる。
Here, a procedure for outputting a gray scale image of one line of the original size from the edge list of the enlarged contour line will be described by way of an example in which the image is enlarged three times vertically and horizontally to obtain ten gradations. FIG. 2 shows two pixels having the same contour line.
In the case where there is a book, FIG. 3 shows pixels at both ends when the outline is separated to some extent. Each original pixel is divided vertically and horizontally (3
), And performs scan conversion on the divided pixels (referred to as pixel segments). By determining the number of inverted pixel segments in this one pixel, the gradation of the edge can be determined.

【0023】つぎに反転した画素セグメント数の求め方
を説明する。まず、図2の例(輪郭線が同じ画素に2本
ある場合)について説明する。図2においては、各画素
について1スキャンライン当たり反転した画素セグメン
トの数をつぎの式で求める。計算で用いている画素セグ
メントの座標は、対応する画素の左端を0とした相対座
標である。
Next, a method of calculating the number of inverted pixel segments will be described. First, the example of FIG. 2 (when there are two contour lines in the same pixel) will be described. In FIG. 2, the number of inverted pixel segments per scan line for each pixel is determined by the following equation. The coordinates of the pixel segment used in the calculation are relative coordinates with the left end of the corresponding pixel being 0.

【0024】[0024]

【数1】 終点の画素セグメントの座標−始点の画素セグメントの座標+1 … A ただし、画素中に始点となる画素セグメントがない場合
(図2の、)には、始点の画素セグメントの座標=
0とし、終点となる画素セグメントがない場合(図2の
)には、終点の画素セグメントの座標=分割数−1と
する。以上のようにして求めたセグメント数を、画素1
個当たりに含まれるすべてのスキャンライン(分割数3
であるから3ライン)で加算すれば、画素当たりの反転
した画素セグメント数となる。
## EQU00001 ## where the coordinates of the pixel segment at the end point--the coordinates of the pixel segment at the start point + 1... A However, if there is no pixel segment at the start point in the pixel (in FIG. 2), the coordinates of the pixel segment at the start point =
When the pixel segment to be the end point is not set (0 in FIG. 2), the coordinates of the pixel segment at the end point = the number of divisions−1. The number of segments obtained as described above is calculated for pixel 1
All scan lines included per unit (divided number 3
Therefore, if the addition is performed in three lines), the number of inverted pixel segments per pixel is obtained.

【0025】図2の例を計算する。The example of FIG. 2 is calculated.

【0026】[0026]

【数2】=2−1+1=2 =2−0+1=3 =2−1+1=2 ++=7 1画素当たりの全画素セグメント数は3×3=9であ
り、面積比率は7/9となる。
## EQU2 ## = 2-1 + 1 = 2 = 2-0 + 1 = 3 = 2-1 + 1 = 2 ++ = 7 The total number of pixel segments per pixel is 3.times.3 = 9, and the area ratio is 7/9. .

【0027】つぎに、図3の例(輪郭線がある程度離れ
ていて2つの画素にそれぞれ別の輪郭線が交差する場
合)を考える。左側の画素の各スキャンラインについて
先ほどの式に当てはめるとつぎのようになる。
Next, consider the example of FIG. 3 (a case where the outlines are separated to some extent and different outlines intersect two pixels, respectively). By applying the above equation to each scan line of the left pixel, the following is obtained.

【0028】[0028]

【数3】 (分割数−1)−始点の画素セグメントの座標+1 =分割数−始点の画素セグメントの座標 … B 同様に右側の画素のスキャンラインについてはつぎのよ
うになる。
## EQU00003 ## (the number of divisions-1) -the coordinates of the pixel segment at the starting point + 1 = the number of divisions--the coordinates of the pixel segment at the starting point...

【0029】[0029]

【数4】 終点の画素セグメントの座標−0+1 =終点の画素セグメントの座標+1 … C 左右の画素に挟まれている画素はつぎのようになる。The coordinates of the pixel segment at the end point−0 + 1 = coordinates of the pixel segment at the end point + 1... C The pixels sandwiched between the left and right pixels are as follows.

【0030】[0030]

【数5】(分割数−1)−0+1=分割数 … D 図3の例を上式を用いて計算する。## EQU5 ## (the number of divisions-1) -0 + 1 = the number of divisions... D The example of FIG.

【0031】[0031]

【数6】左側の画素 =3−2=1 =3−1=2 =3−1=2 ++=5 右側の画素 =1+1=2 =1+1=2 =0+1=1 ++=5 ほとんどの場合、始点と終点は図3に示すようにある程
度離れているので、最初に始点、終点の値を比較してA
式で計算するか、B,C,D式で計算するかを判断させ
る方が、A式のみで計算するより高速である。
## EQU6 ## Left pixel = 3-2 = 1 = 3-1 = 2 = 3-1 = 2 ++ = 5 Right pixel = 1 + 1 + 1 = 2 + 1 + 1 = 2 = 0 + 1 = 1 ++ = 5 In most cases, Since the start point and the end point are separated to some extent as shown in FIG. 3, first, the values of the start point and the end point are compared, and A
It is faster to determine whether to calculate using the formulas or to calculate using the B, C, and D formulas than to calculate using only the formula A.

【0032】実際の処理は、拡大したアウトラインから
画素セグメント(分割画素)のエッジリストを生成し、
画素セグメントの座標値を拡大率で割った商から対応す
る画素の座標を求め、余りを、対応する画素中での画素
セグメントの相対座標として各画素の反転画素セグメン
トの個数を求め、グレイスケールを作成する。
The actual processing is to generate an edge list of pixel segments (divided pixels) from the enlarged outline,
The coordinates of the corresponding pixel are obtained from the quotient obtained by dividing the coordinate value of the pixel segment by the enlargement ratio, the remainder is obtained as the relative coordinates of the pixel segment in the corresponding pixel, the number of inverted pixel segments of each pixel is obtained, and the gray scale is calculated. create.

【0033】このように、この発明のグレイスケール作
成手段では、計算とループによってグレイスケールを作
成するので、条件判断を極力少なくできるため、高速で
あり、作成手順も分割数に依存しない。
As described above, in the gray scale creating means of the present invention, since the gray scale is created by calculation and loop, the condition judgment can be minimized, so that the speed is high and the creation procedure does not depend on the number of divisions.

【0034】また、通常必要とされる多階調は多くて、
2、3種類であるので、各階調毎に計算結果をテーブル
化することで、さらに高速化が可能となる。始点と終点
はほとんどの場合離れているから、B、C、D式による
計算が大部分を占める。D式は定数なので実際には計算
することはない。B、C式は変数が一つなのでテーブル
を作成しても小さなサイズで済む。図6の左表はB式
の、右表はC式の3分割の場合に計算結果を予めテーブ
ルにした例である。
In addition, there are many normally required multiple gradations,
Since there are a few types, a higher speed can be achieved by tabulating the calculation results for each gradation. Since the starting point and the ending point are in most cases distant from each other, most of the calculations by the B, C, and D equations are used. Since formula D is a constant, it is not actually calculated. Since the B and C expressions have only one variable, a small size is sufficient even if a table is created. The left table in FIG. 6 is an example in which the calculation results are previously stored in a table in the case of three divisions of the equation B, and the right table is an equation in the case of division into three equations.

【0035】[0035]

【実施例】つぎにこの発明の実施例について説明する。Next, an embodiment of the present invention will be described.

【0036】図7は、この実施例の機能を模式的に示す
ものであり、この図において、この実施例の描画装置
は、入力部11、走査変換部12、グレイスケール作成
部13、合成部14、イメージバッファ15、フレーム
バッファ16を含んで構成されている。
FIG. 7 schematically shows the functions of this embodiment. In this drawing, the drawing apparatus of this embodiment includes an input unit 11, a scan conversion unit 12, a gray scale creation unit 13, a synthesis unit 14, an image buffer 15, and a frame buffer 16.

【0037】入力部11は、クライアントから文字・図
形のアウトライン情報を受け取り、グレイスケール出力
が指示されている場合には、アウトライン情報の各制御
点を一次変換し、画素セグメント用のアウトラインを作
成する。拡大率をNとすると、最多で(N×N)+1段
階の階調のグレイスケールを扱うことができる。
The input unit 11 receives character / graphic outline information from the client, and when gray scale output is instructed, performs primary conversion on each control point of the outline information to create an outline for a pixel segment. . Assuming that the enlargement ratio is N, a gray scale of (N × N) +1 gradations can be handled at most.

【0038】走査変換部12は、入力部11からアウト
ライン情報を受け取り、走査線と拡大した輪郭線との交
点を検出し、画素セグメントについてエッジリストを生
成する。
The scan converter 12 receives the outline information from the input unit 11, detects an intersection between the scan line and the enlarged contour, and generates an edge list for the pixel segment.

【0039】グレイスケール作成部13は、まず、走査
変換部12からエッジリストを受け取り、画素1ライン
分のイメージバッファ15(画素と1対1の配列)を初
期化する。つぎに、1スキャンライン分の画素セグメン
トのエッジリストから順に始点、終点の組を取出し、画
素における相対座標を計算する。始点と終点の画素が同
一のが間にはA式で反転する画素セグメントの数を求め
る。始点の画素と終点の画素が異なる場合には、始点の
画素において反転した画素セグメントの数をB式で求
め、終点の画素において反転した画素セグメントの数を
C式で求め、始点の画素と終点の画素の間の画素におい
て反転した画素セグメントの数を式Dで計算する。これ
ら反転した画素セグメントの数を、イメージバッファ1
5の対応する配列に加算していく。この作業を、画素セ
グメントのエッジリストでNライン分繰返し、画素1ラ
イン分のイメージを作成する。各配列に格納されている
値は、対応する画素内で反転した画素セグメントの数で
あるから、計算またはテーブル変換によってグレイスケ
ールのレベルに変換される。
The gray scale creating section 13 first receives the edge list from the scan converting section 12, and initializes the image buffer 15 (one-to-one arrangement with pixels) for one line of pixels. Next, a set of a start point and an end point is sequentially extracted from the edge list of the pixel segment for one scan line, and the relative coordinates of the pixel are calculated. The number of pixel segments to be inverted is calculated by the formula A between the same pixels at the start point and the end point. If the start pixel and the end pixel are different, the number of inverted pixel segments at the start pixel is determined by equation B, the number of inverted pixel segments at the end pixel is determined by equation C, and the start pixel and the end pixel are determined. Equation D calculates the number of inverted pixel segments in the pixels between the pixels. The number of these inverted pixel segments is stored in the image buffer 1
5 are added to the corresponding array. This operation is repeated for N lines in the edge list of the pixel segment to create an image for one line of pixels. Since the value stored in each array is the number of inverted pixel segments in the corresponding pixel, it is converted to a gray scale level by calculation or table conversion.

【0040】合成部14は、グレイスケール作成部13
から画素1ライン分のグレイスケールイメージを受け取
り、フレームバッファ16の文字・図形の表示位置に合
成する。すべてのエッジリストの処理が終了したら出力
部(図示しない)に処理が移行し、未処理のエッジリス
トがある場合にはグレイスケール作成部23の処理に戻
る。
The synthesizing unit 14 includes the gray scale creating unit 13
And a gray scale image for one line of pixels is received from the frame buffer 16 and combined with the character / graphic display position of the frame buffer 16. When all edge lists have been processed, the process proceeds to an output unit (not shown), and if there is an unprocessed edge list, the process returns to the grayscale creation unit 23.

【0041】出力部(図示しない)は、合成部24によ
りフレームバッファ16に1頁分の書込みが終了した時
点で、フレームバッファ16の情報を紙やディスプレイ
等の表示メディアに出力する。
An output unit (not shown) outputs the information of the frame buffer 16 to a display medium such as paper or a display when the writing of one page into the frame buffer 16 is completed by the synthesizing unit 24.

【0042】図8は、この実施例が実現される計算機環
境の一例を示すものであり、この図において、システム
バス20に、CPU(中央処理装置)21、RAM2
2、ROM23、外部記憶装置24、フレームバッファ
16、ビデオインターフェース25およびプリンタイン
ターフェース26等が接続されている。ビデオインター
フェース25およびプリンタインターフェース26には
ディスプレイやページプリンタ等の出力装置が接続さ
れ、フレームバッファ16から画像情報(ラスター情
報)が読み出されこれら出力装置に供給される。CPU
21は、RAM22またはROM23に記憶されたプロ
グラムによって、図7の入力部11、走査変換部12、
グレイスケール作成部13、合成部14の機能を適宜実
行する。また、ROM23または外部記憶装置24から
アウトラインフォントデータや図形データが読み出さ
れ、また、RAM22の情報の一部が外部記憶装置24
に書込まれる。
FIG. 8 shows an example of a computer environment in which this embodiment is realized. In this figure, a CPU (central processing unit) 21, a RAM 2
2, ROM 23, external storage device 24, frame buffer 16, video interface 25, printer interface 26, and the like. Output devices such as a display and a page printer are connected to the video interface 25 and the printer interface 26, and image information (raster information) is read from the frame buffer 16 and supplied to these output devices. CPU
Reference numeral 21 denotes an input unit 11, a scan conversion unit 12, and a scan conversion unit 12 shown in FIG.
The functions of the gray scale creating unit 13 and the synthesizing unit 14 are appropriately executed. Further, outline font data and graphic data are read from the ROM 23 or the external storage device 24, and a part of the information in the RAM 22 is stored in the external storage device 24.
Is written to.

【0043】つぎに図8、図9および図10を参照しな
がら実施例の描画装置の動作を詳細に説明する。なお、
この例では、グレイスケール処理と2値処理とを選択で
きるようになっている。
Next, the operation of the drawing apparatus of the embodiment will be described in detail with reference to FIG. 8, FIG. 9 and FIG. In addition,
In this example, gray scale processing and binary processing can be selected.

【0044】(前処理)走査変換部12において、エッ
ジリストの領域を確保して、各変数を初期化する(S3
0)。
(Preprocessing) In the scan conversion unit 12, an area of the edge list is secured and each variable is initialized (S3).
0).

【0045】(入力部11の処理)CPU21は入力部
11の手順を実行する。まず、インターフェースを介し
てRAMに記憶されたアウトライン情報、文字コード等
を読み込む。文字コードであればROM、外部記憶装置
からアウトライン情報を読み出す。グレイスケールが指
定された場合には、制御点の座標変換を実行し、アウト
ラインを拡大する(S31、S32)。RAM22に画
素1ライン分に相当する画素セグメントのイメージバッ
ファ15を確保する(S33)。
(Process of Input Unit 11) The CPU 21 executes the procedure of the input unit 11. First, outline information, character codes, and the like stored in the RAM are read through the interface. If it is a character code, outline information is read from a ROM or an external storage device. When the gray scale is designated, the coordinate transformation of the control point is executed to enlarge the outline (S31, S32). The image buffer 15 of the pixel segment corresponding to one line of the pixel is secured in the RAM 22 (S33).

【0046】(走査変換部12の処理)CPU21は走
査変換部12の手順を実行する。先に説明したようにス
テップS30において、RAM22にエッジリスト領域
を確保し、初期化する。つぎに、曲線の分割数を決め、
アウトラインを短い直線に分割する(S34)。直線分
割された輪郭線に対して、エッジの選択とRAMのエッ
ジリストへの登録を行なう(S35)。すべての輪郭線
のエッジをエッジリストに登録したら、各走査線毎にエ
ッジリストをソートする(S36)。グレイスケールが
指定されている場合には図8のステップS39に進む。
(Processing of Scan Conversion Unit 12) The CPU 21 executes the procedure of the scan conversion unit 12. As described above, in step S30, an edge list area is secured in the RAM 22 and initialized. Next, determine the number of divisions of the curve,
The outline is divided into short straight lines (S34). Edge selection and registration in the edge list of the RAM are performed on the straight line-divided outline (S35). When the edges of all the contour lines are registered in the edge list, the edge list is sorted for each scanning line (S36). If the gray scale is specified, the process proceeds to step S39 in FIG.

【0047】(グレイスケール作成部13の処理)CP
U22はグレイスケール作成部13の手順を実行する。
まず、RAM22のイメージバッファ15(図7)を初
期化する。つぎに、画素1ラインを作成するのに必要な
本数(分割数)のエッジリストをRAM22から読み出
し、各エッジリストから反転した画素セグメントの数を
計算し、イメージバッファ15に加算していく。反転し
た画素セグメントの数が決定したら、画素セグメント数
をグレイスケールレベルに変換する。
(Processing of Gray Scale Generating Unit 13) CP
U22 executes the procedure of the gray scale creation unit 13.
First, the image buffer 15 (FIG. 7) of the RAM 22 is initialized. Next, the edge list of the number (the number of divisions) required to create one line of pixels is read out from the RAM 22, the number of inverted pixel segments is calculated from each edge list, and added to the image buffer 15. Once the number of inverted pixel segments is determined, the number of pixel segments is converted to a gray scale level.

【0048】具体的な手順はつぎのようなものである。 [S39]:走査線カウンタをクリアする。 [S40]:イメージバッファ15をクリアする。 [S41]:走査線カウンタの番号のエッジリストを読
み込む。 [S42]:エッジリストの始点、終点の組を取出す。 [S43]:始点、終点を分割数で割り、その商を新た
な始点、終点とする。 [S44]:始点、終点の座標は一致するか判断する。
一致する場合にはステップS45へ進む。一致しなけれ
ばステップS49へ進む。 [S45]:A式の計算結果をイメージバッファ15の
始点(終点でもある)の画素へ加算する。 [S46]:始点、終点の組がまだ残っているか判断す
る。残っていればステップS42へ戻る。残っていなけ
ればステップS47へ進む。 [S47]:走査線カウンタを繰り上げる。 [S48]:走査線カウンタが拡大率の倍数かどうかを
判断する。倍数であればステップ52へ進む。倍数でな
ければステップS41へ戻り、処理を繰り返す。 [S49]:B式の結果をイメージバッファ15の始点
の画素へ加算する。 [S50]:D式の結果をイメージバッファ15の始点
の直後から終点の直前のすべての画素に加算する。 [S51]:C式の結果をイメージバッファ15の終点
の画素へ加算する。
The specific procedure is as follows. [S39]: The scanning line counter is cleared. [S40]: The image buffer 15 is cleared. [S41]: The edge list of the scanning line counter number is read. [S42]: A pair of a start point and an end point of the edge list is extracted. [S43]: The start point and end point are divided by the number of divisions, and the quotient is set as a new start point and end point. [S44]: It is determined whether the coordinates of the start point and the end point match.
If they match, the process proceeds to step S45. If they do not match, the process proceeds to step S49. [S45]: The calculation result of the expression A is added to the pixel at the start point (also the end point) of the image buffer 15. [S46]: It is determined whether a pair of a start point and an end point still remains. If any remain, the process returns to step S42. If not, the process proceeds to step S47. [S47]: The scanning line counter is incremented. [S48]: It is determined whether or not the scanning line counter is a multiple of the enlargement ratio. If it is a multiple, the process proceeds to step 52. If it is not a multiple, the process returns to step S41 and the process is repeated. [S49]: The result of the expression B is added to the pixel at the start point of the image buffer 15. [S50]: The result of the formula D is added to all pixels immediately after the start point of the image buffer 15 and immediately before the end point. [S51]: The result of the expression C is added to the pixel at the end point of the image buffer 15.

【0049】(合成部の処理)CPU22は合成部14
の手順を実行する。まず、RAM22のイメージバッフ
ァ15から1ライン分のグレイスケールレベルの情報を
フレームバッファ16に書込む(S52)。書込み終了
後、すべてのエッジリストを処理し終えているかどうか
を判断する(S53)。処理し終えていれば出力部の処
理に移行し、未処理のエッジリストがあれば、グレイス
ケール作成部13の処理(ステップS40)に戻る。
(Processing of Combining Unit) The CPU 22
Follow the steps in First, grayscale level information for one line is written from the image buffer 15 of the RAM 22 to the frame buffer 16 (S52). After the writing, it is determined whether or not all edge lists have been processed (S53). If the processing has been completed, the processing shifts to the processing of the output unit. If there is an unprocessed edge list, the processing returns to the processing of the gray scale creating unit 13 (step S40).

【0050】なお、グレイスケールでなく2値処理が指
定されている場合には、走査変換部12で通常の輪郭情
報からエッジリストを生成し(S34〜S36)、エッ
ジリスト展開部17(図11)を用いてエッジリストを
フレームバッファ16に直接に展開していく。すなわ
ち、エッジリスト展開部17は、走査変換部22からエ
ッジリストを受け取り、フレームバッファ16の文字・
図形の表示位置にエッジリストを展開していく。
If binary processing is specified instead of gray scale, the scan conversion unit 12 generates an edge list from ordinary contour information (S34 to S36), and the edge list expansion unit 17 (FIG. 11). ), The edge list is directly expanded in the frame buffer 16. That is, the edge list developing unit 17 receives the edge list from the scan conversion unit 22, and stores the
Expand the edge list to the display position of the figure.

【0051】(出力部の処理)出力部は一定の時間間
隔、またはCPU22からの終了信号に応じてフレーム
バッファを調べ、登録されているビットマップ画像を出
力する。
(Processing of Output Unit) The output unit checks the frame buffer at fixed time intervals or in response to an end signal from the CPU 22, and outputs a registered bitmap image.

【0052】つぎにこの発明の他の実現態様について説
明する。
Next, another embodiment of the present invention will be described.

【0053】上述の実施例においてはグレイスケール表
示の例のみ示しているが、2値表示の場合でもまったく
同様の手順でイメージを作成することができる。ただ
し、グレイスケール作成部で1ライン分の画素のイメー
ジを作成する必要はなく、ステップS38で示すよう
に、直接に、フレームバッファ16の所定位置に直截に
エッジリストを展開すればよい。すなわち、図11に示
すように、エッジリスト展開部17を用いてエッジリス
トをフレームバッファ16に直截に展開する。このよう
にすると、2値の場合、合成部14の処理を省くことが
できるので高速化できる。なお、図11において図7と
対応する箇所には対応する符号を付した。また、18は
グレイスケール表示、2値表示を指示する表示指示部で
ある。
In the above-described embodiment, only an example of gray scale display is shown. However, even in the case of binary display, an image can be created in exactly the same procedure. However, it is not necessary to create an image of pixels for one line in the gray scale creating unit, and the edge list may be directly developed directly at a predetermined position in the frame buffer 16 as shown in step S38. That is, as shown in FIG. 11, the edge list is directly developed in the frame buffer 16 using the edge list developing unit 17. In this way, in the case of binary, the processing of the synthesizing unit 14 can be omitted, so that the speed can be increased. In FIG. 11, parts corresponding to those in FIG. 7 are denoted by corresponding reference numerals. Reference numeral 18 denotes a display instruction unit for instructing gray scale display and binary display.

【0054】実施例では、グレイスケール作成部13で
1ライン分のイメージバッファ15を用いているが、フ
レームバッファ16が読み出し可能である場合には、必
ずしも必要ではない。イメージバッファ15の代りに直
接にフレームバッファ16に読み出し・書込みすること
で、イメージバッファ15を省略できる。この場合、合
成部14も不要になる。ただし、フレームバッファ15
に背景等が存在する場合、合成が難しくなる。
In the embodiment, the image buffer 15 for one line is used in the gray scale creating unit 13, but is not always necessary when the frame buffer 16 can be read. By reading and writing directly to the frame buffer 16 instead of the image buffer 15, the image buffer 15 can be omitted. In this case, the combining unit 14 is also unnecessary. However, the frame buffer 15
When there is a background or the like, the composition becomes difficult.

【0055】実施例ではメモリ効率をよくするために、
1ライン分のイメージバッファ15を用意したが、何ラ
イン分用意するようにしてもよい。数ラインまとめるこ
とで、メモリ効率は悪くなるが、求めてフレームバッフ
ァに書込むことができ、高速な処理が可能となる。
In the embodiment, in order to improve the memory efficiency,
Although the image buffer 15 for one line is prepared, any number of lines may be prepared. By combining several lines, the memory efficiency is degraded, but it is possible to write in the frame buffer as required, and high-speed processing becomes possible.

【0056】外部記憶装置24は、ハードディスクに限
らず、保有データが記憶できればよく、SRAM、RO
Mや光磁気ディスク等のディジタル情報が記憶できる他
の記憶装置に置き換え可能である。
The external storage device 24 is not limited to a hard disk, but may be any storage device capable of storing stored data.
It can be replaced with another storage device such as M or a magneto-optical disk which can store digital information.

【0057】[0057]

【発明の効果】以上説明したように、この発明によれ
ば、拡大した輪郭情報と走査線との交点の座標情報か
ら、対応する画素内の反転する画素セグメントの個数を
求め、これに基づいて当該画素のグレイスケールレベル
を決定することができる。したがって、メモリ消費を少
なくでき、しかも高速処理が可能となる。
As described above, according to the present invention, the number of inverting pixel segments in the corresponding pixel is obtained from the coordinate information of the intersection between the enlarged outline information and the scanning line, and based on this, The gray scale level of the pixel can be determined. Therefore, memory consumption can be reduced and high-speed processing can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 スキャンコンバージョンの一例を示す図であ
る。
FIG. 1 is a diagram showing an example of scan conversion.

【図2】 画素セグメントに対するエッジリストの始点
と終点が同一の画素内にある例における画素セグメント
の反転状態を示す図である。
FIG. 2 is a diagram illustrating an inverted state of a pixel segment in an example in which a start point and an end point of an edge list for a pixel segment are within the same pixel.

【図3】 画素セグメントに対するエッジリストの始点
と終点が異なる画素にある例における画素セグメントの
反転状態を示す図である。
FIG. 3 is a diagram illustrating an inverted state of a pixel segment in an example in which a start point and an end point of an edge list for a pixel segment are in different pixels.

【図4】 ビットマップにエッジを記憶する様子を説明
する図である。
FIG. 4 is a diagram illustrating a state where edges are stored in a bitmap.

【図5】 エッジをエッジリストに記憶する様子を説明
する図である。
FIG. 5 is a diagram illustrating a state in which edges are stored in an edge list.

【図6】 反転した画素セグメントの個数を計算するた
めに用意されるテーブルの例を示す図である。
FIG. 6 is a diagram showing an example of a table prepared for calculating the number of inverted pixel segments.

【図7】 この発明の実施例を説明する図である。FIG. 7 is a diagram illustrating an embodiment of the present invention.

【図8】 この発明の実施例が実現される計算機環境を
説明する図である。
FIG. 8 is a diagram illustrating a computer environment in which an embodiment of the present invention is realized.

【図9】 この発明の実施例の動作を説明する図(その
1)である。
FIG. 9 is a diagram (part 1) for explaining the operation of the embodiment of the present invention;

【図10】 この発明の実施例の動作を説明する図(そ
の2)である。
FIG. 10 is a diagram (part 2) for explaining the operation of the embodiment of the present invention;

【図11】 この発明の実施例の変形例を説明する図で
ある。
FIG. 11 is a diagram illustrating a modification of the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

11 入力部 12 走査変換部 13 グレイスケール作成部 14 合成部 15 イメージバッファ 16 フレームバッファ DESCRIPTION OF SYMBOLS 11 Input part 12 Scan conversion part 13 Gray scale preparation part 14 Synthesis part 15 Image buffer 16 Frame buffer

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 文字、図形等の描画対象の輪郭線の情報
に基づいて、上記輪郭線と走査線との交点の座標を抽出
して所定の基準を満たす交点の間の画素を描画処理する
描画装置において、 上記輪郭線の情報を受け取り、輪郭線を規定する座標値
を一次変換して拡大した輪郭線の情報を生成する手段
と、 上記拡大した輪郭線と走査線との交点を求め、上記交点
の情報に基づいて画素内の理想的な描画処理面積を算出
し、この画素内の理想的な描画処理面積に基づいてその
画素のグレイスケールの画素値を決定する画素値決定手
段とを有することを特徴とする描画装置。
1. A method for extracting coordinates of an intersection between a contour and a scanning line based on information on a contour to be drawn such as a character or a figure, and rendering a pixel between intersections satisfying a predetermined criterion. In the drawing apparatus, means for receiving the information on the contour line, generating information on the enlarged contour line by linearly transforming the coordinate values defining the contour, and finding an intersection between the enlarged contour line and the scanning line, A pixel value determining unit that calculates an ideal drawing processing area in the pixel based on the information of the intersection and determines a gray scale pixel value of the pixel based on the ideal drawing processing area in the pixel. A drawing apparatus, comprising:
【請求項2】 走査変換法により生成するエッジリスト
を上記拡大した輪郭線と走査線との交点の情報として用
いる請求項1記載の描画処理装置。
2. The drawing processing apparatus according to claim 1, wherein an edge list generated by a scan conversion method is used as information of an intersection between the enlarged contour line and the scan line.
【請求項3】 上記グレイスケールの画素値を1または
複数の走査線単位に記憶するイメージバッファ手段と、 上記イメージバッファ手段から上記1または複数の走査
線単位で上記グレイスケールの画素値を受け取るフレー
ムバッファ手段とをさらに有する請求項1記載の描画装
置。
3. An image buffer means for storing the gray scale pixel value in one or a plurality of scanning lines, and a frame receiving the gray scale pixel value in the one or a plurality of scanning lines from the image buffer means. 2. The drawing apparatus according to claim 1, further comprising a buffer unit.
【請求項4】 上記画素値決定手段は、上記交点の情報
に基づいて対応する画素のグレイスケールの画素値を出
力するテーブル手段を有する請求項1、2または3記載
の描画処理装置。
4. The drawing processing apparatus according to claim 1, wherein said pixel value determining means includes table means for outputting a gray scale pixel value of a corresponding pixel based on the information of said intersection.
【請求項5】 文字、図形等の描画対象の輪郭線の情報
に基づいて、上記輪郭線と走査線との交点の座標を抽出
して所定の基準を満たす交点の間の画素を描画処理する
描画装置において、 グレイスケールの描画処理を行なうか2値の描画処理を
行なうかを指定する描画処理指示手段と、 グレイスケールの描画処理が指示されたときには、上記
輪郭線の情報を受け取り、輪郭線を規定する座標値を一
次変換して拡大した輪郭線の情報を生成する手段と、 グレイスケールの描画処理が指示されたときには、上記
拡大した輪郭線と走査線との交点を求め、上記交点の情
報に基づいて画素内の理想的な描画処理面積を算出し、
この画素内の理想的な描画処理面積に基づいてその画素
のグレイスケールの画素値を決定するグレイスケール画
素値決定手段と、 グレイスケールの描画処理が指示されたときには、上記
グレイスケールの画素値を1または複数の走査線単位に
記憶するイメージバッファ手段と、 2値の描画処理が指示されたときには、上記描画対象の
輪郭線の情報を受け取り、上記輪郭線と走査線との交点
を求め、上記交点の情報に基づい2値の画素値を決定す
る2値画素決定手段と、 グレイスケールの描画処理が指示されたときには上記上
記イメージバッファ手段から上記グレイスケールの画素
値を受け取り、2値の描画処理が指示されたときには上
記2値画素値決定手段から上記2値の画素値を受け取る
フレームバッファ手段とを有することを特徴とする描画
装置。
5. Based on information on a contour line to be drawn such as a character or a figure, coordinates of an intersection point between the contour line and the scanning line are extracted, and a pixel between intersection points satisfying a predetermined criterion is drawn. A rendering device for performing a grayscale rendering process or a binary rendering process on the rendering device; and receiving the contour information when the grayscale rendering process is instructed, Means for generating information of an enlarged contour line by linearly transforming coordinate values defining the following.When a grayscale drawing process is instructed, an intersection between the enlarged contour line and the scanning line is obtained, and the intersection of the intersection is calculated. Calculate the ideal drawing processing area in the pixel based on the information,
A grayscale pixel value determining means for determining a grayscale pixel value of the pixel based on an ideal drawing processing area within the pixel; and when a grayscale drawing process is instructed, the grayscale pixel value is changed to Image buffer means for storing one or a plurality of scanning lines; and when a binary drawing process is instructed, information on the contour line to be drawn is received, and an intersection between the contour line and the scanning line is obtained. A binary pixel determining means for determining a binary pixel value based on the information of the intersection; and receiving the gray scale pixel value from the image buffer means when the gray scale drawing processing is instructed, the binary drawing processing And frame buffer means for receiving the binary pixel value from the binary pixel value determining means when is designated. Drawing device.
JP11027378A 1999-02-04 1999-02-04 Plotter Pending JP2000222569A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11027378A JP2000222569A (en) 1999-02-04 1999-02-04 Plotter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11027378A JP2000222569A (en) 1999-02-04 1999-02-04 Plotter

Publications (1)

Publication Number Publication Date
JP2000222569A true JP2000222569A (en) 2000-08-11

Family

ID=12219394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11027378A Pending JP2000222569A (en) 1999-02-04 1999-02-04 Plotter

Country Status (1)

Country Link
JP (1) JP2000222569A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009298023A (en) * 2008-06-13 2009-12-24 Roland Dg Corp Optical stereo lithographic method, optical stereo lithographic apparatus and computer program for optical stereo lithography applied to optical stereo lithographic apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009298023A (en) * 2008-06-13 2009-12-24 Roland Dg Corp Optical stereo lithographic method, optical stereo lithographic apparatus and computer program for optical stereo lithography applied to optical stereo lithographic apparatus

Similar Documents

Publication Publication Date Title
US5388166A (en) Image drawing apparatus
US5526474A (en) Image drawing with improved process for area ratio of pixel
CA1200025A (en) Graphic and textual image generator for a raster scan display
JP2903917B2 (en) Image editing processor
US5553219A (en) Font outline and bit map generator synthesizing filling data with selected outline data or duplicate outline data
JP2000222569A (en) Plotter
JPH0729021A (en) Picture output device
JP2806679B2 (en) Character generator
JP3146771B2 (en) Font rasterizing apparatus and method
JP2000013601A (en) Print information processor and device and method for generating intermediate data
JP3089906B2 (en) Drawing equipment
JP3129717B2 (en) Image processing apparatus and image processing method
KR970002108B1 (en) Laser-printer bit map font
JPH10151815A (en) Printing-processing apparatus
JP3452049B2 (en) Drawing apparatus and drawing method
JPH04188192A (en) Method and device for producing multigradation character
JP2785735B2 (en) Character pattern output device
JP3603589B2 (en) Image processing method and apparatus
JP2000092315A (en) Image processing unit
JP2710350B2 (en) Image processing apparatus and image processing method of image processing apparatus
JP2000090259A (en) Image processor
JPH10214077A (en) Method for generating synthetic plotting data and synthetic plotting device
JPH0573693A (en) Outline paint out system
JPH0778259A (en) Image output method and image output device
JP2001229373A (en) Reduction processing method for binary image, and image forming device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070417