JP2000066658A - Image processor and recording medium - Google Patents

Image processor and recording medium

Info

Publication number
JP2000066658A
JP2000066658A JP10232800A JP23280098A JP2000066658A JP 2000066658 A JP2000066658 A JP 2000066658A JP 10232800 A JP10232800 A JP 10232800A JP 23280098 A JP23280098 A JP 23280098A JP 2000066658 A JP2000066658 A JP 2000066658A
Authority
JP
Japan
Prior art keywords
display
character
difference
data
font
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10232800A
Other languages
Japanese (ja)
Inventor
Shigeru Saito
茂 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP10232800A priority Critical patent/JP2000066658A/en
Publication of JP2000066658A publication Critical patent/JP2000066658A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To enhance the readability of characters irrespective of a font used. SOLUTION: A font-attributive information acquiring means 1 acquires attributive information on the font of a character contained in data i1 of a processing object. A display parameter difference calculating means 2 calculates the differences of display parameters relating to the character contained in the data i1 the object and identifying degree of its background. A reference value calculating means 3 calculates a reference value based on the attributive information of the font. A display parameter changing means 4 compares the difference of the display parameter with the reference value to change the display parameter of the character if necessary. A converting means 5 converts the character changed in the display parameter and other drawing data into display format data (for example, bit map data).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像処理装置および
記録媒体に関し、特に、文字を含む描画データを表示形
式のデータに変換する画像処理装置および文字を含む描
画データを表示形式のデータに変換した後、スクリーン
処理を施す画像処理装置ならびにそのような処理をコン
ピュータに実行させるプログラムを記録したコンピュー
タ読み取り可能な記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and a recording medium, and more particularly to an image processing apparatus for converting drawing data including characters into data in a display format, and converting drawing data including characters into data in a display format. The present invention relates to an image processing apparatus that performs screen processing and a computer-readable recording medium that stores a program that causes a computer to execute such processing.

【0002】[0002]

【従来の技術】文字を含む画像データをCRT(Cathod
e Ray Tube)モニタやプリンタなどの表示装置に表示す
る場合には、文字のフォントデータと画像データとを合
成処理して表示形式のデータ(例えば、ビットマップデ
ータなど)に変換した後、CRTや記録紙に表示出力さ
れていた。
2. Description of the Related Art Image data including characters is converted to CRT (Cathod).
e Ray Tube) When displaying on a display device such as a monitor or a printer, the font data of the character and the image data are combined and converted into display format data (for example, bitmap data, etc.), and then the CRT or the like is displayed. It was displayed and output on recording paper.

【0003】ところで、文字とその背景となる画像との
表示色などが近い場合には、文字の判読性が低下する場
合があった。そこで、文字の判読性を向上させるため
に、表示しようとする画像を文字領域とイメージ領域と
に分割し、文字領域に対してのみエッジ強調処理などを
施す手法が提案されていた。
When the display colors of characters and the background image are close to each other, the legibility of the characters may be reduced. Therefore, in order to improve the legibility of characters, a method has been proposed in which an image to be displayed is divided into a character region and an image region, and edge enhancement processing or the like is performed only on the character region.

【0004】例えば、特開平9−167222号公報に
は、ぺージ記述言語で記述された画像データを(A)文
字領域および線画領域、ならびに、(B)イメージ領域
の2つに分割し、文字領域と線画領域のみのコントラス
トを高めたり、エッジを強調することにより、文字(ま
たは線画)の判読性を向上させる発明が開示されてい
る。
For example, Japanese Patent Application Laid-Open No. Hei 9-167222 discloses that image data described in a page description language is divided into two parts: (A) a character area and a line drawing area, and (B) an image area. There is disclosed an invention that improves the legibility of characters (or line drawings) by increasing the contrast of only the region and the line drawing region or enhancing the edges.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、文字領
域と画像領域が重なっている画像では、文字領域に対し
て施した強調処理が、文字の背景となる画像領域も強調
してしまうため、文字の判読性が向上しない場合がある
という問題点があった。
However, in an image in which the character area and the image area overlap, the emphasis processing performed on the character area also enhances the image area serving as the background of the character. There has been a problem that legibility may not be improved.

【0006】そこで、文字と背景の色を比較し、文字の
色を変えることによって文字を強調する発明が特開平7
−256972号公報に開示されている。この発明で
は、文字と背景とを比較し、これらの濃度や色彩が所定
の範囲内にある場合には文字の濃度や色彩を変化させ、
文字の判読性の向上を図っている。
Therefore, Japanese Patent Laid-Open No. Hei 7 (1995) discloses an invention in which the color of a character is compared with that of a background and the character is emphasized by changing the color of the character.
No. 2,569,722. According to the present invention, a character and a background are compared, and when the density and the color are within a predetermined range, the density and the color of the character are changed.
Improves the legibility of characters.

【0007】しかしながら、文字の判読性が低下するの
は、文字と背景の色が近い場合だけでなく、文字が小さ
い場合や、文字の線幅が細い場合なども考えられる。こ
のような場合にも文字を明瞭にするためには、特開平7
−256972号公報に記載されている方法では不十分
であるという問題点があった。
However, the legibility of characters may be deteriorated not only when the colors of the characters and the background are close but also when the characters are small or the line width of the characters is thin. In order to make the characters clear even in such a case, Japanese Patent Application Laid-Open
There is a problem that the method described in US Pat. No. 2,569,72 is insufficient.

【0008】また、画像データに対してスクリーン処理
が施される場合には、スクリーンのサイズによっては、
サイズが小さい文字や線幅が細い文字が不明瞭となると
いう問題点があった。
When screen processing is performed on image data, depending on the size of the screen,
There is a problem that characters having a small size and characters having a small line width become unclear.

【0009】本発明はこのような点に鑑みてなされたも
のであり、使用するフォントの種類やサイズ、または、
背景との濃度差や色彩差に関わりなく、常に判読性の高
い文字を表示することを可能とする画像処理装置を提供
する。
[0009] The present invention has been made in view of such a point, and the type and size of a font to be used, or
Provided is an image processing apparatus capable of always displaying highly legible characters irrespective of a density difference or a color difference from a background.

【0010】また、本発明の他の目的は、使用するスク
リーンのサイズに関わりなく、常に判読性の高い文字を
表示することを可能とする画像処理装置を提供する。
Another object of the present invention is to provide an image processing apparatus capable of always displaying highly legible characters regardless of the size of a screen used.

【0011】[0011]

【課題を解決するための手段】本発明では上記課題を解
決するために、文字を含む描画データを、表示形式のデ
ータに変換する画像処理装置において、前記文字に対応
するフォントの属性情報を取得するフォント属性情報取
得手段と、前記文字とその背景の識別度に係わる表示パ
ラメータの差分を算出する表示パラメータ差分算出手段
と、前記フォントの属性情報と、前記表示パラメータの
差分とに応じて、前記文字の表示パラメータを必要に応
じて変更する表示パラメータ変更手段と、表示パラメー
タが変更された前記文字と、その他の描画データとを、
表示形式のデータに変換する変換手段と、を有すること
を特徴とする画像処理装置が提供される。
According to the present invention, in order to solve the above-mentioned problems, an image processing apparatus for converting drawing data including characters into display format data acquires font attribute information corresponding to the characters. Font attribute information acquiring means, display parameter difference calculating means for calculating a difference between display parameters relating to the degree of identification of the character and its background, and the attribute information of the font and the difference between the display parameters, Display parameter changing means for changing the display parameter of the character as necessary, the character whose display parameter has been changed, and other drawing data,
An image processing apparatus comprising: a conversion unit that converts data into a display format data.

【0012】ここで、フォント属性情報取得手段は、文
字に対応するフォントの属性情報を取得する。表示パラ
メータ差分算出手段は、文字とその背景の識別度に係わ
る表示パラメータの差分を算出する。表示パラメータ変
更手段は、フォントの属性情報と、表示パラメータの差
分とに応じて、文字の表示パラメータを必要に応じて変
更する。変換手段は、表示パラメータが変更された文字
と、その他の描画データとを、表示形式のデータに変換
する。
Here, the font attribute information acquiring means acquires the attribute information of the font corresponding to the character. The display parameter difference calculation means calculates a difference between a display parameter related to the degree of discrimination between a character and its background. The display parameter changing means changes the display parameter of the character as needed according to the attribute information of the font and the difference between the display parameters. The conversion means converts the characters whose display parameters have been changed and other drawing data into display format data.

【0013】また、文字を含む描画データを、表示形式
のデータに変換した後、スクリーン処理を施す画像処理
装置において、前記スクリーンのサイズに関する情報を
取得するスクリーンサイズ取得手段と、前記文字とその
背景の識別度に係わる表示パラメータの差分を算出する
表示パラメータ差分算出手段と、前記スクリーンサイズ
に関する情報と、前記表示パラメータの差分とに応じ
て、前記文字の表示パラメータを必要に応じて変更する
表示パラメータ変更手段と、表示パラメータが変更され
た前記文字と、その他の描画データとを、表示形式のデ
ータに変換する変換手段と、前記変換手段によって得ら
れた表示形式のデータに対して、スクリーン処理を施す
スクリーン処理手段と、を有することを特徴とする画像
処理装置が提供される。
Also, in an image processing apparatus for converting drawing data including characters into data in a display format and performing screen processing, screen size obtaining means for obtaining information on the size of the screen; Display parameter difference calculating means for calculating a difference between display parameters related to the degree of discrimination, display parameters for changing the display parameters of the characters as necessary according to the information on the screen size, and the difference between the display parameters. Changing means, converting means for converting the characters whose display parameters have been changed, and other drawing data into data in display format, and performing screen processing on the data in display format obtained by the converting means. An image processing apparatus, comprising: .

【0014】ここで、スクリーンサイズ取得手段は、ス
クリーンのサイズに関する情報を取得する。表示パラメ
ータ差分算出手段は、文字とその背景の識別度に係わる
表示パラメータの差分を算出する。表示パラメータ変更
手段は、スクリーンサイズに関する情報と、表示パラメ
ータの差分とに応じて、文字の表示パラメータを必要に
応じて変更する。変換手段は、表示パラメータが変更さ
れた文字と、その他の描画データとを、表示形式のデー
タに変換する。スクリーン処理手段は、変換手段によっ
て得られた表示形式のデータに対して、スクリーン処理
を施す。
Here, the screen size obtaining means obtains information on the size of the screen. The display parameter difference calculation means calculates a difference between a display parameter related to the degree of discrimination between a character and its background. The display parameter changing means changes the display parameter of the character as needed according to the information on the screen size and the difference between the display parameters. The conversion means converts the characters whose display parameters have been changed and other drawing data into display format data. The screen processing means performs a screen processing on the data in the display format obtained by the conversion means.

【0015】[0015]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して説明する。図1は本発明の動作原理を説明す
る原理図である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a principle diagram for explaining the operation principle of the present invention.

【0016】この図に示すように、本発明に係わる画像
処理装置は、フォント属性情報取得手段1、表示パラメ
ータ差分算出手段2、基準値算出手段3、表示パラメー
タ変更手段4、および、変換手段5によって構成されて
いる。
As shown in FIG. 1, an image processing apparatus according to the present invention includes a font attribute information acquiring unit 1, a display parameter difference calculating unit 2, a reference value calculating unit 3, a display parameter changing unit 4, and a converting unit 5. It is constituted by.

【0017】ここで、フォント属性情報取得手段1は、
処理対象となるデータi1に含まれている文字(この例
では文字「A」)に対応するフォントの属性情報を取得
する。
Here, the font attribute information obtaining means 1
The attribute information of the font corresponding to the character (character “A” in this example) included in the data i1 to be processed is acquired.

【0018】フォントの属性情報としては、フォントの
サイズ、フォントの種類、および、フォントの書体を用
いる。表示パラメータ差分算出手段2は、処理対象とな
るデータi1に含まれている文字とその背景(この例で
は三角形)の識別度に係わる表示パラメータの差分を算
出する。
As the font attribute information, a font size, a font type, and a font typeface are used. The display parameter difference calculation means 2 calculates a difference between a display parameter relating to the degree of discrimination between a character included in the data i1 to be processed and its background (in this example, a triangle).

【0019】ここで、識別度とは背景から文字を弁別す
る容易さの度合いを示している。また、識別度に係わる
表示パラメータとしては、例えば、表示濃度、明度、ま
たは、色差などを用いる。更に、判読性とは文字をその
文字として認知可能であることを意味する。
Here, the degree of discrimination indicates the degree of ease of distinguishing characters from the background. Further, as a display parameter related to the degree of discrimination, for example, display density, brightness, color difference, or the like is used. Furthermore, legibility means that a character is recognizable as that character.

【0020】基準値算出手段3は、表示パラメータ変更
手段4において表示パラメータを変更する際の判断の基
準となる基準値をフォントの属性情報から算出する。な
お、この基準値は、文字の識別度が高い場合には小さな
値が設定される。
The reference value calculation means 3 calculates a reference value, which is used as a criterion for determining when the display parameter is changed by the display parameter changing means 4, from the font attribute information. The reference value is set to a small value when the degree of character recognition is high.

【0021】基準値の算出方法としては、例えば、フォ
ントのサイズが大きい場合には、文字の判読性が高いの
で、フォントのサイズが小さい場合に比較して小さな基
準値を設定する。また、フォントの種類がゴシック体の
場合には、判読性が高いので小さい基準値を設定する。
更に、フォントの書体がbold体の場合にも同様に判
読性が高いので小さい基準値を設定する。
As a method of calculating the reference value, for example, when the font size is large, the legibility of the character is high, so a smaller reference value is set as compared with the case where the font size is small. When the font type is Gothic, a small reference value is set because the legibility is high.
Furthermore, a small reference value is set even when the font typeface is a bold type because the readability is also high.

【0022】表示パラメータ変更手段4は、表示パラメ
ータの差分と基準値とを比較し、例えば、表示パラメー
タの差分が基準値未満である場合には、表示パラメータ
の差分が増加する方向に文字の表示パラメータを変更す
る。
The display parameter changing means 4 compares the difference between the display parameters and the reference value. For example, when the difference between the display parameters is smaller than the reference value, the display of the character in the direction in which the difference between the display parameters increases. Change parameters.

【0023】例えば、使用されるフォントの判読性が低
い場合(基準値が大きい場合)であって、表示パラメー
タの差分が小さい場合に、背景に比べて文字の表示濃度
が小さいときには、文字の表示濃度が更に小さい値に変
更される。逆に、背景に比べて文字の表示濃度が大きい
場合には、文字の表示濃度が更に大きい値に変更され
る。
For example, when the readability of the font to be used is low (when the reference value is large), when the difference between the display parameters is small, and when the display density of the character is smaller than that of the background, the display of the character is performed. The density is changed to a smaller value. Conversely, if the display density of the character is higher than the background, the display density of the character is changed to a higher value.

【0024】変換手段5は、表示パラメータが変更され
た文字と、その他の描画データとを、表示形式のデータ
(例えば、ビットマップデータ)に変換する。次に、以
上の原理図の動作を説明する。
The conversion means 5 converts the characters whose display parameters have been changed and other drawing data into display format data (for example, bitmap data). Next, the operation of the above principle diagram will be described.

【0025】フォント属性情報取得手段1は、処理の対
象となるデータi1に含まれている文字データ「A」に
対応するフォントの属性情報を取得する。例えば、属性
情報として、フォントサイズが「12ポイント」であ
り、フォントの種類が「明朝体」であり、また、フォン
トの書体が「bold体」であることが取得される。
The font attribute information acquiring means 1 acquires the attribute information of the font corresponding to the character data "A" included in the data i1 to be processed. For example, as the attribute information, it is acquired that the font size is “12 points”, the font type is “Mincho”, and the font type is “bold”.

【0026】基準値算出手段3は、取得された属性情報
から基準値を算出する。即ち、基準値算出手段3は、フ
ォントの各属性に対してそれぞれ付与された値を適宜加
算し、得られた値に所定の変換を行うことにより基準値
を算出する。
The reference value calculation means 3 calculates a reference value from the acquired attribute information. That is, the reference value calculation means 3 calculates the reference value by appropriately adding the values assigned to the respective attributes of the font and performing predetermined conversion on the obtained values.

【0027】表示パラメータ差分算出手段2は、処理対
象のデータi1に含まれている文字「A」の表示濃度
と、その背景の表示濃度の差分を算出する。表示パラメ
ータ変更手段4は、表示パラメータの差分が基準値未満
である場合には、文字の表示パラメータを変更する。
The display parameter difference calculating means 2 calculates the difference between the display density of the character "A" included in the data i1 to be processed and the display density of the background. When the difference between the display parameters is smaller than the reference value, the display parameter changing means 4 changes the display parameters of the characters.

【0028】例えば、文字の表示濃度が背景のそれより
も低い場合であって、かつ、表示パラメータの差分が基
準値未満である場合には、文字の表示濃度が更に低くな
るように文字の表示パラメータが変更される。
For example, when the display density of the character is lower than that of the background and the difference between the display parameters is less than the reference value, the display of the character is further reduced so that the display density of the character is further reduced. Parameters are changed.

【0029】逆に、文字の表示濃度が背景のそれよりも
高い場合であって、かつ、表示パラメータの差分が基準
値未満である場合には、文字の表示濃度が更に高くなる
ように文字の表示パラメータが変更される。
Conversely, when the display density of the character is higher than that of the background and the difference between the display parameters is less than the reference value, the display density of the character is further increased so as to be higher. Display parameters are changed.

【0030】変換手段5は、処理対象となるデータi1
を表示形式のデータであるビットマップデータに変換す
る。そして、以上のようにして得られたビットマップデ
ータi2は、例えば、CRTや記録紙に対して画像とし
て表示出力される。
The conversion means 5 outputs data i1 to be processed.
Is converted into bitmap data which is data in a display format. The bitmap data i2 obtained as described above is displayed and output as an image on a CRT or a recording sheet, for example.

【0031】以上に示したように、本発明によれば、文
字のフォント属性も考慮して文字の表示パラメータを変
更するようにしたので、フォントのサイズや種類または
書体に拘わらず、常に判読性の高い表示を行うことがで
きる。
As described above, according to the present invention, the display parameters of characters are changed in consideration of the font attributes of the characters, so that the readability is always constant regardless of the font size, type or typeface. High display can be performed.

【0032】次に、本発明の実施の形態について説明す
る。図2は、本発明の実施の形態の構成例を示すブロッ
ク図である。同図に示すように、本発明に係わる画像処
理装置は、エッジリスト生成部20、文字背景色抽出部
30、文字色変換部40、および、ビットマップ展開部
50によって構成されている。
Next, an embodiment of the present invention will be described. FIG. 2 is a block diagram showing a configuration example of the embodiment of the present invention. As shown in FIG. 1, the image processing apparatus according to the present invention includes an edge list generation unit 20, a character background color extraction unit 30, a character color conversion unit 40, and a bitmap development unit 50.

【0033】図2において、印刷データ10は画像処理
装置で処理可能な記述言語で記述されており、図示され
ないパーソナルコンピュータやワークステーションにお
いて、文書作成や文書編集等を行うアプリケーションプ
ログラムで作成された文書データから生成されたもので
ある。本実施例で対象とする記述言語は、例えば、GD
I(Graphics Device Interface )であるが、Acro
batに代表されるPDF(Portable Document Forma
t)やPostScriptに代表されるぺージ記述言
語などでもよい。
In FIG. 2, the print data 10 is described in a description language that can be processed by the image processing apparatus, and is created by a personal computer or workstation (not shown) created by an application program for creating or editing a document. It was generated from the data. The description language targeted in this embodiment is, for example, GD
I (Graphics Device Interface), but Acro
bat (Portable Document Forma)
t) or a page description language typified by PostScript.

【0034】なお、印刷データ10によって描画される
描画オブジェクトとしては、文字、図形(線画)、およ
び、ラスタがある。ここで、ラスタは、イメージデータ
である「ラスタデータ」と、ラスタデータの周縁を示す
「輪郭」とによって構成されているものとする。
The drawing objects drawn by the print data 10 include characters, figures (line drawings), and rasters. Here, it is assumed that the raster is composed of "raster data" which is image data and "contours" indicating the periphery of the raster data.

【0035】エッジリスト生成部20は、先ず、文字、
図形、または、ラスタの輪郭を描画するためのディスプ
レイリストを描画オブジェクト単位で生成し、次に、得
られたディスプレイリストを合成し、各走査ラインに含
まれている描画オブジェクトの始点と終点およびその色
情報などからなるエッジリストを生成する。
The edge list generation unit 20 firstly outputs characters,
A display list for drawing the outline of a figure or raster is generated for each drawing object, and then the obtained display list is synthesized, and the starting and ending points of the drawing object included in each scan line and the Generate an edge list including color information and the like.

【0036】文字背景色抽出部30は、描画オブジェク
トが文字の場合にはその背景を特定し、エッジリストか
らその色(背景色)を抽出する。文字色変換部40は、
文字背景色抽出部30で抽出した背景色と文字の属性と
に応じて、文字色を変換する。
When the drawing object is a character, the character background color extraction unit 30 specifies the background and extracts the color (background color) from the edge list. The character color conversion unit 40
The character color is converted according to the background color extracted by the character background color extraction unit 30 and the attribute of the character.

【0037】ビットマップ展開部50は、文字色変換部
40から供給されたエッジリスト(色変換が施された文
字を含むエッジリスト)をビットマップに展開する。次
に、この画像処理装置の主要部の詳細について説明す
る。
The bitmap developing section 50 develops the edge list (the edge list including the character subjected to the color conversion) supplied from the character color converting section 40 into a bitmap. Next, details of a main part of the image processing apparatus will be described.

【0038】はじめに、エッジリスト生成部20につい
て詳細に説明する。図3はエッジリスト生成部20の構
成例を示すブロック図である。同図に示すように、エッ
ジリスト生成部20は、印刷データ解釈部20a、ディ
スプレイリスト処理部20b、ラスタデータ処理部20
c、ラスタデータバッファ20d、および、エッジリス
ト処理部20eから構成されている。
First, the edge list generator 20 will be described in detail. FIG. 3 is a block diagram illustrating a configuration example of the edge list generation unit 20. As shown in the figure, the edge list generation unit 20 includes a print data interpretation unit 20a, a display list processing unit 20b, a raster data processing unit 20b.
c, a raster data buffer 20d, and an edge list processing unit 20e.

【0039】ここで、印刷データ解釈部20aは、入力
された印刷データから、その記述言語のシンタックスに
従ってトークンを切り出す。そして、トークンを解釈
し、対応する内部命令やその引数などにトークンを変換
する。
Here, the print data interpreter 20a cuts out a token from the input print data in accordance with the syntax of the description language. Then, the token is interpreted, and the token is converted into a corresponding internal instruction or its argument.

【0040】内部命令は、文字、図形、および、ラスタ
の輪郭の描画を指示する描画命令と、色や線属性などの
ように描画に必要な情報を設定する描画状態命令とから
構成されている。
The internal commands include a drawing command for instructing drawing of outlines of characters, figures, and rasters, and a drawing state command for setting information necessary for drawing such as color and line attributes. .

【0041】印刷データ解釈部20aは、このようにし
て生成した内部命令のうち、文字、図形、および、ラス
タの輪郭に対応する内部命令を選択してディスプレイリ
スト処理部20bに供給する。なお、ラスタデータを描
画するための描画命令と、ラスタデータ自体はラスタデ
ータ処理部20cに供給される。
The print data interpreting section 20a selects an internal command corresponding to a character, a graphic, and a contour of a raster among the internal commands generated in this way, and supplies it to the display list processing section 20b. Note that a drawing command for drawing raster data and the raster data itself are supplied to the raster data processing unit 20c.

【0042】ディスプレイリスト処理部20bは、先
ず、文字および図形の描画命令に応じて描画されるオブ
ジェクトの輪郭を構成するエッジデータを生成する。そ
して、得られたエッジデータから、エッジの始点、傾
き、および、エッジと走査ラインの交差数とから構成さ
れるディスプレイリストを生成してエッジリスト処理部
20eに供給する。また、印刷データ解釈部20aから
ラスタデータ処理部20cに転送されたラスタデータの
縦と横の大きさに基づき、ラスタデータの輪郭を示すデ
ィスプレイリストを生成してエッジリスト処理部20e
に供給する。
First, the display list processing unit 20b generates edge data constituting the outline of an object to be drawn in accordance with a drawing command of a character and a figure. Then, from the obtained edge data, a display list including the start point and the slope of the edge and the number of intersections between the edge and the scan line is generated and supplied to the edge list processing unit 20e. Further, based on the vertical and horizontal sizes of the raster data transferred from the print data interpreting unit 20a to the raster data processing unit 20c, a display list indicating the outline of the raster data is generated, and the edge list processing unit 20e is generated.
To supply.

【0043】ラスタデータ処理部20cは、ラスタの描
画命令に応じて、対象となるラスタデータに対して座標
変換を施すとともに、ラスタデータの色空間を出力装置
の色空間に変換する色空間変換などの処理を行い、ラス
タデータバッファ20dに出力する。
The raster data processing unit 20c performs coordinate conversion on the target raster data in accordance with the raster drawing command, and converts the color space of the raster data into the color space of the output device. And outputs it to the raster data buffer 20d.

【0044】ラスタデータバッファ20dは、ラスタデ
ータ処理部20cから供給されたラスタデータを一時的
に格納する。エッジリスト処理部20eは、ディスプレ
イリスト処理部20bおよびラスタデータ処理部20c
で生成されたディスプレイリストを、走査ライン毎の始
点、終点、および、その色情報などからなるエッジリス
トに変換する。
The raster data buffer 20d temporarily stores the raster data supplied from the raster data processing unit 20c. The edge list processing unit 20e includes a display list processing unit 20b and a raster data processing unit 20c.
Is converted into an edge list including a start point, an end point, and color information of each scan line.

【0045】次に、以上の実施の形態の動作を説明す
る。いま、GDIなどによって記述された印刷データ1
0が入力されたとする。すると、印刷データ解釈部20
aは、先ず、印刷データ10からトークンを切り出し、
そのトークンに対して解釈を施すことにより、内部命令
や引数を得る。
Next, the operation of the above embodiment will be described. Now, print data 1 described by GDI or the like
Assume that 0 has been input. Then, the print data interpreter 20
First, a token is cut out from the print data 10 and
By interpreting the token, internal instructions and arguments are obtained.

【0046】そして、印刷データ解釈部20aは、得ら
れた内部命令や引数のうち、文字や図形に対応するもの
はディスプレイリスト処理部20bに供給し、また、ラ
スタに対応するものはラスタデータ処理部20cに供給
する。更に、ラスタデータのサイズを示す情報はディス
プレイリスト処理部20bに供給する。
The print data interpretation unit 20a supplies the obtained internal commands and arguments corresponding to the characters and figures to the display list processing unit 20b, and outputs the ones corresponding to the raster to the raster data processing. To the unit 20c. Further, information indicating the size of the raster data is supplied to the display list processing unit 20b.

【0047】ディスプレイリスト処理部20bは、印刷
データ解釈部20aから供給された、内部命令や引数か
らディスプレイリストを各描画オブジェクト単位で生成
する。
The display list processing unit 20b generates a display list for each drawing object from internal commands and arguments supplied from the print data interpretation unit 20a.

【0048】図4は、文字に対応するディスプレイリス
トのデータ構造の一例を示す図である。この図に示すよ
うに、文字に対応するディスプレイリストは、ヘッダ部
60、リスト部61、および、連結セル62によって構
成されている。
FIG. 4 is a diagram showing an example of the data structure of a display list corresponding to characters. As shown in this figure, the display list corresponding to the character is composed of a header section 60, a list section 61, and a connection cell 62.

【0049】ヘッダ部60は、描画オブジェクトの種類
を示すTypeID( この場合、文字を示すID) と、
描画オブジェクトを塗りつぶす色の種類を示す色情報、
後述する文字属性情報、yバケットの総数であるyリス
ト数、各yリストに連結されているセルの総数である連
結セル数、および、次の描画オブジェクトのディスプレ
イリストヘのポインタとから構成されている。
The header section 60 includes TypeID (in this case, ID indicating a character) indicating the type of the drawing object,
Color information indicating the type of color used to fill the drawing object,
It is composed of character attribute information to be described later, the number of y-lists that is the total number of y buckets, the number of linked cells that is the total number of cells linked to each y-list, and a pointer to the display list of the next drawing object. I have.

【0050】リスト部61は、yバケットと連結セルと
から構成される。yバケットは、入力された各描画オブ
ジェクトのベクタデータの始点のy座標値に相当する走
査ラインyと、最初の連結セル62へのポインタである
セルポインタとからなる。なお、連結セル62の存在し
ないyバケットはリスト部61に登録しない。
The list section 61 is composed of y buckets and connected cells. The y bucket includes a scan line y corresponding to the y coordinate value of the start point of the input vector data of each drawing object, and a cell pointer that is a pointer to the first connected cell 62. It should be noted that the y bucket having no connected cell 62 is not registered in the list unit 61.

【0051】連結セル62は、入力された各描画オブジ
ェクトのベクタデータの始点のx座標値、そのベクタデ
ータの走査ライン当たりのxの増分値である△x、その
ベクタデータと交差する走査ラインの数であるΔy、お
よび、その走査ラインyを始点とする異なるベクタデー
タが存在するか否かを示す連結フラグとから構成されて
いる。
The connected cell 62 includes the x coordinate value of the starting point of the vector data of each input drawing object, Δx which is an increment value of x per scanning line of the vector data, and the scanning line of the scanning line intersecting the vector data. It is composed of a number Δy and a connection flag indicating whether or not different vector data starting from the scanning line y exists.

【0052】なお、連結フラグは、次の連結セルが存在
する場合は、フラグ“1”を付加し、また、その連結セ
ルが最後である場合は、EOC(End Of Cell )を表す
フラグ“0”を付加する。
As the connection flag, a flag "1" is added when the next connection cell exists, and a flag "0" indicating EOC (End Of Cell) when the next connection cell is the last. "Is added.

【0053】次に、ヘッダ部60の文字属性情報の詳細
を説明する。文字属性情報は、使用するフォントの判読
性が高いか否かに関する情報であり、フォントのサイ
ズ、フォントの種類、および、フォントの書体をパラメ
ータとして算出される。
Next, details of the character attribute information of the header section 60 will be described. The character attribute information is information relating to whether or not the readability of the font to be used is high, and is calculated using the font size, font type, and font typeface as parameters.

【0054】いま、文字のフォントサイズに係わるパラ
メータをv1とし、フォントの種類とフォント書体に係
わるパラメータをそれぞれv2,v3とすると、文字属
性情報vは以下の式により算出される。
Assuming that parameters relating to the font size of the character are v1 and parameters relating to the font type and font type are v2 and v3, respectively, the character attribute information v is calculated by the following equation.

【0055】 v=f(v1,v2,v3) ・・・(1) 本実施の形態では、関数fとして総和関数を採用するの
で、式(1)は以下のように示される。
V = f (v1, v2, v3) (1) In this embodiment, since the sum function is adopted as the function f, the equation (1) is expressed as follows.

【0056】v=v1+v2+v3 ・・・(2) なお、v1〜v3は、以下のようにして求める。先ず、
v1は次のようにして求める。即ち、フォントサイズを
s( ポイント)とすると、v1はsの値によって以下の
ように決定される。
V = v1 + v2 + v3 (2) Note that v1 to v3 are obtained as follows. First,
v1 is obtained as follows. That is, assuming that the font size is s (point), v1 is determined by the value of s as follows.

【0057】s<7 の場合 v1=3 7≦s<10 の場合 v1=2 10≦s<13 の場合 v1=1 13≦s の場合 v1=0 次に、v2はフォントの種類に応じて以下のように決定
される。
If s <7 v1 = 3 If 7 ≦ s <10 v1 = 2 If 10 ≦ s <13 v1 = 1 If 13 ≦ s v1 = 0 Next, v2 depends on the type of font. It is determined as follows.

【0058】フォントがゴシック体の場合 v2=0 フォントが細字の場合 v2=2 それ以外のフォントの場合 v2=1 最後に、v3はフォントの書体に応じて以下のように決
定される。
When the font is Gothic font v2 = 0 When the font is a thin font v2 = 2 When the font is any other font v2 = 1 Finally, v3 is determined as follows according to the font typeface.

【0059】書体がBold体の場合 v3=0 書体がItalic体の場合 v3=2 書体がそれ以外の場合 v3=1 そして、以上のようにして求めたv1〜v3を式(2)
に代入することにより、文字属性情報vを得る。
When the typeface is a Bold type v3 = 0 When the typeface is an Italic type v3 = 2 When the typeface is any other type v3 = 1 And v1 to v3 obtained as described above are obtained by the equation (2).
To obtain character attribute information v.

【0060】このようにして、求めたvの値を文字属性
情報として、ヘッダ部60に格納する。次に、図形のデ
ィスプレイリストについてついて説明する。
The value of v thus obtained is stored in the header section 60 as character attribute information. Next, a display list of graphics will be described.

【0061】図5は、図形に対応するディスプレイリス
トのデータ構造の一例を示す図である。同図において、
ヘッダ部70は、描画オブジェクトの種類を示すTyp
eID(この場合、図形を示すID) と、描画オブジェ
クトを塗りつぶす色の種類を示す色情報、yバケットの
総数であるyリスト数、各yリストに連結されているセ
ルの総数である連結セル数、および、次の描画オブジェ
クトのディスプレイリストヘのポインタとから構成され
ている。
FIG. 5 is a diagram showing an example of the data structure of a display list corresponding to a figure. In the figure,
The header section 70 has a Type indicating the type of the drawing object.
eID (in this case, an ID indicating a figure), color information indicating the type of color used to fill the drawing object, the number of y lists, which is the total number of y buckets, and the number of connected cells, which is the total number of cells connected to each y list , And a pointer to a display list of the next drawing object.

【0062】リスト部71は、yバケットと連結セル7
2とから構成されており、これは文字のディスプレイリ
ストの場合と同様である。続いて、ラスタのディスプレ
イリストについて説明する。
The list section 71 includes the y bucket and the connected cell 7
2, which is similar to the case of the character display list. Next, the raster display list will be described.

【0063】図6は、ラスタに対応するディスプレイリ
ストのデータ構造の一例を示す図である。同図におい
て、ヘッダ部80は、描画オブジェクトの種類を示すT
ypeID(この場合、ラスタを示すID) と、ラスタ
データのデータサイズ(1画素当たりのビット数)を示
す情報、ラスタデータバッファ20dに格納されている
データの先頭アドレスを示すデータアドレス、各yリス
トに連結されているセルの総数である連結セル数、およ
び、次の描画オブジェクトのディスプレイリストヘのポ
インタとから構成されている。
FIG. 6 is a diagram showing an example of the data structure of a display list corresponding to a raster. In the figure, a header section 80 has a T indicating the type of the drawing object.
typeID (in this case, an ID indicating a raster), information indicating the data size of the raster data (the number of bits per pixel), a data address indicating a head address of data stored in the raster data buffer 20d, and each y list And the pointer to the display list of the next drawing object.

【0064】リスト部81は、yバケットと連結セル8
2とから構成されており、これは文字および図形のディ
スプレイリストの場合と同様である。なお、ラスタのデ
ィスプレイリストのリスト部81には、ラスタの輪郭を
描画するためのデータが格納されており、また、ヘッダ
部80には描画された輪郭内に貼付されるラスタデータ
に関する情報が格納されている。
The list section 81 includes the y bucket and the connected cell 8
2, which is the same as the display list of characters and graphics. The list portion 81 of the raster display list stores data for drawing the outline of the raster, and the header portion 80 stores information on raster data to be attached to the drawn outline. Have been.

【0065】図3に戻って、ディスプレイリスト処理部
20bによって生成された、文字、図形、および、ラス
タのディスプレイリストは、エッジリスト処理部20e
に供給される。
Returning to FIG. 3, the display list of characters, graphics, and rasters generated by the display list processing unit 20b is stored in the edge list processing unit 20e.
Supplied to

【0066】一方、印刷データ解釈部20aから出力さ
れたラスタデータとラスタデータに対応する内部命令と
は、ラスタデータ処理部20cに供給される。ラスタデ
ータ処理部20cは、供給された内部命令に応じて、対
象とするラスタデータに対して座標変換を施すととも
に、ラスタデータの色空間を出力装置の色空間に変換す
る色空間変換などの処理を行い、ラスタデータバッファ
20dに出力する。
On the other hand, the raster data output from the print data interpreting section 20a and the internal command corresponding to the raster data are supplied to the raster data processing section 20c. The raster data processing unit 20c performs coordinate conversion on the target raster data according to the supplied internal command, and performs processing such as color space conversion for converting the color space of the raster data to the color space of the output device. And outputs it to the raster data buffer 20d.

【0067】ラスタデータバッファ20dは、ラスタデ
ータ処理部20cから供給されたラスタデータを一時的
に格納し、エッジリスト処理部20eから要求があった
場合にはラスタデータを適宜読み出して供給する。
The raster data buffer 20d temporarily stores the raster data supplied from the raster data processing unit 20c, and reads out and supplies the raster data as required when requested by the edge list processing unit 20e.

【0068】エッジリスト処理部20eは、ディスプレ
イリストを図7に示すエッジリストに変換する。ここ
で、エッジリストとは、ディスプレイリストの重複を排
して合成したものであり、走査ライン上において各オブ
ジェクトが占有する領域を示している。
The edge list processing section 20e converts the display list into an edge list shown in FIG. Here, the edge list is obtained by eliminating and overlapping display lists, and indicates an area occupied by each object on a scan line.

【0069】図7に示す例では、第3番目のyバケット
には、文字のエッジリスト90、図形のエッジリスト9
1、および、ラスタのエッジリスト92が順に連結され
ている。従って、第3番目の走査ラインには、文字、図
形、ラスタが順に配置されていることが分かる。
In the example shown in FIG. 7, the third y bucket has a character edge list 90 and a figure edge list 9.
1, and the edge list 92 of the raster are connected in order. Therefore, it can be seen that characters, graphics, and rasters are sequentially arranged on the third scanning line.

【0070】文字のエッジリスト90は、描画オブジェ
クト判別フラグ90a、始点90b、終点90c、色情
報90d、文字属性情報90e、および、連結フラグ9
0fから構成されている。
The character edge list 90 includes a drawing object determination flag 90a, a start point 90b, an end point 90c, color information 90d, character attribute information 90e, and a connection flag 9
0f.

【0071】描画オブジェクト判別フラグ90aは、描
画オブジェクトの種類を判別するためのものであり、文
字の場合では“00”に設定される。始点90bと終点
90cは、走査ライン上の文字領域の始点と終点とを示
す。色情報90dは、描画オブジェクトを何色で塗りつ
ぶすかを示す色情報( 例えば、RGBの値など) によっ
て構成される。文字属性情報90eは、前述した式
(2)によって得られる値である。連結フラグ90f
は、同じ走査ライン上に次の描画オブジェクトが存在す
るか否かを示す。なお、連結フラグ90fは、次の描画
オブジェクトが存在する場合は、フラグ“1”が付加さ
れ、最後の描画オブジェクトである場合は、EOCを示
すフラグ“0”が付加される。
The drawing object determination flag 90a is for determining the type of the drawing object, and is set to "00" in the case of a character. The start point 90b and the end point 90c indicate the start point and the end point of the character area on the scanning line. The color information 90d is configured by color information (for example, RGB values or the like) indicating how many colors are to be used to paint the drawing object. The character attribute information 90e is a value obtained by the above equation (2). Connection flag 90f
Indicates whether the next drawing object exists on the same scanning line. Note that a flag “1” is added to the connection flag 90f when the next drawing object exists, and a flag “0” indicating EOC is added to the connection flag 90f when the connection object is the last drawing object.

【0072】図形のエッジリスト91は、描画オブジェ
クト判別フラグ91a、始点91b、終点91c、色情
報91d、および、連結フラグ91eから構成されてい
る。描画オブジェクト判別フラグ91aは、描画オブジ
ェクトの種類を判別するためのものであり、図形の場合
では“01”に設定される。始点91bと終点91c
は、走査ライン上の図形領域の始点と終点とを示す。色
情報91dは、描画オブジェクトを何色で塗りつぶすか
を示す色情報によって構成される。連結フラグ91e
は、同じ走査ライン上に次の描画オブジェクトが存在す
るか否かを示す。
The graphic edge list 91 includes a drawing object determination flag 91a, a start point 91b, an end point 91c, color information 91d, and a connection flag 91e. The drawing object determination flag 91a is for determining the type of the drawing object, and is set to “01” in the case of a graphic. Start point 91b and end point 91c
Indicates the start point and end point of the graphic area on the scan line. The color information 91d is configured by color information indicating the color of the drawing object to be painted. Connection flag 91e
Indicates whether the next drawing object exists on the same scanning line.

【0073】ラスタのエッジリスト92は、描画オブジ
ェクト判別フラグ92a、始点92b、終点92c、ラ
スタデータへのポインタ92d、および、連結フラグ9
2eから構成されている。
The raster edge list 92 includes a drawing object determination flag 92 a, a start point 92 b, an end point 92 c, a pointer 92 d to raster data, and a connection flag 9.
2e.

【0074】描画オブジェクト判別フラグ92aは、描
画オブジェクトの種類を判別するためのものであり、ラ
スタの場合では“10”に設定される。始点92bと終
点92cは、走査ライン上のラスタ領域の始点と終点と
を示す。ラスタデータへのポインタ92dは、始点92
bに対応するラスタデータバッファ20dのアドレスを
指示するポインタである。連結フラグ92eは、同じ走
査ライン上に次の描画オブジェクトが存在するか否かを
示す。
The drawing object determination flag 92a is for determining the type of the drawing object, and is set to "10" in the case of a raster. The start point 92b and the end point 92c indicate the start point and the end point of the raster area on the scan line. The pointer 92d to the raster data is
This is a pointer indicating the address of the raster data buffer 20d corresponding to b. The connection flag 92e indicates whether the next drawing object exists on the same scan line.

【0075】なお、各オブジェクトの始点および終点に
よって指定される領域は、相互に独立しており重複部分
を有しない。次に、このようなエッジリストの生成方法
について説明する。
The areas specified by the starting point and the ending point of each object are independent of each other and have no overlapping part. Next, a method of generating such an edge list will be described.

【0076】エッジリスト処理部20eでは、ディスプ
レイリスト処理部20bから供給されたディスプレイリ
ストを展開した後、合成する処理を行う。この処理の詳
細を以下に示す。
The edge list processing unit 20e performs processing for developing the display list supplied from the display list processing unit 20b and then synthesizing the display list. Details of this processing will be described below.

【0077】図8は、ディスプレイリストの展開例を示
す図である。同図において、図8(A)は図形(3角
形)のディスプレイリストであり、図8(B)は図8
(A)のディスプレイリストを展開した図である。
FIG. 8 is a diagram showing an example of developing a display list. 8A shows a display list of a figure (triangle), and FIG. 8B shows a display list of FIG.
It is the figure which expanded the display list of (A).

【0078】この例では、リスト部のy1のバケットに
は2つのセルが接続されている。第1番目のセルは、始
点がx4であり、傾きが△x’であり、また、走査ライ
ンとの交差数が△y’である。また、第2番目のセル
は、始点がx4であり、傾きが△x”であり、また、走
査ラインとの交差数が△y”である。
In this example, two cells are connected to the bucket y1 in the list section. The first cell has a starting point of x4, an inclination of △ x ', and an intersection number with the scanning line of △ y'. In the second cell, the starting point is x4, the inclination is Δx ”, and the number of intersections with the scanning line is Δy”.

【0079】これらのセルを展開すると、図8(B)に
示す図形(三角形)を得る。次に、展開して得られた図
形から、各走査ラインにおける始点および終点を求め
る。即ち、図8(B)から分かるように、y座標が1の
場合では、始点および終点はx4である。y座標が2の
場合では、始点および終点はx3,x5であり、詳細に
はx4+△x’,x4+Δx”である。同様にして、走
査ラインに交差する全てのx座標値を求める。
When these cells are expanded, a figure (triangle) shown in FIG. 8B is obtained. Next, a starting point and an ending point in each scanning line are obtained from the graphic obtained by developing. That is, as can be seen from FIG. 8B, when the y coordinate is 1, the start point and the end point are x4. When the y coordinate is 2, the start point and the end point are x3 and x5, and more specifically, x4 + {x ', x4 + Δx ". Similarly, all the x coordinate values intersecting the scanning line are obtained.

【0080】続いて、求めたx座標値から、走査ライン
毎の始点、終点および色の情報をもつエッジリストを生
成する。図9にエッジリストの生成例を示す。同図にお
いて、yバケットがy1の場合、描画オブジェクト判別
フラグはディスプレイリストのTypeIDが図形であ
るため“01”となり、始点および終点はx4、色は
c、連結フラグは同じ走査ライン上に他のエッジがない
ためEOCとなる。
Subsequently, an edge list having information on the starting point, the ending point, and the color for each scanning line is generated from the obtained x coordinate values. FIG. 9 shows an example of generating an edge list. In the figure, when the y bucket is y1, the drawing object determination flag is “01” because the TypeID of the display list is a graphic, the start point and the end point are x4, the color is c, and the connection flag is another line on the same scan line. Since there is no edge, it becomes EOC.

【0081】また、yバケットがy2の場合、描画オブ
ジェクト判別フラグは図形であることから“01”とな
り、始点および終点はx3,x5、色はcとなる。ま
た、連結フラグは同じ走査ライン上に他のエッジがない
ためEOCとなる。
When the y bucket is y2, the drawing object discrimination flag is "01" because it is a figure, and the start and end points are x3 and x5 and the color is c. In addition, the connection flag becomes EOC because there is no other edge on the same scan line.

【0082】同様にして、セルが存在する全てのyバケ
ットからエッジリストを生成する。次に、エッジリスト
を合成する方法について説明する。図10は、エッジリ
ストの合成例を示す図である。同図において、図形のエ
ッジリスト(図10(A))の上に文字のエッジリスト
(図10(B))を重ねる場合、図形のx座標値は10
から20までであり、文字のx座標値は15から25ま
でであるので、x座標値15から20までが重なること
になる。その場合、描画オブジェクトが重畳される順序
に応じて、下になる方の描画オブジェクトの重畳する部
分を削除する。
Similarly, an edge list is generated from all y buckets in which cells exist. Next, a method of synthesizing an edge list will be described. FIG. 10 is a diagram illustrating an example of combining edge lists. In the figure, when the edge list of the character (FIG. 10B) is superimposed on the edge list of the graphic (FIG. 10A), the x-coordinate value of the graphic is 10
To 20 and the x coordinate value of the character is 15 to 25, so that the x coordinate values 15 to 20 overlap. In that case, the superimposed portion of the lower drawing object is deleted in accordance with the order in which the drawing objects are superimposed.

【0083】ここで、図形の方が下になるとすると、図
形のx座標値は10から15までに変更される。その結
果、合成したエッジリストは図10(B)のようにな
る。同様にして、すべてのエッジリストを合成する。
Assuming that the figure is below, the x-coordinate value of the figure is changed from 10 to 15. As a result, the combined edge list is as shown in FIG. Similarly, all edge lists are combined.

【0084】以上のように、エッジリスト処理部20e
において生成されたエッジリストは、図2に示す文字背
景色抽出部30に供給される。文字背景色抽出部30
は、エッジリストから文字の背景の色(背景色)を抽出
する。この処理を図11を参照して説明する。
As described above, the edge list processing unit 20e
Is supplied to the character background color extraction unit 30 shown in FIG. Character background color extraction unit 30
Extracts the background color of the character (background color) from the edge list. This processing will be described with reference to FIG.

【0085】図11は、文字背景色抽出部30が実行す
る処理の一例を説明するフローチャートである。このフ
ローチャートが開始されると、以下の処理が実行され
る。 [S1]文字背景色抽出部30は、連結セルが最初に存
在するyバケットを調べ、そのyバケットの最初の連結
セルを取得する。 [S2]文字背景色抽出部30は、取得した連結セルが
文字のものであるか否かを判定する。即ち、文字背景色
抽出部30は、取得した連結セルの描画オブジェクト判
別フラグが“00”であるか否かを判定し、“00”で
ある場合にはステップS3に進み、それ以外の場合には
ステップS7に進む。 [S3]文字背景色抽出部30は、次の連結セルを取得
する。 [S4]文字背景色抽出部30は、取得した連結セルが
文字と隣り合うか否かを判定する。即ち、文字背景色抽
出部30は、ステップS2で文字と判定された連結セル
と、ステップS3で取得した連結セルが隣接し、かつ、
ステップS3で取得した連結セルが文字以外の連結セル
である場合には、文字の背景を検出したとしてステップ
S5に進み、それ以外の場合にはステップS6に進む。 [S5]文字背景色抽出部30は、ステップS2におい
て文字と判定された連結セルの色情報(文字色)と、ス
テップS3において取得した連結セルの色情報(背景
色)とを文字色変換部40へ供給する。 [S6]文字背景色抽出部30は、背景色を“0”と
し、ステップS2において文字と判定された連結セルの
色情報(文字色)と、背景色(=0)とを、文字色変換
部40へ供給する。
FIG. 11 is a flowchart for explaining an example of the processing executed by the character background color extraction unit 30. When this flowchart is started, the following processing is executed. [S1] The character background color extraction unit 30 checks the y bucket in which the connected cell first exists, and obtains the first connected cell of the y bucket. [S2] The character background color extraction unit 30 determines whether or not the acquired connected cell is a character. That is, the character background color extraction unit 30 determines whether or not the drawing object determination flag of the acquired connected cell is “00”. If the flag is “00”, the process proceeds to step S3; otherwise, the process proceeds to step S3. Goes to step S7. [S3] The character background color extraction unit 30 acquires the next connected cell. [S4] The character background color extraction unit 30 determines whether or not the obtained linked cell is adjacent to the character. That is, the character background color extraction unit 30 determines that the connected cell determined to be a character in step S2 is adjacent to the connected cell acquired in step S3, and
If the connected cell obtained in step S3 is a connected cell other than a character, the process proceeds to step S5 assuming that the background of the character has been detected, and otherwise proceeds to step S6. [S5] The character background color extraction unit 30 converts the color information (character color) of the connected cell determined as a character in step S2 and the color information (background color) of the connected cell acquired in step S3 into a character color conversion unit. Supply to 40. [S6] The character background color extraction unit 30 sets the background color to “0” and converts the color information (character color) of the connected cell determined as a character in step S2 and the background color (= 0) into character color conversion. Supply to the unit 40.

【0086】なお、ステップS6に分岐する場合として
は、文字同士が重なっている場合と、背景が存在しない
場合の2通りがあり、そのような場合には、背景色を
“0”とすることにより、文字の色変換を行わないよう
にする。 [S7]文字背景色抽出部30は、連結フラグがEOC
であるか否かを判定し、EOCの場合にはステップS8
に進み、それ以外の場合にはステップS9に進む。 [S8]文字背景色抽出部30は、未処理の連結セルが
存在するか否かを判定し、存在している場合にはステッ
プS10に進み、それ以外の場合には処理を終了する。 [S9]文字背景色抽出部30は、次の連結フラグを取
得し、ステップS2に戻る。 [S10]文字背景色抽出部30は、次のyバケットの
最初の連結セルを取得し、ステップS2に戻る。
There are two cases of branching to step S6, that is, a case where characters overlap each other and a case where there is no background. In such a case, the background color is set to "0". To prevent character color conversion from being performed. [S7] The character background color extraction unit 30 determines that the connection flag is EOC.
Is determined, and in the case of EOC, step S8
Otherwise, to step S9. [S8] The character background color extraction unit 30 determines whether or not there is an unprocessed connected cell. If there is, the process proceeds to step S10; otherwise, the process ends. [S9] The character background color extraction unit 30 acquires the next connection flag, and returns to step S2. [S10] The character background color extraction unit 30 acquires the first connected cell of the next y bucket, and returns to step S2.

【0087】以上の処理によれば、例えば、図12
(A)に示すように、背景色がbである図形と、文字色
がaである文字「A」とが重畳されている場合には、文
字色aと背景色bとが抽出されて、文字色変換部40へ
供給される。
According to the above processing, for example, FIG.
As shown in (A), when a figure having a background color b and a character “A” having a character color a are superimposed, the character color a and the background color b are extracted, It is supplied to the character color conversion unit 40.

【0088】ここで、図12(B)では、第n番目のy
バケットynに対して、5つの連結セルが接続されてお
り、第1,3,5番目の連結セルは、背景に対応してお
り、一方、第2,4番目の連結セルは、文字に対応して
いる。この場合では、文字の連結セルと背景(画像)は
隣り合っていることから、第1,3,5番目の連結セル
から背景色としてbが取得され、また、第2,4番目の
連結セルから文字色としてaが取得される。
Here, in FIG. 12B, the n-th y
Five connected cells are connected to the bucket yn, and the first, third, and fifth connected cells correspond to the background, while the second and fourth connected cells correspond to the characters. are doing. In this case, since the connected cell of the character and the background (image) are adjacent to each other, b is obtained as the background color from the first, third, and fifth connected cells. A is obtained as the character color from.

【0089】以上のようにして抽出された文字色と背景
色とは、文字色変換部40に供給される。文字色変換部
40は、先ず、背景色と文字色の色差を算出し、次に、
文字属性情報から基準値を算出し、そして、色差と基準
値とを比較し、必要に応じて文字色を変更する。
The character color and the background color extracted as described above are supplied to the character color conversion unit 40. The character color conversion unit 40 first calculates the color difference between the background color and the character color.
The reference value is calculated from the character attribute information, the color difference is compared with the reference value, and the character color is changed as necessary.

【0090】即ち、文字色変換部40は、文字背景色抽
出部30から受け取った文字色と、背景色とを参照し、
次のような方法で色差を求める。ここでは、文字色を
a、背景色をbとし、色をRGBで表す場合について説
明する。
That is, the character color converter 40 refers to the character color received from the character background color extractor 30 and the background color, and
The color difference is obtained by the following method. Here, a case where the character color is a, the background color is b, and the colors are represented by RGB will be described.

【0091】文字色aのRGB各成分をRa ,Ga ,B
a とし、背景色bのRGB各成分をRb ,Gb ,Bb と
した場合に、RGB各色の文字と背景の色の差をRe ,
Ge,Be として次式により求める。
The RGB components of the character color a are represented by Ra, Ga, B
a, and when the RGB components of the background color b are Rb, Gb, and Bb, the difference between the RGB characters and the background color is represented by Re,
Ge and Be are obtained by the following equations.

【0092】Re =Ra −Rb ・・・(3) Re =Ga −Gb ・・・(4) Be =Ba −Bb ・・・(5) 次に、色差△ERGB を次式で求める。Re = Ra−Rb (3) Re = Ga−Gb (4) Be = Ba−Bb (5) Next, the color difference ΔERGB is obtained by the following equation.

【0093】 △ERGB =(Re2+Ge2+Be21/2 ・・・(6) 文字と背景が識別できる基準の色差△Estd を10と
し、この値を文字属性情報vによって次のように補正す
る。即ち、文字属性情報vは0から7までの8段階で表
されているため、次式によって補正する。
ΔERGB = (Re 2 + Ge 2 + Be 2 ) 1/2 (6) A reference color difference ΔEsd for distinguishing a character from a background is set to 10, and this value is determined by the character attribute information v as follows: to correct. That is, since the character attribute information v is represented in eight levels from 0 to 7, it is corrected by the following equation.

【0094】 △Estd =△Estd +(v−3)×2 ・・・(7) そして、色差ΔERGB が△Estd 以上の場合は色変換を
行わず、色差ΔERGBが△Estd 未満の場合に色変換を
行う。また、背景色が“0”である場合には色の変換を
行わない。
ΔE std = ΔE std + (v−3) × 2 (7) If the color difference ΔE RGB is equal to or greater than ΔE std, no color conversion is performed, and if the color difference ΔE RGB is less than ΔE std, the color conversion is performed. I do. When the background color is "0", no color conversion is performed.

【0095】色差ΔERGB の変換量△E は次式で求め
る。 △E=(△Estd −△ERGB )/31/2 ・・・(8) また、文字色の値を増加させるか減少させるかは、次の
方法で判断する。即ち、次式が成り立つ場合は文字色の
値が背景色の値より大きいかまたは同じであるため、文
字色の値を増加させる。
The conversion amount △ E of the color difference ΔERGB is obtained by the following equation. ΔE = (ΔEstd−ΔERGB) / 3 1/2 (8) Whether to increase or decrease the value of the character color is determined by the following method. That is, when the following expression is satisfied, the value of the character color is increased because the value of the character color is greater than or equal to the value of the background color.

【0096】Re +Ge +Be ≧0 ・・・(9) 一方、次式が成り立つ場合は文字色の値が背景色の値よ
り小さいため、文字色の値を減少させる。
Re + Ge + Be ≧ 0 (9) On the other hand, when the following expression is satisfied, the value of the character color is reduced because the value of the character color is smaller than the value of the background color.

【0097】Re +Ge +Be <0 ・・・(10) ここで、文字色の値を増加させる場合は、RGB各色の
値をそれぞれ△Eだけ増やす。
Re + Ge + Be <0 (10) Here, when the value of the character color is increased, the value of each of the RGB colors is increased by ΔE.

【0098】Ra =Ra +ΔE ・・・(11) Ga =Ga +ΔE ・・・(12) Ba =Ba +ΔE ・・・(13) 一方、文字色の値を減少させる場合は、RGB各色の値
をそれぞれ△Eだけ減らす。
Ra = Ra + ΔE (11) Ga = Ga + ΔE (12) Ba = Ba + ΔE (13) On the other hand, when the value of the character color is to be reduced, the value of each of the RGB colors must be changed. Reduce each by ΔE.

【0099】Ra =Ra −ΔE ・・・(14) Ga =Ga −ΔE ・・・(15) Ba =Ba −ΔE ・・・(16) 但し、Ra,Ga,Baの値が255を超えた場合は2
55、負の値になった場合は0とする。
Ra = Ra−ΔE (14) Ga = Ga−ΔE (15) Ba = Ba−ΔE (16) However, the values of Ra, Ga, and Ba exceeded 255. 2 in case
55, and 0 when it becomes a negative value.

【0100】最後に、文字に対応するエッジリストの色
情報の値を以上で求めたRa ,Ga,Ba の値に変換す
る。以上のように、必要に応じて文字色が変換されたエ
ッジリストは、ビットマップ展開部50に供給される。
Finally, the value of the color information of the edge list corresponding to the character is converted into the values of Ra, Ga, and Ba obtained above. As described above, the edge list whose character color has been converted as necessary is supplied to the bitmap developing unit 50.

【0101】ビットマップ展開部50は、供給されたエ
ッジリストを表示形式のデータであるビットマップに展
開する。図13は、ビットマップ展開部50において実
行される処理の一例を説明するフローチャートである。
このフローチャートが開始されると、以下の処理が実行
される。 [S20]ビットマップ展開部50は、生成したビット
マップ画像を格納するためのメモリを確保する。 [S21]ビットマップ展開部50は、連結セルが最初
に存在するyバケットを調べ、そのyバケットの最初の
連結セルを取得する。 [S22]ビットマップ展開部50は、取得した連結セ
ルが文字または図形のものであるか否かを判定する。即
ち、ビットマップ展開部50は、取得した連結セルの描
画オブジェクト判別フラグが“00”または“01”で
あるか否かを判定し、“00”または“01”である場
合にはステップS23に進み、それ以外の場合にはステ
ップS25に進む。 [S23]ビットマップ展開部50は、取得した連結セ
ルから始点、終点、および、色情報を取得する。 [S24]ビットマップ展開部50は、メモリの対応す
る部分にステップS23で取得した色情報を配置する。 [S25]ビットマップ展開部50は、取得した連結セ
ルから始点、終点、および、データアドレスを取得す
る。 [S26]ビットマップ展開部50は、ステップS25
において取得したデータアドレスを参照し、ラスタデー
タバッファ20dからラスタデータを読み出し、メモリ
の所定の領域に配置する。 [S27]ビットマップ展開部50は、連結フラグがE
OCであるか否かを判定し、EOCである場合にはステ
ップS28に進み、それ以外の場合にはステップS29
に進む。 [S28]ビットマップ展開部50は、未処理の連結セ
ルが存在しているか否かを判定し、存在している場合に
はステップS30に進み、それ以外の場合には処理を終
了する。 [S29]ビットマップ展開部50は、次の連結セルを
取得し、ステップS22に戻る。 [S30]ビットマップ展開部50は、次のyバケット
の最初の連結セルを取得し、ステップS22に戻る。
The bitmap developing section 50 develops the supplied edge list into a bitmap which is data in a display format. FIG. 13 is a flowchart illustrating an example of a process performed by the bitmap developing unit 50.
When this flowchart is started, the following processing is executed. [S20] The bitmap developing unit 50 secures a memory for storing the generated bitmap image. [S21] The bitmap developing unit 50 checks the y bucket in which the connected cell first exists, and acquires the first connected cell of the y bucket. [S22] The bitmap developing unit 50 determines whether or not the obtained linked cell is a character or graphic. That is, the bitmap developing unit 50 determines whether or not the drawing object determination flag of the acquired connected cell is “00” or “01”. If the flag is “00” or “01”, the process proceeds to step S23. The process proceeds to step S25 otherwise. [S23] The bitmap developing unit 50 acquires a start point, an end point, and color information from the acquired connected cells. [S24] The bitmap developing unit 50 arranges the color information acquired in step S23 in a corresponding part of the memory. [S25] The bitmap developing unit 50 acquires a start point, an end point, and a data address from the acquired connected cells. [S26] The bitmap developing unit 50 determines in step S25
The raster data is read out from the raster data buffer 20d with reference to the data address obtained in the above, and is arranged in a predetermined area of the memory. [S27] The bitmap developing unit 50 determines that the link flag is E
It is determined whether or not it is OC, and if it is EOC, the process proceeds to step S28; otherwise, the process proceeds to step S29.
Proceed to. [S28] The bitmap developing unit 50 determines whether or not there is an unprocessed connected cell. If there is, the process proceeds to step S30; otherwise, the process ends. [S29] The bitmap developing unit 50 acquires the next connected cell, and returns to step S22. [S30] The bitmap developing unit 50 acquires the first connected cell of the next y bucket, and returns to step S22.

【0102】以上のような処理によれば、エッジリスト
をビットマップに展開することができる。図14は、エ
ッジリストがビットマップに展開される場合の一例を示
す図である。
According to the above processing, the edge list can be developed into a bit map. FIG. 14 is a diagram illustrating an example where the edge list is developed into a bitmap.

【0103】図14(A)に示す例では、第1番目のバ
ケットに、文字、図形、および、ラスタに対応する連結
セルが接続されている。第1番目の文字に対応するバケ
ットは、始点が1、終点が3、また、色情報がc1(=
200)であるので、図14(B)に示すように、第1
番目の走査ラインの第1列目から第3列目まで値200
が配置される。
In the example shown in FIG. 14A, connected cells corresponding to characters, figures, and rasters are connected to the first bucket. The bucket corresponding to the first character has a start point of 1, a finish point of 3, and color information of c1 (=
200), as shown in FIG.
200 from the first column to the third column of the scan line
Is arranged.

【0104】第2番目の画像に対応するバケットは、始
点が4、終点が6、また、色情報がc2(=255)で
あるので、図14(B)に示すように、第1番目の走査
ラインの第4列目から第6列目まで値255が配置され
る。
The bucket corresponding to the second image has a starting point of 4, an ending point of 6, and color information of c2 (= 255). Therefore, as shown in FIG. The value 255 is arranged from the fourth column to the sixth column of the scanning line.

【0105】第3番目の画像に対応するバケットは、始
点が7、終点が10、また、データアドレスがadであ
るので、バケットデータバッファ20dのアドレスad
を先頭アドレスとする領域からバケットデータが読み出
され、図14(B)に示すように、第1番目の走査ライ
ンの第7列目から第10列目までラスタデータが配置さ
れる。
The bucket corresponding to the third image has a starting point of 7, a ending point of 10, and a data address of ad.
Is read from the area having the first address as the first address, and as shown in FIG. 14B, raster data is arranged from the seventh column to the tenth column of the first scan line.

【0106】以上のようにして生成されたビットマップ
データは、プリンタなどによって記録紙に印字出力され
ることになる。以上の実施の形態によれば、文字と背景
の色差と、文字の属性情報とを参照して、文字色を必要
に応じて変更するようにしたので、文字のフォントのサ
イズが小さい場合や、細字の書体が使用されているよう
な場合にも、文字の判読性を高めることが可能となる。
The bitmap data generated as described above is printed out on recording paper by a printer or the like. According to the above embodiment, the character color is changed as necessary by referring to the color difference between the character and the background and the attribute information of the character, so that the font size of the character is small, Even when a thin typeface is used, the legibility of characters can be improved.

【0107】なお、以上の実施の形態では、文字と背景
の色差を参照して文字色を変更するようにしたが、例え
ば、文字と背景の明度を参照して文字色を変更するよう
にしてもよい。以下にその方法を示す。
In the above embodiment, the character color is changed with reference to the color difference between the character and the background. For example, the character color is changed with reference to the brightness of the character and the background. Is also good. The method is described below.

【0108】まず、文字と背景の明度を求める方法につ
いて説明する。文字色aのRGB各成分をL* * *
表色系に変換するため、まずRa Ga Ba からXaYa
Zaを次式によって求める。
First, a method for obtaining the brightness of a character and a background will be described. The RGB components of the character color a are represented by L * a * b *
To convert to a color system, first Ra Ga Ba to XaYa
Za is obtained by the following equation.

【0109】 Xa =2.7689×Ra +1.7517×Ga +1.1302×Ba ・・・(17) Ya =1.0000×Ra +4.5907×Ga +0.0601×Ba ・・・(18) Za =0.0000×Ra +0.0565×Ga +5.5943×Ba ・・・(19) 同様に、背景色bのRGB各成分Ra ,Ga ,Ba から
Xb ,Yb,Zb,を求める。
Xa = 2.7689 × Ra + 1.51717 × Ga + 1.130 × Ba (17) Ya = 1.0000 × Ra + 4.5907 × Ga + 0.0601 × Ba (18) Za = 0.00000 × Ra + 0.0565 × Ga + 5.5943 × Ba (19) Similarly, Xb, Yb, Zb, are obtained from the RGB components Ra, Ga, Ba of the background color b.

【0110】次に、Xa Ya Za から文字の明度La *
を次式によって求める。 La * =116×(Ya /255)1/3 −16 (Ya /255>0.008856の場合) ・・・(20) La * =903.3×(Ya /255) (Ya /255≦0.008856の場合) ・・・(21) 同様に、背景の明度Lb * も求め、文字と背景の明度の
差△Ldiff *を次式によって求める。
Next, the lightness La * of the character is calculated from Xa Ya Za .
Is determined by the following equation. La * = 116 × (Ya / 255) 1/3 −16 (if Ya / 255> 0.008856) (20) La * = 903.3 × (Ya / 255) (Ya / 255 ≦ 0) (In the case of .008856) (21) Similarly, the lightness Lb * of the background is also obtained, and the difference ΔLdiff * between the lightness of the character and the background is obtained by the following equation.

【0111】 △Ldiff* =La * −Lb * ・・・(22) 文字と背景が識別できる基準の明度差△Lstd * を5と
し、この値を文字サイズおよびフォントの種類の情報に
よって次のように補正する。即ち、文字サイズおよびフ
ォントの種類の情報vは0から7までの8段階で表され
ているため、次式によって補正する。
ΔLdiff * = La * −Lb * (22) A reference lightness difference ΔLstd * that can identify a character and a background is set to 5, and this value is set as follows according to information of a character size and a font type. To be corrected. That is, since the information v of the character size and the font type is represented in eight stages from 0 to 7, it is corrected by the following equation.

【0112】 △Lstd * =△Lstd * +(v−3)×0.5 ・・・(23) 明度差ΔLdiff* が△Lstd * 以上の場合は色変換を行
わず、明度差ΔLdiff * が△Lstd * 未満の場合に色変
換を行う。明度差の変換量△L* は次式で求める。
ΔLstd*= △ Lstd*+ (V−3) × 0.5 (23) Lightness difference ΔLdiff*Ga Lstd*In this case, color conversion is performed.
Lightness difference ΔLdiff *Ga Lstd*Color change if less than
Exchange. Conversion amount of lightness difference △ L*Is determined by the following equation.

【0113】 △L* =△Lstd * −△Ldiff * ・・・(24) 文字色の値を増加させるか減少させるかは、次の方法に
より判断する。次式が成り立つ場合は、文字色の値が背
景色の値より大きいかまたは同じであるため、文字色の
値を増加させる。
ΔL * = ΔLstd * −ΔLdiff * (24) Whether to increase or decrease the character color value is determined by the following method. When the following expression holds, the value of the character color is increased because the value of the character color is greater than or equal to the value of the background color.

【0114】△Ldiff* ≧0 ・・・(25) また、次式が成り立つ場合は、文字色の値が背景色の値
より小さいため、文字色の値を減少させる。
.DELTA.Ldiff * .gtoreq.0 (25) When the following expression is satisfied, the value of the character color is reduced because the value of the character color is smaller than the value of the background color.

【0115】△Ldiff* <0 ・・・(26) 文字色の値を増加させる場合は、RGB各色を次のよう
な割合で増加させる。 Ra =Ra +1.0000×△L* ・・・(27) Ga =Ga +4.5907×△L* ・・・(28) Ba =Ba +0.0601×△L* ・・・(29) 文字色の値を減少させる場合は、RGB各色を次のよう
な割合で減少させる。
△ Ldiff * <0 (26) When the value of the character color is increased, each color of RGB is increased at the following ratio. Ra = Ra + 1.0000 × △ L * (27) Ga = Ga + 4.5907 × △ L * (28) Ba = Ba + 0.0601 × △ L * (29) Character color Is reduced, the RGB colors are reduced at the following ratio.

【0116】 Ra =Ra −1.0000×△L* ・・・(30) Ga =Ga −4.5907×△L* ・・・(31) Ba =Ba −0.0601×△L* ・・・(32) ただし、Ra ,Ga ,Ba の値が255を超えた場合は
255、負の値になった場合は0とする。次に、エッジ
リストの色情報の値をここで求めたRa ,Ga,Ba の
値に変換する。
Ra = Ra−1.0000 × ΔL * (30) Ga = Ga−4.5907 × ΔL * (31) Ba = Ba−0.0601 × ΔL * (32) However, when the values of Ra, Ga, and Ba exceed 255, they are set to 255, and when they become negative, they are set to 0. Next, the values of the color information in the edge list are converted into the values of Ra, Ga, and Ba obtained here.

【0117】以上の方法によれば、色差を用いた場合に
比較してより自然な変換を行うことができる。即ち、色
差を用いた場合では、文字と背景の双方の色が濃い場合
には強調の度合いが大きくなり、また、文字と背景の双
方の色が薄い場合には強調の度合いが小さくなるが、以
上の方法によれば、そのような不都合を解消することが
可能となる。
According to the above method, more natural conversion can be performed as compared with the case where the color difference is used. That is, when color difference is used, the degree of emphasis is large when both the character and background colors are dark, and the degree of emphasis is small when both the character and background colors are light. According to the above method, such inconvenience can be solved.

【0118】次に、本発明の他の実施の形態について説
明する。図15は、本発明の他の実施の形態の構成例を
示すブロック図である。この図において、図2の場合と
対応する部分には同一の符号を付してあるので、その説
明は省略する。
Next, another embodiment of the present invention will be described. FIG. 15 is a block diagram showing a configuration example of another embodiment of the present invention. In this figure, parts corresponding to those in the case of FIG. 2 are denoted by the same reference numerals, and a description thereof will be omitted.

【0119】図15に示す実施の形態では、スクリーン
処理部60が新たに追加されており、また、文字色変換
部40がスクリーン処理部60において使用されるスク
リーンのサイズを参照して文字色の変換を行う構成とさ
れている。その他の構成は図2の場合と同様である。
In the embodiment shown in FIG. 15, a screen processing unit 60 is newly added, and character color conversion unit 40 refers to the size of the screen used in screen processing unit 60 to change the character color. The conversion is performed. Other configurations are the same as those in FIG.

【0120】スクリーン処理部60は、中間調画像を2
値表示するために、ビットマップデータに対して、図1
6(B)に示すようなスクリーンを用いて2値化処理を
施す。
The screen processing section 60 converts the halftone image into two
FIG. 1 shows bit map data for displaying values.
A binarization process is performed using a screen as shown in FIG.

【0121】また、文字色変換部40は、文字属性情報
だけでなく、スクリーン処理部60において使用される
スクリーンのサイズも参照して文字色を変換する。次
に、以上の実施の形態の動作について説明する。なお、
文字色変換部40およびスクリーン処理部60以外の動
作は、図2の場合と同様であるので、以下では文字色変
換部40とスクリーン処理部60の動作についてのみ説
明する。
The character color conversion unit 40 converts the character color with reference to not only the character attribute information but also the size of the screen used in the screen processing unit 60. Next, the operation of the above embodiment will be described. In addition,
The operations other than the character color conversion unit 40 and the screen processing unit 60 are the same as those in FIG. 2, and therefore, only the operation of the character color conversion unit 40 and the screen processing unit 60 will be described below.

【0122】文字色変換部40は、スクリーン処理部6
0からスクリーンのサイズを取得する。スクリーンのサ
イズとしては、例えば、m×m(ビット)が取得され
る。文字色変換部40は、取得したスクリーンのサイズ
からスクリーンサイズ情報wを以下の方法により生成す
る。
The character color conversion unit 40 includes the screen processing unit 6
Get screen size from 0. As the size of the screen, for example, m × m (bit) is acquired. The character color conversion unit 40 generates screen size information w from the acquired screen size by the following method.

【0123】m<5の場合 w=0 5≦m<9の場合 w=1 9≦m<13の場合 w=2 13≦m<17の場合 w=3 17≦mの場合 w=4 なお、スクリーンのサイズがスクリーンの線数iによっ
て与えられる場合には、以下の方法によりスクリーンサ
イズ情報wを生成する。
If m <5, w = 0 if 5 ≦ m <9, w = 1 if 9 ≦ m <13, w = 2 if 13 ≦ m <17, w = 3 if 17 ≦ m, w = 4. When the screen size is given by the screen ruling i, screen size information w is generated by the following method.

【0124】i<100の場合 w=4 100≦i<150の場合 w=3 150≦i<200の場合 w=2 200≦i<250の場合 w=1 300≦iの場合 w=0 文字色変換部40は、このようにして得られたスクリー
ンサイズ情報wと、文字属性情報vとを以下の式に代入
することにより、基準値ΔEstd を算出する。
If i <100, w = 4 if 100 ≦ i <150, w = 3 if 150 ≦ i <200, w = 2 if 200 ≦ i <250, w = 1 if 300 ≦ i, w = 0 characters The color conversion unit 40 calculates the reference value ΔEstd by substituting the screen size information w and the character attribute information v thus obtained into the following equation.

【0125】 ΔEstd =ΔEstd +(v−3)×2+(w−2) ・・・(33) このようにして得られた基準値ΔEstd を、式(6)に
よって算出された色差ΔERGB と比較し、色差ΔERGB
が基準値ΔEstd 以上の場合には文字色の変換を行わ
ず、色差ΔERGB が基準値ΔEstd 未満の場合には、前
述の式(8)以降の処理に従って文字色を変換する。
ΔE std = ΔE std + (v−3) × 2 + (w−2) (33) The reference value ΔE std thus obtained is compared with the color difference ΔE RGB calculated by the equation (6). , Color difference ΔERGB
Is smaller than or equal to the reference value ΔEstd, the character color is not converted. If the color difference ΔERGB is smaller than the reference value ΔEstd, the character color is converted in accordance with the processing from the above equation (8).

【0126】なお、明度差によって文字の色を変換する
場合には、スクリーンサイズ情報wと、文字属性情報v
とを以下の式に代入することにより、基準値ΔLstd *
を算出する。
When the character color is converted based on the brightness difference, the screen size information w and the character attribute information v
Is substituted into the following equation to obtain the reference value ΔLstd *.
Is calculated.

【0127】 ΔLstd * =ΔLstd * +(v−3)×0.5 +(w−2)×0.25 ・・・(34) そして、式(22)で求められる明度差ΔLdiff* が△
Lstd * 以上の場合は色変換を行わず、明度差ΔLdiff
* が△L std* 未満の場合に色変換を行う。
ΔLstd * = ΔLstd * + (v−3) × 0.5 + (w−2) × 0.25 (34) Then, the lightness difference ΔLdiff * obtained by Expression (22) is △
If Lstd * or more, no color conversion is performed, and the lightness difference ΔLdiff
If * is less than △ L std * , color conversion is performed.

【0128】以上のようにして文字色が文字属性とスク
リーンサイズとによって変換されたエッジデータは、ビ
ットマップ展開部50に供給され、そこでビットマップ
データに展開された後、スクリーン処理部60に供給さ
れる。
The edge data obtained by converting the character color based on the character attribute and the screen size as described above is supplied to the bitmap developing section 50, where it is developed into bitmap data and then supplied to the screen processing section 60. Is done.

【0129】スクリーン処理部60は、図16(A)に
示すビットマップデータに対して、図16(B)に示す
スクリーン(この例では、3×3のスクリーン)を用い
てスクリーン処理を施す。
The screen processing unit 60 performs a screen process on the bitmap data shown in FIG. 16A using a screen shown in FIG. 16B (3 × 3 screen in this example).

【0130】即ち、図16(A)に示すビットマップデ
ータの3×3の領域の各ビットと、図16(B)に示す
スクリーンの各ビットを比較し、ビットマップの画素値
がスクリーンの画素値と等しいかまたは大きい場合は
“1”を出力し、一方、ビットマップの画素値がスクリ
ーンの画素値未満の場合は“0”を出力する。
That is, each bit of the 3 × 3 area of the bitmap data shown in FIG. 16A is compared with each bit of the screen shown in FIG. If the value is equal to or greater than the value, "1" is output, while if the pixel value of the bitmap is less than the pixel value of the screen, "0" is output.

【0131】そして、重複を排してスクリーンを適宜移
動しながら同様の処理を全てのビットマップデータに対
して施すことにより、図16(C)に示すように画素値
が“0”または“1”であるビットマップデータが生成
される。
Then, the same processing is performed on all the bitmap data while the screen is appropriately moved while eliminating the overlap, so that the pixel value becomes “0” or “1” as shown in FIG. Is generated.

【0132】以上の実施の形態によれば、スクリーン処
理部60によってビットマップデータにスクリーン処理
が施される場合、文字属性情報とスクリーンサイズ情報
とを参照して、文字色を変換するようにしたので、フォ
ントの種類だけでなくスクリーンのサイズによっても文
字色が適宜変換されるので、特に、スクリーンのサイズ
が大きい場合でも文字の判読性が低下することを防止す
ることができる。
According to the above-described embodiment, when screen processing is performed on the bitmap data by the screen processing unit 60, the character color is converted with reference to the character attribute information and the screen size information. Therefore, the character color is appropriately converted not only according to the type of font but also according to the size of the screen, so that it is possible to prevent the legibility of the character from deteriorating even when the screen size is large.

【0133】なお、以上の実施の形態では、色差または
明度差を参照して文字色を変換するようにしたが、本発
明はこれらのみに限定されるものではなく、例えば、濃
度差などを用いることも可能である。
In the above embodiment, the character color is converted with reference to the color difference or the lightness difference. However, the present invention is not limited to these, and for example, the density difference is used. It is also possible.

【0134】また、プリンタだけでなくCRTモニタな
どに対しても本発明を適用することが可能である。更
に、上記の処理機能は、コンピュータによって実現する
ことができる。その場合、画像処理装置が有すべき機能
の処理内容は、コンピュータで読み取り可能な記録媒体
に記録されたプログラムに記述されており、このプログ
ラムをコンピュータで実行することにより、上記処理が
コンピュータで実現される。コンピュータで読み取り可
能な記録媒体としては、磁気記録装置や半導体メモリ等
がある。
Further, the present invention can be applied not only to a printer but also to a CRT monitor or the like. Further, the above processing functions can be realized by a computer. In this case, the processing contents of the functions that the image processing apparatus should have are described in a program recorded on a computer-readable recording medium, and the above processing is realized by the computer by executing the program on the computer. Is done. Examples of the computer-readable recording medium include a magnetic recording device and a semiconductor memory.

【0135】市場に流通させる場合には、CD−ROM
(Compact Disk Read Only Memory)やフロッピーディス
ク等の可搬型記録媒体にプログラムを格納して流通させ
たり、ネットワークを介して接続されたコンピュータの
記憶装置に格納しておき、ネットワークを通じて他のコ
ンピュータに転送することもできる。コンピュータで実
行する際には、コンピュータ内のハードディスク装置等
にプログラムを格納しておき、メインメモリにロードし
て実行するようにすればよい。
For distribution to the market, a CD-ROM
(Compact Disk Read Only Memory) or a program stored in a portable recording medium such as a floppy disk and distributed, or stored in a storage device of a computer connected via a network and transferred to another computer via the network You can also. When the program is executed by the computer, the program may be stored in a hard disk device or the like in the computer, loaded into the main memory, and executed.

【0136】[0136]

【発明の効果】以上説明したように本発明では、文字を
含む描画データを、表示形式のデータに変換する画像処
理装置において、文字に対応するフォントの属性情報を
取得し、文字とその背景の識別度に係わる表示パラメー
タの差分を算出し、フォントの属性情報と、表示パラメ
ータの差分とに応じて、文字の表示パラメータを必要に
応じて変更し、表示パラメータが変更された文字と、そ
の他の描画データとを、表示形式のデータに変換するよ
うにしたので、使用するフォントのサイズ、種類、また
は、書体などによらず、判読性の高い表示を行うことが
可能となる。
As described above, according to the present invention, in an image processing apparatus for converting drawing data including a character into display format data, attribute information of a font corresponding to the character is obtained, and the character and its background are obtained. Calculate the difference between the display parameters related to the degree of discrimination, and change the display parameters of the characters as necessary according to the font attribute information and the difference between the display parameters. Since the drawing data is converted into display format data, it is possible to perform highly legible display irrespective of the font size, type, or font used.

【0137】また、スクリーンのサイズに関する情報を
取得し、文字とその背景の識別度に係わる表示パラメー
タの差分を算出し、スクリーンサイズに関する情報と、
表示パラメータの差分とに応じて、文字の表示パラメー
タを必要に応じて変更し、表示パラメータが変更された
文字と、その他の描画データとを、表示形式のデータに
変換し、得られた表示形式のデータに対してスクリーン
処理を施すようにしたので、スクリーンのサイズによら
ず、判読性の高い表示を行うことが可能となる。
Further, information on the size of the screen is obtained, and the difference between the display parameters relating to the degree of discrimination between the character and its background is calculated.
In accordance with the difference between the display parameters, the display parameters of the characters are changed as necessary, and the characters whose display parameters have been changed and other drawing data are converted into display format data, and the obtained display format is obtained. Is subjected to screen processing, so that highly readable display can be performed regardless of the size of the screen.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の動作原理を説明する原理図である。FIG. 1 is a principle diagram for explaining the operation principle of the present invention.

【図2】 本発明の実施の形態の構成例を示すブロック
図である。
FIG. 2 is a block diagram illustrating a configuration example of an embodiment of the present invention.

【図3】 図2に示すエッジリスト生成部の詳細な構成
例を示すブロック図である。
FIG. 3 is a block diagram illustrating a detailed configuration example of an edge list generation unit illustrated in FIG. 2;

【図4】 ディスプレイリスト処理部で生成される文字
のディスプレイリストの構成例を示す図である。
FIG. 4 is a diagram illustrating a configuration example of a display list of characters generated by a display list processing unit.

【図5】 ディスプレイリスト処理部で生成される図形
のディスプレイリストの構成例を示す図である。
FIG. 5 is a diagram illustrating a configuration example of a display list of graphics generated by a display list processing unit.

【図6】 ディスプレイリスト処理部で生成されるラス
タのディスプレイリストの構成例を示す図である。
FIG. 6 is a diagram illustrating a configuration example of a raster display list generated by a display list processing unit.

【図7】 エッジリスト生成部で生成されるエッジリス
トの構成例を示す図である。
FIG. 7 is a diagram illustrating a configuration example of an edge list generated by an edge list generation unit.

【図8】 ディスプレイリストの展開方法の一例を説明
する図である。
FIG. 8 is a diagram illustrating an example of a display list expanding method.

【図9】 ディスプレイリストからエッジリストを生成
する方法の一例を説明する図である。
FIG. 9 is a diagram illustrating an example of a method of generating an edge list from a display list.

【図10】 複数のエッジリストを合成する方法の一例
を説明する図である。
FIG. 10 is a diagram illustrating an example of a method of combining a plurality of edge lists.

【図11】 文字背景色抽出部の動作を説明するための
フローチャートである。
FIG. 11 is a flowchart illustrating the operation of a character background color extraction unit.

【図12】 文字と図形が重なっている場合のエッジリ
ストの生成例を示す図である。
FIG. 12 is a diagram illustrating an example of generating an edge list when a character and a figure overlap;

【図13】 ビットマップ展開部の動作を説明するため
のフローチャートである。
FIG. 13 is a flowchart for explaining the operation of the bitmap developing unit.

【図14】 エッジリストをビットマップに展開する一
例を示す図である。
FIG. 14 is a diagram illustrating an example of developing an edge list into a bitmap.

【図15】 本発明の他の実施の形態の構成例を示すブ
ロック図である。
FIG. 15 is a block diagram showing a configuration example of another embodiment of the present invention.

【図16】 スクリーン処理の一例を示す図である。FIG. 16 is a diagram illustrating an example of a screen process.

【符号の説明】[Explanation of symbols]

i1 処理対象データ i2 ビットマップデータ 1 フォント属性情報取得手段 2 表示パラメータ差分算出手段 3 基準値算出手段 4 表示パラメータ変更手段 5 変換手段 10 印刷データ 20 エッジリスト生成部 20a 印刷データ解釈部 20b ディスプレイリスト処理部 20c ラスタデータ処理部 20d ラスタデータバッファ 20e エッジリスト処理部 30 文字背景色抽出部 40 文字色変換部 50 ビットマップ展開部 60 スクリーン処理部 i1 Data to be processed i2 Bitmap data 1 Font attribute information acquisition means 2 Display parameter difference calculation means 3 Reference value calculation means 4 Display parameter change means 5 Conversion means 10 Print data 20 Edge list generation unit 20a Print data interpretation unit 20b Display list processing Unit 20c raster data processing unit 20d raster data buffer 20e edge list processing unit 30 character background color extraction unit 40 character color conversion unit 50 bitmap development unit 60 screen processing unit

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 文字を含む描画データを、表示形式のデ
ータに変換する画像処理装置において、 前記文字に対応するフォントの属性情報を取得するフォ
ント属性情報取得手段と、 前記文字とその背景の識別度に係わる表示パラメータの
差分を算出する表示パラメータ差分算出手段と、 前記フォントの属性情報と、前記表示パラメータの差分
とに応じて、前記文字の表示パラメータを必要に応じて
変更する表示パラメータ変更手段と、 表示パラメータが変更された前記文字と、その他の描画
データとを、表示形式のデータに変換する変換手段と、 を有することを特徴とする画像処理装置。
1. An image processing apparatus for converting drawing data including a character into data in a display format, comprising: font attribute information obtaining means for obtaining font attribute information corresponding to the character; and identifying the character and its background. Display parameter difference calculating means for calculating a difference between display parameters related to the degree; display parameter changing means for changing the display parameter of the character as necessary according to the attribute information of the font and the difference between the display parameters. An image processing apparatus comprising: a conversion unit configured to convert the characters whose display parameters have been changed and other drawing data into display format data.
【請求項2】 前記フォントの属性情報は、フォントの
サイズ、フォントの種類、および、フォントの書体の少
なくとも1つまたはこれらの組み合わせであることを特
徴とする請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the font attribute information is at least one of a font size, a font type, and a font typeface, or a combination thereof.
【請求項3】 前記フォントの属性情報から基準値を算
出する基準値算出手段を更に有し、 前記表示パラメータ変更手段は、前記表示パラメータの
差分と前記基準値とを比較して前記表示パラメータを変
更することを特徴とする請求項1記載の画像処理装置。
3. A display apparatus further comprising: a reference value calculating unit configured to calculate a reference value from the font attribute information, wherein the display parameter changing unit compares the display parameter difference with the reference value to determine the display parameter. 2. The image processing apparatus according to claim 1, wherein the image processing apparatus changes the setting.
【請求項4】 前記表示パラメータの差分は、前記文字
とその背景の色差に基づいて算出することを特徴とする
請求項1記載の画像処理装置。
4. The image processing apparatus according to claim 1, wherein the difference between the display parameters is calculated based on a color difference between the character and its background.
【請求項5】 前記表示パラメータの差分は、前記文字
とその背景の明度差に基づいて算出することを特徴とす
る請求項1記載の画像処理装置。
5. The image processing apparatus according to claim 1, wherein the difference between the display parameters is calculated based on a brightness difference between the character and its background.
【請求項6】 文字を含む描画データを、表示形式のデ
ータに変換する処理をコンピュータに実行させるプログ
ラムを記録したコンピュータ読み取り可能な記録媒体に
おいて、 コンピュータを、 前記文字に対応するフォントの属性情報を取得するフォ
ント属性情報取得手段、 前記文字とその背景の識別度に係わる表示パラメータの
差分を算出する表示パラメータ差分算出手段、 前記フォントの属性情報と、前記表示パラメータの差分
とに応じて、前記文字の表示パラメータを必要に応じて
変更する表示パラメータ変更手段、 表示パラメータが変更された前記文字と、その他の描画
データとを、表示形式のデータに変換する変換手段、 として機能させるプログラムを記録したコンピュータ読
み取り可能な記録媒体。
6. A computer-readable recording medium storing a program for causing a computer to execute a process of converting drawing data including characters into display format data, the computer comprising: Font attribute information acquiring means for acquiring, display parameter difference calculating means for calculating a difference between display parameters relating to the degree of discrimination between the character and its background, and the character according to the attribute information of the font and the difference between the display parameters. A computer that records a program that functions as: display parameter changing means for changing the display parameters of the display device, if necessary, conversion means for converting the characters whose display parameters have been changed, and other drawing data into display format data. A readable recording medium.
【請求項7】 文字を含む描画データを、表示形式のデ
ータに変換した後、スクリーン処理を施す画像処理装置
において、 前記スクリーンのサイズに関する情報を取得するスクリ
ーンサイズ取得手段と、 前記文字とその背景の識別度に係わる表示パラメータの
差分を算出する表示パラメータ差分算出手段と、 前記スクリーンサイズに関する情報と、前記表示パラメ
ータの差分とに応じて、前記文字の表示パラメータを必
要に応じて変更する表示パラメータ変更手段と、 表示パラメータが変更された前記文字と、その他の描画
データとを、表示形式のデータに変換する変換手段と、 前記変換手段によって得られた表示形式のデータに対し
て、スクリーン処理を施すスクリーン処理手段と、 を有することを特徴とする画像処理装置。
7. An image processing apparatus that converts drawing data including characters into data in a display format and performs a screen process, wherein: a screen size obtaining unit that obtains information on the size of the screen; Display parameter difference calculation means for calculating a difference between display parameters related to the degree of discrimination; display parameters for changing the display parameters of the characters as necessary according to the information on the screen size and the difference between the display parameters. Changing means, converting means for converting the characters whose display parameters have been changed, and other drawing data into data in display format, and performing screen processing on the data in display format obtained by the converting means. An image processing apparatus, comprising: a screen processing means for applying.
【請求項8】 前記スクリーンサイズに関する情報から
基準値を算出する基準値算出手段を更に有し、 前記表示パラメータ変更手段は、前記表示パラメータの
差分と前記基準値とを比較して前記表示パラメータを変
更することを特徴とする請求項7記載の画像処理装置。
8. A display apparatus further comprising: a reference value calculating unit configured to calculate a reference value from information on the screen size, wherein the display parameter changing unit compares the display parameter with a difference between the display parameters and determines the display parameter. The image processing apparatus according to claim 7, wherein the image processing apparatus changes the setting.
【請求項9】 前記表示パラメータの差分は、前記文字
とその背景の色差に基づいて算出することを特徴とする
請求項7記載の画像処理装置。
9. The image processing apparatus according to claim 7, wherein the difference between the display parameters is calculated based on a color difference between the character and its background.
【請求項10】 前記表示パラメータの差分は、前記文
字とその背景の明度差に基づいて算出することを特徴と
する請求項7記載の画像処理装置。
10. The image processing apparatus according to claim 7, wherein the difference between the display parameters is calculated based on a brightness difference between the character and its background.
【請求項11】 文字を含む描画データを、表示形式の
データに変換した後、スクリーン処理を施す処理をコン
ピュータに実行させるプログラムを記録したコンピュー
タ読み取り可能な記録媒体において、 コンピュータを、 前記スクリーンのサイズに関する情報を取得するスクリ
ーンサイズ取得手段、 前記文字とその背景の識別度に係わる表示パラメータの
差分を算出する表示パラメータ差分算出手段、 前記スクリーンサイズに関する情報と、前記表示パラメ
ータの差分とに応じて、前記文字の表示パラメータを必
要に応じて変更する表示パラメータ変更手段、表示パラ
メータが変更された前記文字と、その他の描画データと
を、表示形式のデータに変換する変換手段、 前記変換手段によって得られた表示形式のデータに対し
て、スクリーン処理を施すスクリーン処理手段、 として機能させるプログラムを記録したコンピュータ読
み取り可能な記録媒体。
11. A computer-readable recording medium having recorded thereon a program for causing a computer to execute a process of performing screen processing after converting drawing data including characters into data in a display format. Screen size obtaining means for obtaining information about the display parameter difference calculating means for calculating the difference between the display parameters related to the degree of identification of the character and its background, according to the information about the screen size and the difference between the display parameters, Display parameter changing means for changing the display parameters of the characters as necessary, conversion means for converting the characters whose display parameters have been changed, and other drawing data into data in a display format, Screen data Screen processing unit, a computer-readable recording medium recording a program to function as which processes.
JP10232800A 1998-08-19 1998-08-19 Image processor and recording medium Pending JP2000066658A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10232800A JP2000066658A (en) 1998-08-19 1998-08-19 Image processor and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10232800A JP2000066658A (en) 1998-08-19 1998-08-19 Image processor and recording medium

Publications (1)

Publication Number Publication Date
JP2000066658A true JP2000066658A (en) 2000-03-03

Family

ID=16944967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10232800A Pending JP2000066658A (en) 1998-08-19 1998-08-19 Image processor and recording medium

Country Status (1)

Country Link
JP (1) JP2000066658A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7379212B2 (en) 2003-04-10 2008-05-27 Seiko Epson Corporation Print processing apparatus and print processing method
JP2014015127A (en) * 2012-07-09 2014-01-30 Denso It Laboratory Inc Information display apparatus, information display method and program
US9384557B2 (en) 2014-09-17 2016-07-05 Kabushiki Kaisha Toshiba Information processing device, image modification method, and computer program product
JP2017173789A (en) * 2016-03-22 2017-09-28 文鼎科技開發股▲ふん▼有限公司 Character adjustment method for adjusting character designed in first pixel matrix to output the character to second pixel matrix of output device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7379212B2 (en) 2003-04-10 2008-05-27 Seiko Epson Corporation Print processing apparatus and print processing method
JP2014015127A (en) * 2012-07-09 2014-01-30 Denso It Laboratory Inc Information display apparatus, information display method and program
US9384557B2 (en) 2014-09-17 2016-07-05 Kabushiki Kaisha Toshiba Information processing device, image modification method, and computer program product
JP2017173789A (en) * 2016-03-22 2017-09-28 文鼎科技開發股▲ふん▼有限公司 Character adjustment method for adjusting character designed in first pixel matrix to output the character to second pixel matrix of output device

Similar Documents

Publication Publication Date Title
JP3092711B2 (en) Output control device and method
JP3142550B2 (en) Graphic processing unit
JP2000132671A (en) Image processor and image processing method
JP3845045B2 (en) Image processing apparatus, image processing method, image forming apparatus, printing apparatus, and host PC
JP3791259B2 (en) Outline smoothing processing method
JP3223617B2 (en) Drawing apparatus and drawing method
JP2000066658A (en) Image processor and recording medium
JPH0729021A (en) Picture output device
JP2004334533A (en) Image processing device and method
JP4735212B2 (en) Image processing device
JPH0744687A (en) Picture forming device
JP3220437B2 (en) Output control device and method
JP3862460B2 (en) Information processing method and apparatus, and storage medium
JP2710350B2 (en) Image processing apparatus and image processing method of image processing apparatus
JP2001296857A (en) Data preserving method and data transform device
JP2580965B2 (en) Printer device
JPH09252411A (en) Picture processor and method therefor
JP3573291B2 (en) Character data creation method and character data creation device
JPH09277616A (en) Printer and control method therefor
JP2001273508A (en) Picture processor
JPH10222146A (en) Character display device, display method and font information
JPH11110150A (en) Image processing system, method therefor and computer-readable recording medium recording image processing control program
JPH10188006A (en) Line plotting method and image processor for realizing it
JPH09281946A (en) Character image data forming method and device therefor
JP2001209640A (en) Image information converter, image processor, method therefor and recording medium

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040427