JPH10215410A - Composite drawing data generation method, and composite drawing device - Google Patents

Composite drawing data generation method, and composite drawing device

Info

Publication number
JPH10215410A
JPH10215410A JP9016195A JP1619597A JPH10215410A JP H10215410 A JPH10215410 A JP H10215410A JP 9016195 A JP9016195 A JP 9016195A JP 1619597 A JP1619597 A JP 1619597A JP H10215410 A JPH10215410 A JP H10215410A
Authority
JP
Japan
Prior art keywords
data
edge
image
drawn
dot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9016195A
Other languages
Japanese (ja)
Inventor
Yoichi Onoe
洋一 尾上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP9016195A priority Critical patent/JPH10215410A/en
Publication of JPH10215410A publication Critical patent/JPH10215410A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To fast give an edge of the prescribed width to a drawn image and also to fast generate the α data on the edge by generating previously the αdata on the drawn image main body data and then generating an edge and the α data on the edge part. SOLUTION: A CPU 101 draws a color image as a black/white image with a RAM 103 used as its work area, calculates an area ratio of a substantial drawing area for each pixel dot, i.e., a minimum drawing unit area, and generates the α data on the drawn image main body. Then, the edge part dots of the drawn image main body are searched and a frame is drawn around every detected edge part dot and separately from the dot by the designated edge width. The inside of the frame is painted out with α=1. The color data on a drawn image having an edge where the drawn image main body is composed with the edge are written in a VRAM 13 and a VRAM 14 by composing an α plane of the drawn image main body with two α planes of the edge.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、例えば、テレビ
ジョン信号などのビデオ信号による表示画像に合成して
表示する、文字、図形、記号などの描画像を生成する場
合に用いる合成描画データの生成描方法および装置並び
に合成描画装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to the generation of synthetic drawing data used for generating drawing images of characters, figures, symbols, etc., which are displayed by being synthesized with a display image based on a video signal such as a television signal. The present invention relates to a drawing method and apparatus, and a combined drawing apparatus.

【0002】[0002]

【従来の技術】例えば、テレビ番組の表示画面に表示さ
れるタイトルや映画の字幕などのように、文字や図形な
どの描画像を動画像などに合成する場合には、いわゆる
ビデオテロッパやタイトラと呼ばれる合成描画データの
生成装置が用いられる。
2. Description of the Related Art For example, when a drawn image such as a character or a figure is combined with a moving image such as a title displayed on a display screen of a television program or a subtitle of a movie, a so-called video terrorist or titler is used. A device for generating combined drawing data is used.

【0003】このような合成描画データの生成装置にお
いては、ユーザからの描画入力に応じて、例えば、図1
4に示すように、ビデオ信号により形成される下地の動
画像(図14B)に合成する文字や図形などの描画像
(図14A)を生成する。この描画像は、例えば、合成
描画データの生成装置が有するフォントが用いられて生
成される。
In such an apparatus for generating composite drawing data, for example, FIG.
As shown in FIG. 4, a drawing image (FIG. 14A) such as a character or a figure to be synthesized with a base moving image (FIG. 14B) formed by a video signal is generated. The drawn image is generated using, for example, a font included in the synthetic drawing data generating device.

【0004】このフォントにより生成される描画像は、
高解像度を有していても、ビデオ信号と合成して表示す
る場合には、画面を構成する有限個の多数のドット(画
素)によって描画像が形成されるため、合成表示された
描画像の縁部分が「ぎざぎざ」になるなどして、違和感
のある描画像となる場合がある。
[0004] The drawing image generated by this font is
Even if it has a high resolution, when it is displayed by being synthesized with a video signal, a drawn image is formed by a finite number of dots (pixels) constituting a screen. The edge portion may be “jagged,” and the drawn image may have a strange feeling.

【0005】そこで、合成表示される描画像の縁部分を
滑らかにし、高品位な描画像を生成するため、いわゆる
アンチエイリアスと呼ばれる手法が用いられて、描画像
が生成される。この手法は、ある有限のドットから構成
されているビデオ信号に対して合成する比率に中間的な
値を用いて、見掛上の解像度を上げる手法である。この
アンチエイリアス手法により、文字の縁の部分の「ぎざ
ぎざ」の発生を押さえることができる。
[0005] Therefore, a so-called anti-aliasing technique is used to generate a drawn image in order to smooth the edges of the drawn image to be synthesized and to generate a high-quality drawn image. This method is to increase the apparent resolution by using an intermediate value for the ratio of synthesizing a video signal composed of certain finite dots. With this anti-aliasing method, it is possible to suppress the occurrence of “jaggies” at the edges of the characters.

【0006】業務用(放送用)の合成描画データの生成
装置の場合には、ほとんどの合成文字は、このアンチエ
イリアスの手法で滑らかな文字を合成している。最近で
は、民生用の機器でも、より高品位に描画するため、こ
のアンチエイリアスの手法が用いられている。
[0006] In the case of a commercial (broadcasting) synthetic drawing data generating apparatus, most synthesized characters are synthesized with smooth characters by the anti-aliasing technique. In recent years, this anti-aliasing method has been used even for consumer equipment in order to draw higher quality images.

【0007】このアンチエイリアス手法を用いる場合に
は、描画した文字や図形や記号など(オブジェクトと呼
ばれる)の描画像データの他に、主としてオブジェクト
と下地の画像との合成比率を示す情報であるαデータと
呼ばれる輪郭データを生成する。
When the anti-aliasing method is used, in addition to the drawn image data of drawn characters, figures, symbols, and the like (called objects), α data which is information mainly indicating the composition ratio of the object and the background image is used. Generate contour data called.

【0008】この輪郭データ(以下αデータと記載す
る)を生成するために、オブジェクトのカラー描画像
を、その描画最小単位領域(画素ドット領域に対応)ご
とに、N個(Nは2以上の整数)の領域に分割して、そ
の分割領域ごとに、オブジェクトに含まれて実際に描画
を行う領域(これを、この明細書では実質描画領域と呼
ぶことにする)であるか否かを判定し、オブジェクトの
輪郭部分について、描画を行う分割領域の前記描画最小
単位領域の数により、その描画最小単位領域に対する実
質描画領域の面積比率を求めて、αデータとする。
In order to generate the contour data (hereinafter referred to as α data), a color drawing image of an object is divided into N pieces (N is 2 or more) for each drawing minimum unit area (corresponding to a pixel dot area). It is determined whether each of the divided areas is an area that is included in the object and actually performs drawing (this is called a substantial drawing area in this specification). Then, with respect to the contour portion of the object, the area ratio of the substantial drawing area to the minimum drawing unit area is calculated based on the number of the minimum drawing unit areas in the divided area where the drawing is performed, and is set as α data.

【0009】実際的には、描画最小単位領域は画像ドッ
トに対応するため、システムは、この画像ドット単位で
処理を実行する。そこで、前記分割領域が描画最小単位
領域の大きさとなるように、カラー描画像を、描画最小
単位領域のN倍となるように拡大した領域に描画し、そ
の拡大領域における前記描画最小単位領域のN倍の単位
領域ごとに、前記描画最小単位領域毎の実質描画領域の
面積比率を求め、前記αデータを求めるようにしてい
る。
In practice, since the minimum drawing unit area corresponds to an image dot, the system executes processing in image dot units. Therefore, the color drawing image is drawn in an area enlarged to be N times the minimum drawing unit area so that the divided area has the size of the minimum drawing unit area. For each N-times unit area, the area ratio of the substantial drawing area for each of the minimum drawing unit areas is obtained, and the α data is obtained.

【0010】そして、下地のビデオ画像と、文字や図形
などの描画像とを合成する際に、以上のようにして求め
られたαデータにより定められる合成比率で、描画像の
輪郭部分を下地画像に合成することにより、描画像の縁
部分のぎざぎざ感を抑え、みかけ上の解像度を上げるこ
とができ、文字や図形などの描画像を滑らかで、高品位
の画像として生成することができる。
When the base video image and the drawing image such as characters and figures are synthesized, the outline portion of the drawing image is converted to the base image at a synthesis ratio determined by the α data obtained as described above. , The jaggedness at the edges of the drawn image can be suppressed, the apparent resolution can be increased, and the drawn image such as characters and figures can be generated as a smooth, high-quality image.

【0011】ところで、タイトラーなどの合成描画デー
タの生成装置は、描画により生成した文字や図形に対し
て、種々の修飾を施すことができる機能を備える。その
修飾機能の一つとして、生成した描画像の周囲に、所定
幅のエッジを付与するようにする機能がある。例えば図
15に示すように、文字本体などの描画像本体LTの部
分の周囲に一定幅のエッジEGを付与する。
By the way, a device for generating composite drawing data such as a titler has a function of applying various modifications to characters and figures generated by drawing. As one of the modification functions, there is a function of giving an edge of a predetermined width around the generated drawn image. For example, as shown in FIG. 15, an edge EG having a constant width is provided around a portion of the drawn image body LT such as a character body.

【0012】文字描画像を、下地の画像にスーパーイン
ポーズにより合成する場合、ほとんどの場面でエッジが
必要になる。これは、下地の画像の色や明るさがリアル
タイムで変化しているので、文字本体とエッジとの間に
コントラスト付けて、どの様な画像でも鮮明にタイトル
文字が認識できるようにしなければならないからであ
る。
When a character drawing image is superimposed on a background image by superimposition, an edge is required in most scenes. This is because the color and brightness of the underlying image are changing in real time, so it is necessary to provide a contrast between the character body and the edge so that the title character can be clearly recognized in any image. It is.

【0013】このエッジEGを付与した描画像データ
と、そのエッジのαデータとは、従来、次のようにして
生成されていた。
The drawing image data to which the edge EG has been added and the α data of the edge have conventionally been generated as follows.

【0014】まず、描画像本体LTを、前述したαデー
タの生成時と同様にして、図16に示すように、拡大領
域に描画する。そして、この図16に示す内側の部分で
ある描画像本体LTを、付与したいエッジ幅分だけ上下
左右に移動させ、その移動軌跡によりエッジを作る。す
なわち、描画像本体LTを構成する各ドットのすべて
を、付与したいエッジの幅分だけ、上下左右にコピーす
る。そして、そのコピーしたものを、すべての画素につ
いて合成して、描画像本体LT以外の部分として、図1
6の外側に示すようにして、エッジEGを得る。このと
き、生成されたエッジEGの部分の色は、オペレータに
より指定された色となるようにされる。
First, the drawn image body LT is drawn in the enlarged area as shown in FIG. 16 in the same manner as when the α data is generated. Then, the drawn image main body LT, which is the inner part shown in FIG. 16, is moved up, down, left, and right by an edge width to be provided, and an edge is created based on the movement locus. That is, all of the dots constituting the drawn image body LT are copied up, down, left, and right by the width of the edge to be provided. Then, the copied image is combined with respect to all pixels, and as a part other than the drawn image main body LT, FIG.
6, an edge EG is obtained. At this time, the color of the generated edge EG is set to the color specified by the operator.

【0015】次に、前述したように、拡大された単位領
域ごとの、面積比率を求めて、エッジが付与された描画
像データについてのαデータを得る。
Next, as described above, the area ratio of each of the enlarged unit regions is determined to obtain α data for the drawn image data to which the edge has been added.

【0016】[0016]

【発明が解決しようとする課題】上述したように、従来
の合成描画データの生成装置においては、エッジを生成
する場合には、メモリ上で、前述した拡大領域にカラー
描画像を描画し、その拡大領域上でのカラー描画像の最
小単位領域(ドット)毎に上下左右にずらすことによ
り、エッジを生成するようにしている。そして、この生
成したエッジについて、αデータを生成するようにして
いる。
As described above, in a conventional synthetic drawing data generating apparatus, when an edge is generated, a color drawing image is drawn in the above-described enlarged area on a memory, and the color drawing image is drawn. Edges are generated by shifting up, down, left, and right for each minimum unit area (dot) of the color drawing image on the enlarged area. Then, α data is generated for the generated edge.

【0017】例えば、カラー画像を形成する赤(R)、
緑(G)、青(B)の各色情報を、それぞれ8ビットで
表現するようにした場合には、描画像が形成される拡大
領域の各ドットは、24ビットの色情報で構成される。
For example, red (R) for forming a color image,
When each of the color information of green (G) and blue (B) is represented by 8 bits, each dot of the enlarged area where the drawn image is formed is composed of 24 bits of color information.

【0018】したがって、色ドットを上下左右にずらず
場合にも、複数ビットを扱わなければならない。このよ
うに、描画像をカラー画像として扱う場合には、情報量
が多くなるため、1度に処理することができるドットの
数が少なく、ソフトウエア処理におけるループの回数も
多くなり、エッジを生成する処理を高速に行うことがで
きない。
Therefore, even when the color dots are not shifted up, down, left and right, a plurality of bits must be handled. As described above, when a drawn image is treated as a color image, the amount of information increases, so that the number of dots that can be processed at one time is small, the number of loops in software processing increases, and an edge is generated. Cannot be performed at high speed.

【0019】また、αデータを生成する場合の面積比率
を求める処理においても、カラーデータを扱うため、同
様に1ドット当たりに複数ビットを扱う必要があり、処
理速度を高速にすることができない。
Also, in the processing for obtaining the area ratio when generating the α data, since color data is used, it is necessary to similarly handle a plurality of bits per dot, so that the processing speed cannot be increased.

【0020】また、上述した従来例の場合、付与したエ
ッジのαデータを生成するために、拡大領域において、
すべてのカラーデータを上下左右に移動させてコピーす
ることによりエッジを形成した後に、αデータを生成し
なければならない。このように拡大領域において、カラ
ーデータを上下左右に移動させることは、上述もしたよ
うに、アクセスするメモリサイズが大きくなり、また、
アクセスする回数も多くなる。このため、この点でも処
理速度が大きな問題になる。
Further, in the case of the above-described conventional example, in order to generate α data of the added edge, in the enlarged area,
After forming an edge by moving and copying all the color data up, down, left, and right, α data must be generated. As described above, moving the color data up, down, left, and right in the enlarged area increases the memory size to be accessed,
The number of times of access also increases. For this reason, the processing speed also becomes a significant problem in this respect.

【0021】エッジの生成ために、カラー描画像データ
を用いる代わりに、これを白黒データに変換して、描画
像を拡大領域に描画し、描画結果の白黒描画像のビット
マップを用いることも考えられる。これによれば、1画
素は1ビットであり、1度に処理するドット数が増え、
上述のカラーデータを扱う場合に比べて高速処理が可能
になる。
Instead of using color drawing image data to generate edges, it is also conceivable to convert this into black and white data, draw the drawing image in an enlarged area, and use the bitmap of the black and white drawing image as the drawing result. Can be According to this, one pixel is one bit, and the number of dots to be processed at once increases.
High-speed processing can be performed as compared with the case where color data is handled as described above.

【0022】しかし、エッジを作成する場合には、白黒
ビットマップデータであっても、メモリコピーの他に、
作成するエッジ幅分だけ、ビットシフトの操作を行わな
ければならないため、やはり、処理速度の点で問題であ
る。
However, when an edge is created, even if it is black and white bitmap data, in addition to memory copying,
The bit shift operation must be performed by the width of the edge to be created, which is still a problem in terms of processing speed.

【0023】例えば、αデータの生成のために、横×縦
=16×16倍の拡大領域に描画像を描画するようにす
る場合、原寸の大きさで2ドットの幅のエッジを付与す
る場合には、拡大領域において、上下左右に16×2=
32ドットの範囲でドットをずらしながら重ね合わせる
処理を行う必要があり、処理速度が問題となる。
For example, when an image is drawn in an enlarged area of 16.times.16 times to generate .alpha. Data, an edge having a size of the original size and a width of 2 dots is provided. In the enlarged area, 16 × 2 =
It is necessary to perform a process of superimposing dots while shifting the dots within a range of 32 dots, and the processing speed becomes a problem.

【0024】以上のように、従来のエッジ生成法および
そのαデータの生成法では、拡大領域に描画した描画像
本体をずらして何回も描画するため、非常に広い範囲の
メモリエリアをアクセスしなければならなくなり、処理
速度の点で大きな問題があった。
As described above, in the conventional edge generation method and its α data generation method, since the drawn image body drawn in the enlarged area is drawn many times, an extremely wide memory area is accessed. And there was a major problem in terms of processing speed.

【0025】以上のことにかんがみ、この発明は、表示
画面に合成する文字、図形、記号などの描画像に、所定
の幅のエッジを付与する処理およびそのエッジのαデー
タの生成処理を高速にすることができる合成描画データ
の生成方法および装置を提供することを目的とする。
In view of the above, the present invention provides a high-speed processing for providing an edge having a predetermined width to a drawn image such as a character, figure, or symbol to be synthesized on a display screen and generating α data of the edge. It is an object of the present invention to provide a method and an apparatus for generating composite drawing data that can be used.

【0026】[0026]

【課題を解決するための手段】上記課題を解決するた
め、この発明による合成描画データの生成方法は、予
め、描画像本体データについてαデータを生成し、その
描画像本体のαデータを用いて、エッジの生成およびそ
のエッジ部分のαデータを生成するようにする。すなわ
ち、請求項1に記載の発明の合成描画データの生成方法
は、表示画像に文字や図形などのカラー描画像を合成し
て表示するために、カラー描画像データと、前記カラー
描画像を前記表示画像に合成するために使用する輪郭デ
ータとからなる合成描画データを生成する方法であっ
て、前記輪郭データから、前記カラー描画像の端部を検
出し、前記端部の描画像データのαデータを、その周囲
にコピーすることにより、前記カラー描画像の周囲に生
成される所定幅のエッジについてのαデータを生成する
ことを特徴とする。
In order to solve the above-mentioned problems, a method of generating composite drawing data according to the present invention generates α data for drawn image main data in advance and uses the α data of the drawn image main body. , And generation of α data of the edge portion. That is, in the method for generating composite drawing data according to the first aspect of the present invention, the color drawing image data and the color drawing image are combined with each other to display a color drawing image such as a character or a figure on a display image. A method for generating composite drawing data including outline data used for synthesizing a display image, wherein an edge of the color drawing image is detected from the outline data, and α of the edge drawing image data is detected. By copying data around the data, α data for an edge having a predetermined width generated around the color drawing image is generated.

【0027】また、請求項2に記載の発明による合成描
画データの生成方法は、請求項1において、前記エッジ
の描画像データの周囲の他のエッジの描画像データを参
照し、当該周囲の他のエッジの描画像データの、自己の
エッジの描画像データに対する位置により、前記自己の
エッジの描画像データのαデータをコピーする周囲位置
を変更するようにしたことを特徴とする。
According to a second aspect of the present invention, there is provided a method of generating synthetic drawing data according to the first aspect, wherein the drawing image data of another edge around the drawing image data of the edge is referred to and the other drawing image data around the edge is referred to. The peripheral position of copying the α data of the drawn image data of the own edge is changed according to the position of the drawn image data of the edge with respect to the drawn image data of the own edge.

【0028】請求項1に記載の発明による合成描画デー
タの生成方法においては、既に作成されている描画像本
体のαデータが用いられて原寸の描画像の端部のデータ
が検出され、その端部のαデータのみを周囲にコピーす
ることにより、生成されたエッジのαデータが生成され
る。すなわち、従来のように拡大領域に描画像を描画し
て、その拡大領域で描画像全体を上下左右に移動させて
エッジを生成し、その生成した拡大領域の描画像からエ
ッジ部のαデータを生成するのではないので、アクセス
するメモリサイズが小さくなり、高速化が実現できる。
In the method for generating composite drawing data according to the first aspect of the present invention, the data of the end of the original drawn image is detected by using the α data of the drawn image body which has already been created, and the end of the data is detected. The α data of the generated edge is generated by copying only the α data of the copy to the periphery. That is, a drawn image is drawn in an enlarged area as in the related art, the entire drawn image is moved up, down, left, and right in the enlarged area to generate an edge, and α data of an edge portion is generated from the generated drawn image of the enlarged area. Since it is not generated, the size of the memory to be accessed is reduced, and high speed can be realized.

【0029】特に、請求項2に記載の発明の場合には、
エッジの描画像データの周囲の他のエッジの描画像デー
タを参照することで、自己のエッジの描画像データにつ
いてのαデータをコピーしなければいけないメモリエリ
アを判定することができ、それに応じて限定された範囲
で、エッジを構成するデータ部分に対するαデータをコ
ピーするようにすることができ、より高速の処理が実現
できる。
Particularly, in the case of the invention described in claim 2,
By referring to the drawn image data of the other edges around the drawn image data of the edge, it is possible to determine the memory area in which the α data for the drawn image data of the own edge must be copied, and accordingly, Within a limited range, α data for a data portion constituting an edge can be copied, and higher-speed processing can be realized.

【0030】[0030]

【発明の実施の形態】以下、図を参照しながら、この発
明による合成描画データの生成方法および合成描画装置
の一実施の形態について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an embodiment of a method for generating combined drawing data and a combined drawing apparatus according to the present invention will be described with reference to the drawings.

【0031】以下に説明する実施の形態において、合成
描画装置は、2種類のアンチエイリアスを行うことがで
きるものである。1つは、いわゆるビデオアンチエイリ
アスと呼ばれるもので、文字や図形などの描画像のプレ
ーンと、これが合成される動画像などの下地のプレーン
との合成比率をαデータとして用い、滑らかな描画像の
表示を行うものである。
In the embodiment described below, the composite drawing apparatus can perform two types of anti-aliasing. One is so-called video anti-aliasing, which displays a smooth drawn image by using the combination ratio of a plane of a drawn image such as a character or a figure and a plane of a background such as a moving image to be synthesized as α data. Is what you do.

【0032】もう1つのアンチエイリアスは、文字プレ
ーン内で行われる、いわゆるCGアンチエイリアスと呼
ばれるもので、例えば文字などの描画像とこれに付属す
るエッジ(縁)の部分の間や、文字などの描画像の重な
り部分の境目は、合成比率ではなく、αデータに応じて
当該部分の色を決めるものである。すなわち、文字描画
像とエッジ(縁)の部分の間は、文字本体の色とエッジ
部分の色との間のαデータに応じた中間的な色で表す。
また、重なった文字などの描画像の境目は、αデータに
応じた両者の中間的な色で描画することにより、滑らか
な描画像の表示を行う。
The other anti-aliasing is so-called CG anti-aliasing which is performed in a character plane. For example, a drawing image of a character or the like and an edge (edge) attached thereto, a drawing image of a character or the like are provided. The boundary of the overlapped part is determined not by the combination ratio but by the color of the part according to the α data. That is, the portion between the character drawing image and the edge (edge) is represented by an intermediate color corresponding to the α data between the color of the character body and the color of the edge portion.
In addition, the boundary between drawn images such as overlapping characters is drawn in an intermediate color between the two according to the α data, so that a smooth drawn image is displayed.

【0033】したがって、以下に説明する実施の形態の
合成描画装置において、αデータは、ビデオアンチエイ
リアス、CGアンチエイリアスの2種類のアンチエイリ
アスに用いられる。
Therefore, in the composite drawing apparatus according to the embodiment described below, α data is used for two types of anti-aliasing, that is, video anti-aliasing and CG anti-aliasing.

【0034】図1は、この実施の形態の合成描画装置1
を説明するためのブロック図である。この合成描画装置
1は、合成描画データ生成装置の部分を含んでいる。
FIG. 1 shows a composite drawing apparatus 1 according to this embodiment.
It is a block diagram for explaining. The composite drawing device 1 includes a part of a composite drawing data generation device.

【0035】図1の例の合成描画装置1は、コンピュー
タにより構成される合成描画データ生成部100と、グ
ラフィックアクセレータ12およびビデオRAM(以
下、VRAMと記す)13、14、15からなる描画デ
ータ転送バッファ部11と、生成されたカラー描画像デ
ータと、後述する入力ビデオ画像データとの合成を行う
デジタルビデオミキサ21と、キー信号コントローラ2
2と、外部ビデオ信号の入力端子31と、A/D変換器
32と、D/A変換器33、34と、出力端子41、4
2、43とを備える。
The synthetic drawing apparatus 1 in the example of FIG. 1 transfers a drawing data composed of a synthetic drawing data generating section 100 composed of a computer, a graphic accelerator 12, and video RAMs (hereinafter, referred to as VRAMs) 13, 14, and 15. A buffer section 11, a digital video mixer 21 for synthesizing the generated color drawing image data and input video image data described later, and a key signal controller 2
2, an input terminal 31 for an external video signal, an A / D converter 32, D / A converters 33 and 34, and output terminals 41 and 4
2 and 43.

【0036】合成描画データ生成部100は、図1に示
すように、CPU101、ROM102、RAM10
3、VRAM104、ディスプレイコントローラ105
を備え、それらがシステムバス109を介して接続され
た構成とされている。そして、ディスプレイコントロー
ラ105には、ディスプレイ2が接続される。また、ユ
ーザからの描画入力情報を受け付けるキーボード3やマ
ウス4が、I/Oポート111を介してシステムバス1
09に接続されている。
As shown in FIG. 1, the composite drawing data generation unit 100 includes a CPU 101, a ROM 102, a RAM 10
3, VRAM 104, display controller 105
, And are connected via a system bus 109. The display 2 is connected to the display controller 105. The keyboard 3 and the mouse 4 that receive drawing input information from the user are connected to the system bus 1 via the I / O port 111.
09.

【0037】ROM102は、文字、図形、記号などの
フォントデータやプログラムなどのこの実施の形態の合
成描画装置1において使用される各種の情報が格納され
たものである。RAM103は、各種の処理の作業領域
として用いられ、VRAM104は、生成した描画像の
表示に用いる表示用メモリである。
The ROM 102 stores various information used in the composite drawing apparatus 1 of this embodiment, such as font data such as characters, figures, and symbols, and programs. The RAM 103 is used as a work area for various processes, and the VRAM 104 is a display memory used for displaying the generated drawn image.

【0038】そして、合成描画データ生成部100は、
キーボード3やマウス4を介して入力されるユーザから
の描画入力情報に応じて、入力端子31を通じて入力さ
れるカラービデオ信号に合成する文字や図形などのカラ
ー描画像を、例えば、ROM102に予め用意されてい
る、既存のフォントラスタライザー、図形描画ルーチン
を用いて描画する。
Then, the composite drawing data generation unit 100
In accordance with drawing input information from a user input via the keyboard 3 or the mouse 4, a color drawing image such as a character or a figure to be synthesized with a color video signal input through the input terminal 31 is prepared in advance in, for example, the ROM 102. Is drawn using the existing font rasterizer and graphic drawing routine.

【0039】この場合、ユーザからの描画入力に応じた
カラー描画像は、VRAM104に描画される。VRA
M104に描画されたカラー描画像は、CPU101の
指示に応じて、ディスプレイコントローラ105により
読み出され、ディスプレイ2に表示される。
In this case, the color drawing image corresponding to the drawing input from the user is drawn in the VRAM 104. VRA
The color drawing image drawn on the M104 is read by the display controller 105 in accordance with an instruction from the CPU 101, and displayed on the display 2.

【0040】そして、ディスプレイ2に表示された描画
像が、ユーザが意図する描画像であるときには、ユーザ
は、キーボード3またはマウス4を介して確認入力を行
う。この確認入力は、例えば、キーボードのプレビュー
ボタンキーの押下や、ディスプレイ2の画面上に表示さ
れたプレビューアイコンのマウスによる選択処理であ
る。
When the drawing image displayed on the display 2 is the drawing image intended by the user, the user performs a confirmation input via the keyboard 3 or the mouse 4. This confirmation input is, for example, pressing a preview button key on a keyboard or selecting a preview icon displayed on the screen of the display 2 with a mouse.

【0041】なお、このとき、ディスプレイ2に表示さ
れたカラー描画像が、ユーザの意図するものでないとき
には、ユーザは、新たな描画指示の入力を行うことによ
り、この新たな描画指示に応じたカラー描画像を描画
し、ディスプレイ2に表示することができる。
At this time, if the color drawing image displayed on the display 2 is not the one intended by the user, the user inputs a new drawing instruction, and the color corresponding to the new drawing instruction is input. A drawn image can be drawn and displayed on the display 2.

【0042】ユーザにより確認入力が行われると、CP
U101は、これを検知して、RAM103をワークエ
リアとして用いて、詳しくは後述するように、この例の
場合には、カラー描画像を白黒描画像として描画し、白
黒描画像の描画最小単位領域である画素ドット毎に、実
質描画領域の面積比率を求め、αデータの生成を行う。
これは、描画像本体についてのαデータの生成処理速度
を高速化するためである。
When the user performs a confirmation input, the CP
U101 detects this, uses the RAM 103 as a work area, and draws a color drawing image as a black-and-white drawing image in this example, as will be described in detail later, and draws a minimum unit area of the black-and-white drawing image. Then, the area ratio of the substantial drawing area is obtained for each pixel dot, and α data is generated.
This is to increase the processing speed of generating α data for the drawn image body.

【0043】このとき、この実施の形態においては、描
画入力の際に、描画像としての文字本体に、表示色およ
び幅の指示を含むエッジを付与する指示入力があったと
きには、後述するように、文字本体について生成したα
データを用いてエッジの生成およびそのαデータの生成
を行う。
At this time, in this embodiment, when there is an instruction input for giving an edge including an instruction of a display color and a width to a character body as a drawn image at the time of drawing input, as described later. , Α generated for the character body
An edge is generated using the data, and α data thereof is generated.

【0044】そして、CPU101は、VRAM104
に描画されたカラー描画像に基づいて、赤(R)、緑
(G)、青(B)の3つの色信号からなる描画データを
グラフィックアクセレータ12に供給するとともに、求
めたαデータをグラフィックアクセレータ12に供給す
る。
Then, the CPU 101 sets the VRAM 104
Is supplied to the graphic accelerator 12 based on three color signals of red (R), green (G), and blue (B) on the basis of the color drawing image drawn on the 12

【0045】この実施の形態において、R、G、Bの各
原色信号は、それぞれ例えば8ビットで表現されたもの
である。αデータは、アンチエイリアスの精度に応じた
ビット数とされる。
In this embodiment, each of the R, G and B primary color signals is represented by, for example, 8 bits. The α data has a bit number according to the precision of the anti-aliasing.

【0046】グラフィックアクセレータ12は、R、
G、Bの各色信号に基づいて、輝度信号(Y)および色
差信号(U/V)を生成する。この場合、輝度信号
(Y)、色差信号(U/V)は、それぞれ例えば8ビッ
トで表現される。
The graphic accelerator 12 has R,
A luminance signal (Y) and a color difference signal (U / V) are generated based on the G and B color signals. In this case, the luminance signal (Y) and the color difference signal (U / V) are each represented by, for example, 8 bits.

【0047】そして、グラフィックアクセレータ12
は、生成した輝度信号(Y)、色差信号(U/V)をV
RAM13、VRAM14に書き込む。また、グラフィ
ックアクセレータ12は、転送されてきたαデータをV
RAM15に書き込む。
Then, the graphic accelerator 12
Represents the generated luminance signal (Y) and color difference signal (U / V) as V
Write to RAM13, VRAM14. Further, the graphic accelerator 12 converts the transferred α data into V
Write to RAM15.

【0048】VRAM13、VRAM14、VRAM1
5に書き込まれた1画面分のカラー描画像を形成する輝
度信号、色差信号、および、αデータは、読み出されて
デジタルビデオミキサ21に供給される。
VRAM13, VRAM14, VRAM1
The luminance signal, the color difference signal, and the α data which form the color drawing image for one screen written in 5 are read out and supplied to the digital video mixer 21.

【0049】デジタルビデオミキサ21は、入力端子3
1を介して入力され、A/D変換器32によりデジタル
信号に変換されたビデオ信号に、VRAM13,14か
ら読み出した輝度信号(Y)、色差信号(U/V)によ
り形成されるカラー描画像を、VRAM15から読み出
したαデータに基づいて前述したビデオアンチエイリア
スを行って合成する。このアンチエイリアスが行われて
カラー描画像が合成されたビデオ信号は、デジタルビデ
オミキサ21が内蔵するD/A変換器21aによりアナ
ログ信号に変換され、出力端子43を介して出力され
て、モニタ受像機などの機器に供給される。
The digital video mixer 21 has an input terminal 3
A video signal input through the A / D converter 1 and converted to a digital signal by the A / D converter 32 is converted into a color drawing image formed by a luminance signal (Y) and a color difference signal (U / V) read from the VRAMs 13 and 14. Are synthesized by performing the above-described video anti-aliasing based on the α data read from the VRAM 15. The video signal synthesized by the anti-aliasing and the color drawing image is converted into an analog signal by a D / A converter 21a incorporated in the digital video mixer 21, and is output via an output terminal 43, and is output to a monitor receiver. And other equipment.

【0050】また、この実施の形態の合成描画装置1
は、外部に設けられるスイッチャーなどにより、ビデオ
信号と、カラー描画像とを、合成描画装置1において求
めたαデータに応じてビデオアンチェイリアスを行って
合成することを考慮して、輝度信号(Y)、色差信号
(U/V)により形成される描画像データが、D/A変
換器34に供給されて、アナログ信号に変換された後に
出力端子42を介して外部に出力することができるよう
にされている。
Further, the composite drawing apparatus 1 of this embodiment
In consideration of the fact that a video signal and a color drawing image are synthesized by performing a video unchained operation according to the α data obtained by the synthesizing and drawing device 1 using a switcher or the like provided outside, a luminance signal (Y ), The drawn image data formed by the color difference signal (U / V) is supplied to the D / A converter 34, converted into an analog signal, and output to the outside via the output terminal 42. Has been.

【0051】この場合、VRAM15に書き込まれたα
データは、VRAM15から読み出されて、キー信号コ
ントローラ16に供給され、ここで、カラー描画像をビ
デオ信号に合成するために用いるキー信号に変換され
て、出力端子41を介して外部に出力される。
In this case, α written in the VRAM 15
The data is read from the VRAM 15 and supplied to the key signal controller 16, where the data is converted into a key signal used for synthesizing the color drawing image with the video signal, and output to the outside via the output terminal 41. You.

【0052】これにより、図2に示すように、キー信号
に応じてビデオ信号にカラー描画像を合成する機能を備
えた、例えば、スイッチャー5には、合成描画装置1の
出力端子41を介して出力されるキー信号が、スイッチ
ャー5の入力端51を介して供給される。また、合成描
画装置1の出力端42を介して出力される描画データ
は、スイッチャー5の入力端52を介して供給される。
Thus, as shown in FIG. 2, the switcher 5 has a function of synthesizing a color drawing image with a video signal in accordance with a key signal. The output key signal is supplied through the input terminal 51 of the switcher 5. The drawing data output through the output terminal 42 of the combined drawing device 1 is supplied through the input terminal 52 of the switcher 5.

【0053】そして、スイッチャー5のビデオ信号の入
力端子53から入力されるビデオ信号、および、描画像
データ、キー信号は、スイッチャー5の合成回路54に
供給される。合成回路54では、入力端子51からのキ
ー信号に応じて、描画データにより形成されるカラー描
画像の合成比率を制御して、入力端子53から供給され
たビデオ信号に、入力端子52からの描画データにより
形成されるカラー描画像がビデオアンチエイリアスされ
て合成される。
Then, the video signal input from the video signal input terminal 53 of the switcher 5, the drawn image data, and the key signal are supplied to the synthesizing circuit 54 of the switcher 5. The synthesizing circuit 54 controls the synthesizing ratio of the color drawing image formed by the drawing data according to the key signal from the input terminal 51, and converts the video signal supplied from the input terminal 53 into the drawing signal from the input terminal 52. A color drawing image formed by the data is synthesized by video anti-aliasing.

【0054】合成回路54からのカラー描画像が合成さ
れたカラービデオ信号は、スイッチャー5の出力端子5
5を介して出力され、モニタ受像機などに供給される。
The color video signal synthesized from the color drawing image from the synthesizing circuit 54 is supplied to the output terminal 5 of the switcher 5.
5 and supplied to a monitor receiver or the like.

【0055】次に、この実施の形態の合成描画装置1に
おいて行われる、エッジ付与およびエッジ部のアンチエ
イリアスに用いるαデータを求める処理について説明す
る。この実施の形態の合成描画装置1は、アンチエイリ
アスに用いるαデータを高速に求めることができるもの
である。
Next, a description will be given of a process of obtaining α data used for edge addition and anti-aliasing of an edge portion, which is performed in the composite drawing apparatus 1 according to this embodiment. The composite drawing apparatus 1 of this embodiment can quickly obtain α data used for anti-aliasing.

【0056】この例の場合、エッジ付与指示がある描画
像について、プレビューボタンを操作するなどの確認指
示がなされた場合には、描画像本体についてのαデータ
の生成が行われる。作成されたものは、拡大領域のもの
ではなく、原寸の描画像の各ドットについてのαデータ
である。
In this example, when a confirmation instruction such as operating a preview button is given to a drawn image for which an edge is given, alpha data is generated for the drawn image body. The created one is not the one of the enlarged area, but the α data of each dot of the original drawn image.

【0057】次に、この原寸の描画像の各ドットのαデ
ータから、作成目的のエッジのドット位置を求める。後
で詳述するように、このエッジのドット位置の算出によ
り、当該エッジのαデータがそのまま生成されることに
なる。生成されたエッジのドットの色は、描画入力時に
設定された色とされるが、このエッジ部分と、描画像本
体との間の部分のドットは、後で詳述するように、それ
ぞれのαデータを用いて、両者の色の中間的な色となる
ようにするCGアンチエイリアスを行って、表示色を定
める。このようにエッジが付与された描画像データは、
グラフィックアクセレータ12を通じてVRAM13,
14に書き込まれる。
Next, the dot position of the edge to be created is determined from the α data of each dot of the original drawn image. As will be described in detail later, by calculating the dot position of the edge, the α data of the edge is directly generated. The color of the generated edge dot is set to the color set at the time of drawing input, and the dot at the portion between the edge portion and the drawn image body is, as described later in detail, Using the data, a display color is determined by performing CG anti-aliasing to make the color intermediate between the two colors. The drawing image data to which the edge is added in this way is
VRAM 13 through graphic accelerator 12,
14 is written.

【0058】また、生成されたエッジのαデータおよび
描画像本体のαデータは、VRAM15に書き込まれ
る。なお、描画像本体および生成されたエッジに、描画
入力時において、下地に対する透過率が設定されている
場合には、その値が考慮されて、最終的なαデータが生
成されて、グラフィックアクセレータ12を通じてVR
AM15に書き込まれる。
The generated α data of the edge and the α data of the drawn image body are written in the VRAM 15. If the transmittance of the drawing image body and the generated edge is set with respect to the background at the time of drawing input, the final α data is generated in consideration of the value, and the graphic accelerator 12 is generated. Through VR
It is written to AM15.

【0059】まず、描画像本体についてのαデータの生
成処理について説明する。この実施の形態の合成描画装
置1は、合成描画データ生成部100において、アンチ
エイリアスに用いるαデータを高速に生成することがで
きるものである。
First, a description will be given of the process of generating α data for the drawn image body. In the combined drawing apparatus 1 of this embodiment, the combined drawing data generation unit 100 can quickly generate α data used for anti-aliasing.

【0060】前述したように、CPU101は、例え
ば、キーボードのプレビューボタンキーの押下や、ディ
スプレイ2の画面上に表示されたプレビューアイコンの
マウスによる選択が行われたことを検知すると、ROM
102に予め用意されている、既存の白黒ビットマップ
への描画ルーチンを用いて、カラー描画像を白黒画像と
して描画する。この場合、色のついている描画像のドッ
トは、すべて黒で表現され、描画像のドットがない部分
は白となる。
As described above, when the CPU 101 detects, for example, that the preview button key on the keyboard has been pressed or that the preview icon displayed on the screen of the display 2 has been selected by the mouse, the CPU 101 reads the ROM.
A color drawing image is drawn as a black-and-white image by using an existing drawing routine for a black-and-white bitmap prepared in advance in 102. In this case, all the dots in the drawn image that are colored are represented in black, and the portions of the drawn image where there are no dots are white.

【0061】この場合、CPU101は、カラー描画像
を形成する描画データを白黒データとして用いて、この
実施の形態においては、例えば、縦横2倍に拡大した描
画像をRAM103に描画する。この描画像の拡大率
は、アンチエイリアスの精度に応じて決められるもので
ある。
In this case, the CPU 101 uses the drawing data for forming the color drawing image as black and white data, and draws a drawing image, for example, which is twice as long and wide in the RAM 103 in this embodiment. The magnification of the drawn image is determined according to the accuracy of the anti-aliasing.

【0062】このように、CPU101は、RAM10
3に、拡大した白黒画像を描画する白黒ビットマップと
しての拡大領域を形成し、この拡大領域をいわゆるキャ
ンバスとして用いて白黒の描画像を描画する。
As described above, the CPU 101
3, an enlarged area is formed as a black and white bitmap for drawing an enlarged black and white image, and a black and white drawing image is drawn using this enlarged area as a so-called canvas.

【0063】白黒ビットマップは、1画素ドット(以
下、単にドットという)が白か黒か(色がついているか
否か)のいずれかを示し、各ドットが1ビットに相当す
るようにされたものである。したがって、白黒ビットマ
ップは、1ドットを1ビットで表現することができ、8
ドットで1バイトとなるため、メモリの使用効率がよ
く、また、CPU101の処理効率もよい。
The black-and-white bit map indicates whether one pixel dot (hereinafter, simply referred to as a dot) is white or black (whether or not it is colored), and each dot corresponds to one bit. It is. Therefore, in the black and white bitmap, one dot can be represented by one bit, and
Since one dot is one byte, the efficiency of use of the memory is good, and the processing efficiency of the CPU 101 is also good.

【0064】例えば、ユーザからの描画入力情報が、例
えば文字「あ」を描画することを指示するものであると
きには、CPU101は、RAM103に、図3Aに示
すような2倍に拡大された白黒の描画像を描画する。
For example, when the drawing input information from the user indicates that the character “A” is to be drawn, for example, the CPU 101 stores in the RAM 103 a monochrome double-sized image as shown in FIG. Draw a drawing image.

【0065】この場合、描画された白黒画像は縦横とも
2倍に拡大されているため、図3Aの一部分を拡大した
図である図3Bに示すように、原寸の元の描画像の1ド
ットは、縦横2ドットづつの4ドットで構成される単位
領域に描画される。
In this case, since the drawn black-and-white image is enlarged both vertically and horizontally, as shown in FIG. 3B which is a partially enlarged view of FIG. 3A, one dot of the original original drawn image is , Are drawn in a unit area composed of four dots, two dots each in the vertical and horizontal directions.

【0066】そして、このように白黒の描画像を拡大し
て描画し、この拡大描画像が描画された拡大領域を構成
する各単位領域に対する実質描画領域の面積比率を求め
ることにより、原寸の描画像の描画最小領域としてのド
ット毎に、面積比率を求めて、αデータを生成すること
ができる。
The black-and-white drawing image is drawn in an enlarged manner as described above, and the area ratio of the substantial drawing area to each unit area constituting the expanded area in which the drawn image is drawn is obtained, thereby obtaining the original size drawing. The α data can be generated by calculating the area ratio for each dot as the minimum drawing area of the image.

【0067】例えば、縦横2ドットづつの4ドットの単
位領域内において、実際に白黒の描画像を形成するため
に使用されたドット数(実質描画領域)が、1ドットで
ある場合には、当該4ドットで形成される単位領域に対
する描画像の占める割合である面積比率は、25%(α
=0.25)であると判別することができる。
For example, if the number of dots (substantial drawing area) actually used to form a black-and-white drawn image in a unit area of 4 dots of 2 dots vertically and horizontally is 1 dot, The area ratio, which is the ratio of the drawn image to the unit region formed by 4 dots, is 25% (α
= 0.25).

【0068】同様に、当該4ドットで形成される単位領
域内において、描画像を形成するために使用されたドッ
ト数が2ドットの場合には、面積比率は50%(α=
0.5)、使用されたドット数が3ドットの場合には面
積比率は75%(α=0.75)、使用されたドット数
が4ドットの場合には、面積比率は100%(α=1)
であると判別することができる。
Similarly, when the number of dots used to form a drawn image is 2 in the unit area formed by the four dots, the area ratio is 50% (α =
0.5), when the number of used dots is 3, the area ratio is 75% (α = 0.75), and when the number of used dots is 4, the area ratio is 100% (α). = 1)
Can be determined.

【0069】そして、前述したように、この縦横2ドッ
トづつの4ドットで構成される単位領域に対する実質描
画領域の面積比率は、原寸の描画像の描画最小単位領域
としての1ドットの面積比率となる。そして、拡大画像
が描画された拡大領域のすべての単位領域毎に面積比率
を求め、これら求められた面積比率に基づいて、αデー
タを生成することができる。
As described above, the area ratio of the substantial drawing area to the unit area composed of 4 dots each of 2 dots vertically and horizontally is determined by the area ratio of 1 dot as the minimum drawing unit area of the original drawn image. Become. Then, an area ratio is obtained for each of the unit areas of the enlarged area on which the enlarged image is drawn, and α data can be generated based on the obtained area ratios.

【0070】また、この場合、RAM103に形成され
る拡大領域に描画される拡大画像は、前述したように、
白黒データにより描画されるため、色に関する情報を持
たない。したがって、CPU101は、RAM103に
形成した拡大領域に描画像を拡大して描画し、4ドット
で形成される単位領域毎の描画像の形成に用いられたド
ット数に応じて、各単位領域毎の面積比率を求め、αデ
ータを生成することができる。
In this case, the enlarged image drawn in the enlarged area formed in the RAM 103 is, as described above,
Since it is rendered using black and white data, it has no information about colors. Therefore, the CPU 101 enlarges and draws the drawn image in the enlarged area formed in the RAM 103, and according to the number of dots used to form the drawn image for each unit area formed of 4 dots, The α ratio can be generated by determining the area ratio.

【0071】したがって、図3Bに示したように、縦横
2倍に拡大した描画像を用いて、元の描画像を形成する
1ドット(最小描画単位領域)毎のαデータは、図4A
に示すように求めることができる。この場合、αデータ
が大きいドットは、描画像の部分が多く、αデータが小
さいドットは、描画部分が少なくなる。
Therefore, as shown in FIG. 3B, the α data for each dot (minimum drawing unit area) forming the original drawn image using the drawn image enlarged twice in length and width is obtained as shown in FIG. 4A.
Can be obtained as shown in FIG. In this case, a dot having a large α data has a large portion of a drawn image, and a dot having a small α data has a small drawing portion.

【0072】一般的には、前述のように、ビデオアンチ
エイリアスの場合、図4Bに示すようにαデータの値が
大きなときには、描画像の部分が多く表示され、αデー
タの値が小さいときには下地の部分が多く表示されると
いう形態を取る。
Generally, as described above, in the case of video anti-aliasing, as shown in FIG. 4B, when the value of α data is large, a large portion of the drawn image is displayed, and when the value of α data is small, the background of the background is displayed. It takes the form that many parts are displayed.

【0073】そして、この実施の形態においては、αデ
ータが100%(α=1)のドットには描画像のみが表
示され、αデータが0%(α=0)であるドットは下地
のままとなる。そのほかのドットは、αデータに応じ
て、描画像の合成比率が調整されて、図4Cに示すよう
に、アンチエイリアス処理された、描画像の縁部分のぎ
ざぎざ感が除去された高品位の描画像を生成することが
できる。
In this embodiment, only the drawn image is displayed on the dot having the α data of 100% (α = 1), and the dot having the α data of 0% (α = 0) remains as the background. Becomes For other dots, the composition ratio of the drawn image is adjusted in accordance with the α data, and as shown in FIG. 4C, the anti-aliased high-quality drawn image from which the jaggedness at the edges of the drawn image has been removed. Can be generated.

【0074】次に、図5に示すフローチャートを参照し
ながら、合成描画データ生成部100においてのαデー
タの生成処理について説明する。
Next, with reference to the flowchart shown in FIG. 5, the generation processing of α data in the composite drawing data generation unit 100 will be described.

【0075】前述にもしたように、ユーザから描画入力
情報に応じたカラー描画像がVRAM104に形成さ
れ、これがディスプレイ2に表示された後に、プレビュ
ーボタンキーが押下されるなどの確認入力が行われる
と、CPU101は、図5に示すαデータの生成処理を
実行する。
As described above, a color drawing image corresponding to the drawing input information is formed in the VRAM 104 by the user, and after this is displayed on the display 2, confirmation input such as pressing of a preview button key is performed. Then, the CPU 101 executes the α data generation processing shown in FIG.

【0076】まず、CPU101は、アンチエイリアス
の精度に応じた拡大率で、目的とする描画像(オブジェ
クト)を白黒で描画する(ステップ201)。この第1
の実施の形態においては、ステップ201の処理によ
り、縦横とも2倍に拡大された描画像が、RAM103
上に白黒ビットマップとして形成される拡大領域に、白
黒画像として描画される。
First, the CPU 101 draws a target drawn image (object) in black and white at a magnification corresponding to the anti-aliasing precision (step 201). This first
In the embodiment, the drawn image enlarged twice in length and width by the processing in step 201 is stored in the RAM 103.
A black and white image is drawn in an enlarged area formed as a black and white bitmap.

【0077】次に、CPU101は、白黒ビットマップ
として形成される拡大領域内の単位領域のデータを読み
取り(ステップ202)、単位領域の黒ドットの個数を
数える(ステップ203)。
Next, the CPU 101 reads data of the unit area in the enlarged area formed as a black and white bitmap (step 202), and counts the number of black dots in the unit area (step 203).

【0078】そして、ステップ203の処理により求め
られた、当該単位領域の黒ドット数に基づいて当該単位
領域に対する描画像が占める割合を示す面積比率を求
め、αデータを生成する(ステップ204)。
Then, based on the number of black dots in the unit area obtained by the processing in step 203, the area ratio indicating the ratio of the drawn image to the unit area is obtained, and α data is generated (step 204).

【0079】次に、拡大されて描画された当該描画像を
構成する単位領域のすべてについて面積比率が算出され
たか否かを判断する(ステップ205)。この判断処理
は、原寸の描画像を描画した場合に、描画像が形成され
た描画領域のすべてのドットに対するαデータが求めら
れたか否かを判断する処理である。
Next, it is determined whether or not the area ratio has been calculated for all the unit regions constituting the enlarged and drawn image (step 205). This determination process is a process of determining whether α data has been obtained for all the dots in the drawing area where the drawn image is formed, when the drawn image of the original size is drawn.

【0080】ステップ205の判断処理において、すべ
ての単位領域について、αデータが求められていないと
判断したときには、次の単位領域にデータの読み取り位
置を位置付けて、ステップ202からの処理を繰り返
す。
If it is determined in step 205 that α data has not been obtained for all the unit areas, the data reading position is positioned in the next unit area, and the processing from step 202 is repeated.

【0081】また、ステップ205の判断処理におい
て、拡大領域を構成するすべての単位領域について、α
データが求められたと判断したときには、当該描画像を
構成するすべてのドットに対するαデータの生成処理を
終了する。
In the determination processing of step 205, α is set for all the unit areas constituting the enlarged area.
When it is determined that data has been obtained, the process of generating α data for all the dots constituting the drawn image is terminated.

【0082】このように、この実施の形態の合成描画装
置1においては、1ドットを1ビットに対応させること
ができる白黒のビットマップとしての拡大領域に描画像
を拡大して描画し、この拡大領域を構成する単位領域毎
に面積比率を求めることにより、原寸の描画像が形成さ
れる描画領域の各ドット毎にαデータを生成する。
As described above, in the combined drawing apparatus 1 of this embodiment, the drawn image is drawn in an enlarged area as a monochrome bitmap in which one dot can correspond to one bit, and the drawn image is drawn. By calculating the area ratio for each unit region constituting the region, α data is generated for each dot in the drawing region where the original drawn image is formed.

【0083】このように、1ドットを1ビットに対応さ
せることができる白黒のビットマップを用いることによ
り、従来のカラー画像として描画像を描画し、描画像が
描画された描画領域を構成する各ドット毎に色情報を伴
う情報量の多い状態でαデータを生成する場合に比べ、
処理すべき情報量は非常に少なくなる。これにより、α
データを高速に生成し、迅速にアンチエイリアスを行っ
て、高品位の描画像をビデオ信号に合成することができ
る。
As described above, by using a black and white bitmap in which one dot can correspond to one bit, a drawn image is drawn as a conventional color image, and each of the drawing areas forming the drawn image is drawn. Compared to the case where α data is generated in a state where the amount of information accompanied by color information for each dot is large,
The amount of information to be processed is very small. This gives α
Data can be generated at high speed, anti-aliasing can be performed quickly, and a high-quality drawn image can be combined with a video signal.

【0084】なお、αデータを生成する際に、上述した
ように、拡大した描画像を白黒ビットマップ上に描画す
ることに着目し、拡大領域(白黒ビットマップ)上に描
画像を形成した場合の白黒の描画パターンと、αデータ
との変換テーブルを予め用意しておくことにより、さら
に高速にαデータを生成することができる。
When generating the α data, as described above, paying attention to drawing an enlarged drawn image on a black-and-white bitmap, a case where a drawn image is formed on an enlarged area (black-and-white bitmap) By preparing in advance a conversion table between the black and white drawing pattern and the α data, α data can be generated even faster.

【0085】次に、以上のようにして生成された原寸の
描画像本体についてのαデータに基づいて、指示された
幅および表示色でのエッジの生成およびそのαデータの
生成について説明する。このエッジの生成およびそのα
データの生成は、前述のαデータを算出する際の拡大領
域において行うのではなく、原寸の描画像データについ
てのαデータにより行う。
Next, the generation of an edge at the designated width and display color and the generation of the α data on the basis of the α data of the original drawn image body generated as described above will be described. Generation of this edge and its α
The data is not generated in the enlarged area when calculating the α data, but is generated based on the α data of the original drawn image data.

【0086】文字などの描画像本体にエッジを付与する
場合、付与されるエッジの部分は、描画像本体の一番端
の部分を指定幅分だけ太らせたものである。そこで、こ
の実施の形態では、エッジの生成は、描画像本体の「端
のドット」を検出し、その端のドットに対してだけ、エ
ッジを生成するようにする。
When an edge is added to a drawn image body such as a character, the edge portion to be added is obtained by thickening the end portion of the drawn image body by a specified width. Therefore, in this embodiment, an edge is generated by detecting an "edge dot" of the drawn image body and generating an edge only for the edge dot.

【0087】この実施の形態では、αデータから、描画
像本体の端部のドットを探索する。すなわち、描画像本
体のαデータは、「描画像本体の中央部のドットでは、
α=1であり、描画像以外の部分のドットでは、α=0
である。そして、描画像本体のなかで、端部にあるドッ
トのαデータは、必ず0<α<1である。」という性質
を有している。このことから、次の2つの条件のいづれ
かを満足する場合には、そのドットは、描画像本体の端
のドットとして検出する。
In this embodiment, the dot at the end of the drawn image body is searched from the α data. In other words, the α data of the drawn image body is “
α = 1, and in a dot other than the drawn image, α = 0
It is. Then, the α data of the dot at the end in the drawn image body is always 0 <α <1. ". From this, when one of the following two conditions is satisfied, the dot is detected as a dot at the end of the drawn image body.

【0088】(1)描画像本体のαデータの値が、0<
α<1であるとき。 (2)描画像本体のドットのαが、α=1の場合であっ
ても、その周囲の8ドットのうちに一つでもα=1のド
ットが存在するとき。
(1) When the value of the α data of the drawn image body is 0 <
When α <1. (2) Even when α of the dots in the drawn image body is α = 1, when at least one dot of α = 1 exists among the surrounding eight dots.

【0089】この端部のドットの検出は、例えば描画像
本体の左上のドットから右方向にスキャンして行い、右
端まで行ったら次の行の左端に移り、同様にスキャンを
行うことにより行う。そして、このようにスキャンしな
がら、検出された描画像本体の端部のドットの各々につ
いて、次のような処理を施して、エッジの生成およびエ
ッジのαデータの生成を行う。
The detection of the dot at the end is performed by, for example, scanning rightward from the upper left dot of the drawn image main body, moving to the right end, moving to the left end of the next line, and performing scanning in the same manner. Then, while scanning as described above, the following processing is performed on each of the detected dots at the end of the drawn image main body to generate an edge and generate α data of the edge.

【0090】まず、基本的には、描画像本体の端部のド
ットを中心として、その周囲の、指定されたエッジ幅分
だけ離れた部分に、枠を書き、その枠に属するドットを
除く、枠の内側のαデータの値を、すべてα=1とす
る。
First, a frame is basically written in a portion around the dot at the end of the drawn image main body and separated by a designated edge width around the dot, excluding the dots belonging to the frame. The values of α data inside the frame are all set to α = 1.

【0091】そして、前記枠部分のドットのαデータ
は、中心の本体端部のドットのαデータと等しいものと
する。ただし、それ以前に他のドットにより枠が書かれ
ていて、既にエッジが生成されていた場合、その既存の
枠部分のエッジのαデータと、今回の枠部分のαデータ
とを比較して、大きい方のαデータを今回の枠を構成す
るエッジのドットのαデータとする。なお、描画像本体
の端部のドットのαデータの値がα=1である場合に
は、既存のエッジのαデータの値とは比較せずに、無条
件に前記枠のαデータをα=1とする。
It is assumed that the α data of the dot in the frame portion is equal to the α data of the dot at the end of the main body at the center. However, if a frame has been written by another dot before that and an edge has already been generated, the α data of the edge of the existing frame portion is compared with the α data of the current frame portion, and The larger α data is set as the α data of the dot of the edge constituting the current frame. If the value of the α data of the dot at the end of the drawn image body is α = 1, the α data of the frame is unconditionally converted to α without comparing with the value of the α data of the existing edge. = 1.

【0092】例えば、幅が3ドット分のエッジを付ける
場合には、図6Aに示すように、エッジを作る資格のあ
る端部のドットD0を中心として、7×7のゾーンをエ
ッジ生成のための領域とする。そして、図6Bで塗り潰
して示すように、この領域の最外周である、中心ドット
D0からエッジ幅分だけ離れた枠WEを指定し、この枠
WEのαデータの値を、既存のエッジ(枠部分)のαデ
ータの値と比較して大きい方のαデータの値とする。そ
して、図6Bで白抜きで示す中心部の5×5のドットの
部分のαデータの値は、すべてα=1とする。
For example, when an edge having a width of 3 dots is provided, as shown in FIG. 6A, a 7 × 7 zone is formed around an edge dot D0 which is qualified to form an edge. Area. Then, as shown in FIG. 6B, a frame WE, which is the outermost periphery of the area and is separated from the center dot D0 by an edge width, is specified, and the value of the α data of the frame WE is set to an existing edge (frame). The value of the α data which is larger than the value of the α data of (part) is set. Then, the values of the α data of the 5 × 5 dot portion at the center shown in white in FIG. 6B are all set to α = 1.

【0093】以上のような処理を、検出されたすべての
端部のドットだけについてのみ、行うことで、エッジの
ドットおよびそのαデータの生成ができる。例えば、作
成された描画像が矩形の点であり、そのαデータが図7
Aに示すようなもので、これに幅1のエッジを付ける場
合を例に説明する。図7Aにおいては、塗り潰しの濃さ
を、αデータの値に応じたものとして示している。この
場合、濃い塗り潰しほど、αデータの値が小さいものと
して示している。
By performing the above-described processing only for all the detected dots at the end, dots at the edge and their α data can be generated. For example, the created depiction image is a rectangular point, and its α data is shown in FIG.
A is given as an example, and a case where an edge having a width of 1 is added to this is described. In FIG. 7A, the density of the fill is shown as corresponding to the value of the α data. In this case, it is shown that the value of the α data is smaller as the color is darker.

【0094】したがって、白抜きの部分はα=1であ
り、描画像本体の端部のドットである周囲の塗り潰しド
ットのαデータは、0<α<1である。
Therefore, the white portion is α = 1, and the α data of the surrounding solid dots which are dots at the end of the drawn image main body is 0 <α <1.

【0095】前述したように、左上のドットから右方向
に順次に、各ドットのαデータをスキャンしつつ、下側
にスキャンすることにより、図7Aの塗り潰し部分のド
ット部分を描画像本体の端部のドット位置を検出し、か
つ、その端部のドットのαデータを検出することができ
る。
As described above, by sequentially scanning the α data of each dot from the upper left dot to the right in the right direction, the dot portion of the solid portion in FIG. It is possible to detect the dot position of the part and to detect the α data of the dot at the end.

【0096】この検出した端部のすべてのドットについ
て、そのαデータに基づいて、図6を用いて説明したよ
うにして、エッジのドットおよびそのαデータを生成す
ると、図7Bに示すエッジのαデータを得ることができ
る。
For all of the detected dots at the end, based on the α data, the dot of the edge and the α data are generated as described with reference to FIG. 6 to obtain the α of the edge shown in FIG. 7B. Data can be obtained.

【0097】こうして得られた描画像本体のαプレーン
と、エッジのαプレーンとを合成することで、描画像本
体と、エッジの合成を行う。すなわち、生成されたエッ
ジ部分の色データ(描画ドットデータ)は、前述したよ
うに、描画入力により指定された色のデータとされる
が、生成されたエッジ部と描画像本体との間のドット
(これは端部として検出されたドットである)の色は、
前述したCGアンチエイリアスにより、描画像本体のα
データ(図7A参照)を使用して、指定されたエッジの
色と、描画像本体の色との中間的な色とされる。
By combining the α plane of the drawn image body and the α plane of the edge obtained in this way, the drawn image body and the edge are combined. That is, as described above, the color data (drawing dot data) of the generated edge portion is the data of the color specified by the drawing input, but the dot data between the generated edge portion and the drawing image body is used. (This is the dot detected as an edge)
By the CG anti-aliasing described above, α
Using the data (see FIG. 7A), a color intermediate between the color of the designated edge and the color of the drawn image body is used.

【0098】以上のようにして、描画像本体とエッジと
が合成されたエッジ付き描画像のカラーデータが、グラ
フィックアクセレータ12を通じて、VRAM13およ
び14に書き込まれる。
As described above, the color data of the drawn image with the edge obtained by combining the drawn image body and the edge is written to the VRAMs 13 and 14 through the graphic accelerator 12.

【0099】また、生成されたエッジのαデータ(図7
B)が、グラフィックアクセレータ12を通じて、VR
AM15に書き込まれる。なお、描画入力時に、下地の
画像との透過率がオペレータにより指定されていた場合
には、生成されたエッジのαデータは、その透過率に応
じたものに変更された後、グラフィックアクセレータ1
2を通じて、VRAM15に書き込まれる。
Further, the generated edge α data (FIG. 7)
B), through the graphic accelerator 12, VR
It is written to AM15. If the transmittance of the background image is specified by the operator at the time of drawing input, the α data of the generated edge is changed to one corresponding to the transmittance, and then the graphic accelerator 1 is changed.
2 is written to the VRAM 15.

【0100】そして、このVRAM15のαデータは、
VRAM13,14のエッジ付き描画像と、A/D変換
器32からの外部ビデオ信号との合成時の、ビデオアン
チエイリアスの処理のために使用される。
The α data of the VRAM 15 is
It is used for video anti-aliasing processing at the time of synthesizing the edged drawn images of the VRAMs 13 and 14 and the external video signal from the A / D converter 32.

【0101】以上説明した合成描画データ生成部100
の処理ルーチンの流れを、図8のフローチャートに示
す。
The composite drawing data generation unit 100 described above
8 is shown in the flowchart of FIG.

【0102】すなわち、まず、ステップ301で、描画
像本体のαデータについて生成する。そして、ステップ
302に進み、エッジ生成のためのスキャンを開始す
る。このスキャンは、前述したように、描画像本体につ
いて、左上から右方向にスキャンし、右端までスキャン
したら、スキャン位置を順次下側に移動させるものであ
る。
That is, first, in step 301, α data of a drawn image body is generated. Then, the process proceeds to step 302, where scanning for edge generation is started. In this scan, as described above, the drawn image main body is scanned from the upper left to the right, and after scanning to the right end, the scan position is sequentially moved downward.

【0103】次のステップ303では、そのドットが端
部のドットか否かを前述したようにして判定する。端部
のドットでなければ、ステップ304に進んで、次のド
ット位置に移行した後、ステップ303に戻る。ステッ
プ303で端部のドットであると判別したときには、ス
テップ305に進み、図6を参照して前述したように、
検出された端部のドットを中心として、指定されたエッ
ジ幅分だけ離れた位置に枠WEを描く。
In the next step 303, it is determined whether or not the dot is an end dot as described above. If it is not a dot at the end, the process proceeds to step 304, moves to the next dot position, and returns to step 303. If it is determined in step 303 that the dot is an end dot, the process proceeds to step 305, and as described above with reference to FIG.
A frame WE is drawn at a position separated by a specified edge width from the center of the detected dot at the end.

【0104】そして、ステップ306において、既存の
エッジのαデータの値を比較して、大きい方のαの値を
枠部分のドットのαデータとして、また、枠WE内のド
ットのすべてのαデータの値を、α=1にする。
In step 306, the values of the α data of the existing edges are compared, and the larger value of α is used as the α data of the dots in the frame portion. Is set to α = 1.

【0105】そして、ステップ307に進み、対象ドッ
トが描画像本体の最後のドットか否か判断し、最後でな
ければステップ304に進み、上述の処理を繰り返す。
また、最後のドットであれば、ステップ308に進み、
描画像本体のαプレーンと、エッジのαプレーンとを、
前述したようにCGアンチエイリアスを用いて合成し、
描画像本体とエッジとを合成する。次にステップ309
に進み、合成したエッジ付きの描画像のデータと、エッ
ジのαプレーンとを、グラフィックアクセレータ12を
通じてVRAM13,14,15に転送する。
Then, the flow advances to step 307 to determine whether or not the target dot is the last dot in the drawn image main body. If not, the flow advances to step 304 to repeat the above processing.
If it is the last dot, the process proceeds to step 308,
The α plane of the drawn image body and the α plane of the edge,
As described above, combining using CG anti-aliasing,
The drawing image body and the edge are combined. Next, step 309
Then, the synthesized image data with the edge and the α plane of the edge are transferred to the VRAMs 13, 14, and 15 through the graphic accelerator 12.

【0106】[より高速化した例]以上の例では、描画
像本体の端部のドットは、すべてその周囲に、エッジ幅
分だけ離れた位置において閉じた枠WEを生成するよう
にしたが、より高速の処理を実現するために、以下に説
明する例では、エッジの生成およびそのαデータの生成
は、各端部のドットの周囲の状況を考慮して行うように
する。
[Further Example] In the above example, all the dots at the ends of the drawn image body generate a closed frame WE around the periphery thereof at a position separated by the edge width. In order to realize higher-speed processing, in the example described below, the generation of an edge and the generation of its α data are performed in consideration of the situation around the dot at each end.

【0107】すなわち、一般的に、あるドットが描画像
本体の端部にある場合には、その隣接するドットも描画
像本体の端部のドットである可能性が非常に高い。ま
た、前述もしたように、描画像本体の端部のドットのα
データがα=1である場合には、例えば図6Aに示した
エッジ生成のために対象となる領域内のドットは、すべ
てα=1になるため、その後に塗り潰す場合に、既存の
エッジとの比較を行う必要がない。つまり、α=1は、
最大値であり、それ以上濃いαが存在しないからであ
る。
That is, in general, when a certain dot is at the end of the drawn image main body, there is a very high possibility that the adjacent dot is also a dot at the end of the drawn image main body. Also, as described above, α of the dot at the end of the drawn image body
If the data is α = 1, for example, all the dots in the target area for the edge generation shown in FIG. There is no need to make a comparison. That is, α = 1
This is the maximum value, and there is no more dense α.

【0108】そこで、この例では、エッジの生成および
そのαデータの生成を行おうとする端部のドットの周囲
の状況を参照し、その参照結果に応じて無駄なアクセス
を行わないようにするものである。
Therefore, in this example, the situation around the dot at the end where the generation of the edge and its α data is to be performed is referred to, and unnecessary access is not performed according to the reference result. It is.

【0109】例えば、上述のように、左上のドットから
順に右方向にスキャンすると共に、順次に下方向にスキ
ャンする場合を例にとると、この例の場合には、今、対
象としているドットの1ライン上のドットがどうであっ
たか、また、一つ左のドットはどうであったかのフラグ
を用意する。そして、そのフラグを参照することで、無
駄な処理およびアクセスを行わないようにする。
For example, as described above, taking the case of scanning in the right direction sequentially from the upper left dot and sequentially scanning in the downward direction, for example, in this case, the dot of the target dot is A flag is prepared for what the dots on one line were and what the dots to the left were. Then, by referring to the flag, useless processing and access are prevented from being performed.

【0110】対象としている端部のドットの1ライン上
のドットがどうであったを参照するためには、図9Aに
示すように、描画像本体の幅と同じドット数分のフラグ
用のバッファBAを用意する。このバッファBAは、上
下方向に連続する描画像本体の端部の有無のフラグを記
憶する。フラグがオンであるときには、当該対象として
いるドットの上のドットが描画像本体の端部のドットで
あったことを意味する。したがって、その場合には、上
のドットが描画像本体の端部であったので、既にエッジ
生成として完了した部分を除く、矩形領域の下の部分に
ついてだけ、エッジの生成に関する処理を行えばよい。
As shown in FIG. 9A, a flag buffer for the same number of dots as the width of the drawn image main body is used to refer to what the dots on one line of the target end dots are like. Prepare BA. This buffer BA stores a flag indicating whether or not there is an end of the drawn image body that is continuous in the vertical direction. When the flag is on, it means that the dot above the target dot was the dot at the end of the drawn image body. Therefore, in this case, since the upper dot is the end of the drawn image body, the process related to edge generation may be performed only on the lower portion of the rectangular area, excluding the portion already completed as edge generation. .

【0111】また、前記バッファBAには、その端部の
ドットのαデータの値がα=1であったか否かの情報も
記憶する。α=1であったときには、当該対象ドットに
ついてのエッジ生成の処理範囲をさらに狭くすることが
できる。
The buffer BA also stores information as to whether or not the value of α data of the dot at the end is α = 1. When α = 1, the processing range of edge generation for the target dot can be further narrowed.

【0112】そして、一つ左のドットはどうであったか
のフラグ用には、図9Bに示すように、1ドットのフラ
グ用のバッファBBを用意すればよい。
Then, a buffer BB for a one-dot flag may be prepared as shown in FIG. 9B for a flag indicating what the left dot is like.

【0113】このバッファBBは、左右方向に連続する
描画像本体の端部の有無のフラグを記憶する。フラグが
オンであるときには、当該対象としているドットの左の
ドットが描画像本体の端部のドットであったことを意味
する。したがって、その場合には、左のドットが描画像
本体の端部であったので、既にエッジ生成として完了し
た部分を除く、矩形領域の右の部分についてだけ、エッ
ジの生成に関する処理を行えばよい。
This buffer BB stores a flag indicating the presence or absence of an end of the drawn image body that is continuous in the left-right direction. When the flag is ON, it means that the dot to the left of the target dot is a dot at the end of the drawn image body. Therefore, in this case, since the left dot is the end of the main part of the drawn image, the processing related to edge generation may be performed only on the right part of the rectangular area excluding the part that has already been completed as the edge generation. .

【0114】また、このバッファBBにも、その端部の
ドットのαデータの値がα=1であったか否かの情報も
記憶する。α=1であったときには、当該対象ドットに
ついてのエッジ生成の処理範囲をさらに狭くすることが
できる。
The buffer BB also stores information as to whether or not the value of the α data of the dot at the end is α = 1. When α = 1, the processing range of edge generation for the target dot can be further narrowed.

【0115】このバッファBAおよびBBのフラグを用
いて、どのような範囲をエッジ生成範囲として処理を行
うかの具体例を、図10および図11に示す。この図1
0および図11に示すのは、前述の図6に示したよう
に、幅3のエッジを描画像本体に付加する場合である。
FIGS. 10 and 11 show specific examples of what range is to be processed as an edge generation range using the flags of the buffers BA and BB. This figure 1
0 and FIG. 11 show a case where an edge having a width of 3 is added to the drawn image body as shown in FIG.

【0116】そして、図10Aは、対象端部ドットD0
の上および左には、エッジを描画する端部ドットが存在
しない場合であり、この場合には、図6Bに示したのと
まったく同様にして、周囲の枠WEに含まれるすべての
ドットについてαデータを生成する。すなわち、周囲の
枠WEの部分のドットのαデータの値を、当該対象端部
ドットD0のαデータの値と既存のエッジのαデータの
値とを比較して、大きい方のαの値にし、中心部分の5
×5の部分はすべてα=1に塗り潰すようにする。
FIG. 10A shows the target end dot D0.
Above and to the left, there is no end dot for drawing an edge. In this case, in the same manner as shown in FIG. 6B, α dots are set for all the dots included in the surrounding frame WE. Generate data. In other words, the value of the α data of the dots in the surrounding frame WE is compared with the value of the α data of the target end dot D0 and the value of the α data of the existing edge to obtain the larger α value. , 5 in the center
All of the × 5 portions are filled with α = 1.

【0117】図10Bは、対象端部ドットD0の上のド
ットがエッジを描画しており、かつ、そのαデータの値
がα≠1であることをバッファBAを参照して判別した
場合である。この場合には、図10Bで塗り潰して示す
ように、枠WEの部分のうち、上辺を除く3辺の部分を
描き、それに含まれるドットのαデータの値を、当該対
象端部ドットD0のαデータの値と既存のエッジのαデ
ータの値とを比較して、大きい方のαの値にする。そし
て、内側は、図10Bで白抜きのドット枠部分として示
すように、下から1ライン上の部分だけをα=1に塗り
潰すようにする。
FIG. 10B shows a case where it is determined by referring to the buffer BA that the dot above the target end dot D0 draws an edge and the value of the α data is α ≠ 1. . In this case, as shown in FIG. 10B, the three sides of the frame WE except the upper side are drawn, and the value of the α data of the dot included in the frame WE is changed to the α of the target end dot D0. The value of the data is compared with the value of the α data of the existing edge to obtain the larger value of α. Then, as shown in FIG. 10B as a white dot frame portion, only the portion on one line from the bottom is filled with α = 1.

【0118】図10Cは、対象端部ドットD0の左のド
ットがエッジを描画しており、かつ、そのαデータの値
がα≠1であることをバッファBBを参照して判別した
場合である。この場合には、図10Cで塗り潰して示す
ように、枠WEの部分のうち、左辺を除く3辺の部分を
描き、それに含まれるドットのαデータの値を、当該対
象端部ドットD0のαデータの値と既存のエッジのαデ
ータの値とを比較して、大きい方のαの値にする。そし
て、内側は、図10Cで白抜きのドット枠部分として示
すように、右端から1ライン左の部分だけをα=1に塗
り潰すようにする。
FIG. 10C shows a case where it is determined by referring to the buffer BB that the dot to the left of the target end dot D0 draws an edge and the value of the α data is α ≠ 1. . In this case, as shown in FIG. 10C, three sides of the frame WE except the left side are drawn, and the value of the α data of the dot included therein is changed to the α of the target end dot D0. The value of the data is compared with the value of the α data of the existing edge to obtain the larger value of α. Then, as shown as a white dot frame portion in FIG. 10C, only the portion one line left from the right end is filled with α = 1.

【0119】図10Dは、対象端部ドットD0の上のド
ットと、左のドットがエッジを描画しており、かつ、そ
のαデータの値がα≠1であることをバッファBAおよ
びBBを参照して判別した場合である。この場合には、
図10Dで塗り潰して示すように、枠WEの部分のう
ち、上辺と左辺とを除く2辺の部分を描き、それに含ま
れるドットのαデータの値を、当該対象端部ドットD0
のαデータの値と既存のエッジのαデータの値とを比較
して、大きい方のαの値にする。そして、内側は、図1
0Dで白抜きのドット枠部分として示すように、右下角
のドットから斜め左上の1ドットの部分だけをα=1に
塗り潰すようにする。
FIG. 10D shows that the dot above the target end dot D0 and the left dot draw an edge, and that the value of α data is α ≠ 1 with reference to buffers BA and BB. This is the case when the determination is made. In this case,
As shown in FIG. 10D, two sides of the frame WE except for the upper side and the left side are drawn, and the value of the α data of the dot included in the part is replaced with the target end dot D0.
Is compared with the value of the α data of the existing edge to obtain the larger α value. And inside is Fig. 1.
As shown as a white dot frame portion in 0D, only a portion of one dot diagonally upper left from the dot in the lower right corner is filled with α = 1.

【0120】図11は、対象端部ドットD0の上のドッ
トまたは左のドットがエッジを描画する端部のドットで
あり、かつ、そのαデータの値が、α=1であった場合
である。
FIG. 11 shows a case where the dot above the target end dot D0 or the left dot is an end dot for drawing an edge, and the value of the α data is α = 1. .

【0121】すなわち、図11Aは、対象端部ドットD
0の上のドットがエッジを描画しており、かつ、そのα
データの値がα=1であることをバッファBAを参照し
て判別した場合である。この場合には、図11Aで塗り
潰して示すように、枠WEの部分のうち、下辺の1ライ
ンの部分を描き、それに含まれるドットのαデータの値
を、当該対象端部ドットD0のαデータの値と既存のエ
ッジのαデータの値とを比較して、大きい方のαの値に
する。この場合、図11Aにおいて、枠内の他の白色の
部分は、既に、上の端部ドット(α=1)で塗られてい
るので、当該対象ドットのαデータの値と比較する必要
はない。
That is, FIG. 11A shows the target end dot D
The dot above 0 draws an edge, and its α
This is a case where it is determined that the data value is α = 1 with reference to the buffer BA. In this case, as shown in FIG. 11A, a part of the lower side of the frame WE is drawn, and the value of the α data of the dot included in the frame WE is replaced with the α data of the target end dot D0. Is compared with the value of the α data of the existing edge to obtain the larger value of α. In this case, in FIG. 11A, the other white portion in the frame is already painted with the upper end dot (α = 1), so there is no need to compare the value with the α data value of the target dot. .

【0122】また、図11Bは、対象端部ドットD0の
左のドットがエッジを描画しており、かつ、そのαデー
タの値がα=1であることをバッファBAを参照して判
別した場合である。この場合には、図11Bで塗り潰し
て示すように、枠WEの部分のうち、右辺の1列の部分
を描き、それに含まれるドットのαデータの値を、当該
対象端部ドットD0のαデータの値と既存のエッジのα
データの値とを比較して、大きい方のαの値にする。こ
の場合、図11Bにおいて、枠内の他の白色の部分は、
既に、左の端部ドット(α=1)で塗られているので、
当該対象ドットのαデータの値と比較する必要はない。
FIG. 11B shows a case where it is determined by referring to the buffer BA that the left dot of the target end dot D0 draws an edge and the value of the α data is α = 1. It is. In this case, as shown in FIG. 11B, a portion of the right side of the frame WE is drawn and the value of the α data of the dot included in the frame WE is replaced with the α data of the target end dot D0. Value and α of existing edge
The value of the data is compared with the larger value of α. In this case, in FIG. 11B, other white portions in the frame are:
Since it is already painted with the left end dot (α = 1),
It is not necessary to compare with the value of the α data of the target dot.

【0123】また、図11Cは、対象端部ドットD0の
左と上のドットがエッジを描画しており、かつ、そのα
データの値がα=1であることをバッファBAおよびB
Bを参照して判別した場合である。この場合には、図1
1Cで塗り潰して示すように、枠WEの部分のうち、右
下角の1ドットの部分を描き、そのドットのαデータの
値を、当該対象端部ドットD0のαデータの値にする。
この場合、右下角の部分は、それまでのスキャンに沿っ
た端部のドットによってエッジ部として生成されない部
分出あるので、既存のエッジは存在しないため、比較せ
ずに当該端部ドットD0のαの値とする。図11Cにお
いて、枠内の他の白色の部分は、既に、左および上の端
部ドット(α=1)で塗られている。
FIG. 11C shows that the left and upper dots of the target edge dot D0 draw an edge, and that α
It is confirmed that the value of data is α = 1 in buffers BA and B.
B is determined with reference to FIG. In this case, FIG.
As shown by being filled with 1C, a portion of one dot at the lower right corner of the portion of the frame WE is drawn, and the value of the α data of the dot is set to the value of the α data of the target end dot D0.
In this case, the lower right corner portion is a portion that is not generated as an edge portion by the dot at the end along the scan up to that point. Therefore, since there is no existing edge, the α of the end dot D0 is compared without comparison. Value. In FIG. 11C, the other white portions in the frame have already been painted with left and upper end dots (α = 1).

【0124】図12は、この例の場合の合成描画データ
生成部10の処理ルーチンの例を示すフローチャートで
ある。
FIG. 12 is a flowchart showing an example of a processing routine of the combined drawing data generation unit 10 in this case.

【0125】すなわち、まず、ステップ401で、描画
像本体のαデータについて生成する。そして、ステップ
402に進み、エッジ生成のためのスキャンを開始す
る。このスキャンは、前述したように、描画像本体につ
いて、左上から右方向にスキャンしつつ、スキャン位置
を順次下側に移動させるものである。
That is, first, in step 401, α data of the drawn image body is generated. Then, the process proceeds to step 402 to start scanning for edge generation. In this scan, as described above, the scan position is sequentially moved downward while scanning the drawn image body from the upper left to the right.

【0126】次のステップ403では、そのドットが端
部のドットか否かを前述したようにして描画像本体のα
データを用いて判定する。端部のドットでなければ、ス
テップ404に進んで、次のドット位置に移行した後、
ステップ403に戻る。ステップ403で端部のドット
であると判別したときには、図13に示す場合分け処理
ステップ500に進む。
In the next step 403, it is determined whether or not the dot is an end dot as described above.
Judge using the data. If it is not a dot at the end, the process proceeds to step 404 to move to the next dot position,
Return to step 403. If it is determined in step 403 that the dot is an edge dot, the process proceeds to the case classification processing step 500 shown in FIG.

【0127】すなわち、図13に示すように、前述した
バッファBAおよびBBを参照して、ステップ403で
検出された端部ドットについて、その上および左のドッ
トは、どちらも端部ドットでないと判別された場合(ス
テップ501)には、ステップ511に進んで、図10
Aに示した処理を行う。
That is, as shown in FIG. 13, with reference to the buffers BA and BB described above, for the end dot detected in step 403, it is determined that neither the upper nor the left dot is an end dot. If it has been done (step 501), the process proceeds to step 511,
The processing shown in A is performed.

【0128】ステップ403で検出された端部ドットに
ついて、その上のドットは端部ドットで、α≠1である
と判別された場合(ステップ502)には、ステップ5
12に進んで、図10Bに示した処理を行う。
If it is determined that the dot above the end dot detected in step 403 is an end dot and α ≠ 1 (step 502), the process proceeds to step 5
Proceeding to 12, the processing shown in FIG. 10B is performed.

【0129】ステップ403で検出された端部ドットに
ついて、その左のドットは端部ドットで、α≠1である
と判別された場合(ステップ503)には、ステップ5
13に進んで、図10Cに示した処理を行う。
If the left dot of the edge dot detected in step 403 is an edge dot and it is determined that α ≠ 1 (step 503), the process proceeds to step 5
Proceeding to 13, the process shown in FIG. 10C is performed.

【0130】ステップ403で検出された端部ドットに
ついて、その上および左のドットは端部ドットで、α≠
1であると判別された場合(ステップ504)には、ス
テップ514に進んで、図10Dに示した処理を行う。
The upper and left dots of the end dot detected in step 403 are end dots, and α ド ッ ト
If it is determined to be 1 (step 504), the process proceeds to step 514 to perform the processing shown in FIG. 10D.

【0131】ステップ403で検出された端部ドットに
ついて、その上のドットは端部ドットで、α=1である
と判別された場合(ステップ505)には、ステップ5
15に進んで、図11Aに示した処理を行う。
If it is determined that the dot above the edge dot detected in step 403 is an edge dot and α = 1 (step 505), the process proceeds to step 5
Proceeding to 15, the processing shown in FIG. 11A is performed.

【0132】ステップ403で検出された端部ドットに
ついて、その左のドットは端部ドットで、α=1である
と判別された場合(ステップ506)には、ステップ5
16に進んで、図11Bに示した処理を行う。
If the left dot of the end dot detected in step 403 is an end dot and it is determined that α = 1 (step 506), the process proceeds to step 5
Proceeding to 16, the processing shown in FIG. 11B is performed.

【0133】ステップ403で検出された端部ドットに
ついて、その上および左のドットは端部ドットで、か
つ、α=1であると判別された場合(ステップ507)
には、ステップ517に進んで、図11Cに示した処理
を行う。
When it is determined that the upper and left dots of the end dot detected in step 403 are end dots and α = 1 (step 507).
Then, the process proceeds to step 517 to perform the processing shown in FIG. 11C.

【0134】以上のような場合分け処理が終了すると、
ステップ405に進み、対象ドットが描画像本体の最後
のドットか否か判断し、最後でなければステップ404
に進み、上述の処理を繰り返す。また、最後のドットで
あれば、ステップ406に進み、描画像本体のαプレー
ンと、エッジのαプレーンとを、前述したようにCGア
ンチエイイリアウを用いて合成し、描画像本体とエッジ
とを合成する。次にステップ407に進み、合成したエ
ッジ付きの描画像のデータと、そのαプレーン(エッジ
のαプレーン)とを、グラフィックアクセレータ12を
通じてVRAM13,14,15に転送する。
When the above-described case division processing is completed,
Proceeding to step 405, it is determined whether the target dot is the last dot of the drawn image body.
To repeat the above processing. If it is the last dot, the process proceeds to step 406, where the α plane of the drawn image body and the α plane of the edge are combined using CG anti-aliasing as described above, and the drawn image body and the edge are combined. Combine. Next, the process proceeds to step 407, where the synthesized image data with the edge and the α plane (the α plane of the edge) are transferred to the VRAMs 13, 14, and 15 via the graphic accelerator 12.

【0135】以上説明した、この例によれば、無駄なメ
モリアクセス回数が減り、高速にエッジおよびそのαデ
ータを生成することが可能になる。そして、この例の方
法は、文字などの描画像本体の品位が高ければ高いほ
ど、それに応じてエッジの品位も高いものを得ることが
でき、しかも、処理時間は、その品位にかかわらず同じ
であるという点で優れている。
According to this example described above, the number of unnecessary memory accesses is reduced, and the edge and its α data can be generated at high speed. In the method of this example, the higher the quality of the drawn image body such as characters, the higher the quality of the edge can be obtained, and the processing time is the same regardless of the quality. Excellent in that there is.

【0136】以上のようにして高速の処理が可能である
ので、例えば文字データを画像にリアルタイムでスーパ
ーインポーズすることが可能になり、例えば外国語番組
や音楽番組、速報などの場合に、リアルタイムの字幕作
成ができる。
Since high-speed processing is possible as described above, for example, character data can be superimposed on an image in real time. For example, in the case of a foreign language program, a music program, a flash report, etc. Can create subtitles.

【0137】なお、以上は、ソフトウエアのアルゴリズ
ムで、この発明の装置を実現するようにした場合につい
て説明したが、図10および図11に示したように、簡
単な処理の組み合わせでエッジ生成およびそのαデータ
生成処理が可能であるので、ハードウエアにより構成す
ることも、もちろんできる。
In the above description, the case where the apparatus of the present invention is realized by a software algorithm has been described. However, as shown in FIGS. Since the α data generation processing is possible, it is of course possible to configure with hardware.

【0138】[0138]

【発明の効果】以上説明したように、この発明によれ
ば、表示画像に合成して表示する文字や図形などのカラ
ー描画像に、高速に、エッジを付与し、かつ、その輪郭
データ(αデータ)を生成することができる。
As described above, according to the present invention, an edge is quickly added to a color drawing image such as a character or a figure to be displayed by being synthesized with a display image, and the outline data (α) is added. Data).

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明による合成描画装置の実施の形態を説
明するためのブロック図である。
FIG. 1 is a block diagram for explaining an embodiment of a composite drawing apparatus according to the present invention.

【図2】ビデオ信号と描画像データとを、合成する装置
の他の構成を示すブロック図である。
FIG. 2 is a block diagram illustrating another configuration of a device that combines a video signal and drawn image data.

【図3】描画像本体のαデータを生成するための処理の
説明に用いる図である。
FIG. 3 is a diagram used to explain a process for generating α data of a drawn image body.

【図4】描画像本体のαデータを生成するための処理の
説明に用いる図である。
FIG. 4 is a diagram used to explain a process for generating α data of a drawn image body.

【図5】描画像本体のαデータを生成するための処理ル
ーチンの一例のフローチャートである。
FIG. 5 is a flowchart of an example of a processing routine for generating α data of a drawn image body.

【図6】この発明によるエッジの生成およびそのαデー
タの生成処理の一例の説明に用いる図である。
FIG. 6 is a diagram used to describe an example of an edge generation and α data generation process according to the present invention;

【図7】この発明によるエッジの生成およびそのαデー
タの生成処理の一例の説明に用いる図である。
FIG. 7 is a diagram used to describe an example of generation processing of an edge and α data thereof according to the present invention.

【図8】この発明によるエッジの生成およびそのαデー
タの生成処理ルーチンの一例のフローチャートである。
FIG. 8 is a flowchart of an example of an edge generation and α data generation processing routine according to the present invention;

【図9】この発明によるエッジの生成およびそのαデー
タの生成処理の他の例に用いるフラグ用のバッファを説
明するための図である。
FIG. 9 is a diagram for explaining a flag buffer used in another example of the edge generation and the α data generation process according to the present invention.

【図10】この発明によるエッジの生成およびそのαデ
ータの生成処理の他の例の説明に用いる図である。
FIG. 10 is a diagram used for explaining another example of the generation processing of the edge and the generation processing of the α data according to the present invention.

【図11】この発明によるエッジの生成およびそのαデ
ータの生成処理の他の例の説明に用いる図である。
FIG. 11 is a diagram used to explain another example of processing for generating an edge and generating α data according to the present invention.

【図12】この発明によるエッジの生成およびそのαデ
ータの生成処理ルーチンの他の例のフローチャートであ
る。
FIG. 12 is a flowchart of another example of an edge generation and α data generation processing routine according to the present invention;

【図13】図12のフローチャートの一部を示す図であ
る。
FIG. 13 is a diagram showing a part of the flowchart of FIG. 12;

【図14】合成描画を説明するための図である。FIG. 14 is a diagram for explaining composite drawing.

【図15】描画像に生成するエッジを説明するための図
である。
FIG. 15 is a diagram for explaining edges generated in a drawn image.

【図16】従来のエッジの生成およびそのαデータの生
成方法を説明するための図である。
FIG. 16 is a diagram for explaining a conventional edge generation method and a method for generating α data thereof.

【符号の説明】[Explanation of symbols]

1…合成描画装置、2…ディスプレイ、3…キーボー
ド、4…マウス、11…描画データ転送バッファ部、1
2…グラフィックアクセレータ、13…VRAM、14
…VRAM、15…VRAM、21…デジタルビデオミ
キサ、21a…D/A変換回路、22…キー信号コント
ローラ、100…合成描画データ生成部、101…CP
U、102…ROM、103…RAM、104…VRA
M、105…ディスプレイコントローラ、109…シス
テムバス、111…I/Oポート、31…入力端子、3
2…A/D変換回路、33…D/A変換回路、34…D
/A変換回路、41、42、43…出力端子、LT…描
画像本体、EG…エッジ部分
DESCRIPTION OF SYMBOLS 1 ... Synthetic drawing apparatus, 2 ... Display, 3 ... Keyboard, 4 ... Mouse, 11 ... Drawing data transfer buffer part, 1
2 ... Graphic accelerator, 13 ... VRAM, 14
... VRAM, 15 ... VRAM, 21 ... digital video mixer, 21a ... D / A conversion circuit, 22 ... key signal controller, 100 ... composite drawing data generator, 101 ... CP
U, 102 ROM, 103 RAM, 104 VRA
M, 105: display controller, 109: system bus, 111: I / O port, 31: input terminal, 3
2 ... A / D conversion circuit, 33 ... D / A conversion circuit, 34 ... D
/ A conversion circuit, 41, 42, 43: output terminal, LT: drawn image body, EG: edge portion

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】表示画像に文字や図形などのカラー描画像
を合成して表示するために、カラー描画像データと、前
記カラー描画像を前記表示画像に合成するために使用す
る輪郭データとからなる合成描画データを生成する方法
であって、 前記輪郭データから、前記カラー描画像の端部を検出
し、 前記端部の描画像データの輪郭データを、その周囲にコ
ピーすることにより、前記カラー描画像の周囲に生成さ
れる所定幅のエッジについての輪郭データを生成するこ
とを特徴とする合成描画データの生成方法。
1. A color drawing image data for combining a display image with a color drawing image such as a character or a figure, and contour data used for combining the color drawing image with the display image. A method of generating composite drawing data, comprising: detecting, from the outline data, an end of the color drawing image; and copying outline data of the drawing image data of the end around the periphery, thereby obtaining the color. A method for generating composite drawing data, comprising generating contour data for an edge having a predetermined width generated around a drawn image.
【請求項2】前記エッジの描画像データの周囲の他のエ
ッジの描画像データを参照し、当該周囲の他のエッジの
描画像データの、自己のエッジの描画像データに対する
位置により、前記自己のエッジの描画像データの輪郭デ
ータをコピーする周囲位置を変更するようにしたことを
特徴とする請求項1に記載の合成描画データの生成方
法。
2. The drawing image data of another edge around the drawing image data of the edge is referred to, and the position of the drawing image data of the other edge around the drawing image data of the own edge is determined based on the position of the drawing image data of the own edge. 2. The method according to claim 1, wherein a peripheral position of copying the outline data of the drawn image data of the edge is changed.
【請求項3】表示画像に文字や図形などのカラー描画像
を合成して表示するために、カラー描画像データと、前
記カラー描画像を前記表示画像に合成するために使用す
る輪郭データとからなる合成描画データを生成する装置
であって、 前記輪郭データから、前記カラー描画像の端部を検出す
る端部検出手段と、 検出された前記端部の描画像データの輪郭データを、そ
の周囲にコピーすることにより、前記カラー描画像の周
囲に生成される所定幅のエッジについての輪郭データを
生成するエッジ輪郭データ生成手段とを備えることを特
徴とする合成描画データの生成装置。
3. A color drawing image data for combining a display image with a color drawing image such as a character or a graphic, and contour data used for combining the color drawing image with the display image. An edge detecting means for detecting an edge of the color depiction image from the edge data; and And an edge contour data generating means for generating contour data for an edge having a predetermined width generated around the color drawing image by copying the image data to the composite drawing data.
【請求項4】前記エッジ輪郭データ生成手段は、前記エ
ッジの描画像データの周囲の他のエッジの描画像データ
を参照し、当該周囲の他のエッジの描画像データの、自
己のエッジの描画像データに対する位置により、前記自
己のエッジの描画像データの輪郭データをコピーする周
囲位置を変更するようにしたことを特徴とする請求項3
に記載の合成描画データの生成装置。
4. The edge contour data generating means refers to the drawn image data of another edge around the drawn image data of the edge, and draws its own edge of the drawn image data of another edge around the edge. 4. A peripheral position for copying the outline data of the drawn image data of the own edge according to the position with respect to the image data.
2. A device for generating combined drawing data according to claim 1.
【請求項5】文字や図形などの描画像の描画情報の入力
を行うための描画入力手段と、 前記描画入力部からの情報に応じて、カラー描画像デー
タを生成する描画像データ生成手段と、 前記描画像データ生成手段において生成されたカラー描
画像を表示画面に表示する描画像表示手段と、 前記カラー描画像についての輪郭データを求める輪郭デ
ータ算出手段と、 前記輪郭データ算出手段で算出された輪郭データから、
前記カラー描画像の端部を検出する端部検出手段と、 前記端部検出手段で検出された前記端部の描画像データ
の輪郭データを、その周囲にコピーすることにより、前
記カラー描画像の周囲に生成される所定幅のエッジにつ
いての輪郭データを生成するエッジ輪郭データ生成手段
と、 前記エッジについての輪郭データに基づいてエッジが付
与されたカラー描画像のデータを生成するエッジ付き描
画像の生成手段と、 前記描画像を合成する表示画像のビデオ信号の入力端子
と、 前記入力端子からのビデオ信号に、前記エッジ付き描画
像データを、前記エッジ輪郭データ算出手段で算出され
た輪郭データを用いて合成する合成手段と、 前記合成手段で合成した画像データを出力する出力端子
と、 を備える合成描画装置。
5. A drawing input means for inputting drawing information of a drawing image such as a character or a figure, and drawing image data generating means for generating color drawing image data in accordance with information from the drawing input unit. A drawing image display unit that displays the color drawing image generated by the drawing image data generation unit on a display screen; a contour data calculation unit that obtains outline data for the color drawing image; From the contour data
Edge detection means for detecting the end of the color drawing image, and the contour data of the drawing image data of the end detected by the end detection means, by copying around the periphery, the color drawing image of the Edge contour data generating means for generating contour data for an edge having a predetermined width generated around the edge; and an edge-added drawing image for generating data of a color drawing image to which an edge is added based on the contour data for the edge. Generating means; an input terminal of a video signal of a display image for synthesizing the drawn image; and a video signal from the input terminal, the edged drawn image data, and the contour data calculated by the edge contour data calculating means. A combining drawing apparatus, comprising: combining means for combining using the output means; and an output terminal for outputting the image data combined by the combining means.
【請求項6】前記エッジ輪郭データ生成手段は、前記エ
ッジの描画像データの周囲の他のエッジの描画像データ
を参照し、当該周囲の他のエッジの描画像データの、自
己のエッジの描画像データに対する位置により、前記自
己のエッジの描画像データの輪郭データをコピーする周
囲位置を変更するようにしたことを特徴とする請求項5
に記載の合成描画装置。
6. The edge contour data generating means refers to the drawn image data of another edge around the drawn image data of the edge, and draws its own edge in the drawn image data of the other edge around the edge. 6. A peripheral position for copying the outline data of the drawn image data of the own edge according to the position with respect to the image data.
3. The composite drawing apparatus according to 1.
【請求項7】表示画像に文字や合成して表示するカラー
描画像のデータを生成する方法であって、 前記カラー描画像の端部を検出し、この端部を中心とし
て、この端部の情報により所定幅のエリアを塗り潰すこ
とにより、前記カラー描画像に前記所定幅のエッジを付
与することを特徴とする合成描画データの生成方法。
7. A method for generating data of a color drawing image to be displayed by combining characters or a character with a display image, the method comprising detecting an end of the color drawing image, and centering the end on the end. A method of generating synthetic drawing data, characterized by adding an edge of the predetermined width to the color drawing image by filling an area of a predetermined width with information.
JP9016195A 1997-01-30 1997-01-30 Composite drawing data generation method, and composite drawing device Pending JPH10215410A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9016195A JPH10215410A (en) 1997-01-30 1997-01-30 Composite drawing data generation method, and composite drawing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9016195A JPH10215410A (en) 1997-01-30 1997-01-30 Composite drawing data generation method, and composite drawing device

Publications (1)

Publication Number Publication Date
JPH10215410A true JPH10215410A (en) 1998-08-11

Family

ID=11909738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9016195A Pending JPH10215410A (en) 1997-01-30 1997-01-30 Composite drawing data generation method, and composite drawing device

Country Status (1)

Country Link
JP (1) JPH10215410A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330102A (en) * 2002-05-10 2003-11-19 Nec Viewtechnology Ltd Method and program for correcting distortion of projected image and projection type video display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330102A (en) * 2002-05-10 2003-11-19 Nec Viewtechnology Ltd Method and program for correcting distortion of projected image and projection type video display device

Similar Documents

Publication Publication Date Title
JP3870109B2 (en) Image display apparatus, image display method, and image display program
JPH0695273B2 (en) Display control device
JP2578170B2 (en) Image display device
WO2005006772A1 (en) Image display device and image display method
US20010048771A1 (en) Image processing method and system for interpolation of resolution
KR100542958B1 (en) Method and apparatus for generating composite image, and information processing system
US5615281A (en) Method of and apparatus for generating reduced image
JP2002519793A (en) Method and system for rendering graphic elements
JPH10215410A (en) Composite drawing data generation method, and composite drawing device
JPS6113256B2 (en)
JP3107382B2 (en) Display device of synthetic image and hatching circuit
JP3647104B2 (en) Image processing method and apparatus
JP3000855B2 (en) Character graphic processing device and information processing device
JPH05324840A (en) High-resolution image processor
JP2000151982A (en) Image compositor, image compositing method image generating device, image generating method and served medium
JPH10149431A (en) Picture processing method
JPH04122991A (en) Composing method for image and character
JPH10214077A (en) Method for generating synthetic plotting data and synthetic plotting device
JP3255549B2 (en) Figure processing method
JPH0588653A (en) Screen composite display area determining device
JPH03126993A (en) Character generator
JP3043697B2 (en) Display device and display method of alpha blending image
JPS60258680A (en) Image processor
JPH08272351A (en) Picture processor
JP2577276B2 (en) Line break detection method