JPS60111291A - Data generation processing for color lookup table animation - Google Patents

Data generation processing for color lookup table animation

Info

Publication number
JPS60111291A
JPS60111291A JP58219058A JP21905883A JPS60111291A JP S60111291 A JPS60111291 A JP S60111291A JP 58219058 A JP58219058 A JP 58219058A JP 21905883 A JP21905883 A JP 21905883A JP S60111291 A JPS60111291 A JP S60111291A
Authority
JP
Japan
Prior art keywords
image
label
composite image
color
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP58219058A
Other languages
Japanese (ja)
Inventor
健二 間瀬
玉邑 嘉章
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP58219058A priority Critical patent/JPS60111291A/en
Publication of JPS60111291A publication Critical patent/JPS60111291A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 (1) 発明の属する分野の説明 本発明は、カラールックアップテーブル動画用のデータ
生成処理方法、特にグラフィックディスプレイにおいて
、画像メモリの内容を変えずに、カラールックアップテ
ーブルの内容だけを書き替えることによって動画を簡単
に表示する(以下当該表示する対象をカラーLUT動画
、又はCLUT動画と呼ぶことにする)ためのデータ生
成処理方法に関するものである。
DETAILED DESCRIPTION OF THE INVENTION (1) Description of the field to which the invention pertains The present invention relates to a data generation processing method for a color lookup table video, particularly in a graphic display, without changing the contents of an image memory. The present invention relates to a data generation processing method for easily displaying a moving image by rewriting only the contents of (hereinafter, the object to be displayed will be referred to as a color LUT moving image or a CLUT moving image).

(2) 従来の技術の説明 従来この種の動画表示に当っては、下記のように、第1
図に示す如きシステムにおいて第2、第3図に示すよう
なデータを用いて表示される非常に簡単な動画のみが表
示可能であった。
(2) Description of conventional technology Conventionally, in this type of video display, the first
In the system shown in the figure, only a very simple moving image using the data shown in Figs. 2 and 3 could be displayed.

第1図はCLUT動画を表示するシステム構成の1例で
ある。なお1はメインプロセッサ、2は画像メモリ、3
はカラールックアップテーブル(CLUTと略す)、4
はC几T137は磁気ディスク等の2次記憶、38はホ
ストコンピュータ、39はホストコンピュータとメイン
プロセッサ1とを結ぶ通信線である。ここでCLUT3
の動作は、ビデオ同期信号に合わせて、ラスター走査式
に、画像メモリ2から読出した1画素ごとのデータ(以
下画素値と呼ぶ)を、画素値で示されるアドレス(以下
CLUTのエントリアドレス、又はエントリアドレスと
呼ぶ)のレジスタに与えられているカラー値に変換する
。CLUT3のレジスタ、すなわちカラー値テーブルは
(一般に几、G・Bの各要素の輝度を2〜8bLtRで
表現し)メインプロセッサ1からプログラマブルに変更
できるようになっている。またカラー値テーブルの変更
はCRT 4に表示する場合の帰線期間中に道われるよ
うになっている。
FIG. 1 is an example of a system configuration for displaying a CLUT video. Note that 1 is the main processor, 2 is the image memory, and 3 is the main processor.
is a color lookup table (abbreviated as CLUT), 4
T137 is a secondary storage such as a magnetic disk, 38 is a host computer, and 39 is a communication line connecting the host computer and the main processor 1. Here CLUT3
The operation is based on the data of each pixel (hereinafter referred to as pixel value) read out from the image memory 2 in a raster scanning manner in accordance with the video synchronization signal, and the address indicated by the pixel value (hereinafter referred to as the entry address of CLUT). Converts to the color value given in the register (called the entry address). The register of the CLUT 3, that is, the color value table (generally, the brightness of each element of G and B is expressed by 2 to 8 bLtR) can be changed programmably from the main processor 1. Further, the color value table is changed during the retrace period when displaying on the CRT 4.

このような装置でCLUT動画を表示するためには、第
2図に例示するような複合画像データと第3図に例示す
るよりなCLUTデータを用意しておく必要がある。こ
こで第2図、第3図は、黒色の背景上を白い円板(ボー
ル)が右から左へ動く動画を表示するためのCLUT動
画用データである。すなわち、第2図の複合画像では背
景と円板の各時刻での位置が別々の値(1410、kl
・・・・勾)を使って描かれている。また第3図では、
各値(no 、E+ 、・・・El)で表わされている
エントリアドレスに対してCLUT3が各時刻でどの色
を割シ当てるかを示している。表示は次のように行なわ
れる。まず、第1図のホストコンピュータ38又は、C
PUI及び画像メモリ2を使って複合画像データ及びC
LUTデータを生成する。次に生成した複合画像を通信
回線39又は2次記憶37を介すなどして画像メモリ2
へ書き込む。さらにCLUTデータをCPUIを用いて
第3図の時刻で決められる時間間隔でCLUT3に書き
込む。
In order to display a CLUT video on such a device, it is necessary to prepare composite image data as exemplified in FIG. 2 and CLUT data as exemplified in FIG. 3. Here, FIGS. 2 and 3 are CLUT video data for displaying a video in which a white disc (ball) moves from right to left on a black background. That is, in the composite image shown in Figure 2, the positions of the background and the disk at each time are set to different values (1410, kl
・・・It is drawn using a gradient. Also, in Figure 3,
It shows which color the CLUT 3 assigns at each time to the entry address represented by each value (no, E+, . . . El). Display is performed as follows. First, the host computer 38 in FIG.
Composite image data and C using PUI and image memory 2
Generate LUT data. Next, the generated composite image is sent to the image memory 2 via the communication line 39 or the secondary storage 37.
Write to. Furthermore, CLUT data is written to CLUT3 using the CPU at time intervals determined by the times shown in FIG.

例えば、時刻T。(初期状態)では第3図の第1行の色
をCLtJT 3の各エントリアドレス(Eo 1E、
・・・・gs )のカラー値テーブルに書き込み、時間
t″=T、 −T、経った時、第2行の色を同じように
CLUT3に書き込むという具合にCL U T 3の
内容を変更する。同じ手順で時刻T3、T3、T4に決
められている色データをCLUT3に書き込むと、第4
図(α> −<g>のようにCB、T4に動画として表
示することができる。ここでCPUIにょるCLUT3
の書き替えの速度は、通常の素子を用いたシステムにお
いても1エントリアドレスあたシ数μs程度であシ、1
秒当ヤ30フレームの動画像でも実時間で容易に表示で
きるということが、CLUT動画の最大の利点である。
For example, time T. (initial state), the colors in the first row of Figure 3 are assigned to each entry address of CLtJT 3 (Eo 1E,
...gs), and when time t''=T, -T has passed, change the contents of CLUT3 by writing the second row's color to CLUT3 in the same way. .If the color data determined at times T3, T3, and T4 are written to CLUT3 using the same procedure, the fourth
It can be displayed as a moving image on CB and T4 as shown in the figure (α> - <g>. Here, CLUT3 on the CPU
The rewriting speed is about a few μs per entry address even in a system using normal elements;
The greatest advantage of CLUT videos is that even video images of 30 frames per second can be easily displayed in real time.

複合画像データの作成一様としては各コマの画像を単に
重ね合わせるという方法があった。すなわち第2図、第
3図の例では画像メモリ2の第1プl/−yK第1コマ
(To)の画IIJ、1g2プレーンには第2コマ(T
、)の画像と、いうように複合画像を作成することも可
能である。しかしながらこの場合はわずか5コマの動画
像を表現するために5ビツトの深さの画像データを作成
することになってしまい、色数やコマ数の多い動画像デ
ータできないという欠点があった。ところがこの例では
第2図に示すように、実際には6111i1の画素値だ
けを使って複合画像を表現できるため、”f@ 6 #
2.6に3ビツトで十分であることがわかる。
One way to create composite image data is to simply superimpose the images of each frame. That is, in the examples of FIGS. 2 and 3, the image IIJ of the first frame (To) of the first plane 1/-yK of the image memory 2, and the second frame (T
It is also possible to create a composite image, such as an image of , ). However, in this case, image data with a depth of 5 bits must be created to express a moving image of only 5 frames, and there is a drawback that moving image data with a large number of colors or frames cannot be created. However, in this example, as shown in Figure 2, the composite image can actually be expressed using only the pixel values of 6111i1, so "f@6 #
It can be seen that 3 bits is sufficient for 2.6.

このように複合画像は、元来各コマの表現にCビット/
画素必要であればNコマの表現にはCxNビット/画素
のデータエリアを必要とすることになるが、実際には前
述のように動きのある図形がおるコマの間では重ならな
い状態が生じやすいという性質によシ、NxCビットよ
シはるかに少ないビット数で表現することができる。し
かしながらこの図形がコマ間で重ならない状態をめるに
は空間的な配置を調−べる必要があり、単に数学的な論
理では知ることができなかった。従って従来はこれを調
べるのに人間が直観的に判別するため、前記複合画像は
インタラクティブに作成しfcJ)、机上で検証すると
いう手順に基づくことしか方法がなかった。すなわち、
これらの方法で作成できる動画は第4図の例に示すよう
々きわめて簡単なものに限られるという欠点がある。と
くに動きのある図形が重なったり、図形の形が複雑であ
る場合には前記複合画像データ及びCLUTデータを作
成するのは困難であり、事実上、はとんど不可能であっ
た。
In this way, composite images originally require C bits/
If pixels are required, a data area of CxN bits/pixel will be required to express N frames, but in reality, as mentioned above, there is a tendency for frames with moving figures to not overlap. Due to this property, it can be expressed using a much smaller number of bits than NxC bits. However, in order to ensure that the figures do not overlap between frames, it is necessary to investigate the spatial arrangement, which could not be determined simply by mathematical logic. Therefore, in the past, the only way to investigate this was to create the composite image interactively and verify it on a desk because humans had to make intuitive judgments. That is,
The drawback is that the moving images that can be created using these methods are limited to extremely simple ones, as shown in the example of FIG. In particular, when moving figures overlap or when the shapes of figures are complex, it is difficult to create the composite image data and CLUT data, and in fact, it is almost impossible.

(8) 発明の目的 本発明は、任意の動画像データから自動的に複合画像デ
ータとCLUTデータを生成する方法として、画素の色
変化に関する属性を調べ、属性が同じ画素を併合するこ
とを特徴とし、前述の作成できる動画が限られるという
欠点を解決しておシ、その目的は、CLUT動画で表示
できる動画像を広範なものにし、CLUT動画を利用し
やすいものとすることにある。
(8) Purpose of the Invention The present invention is a method for automatically generating composite image data and CLUT data from arbitrary moving image data, and is characterized by examining attributes related to color changes of pixels and merging pixels with the same attributes. The purpose of this method is to solve the above-mentioned drawback that the number of videos that can be created is limited, and to widen the range of moving images that can be displayed with CLUT videos, thereby making CLUT videos easier to use.

(旬 発明の構成および作用の説明 第5図は、本発明の詳細な説明するための原画像の例で
あシ、以下この例を用いて、本発明による複合画像デー
タの生成及びCLUTデータの生成を説明する。第5図
(cL)、(b)、(C)は1色からなる円板が右から
左にゆっくりと動く例であシ、図中6.8.10が各コ
ヤ11.12.13における円板を表し、5.7.9が
それぞれ背景を表す。
(Explanation of structure and operation of the invention FIG. 5 is an example of an original image for explaining the present invention in detail. This example will be used below to explain the generation of composite image data and CLUT data according to the present invention. The generation will be explained. Figures 5 (cL), (b), and (C) are examples in which a disk consisting of one color moves slowly from right to left. .12.13 represents the disk, and 5.7.9 represents the background, respectively.

以下の説明では円板6.8.10を動因形と呼ぶ。In the following explanation, disk 6.8.10 will be referred to as the motive form.

第5図の例では動因形6と動因形8とは重なυ、かつ動
因形8と動因形10とは重なるように動く。
In the example shown in FIG. 5, the motive form 6 and the motive form 8 overlap υ, and the motive form 8 and the motive form 10 move so as to overlap.

また動因形6.8.10の色は白、背景5.7.9の色
は黒とする。
Furthermore, the color of the motive form 6.8.10 is white, and the color of the background 5.7.9 is black.

第6図は第5図(α)、(b)、(C)を重ねて書いた
絵である。図中14〜19は動因形6.8.10が重な
ってできる領域を示す。第6図において各領域14〜1
9がそれぞれ画素値B14、BIB・・・・・・、E、
Figure 6 is a picture drawn by overlapping Figures 5 (α), (b), and (C). In the figure, 14 to 19 indicate regions formed by overlapping motive forms 6, 8, and 10. In Fig. 6, each area 14 to 1
9 are pixel values B14, BIB..., E, respectively.
.

の値をとり、かつそのいずれも異なる場合、第6図の画
像20は第5図の原画像11.12.13の複合画像と
なる。第6図の複合画像20をめる方法を以下に説明す
る。
, and all of them are different, the image 20 in FIG. 6 becomes a composite image of the original images 11, 12, and 13 in FIG. 5. A method for creating the composite image 20 of FIG. 6 will be described below.

第12図は本発明を実行するだめのホストコンピュータ
38の構成例である。図中40は計算・判定を行7うC
PU、41は原画像データ、複合画像デー!、CLUT
データ、作業用テーブルを置くメモリエリア、42は原
画像データ及び複合画像データを置く2次記憶用の磁気
ディスク等の大容量メモリ、43はでき上がったデータ
を表示システム等へ送るための通信インタフェースであ
る。
FIG. 12 shows an example of the configuration of the host computer 38 on which the present invention is executed. 40 in the figure is C that performs calculations and judgments.
PU, 41 is original image data, composite image data! ,CLUT
42 is a large capacity memory such as a magnetic disk for secondary storage where original image data and composite image data are placed; 43 is a communication interface for sending the completed data to a display system, etc.; be.

ここで、原画像となる動画像は他のシステムで作ってお
き2次記憶42により受け渡しをするものとするが、通
信インタフェース43を用いたり、CPU40で発生す
ることも可能である。以下構成例を用いて説明をする。
Here, it is assumed that the moving image serving as the original image is created in another system and transferred through the secondary storage 42, but it is also possible to use the communication interface 43 or generate it in the CPU 40. An explanation will be given below using a configuration example.

第1に原画像を直接用いて参照する場合について説明す
る。まず原画i1!11.12.13を2次記憶42か
ら読み出してメモリエリア41内のイメージメモリ44
に書き込む。ここでは原画像11.12.13をそれぞ
れイメージメモリ+o。
First, a case where the original image is directly used for reference will be explained. First, the original image i1!11.12.13 is read out from the secondary storage 42 and stored in the image memory 44 in the memory area 41.
write to. Here, original images 11, 12, and 13 are stored in image memory +o, respectively.

+1、+2に書き込み、イメージメモリ≠3に複合画像
を作成するものとする。
Assume that data is written to +1 and +2, and a composite image is created in image memory≠3.

次にイメージメモリ豐0.4P1、+2 を同時に走査
して内容を読み出す。以下の説明では左上から水平にテ
レビ走査式に読み出すものとする。例えば、最初の点で
は (黒、黒、黒)=(+Oの色、≠1の色、ナ2の色)、 という組合わせで、途中の点では (白、黒、黒)= (+’oの色、4L−1の色、≠2
の色) という具合に、各点で3個の色データ(3コマの場合>
1読み出すことができる。そこでこの色データの組(例
えば(黒、黒、黒))から読み出した点と同じ位置(以
下、同じ点)の複合画像の画素値を次のように決める。
Next, image memories 0.4P1 and +2 are simultaneously scanned to read out their contents. In the following description, it is assumed that reading is performed horizontally from the upper left in a television scanning manner. For example, at the first point, the combination is (black, black, black) = (+O color, ≠ color 1, color N2), and at the middle point, (white, black, black) = (+' o color, 4L-1 color, ≠2
color), and so on, 3 color data at each point (in the case of 3 frames>
1 can be read. Therefore, the pixel value of the composite image at the same position (hereinafter referred to as the same point) as the point read from this color data set (for example, (black, black, black)) is determined as follows.

即ちあらかじめテーブルメモリ45をクリアしておく。That is, the table memory 45 is cleared in advance.

テーブルメモリ上0(45)は各項目に色データが格納
でき、行方向に読み出した色データの組を記述できるも
のとする。この例では、テーブルメモリ≠0は第3列ま
でが使われ、第1列にはイメージメモリ豐。
Table memory 0 (45) can store color data in each item, and can describe a set of color data read out in the row direction. In this example, table memory≠0 uses up to the third column, and the first column contains image memory.

の色、第2列、3列にはそれぞれイメージメモリ+、1
、ナ2 の色が書き込まれる。読出した色データの組は
、CPU4Qによりテーブルメモリ+0の各行のデータ
と比較し、一致するものを探す。
, the second and third columns have image memory + and 1, respectively.
, Na2 colors are written. The CPU 4Q compares the read color data set with the data in each row of the table memory +0 to find a match.

もし一致する組がなければ、テーブルメモ1J410の
空白の行に読み出した色データの組を追加し、追加され
た行番号を画素値としてイメージメモリ豐3の同じ点に
書き込む。また一致する組があれば、当該組のQ番号を
画素値としてイメージメモリ+3の同じ点に書き込む。
If there is no matching set, the read color data set is added to a blank row of the table memo 1J410, and the added row number is written as a pixel value at the same point in the image memory 萱3. If there is a matching set, the Q number of the set is written as a pixel value at the same point in the image memory +3.

このようにして全画面の走査が終了するとイメージメモ
リ+3に目的とする複合画像20.テーブルメモリ+0
にCLUT書替用書替−タが作成される。第13図に作
成されたC、LUT書替用のデータ46を示す。
When the scanning of the entire screen is completed in this way, the target composite image 20. is stored in the image memory +3. Table memory +0
A rewrite data for CLUT rewriting is created. FIG. 13 shows the created data 46 for rewriting the C and LUT.

なお、テーブルメモリ+0の行の使用態様については、
ランダムに選択せず、小さい行番号から順に使うことに
よって効率化がはかれることは言うまでもない。
Regarding the usage of the table memory +0 row,
It goes without saying that efficiency can be improved by using row numbers in ascending order, rather than selecting them at random.

第14図は上記の処理をフローチャートに衣わした図で
おる。複合画像をめる際には上記のように、原画像を直
接用いる態様のほかに、原画像を一旦ラベル画像に変換
(7てラベル画像に対して同様の処理を行い、実行する
態様もある。この際は、テーブルメモリ上のデータ項目
が色データではなく、単にラベルの番号だけでよいとい
う利点が生まれる。
FIG. 14 is a flowchart of the above processing. When creating a composite image, in addition to directly using the original image as described above, there is also a method of first converting the original image into a label image (7) and then performing similar processing on the label image. In this case, there is an advantage that the data item on the table memory is not color data, but simply a label number.

以下にラベル画像を用いて行う2つの態様の具体例を原
画1#11.12.13を使って更に説明する。
Specific examples of the two methods using label images will be further explained below using original image 1 #11, 12, and 13.

まず、各原画像11.12.13からラベル画像り、 
、 L、 、L、をそれぞれめる。ラベル画像り。
First, create a label image from each original image 11, 12, 13,
, L, , L, respectively. Label image.

は原画像11から第7図図示情報21を用いて次のよう
にめる。まず原画像11をイメージメモリ44に置き、
これをラスク走査して各画素のカラー値を読み込む。読
み込んだカラー値が新しいものかどうかを調べるために
第7図の情報21をテーブルメモリ45に用意しておき
、読み込んだカラー値が情報21に既にあるがどうかを
CPU40で調べる。もし情報21になければカラー値
及び対応するラベルを情報21に登録し、イメージメモ
リ44の該画素にラベルを与える。反対に情報21に読
み込んたカラー値があれば情報21で対応づけられるラ
ベルを該画素に書き込む。このようにすると第8図のよ
うに原画像11のラベル画像22及びラベルカラー値対
応1i?報23がめられる。同様にして原画像1.21
.13についてもラベル画flt24.26とラベルカ
ラー値対応情報25.27をめることができる。
is calculated from the original image 11 using the illustrated information 21 in FIG. 7 as follows. First, place the original image 11 in the image memory 44,
This is scanned by rask to read the color value of each pixel. In order to check whether the read color value is new or not, the information 21 shown in FIG. 7 is prepared in the table memory 45, and the CPU 40 checks whether the read color value already exists in the information 21. If it is not present in the information 21, the color value and the corresponding label are registered in the information 21 and a label is given to the pixel in the image memory 44. On the other hand, if there is a color value read into the information 21, a label associated with the information 21 is written to the pixel. In this way, as shown in FIG. 8, the label image 22 of the original image 11 and the label color value correspondence 1i? Report 23 is observed. Similarly, original image 1.21
.. 13 as well, a label image flt24.26 and label color value correspondence information 25.27 can be included.

ここでラベル画像22.24.26は従来の図形の連結
性を考慮したラベルイ1けの方法を用いて作成してもよ
い。ただしその場合には各ラベルと原画像のカラー値を
対応づける衣が次の処理で必要である。
Here, the label images 22, 24, and 26 may be created using a conventional label image method that takes into account connectivity of figures. However, in that case, a process that associates each label with the color value of the original image is required in the next process.

次にこれらのラベル画像22.24.26を合成して複
合画像をめるが、前述したと同じようにして次のように
行う。まずラベル画像22.24.26をそれぞれイメ
ージメモリ44のす0、ナ1、+2に書き込み、さらに
第9図に示すラベルの組合せ情報28をテーブルメモリ
45のす0に用意し、ラベル画像22.24: 26を
同時にラスク走査する。そこでそれぞれの画素位置で読
み込まれるラベルの組合せを、例えば領域14に対応す
るものとして(’a 、”? 、’a )が存在すると
いうように調べる。ラベルの紹合せ情報28にはラスク
走査しながら、このラベル9組合せを記録する。
Next, these label images 22, 24, and 26 are combined to form a composite image, which is performed in the same manner as described above as follows. First, the label images 22, 24, and 26 are written in the image memory 44 (s0, n1, +2), and the label combination information 28 shown in FIG. 9 is prepared in the table memory 45 (s00). 24: Scan 26 at the same time. Therefore, the combination of labels read at each pixel position is examined, for example, to find out that ('a, "?, 'a) exists as one corresponding to the area 14. The label introduction information 28 is obtained by rask scanning. While doing so, record these 9 label combinations.

ただし、同じ組合せの場合には記録しないようにすると
第9図の情報29のような組合せ情報が最終的に得られ
る。このとき、ラスク走査に合わせて得られる組合せに
対して、情報29に示す組合せ番号C8〜C6を各画素
位置に書いてやると第6図の複合面@20が得られる。
However, if the same combinations are not recorded, combination information such as information 29 in FIG. 9 will finally be obtained. At this time, by writing combination numbers C8 to C6 shown in the information 29 at each pixel position for the combinations obtained according to the rask scan, the composite surface @20 shown in FIG. 6 is obtained.

ただし、ここで各領域14〜19にはそれぞれC,、C
,、C6、C3、C,、C,の番号が各画素に与えられ
る。また組合せ番号C1〜C6は同じ値でなければ任意
の数値でよいが、例えば「1」から「6」というように
つめて番号づけをすると、複合画像を効率よく表わすこ
とができることは明らかである。以上の処理は前述した
。−一画像を直接扱う方法と同様であシ、色データをラ
ベル値に置き換えて処理を考えることができる。
However, in each area 14 to 19, C, , C
, , C6, C3, C, , C, numbers are given to each pixel. Also, the combination numbers C1 to C6 may be any numerical value as long as they are not the same, but it is clear that if they are numbered condensed, for example from "1" to "6", a composite image can be represented efficiently. . The above processing has been described above. - It is similar to the method of directly handling one image, and processing can be considered by replacing color data with label values.

複合画像20を作成する態様には、上述のように、ラベ
ル画像11.12.13を同時に用いる方法のほかに、
1枚ずつラベル画像を用いて複合画像を順次作成する態
様も可能である。
In addition to the method of simultaneously using the label images 11, 12, and 13 as described above, methods for creating the composite image 20 include:
It is also possible to sequentially create composite images using label images one by one.

第10図は順次複合画像を作成する態様で得られる各時
点での複合画像30.32.34とラベル組合せ情報3
1.33.35とを表わしている。
FIG. 10 shows composite images 30, 32, and 34 and label combination information 3 obtained at each time point in a mode of sequentially creating composite images.
1.33.35.

ここで30は第1の複合画像であシ、ラベル画像11を
そのまま用いる。また32は第2の複合画像であり、複
合画像3oおよびラベル画像12をそれぞれイメージメ
モリ44のす0、+1に書き込み、複合画像3oを単に
ラベル画像とみなし、前述の複合画像の生成態様と同様
にして、イメージメモリ44のす3に複合画像32を作
成する。ただしこの場合は対象とする六方画像がイメー
ジメモリ44の+O,+1の2枚であるという点で前述
の例とは異なる。次に、得られた複合画像32およびラ
ベル画l#13に同じ処理を施すことによって複合画像
34を作成する。
Here, 30 is the first composite image, and the label image 11 is used as is. Further, 32 is a second composite image, and the composite image 3o and the label image 12 are written to 0 and +1 of the image memory 44, respectively, and the composite image 3o is simply regarded as a label image, similar to the generation mode of the composite image described above. Then, the composite image 32 is created in the third part of the image memory 44. However, this case differs from the previous example in that the target hexagonal images are two images +O and +1 in the image memory 44. Next, a composite image 34 is created by subjecting the obtained composite image 32 and label image l#13 to the same processing.

これらの処理ではテーブルメモリ45にラベル組合せ情
報33および35が各時点で作成される。
In these processes, label combination information 33 and 35 are created in the table memory 45 at each time point.

ここで情報31の組合せ番号C7及びC8、情報33の
C9、cio、C11、C12、情報35のC13〜C
18はそれぞれラベルの組合せが格納される行番号と考
えてよい。一方、情報33におけるC7及びC8または
情報35におけるC9、Cl01C1i、C12は、こ
の組合せ番号をそのままラベル値として扱ってラベル組
合せの各行のデータとしている。そこで、情報31.3
3、−35を用いて、次のようにラベル組合せ情報29
を作り出すことができる。すなわち、情報35における
ラベルC9、Cl01CILC12が情報33において
どのラベルの組合せの行番号であるかを探し置換する。
Here, combination numbers C7 and C8 of information 31, C9, cio, C11, C12 of information 33, C13 to C of information 35
18 can be considered to be the line number in which each label combination is stored. On the other hand, for C7 and C8 in the information 33 or C9, Cl01C1i, and C12 in the information 35, this combination number is treated as it is as a label value, and is used as data for each row of the label combination. Therefore, information 31.3
3, -35 is used to create the label combination information 29 as follows:
can be produced. That is, the line number of the combination of labels in the information 33 corresponding to the labels C9 and Cl01CILC12 in the information 35 is searched and replaced.

例えば情報35のC9は、情報33のラベル組合せ(C
7,17)であるので情報35の組合せ番号C13に相
当する行は(C91,i<g)→(C7、J、7、L9
) となる。同じく上記C7は情報31によりラベル1
5に対応するため、最終的にC13のラベル組合せd 
(25、)7、!9)とめることができる。他のC14
〜018 についても同様である。このようにして得ら
れたラベル組合せ情報は組合せ番号013〜C18’i
それぞれC1〜C6と対応づけることで情報29と一致
する。
For example, C9 of information 35 is the label combination (C9 of information 33).
7, 17), the line corresponding to the combination number C13 of information 35 is (C91, i<g) → (C7, J, 7, L9
) becomes. Similarly, C7 above is labeled 1 according to information 31.
5, the final label combination d of C13
(25,)7,! 9) Can be stopped. other C14
The same applies to ~018. The label combination information obtained in this way is the combination number 013 to C18'i.
By associating them with C1 to C6, they match the information 29.

次に、複合画像20を動画として表示するためのCL 
U Tデータの作成について説明する。これにはラベル
組合せ情報29とラベルカラー値対応情報23.25.
27を用いる。すなわちラベル組合せ情報29の各ラベ
ル(15,16、・・・・、Llo)に対してラベルカ
ラー値対応情報23.25.27で与えられるカラー値
を割ル当てると第11図のCLUTデータ情報36を得
ることができる。情報36において組合せ番号は、CI
、UT3のエントリアドレスを表わすから、動画の各コ
マを表示するためには、各エントリアドレスに対して縦
方向のカラー値をCL U T 3に書き込めばよい。
Next, CL for displaying the composite image 20 as a moving image.
The creation of UT data will be explained. This includes label combination information 29 and label color value correspondence information 23.25.
27 is used. In other words, when the color values given in the label color value correspondence information 23, 25, and 27 are assigned to each label (15, 16, ..., Llo) in the label combination information 29, the CLUT data information in FIG. 11 is obtained. 36 can be obtained. In the information 36, the combination number is CI
, represents the entry address of UT3. Therefore, in order to display each frame of the moving image, it is only necessary to write a vertical color value for each entry address in CLUT3.

例えば原画像12(第2コマ目)を表示するためには、
情報36の第2列の斜線部のカラー値データに従って、
C,、C,、C,には1(=G=B=0.0、C3、C
,、C’、にはJ?、=G=13=1.0 の値をCL
UT3に書き込む。こうすると第6図の複合画像20に
おいては領域14.15.19が黒、16.17.18
が白となり、第2コマ目を表示することができる。なお
情報36と第13図の情報46とは本質的に同じもので
あり、これは以上に述べた3個の具体的態様で同じ結果
が得られるということを明らかに示すものである。
For example, to display original image 12 (second frame),
According to the color value data in the shaded part of the second column of information 36,
1 for C,,C,,C,(=G=B=0.0,C3,C
,,C', is J? ,=G=13=1.0 as CL
Write to UT3. In this way, in the composite image 20 of FIG. 6, areas 14, 15, and 19 are black, and areas 16, 17, and
becomes white, and the second frame can be displayed. Note that the information 36 and the information 46 in FIG. 13 are essentially the same, which clearly shows that the same results can be obtained in the three specific embodiments described above.

以上は、非常に簡単な例を用いて本発明を説明したが、
原画像の色数、コマ数および動因形の重なり具合などは
任意のものを対象とするができることは容易に類推でき
る。その場合は上記した具体例のイメージメモリ、テー
ブルメモリの使用態様とは異なる可能性があるが、容易
に実現できるため省略する。さらに複合画像を作る際に
各原画像が図形発生器の直接出力としても同様の処理が
可能であることは言うまでもない。また、以上の説明で
用いた各情報の表現方法は説明に適するようにとったも
ので6D計算機等の上に具体化するための手段は任意の
ものを考えることができる。
The present invention has been explained above using a very simple example, but
It can be easily inferred that the number of colors of the original image, the number of frames, the degree of overlapping of motive forms, etc. can be arbitrary. In that case, the manner in which the image memory and table memory are used in the above-described specific example may be different, but this will be omitted because it can be easily realized. Furthermore, when creating a composite image, it goes without saying that similar processing is possible even if each original image is directly output from a graphic generator. Furthermore, the method of expressing each information used in the above explanation was chosen to suit the explanation, and any means can be used to embody it on a 6D computer or the like.

(6) 効果の説明 以上説明したように、本発明によれば、任意の複数の原
画像からGLUT動画を実行するために必要なデータを
計算機により自動的に生成することができ、自動化によ
って、作業量の軽減と従来不可能であったような複雑な
動画を対象とすることが可能となるという利点がある。
(6) Description of Effects As explained above, according to the present invention, it is possible to automatically generate data necessary for executing a GLUT video from any plurality of original images by a computer, and through automation, This has the advantage of reducing the amount of work and making it possible to target complex videos that were previously impossible.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図はCLUT動画を実行するグラフィックディスプ
レイのシステム構成例、第2図はCLUT動画を説明す
名園で、複合画像の例、第3図は、第2図を動きとして
表示するためのCLUTデータの例、第4図は、第2、
第3図を用いて表示され2CL、UT動画の例、第5図
は、本発明の詳細な説明するための原画像の例、第6図
は、第5図の3枚の原画像を重ねた絵であり、かつまた
、複合画像を説明する図、第7図は原画像をラベル画像
に変換する情報の例、第8図は第5図の原画像のラベル
画像およびカラー値ラベル対応情報、第9図は第5図の
例に対する複合画像を作成する場合に用いるラベル組合
せ情報、第10図は順次複合画像を更新する手段におけ
る複合画像とラベル組合せ情報の例、第11図は第5図
の動画を第6図の複合画像で表示するためのCLUTデ
ータの情報、第12図は第1図図示のホスト・コンピュ
ータの構成例、第13図は第11図に対応する情報、第
14図はCLUT書替用書替−タを作成する一実施例処
理70−チャートを示す。 図中、1はメインプロセッサ、2は画像メモリ、3はC
LUT、4はCRT、37は2次記憶、38はホストコ
ンピュータ、41はメモリエリアを表わす。 特許出願人 日本電信電話公社 代理人弁理士 蘇 1) 寛 (C) #5[21 第 61!1 第7図 第 8 図 第9図 躬111fJ
Figure 1 is an example of a system configuration of a graphic display that executes a CLUT video, Figure 2 is an example of a composite image that explains a CLUT video, and Figure 3 is CLUT data for displaying Figure 2 as a motion. For example, Figure 4 shows the second,
Fig. 3 is an example of a 2CL and UT video displayed, Fig. 5 is an example of an original image for explaining the present invention in detail, and Fig. 6 is an example of the three original images shown in Fig. 5 superimposed. Figure 7 is an example of information for converting an original image into a label image, and Figure 8 is a diagram showing the label image and color value label correspondence information of the original image in Figure 5. , FIG. 9 shows label combination information used when creating a composite image for the example shown in FIG. 5, FIG. CLUT data information for displaying the moving image shown in the figure in the composite image shown in Fig. 6, Fig. 12 is an example of the configuration of the host computer shown in Fig. 1, Fig. 13 is information corresponding to Fig. 11, The figure shows an example process 70-chart for creating a rewrite data for CLUT rewriting. In the figure, 1 is the main processor, 2 is the image memory, and 3 is the C
4 is a CRT, 37 is a secondary storage, 38 is a host computer, and 41 is a memory area. Patent Applicant Nippon Telegraph and Telephone Public Corporation Patent Attorney Su 1) Guang (C) #5 [21 No. 61!1 Figure 7 Figure 8 Figure 9 111fJ

Claims (1)

【特許請求の範囲】 (1) カラールックアップテーブル動画(以下刃5 
LI U Ip動画と呼ぶ)に対応するカラールックア
ップテーブル(以下、CLUTと略す)の書き替えによ
って動画表示するシステムにおいて、複数の時系列画面
から成る動画像データに対し、これらを画面と垂直な方
向に重ね合わせたものを画像平面に写像し、1個のカラ
ーLUT動画用の画像データ(以下、複合画像という)
を前記画像平面上に形成するために、写像される各点の
色の時系列変化を調べ、該色の時系列変化が同じである
点の集合を1個の領域と判定し、全画面を該領域で区別
・分割する手段により前記複合画像を生成し、前記色の
時系列変化を該領域と対応づける手段により、CLUT
の書き替え用のデータ(CLUTデータという)を生成
することを特徴とするカラールックアップテーブル動画
用のデータ生成処理方法。 (2) 上記複合画像とCLUTデータとを生成する方
法において、前記色の時系列変化を判定するに当って、 (CL)複数の画面となるそれぞれの原画像データから
、それぞれの原画像に対して、同一の色情報の画素は同
じ領域であると判断し、個々の領域にはラベルと呼ぶ番
号を付け、該ラベルを該領域の画素の画素値とする処理
によって、ラベル画像を得る(α)の手段と、 (b) 上記複数のラベル画像を画素単位に走査して、
同一の座標にある画素についてラベルの組合せ方を調べ
、同一のラベルの組合せ方の座標の画素は同じ領域でお
ると判断し、個々の領域に番号を付け、該番号を該領域
の画素値とする前記複合画像を得る(b)の手段と、 (C) 上記<b)の手段のラベルの組合せ方を、前記
複合画像の各画素値に対する(、’LUTの変更デ−夕
に変換し、前記CLUTデータを得る(C)の手段、と
を組み合わせ用いることにより前記色領域内の時系列変
化を判定することを特徴とする特許請求の範囲第(1)
項記載のカラールックアンプテーブル動画用のデータ生
成処理方法。 (8) 上記複合画像とCLUTデータとを生成する方
法において、前記色の時系列変化を判定するに当って、 (cL) 複数の画面となるそれぞれの原画像データか
ら、それぞれの原画像に対して、同一の色情報の画素は
同じ領域であると判断し、個々の領域にはラベルと呼ぶ
番号を付け、該ラベルを該領域の画素の画素値とする処
理によって、ラベル画像を得る(α)の手段と、 (b) 第1の複合画像は第1のラベル画像であり、最
終2の複合画像は、第(K−1)の複合画像と第にのラ
ベル画像とを用いて第にの複合画像を得る手順を全部の
ラベル画像についてくり返し行うことにより生成するも
のであり、かつ第にの複合画像を得る手順では、第(K
−1)の複合画像の画素値とiKのラベル画像の画素値
の組合せ方を調べ、同一の組合せ方は同一の領域である
と判断し、個々の領域に新たに番号を付け、該番号を該
領域の画素値とする第にの複合画像を得、かつ第にの複
合画像の画素値がどのラベルの組合せであるかを判定し
、記憶する手段を用いる前記複合画像を得る(b)の手
段と、 (C)上記(b)の手段のラベルの組合せ方を、前記複
合画像の各画素値に対するCLUTの変更データに変換
し、前記CI、 U Tデータを得る(c)の手段、と
を組合わせ用いることにより前記色領域内の時系列変化
を判定することを特徴とする特許請求の範囲第(1)項
記載のカラールックアップテーブル動画用のデータ生成
処理方法。
[Claims] (1) Color lookup table video (hereinafter referred to as blade 5)
In a system that displays a video by rewriting a color lookup table (hereinafter abbreviated as CLUT) corresponding to a LI The superimposed images are mapped onto an image plane to create image data for one color LUT video (hereinafter referred to as a composite image).
In order to form on the image plane, the time-series change in color of each point to be mapped is examined, a set of points with the same color change over time is determined to be one region, and the entire screen is The composite image is generated by the means for distinguishing and dividing by the area, and the CLUT is
1. A data generation processing method for a color lookup table video, characterized by generating data for rewriting (referred to as CLUT data). (2) In the method for generating the above-mentioned composite image and CLUT data, in determining the time-series change in color, (CL) Then, it is determined that pixels with the same color information are in the same area, a number called a label is assigned to each area, and the label image is obtained by processing the label as the pixel value of the pixel in the area (α ); (b) scanning the plurality of label images pixel by pixel;
Examine how labels are combined for pixels at the same coordinates, determine that pixels whose coordinates have the same label combinations are in the same area, number each area, and use this number as the pixel value of that area. (b) for obtaining the composite image; and (C) converting the label combination of the means <b) into change data of (,'LUT) for each pixel value of the composite image; Claim (1) characterized in that a time-series change in the color region is determined by using a combination of the means (C) for obtaining the CLUT data.
Data generation processing method for color look amplifier table video described in . (8) In the method of generating the above-mentioned composite image and CLUT data, in determining the time-series change in color, (cL) For each original image from each original image data of multiple screens, Then, it is determined that pixels with the same color information are in the same area, a number called a label is assigned to each area, and the label image is obtained by processing the label as the pixel value of the pixel in the area (α ), and (b) the first composite image is the first label image, and the final second composite image is a first composite image using the (K-1)th composite image and the first label image. It is generated by repeating the procedure for obtaining the first composite image for all label images, and in the procedure for obtaining the first composite image, the
-1) The method of combining the pixel values of the composite image and the pixel values of the iK label image is examined, and it is determined that the same combination is the same region, and a new number is assigned to each region. Obtaining the composite image using means for obtaining a first composite image with the pixel values of the area as the pixel values, and determining and storing which combination of labels corresponds to the pixel values of the first composite image; (C) the means of (c) for converting the combination of labels of the means of (b) into CLUT change data for each pixel value of the composite image to obtain the CI, UT data; 2. A data generation processing method for a color look-up table moving image according to claim 1, characterized in that a time-series change in the color region is determined by using a combination of the following.
JP58219058A 1983-11-21 1983-11-21 Data generation processing for color lookup table animation Pending JPS60111291A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58219058A JPS60111291A (en) 1983-11-21 1983-11-21 Data generation processing for color lookup table animation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58219058A JPS60111291A (en) 1983-11-21 1983-11-21 Data generation processing for color lookup table animation

Publications (1)

Publication Number Publication Date
JPS60111291A true JPS60111291A (en) 1985-06-17

Family

ID=16729604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58219058A Pending JPS60111291A (en) 1983-11-21 1983-11-21 Data generation processing for color lookup table animation

Country Status (1)

Country Link
JP (1) JPS60111291A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0367297A (en) * 1989-05-22 1991-03-22 Dubner Computer Syst Inc Image display

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0367297A (en) * 1989-05-22 1991-03-22 Dubner Computer Syst Inc Image display

Similar Documents

Publication Publication Date Title
US4225861A (en) Method and means for texture display in raster scanned color graphic
US5805135A (en) Apparatus and method for producing picture data based on two-dimensional and three dimensional picture data producing instructions
JPS61148488A (en) Display controller
JPS61279982A (en) Video image generation method and apparatus
CN109636885B (en) Sequential frame animation production method and system for H5 page
JPS5912176B2 (en) Cursor circuit for digital television display
JPS6042943B2 (en) display device
JPS60111291A (en) Data generation processing for color lookup table animation
JPH0767136B2 (en) Image processing device
KR970022847A (en) Span Rendering Method and Device for Graphics
JP2898482B2 (en) Computer game equipment
JP3272463B2 (en) Image forming apparatus and method of using the same
JPS6242280A (en) Graphic display device
JPS59195134A (en) Thermograph device
JP3015227B2 (en) Image processing device
JPS6063677A (en) Storage system for image information
JPS59184963A (en) Processor for three dimensional picture data
JP2781924B2 (en) Superimpose device
JPH08123951A (en) Picture memory state management device
JPH09319893A (en) Method and device for image display
JPS623295A (en) Display image compensation
JPS63136079A (en) Bit map display device
JPH07182534A (en) Three-dimensional computer graphics system
JPS60135992A (en) Image display unit
JPS63141462A (en) Scan converter