JPH0546757B2 - - Google Patents

Info

Publication number
JPH0546757B2
JPH0546757B2 JP59253656A JP25365684A JPH0546757B2 JP H0546757 B2 JPH0546757 B2 JP H0546757B2 JP 59253656 A JP59253656 A JP 59253656A JP 25365684 A JP25365684 A JP 25365684A JP H0546757 B2 JPH0546757 B2 JP H0546757B2
Authority
JP
Japan
Prior art keywords
code
data
color
image
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP59253656A
Other languages
Japanese (ja)
Other versions
JPS61131989A (en
Inventor
Takahiro Fujimori
Hirosuke Komatsu
Masaichi Ishibashi
Mutsumi Kimura
Shinsuke Koyama
Junko Kuroiwa
Tadashi Fujiwara
Osamu Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP59253656A priority Critical patent/JPS61131989A/en
Publication of JPS61131989A publication Critical patent/JPS61131989A/en
Publication of JPH0546757B2 publication Critical patent/JPH0546757B2/ja
Granted legal-status Critical Current

Links

Description

【発明の詳細な説明】[Detailed description of the invention]

〔産業上の利用分野〕 本発明は、1枚の画像を幾何学的画像領域の集
合としてみなして各画像領域を幾何学図形として
表す幾何コードおよびその属性コードの時系列コ
ードからなるビデオテツクスコードを取り扱う画
像作成装置に適用されるビデオテツクスコードデ
ータ管理方式に関する。 〔従来の技術〕 近年、情報化社会の発展に伴い各種画像情報を
伝送するための所謂ニユーメデイア・サービスと
して電話回線や無線回線を利用して各種画像情報
を伝送するビデオテツクスやテレテツクス等のデ
ジタル画像情報伝送システムの開発・実用化が各
国において進められており、日本のキヤプテン・
システムに基づいたCAPTAIN PLPS方式、カ
ナダのテリドンから派生して北米標準方式となつ
たNAPLPS方式、イギリスのプレステルに基づ
いたCEPT PLPS方式の三つが国際標準方式と
して採用されている。 ところで、NAPLPS(テリドン)方式において
採用されている1枚の画像を幾何学的画像領域の
集合としてみなして各画像領域を幾何学図形とし
て表す幾何コードおよびその属性コードの時系列
コードからなるビデオテツクスコードを伝送する
方式は、画像情報をモザイク絵素に対応させたり
キヤラクタコードにて示す他の方式と比較して、
伝送効率が極めて高い方式であるとして、高く評
価されている。 上記NAPLPS方式では、幾何学図形による作
図命令用の基本コマンドとして5種類の幾何コー
ドすなわちPID(Picutre Description
Instructin)コード〔POINT〕,〔LINE〕,
〔ARC〕,〔RECTANGLE〕,〔POLYGON〕が定
義されているとともに、上記幾何コードにより作
図される図形の線の太さや色相、諧調等を指定す
るための属性コード(ペルサイズ、色、テクスチ
ヤ等)、さらに上記幾何コードにより作図される
図形の位置等を指定するためのオペランド(座標
値等)が定義されている。上記幾何コード
〔POINT〕では第8図Aに示すように表示画面
内の上記オペランドにより指示される任意の座標
位置x0,y0に作図開始点をセツトあるいは点P0
プロツトし、また、上記幾何コード〔LINE〕で
は第8図Bに示すように上記オペランドにより指
示される任意の座標位置の2点P1,P2間を結ぶ
線分を描く。さらに、上記幾何コード〔ARC〕
では第8図Cに示すように表示画面内の上記オペ
ランドにより指示される表示画面内の任意の座標
位置の3点P1,P2,P3間を結ぶ円弧を描いたり、
あるいは、同図中に破線にて示すように上記円弧
の両端の2点P1,P3間を結ぶ弦を描く。また、
上記幾何コード〔RECTANGLE〕では第8図D
に示すように上記オペランドにより指示される任
意の座標位置の2点P1,P2を対角線上の頂点と
する四角形の輪郭を描く。さらに、上記幾何コー
ド〔POLYGON〕では第8図Eに示すように上
記オペランドにより指示される任意の座標位置の
多点P1,P2…Pnを結ぶ多角形の輪郭を描く。ま
た、上記各幾何コード〔ARC〕,
〔RECTANGLE〕,〔POLYGON〕では、描いた
図形の輪郭内を属性コードにて指定される色やテ
クスチヤで塗り潰すこともある。 そして、上記NAPLPS方式では、例えば第1
表に示すような順序の時系列コードデータが与え
られたとすると、順序1にて指定されたペルサイ
ズ1、順序2にて指定された色1、順序3にて指
定されたテクスチヤ1の属性を持つて、順序4の
幾何コード〔RECTANGLE〕で指示される四角
形の輪郭が順序5,6のオペランド1,2により
指示される座標位置に描かれ、続く、順序7,8
のオペランド3,4により指示される座標位置に
も四角形の輪郭が描かれる。次に、順序9にて指
定される色2と上記順序1にて指定されたペルサ
イズ1および上記順序3にて指定されたテクスチ
ヤ1の属性を持つて、順序10の幾何コード
〔POLYGON〕で指示される五角形が順序11,
12,13,14,15のオペランド1,2,3,4,5
により指示される座標位置に描かれる。
[Industrial Application Field] The present invention provides a video text code consisting of a geometric code that regards one image as a set of geometric image regions and represents each image region as a geometric figure, and a time-series code of its attribute code. The present invention relates to a video text code data management method applied to an image creation device that handles. [Prior art] In recent years, with the development of the information society, digital services such as videotex and teletex, which use telephone lines and wireless lines to transmit various image information, have become so-called new media services for transmitting various image information. Development and practical application of image information transmission systems are progressing in various countries, and Japanese captains and
Three systems have been adopted as international standards: the CAPTAIN PLPS system, which is based on the PLPS system, the NAPLPS system, which is derived from Canada's Theridon and has become the North American standard system, and the CEPT PLPS system, which is based on the UK's Prestel. By the way, video text, which is adopted in the NAPLPS (Teridon) system, is composed of a geometric code that represents each image area as a geometric figure and a time-series code of its attribute code, in which one image is regarded as a set of geometric image areas. The method of transmitting the code is different from other methods in which image information corresponds to mosaic picture elements or is expressed using character codes.
It is highly regarded as a method with extremely high transmission efficiency. In the above NAPLPS method, five types of geometric codes, namely PID (Picutre Description
Instructin) code [POINT], [LINE],
[ARC], [RECTANGLE], and [POLYGON] are defined, as well as attribute codes (pel size, color, texture, etc.) for specifying the line thickness, hue, tone, etc. of the figure drawn using the above geometric code. , furthermore, operands (coordinate values, etc.) are defined for specifying the position of the figure to be drawn using the above-mentioned geometric code. The above geometric code [POINT] sets the plotting start point or plots the point P 0 at any coordinate position x 0 , y 0 specified by the above operand on the display screen as shown in FIG. 8A, and The geometric code [LINE] draws a line segment connecting two points P 1 and P 2 at arbitrary coordinate positions indicated by the operands as shown in FIG. 8B. Furthermore, the above geometric code [ARC]
Now, as shown in Fig. 8C, draw an arc connecting three points P 1 , P 2 , and P 3 at arbitrary coordinate positions on the display screen specified by the above operand,
Alternatively, as shown by the broken line in the figure, a chord is drawn connecting the two points P 1 and P 3 at both ends of the arc. Also,
In the above geometric code [RECTANGLE], Figure 8D
As shown in the figure, the outline of a rectangle whose diagonal vertices are two points P 1 and P 2 at arbitrary coordinate positions indicated by the above operand is drawn. Furthermore, the geometric code [POLYGON] draws the outline of a polygon connecting multiple points P 1 , P 2 . . . Pn at arbitrary coordinate positions indicated by the operands, as shown in FIG. 8E. In addition, each of the above geometric codes [ARC],
[RECTANGLE] and [POLYGON] may fill the outline of the drawn figure with the color or texture specified by the attribute code. In the above NAPLPS method, for example, the first
Assuming that the time series code data in the order shown in the table is given, it has the attributes of pel size 1 specified in order 1, color 1 specified in order 2, and texture 1 specified in order 3. Then, the outline of the rectangle specified by the geometric code [RECTANGLE] of order 4 is drawn at the coordinate position specified by operands 1 and 2 of orders 5 and 6, and then
A rectangular outline is also drawn at the coordinate position indicated by operands 3 and 4. Next, specify the color 2 specified in order 9, the pel size 1 specified in order 1 above, and the texture 1 specified in order 3 above with the geometric code [POLYGON] in order 10. The pentagons are in order 11,
12, 13, 14, 15 operands 1, 2, 3, 4, 5
is drawn at the coordinate position indicated by .

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

上述のように時系列のビデオテツクスコードデ
ータを画像情報として伝送する上記NAPLPS方
式を採用したデジタル画像情報伝送システムで
は、伝送する画像情報量を大量に削減することが
可能で高い伝送効率で画像伝送を行うことがで
き、また、上記ビデオテツクスコードデータを用
いて作画した画像は、図形の上に図形を重ねて描
く等の多彩な表現ができるのであるが、幾何コー
ドが他の属性コードやオペランドのデータに依存
する情報となつているので、上記幾何コードを与
える順序を入れ換えたり、属性コードを変更する
のに極めて複雑な操作が必要で、実際に伝送する
1枚の画像を示す画像情報を作成するのに、多大
な手間と時間を必要としていた。 そこで、本発明は、上述の如き問題点に鑑み、
画像の各領域を幾何学図形として表す幾何コード
およびその属性コードの時系列コードからなるビ
デオテツクスコードを取り扱う画像作成装置にお
いて、1つの幾何コードの描画に必要な属性コー
ドの変更や描画の順序すなわち幾何コードの順序
の入れ換え等のデータ修正作業を簡単に行い得る
ようにしたビデオテツクスコードデータ管理方式
を提供することを目的とするものである。 〔問題点を解決するための手段〕 本発明に係るビデオテツクスコードデータ管理
方式は、上述の問題点を解決するために、画像の
各領域を幾何学図形として表す幾何コードおよび
その属性コードの時系列コードからなるビデオテ
ツクスコードを取り扱う画像作成装置において、
上記幾何コードおよび属性コードの送出順序を管
理するオーダテーブルと上記属性コードを管理す
る属性テーブルとを個別に設け、各テーブル上で
各データの修正を行うようにしたことを特徴とす
る。 〔作用〕 本発明に係るビデオテツクスコードデータ管理
方式では、ビデオテツクスコードデータ管理用に
個別に設けた幾何コードおよび属性コードの送出
順序を管理するオーダテーブルと上記属性コード
を管理する属性テーブル上で各データの修正を行
うことによつて、自由度を高めるとともに高速処
理を実現している。 〔実施例〕 以下、本発明に係るビデオテツクスコードデー
タ管理方式の一実施例について、図面に従い詳細
に説明する。 第1図ないし第7図に示す実施例は、本発明を
NAPLPS方式のデジタル画像情報伝送システム
における画像入力用のビデオテツクス画像作成装
置に適用したもので、この実施例の装置は、伝送
するカラー画像を図示しないカラービデオカメラ
にて撮像して得られるRGB色信号あるいは標準
テレビジヨン方式のカラーテレビジヨン信号を入
力として、この入力にて示される一フレーム分の
カラー画像を幾何学的図形領域の集合として取り
扱い、上記カラー画像を幾何学図形として表す幾
何コードおよびその属性コードの時系列コードか
らなるビデオテツクスコードデータをマイクロコ
ンピユータ100にて自動的に形成してデータバ
スを通じて出力するようにしたものである。 この実施例では、取り扱うデータすなわち上記
幾何コードや属性コード等を第1図に模式的に示
すような構成の管理方式によつて管理するように
なつている。 すなわち、この実施例における管理方式は、ビ
デオテツクスコードを上記ビデオテツクスコード
スクラツチバツフア101を介して取り扱うよう
に構成されており、上述のようにして形成される
ビデオテツクスコードを一時的に蓄えるビデオテ
ツクスコードスクラツチバツフア101と、上記
ビデオテツクスコードスクラツチバツフア101
に蓄えた時系列のビデオテツクスコードを解析し
て管理し易い形態に分解するコードアナライザ1
02と、上記コードアナライザ102によつて上
記ビデオテツクスコードを解析するのに、時系列
上の現時点での属性コードデータを保持する属性
バツフア103と、上記ビデオテツクスコードの
幾何コード部分の順序および後述する属性テーブ
ル106とデータテーブル107のエントリへの
ポインタおよび作画状態を示す各種フラツグを管
理するオーダテーブル105と、上記属性コード
を管理する属性コード106と、上記幾何コード
の不定長オペランドを管理するデータテーブル1
07と、上記オーダテーブル105、属性テーブ
ル106およびデータテーブル107にて与えら
れるデータから上記ビデオテツクスコードスクラ
ツチバツフア101にビデオテツクスコードを生
成するコードジエネレータ104とからなる。 上記オーダテーブル105は、第2図Aにその
構成を模式的に示てあるように、描画コードを示
す幾何コード欄105Aと、上記属性テーブル1
06へのポインタを保持する属性ポインタ欄10
5Bと、上記データテーブル107へのポインタ
を保持するデータポインタ欄105Cと、作画に
必要な各種フラツグを示すフラツグ欄105Dと
からなり、上記ビデオテツクスコードの幾何コー
ド部分の順序で各種データがエントリされるよう
になつている。また、上記属性テーブル106
は、第2B図にその構成を模式的に示てあるよう
に、描画の筆の太さを示すペルサイズ欄106A
と、色彩を示す色データ欄106Bと、模様を示
すテクスチヤ欄106Cとからなり、上記オーダ
テーブル105の属性ポインタ欄105Bに示さ
れているポインタの順序で各種データがエントリ
されるようになつている。さらに、上記データテ
ーブル107は、第2図Cにその構成を模式的に
示てあるように、エントリされデータのバイト数
を示すデータ長欄107Aと、不定長の幾何コー
ドのためのオペランド群がエントリされるオペラ
ンド欄107Bとからなり、上記オーダテーブル
105のデータポインタ欄105Cに示されてい
るポインタの順序で各種データがエントリされる
ようになつている。 この実施例において、既成のビデオテツクスコ
ードデータを取り扱う場合に、上記ビデオテツク
スコードは上記ビデオテツクスコードスクラツチ
バツフア101に一時的に蓄えられ、このビデオ
テツクスコードスクラツチバツフア101に蓄え
た時系列のビデオテツクスコードデータを上記コ
ードアナライザ102によつて順次有意な単位に
分解し、それが単にペルサイズ、色あるいはテク
スチヤ等の属性コードの変更であれば上記属性バ
ツフア103の内容を変更する。また、上記コー
ドアナライザ102により分解した結果が描画の
幾何コードであれば、その幾何コードを上記オー
ダテーブル105の幾何コード欄105Aに登録
し、このコードのオペランド部分はそのデータ長
を求めて上記データテーブル107のデータ長欄
107Aとオペランド欄107Bに登録し、ま
た、このエントリ番号を上記オーダテーブル10
5のデータポインタ欄105Cに登録する。さら
に、この時、上記属性バツフア103内のデータ
によつて上記属性テーブル106内に1つのエン
トリを作成して、このエントリ番号を上記オーダ
テーブル105の属性ポインタ欄105Bに登録
する。上記一連の登録動作を完了したならば、上
記コードアナライザ102は、再び上記ビデオテ
ツクスコードスクラツチバツフア101の内容を
分解して、上述した一連の登録動作を繰り返し行
う。ここで、上記一連の登録動作において、上記
属性バツフア103の内容が変更されていないと
きには、上記属性テーブル106に新しいエント
リを作成することなく、以前に登録した同一の属
性を示しているエントリ番号を上記オーダテーブ
ル105の属性ポインタ欄105Bに登録するよ
うになつている。 このようにして上記各テーブル105,10
6,107に登録した各データから、上記オーダ
テーブル105にエントリされた順序で時系列の
ビデオテツクスコードデータを生成する場合に
は、初めに上記オーダテーブル105の属性ポイ
ンタ欄105Bによて示される属性テーブル10
6の内容によつてペルサイズ、色、テクスチヤ等
を変更する属性コードを上記ビデオテツクスコー
ドスクラツチバツフア101に生成する。次に、
上記オーダテーブル105の幾何コード欄105
Aにて与えられる幾何コードを生成し、この幾何
コードに上記データポインタ欄105Cによつて
示される上記データテーブル107のエントリの
オペランドデータを付加する。この一連の動作を
繰り返し行うことによつて、上記登録時と同一の
画像を描画するビデオテツクスコードデータを生
成する。この時、直前に生成した属性コードが登
録されている上記オーダテーブル105の幾何コ
ード欄105Aの内容に対応する属性ポインタ欄
105Bの内容が今回生成する属性コードが登録
されている上記オーダテーブル105の幾何コー
ド欄105Aの内容に対応する属性ポインタ欄1
05Bの内容と同一であれば、属性を変更するコ
ードを生成する必要がない。また、異なつていた
場合でも、属性テーブル106ないの2つのエン
トリの内容の一部が同一であれば、それについて
の属性変更コードの生成を省略して、より効率的
なコードを生成することができる。 上述の如き構成のビデオテツクスコードデータ
管理方式を採用したこの実施例のビデオテツクス
画像作成装置全体の構成を示す第3図のブロツク
図において、NTSC方式のカラーテレビジヨン信
号が第1の信号入力端子1を介してNTSC/
RGBコンバータ5と同期分離回路6に供給され、
またRGB色信号は第2の信号入力端子2を介し
て入力選択回路10に供給されるようになつてい
る。 上記入力選択回路10は、上記第1の信号入力
端子1から上記NTSC/RGBコンバータ5を介
して供給される上記カラーテレビジヨン信号を変
換したRGB色信号あるいは上記第2の信号入力
端子2から供給される上記RGB色信号を選択し
て、一方のRGB色信号をアナログ/デジタル
(A/D)コンバータ20に供給する。 また、上記同期分離回路6は、上記第1の信号
入力端子1から供給されるカラーテレビジヨン信
号中の同期信号を分離して、その同期信号を同期
切換回路15に供給する。この同期切換回路15
は、上記第2の信号入力端子2に供給される
RGB色信号に対応する同期信号が第3の信号入
力端子3から供給されており、上記A/Dコンバ
ータ20に供給するRGB色信号に対応する同期
信号をアドレスデータ発生ブロツク30に供給す
るように、上記入力選択回路10と連動した選択
動作を行うようになつている。上記アドレスデー
タ発生ブロツク30は、PLL発振器31とカウ
ンタ回路32とから成り、上記PLL発振器31
の発振出力パルスを上記カウンタ回路32にて計
数することにより上記同期信号に同期したアドレ
スデータを形成し、このアドレスデータをアドレ
ス選択回路35に供給する。 上記アドレス選択回路35は、マイクロコンピ
ユータ100のアドレスバスを介して供給される
アドレスデータと上記アドレスデータ発生ブロツ
ク30から供給されるアドレスデータを選択し、
一方のアドレスデータを第1ないし第4のフレー
ムメモリ41,42,43,44、カーソルメモ
リ45およびキヤラクタジエネレータ46に供給
する。また、上記第1ないし第4のフレームメモ
リ41,42,43,44、カーソルメモリ45
およびキヤラクタジエネレータ46は、上記マイ
クロコンピユータ100のデータバスを通じて各
種データの授受が行われるようになつている。 上記第1フレームメモリ41は、原画データを
記憶するためのメモリであり、上記A/Dコンバ
ータ20にてRGB色信号をデジタル化した入力
カラー画像データが上記アドレスデータ発生ブロ
ツク30からのアドレスデータに基づいてRGB
の各色毎に書き込まれる。この第1フレームメモ
リ41に記憶された入力カラー画像データは、い
つでも任意に読み出してデジタル/アナログD/
Aコンバータ61によりアナログのRGB色信号
に変換して第1の出力選択回路71を介して第1
のRGBモニター装置81に供給してカラー原画
像のモニターができるようになつている。 また、上記第2ないし第4のフレームメモリ4
2,43,44は、上記第1のフレームメモリ4
1にて記憶した原画データについて、色処理や冗
長データの削減処理等の各種データ処理用の汎用
メモリとして用いられるもので、後述する各種処
理過程における各種画像データが上記データバス
を通じて書込み/読出しされる。上記第2のフレ
ームメモリ42に記憶されるデータ処理済みの画
像データは、カラーテーブルメモリ52にて色デ
ータに変換してD/Aコンバータ63を介してア
ナログのRGB色信号に戻して第1及び第2の出
力選択回路71,72に供給され、上記データ処
理済みのカラー画像を第1あるいは第2のRGB
モニター装置81,82にてモニターできるよう
になつている。また、上記第3のフレームメモリ
43に記憶されるデータ処理済みの画像データ
は、カラーテーブルメモリ53にて色データに変
換してD/Aコンバータ64を介してアナログの
RGB色信号に戻して上記第2の出力選択回路7
2に供給され、上記データ処理済みのカラー画像
が上記第2のRGBモニター装置82にてモニタ
ーできるようになつている。さらに、上記第4の
フレームメモリ44は、上記第1のフレームメモ
リ41に記憶した原画データを上記D/Aコンバ
ータ61にてアナログのRGB色信号に戻した後
にRGB/Yコンバータ68にて輝度Y信号に変
換してさらにA/Dコンバータ69を介してデジ
タル化することによつて得られる原画の白黒画像
データが書き込まれる。この白黒画像データにつ
いて冗長データの削減処理等を行つた後の白黒画
像データは、カラーテーブルメモリ53とD/A
コンバータ63を介してアナログのRGB色信号
に戻されて信号合成回路70に供給されるように
なつている。 上記信号合成回路70には、上記カーソルメモ
リ45からカーソル表示信号が供給されていると
ともに上記キヤラクタジエネレータ46からシス
テムの各種制御コマンド表示用の文字データがカ
ラーテーブルメモリ53にてアナログのRGB色
信号に変換して供給されており、上記第4のフレ
ームメモリ44に記憶されている画像データによ
る画像と上記カーソルメモリ45からのカーソル
表示信号によるカーソル画像と上記キヤラクタジ
エネレータ46からの文字データによる画像とを
重ね合わせたRGB色信号を合成して出力する。
この信号合成回路70にて得られるRGB色信号
による画像は、上記第2のRGBモニター装置8
2にてモニターできるとともに、上記RGB色信
号をRGB/Yコンバータ80にて輝度Y信号に
変換して白黒モニター装置83でモニターできる
ようになつている。 さらに、この実施例において、上記マイクロコ
ンピユータ100は、この装置全体の動作制御を
行うシステムコントローラとして働くもので、そ
のデータバスおよびアドレスバスにはROMや
RAM等の補助メモリ90やフロツピーデイスク
コントローラ91、さらに入出力インターフエー
ス回路93および高速演算処理回路200等が接
続されている。なお、上記入出力インターフエー
ス回路93には、マニアルエデイツト処理の際に
各種データを入力するためのタブレツト94およ
びそのモニター装置95が接続されている。 そして、この実施例の装置では、第4図のフロ
ーチヤートに示す如き手順で画像処理を行い、上
記第1のフレームメモリ41に供給される入力カ
ラー画像データを自動的に幾何学コマンド列に変
換してデータバスを通じて出力するようになつて
いる。 すなわち、この実施例において入力カラー画像
データは、先ず第1のフレームメモリ41に書き
込まれて、原画データとして記憶される。ここ
で、上記入力カラー画像データは、入力選択回路
10および同期切換回路15を切り換えることに
より、NTSCカラーテレビジヨン信号あるいは
RGB色信号のどちらでも選択することができる。
また、上記第1のフレームメモリ41に記憶され
た原画データは、RGB/Yコンバータ68によ
り白黒画像データに変換して第4のフレームメモ
リ44にも記憶される。 次に、上記第1および第4のフレームメモリ4
1,44に記憶された画像データに基づいて入力
カラー画像データの色処理を行い、さらに冗長デ
ータの削減処理を行つて、原画像の特徴を失うこ
とな最終的に幾何学コマンド列に変換するのに適
した画像データを自動的に形成する。 ここで、上記色処理では、上記第1のフレーム
メモリ41に記憶される入力カラー画像データに
て示される原カラー画像中で頻度の高い上位n色
を自動的に選択して、画素に上記n色のいずれか
を割り当てる処理を第5図のフローチヤートに示
す如き手順で行う。 すなわち、この色処理では、上記第1のフレー
ムメモリ41に記憶された入力カラー画像データ
について、上記高速演算処理回路200によつ
て、先ず各色データのヒストグラムを作成し、こ
のヒストグラムの上位n色を自動的に選択する。
次に、上記第4のフレームメモリ44に記憶され
ている白黒画像データにて示される白黒画像中の
同一輝度にて示される各画像領域に対して、上記
原カラー画像の色に最も近いn色の色を割り当て
て、各画素ごとに偏差が最小となるようにカラー
テーブルデータを作成する。このように上記高速
演算処理回路200により形成したカラーテーブ
ルデータは、各カラーテーブルメモリ51,5
2,53に記憶される。そして、上記各画像領域
に上記n色の色が割り当てられた色処理済みの画
像データが上記第2フレームメモリ42に書き込
まれる。 また、この実施例では、上述の如く上記第1の
フレームメモリ41に記憶された入力カラー画像
データについて、各色データのヒストグラムの上
位n色を自動的に選択して各画像領域にn色の色
を割り当てる色処理において、上記入力カラー画
像データの各色データのヒストグラムを色相順に
複数に区分して、その面積の大きな上位n区分の
代表色を上記n色として選択して各画像領域に割
り当てるようになつている。すなわち、上記入力
カラー画像データの各色データとして赤R、緑
G、青Bがそれぞれ4ビツトで示される4096色か
ら16色を選択する場合に、上記入力カラー画像デ
ータにて示される原画像中に大きな面積を占める
背景部分があるようなときには、上記各色データ
のヒストグラムについて上位n色を直接選択する
と、上記大きな面積を占める背景部分の色相を正
確に表すように色指定が行われてしまい、必要な
画像の色指定が粗くなされてしまうことがあるの
で、この実施例では第6図に示すように各色デー
タのヒストグラムを色相順にN区分して上記n色
の選択を行う。ここで、R,G,Bそれぞれ4ビ
ツトで示される4096色から16色を選択する場合
に、例えばN=64として色指定を行うには、R,
G,Bの各上位2ビツトデータを有効データとし
てヒストグラムを形成して上位n区分を決定すれ
ば良く、このように各色データのヒストグラムを
色相順にN区分して上記n色の選択を行うように
して、上記区分Nを原画像の内容に応じて可変す
ることによつて、最適な色指定を行うことができ
る。 上記色処理を施したカラー画像は、上記第2の
フレームメモリ42に記憶されている画像データ
をアドレスデータとして、上記第1のフレームメ
モリ41から各色データを読み出すことにより上
記第1あるいは第2のRGBモニター装置81,
82にてモニターされる。 また、上記冗長データの削減処理では、次の幾
何学コマンドへの変換処理に不必要な冗長データ
を除去して情報量を少なくするように、上記第2
および第4のフレームメモリ42,44に記憶さ
れている各画像データについて、ノイズキヤンセ
ル処理、中間調除去処理や小領域削除処理等を行
う。 そして、幾何学コマンドへの変換処理では、上
述の如き各種処理済みのカラー画像データにて示
される画像について、各画像領域の1つ1つを幾
何学コマンドにて表現するコマンドデータを次の
手順により形成する。 この幾何学コマンドへの変換処理では、先ず各
画像領域の境界を上記高速演算処理回路200に
より追跡して、各頂点の位置座標を検出して、各
位置座標を幾何学図形の頂点位置であるとみなし
て、上述のPIDコードによる幾何学コマンドに変
換するとともに、必要な頂点位置座標値等を上述
のオペランドとして与える。なお、上記幾何学図
形の境界線の太さを示すペルサイズや色等の属性
データは、予め与えられる。 また、この実施例では、上述のようにして形成
した一連の幾何学コード列にて示されるカラー画
像について、新たなモチーフの加入あるいは、図
形の移動や削除、色の変更等を人為的に加えるマ
ニアルエデイツト処理が行い得るようになつてい
る。 このマニアルエデイツト処理は、上記第2の
RGBモニター装置82の画面上に設けられた透
明タブレツト94あるいは図示しない所謂マウス
を用いて次のように行われるようになつている。 すなわち、上記第2のRGBモニター装置82
の画面上には、マニアルエデイツト処理に必要な
各種制御コマンド表示用の文字情報画像が上記キ
ヤラクタジエネレータ46によつて与えられてい
るとともに、上記タブレツト94から入力される
位置情報を示すカーソル表示用のカーソル画像が
上記カーソルメモリ45にて与えられており、操
作者が上記タブレツト94に付属されているペン
を用いて画像の修正を行うと、その修正結果が実
時間で表示されるようになつている。このマニア
ルエデイツト処理では、第7図Aのフローチヤー
トに示すように、先ず、幾何コードの追加処理が
指定されたか否かを判定し、幾何コードの追加処
理が指定されているときには上記タブレツト94
の操作により入力される新たな図形を示す幾何コ
ードを追加する。また、上記判定の結果がNOす
なわち幾何コードの追加処理が指定されていない
とき、あるいは上記幾何コードの追加処理を行つ
たならば、次に画像の修正処理が指定されたか否
かを判定し、修正処理がが指定されているときに
は上記タブレツト94の操作により修正すべき図
形を指定して、この図形に必要な修正処理を施
す。入力される新たな図形を示す幾何コードを追
加する。さらに、上記判定の結果がNOすなわち
図形の修正処理が指定されていないとき、あるい
は上記図形の修正処理を行つたならば、次に作画
作業の終了であるか否かを判定して、終了モード
に移るか、あるいは再び上記幾何コードの追加処
理が指定されたか否かを判定に戻つて、上述の動
作を繰り返して行う。ここで、上記修正すべき図
形を指定する操作は、第7図Bのフローチヤート
に示す手順で行われる。すなわち、先ず上記第2
のRGBモニター装置82の画面上に修正すべき
図形が現れているか否かを判定して、上記画面上
に修正すべき図形あれば直ちに上記タブレツト9
4の操作によりその図形を指定する。また、上記
画面上に修正すべき図形が現れていないときに
は、中途画面の選択操作を上記画面上に修正すべ
き図形現れるまで行つてから、上記タブレツト9
4の操作によりその図形を指定する。そして、上
記タブレツト94の操作により修正すべき図形が
指定されたならば、上述の修正処理に移る。さら
に、上記中途画面の選択操作は、第7図Cのフロ
ーチヤートに示す手順で行われるようになつてい
る。すなわち、この中途画面の選択操作モードに
なると、上記マイクロコンピユータ100は、上
記第2のRGBモニター装置82の画面上に表示
する画像を一度クリアしてから、上記タブレツト
94の操作により、それまでに処理した順序で各
画像を順番に再現するように動作する。なお、上
記タブレツト94の操作による上記画像の指定
は、一画像ずつ順次に指定するばかりでなく、複
数単位で前あるいは後に進めるように指定するよ
うにいても良い。 この実施例のように、マニアルエデイツト処理
において、それまでに処理した順序で各画像を順
番に再現して任意の中途画面が選択できるように
しておけば、後から入力された画像によつて隠れ
てしまつているような図形についても、簡単な操
作でその図形を指定して必要な修正処理を施すこ
とができる。 〔発明の効果〕 上述の実施例の説明から明らかなように本発明
に係るビデオテツクスコードデータ管理方式で
は、ビデオテツクスコードデータ管理用に個別に
設けた幾何コードおよび属性コードの送出順序を
管理するオーダテーブルと上記属性コードを管理
する属性テーブル上で各データの修正を行うこと
によつて、自由度を高めるとともに高速処理を実
現することができ、所期の目的を十分に達成する
ことができる。
As mentioned above, in a digital image information transmission system that adopts the NAPLPS method, which transmits time-series videotext code data as image information, it is possible to greatly reduce the amount of image information to be transmitted, and it is possible to transmit images with high transmission efficiency. In addition, images created using the video text code data described above can be expressed in a variety of ways, such as drawing shapes on top of other shapes. Since the information depends on the data of It required a lot of effort and time to create it. Therefore, in view of the above-mentioned problems, the present invention has been made to
In an image creation device that handles a video text code consisting of a geometric code that represents each region of an image as a geometric figure and a time-series code of its attribute code, it is necessary to change the attribute code necessary to draw one geometric code and the drawing order. It is an object of the present invention to provide a video text code data management system that allows data modification operations such as rearranging the order of geometric codes to be easily performed. [Means for Solving the Problems] In order to solve the above-mentioned problems, the videotex code data management method according to the present invention uses a geometric code that represents each region of an image as a geometric figure and its attribute code. In an image creation device that handles video text codes consisting of series codes,
The present invention is characterized in that an order table for managing the sending order of the geometric code and the attribute code and an attribute table for managing the attribute code are separately provided, and each data is modified on each table. [Operation] In the video text code data management system according to the present invention, an order table for managing the transmission order of geometric codes and attribute codes provided separately for video text code data management and an attribute table for managing the above attribute codes are provided. By modifying each data, the degree of freedom is increased and high-speed processing is realized. [Embodiment] Hereinafter, an embodiment of the video text code data management system according to the present invention will be described in detail with reference to the drawings. The embodiments shown in FIGS. 1 to 7 illustrate the present invention.
This is applied to a videotex image creation device for image input in a digital image information transmission system using the NAPLPS method. A signal or a color television signal of a standard television system is input, a color image for one frame shown by this input is treated as a set of geometric figure areas, and a geometric code and a color image representing the color image as a geometric figure are generated. Video text code data consisting of time-series codes of the attribute codes is automatically generated by the microcomputer 100 and outputted through the data bus. In this embodiment, the data to be handled, that is, the geometric code, attribute code, etc., is managed by a management system having a configuration as schematically shown in FIG. That is, the management system in this embodiment is configured to handle video text codes via the video text code scratch buffer 101, which temporarily stores the video text codes created as described above. a video text code scratch buffer 101; and the video text code scratch buffer 101.
Code Analyzer 1 that analyzes time-series video text codes stored in and breaks them down into easy-to-manage formats.
02, an attribute buffer 103 that holds attribute code data at the current time in chronological order when the video text code is analyzed by the code analyzer 102, and an attribute buffer 103 that stores the order of the geometric code portion of the video text code, which will be described later. an order table 105 that manages pointers to entries in the attribute table 106 and data table 107 and various flags indicating the drawing status; an attribute code 106 that manages the attribute code; and data that manages the indefinite length operand of the geometric code. table 1
07, and a code generator 104 that generates a video text code for the video text code scratch buffer 101 from data given in the order table 105, attribute table 106, and data table 107. As schematically shown in FIG. 2A, the order table 105 includes a geometric code column 105A indicating a drawing code, and the attribute table 1.
Attribute pointer field 10 that holds a pointer to 06
5B, a data pointer column 105C that holds a pointer to the data table 107, and a flag column 105D that indicates various flags necessary for drawing, and various data are entered in the order of the geometric code part of the video text code. It is becoming more and more common. In addition, the above attribute table 106
As the configuration is schematically shown in FIG. 2B, there is a pel size column 106A indicating the thickness of the drawing brush.
It consists of a color data column 106B indicating the color, and a texture column 106C indicating the pattern, and various data are entered in the order of the pointers shown in the attribute pointer column 105B of the order table 105. . Furthermore, as the structure of the data table 107 is schematically shown in FIG. It consists of an operand field 107B to be entered, and various data are entered in the order of the pointers shown in the data pointer field 105C of the order table 105. In this embodiment, when handling existing video text code data, the video text code is temporarily stored in the video text code scratch buffer 101, and when it is stored in the video text code scratch buffer 101, the video text code is temporarily stored in the video text code scratch buffer 101. A series of video text code data is sequentially decomposed into significant units by the code analyzer 102, and if it is simply a change in attribute code such as pel size, color or texture, the contents of the attribute buffer 103 are changed. Further, if the result of decomposition by the code analyzer 102 is a drawing geometric code, that geometric code is registered in the geometric code field 105A of the order table 105, and the operand part of this code is determined by calculating the data length and Register this entry number in the data length field 107A and operand field 107B of the table 107, and also register this entry number in the order table 107 above.
5 in the data pointer field 105C. Furthermore, at this time, one entry is created in the attribute table 106 using the data in the attribute buffer 103, and this entry number is registered in the attribute pointer column 105B of the order table 105. After completing the above series of registration operations, the code analyzer 102 again disassembles the contents of the video text code scratch buffer 101 and repeats the above series of registration operations. Here, in the series of registration operations described above, if the contents of the attribute buffer 103 have not been changed, the entry number indicating the same attribute previously registered is used without creating a new entry in the attribute table 106. It is designed to be registered in the attribute pointer field 105B of the order table 105. In this way, each of the above tables 105, 10
When generating time-series video text code data from each data registered in 6, 107 in the order in which they were entered in the order table 105, the data is first indicated by the attribute pointer column 105B of the order table 105. Attribute table 10
Attribute codes for changing the pel size, color, texture, etc. according to the contents of step 6 are generated in the video text code scratch buffer 101. next,
Geometric code column 105 of the above order table 105
A geometric code given by A is generated, and operand data of the entry in the data table 107 indicated by the data pointer field 105C is added to this geometric code. By repeating this series of operations, video text code data for drawing the same image as that at the time of registration is generated. At this time, the contents of the attribute pointer column 105B corresponding to the contents of the geometric code column 105A of the order table 105 in which the attribute code generated immediately before is registered are the same as the contents of the attribute pointer column 105B in the order table 105 in which the attribute code to be generated this time is registered. Attribute pointer field 1 corresponding to the contents of the geometric code field 105A
If the content is the same as 05B, there is no need to generate a code to change the attribute. Furthermore, even if they are different, if part of the contents of the two entries in the attribute table 106 are the same, generation of an attribute change code for that entry can be omitted to generate a more efficient code. I can do it. In the block diagram of FIG. 3 showing the overall configuration of the videotex image creation apparatus of this embodiment which employs the videotex code data management system configured as described above, an NTSC color television signal is input to the first signal input terminal. NTSC/through 1
is supplied to the RGB converter 5 and the synchronous separation circuit 6,
Further, the RGB color signals are supplied to the input selection circuit 10 via the second signal input terminal 2. The input selection circuit 10 receives an RGB color signal obtained by converting the color television signal supplied from the first signal input terminal 1 via the NTSC/RGB converter 5 or supplies the RGB color signal from the second signal input terminal 2. One of the RGB color signals is selected and one of the RGB color signals is supplied to an analog/digital (A/D) converter 20. Further, the synchronization separation circuit 6 separates the synchronization signal in the color television signal supplied from the first signal input terminal 1 and supplies the synchronization signal to the synchronization switching circuit 15 . This synchronous switching circuit 15
is supplied to the second signal input terminal 2.
A synchronization signal corresponding to the RGB color signal is supplied from the third signal input terminal 3, and the synchronization signal corresponding to the RGB color signal supplied to the A/D converter 20 is supplied to the address data generation block 30. , the selection operation is performed in conjunction with the input selection circuit 10. The address data generation block 30 consists of a PLL oscillator 31 and a counter circuit 32.
By counting the oscillation output pulses in the counter circuit 32, address data synchronized with the synchronization signal is formed, and this address data is supplied to the address selection circuit 35. The address selection circuit 35 selects the address data supplied via the address bus of the microcomputer 100 and the address data supplied from the address data generation block 30,
One address data is supplied to first to fourth frame memories 41, 42, 43, 44, cursor memory 45 and character generator 46. Further, the first to fourth frame memories 41, 42, 43, 44, cursor memory 45
The character generator 46 is configured to exchange various data through the data bus of the microcomputer 100. The first frame memory 41 is a memory for storing original image data, and input color image data obtained by digitizing RGB color signals by the A/D converter 20 is converted into address data from the address data generation block 30. Based on RGB
is written for each color. The input color image data stored in the first frame memory 41 can be read out at any time and used as a digital/analog D/
The A converter 61 converts it into an analog RGB color signal and sends it to the first output selection circuit 71 via the first output selection circuit 71.
It is possible to monitor the original color image by supplying it to the RGB monitor device 81. Further, the second to fourth frame memories 4
2, 43, 44 are the first frame memories 4;
This memory is used as a general-purpose memory for various data processing such as color processing and redundant data reduction processing for the original image data stored in step 1, and various image data in various processing steps described below are written/read through the data bus. Ru. The processed image data stored in the second frame memory 42 is converted into color data in the color table memory 52 and returned to analog RGB color signals via the D/A converter 63. The data-processed color image is supplied to the second output selection circuits 71 and 72 and output to the first or second RGB
It can be monitored using monitor devices 81 and 82. Further, the processed image data stored in the third frame memory 43 is converted into color data in the color table memory 53 and converted into analog data via the D/A converter 64.
The second output selection circuit 7 returns to RGB color signals.
2, and the data-processed color image can be monitored by the second RGB monitor device 82. Further, the fourth frame memory 44 converts the original image data stored in the first frame memory 41 into analog RGB color signals using the D/A converter 61, and then converts the original image data stored in the first frame memory 41 into analog RGB color signals using the RGB/Y converter 68. The black and white image data of the original image obtained by converting it into a signal and further digitizing it via the A/D converter 69 is written. The black and white image data after redundant data reduction processing etc. are performed on the black and white image data is transferred to the color table memory 53 and the D/A.
The signal is converted back to an analog RGB color signal via the converter 63 and supplied to the signal synthesis circuit 70. The signal synthesis circuit 70 is supplied with a cursor display signal from the cursor memory 45, and character data for displaying various control commands of the system is supplied from the character generator 46 to the color table memory 53 in analog RGB colors. An image based on image data converted into a signal and stored in the fourth frame memory 44, a cursor image based on a cursor display signal from the cursor memory 45, and character data from the character generator 46. Combines and outputs RGB color signals that are superimposed with the image.
The image based on the RGB color signals obtained by the signal synthesis circuit 70 is transmitted to the second RGB monitor device 8.
In addition, the RGB color signal can be converted into a luminance Y signal by an RGB/Y converter 80 and monitored by a monochrome monitor device 83. Furthermore, in this embodiment, the microcomputer 100 functions as a system controller that controls the operation of the entire device, and its data bus and address bus include ROM and
An auxiliary memory 90 such as RAM, a floppy disk controller 91, an input/output interface circuit 93, a high-speed arithmetic processing circuit 200, etc. are connected. Incidentally, a tablet 94 and its monitor device 95 are connected to the input/output interface circuit 93 for inputting various data during manual editing processing. The apparatus of this embodiment performs image processing according to the procedure shown in the flowchart of FIG. 4, and automatically converts the input color image data supplied to the first frame memory 41 into a geometric command string. The data is then output via the data bus. That is, in this embodiment, input color image data is first written into the first frame memory 41 and stored as original image data. Here, the input color image data can be changed to an NTSC color television signal or an NTSC color television signal by switching the input selection circuit 10 and the synchronization switching circuit
You can select either RGB color signals.
Further, the original image data stored in the first frame memory 41 is converted into black and white image data by an RGB/Y converter 68, and is also stored in the fourth frame memory 44. Next, the first and fourth frame memories 4
Color processing is performed on the input color image data based on the image data stored in 1 and 44, and further redundant data reduction processing is performed to finally convert it into a geometric command sequence without losing the characteristics of the original image. Automatically generate image data suitable for Here, in the above color processing, the top n colors with high frequency in the original color image indicated by the input color image data stored in the first frame memory 41 are automatically selected, and the above n colors are applied to the pixels. The process of assigning one of the colors is carried out in the procedure shown in the flowchart of FIG. That is, in this color processing, for the input color image data stored in the first frame memory 41, the high-speed arithmetic processing circuit 200 first creates a histogram of each color data, and then selects the top n colors of this histogram. Select automatically.
Next, for each image area shown with the same brightness in the black and white image represented by the black and white image data stored in the fourth frame memory 44, the n colors closest to the color of the original color image are selected. Assign a color to each pixel and create color table data so that the deviation is minimized. The color table data formed by the high-speed arithmetic processing circuit 200 is stored in each color table memory 51, 5.
2,53. Then, color-processed image data in which the n colors are assigned to each image area is written into the second frame memory 42. Further, in this embodiment, for the input color image data stored in the first frame memory 41 as described above, the top n colors of the histogram of each color data are automatically selected, and n colors are added to each image area. In the color processing for allocating, the histogram of each color data of the input color image data is divided into a plurality of parts in order of hue, and the representative colors of the top n divisions with the largest area are selected as the n colors and assigned to each image area. It's summery. That is, when selecting 16 colors from 4096 colors in which red R, green G, and blue B are each represented by 4 bits as each color data of the input color image data, there are When there is a background part that occupies a large area, if you directly select the top n colors from the histogram of each color data above, the colors will be specified to accurately represent the hue of the background part that occupies the large area, and it will not be necessary. In this embodiment, the histogram of each color data is divided into N sections in the order of hue as shown in FIG. 6, and the selection of the above n colors is carried out. Here, when selecting 16 colors from 4096 colors represented by 4 bits each for R, G, and B, and specifying the color by setting N=64, for example, R, G,
It is sufficient to form a histogram using the upper 2-bit data of each of G and B as valid data and determine the upper n divisions.In this way, the histogram of each color data is divided into N divisions in order of hue to select the above n colors. By varying the above-mentioned classification N according to the contents of the original image, optimal color specification can be performed. The color image subjected to the color processing can be obtained by reading out each color data from the first frame memory 41 using the image data stored in the second frame memory 42 as address data. RGB monitor device 81,
Monitored at 82. In addition, in the redundant data reduction process, redundant data unnecessary for the conversion process to the next geometry command is removed to reduce the information amount.
Then, each image data stored in the fourth frame memories 42 and 44 is subjected to noise cancel processing, halftone removal processing, small area deletion processing, etc. In the conversion process to geometric commands, for the image represented by the variously processed color image data as described above, command data that expresses each image area one by one using geometric commands is converted into the following steps. Formed by In this conversion process to a geometric command, first, the boundary of each image area is traced by the high-speed arithmetic processing circuit 200, the position coordinates of each vertex are detected, and each position coordinate is determined as a vertex position of a geometric figure. Assuming this, it is converted into a geometry command using the above-mentioned PID code, and the necessary vertex position coordinate values, etc. are given as the above-mentioned operands. Note that attribute data such as pel size and color indicating the thickness of the boundary line of the geometric figure are given in advance. Furthermore, in this embodiment, addition of a new motif, movement or deletion of figures, change of color, etc. are artificially added to the color image represented by the series of geometric code strings formed as described above. Manual editing is now possible. This manual editing process is the same as the second one above.
This is carried out as follows using a transparent tablet 94 provided on the screen of the RGB monitor device 82 or a so-called mouse (not shown). That is, the second RGB monitor device 82
On the screen, character information images for displaying various control commands necessary for manual editing processing are provided by the character generator 46, and a cursor indicating position information input from the tablet 94 is displayed. A cursor image for display is provided in the cursor memory 45, and when the operator corrects the image using the pen attached to the tablet 94, the correction results are displayed in real time. It's getting old. In this manual editing process, as shown in the flowchart of FIG. 7A, it is first determined whether or not geometric code addition processing has been specified.
Add a geometric code that indicates the new shape input by the operation. Further, if the result of the above determination is NO, that is, the additional processing of the geometric code is not specified, or if the additional processing of the geometric code is performed, then it is determined whether or not image correction processing is specified, When a modification process is designated, a graphic to be modified is designated by operating the tablet 94, and the necessary modification process is applied to this graphic. Add geometry code to indicate the new geometry being input. Furthermore, if the result of the above judgment is NO, that is, the figure correction process is not specified, or if the above figure correction process has been performed, then it is judged whether or not the drawing work is finished, and the end mode is set. , or returns to determining whether the geometric code addition process has been designated, and repeats the above-described operations. Here, the operation of specifying the figure to be corrected is performed according to the procedure shown in the flowchart of FIG. 7B. That is, first, the second
It is determined whether or not a figure to be corrected appears on the screen of the RGB monitor device 82, and if there is a figure to be corrected on the screen, the tablet 9 is immediately
Specify the shape by performing step 4. In addition, when the figure to be corrected does not appear on the screen, perform the selection operation on the intermediate screen until the figure to be corrected appears on the screen, and then press the tablet 9.
Specify the shape by performing step 4. Once the figure to be corrected is designated by operating the tablet 94, the process proceeds to the above-mentioned correction process. Furthermore, the selection operation of the intermediate screen is performed in accordance with the procedure shown in the flowchart of FIG. 7C. That is, when entering the intermediate screen selection operation mode, the microcomputer 100 once clears the image displayed on the screen of the second RGB monitor device 82, and then clears the image displayed on the screen of the second RGB monitor device 82 by operating the tablet 94. It works by reproducing each image in turn in the order in which they were processed. Note that the designation of the images by operating the tablet 94 is not limited to sequentially designating one image at a time, but may also be designation to move forward or backward in units of multiple images. As in this example, if in manual editing processing, each image is reproduced in order in the order in which it has been processed up to that point, and any intermediate screen can be selected, the images input later can be Even if a figure is hidden, you can specify it with a simple operation and perform the necessary corrections. [Effects of the Invention] As is clear from the description of the embodiments above, the video text code data management method according to the present invention manages the transmission order of the geometric code and attribute code that are individually provided for video text code data management. By modifying each data on the order table and the attribute table that manages the above attribute codes, it is possible to increase the degree of freedom and achieve high-speed processing, making it possible to fully achieve the intended purpose. .

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明をNAPLPS方式のデジタル画
像情報伝送システムにおけるビデオテツクス画像
作成装置に適用した実施例において取り扱うビデ
オテツクスコードデータの管理方式の構成を説明
するための説明図であり、第2図Aは上記データ
の管理方式におけるオーダテーブルの構成を示す
模式図であり、第2図Bは同じく上記データの管
理方式における属性テーブルの構成を示す模式図
であり、さらに第2図Cは同じく上記データの管
理方式におけるデータテーブルの構成を示す模式
図である。第3図は本発明を適用したビデオテツ
クス画像作成装置の実施例の構成を示すブロツク
図である。第4図は上記実施例における画像処理
手順を示すフローチヤートであり、第5図は同じ
く色処理の手順を示すフローチヤートであり、第
6図は上記色処理の動作を説明するための説明図
である。第7図Aは上記実施例におけるマニアル
エデイツト処理の手順を示フローチヤートであ
り、第7図Bは同じく上記マニアルエデイツト処
理における図形指定の操作手順を示すフローチヤ
ートであり、さらに第7図Cは同じく上記図形指
定操作における中途画面の選択操作手順を示すフ
ローチヤートである。第8図A,第8図B,第8
図C,第8図D、および第8図EはAPLPS方式
において使用されているPIDコードによる図形処
理をそれぞれ模式的に示す模式図である。 41,42,43,44,45,46,51,
52,53,54,90……メモリ、100……
マイクロコンピユータ100、101……ビデオ
テツクスコードスクラツチバツフア、102……
コードアナライザ、103……属性バツフア、1
04……コードジエネレータ、105……オーダ
テーブル、106……属性テーブル、107……
データテーブル。
FIG. 1 is an explanatory diagram for explaining the configuration of a videotex code data management system handled in an embodiment in which the present invention is applied to a videotex image creation device in a NAPLPS digital image information transmission system, and FIG. FIG. 2A is a schematic diagram showing the structure of an order table in the above data management method, FIG. 2B is a schematic diagram showing the structure of an attribute table in the above data management method, and FIG. FIG. 2 is a schematic diagram showing the configuration of a data table in the data management method. FIG. 3 is a block diagram showing the configuration of an embodiment of a video text image creating apparatus to which the present invention is applied. FIG. 4 is a flowchart showing the image processing procedure in the above embodiment, FIG. 5 is a flowchart showing the color processing procedure, and FIG. 6 is an explanatory diagram for explaining the color processing operation. It is. FIG. 7A is a flowchart showing the procedure of the manual edit process in the above embodiment, and FIG. 7B is a flowchart showing the operation procedure of specifying a figure in the manual edit process. Similarly, C is a flowchart showing the procedure for selecting an intermediate screen in the graphic designation operation described above. Figure 8A, Figure 8B, Figure 8
FIG. C, FIG. 8D, and FIG. 8E are schematic diagrams each schematically showing graphic processing using a PID code used in the APLPS system. 41, 42, 43, 44, 45, 46, 51,
52, 53, 54, 90...Memory, 100...
Microcomputers 100, 101...Video text code scrubber, 102...
Code analyzer, 103... Attribute buffer, 1
04...Code generator, 105...Order table, 106...Attribute table, 107...
data table.

Claims (1)

【特許請求の範囲】[Claims] 1 画像の各領域を幾何学図形として表す幾何コ
ードおよびその属性コードの時系列コードからな
るビデオテツクスコードを取り扱う画像作成装置
において、上記幾何コードおよび属性コードの送
出順序を管理するオーダテーブルと上記属性コー
ドを管理する属性テーブルとを個別に設け、各テ
ーブル上で各データの修正を行うようにしたこと
を特徴とするビデオテツクスコードデータ管理方
式。
1. In an image creation device that handles a video text code consisting of a geometric code that represents each region of an image as a geometric figure and a time-series code of its attribute code, an order table that manages the sending order of the geometric code and attribute code and the above attribute are used. A video text code data management method characterized in that an attribute table for managing codes is provided separately, and each data can be corrected on each table.
JP59253656A 1984-11-30 1984-11-30 Videotex code data controlling system Granted JPS61131989A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59253656A JPS61131989A (en) 1984-11-30 1984-11-30 Videotex code data controlling system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59253656A JPS61131989A (en) 1984-11-30 1984-11-30 Videotex code data controlling system

Publications (2)

Publication Number Publication Date
JPS61131989A JPS61131989A (en) 1986-06-19
JPH0546757B2 true JPH0546757B2 (en) 1993-07-14

Family

ID=17254355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59253656A Granted JPS61131989A (en) 1984-11-30 1984-11-30 Videotex code data controlling system

Country Status (1)

Country Link
JP (1) JPS61131989A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0972976A (en) * 1995-09-07 1997-03-18 Seikosha Co Ltd Coupling structure for case

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0972976A (en) * 1995-09-07 1997-03-18 Seikosha Co Ltd Coupling structure for case

Also Published As

Publication number Publication date
JPS61131989A (en) 1986-06-19

Similar Documents

Publication Publication Date Title
JPS61131990A (en) Videotex image producing system
EP0369702B1 (en) Image processing apparatus and method
JPH0850648A (en) Coloring supporting method and device therefor
JPH0546757B2 (en)
JPH0546758B2 (en)
KR930008177B1 (en) Picture image processing apparatus
JPS61131982A (en) Videotex image forming device
KR930004642B1 (en) Apparatus for encoding image signal
KR930004645B1 (en) Apparatus for encoding image signal
JP2511731B2 (en) Halftone image processor
JPS6121700Y2 (en)
JPS60197073A (en) Color designation processing unit of color picture
KR930008176B1 (en) Apparatus for encoding image signal
JPH05225299A (en) Color conversion system
JPS61161891A (en) Color correcting method in video film processing device
JPH06180573A (en) Image forming method
JPS6177088A (en) Image data processor
JP2569437B2 (en) Image correction device
JPH09248894A (en) Manufacture for special color plate specifying image area and device therefor
JPH0763185B2 (en) Image processing device
JP2989261B2 (en) Coloring equipment
JPH06342280A (en) Video character pattern processor
JPH05290133A (en) Color image processor
JPH10215410A (en) Composite drawing data generation method, and composite drawing device
JPS61214679A (en) Picture data forming device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees