JPH0546758B2 - - Google Patents
Info
- Publication number
- JPH0546758B2 JPH0546758B2 JP59253657A JP25365784A JPH0546758B2 JP H0546758 B2 JPH0546758 B2 JP H0546758B2 JP 59253657 A JP59253657 A JP 59253657A JP 25365784 A JP25365784 A JP 25365784A JP H0546758 B2 JPH0546758 B2 JP H0546758B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- code
- color
- geometric
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 claims description 37
- 238000012937 correction Methods 0.000 claims description 12
- 230000015654 memory Effects 0.000 description 40
- 238000000034 method Methods 0.000 description 33
- 239000003086 colorant Substances 0.000 description 20
- 230000008569 process Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000013523 data management Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
Landscapes
- Controls And Circuits For Display Device (AREA)
- Television Systems (AREA)
Description
〔産業上の利用分野〕
本発明は、画像の各画像領域を幾何学図形とし
て順次に表す時系列の幾何学コードからなるビデ
オテツクスコードを取り扱う画像作成装置に関
し、特にビデオテツクスコードにより表される画
像の任意の画像領域を指定して該領域に対するビ
デオテツクスコード修正処理を施す機能を備える
ビデオテツクス画像作成装置に関する。
〔従来の技術〕
近来、情報化社会の発展に伴い各種画像情報を
伝送するための所謂ニユーメデイア・サービスと
して電話回線や無線回線を利用して各種画像情報
を伝送するビデオテツクスやテレテツクス等のデ
ジタル画像情報伝送システムの開発・実用化が各
国において進められており、日本のキヤプテン・
システムに基づいたCAPTAIN PLPS方式、カ
ナダのテリドンから派生して北米標準方式となつ
たNAPLPS方式、イギリスのプレステルに基づ
いたCEPT PLPS方式の三つが国際標準方式と
して採用されている。
ところで、NAPLPS(テリドン)方式において
採用されている1枚の画像を幾何的画像領域の集
合としてみなして各画像領域を幾何学図形として
表す幾何コードおよびその属性コードの時系列コ
ードからなるビデオテツクスコードを伝送する方
式は、画像情報をモザイク絵素に対応させたりキ
ヤラクタコードにて示す他の方式と比較して、伝
送効率が極めて高い方式であるとして、高く評価
されている。
上記NAPLPS方式では、幾何学図形による作
図命令用の基本コマンドとして5種類の幾何コー
ドすなわちPID(Picuture Description
Instructin)コード〔POINT〕,〔LINE〕,
〔ARC〕,〔RECTANGLE〕,〔POLYGON〕が定
義されているとともに、上記幾何コードにより作
図される図形の線の太さや色相、諧調等を指定す
るための属性コード(ペルサイズ、色、テクスチ
ヤ等)、さらに上記幾何コードにより作図される
図形の位置等を指定するためのオペランド(座標
値等)が定義されている。上記幾何コード
〔POINT〕では第8図Aに示すように表示画面
内の上記オペランドにより指示される任意の座標
位置x0,y0に作図開始点をセツトあるいは点P0を
プロツトし、また、上記幾何コード〔LINE〕で
は第8図Bに示すように上記オペランドにより指
示される任意の座標位置の2点P1,P2間を結ぶ
線分を描く。さらに、上記幾何コード〔ARC〕
では第8図Cに示すように表示画面内の上記オペ
ランドにより指示される表示画面内の任意の座標
位置の3点P1,P2,P3間を結ぶ円弧を描いたり、
あるいは、同図中に破線にて示すように上記円弧
の両端の2点P1,P3間を結ぶ弦を描く。また、
上記幾何コード〔RECTANGLE〕では第8図D
に示すように上記オペランドにより指示される任
意の座標位置の2点P1,P2を対角線上の頂点と
する四角形の輪郭を描く。さらに、上記幾何コー
ド〔POLYGON〕では第8図Eに示すように上
記オペランドにより指示される任意の座標位置の
多点P1,P2…Pnを結ぶ多角形の輪郭を描く。
そして、上記NAPLPS方式では、例えば第1
表に示すような順序の時系列コードデータが与え
られたとすると、順序1にて指定されたペルサイ
ズ1、順序2にて指定された色1、順序3にて指
定されたテクスチヤ1の属性を持つて、順序4の
幾何コード〔RECTANGLE〕で指示される四角
形の輪郭が順序5,6のオペランド1,2により
指示される座標位置に描かれ、続く、順序7,8
のオペランド3,4により指示される座標位置に
も四角形の輪郭が描かれる。次に、順序9にて指
定される色2と上記順序1にて指定されたペルサ
イズ1および上記順序3にて指定されたテクスチ
ヤ1の属性を持つて、順序10の幾何コード
〔POLYGON〕で指示される五角形が順序11,
12,13,14,15のオペランド1,2,3,4,5
により指示される座標位置に描かれる。
[Industrial Application Field] The present invention relates to an image creation device that handles video text codes consisting of time-series geometric codes that sequentially represent each image region of an image as a geometric figure, and in particular, relates to an image creation device that handles video text codes consisting of time-series geometric codes that sequentially represent each image region of an image as a geometric figure. The present invention relates to a video text image creation device having a function of specifying an arbitrary image area of an image and performing video text code correction processing on the area. [Prior Art] In recent years, with the development of the information society, digital services such as videotex and teletex that transmit various image information using telephone lines and wireless lines have become so-called new media services for transmitting various image information. Development and practical application of image information transmission systems are progressing in various countries, and Japanese captains and
Three systems have been adopted as international standards: the CAPTAIN PLPS system, which is based on the PLPS system, the NAPLPS system, which is derived from Canada's Theridon and has become the North American standard system, and the CEPT PLPS system, which is based on the UK's Prestel. By the way, the videotex code adopted in the NAPLPS (Teridon) system is a video text code consisting of a geometric code that treats one image as a set of geometric image areas and represents each image area as a geometric figure, and a time-series code of its attribute code. This method of transmitting image information is highly regarded as having extremely high transmission efficiency compared to other methods in which image information corresponds to mosaic picture elements or is represented by character codes. In the above NAPLPS method, five types of geometric codes, namely PID (Picture Description
Instructin) code [POINT], [LINE],
[ARC], [RECTANGLE], and [POLYGON] are defined, as well as attribute codes (pel size, color, texture, etc.) for specifying the line thickness, hue, tone, etc. of the figure drawn using the above geometric code. , furthermore, operands (coordinate values, etc.) are defined for specifying the position of the figure to be drawn using the above-mentioned geometric code. The above geometric code [POINT] sets the plotting start point or plots the point P 0 at any coordinate position x 0 , y 0 specified by the above operand on the display screen as shown in FIG. 8A, and The geometric code [LINE] draws a line segment connecting two points P 1 and P 2 at arbitrary coordinate positions indicated by the operands as shown in FIG. 8B. Furthermore, the above geometric code [ARC]
Now, as shown in Fig. 8C, draw an arc connecting three points P 1 , P 2 , and P 3 at arbitrary coordinate positions on the display screen specified by the above operand,
Alternatively, as shown by the broken line in the figure, a chord is drawn connecting the two points P 1 and P 3 at both ends of the arc. Also,
In the above geometric code [RECTANGLE], Figure 8D
As shown in the figure, the outline of a rectangle whose diagonal vertices are two points P 1 and P 2 at arbitrary coordinate positions indicated by the above operand is drawn. Furthermore, the geometric code [POLYGON] draws the outline of a polygon connecting multiple points P 1 , P 2 . . . Pn at arbitrary coordinate positions indicated by the operands, as shown in FIG. 8E. In the above NAPLPS method, for example, the first
Assuming that the time series code data in the order shown in the table is given, it has the attributes of pel size 1 specified in order 1, color 1 specified in order 2, and texture 1 specified in order 3. Then, the outline of the rectangle specified by the geometric code [RECTANGLE] of order 4 is drawn at the coordinate position specified by operands 1 and 2 of orders 5 and 6, and then
A rectangular outline is also drawn at the coordinate position indicated by operands 3 and 4. Next, specify the color 2 specified in order 9, the pel size 1 specified in order 1 above, and the texture 1 specified in order 3 above with the geometric code [POLYGON] in order 10. The pentagons are in order 11,
12, 13, 14, 15 operands 1, 2, 3, 4, 5
is drawn at the coordinate position indicated by .
上述のように時系列のビデオテツクスコードデ
ータを画像情報として伝送する上記NAPLPS方
式を採用したデジタル画像情報伝送システムで
は、伝送する画像情報量を大量に削減することが
可能で高い伝送効率で画像伝送を行うことがで
き、また、上記ビデオテツクスコードを用いて作
画した画像は、図形の上に図形を重ねて描くよう
にして、例えば鳥の図形を順次描いては上塗りす
ることによつてあたかも上記鳥が飛んでいるよう
な効果を奏することができるのであるが、幾何コ
ードが他の属性コードやオペランドのデータに依
存する情報となつているので、上記幾何コードを
与える順序を入れ換えたり、属性コードを変更す
るのに極めて複雑な操作が必要で、実際に伝送す
る1枚の画像を示す画像情報を作成するのに、多
大な手間と時間を必要とし、特に図形の上に図形
を重ねて描かれた画像について上の図形によつて
隠れてしまつた図形を選択して修正等の作業を行
うことは極めて困難であつた。
そこで、本発明は、上述の如き問題点に鑑み、
画像の各領域を幾何学図形として表す時系列の幾
何コードからなるビデオテツクスコードを取り扱
い、図形の上に図形を重ねて描かれた画像につい
て上の図形によつて隠れてしまつた図形を選択し
て修正する等の作業作業を簡単に行い得るように
した新規な構成のビデオテツクスコード画像作成
装置を提供することを目的とするものである。
〔問題点を解決するための手段〕
本発明に係るビデオテツクス画像作成装置は、
上述の問題点を解決するために、画像の各画像領
域を幾何学図形として順次に表す時系列の幾何コ
ードからなるビデオテツクスコードを取り扱う画
像作成装置において、一連のビデオテツクスコー
ドにより表される各図形領域からなる画像の任意
の中途画面を選択してモニター画面上に再現する
手段と、上記モニター画面上に再現された画像中
の任意の図形領域を指定して該領域に対するビデ
オテツクスコード修正処理を施す手段とを設けた
ことを特徴とする。
〔作用〕
本発明に係るビデオテツクス画像作成装置で
は、一連のビデオテツクスコードにより表される
各図形領域からなる画像について、任意に選択し
た中途画面がモニター画面上に再現される。上記
モニター画面上に再現された画像中の任意の図形
領域を指定して該領域に対するビデオテツクスコ
ード修正処理を施すことによつて、図形の上に図
形を重ねて描かれた画像について上の図形によつ
て隠れてしまつた図形を選択的に修正する等のビ
デオテツクス画像の修正処理を簡単に行うことが
できる。
〔実施例〕
以下、本発明に係るビデオテツクス画像作成装
置一実施例について、図面に従い詳細に説明す
る。
第1図ないし第7図に示す実施例は、本発明を
NAPLPS方式のデジタル画像情報伝送システム
における画像入力用のビデオテツクス画像作成装
置に適用したもので、この実施例の装置は、伝送
するカラー画像を図示しないカラービデオカメラ
にて撮像して得られるRGB色信号あるいは標準
テレビジヨン方式のカラーテレビジヨン信号を入
力として、この入力にて示される一フレーム分の
カラー画像を幾何学的図形領域の集合として取り
扱い、上記カラー画像を幾何学図形として表す幾
何コードおよびその属性コードの時系列コードか
らなるビデオテツクスコードデータをマイクロコ
ンピユータ100にて自動的に形成してデータバ
スを通じて出力するようにしたものである。
この実施例のビデオテツクス画像作成装置全体
の構成を示す第1図のブロツク図において、
NTSC方式のカラーテレビジヨン信号が第1の信
号入力端子1を介してNTSC/RGBコンバータ
5と同期分離回路6に供給され、またRGB色信
号は第2の信号入力端子2を介して入力選択回路
10に供給されるようになつている。
上記入力選択回路10は、上記第1の信号入力
端子1から上記NTSC/RGBコンバータ5を介
して供給される上記カラーテレビジヨン信号を変
換したRGB色信号あるいは上記第2の信号入力
端子2から供給される上記RGB色信号を選択し
て、一方のRGB色信号をアナログ/デジタル
(A/D)コンバータ20に供給する。
また、上記同期分離回路6は、上記第1の信号
入力端子1から供給されるカラーテレビジヨン信
号中の同期信号を分離して、その同期信号を同期
切換回路15に供給する。この同期切換回路15
は、上記第2の信号入力端子2に供給される
RGB色信号に対応する同期信号が第3の信号入
力端子3から供給されており、上記A/Dコンバ
ータ20に供給するRGB色信号に対応する同期
信号をアドレスデータ発生ブロツク30に供給す
るように、上記入力選択回路10と連動した選択
動作を行うようになつている。上記アドレスデー
タ発生ブロツク30は、PLL発振器31とカウ
ンタ回路32とから成り、上記PLL発振器31
の発振出力パルスを上記カウンタ回路32にて計
数することにより上記同期信号に同期したアドレ
スデータを形成し、このアドレスデータをアドレ
ス選択回路35に供給する。
上記アドレス選択回路35は、マイクロコンピ
ユータ100のアドレスバスを介して供給される
アドレスデータと上記アドレスデータ発生ブロツ
ク30から供給されるアドレスデータを選択し、
一方のアドレスデータを第1ないし第4のフレー
ムメモリ41,42,43,44、カーソルメモ
リ45およびキヤラクタジエネレータ46に供給
する。また、上記第1ないし第4のフレームメモ
リ41,42,43,44、カーソルメモリ45
およびキヤラクタジエネレータ46は、上記マイ
クロコンピユータ100のデータバスを通じて各
種データの授受が行われるようになつている。
上記第1フレームメモリ41は、原画データを
記憶するためのメモリであり、上記A/Dコンバ
ータ20にてRGB色信号をデジタル化した入力
カラー画像データが上記アドレスデータ発生ブロ
ツク30からのアドレスデータに基づいてRGB
の各色毎に書き込まれる。この第1フレームメモ
リ41に記憶された入力カラー画像データは、い
つでも任意に読み出してデジタル/アナログD/
Aコンバータ61によりアナログのRGB色信号
に変換して第1の出力選択回路71を介して第1
のRGBモニター装置81に供給してカラー原画
像のモニターができるようになつている。
また、上記第2ないし第4のフレームメモリ4
2,43,44は、上記第1のフレームメモリ4
1にて記憶した原画データについて、色処理や冗
長データの削減処理等の各種データ処理用の汎用
メモリとして用いられるもので、後述する各種処
理過程における各種画像データが上記データバス
を通じて書込み/読出しされる。上記第2のフレ
ームメモリ42に記憶されるデータ処理済みの画
像データは、カラーテーブルメモリ52にて色デ
ータに変換してD/Aコンバータ63を介してア
ナログのRGB色信号に戻して第1及び第2の出
力選択回路71,72に供給され、上記データ処
理済みのカラー画像を第1あるいは第2のRGB
モニター装置81,82にてモニターできるよう
になつている。また、上記第3のフレームメモリ
43に記憶されるデータ処理済みの画像データ
は、カラーテーブルメモリ53にて色データに変
換してD/Aコンバータ64を介してアナログの
RGB色信号に戻して上記第2の出力選択回路7
2に供給され、上記データ処理済みのカラー画像
が上記第2のRGBモニター装置82にてモニタ
ーできるようになつている。さらに、上記第4の
フレームメモリ44は、上記第1のフレームメモ
リ41に記憶した原画データを上記D/Aコンバ
ータ61にてアナログのRGB色信号に戻した後
にRGB/Yコンバータ68にて輝度Y信号に変
換してさらにA/Dコンバータ69を介してデジ
タル化することによつて得られる原画の白黒画像
データが書き込まれる。この白黒画像データにつ
いて冗長データの削減処理等を行つた後の白黒画
像データは、カラーテーブルメモリ53とD/A
コンバータ63を介してアナログのRGB色信号
に戻されて信号合成回路70に供給されるように
なつている。
上記信号合成回路70には、上記カーソルメモ
リ45からカーソル表示信号が供給されていると
ともに上記キヤラクタジエネレータ46からシス
テムの各種制御コマンド表示用の文字データがカ
ラーテーブルメモリ53にてアナログのRGB色
信号に変換して供給されており、上記第4のフレ
ームメモリ44に記憶されている画像データによ
る画像と上記カーソルメモリ45からのカーソル
表示信号によるカーソル画像と上記キヤラクタジ
エネレータ46からの文字データによる画像とを
重ね合わせたRGB色信号を合成して出力する。
この信号合成回路70にて得られるRGB色信号
による画像は、上記第2のRGBモニター装置8
2にてモニターできるとともに、上記RGB色信
号をRGB/Yコンバータ80にて輝度Y信号に
変換して白黒モニター装置83でモニターできる
ようになつている。
さらに、この実施例において、上記マイクロコ
ンピユータ100は、この装置全体の動作制御を
行うシステムコントローラとして働くもので、そ
のデータバスおよびアドレスバスにはROMや
RAM等の補助メモリ90やフロツピーデイスク
コントローラ91、さらに入出力インターフエー
ス回路93および高速演算処理回路200等が接
続されている。なお、上記入出力インターフエー
ス回路93には、マニアルエデイツト処理の際に
各種データを入力するためのタブレツト94およ
びそのモニター装置95が接続されている。
そして、この実施例の装置では、第2図のフロ
ーチヤートに示す如き手順で画像処理を行い、上
記第1のフレームメモリ41に供給される入力カ
ラー画像データを自動的に幾何学コマンド列に変
換してデータバスを通じて出力するようになつて
いる。
すなわち、この実施例において入力カラー画像
データは、先ず第1のフレームメモリ41に書き
込まれて、原画データとして記憶される。ここ
で、上記入力カラー画像データは、入力選択回路
10および同期切換回路15を切り換えることに
より、NTSCカラーテレビジヨン信号あるいは
RGB色信号のどちらでも選択することができる。
また、上記第1のフレームメモリ41に記憶され
た原画データは、RGB/Yコンバータ68によ
り白黒画像データに変換して第4のフレームメモ
リ44にも記憶される。
次に、上記第1および第4のフレームメモリ4
1,44に記憶された画像データに基づいて入力
カラー画像データの色処理を行い、さらに冗長デ
ータの削減処理を行つて、原画像の特徴を失うこ
とな最終的に幾何学コマンド列に変換するのに適
した画像データを自動的に形成する。
ここで、上記色処理では、上記第1のフレーム
メモリ41に記憶される入力カラー画像データに
て示される原カラー画像中で頻度の高い上位n色
を自動的に選択して、画素に上記n色のいずれか
を割り当てる処理を第3図のフローチヤートに示
す如き手順で行う。
すなわち、この色処理では、上記第1のフレー
ムメモリ41に記憶された入力カラー画像データ
について、上記高速演算処理回路200によつ
て、先ず各色データのヒストグラムを作成し、こ
のヒストグラムの上位n色を自動的に選択する。
次に、上記第4のフレームメモリ44に記憶され
ている白黒画像データにて示される白黒画像中の
同一輝度にて示される各画像領域に対して、上記
原カラー画像の色に最も近いn色の色を割り当て
て、各画素ごとに偏差が最小となるようにカラー
テーブルデータを作成する。このように上記高速
演算処理回路200により形成したカラーテーブ
ルデータは、各カラーテーブルメモリ51,5
2,53に記憶される。また上記各画像領域に上
記n色の色が割り当てられた色処理済みの画像デ
ータが上記第2フレームメモリ42に書き込まれ
る。
また、この実施例では、上述の如く上記第1の
フレームメモリ41に記憶された入力カラー画像
データについて、各色データのヒストグラムの上
位n色を自動的に選択して各画像領域にn色の色
を割り当てる色処理において、上記入力カラー画
像データの各色データのヒストグラムを色相順に
複数に区分して、その面積の大きな上位n区分の
代表色を上記n色として選択して各画像領域に割
り当てる色処理を指定して行い得るようになつて
いる。すなわち、例えば上記入力カラー画像デー
タの各色データとして赤R、緑G、青Bがそれぞ
れ4ビツトで示される4096色から16色を選択する
場合に、上記入力カラー画像データにて示される
原画像中に大きな面積を占める背景部分があるよ
うなときには、上記各色データのヒストグラムに
ついて上位n色を直接選択すると、上記大きな面
積を占める背景部分の色相を正確に表すように色
指定が行われてしまい、必要な画像の色指定が粗
くなされてしまうことがあるので、この実施例で
は第4図に示すように各色データのヒストグラム
を色相順にN区分して上記n色の選択を行う。こ
こで、R,G,Bそれぞれ4ビツトで示される
4096色から16色を選択する場合に、例えばN=64
として色指定を行うには、R,G,Bの各上位2
ビツトデータを有効データとしてヒストグラムを
形成して上位n区分を決定すれば良く、このよう
に各色データのヒストグラムを色相順にN区分し
て上記n色の選択を行うようにして、上記区分N
を原画像の内容に応じて可変することによつて、
最適な色指定を行うことができる。
上記色処理を施したカラー画像は、上記第2の
フレームメモリ42に記憶されている画像データ
をアドレスデータとして、上記第1のフレームメ
モリ41から各色データを読み出すことにより上
記第1あるいは第2のRGBモニター装置81,
82にてモニターされる。
また、上記冗長データの削減処理では、次の幾
何学コマンドへの変換処理に不必要な冗長データ
を除去して情報量を少なくするように、上記第2
および第4のフレームメモリ42,44に記憶さ
れている各画像データについて、ノイズキヤンセ
ル処理、中間調除去処理や小領域削除処理等を行
う。
そして、幾何学コマンドへの変換処理では、上
述の如き各種処理済みのカラー画像データにて示
される画像について、各画像領域の1つ1つを幾
何学コマンドにて表現するコマンドデータを次の
手順により形成する。
この幾何学コマンドへの変換処理では、先ず各
画像領域の境界を上記高速演算処理回路200に
より追跡して、各頂点の位置座標を検出して、各
位置座標を幾何学図形の頂点位置であるとみなし
て、上述のPIDコードによる幾何学コマンドに変
換するとともに、必要な頂点位置座標値等を上述
のオペランドとして与える。なお、上記幾何学図
形の境界線の太さを示すペルサイズや色等の属性
データは、予め与えられる。
また、この実施例では、上述のようにして形成
した一連の幾何学コード列にて示されるカラー画
像について、新たなモチーフの加入あるいは、図
形の移動や削除、色の変更等を人為的に加えるマ
ニアルエデイツト処理が行い得るようになつてい
る。
このマニアルエデイツト処理は、上記第2の
RGBモニター装置82の画面上に設けられた透
明タブレツト94あるいは図示しない所謂マウス
を用いて次のように行われるようになつている。
すなわち、上記第2のRGBモニター装置82
の画面上には、マニアルエデイツト処理に必要な
各種制御コマンド表示用の文字情報画像が上記キ
ヤラクタジエネレータ46によつて与えられてい
るとともに、上記タブレツト94から入力される
位置情報を示すカーソル表示用のカーソル画像が
上記カーソルメモリ45にて与えられており、操
作者が上記タブレツト94に付属されているペン
を用いて画像の修正を行うと、その修正結果が実
時間で表示されるようになつている。このマニア
ルエデイツト処理では、第5図Aのフローチヤー
トに示すように、先ず、幾何コードの追加処理が
指定されたか否かを判定し、幾何コードの追加処
理が指定されているときには上記タブレツト94
の操作により入力される新たな図形を示す幾何コ
ードを追加する。また、上記判定の結果がNOす
なわち幾何コードの追加処理が指定されていない
とき、あるいは上記幾何コードの追加処理を行つ
たならば、次に画像の修正処理が指定されたか否
かを判定し、修正処理がが指定されているときに
は上記タブレツト94の操作により修正すべき図
形を指定して、この図形に必要な修正処理を施
す。入力される新たな図形を示す幾何コードを追
加する。さらに、上記判定の結果がNOすなわち
図形の修正処理が指定されていないとき、あるい
は上記図形の修正処理を行つたならば、次に作画
作業の終了であるか否かを判定して、終了モード
に移るか、あるいは再び上記幾何コードの追加処
理が指定されたか否かを判定に戻つて、上述の動
作を繰り返して行う。ここで、上記修正すべき図
形を指定する操作は、第5図Bのフローチヤート
に示す手順で行われる。すなわち、先ず上記第2
のRGBモニター装置82の画面上に修正すべき
図形が現れているか否かを判定して、上記画面上
に修正すべき図形あれば直ちに上記タブレツト9
4の操作によりその図形を指定する。また、上記
画面上に修正すべき図形が現れていないときに
は、中途画面の選択操作を上記画面上に修正すべ
き図形現れるまで行つてから、上記タブレツト9
4の操作によりその図形を指定する。そして、上
記タブレツト94の操作により修正すべき図形が
指定されたならば、上述の修正処理に移る。さら
に、上記中途画面の選択操作は、第5図Cのフロ
ーチヤートに示す手順で行われるようになつてい
る。すなわち、この中途画面の選択操作モードに
なると、上記マイクロコンピユータ100は、上
記第2のRGBモニター装置82の画面上に表示
する画像を一度クリアしてから、上記タブレツト
94の操作により、それまでに処理した順序で各
画像を順番に再現するように動作する。なお、上
記タブレツト94の操作による上記画像の指定
は、一画像ずつ順次に指定するばかりでなく、複
数単位で前あるいは後に進めるように指定するよ
うにいても良い。
この実施例のように、マニアルエデイツト処理
において、それまでに処理した順序で各画像を順
番に再現して任意の中途画面が選択できるように
しておけば、後から入力された画像によつて隠れ
てしまつているような図形についても、簡単な操
作でその図形を指定して必要な修正処理を施すこ
とができる。
また、この実施例では、取り扱うデータすなわ
ち上記幾何コードや属性コード等を第6図に模式
的に示すような構成の管理方式によつて管理する
ようになつている。
すなわち、この実施例における管理方式は、ビ
デオテツクスコードを上記ビデオテツクスコード
スクラツチバツフア101を介して取り扱うよう
に構成されており、上述のようにして形成される
ビデオテツクスコードを一時的に蓄えるビデオテ
ツクスコードスクラツチバツフア101と、上記
ビデオテツクスコードスクラツチバツフア101
に蓄えた時系列のビデオテツクスコードを解析し
て管理し易い形態に分解するコードアナライザ1
02と、上記コードアナライザ102によつて上
記ビデオテツクスコードを解析するのに、時系列
上の現時点での属性コードデータを保持する属性
バツフア103と、上記ビデオテツクスコードの
属性コード部分の順序および後述する属性テーブ
ル106とデータテーブル107のエントリへの
ポインタおよび作画状態を示す各種フラツグを管
理するオーダテーブル105と、上記属性コード
を管理する属性テーブル106と、上記幾何コー
ドの不定長オペランドを管理するデータテーブル
107と、上記オーダテーブル105、属性テー
ブル106およびデータテーブル107にて与え
られるデータから上記ビデオテツクスコードスク
ラツチバツフア101にビデオテツクスコードを
生成するコードジエネレータ104とからなる。
上記オーダテーブル105は、第7図Aにその
構成を模式的に示てあるように、描画コードを示
す幾何コード欄105Aと、上記属性テーブル1
06へのポインタを保持する属性ポインタ欄10
5Bと、上記データテーブル107へのポインタ
を保持するデータポインタ欄105Cと、作画に
必要な各種フラツグを示すフラツグ欄105Dと
からなり、上記ビデオテツクスコードの幾何コー
ド部分の順序で各種データがエントリされるよう
になつている。また、上記属性テーブル106
は、第7図Bにその構成を模式的に示てあるよう
に、描画の筆の太さを示すペルサイズ欄106A
と、色彩を示す色データ欄106Bと、模様を示
すテクスチヤ欄106Cとからなり、上記オーダ
テーブル105の属性ポインタ欄105Bに示さ
れているポインタの順序で各種データがエントリ
されるようになつている。さらに、上記データテ
ーブル107は、第7図Cにその構成を模式的に
示てあるように、エントリされるデータのバイト
数を示すデータ長欄107Aと、不定長の幾何コ
ードのためのオペランド群がエントリされるオペ
ランド欄107Bとからなり、上記オーダテーブ
ル105のデータポインタ欄105Cに示されて
いるポインタの順序で各種データがエントリされ
るようになつている。
この実施例において、既成のビデオテツクスコ
ードデータを取り扱う場合に、上記ビデオテツク
スコードは上記ビデオテツクスコードスクラツチ
バツフア101に一時的に蓄えられ、このビデオ
テツクスコードスクラツチバツフア101に蓄え
た時系列のビデオテツクスコードデータを上記コ
ードアナライザ102によつて順次有意な単位に
分解し、それが単にペルサイズ、色あるいはテク
スチヤ等の属性コードの変更であれば上記属性バ
ツフア103の内容を変更する。また、上記コー
ドアナライザ102により分解した結果が描画の
幾何コードであれば、その幾何コードを上記オー
ダテーブル105の幾何コード欄105Aに登録
し、このコードのオペランド部分はそのデータ長
を求めて上記データテーブル107のデータ長欄
107Aとオペランド欄107Bに登録し、ま
た、このエントリ番号を上記オーダテーブル10
5のデータポインタ欄105Cに登録する。さら
に、この時、上記属性バツフア103内のデータ
によつて上記属性テーブル106内に1つのエン
トリを作成して、このエントリ番号を上記オーダ
テーブル105の属性ポインタ欄105Bに登録
する。上記一連の登録動作を完了したならば、上
記コードアナライザ102は、再び上記ビデオテ
ツクスコードスクラツチバツフア101の内容を
分解して、上述した一連の登録動作を繰り返し行
う。ここで、上記一連の登録動作において、上記
属性バツフア103の内容が変更されていないと
きには、上記属性テーブル106に新しいエント
リを作成することなく、以前に登録した同一の属
性を示しているエントリ番号を上記オーダテーブ
ル105の属性ポインタ欄105Bに登録するよ
うになつている。
このようにして上記各テーブル105,10
6,107に登録した各データから、上記オーダ
テーブル105にエントリされた順序で時系列の
ビデオテツクスコードデータを生成する場合に
は、初めに上記オーダテーブル105の属性ポイ
ンタ欄105Bによて示される属性テーブル10
6の内容によつてペルサイズ、色、テクスチヤ等
を変更する属性コードを上記ビデオテツクスコー
ドスクラツチバツフア101に生成する。次に、
上記オーダテーブル105の幾何コード欄105
Aにて与えられる幾何コードを生成し、この幾何
コードに上記データポインタ欄105Cによつて
示される上記データテーブル107のエントリの
オペランドデータを付加する。この一連の動作を
繰り返し行うことによつて、上記登録時と同一の
画像を描画するビデオテツクスコードデータを生
成する。この時、直前に生成した幾何コードが登
録されている上記オーダテーブル105の幾何コ
ード欄105Aの内容に対応する属性ポインタ欄
105Bの内容が今回生成する幾何コードが登録
されている上記オーダテーブル105の幾何コー
ド欄105Aの内容に対応する属性ポインタ欄1
05Bの内容と同一であれば、属性を変更するコ
ードを生成する必要がない。また、異なつていた
場合でも、属性テーブル106ないの2つのエン
トリの内容の一部が同一であれば、それについて
の属性変更コードの生成を省略して、より効率的
なコードを生成することができる。
〔発明の効果〕
上述の実施例の説明から明らかなように本発明
に係るビデオテツクス画像作成装置では、一連の
ビデオテツクスコードにより表される各図形領域
からなる画像について、モニター画面上に再現さ
れる任意に選択した中途画面の画像中の任意の図
形領域を指定して該領域に対するビデオテツクス
コード修正処理を施すことによつて、図形の上に
図形を重ねて描かれた画像について上の図形によ
つて隠れてしまつた図形を選択的に修正する等の
ビデオテツクス画像の修正処理を簡単に行うこと
ができ、所期の目的を十分に達成することができ
る。
As mentioned above, in a digital image information transmission system that adopts the NAPLPS method, which transmits time-series videotext code data as image information, it is possible to greatly reduce the amount of image information to be transmitted, and it is possible to transmit images with high transmission efficiency. In addition, the image drawn using the video text code above can be drawn by overlaying the figure on top of the figure, for example, by drawing the bird figure one after another and overpainting, as if it were the above-mentioned image. It is possible to create the effect of a bird flying, but since the geometric code is information that depends on other attribute codes and operand data, it is necessary to change the order in which the above geometric codes are given, or change the attribute code. It requires extremely complicated operations to change the image, and it takes a lot of effort and time to create the image information that represents the single image that is actually transmitted. It is extremely difficult to select and modify a figure that is hidden by an upper figure in the image. Therefore, in view of the above-mentioned problems, the present invention has been made to
It handles a videotext code consisting of a time-series geometric code that represents each area of the image as a geometric figure, and selects the figure hidden by the upper figure in an image drawn by overlapping a figure on top of the figure. It is an object of the present invention to provide a video text code image creation device having a novel configuration that allows operations such as corrections to be easily performed. [Means for solving the problems] The videotex image creation device according to the present invention has the following features:
In order to solve the above-mentioned problems, an image creation device that handles videotext codes consisting of time-series geometric codes that sequentially represent each image region of an image as a geometric figure, Means for selecting an arbitrary intermediate screen of an image consisting of a graphical area and reproducing it on a monitor screen, and a process for specifying an arbitrary graphical area in the image reproduced on the monitor screen and correcting the video text code for the area. The invention is characterized in that it is provided with means for applying. [Operation] In the videotext image creation device according to the present invention, an arbitrarily selected intermediate screen is reproduced on the monitor screen for an image consisting of each graphical area represented by a series of videotext codes. By specifying an arbitrary graphic area in the image reproduced on the monitor screen and applying video text code correction processing to the area, the above figure can be created with respect to the image drawn by overlapping the figure on top of the figure. It is possible to easily perform correction processing on video text images, such as selectively correcting figures hidden by images. [Embodiment] Hereinafter, an embodiment of the videotext image creation apparatus according to the present invention will be described in detail with reference to the drawings. The embodiments shown in FIGS. 1 to 7 illustrate the present invention.
This is applied to a videotex image creation device for image input in a digital image information transmission system using the NAPLPS method. A signal or a color television signal of a standard television system is input, a color image for one frame shown by this input is treated as a set of geometric figure areas, and a geometric code and a color image representing the color image as a geometric figure are generated. Video text code data consisting of time-series codes of the attribute codes is automatically generated by the microcomputer 100 and outputted through the data bus. In the block diagram of FIG. 1 showing the overall configuration of the video text image creation apparatus of this embodiment,
The NTSC color television signal is supplied to the NTSC/RGB converter 5 and the synchronization separation circuit 6 via the first signal input terminal 1, and the RGB color signal is supplied to the input selection circuit via the second signal input terminal 2. 10. The input selection circuit 10 receives an RGB color signal obtained by converting the color television signal supplied from the first signal input terminal 1 via the NTSC/RGB converter 5 or supplies the RGB color signal from the second signal input terminal 2. One of the RGB color signals is selected and one of the RGB color signals is supplied to an analog/digital (A/D) converter 20. Further, the synchronization separation circuit 6 separates the synchronization signal in the color television signal supplied from the first signal input terminal 1 and supplies the synchronization signal to the synchronization switching circuit 15 . This synchronous switching circuit 15
is supplied to the second signal input terminal 2.
A synchronization signal corresponding to the RGB color signal is supplied from the third signal input terminal 3, and the synchronization signal corresponding to the RGB color signal supplied to the A/D converter 20 is supplied to the address data generation block 30. , the selection operation is performed in conjunction with the input selection circuit 10. The address data generation block 30 consists of a PLL oscillator 31 and a counter circuit 32.
By counting the oscillation output pulses in the counter circuit 32, address data synchronized with the synchronization signal is formed, and this address data is supplied to the address selection circuit 35. The address selection circuit 35 selects the address data supplied via the address bus of the microcomputer 100 and the address data supplied from the address data generation block 30,
One address data is supplied to first to fourth frame memories 41, 42, 43, 44, cursor memory 45 and character generator 46. Further, the first to fourth frame memories 41, 42, 43, 44, cursor memory 45
The character generator 46 is configured to exchange various data through the data bus of the microcomputer 100. The first frame memory 41 is a memory for storing original image data, and input color image data obtained by digitizing RGB color signals by the A/D converter 20 is converted into address data from the address data generation block 30. Based on RGB
are written for each color. The input color image data stored in the first frame memory 41 can be read out at any time and used as a digital/analog D/
The A converter 61 converts it into an analog RGB color signal and sends it to the first output selection circuit 71 via the first output selection circuit 71.
It is possible to monitor the original color image by supplying it to the RGB monitor device 81. Further, the second to fourth frame memories 4
2, 43, 44 are the first frame memories 4;
This memory is used as a general-purpose memory for various data processing such as color processing and redundant data reduction processing for the original image data stored in step 1, and various image data in various processing steps described below are written/read through the data bus. Ru. The processed image data stored in the second frame memory 42 is converted into color data in the color table memory 52 and returned to analog RGB color signals via the D/A converter 63. The data-processed color image is supplied to the second output selection circuits 71 and 72 and output to the first or second RGB
It can be monitored using monitor devices 81 and 82. Further, the processed image data stored in the third frame memory 43 is converted into color data in the color table memory 53 and converted into analog data via the D/A converter 64.
The second output selection circuit 7 returns to RGB color signals.
2, and the data-processed color image can be monitored by the second RGB monitor device 82. Further, the fourth frame memory 44 converts the original image data stored in the first frame memory 41 into analog RGB color signals using the D/A converter 61, and then converts the original image data stored in the first frame memory 41 into analog RGB color signals using the RGB/Y converter 68. The black and white image data of the original image obtained by converting it into a signal and further digitizing it via the A/D converter 69 is written. The black and white image data after redundant data reduction processing etc. are performed on the black and white image data is transferred to the color table memory 53 and the D/A.
The signal is converted back to an analog RGB color signal via the converter 63 and supplied to the signal synthesis circuit 70. The signal synthesis circuit 70 is supplied with a cursor display signal from the cursor memory 45, and character data for displaying various control commands of the system is supplied from the character generator 46 to the color table memory 53 in analog RGB colors. An image based on image data converted into a signal and stored in the fourth frame memory 44, a cursor image based on a cursor display signal from the cursor memory 45, and character data from the character generator 46. Combines and outputs RGB color signals that are superimposed with the image.
The image based on the RGB color signals obtained by the signal synthesis circuit 70 is transmitted to the second RGB monitor device 8.
In addition, the RGB color signal can be converted into a luminance Y signal by an RGB/Y converter 80 and monitored by a monochrome monitor device 83. Furthermore, in this embodiment, the microcomputer 100 functions as a system controller that controls the operation of the entire device, and its data bus and address bus include ROM and
An auxiliary memory 90 such as RAM, a floppy disk controller 91, an input/output interface circuit 93, a high-speed arithmetic processing circuit 200, etc. are connected. Incidentally, a tablet 94 and its monitor device 95 are connected to the input/output interface circuit 93 for inputting various data during manual editing processing. The apparatus of this embodiment performs image processing according to the procedure shown in the flowchart of FIG. 2, and automatically converts the input color image data supplied to the first frame memory 41 into a geometric command string. The data is then output via the data bus. That is, in this embodiment, input color image data is first written into the first frame memory 41 and stored as original image data. Here, the input color image data can be changed to an NTSC color television signal or an NTSC color television signal by switching the input selection circuit 10 and the synchronization switching circuit
You can select either RGB color signals.
Further, the original image data stored in the first frame memory 41 is converted into black and white image data by an RGB/Y converter 68, and is also stored in the fourth frame memory 44. Next, the first and fourth frame memories 4
Color processing is performed on the input color image data based on the image data stored in 1 and 44, and further redundant data reduction processing is performed to finally convert it into a geometric command sequence without losing the characteristics of the original image. Automatically generate image data suitable for Here, in the above color processing, the top n colors with high frequency in the original color image indicated by the input color image data stored in the first frame memory 41 are automatically selected, and the above n colors are applied to the pixels. The process of assigning one of the colors is carried out in the procedure shown in the flowchart of FIG. That is, in this color processing, for the input color image data stored in the first frame memory 41, the high-speed arithmetic processing circuit 200 first creates a histogram of each color data, and then selects the top n colors of this histogram. Select automatically.
Next, for each image area shown with the same brightness in the black and white image represented by the black and white image data stored in the fourth frame memory 44, the n colors closest to the color of the original color image are selected. Assign a color to each pixel and create color table data so that the deviation is minimized. The color table data formed by the high-speed arithmetic processing circuit 200 is stored in each color table memory 51, 5.
2,53. Further, color-processed image data in which the n colors are assigned to each of the image areas is written into the second frame memory 42. Further, in this embodiment, for the input color image data stored in the first frame memory 41 as described above, the top n colors of the histogram of each color data are automatically selected, and n colors are added to each image area. In color processing, the histogram of each color data of the input color image data is divided into a plurality of parts in order of hue, and the representative colors of the top n divisions with the largest area are selected as the n colors and assigned to each image area. It is now possible to specify. That is, for example, when selecting 16 colors from 4096 colors in which red R, green G, and blue B are each represented by 4 bits as each color data of the input color image data, the color data in the original image represented by the input color image data When there is a background part that occupies a large area, if you directly select the top n colors from the histogram of each color data, the colors will be specified to accurately represent the hue of the background part that occupies a large area, Since necessary image colors may be specified roughly, in this embodiment, the histogram of each color data is divided into N sections in the order of hue, as shown in FIG. 4, and the n colors are selected. Here, R, G, and B are each represented by 4 bits.
For example, when selecting 16 colors from 4096 colors, N=64
To specify a color as
It is sufficient to form a histogram using the bit data as valid data and determine the top n categories.In this way, the histogram of each color data is divided into N sections in order of hue, and the above n colors are selected.
By varying according to the content of the original image,
Optimal color specification can be performed. The color image subjected to the color processing can be obtained by reading out each color data from the first frame memory 41 using the image data stored in the second frame memory 42 as address data. RGB monitor device 81,
Monitored at 82. In addition, in the redundant data reduction process, redundant data unnecessary for the conversion process to the next geometry command is removed to reduce the information amount.
Then, each image data stored in the fourth frame memories 42 and 44 is subjected to noise cancel processing, halftone removal processing, small area deletion processing, etc. In the conversion process to geometric commands, for the image represented by the variously processed color image data as described above, command data that expresses each image area one by one using geometric commands is converted into the following steps. Formed by In this conversion process to a geometric command, first, the boundary of each image area is traced by the high-speed arithmetic processing circuit 200, the position coordinates of each vertex are detected, and each position coordinate is determined as a vertex position of a geometric figure. Assuming this, it is converted into a geometry command using the above-mentioned PID code, and the necessary vertex position coordinate values, etc. are given as the above-mentioned operands. Note that attribute data such as pel size and color indicating the thickness of the boundary line of the geometric figure are given in advance. Furthermore, in this embodiment, addition of a new motif, movement or deletion of figures, change of color, etc. are artificially added to the color image represented by the series of geometric code strings formed as described above. Manual editing is now possible. This manual editing process is the same as the second one above.
This is carried out as follows using a transparent tablet 94 provided on the screen of the RGB monitor device 82 or a so-called mouse (not shown). That is, the second RGB monitor device 82
On the screen, character information images for displaying various control commands necessary for manual editing processing are provided by the character generator 46, and a cursor indicating position information input from the tablet 94 is displayed. A cursor image for display is provided in the cursor memory 45, and when the operator corrects the image using the pen attached to the tablet 94, the correction results are displayed in real time. It's getting old. In this manual editing process, as shown in the flowchart of FIG. 5A, it is first determined whether or not geometric code addition processing has been specified.
Add a geometric code that indicates the new shape input by the operation. Further, if the result of the above determination is NO, that is, the additional processing of the geometric code is not specified, or if the additional processing of the geometric code is performed, then it is determined whether or not image correction processing is specified, When a modification process is designated, a graphic to be modified is designated by operating the tablet 94, and the necessary modification process is applied to this graphic. Add geometry code to indicate the new geometry being input. Furthermore, if the result of the above judgment is NO, that is, the figure correction process is not specified, or if the above figure correction process has been performed, then it is judged whether or not the drawing work is finished, and the end mode is set. , or returns to determining whether the geometric code addition process has been designated, and repeats the above-described operations. Here, the operation of specifying the figure to be corrected is performed according to the procedure shown in the flowchart of FIG. 5B. That is, first, the second
It is determined whether or not a figure to be corrected appears on the screen of the RGB monitor device 82, and if there is a figure to be corrected on the screen, the tablet 9 is immediately
Specify the shape by performing step 4. In addition, when the figure to be corrected does not appear on the screen, perform the selection operation on the intermediate screen until the figure to be corrected appears on the screen, and then press the tablet 9.
Specify the shape by performing step 4. Once the figure to be corrected is designated by operating the tablet 94, the process proceeds to the above-mentioned correction process. Furthermore, the selection operation of the intermediate screen is performed in accordance with the procedure shown in the flowchart of FIG. 5C. That is, when entering the intermediate screen selection operation mode, the microcomputer 100 once clears the image displayed on the screen of the second RGB monitor device 82, and then clears the image displayed on the screen of the second RGB monitor device 82 by operating the tablet 94. It works by reproducing each image in turn in the order in which they were processed. Note that the designation of the images by operating the tablet 94 is not limited to sequentially designating one image at a time, but may also be designation to move forward or backward in units of multiple images. As in this example, if in manual editing processing, each image is reproduced in order in the order in which it has been processed up to that point, and any intermediate screen can be selected, the images input later can be Even if a figure is hidden, you can specify it with a simple operation and perform the necessary corrections. Further, in this embodiment, the data to be handled, ie, the above-mentioned geometric code, attribute code, etc., is managed by a management system having a configuration as schematically shown in FIG. That is, the management system in this embodiment is configured to handle video text codes via the video text code scratch buffer 101, which temporarily stores the video text codes created as described above. a video text code scratch buffer 101; and the video text code scratch buffer 101.
Code Analyzer 1 that analyzes time-series video text codes stored in and breaks them down into easy-to-manage formats.
02, an attribute buffer 103 that holds attribute code data at the current time in chronological order when the video text code is analyzed by the code analyzer 102, and an attribute buffer 103 that stores the attribute code data of the video text code in order and the order of the attribute code portion of the video text code, which will be described later. an order table 105 that manages pointers to entries in the attribute table 106 and data table 107 and various flags indicating the drawing status; an attribute table 106 that manages the attribute codes; and data that manages the indefinite length operands of the geometric code. It consists of a table 107 and a code generator 104 which generates a video text code to the video text code scratch buffer 101 from data given in the order table 105, attribute table 106 and data table 107. As shown schematically in FIG. 7A, the order table 105 includes a geometric code column 105A indicating a drawing code, and the attribute table 1.
Attribute pointer field 10 that holds a pointer to 06
5B, a data pointer column 105C that holds a pointer to the data table 107, and a flag column 105D that indicates various flags necessary for drawing, and various data are entered in the order of the geometric code part of the video text code. It is becoming more and more common. In addition, the above attribute table 106
As the configuration is schematically shown in FIG. 7B, there is a pel size column 106A indicating the thickness of the drawing brush.
It consists of a color data column 106B indicating the color, and a texture column 106C indicating the pattern, and various data are entered in the order of the pointers shown in the attribute pointer column 105B of the order table 105. . Furthermore, as the structure of the data table 107 is schematically shown in FIG. and an operand field 107B in which are entered, and various data are entered in the order of the pointers shown in the data pointer field 105C of the order table 105. In this embodiment, when handling existing video text code data, the video text code is temporarily stored in the video text code scratch buffer 101, and when it is stored in the video text code scratch buffer 101, the video text code is temporarily stored in the video text code scratch buffer 101. A series of video text code data is sequentially decomposed into significant units by the code analyzer 102, and if it is simply a change in attribute code such as pel size, color or texture, the contents of the attribute buffer 103 are changed. Further, if the result of decomposition by the code analyzer 102 is a geometric code for drawing, that geometric code is registered in the geometric code field 105A of the order table 105, and the operand part of this code is determined by calculating the data length and using the above-mentioned data. Register this entry number in the data length field 107A and operand field 107B of the table 107, and also register this entry number in the order table 107 above.
5 in the data pointer field 105C. Furthermore, at this time, one entry is created in the attribute table 106 using the data in the attribute buffer 103, and this entry number is registered in the attribute pointer column 105B of the order table 105. After completing the above series of registration operations, the code analyzer 102 again disassembles the contents of the video text code scratch buffer 101 and repeats the above series of registration operations. Here, in the series of registration operations described above, if the contents of the attribute buffer 103 have not been changed, the entry number indicating the same attribute previously registered is used without creating a new entry in the attribute table 106. It is designed to be registered in the attribute pointer field 105B of the order table 105. In this way, each of the above tables 105, 10
When generating time-series video text code data from each data registered in 6, 107 in the order in which they were entered in the order table 105, the data is first indicated by the attribute pointer column 105B of the order table 105. Attribute table 10
Attribute codes for changing pel size, color, texture, etc. according to the contents of step 6 are generated in the video text code scratch buffer 101. next,
Geometric code column 105 of the above order table 105
A geometric code given by A is generated, and operand data of the entry in the data table 107 indicated by the data pointer column 105C is added to this geometric code. By repeating this series of operations, video text code data for drawing the same image as that at the time of registration is generated. At this time, the content of the attribute pointer field 105B corresponding to the content of the geometric code field 105A of the order table 105 in which the geometric code generated immediately before is registered is the same as the content of the attribute pointer field 105B in the order table 105 in which the geometric code to be generated this time is registered. Attribute pointer field 1 corresponding to the contents of the geometric code field 105A
If the content is the same as that of 05B, there is no need to generate a code to change the attribute. Furthermore, even if they are different, if part of the contents of the two entries in the attribute table 106 are the same, generation of an attribute change code for that entry can be omitted to generate a more efficient code. I can do it. [Effects of the Invention] As is clear from the description of the embodiments described above, the videotext image creation device according to the present invention reproduces on the monitor screen an image consisting of each graphic area represented by a series of videotext codes. By specifying an arbitrary graphic area in an image of an arbitrarily selected intermediate screen and applying video text code correction processing to the area, the above graphic It is possible to easily perform correction processing on a video text image, such as selectively correcting figures hidden by images, and the intended purpose can be fully achieved.
第1図は本発明をNAPLPS方式のデジタル画
像情報伝送システムにおけるビデオテツクス画像
作成装置に適用した一実施例を示すブロツク図で
ある。第2図は上記実施例における画像処理手順
を示すフローチヤートであり、第3図は同じく色
処理の手順を示すフローチヤートであり、第4図
は上記色処理の動作を説明するための説明図であ
る。第5図Aは上記実施例におけるマニアルエデ
イツト処理の手順を示すフローチヤートであり、
第5図Bは同じく上記マニアルエデイツト処理に
おける図形指定の操作手順を示すフローチヤート
であり、さらに第5図Cは同じく上記図形指定操
作における中途画面の選択操作手順を示すフロー
チヤートである。第6図は上記実施例において取
り扱う各種データの管理方式を説明するための説
明図であり、第7図Aは上記データの管理方式に
おけるオーダテーブルの構成を示す模式図であ
り、第7図Bは同じく上記データの管理方式にお
ける属性テーブルの構成を示す模式図であり、さ
らに第7図Cは同じく上記データの管理方式にお
けるデータテーブルの構成を示す模式図である。
第8図A、第8図B、第8図C、第8図D、およ
び第8図EはNAPLPS方式において使用されて
いるPIDコードによる図形処理をそれぞれ模式的
に示す模式図である。
41,42,43,44,45,46,51,
52,53,54,90……メモリ、81,8
2,83……モニター装置、100……マイクロ
コンピユータ100、101……ビデオテツクス
コードスクラツチバツフア、102……コードア
ナライザ、103……属性バツフア、104……
コードジエネレータ、105……オーダテーブ
ル、106……属性テーブル、107……データ
テーブル。
FIG. 1 is a block diagram showing an embodiment in which the present invention is applied to a videotext image creation device in a NAPLPS digital image information transmission system. FIG. 2 is a flowchart showing the image processing procedure in the above embodiment, FIG. 3 is a flowchart showing the color processing procedure, and FIG. 4 is an explanatory diagram for explaining the color processing operation. It is. FIG. 5A is a flowchart showing the procedure of manual editing processing in the above embodiment,
FIG. 5B is a flowchart showing the operation procedure for specifying a figure in the manual editing process, and FIG. 5C is a flowchart showing the operation procedure for selecting an intermediate screen in the figure specification operation. FIG. 6 is an explanatory diagram for explaining the management method of various data handled in the above embodiment, FIG. 7A is a schematic diagram showing the structure of an order table in the above data management method, and FIG. 7B 7C is a schematic diagram showing the structure of an attribute table in the data management method described above, and FIG. 7C is a schematic diagram showing the structure of a data table in the data management method described above.
FIG. 8A, FIG. 8B, FIG. 8C, FIG. 8D, and FIG. 8E are schematic diagrams each schematically showing graphic processing using a PID code used in the NAPLPS system. 41, 42, 43, 44, 45, 46, 51,
52, 53, 54, 90...Memory, 81, 8
2,83...Monitor device, 100...Microcomputer 100, 101...Video text code scratch buffer, 102...Code analyzer, 103...Attribute buffer, 104...
Code generator, 105...Order table, 106...Attribute table, 107...Data table.
Claims (1)
表す時系列の幾何コードからなるビデオテツクス
コードを取り扱う画像作成装置において、一連の
ビデオテツクスコードにより表される各図形領域
からなる画像の任意の中途画面を選択してモニタ
ー画面上に再現する手段と、上記モニター画面上
に再現された画像中の任意の図形領域を指定して
該領域に対するビデオテツクスコード修正処理を
施す手段とを設けたことを特徴とするビデオテツ
クス画像作成装置。1. In an image creation device that handles videotext codes consisting of time-series geometric codes that sequentially represent each image area of an image as a geometric figure, an arbitrary midway point of an image consisting of each geometric area represented by a series of videotext codes is used. The present invention includes means for selecting a screen and reproducing it on the monitor screen, and means for specifying an arbitrary graphical area in the image reproduced on the monitor screen and performing video text code correction processing on the area. Features of videotex image creation device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP59253657A JPS61131981A (en) | 1984-11-30 | 1984-11-30 | Videotex image forming device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP59253657A JPS61131981A (en) | 1984-11-30 | 1984-11-30 | Videotex image forming device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS61131981A JPS61131981A (en) | 1986-06-19 |
JPH0546758B2 true JPH0546758B2 (en) | 1993-07-14 |
Family
ID=17254368
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP59253657A Granted JPS61131981A (en) | 1984-11-30 | 1984-11-30 | Videotex image forming device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS61131981A (en) |
-
1984
- 1984-11-30 JP JP59253657A patent/JPS61131981A/en active Granted
Also Published As
Publication number | Publication date |
---|---|
JPS61131981A (en) | 1986-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPS61131990A (en) | Videotex image producing system | |
JPH0640219B2 (en) | How to create cutout mask data | |
JPH11250270A (en) | Picture processor | |
JPH0546757B2 (en) | ||
JPH0546758B2 (en) | ||
JP4148114B2 (en) | Image processing apparatus and processing method | |
JPS61131982A (en) | Videotex image forming device | |
KR930008177B1 (en) | Picture image processing apparatus | |
KR930004642B1 (en) | Apparatus for encoding image signal | |
JPS62170287A (en) | Apparatus for forming stitch data of embroidering machine | |
KR930004645B1 (en) | Apparatus for encoding image signal | |
JPH05225299A (en) | Color conversion system | |
JPS6121700Y2 (en) | ||
KR930008176B1 (en) | Apparatus for encoding image signal | |
JPS61161891A (en) | Color correcting method in video film processing device | |
JPS60197073A (en) | Color designation processing unit of color picture | |
JPH06180573A (en) | Image forming method | |
JPS6177088A (en) | Image data processor | |
JP2569437B2 (en) | Image correction device | |
JPH06342280A (en) | Video character pattern processor | |
JP2989261B2 (en) | Coloring equipment | |
JPH09248894A (en) | Manufacture for special color plate specifying image area and device therefor | |
JPH10215410A (en) | Composite drawing data generation method, and composite drawing device | |
JPH032978A (en) | Method and device for control of drawing | |
JPH05290133A (en) | Color image processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |